JP4701187B2 - 画像処理方法、画像処理装置、および画像処理プログラム - Google Patents

画像処理方法、画像処理装置、および画像処理プログラム Download PDF

Info

Publication number
JP4701187B2
JP4701187B2 JP2006547755A JP2006547755A JP4701187B2 JP 4701187 B2 JP4701187 B2 JP 4701187B2 JP 2006547755 A JP2006547755 A JP 2006547755A JP 2006547755 A JP2006547755 A JP 2006547755A JP 4701187 B2 JP4701187 B2 JP 4701187B2
Authority
JP
Japan
Prior art keywords
image
subject
resolution
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006547755A
Other languages
English (en)
Other versions
JPWO2006059504A1 (ja
Inventor
克洋 金森
秀人 本村
寛仁 菰淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2006547755A priority Critical patent/JP4701187B2/ja
Publication of JPWO2006059504A1 publication Critical patent/JPWO2006059504A1/ja
Application granted granted Critical
Publication of JP4701187B2 publication Critical patent/JP4701187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理技術に関し、特に、例えば動画の高解像化などの解像度変換を行うための技術に関するものである。
デジタル映像機器ネットワークの普及により、異なる規格形式のデジタル画像が様々な入出力機器において取り扱われることが、普通になっている。特に画像のサイズ種類は、低解像度から超高解像まで様々な種類がある。静止画では、民生用デジタルスチルカメラの撮像素子は500万画素以上が普通となり、現在では1000万画素を越える製品も登場しており、デジタル写真プリント用途に十分な高解像度化が達成されつつある。
しかしながら、今後のデジタル画像の用途としては、リアルなCG生成のために、実写画像の一部を切り出して大きく拡大または変形し、テキスチャマッピングを行うといった用途が発展すると考えられる。また電子商取引や医療などの用途では、商品や患部をディスプレイに提示する場合、画像の興味領域を自在に大きく表示したいというインタラクティブ表示用途もある。また静止画での高解像度化がある程度達成されたため、今後は動画での解像度拡大、特に映画のようにフレーム画像のそれぞれが静止画として通用する程度の高解像度動画が、大きなニーズになってくると予想されている。
このように、より一層の画像のデジタル的な高解像度化が求められている。ところが、この要求に答えるためには、単に撮像素子の進歩だけでなく、デジタル画像処理の高度化が必須である。
画像高解像度化の応用先としては、カメラのような画像入力系の分野と、テレビのような画像表示系の分野の2つがある。本願は主として、画像入力系への応用に関するものである。
本分野の従来技術としては、低解像度の撮像素子を用いながらも、光学ズーム機構を用いて、最終的に高画角で高解像度の静止画を得るものがあった。
例えば、特許文献1では、連続的な光学ズームを行いながら撮影した動画を、ズーム率を考慮しつつ次々と画像バッファ上に重ねることによって、1枚の広画角・高解像度静止画を生成するカメラが開示されている。また、特許文献2では、ズームレンズを望遠側の最大ズーム位置から広角側の最低ズーム位置までステップ的に移動させ、各位置における複数の画像を磁気テープに書き込み、その読み出し時に各画像を縮小拡大して同じ倍率の画像に変換して重畳し、マスターメモリ上に高解像度の画像を生成するといった技術が開示されている。さらに、特許文献3では、光学ズーム画像を位置合わせをしながら相互に貼り付けて1枚の高解像度静止画を生成し、ヘテロ構造のピラミッド形式に組み立てる技術が開示されている。
また、特許文献4には、光学ズームを用いないで、低解像度と高解像度の画像から高解像度の動画を作り出す技術が開示されている。すなわち、低解像度で高速フレームレートのカメラによる連続した動画の中の対応点情報から、高解像度で低速のカメラによる少ないフレーム数の動画内の対応点を見出し、時間方向の補間技術を用いて、高解像度画像から、高解像度の連続フレーム動画を生成する。
また、特許文献5にも、低解像度と高解像度の画像から高解像度の動画を作り出す技術が開示されている。上述の特許文献4では、高解像度の静止画に動きを付加して動画化しているのに対して、この特許文献5の技術では、低解像度動画の1フレームと高解像度静止画とをサンプル時間毎に対応づけて、動画を空間的に補間して高解像度化している。
特開平11−252428号公報(図3) 特開平8−251477号公報(図2) 米国特許第6681056号明細書 特開2003−203237号公報(図1) 特許第3240339号公報(図14)
しかしながら、従来の技術には、次のような問題があった。
まず、特許文献1〜3に示されたような、光学ズームを用いて高解像度画像を生成する技術では、生成される高解像度画像が静止画に限定されてしまう、という問題がある。現実には、デジタル動画の解像度はデジタル静止画に比較して低いという事実があり、デジタル動画の高解像度化の要望が非常に大きい。
動画の高解像度について、従来技術では、以下の3つの問題がある。
第1に、特許文献1〜3の技術を動画に適用する場合、撮影者の意図に従ったカメラワークによって動画を撮影する録画プロセスと、光学ズームによる部分的な画像取得を行う画像取得プロセスとの両方を実行する必要がある。この両者を時間的にずらして行った場合、高解像度画像と低解像度画像の各領域の対応づけが不明になる。また、空間的対応づけを画像内の各領域について求めるためには、各領域について光学ズームによる画像取得プロセスを行う必要があるが、このためには、画面内の微小領域を選択して光学ズームさせるといった動作を繰り返し実行することになり、煩雑な作業となって、人手で行うには非現実的である。
第2に、特許文献4に開示されたものは、高解像度静止画像のフレームレートを時間的補間技術によって向上させる技術であり、静止画に動きベクトルで動作を付加しているため、生成される動画は、静止画の連続という域を得ない。特に、動画では、パン、チルト、ズームなどの操作によるカメラワークや被写体自身の変形や回転などによって、滑らかに変化する様々なシーンが生じるが、その全ての高解像度画像を静止画からの補間技術によって生成することは困難である。
第3に、特許文献5に開示されたものは、低解像度の動画から、空間的に高解像度の動画を作り出す技術である。具体的には、動画と静止画の対応づけが時間軸上の離散点で行われるため、対応情報が存在しない動画フレームについて、既に対応付けが判明したフレームの情報を用い、類似した信号レベルのエッジを探索し、これを同一の被写体が動いたと考えて空間的に補間する画素を決定する。このため、探索処理の負担が重いという問題があるだけでなく、被写体との距離が変化したり、被写体の変形が生じた場合には、対応づけができず、高解像度化が困難になる可能性が高い。
前記の問題に鑑み、本発明は、動画の高解像度化のような画像の解像度変換を行う技術として、少ない処理量で、精度の高い解像度変換を実現可能にすることを課題とする。
本発明は、被写体について取得した解像度が互いに異なる複数の画像から、被写体特性毎に解像度変換ルールを学習し、取得した原画像を被写体特性に基づき領域分割し、分割された領域に、対応する被写体特性に関して学習した解像度変換ルールを適用することによって、原画像を解像度変換するものである。
この発明によると、まず、被写体について、解像度変換ルールが、解像度が互いに異なる複数の画像から、被写体特性毎に学習される。また、解像度変換の対象となる原画像は、被写体特性に基づき、領域分割される。そして、分割された領域に、対応する被写体特性に関して学習した解像度変換ルールを適用することによって、原画像の解像度変換がなされる。すなわち、原画像の解像度変換が、被写体特性毎の解像度変換ルールを適用して実行されるので、被写体特性が反映された精度の高い解像度変換が実現される。また、原画像上の位置にかかわらず、被写体特性が共通の領域では同じ解像度変換ルールが適用されるので、画像処理の処理量は大幅に削減される。
本発明によると、被写体特性が反映された精度の高い解像度変換を、少ない画像処理量で、実現することができる。したがって本発明は、低解像度の動画を高解像度化するのに有効である。被写体特性として、各画素から算出できる光学的特性を用いることができるので、複雑なカメラワークや被写体との距離の変化や変形や回転などによる、滑らかに変化する様々なシーンにも、容易に適用でき、高品質な動画を生成することができる。また本発明は、高解像度化に限らず、一般的な解像度変換にも適用できるため、例えば、携帯電話のような低解像度表示系への画像表示のための低解像度画像生成にも、有効に利用できる。
本発明の第1態様では、被写体のターゲット領域について、解像度が異なる第1および第2の画像と被写体特性を示す第3の画像とを取得可能に構成された取得部と、前記第1および第2の画像からこの第1および第2の画像を互いに対応付ける解像度変換ルールを生成するルール生成部と、前記第3の画像から前記ターゲット領域の被写体特性を特定し、特定した被写体特性を用いて、被写体特性に基づいて被写体画像を領域分割した領域分割画像を生成する領域分割画像生成部とを備え、前記領域分割画像を表示部に表示するとともに、解像度変換のために、前記解像度変換ルールを前記被写体特性ととともに記録する画像処理装置を提供する。
本発明の第2態様では、前記取得部は、被写体の分光情報からなる分光画像を、前記第3の画像として取得するものである第1態様の画像処理装置を提供する。
本発明の第3態様では、前記取得部は、被写体表面における鏡面反射成分と拡散反射成分との比率を表す鏡面・拡散比率画像を、前記第3の画像として取得する第1態様の画像処理装置を提供する。
本発明の第4態様では、前記取得部は、鏡面反射画像と拡散反射画像とのそれぞれについて、解像度が異なる第1および第2の画像を取得する第1態様の画像処理装置を提供する。
本発明の第5態様では、前記取得部は、ズームレンズを有し、光学ズーム手法を用いて、前記第1および第2の画像を取得する第1態様の画像処理装置を提供する。
本発明の第6態様では、外部から、解像度変換ルール生成を指示するための学習ボタンを備えた第1態様の画像処理装置を提供する。
本発明の第7態様では、前記領域分割画像を表示するための前記表示部を備えた第1態様の画像処理装置を提供する。
本発明の第8態様では、前記取得部は、光軸可変ズーム機構を有し、この光軸可変ズーム機構を用いて、指定されたターゲット領域に光学ズーミングを行い、前記第1および第2の画像を取得する第1態様の画像処理装置を提供する。
本発明の第9態様では、静止画撮影機能とセルフタイマー機構とを有し、前記セルフタイマー機構を用いた静止画撮影を行うとき、撮影前のタイマー動作期間において、前記取得部が前記第1、第2および第3の画像の取得を行う第8態様の画像処理装置を提供する。
本発明の第10態様では、撮影機能と照明環境の変化を検出する照明推定部とを備え、撮影中に前記照明推定部によって照明環境の変化を検出したとき、解像度変換ルールの再生成が必要である旨を撮影者に通知する第1態様の画像処理装置を提供する。
本発明の第11態様では、撮影機能と、解像度変換ルールの生成が必要であるとき、撮影を禁止する機能とを備えた第1態様の画像処理装置を提供する。
本発明の第12態様では、動画録画機能を備え、前記取得部は、前記第1および第2の画像の取得を、動画録画と並列に実行可能に構成されている第1態様の画像処理装置を提供する。
本発明の第13態様では、前記第1および第2の画像のうち前記第1の画像の方が解像度が高いものとすると、前記取得部は、動画録画中に、前記第1の画像として静止画像を撮影するとともに、前記第2の画像として録画されている動画像を取得するものである第12態様の画像処理装置を提供する。
本発明の第14態様では、前記取得部は、前記第3の画像から未学習の被写体特性を認識したとき、前記第1および第2の画像の取得を行う第13態様の画像処理装置を提供する。
本発明の第15態様では、前記取得部は、所定時間が経過する毎に、前記第1および第2の画像の取得を行う第13態様の画像処理装置を提供する。
本発明の第16態様では、前記取得部は、前記第1および第2の画像を撮影するための、解像度が異なる複数の撮像素子を有する第1態様の画像処理装置を提供する。
本発明の第17態様では、被写体のターゲット領域について、解像度が異なる第1および第2の画像と、被写体特性を示す第3の画像とを取得する第1の工程と、前記第1および第2の画像から、この第1および第2の画像を互いに対応付ける解像度変換ルールを、生成する第2の工程と、前記第3の画像から前記ターゲット領域の被写体特性を特定し、特定した被写体特性を用いて、被写体特性に基づいて被写体画像を領域分割した領域分割画像を生成する第3の工程とを備え、前記領域分割画像を表示部に表示するとともに、解像度変換のために、前記解像度変換ルールを前記被写体特性とともに記録する画像処理方法を提供する。
本発明の第18態様では、被写体のターゲット領域について取得した、解像度が異なる第1および第2の画像と、被写体特性を示す第3の画像とを用いた画像処理を行うプログラムとして、前記第1および第2の画像から、この第1および第2の画像を互いに対応付ける解像度変換ルールを、生成する第1の工程と、前記第3の画像から前記ターゲット領域の被写体特性を特定し、特定した被写体特性を用いて、被写体特性に基づいて被写体画像を領域分割した領域分割画像を生成する第2の工程と、前記領域分割画像を表示部に表示するとともに、解像度変換のために、前記解像度変換ルールを前記被写体特性とともに記録する第3の工程とをコンピュータに実行させるものを提供する。
以下、本発明の実施の形態について、図面を参照して、詳細に説明する。
(第1の実施形態)
図1〜図3は本発明の第1の実施形態に係る画像処理方法を示すフローチャートである。図1は学習プロセスを示し、ここでは、被写体について解像度が互いに異なる複数の画像を取得し、この複数の画像から被写体特性毎に解像度変換ルールを学習する。図2は録画プロセスを示し、ここでは、被写体の静止画像または動画像を原画像として取得するとともに、この原画像を被写体特性に基づき領域分割する。図3は高解像度化プロセスを示し、ここでは、分割された領域に、対応する被写体特性に関して学習した解像度変換ルールを適用することによって、原画像を解像度変換する。ここでは、記録された原画像をディスプレイに高解像度表示するために、高解像度化する。
ここで、被写体特性とは、例えば、被写体の分光情報から得ることができる。分光情報は、被写体の材質に依存する。ここでいう材質とは、被写体自体の材料の性質の他に、被写体表面の粗さなどの表面状態を含む。なお、本発明での被写体特性は、分光情報に限定されるものではなく、撮像距離に依存しない光学的特性であれば、どのようなものであってもよい。たとえば、被写体表面の反射特性(BRDF:bi directional distribution function)や、鏡面反射成分と拡散反射成分との比率といった物理的な反射特性も、光の偏光成分を画像と同時に取得することによって、被写体特性として用いることができる。
図1の学習プロセスにおいて、まず、被写体の注目領域であるターゲット領域において、解像度が異なる画像を取得する(S101)。例えば、低解像度画像と高解像度画像とを取得する。また、ターゲット領域について、被写体特性を取得する(S102)。そして、解像度が異なる画像から解像度変換ルールを学習し、これを被写体特性ととともに記憶手段に記録する(S103)。そして、このような処理を、全てのターゲット領域について実行する(S104)。
ステップS103においては、例えば、低解像度画像と高解像度画像とについてそれぞれテキスチャ特徴量を求め、このテキスチャ特徴量同士の対応関係をパラメータ化し、このパラメータを解像度変換ルールとする。なお、このパラメータのことを、本願明細書において、高解像度化パラメータとも呼ぶものとする。
ここで、テキスチャ特徴量は、上述した被写体特性とは全く別の概念である。被写体特性は、例えば分光情報から得られ、被写体の材質などを反映した光学的特性であるのに対して、テキスチャ特徴量は、画像自体の画素パターンの情報である。
図2の録画プロセスにおいて、局所的なターゲット領域でなく、通常の動画や静止画を原画像として取得する(S201)。これとともに、被写体特性を識別し、これを基にして画像領域分割を行い、領域分割画像を生成記録する(S202)。
図3の高解像度化プロセスにおいて、まず、録画プロセスで記録された原画像および領域分割画像と、学習プロセスで学習された被写体特性毎の解像度変換ルールとを、取得する(S301)。そして、原画像の画素を取得し(S302)、当該画素が属する領域の被写体特性について解像度変換ルールが学習済みか否かを判断し(S303)、学習済みのときは(S303でYes)、当該被写体特性に係る解像度変換ルールを適用して高解像度化し(S304)、もし未学習のときは(S303でNo)、通常の補間処理を実施して高解像度化する(S305)。このような処理を、解像度変換の対象となる全ての画素について実行する(S306)。
本発明では、被写体特性を用いて、解像度変換ルールの対応付けや画像領域の分割を行う。ここで、テキスチャなどの画像自身の特徴を用いないで被写体特性を用いたのは、以下の理由による。
第一に、画像特徴を用いた場合は、領域分割を高精度に実施することは難しく、処理量も多くなるためである。特に、動画をリタルタイムで領域分割することが困難になると予想される。第二に、画像特徴は、画像自身のボケや撮像距離の違いに起因して識別が困難になることが多いためである。これに対して、被写体特性は、基本的に1個の画素が持つ情報から取得できるので、識別処理が簡単であり、また撮像距離やボケに対してもロバストである。すなわち、画像特徴を失うほど画像がボケていても、被写体特性は情報として残る可能性が高い。また動画では、被写体は通常静止しておらず、画面内を移動するが、この場合、画像特徴を用いたときは、画像内から該当部分を探索することが必要になるが、被写体特性を用いたときは、探索は極めて容易である。
なお、図1〜図3に示した各プロセスは、典型的には、学習プロセス、録画プロセス、高解像度化プロセスの順に実施されるが、例えば、学習プロセスと録画プロセスとを、時間的に並行に実施してもかまわない。
(第2の実施形態)
本発明の第2の実施形態では、上述の第1の実施形態をベースとして、具体的な画像処理方法について説明する。ここでは、解像度が異なる画像取得のために、光学ズーム手法を用いる。また、被写体特性として、被写体の分光情報を用い、解像度変換ルールとして、高解像度化パラメータ、すなわち、画像のテキスチャ特徴量同士の対応関係を表すパラメータを用いる。
図4は学習プロセスと録画プロセスの例を示す概念図である。図4(a)に示すように、人物の動画撮影に際し、学習プロセスにおいて、ターゲット領域TA1(図では人物の顔)を予め設定し、このターゲット領域TA1にカメラCAの光軸を向けて光学ズームを行う。その後、図4(b)に示すように、録画プロセスに進む。ここでは、人物は多少のの動きはあるがほぼ静止しているので、録画する被写体それ自身に関して学習プロセスを実施することができる。このことは、高解像度化の品質を高める上では望ましい。もちろん、例えば一度しか発生しない事象に対しては、このような順序でプロセスを実行することは必ずもできない。このような場合には、録画プロセスを実施した後、時間的余裕があれば学習プロセスを実施する。また、両者を同時に実施する場合も考えられ、これについては後述する。
図5は本実施形態における学習プロセスを示すフローチャートである。図5において、撮影者がターゲット領域を設定し(S501)、撮影者の指示によってカメラCAの光学ズームが同期して動作する(S502)。これにより、ターゲット領域の高解像度画像と低解像度画像とが取得される。具体的には、可視光画像と分光画像とが生成される(S503,S504)。ここで、可視光画像は、人間の視覚特性に合致したカラー画像やモノクロ画像であり、分光画像は、カラー成分を狭帯域特性をもつフィルタで分光した情報であり、被写体の特性たる材質をよりよく識別するために用いる。そして、可視光画像をテキスチャ特徴量に変換し、ターゲット領域において高解像度テキスチャ特徴量と低解像度テキスチャ特徴量との対応関係をパラメータ化する(S506)。本願明細書では、このパラメータ化のことを学習とも称する。
図6は画像をテキスチャ特徴量ベクトルに変換する手法の一例として、ウェーブレット変換による多重解像度解析を用いた方法を示す図である。図6では、3段階のスケーリングによるウェーブレット変換を用いている。第1段(スケール)では、入力画像INが、X、Y方向のウェーブレット変換により、入力画像INと同一サイズの4成分画像H1H1、H1L1、L1H1、L1L1に分解される。第2段(スケール)では、分解した4成分のうち、X,Y双方向の高周波成分H1H1以外の成分がさらに分解されるが、L1L1のみが再度X,Yの双方向に分解されるのに対して、H1L1とL1H1は1方向への分解だけが行われ、計8個の成分となる。さらに第3段(スケール)では、H2H2以外の成分を分解し、同様にL2L2のみがX,Y双方向への分解、他は1方向への分解が行われ、12個の成分に分解される。ここで、スケールの増加によって2個、4個に再分解されたもの(点線で図示)は、後の合成によって作成することができる。このようなウェーブレット変換の分解によって、図7に示すように、入力画像INは、各画素が16次元の成分に分解されたことになる。これら16成分を束ねたベクトルが、画素位置PPにおけるテキスチャ特徴量TF1である。
以上のようにして、低解像度画像と高解像度画像とをそれぞれテキスチャ特徴量に変換し、これら相互の関係を学習して、分析コードブックと再生コードブックを作成する。なお、このような処理については、阿部淑人、菊池久和、佐々木重信、渡辺弘道、斎藤義明「多重解像度ベクトル量子化を用いた輪郭協調」電子情報通信学会論文誌 Vol.J79A 1996/5 (1032−1040ページ)、などに詳しく説明されており、ここでは詳細な説明を省略する。この場合、ステップS506におけるパラメータ化とは、分析コードブックおよび再生コードブックを作成することに相当する。
次に、ステップS507において、分光画像からターゲット領域の被写体特性を求めて、これを学習済み材質として登録する。具体的には図8に示すように、低解像度で取得された分光画像のカラー情報を特徴ベクトル量子化処理によって1つの特徴量に生成し、これを1つの固有な材質を表現する代表ベクトルとして、登録する。
ステップS508において、他のターゲット領域について学習を行うときは、再度ターゲット領域を設定して、ステップS503〜S507を繰り返す。そうでないときは、画像取得(学習プロセス)を終了する。
ここで図9を用いて、ターゲット領域と光学ズームとの関係について説明する。
図9(a)はズーム前の状態であり、被写体となる人物を広画角で撮影しようとしている。このとき、図4(a)のようにターゲット領域を人物の顔に設定すると、ターゲット領域を中心とした基準枠FL1が設定される。この基準枠FL1は、光学ズームの最大倍率において画面一杯に撮影される狭画角の範囲に相当する。テキスチャ特徴量などの画像処理は、この基準枠FL1を光学ズームの最大倍率での画像サイズに正規化した上で実行される。
そこで、撮影者はターゲット領域、すなわち、基準枠FL1に向かって高解像度画像取得プロセスを起動させる。これに同期して光学ズームが行われる。図9(b)は光学ズームの途中過程を示す図であり、基準枠FL1領域に対してさらにズームが続けられる。そして、最終的に図9(c)に示すような、最大倍率にて光学ズームした基準枠FL1内一杯に高解像度で狭画角の画像が得られる。
IMa,IMb,IMcは、それぞれ、図9(a)〜(c)の状態における基準枠FL1内の画像であり、サイズを正規化したものである。画像IMaは不十分な画素サイズをデジタル補間して画像サイズのみを合致させているため、大幅なボケを生じている。同様に、光学ズーム途中の画像IMbは、画像IMaよりは高解像度化されているものの、補間の影響によってややボケることはやむをえない。そして光学最大ズーム倍率による画像IMcは鮮明な高解像度画像になっている。したがって、基準枠FL1の中心部であるターゲット領域TA1についても、画像IMaでは非常にボケたテキスチャを呈するが、画像IMbでは中間的なボケとなり、画像IMcは非常に鮮明なものとなる。図5のステップS506では、これらのテキスチャ特徴間の対応関係を、ウェーブレット変換を用いた多重解像度ベクトル間の関係としてパラメータ化する。
次にパラメータ化につき説明する。ここでは、パラメータ化は、ベクトル量子化と、分析コードブックと再生コードブックという2種の対応テーブルの作成とによって実現する。
ボケ画像と鮮鋭化画像について、100画素の画素位置ごとに多重解像度ベクトルに変換する。これを、U1〜U100、V1〜V100とする。ベクトルU1〜U100とベクトルV1〜V100との間には、画素位置が同一という関係があるので、コードブックは、Uを入力したとき対応するVを出力するように作成すればよい。ただし、実際には多重解像度ベクトルはベクトル量子化によって代表ベクトルに分類される。
図10の例では、ベクトルUはUAとUBの2種に量子化され、ベクトルVはVAとVBの2種に量子化されている。解析コードブックや再生コードブックの量子化インデックスとは、これら量子化されたベクトル集合に付けられた番号を意味している。そして、コードブックを引くということは、ベクトル番号Vを入力すると量子化されたベクトルの集合の番号である1,2といった番号を得ることに他ならない。また、量子化集合VAには代表ベクトルZ1が、量子化集合VBには代表ベクトルZ2が付随している。これら代表ベクトルは、量子化集合に属するベクトルの平均値や代表値をとるなどの方法によって計算される。
次に、図11に示すように、ベクトル番号から量子化インデックス(1または2)を出力する解析コードブックCB1と、量子化インデックス(1または2)を入力して再生ベクトルを出力する再生コードブックCB2とが生成される。このようにして生成した解析コードブックと再生コードブックを結合して用いることによって、ボケ画像の多重解像度ベクトルを、鮮鋭画像の多重解像度ベクトルに変換することができる。
また、上の例では、一対の低解像度画像と高解像度画像を各々別個に量子化して学習を行うものとしたが、次に、低解像度画像から高解像度画像までの複数の画像サンプル集合を用いて学習を行う例について説明する。
例えば、後述する録画プロセスにおいて滑らかな光学ズームが行われた場合、高解像度表示を行うためには、1×1から2×2、3×3、4×4・・・のようにズームが行われる過程における画像を全て、高解像度化する必要がある。例えば、このようなズーム画像を、2倍の画素数を持つ表示装置に高解像度化表示するためには、ズーム過程における全ての画像について2×2の高解像度化を実行する必要がある。
図12に示すように、上述の2×2の高解像度化を実施するための学習をする画像の対は、光学ズーム率が1×1の画像IM1に対しては、光学ズーム率が2×2の画像IM2であり、光学ズーム率が2×2の画像IM2に対しては、光学ズーム率が4×4の画像IM4である。一般に、学習サンプルとしては、解像度化の倍率Mと撮像された画像自身の光学ズーム倍率Nの積M・Nの光学ズーム画像までが必要である。ただし、これらの学習を別個に実行することは大変な負担になる上、表示プロセスにおいて別々の高解像度化パラメータを用いることとなり、本来滑らかな光学ズーム映像がフレーム毎に変動してしまう可能性もある。
そこで、学習プロセスにおいて、M・N倍までの光学ズームを実施し、これらのサイズの画像を正規化して多重解像度ベクトルの集合を求めて、共通の分析コードブックCBを作成する。コードブックCBにおいて、Z1〜Z3が画像IM1の量子化ベクトル、Z2〜Z6が画像IM2の量子化ベクトル、Z5〜Z9までが画像IM4の量子化ベクトルとする。そして再生コードブックを作るために、分析コードブックCB内での対応を、対になる各画像の画素対応に基づき決定する。この対の学習により、画像IM1の場合は例えば、Z1がZ2に、Z2がZ3に、Z3がZ4にという対応が生成されて、再生コードブックが生成される。
以上のように、高解像度化のための特徴ベクトルは、一連の光学ズーム画像群IM1〜IM4から一度に生成される。このため、使用する量子化ベクトルのバリエーションは制限される可能性があるものの、利用するベクトルの共通性が高まるため、動画として滑らかな光学ズームを維持しつつ、高解像度化を達成することができる。なお、ズーム動画においてより滑らかな高解像度化を実現するためには、離散的な再生コードブックを時間的に補間する手法を採用しても良い。
図13は本実施形態における録画プロセスを示すフローチャートである。録画プロセスでは、図4(b)に示すように例えば動いている人物の動画撮影を実施するが、このときの画角は広画角状態から光学ズーム状態まで様々である。画像が取得されると、図5に示した学習プロセスと同様に、可視光画像の生成(S601)および分光画像の生成(S602)とテキスチャ特徴量変換とが、動画のフレームレートで行われる。そして、分光画像から、分光情報を量子化することによって、材質を表現する被写体特性を算出し(S603)、登録されていた学習済み材質を参照して、画像領域を分割し、同一材質領域をラベリングして材質画像を生成する(S604)。そして、この材質画像と録画された可視光画像である録画動画とを記録、蓄積、転送する(S605)。
図14は材質画像の一例の模式図であり、図4の状況において、人物の顔の肌部分をターゲット領域として学習し、登録した場合の材質画像の例である。図14の画像では、斜線が付された部分が、肌と同質の材質領域として識別されている。
図15は本実施形態において蓄積・転送される画像ファイルフォーマットを模式的に示す図である。図15において、1501は録画プロセスにおいて記録される原画像を表す画像データであり、ここでは、輝度画像またはRGB画像の動画像であり、2次元的な位置と時間の関数としてI(x,y,t)のように表される。従来の動画カメラ機能によって取得されるものと特に変わることはなく、例えばDVやMPEGなどの圧縮された動画像ファイルであればよい。1502は録画プロセスにおいて生成される、原画像における被写体特性に基づき分割された領域を示す領域分割画像データであり、これも動画としてMi(x,y,t)と表される。図15の画像データ1502では人物の肌と同一材質領域のみを示しているが、複数の材質が登録されている場合は、学習登録された各材質の領域と、未学習領域とを示す画像となる。1503は画像学習プロセスにおいて被写体特性毎に学習された高解像度化パラメータデータであり、上述した分析コードブックAC(Mi)および再生コードブックSC(Mi)を含む。
図15に示したような情報は、カメラ装置においてメモリカード等に一緒に記録されてもよいし、ネットワーク経由で転送されてもよい。また図15の情報を全て1個にまとめた画像ファイルを定義して、これを表示系に送るようにしてもよい。これにより、非常にデータ量の多い高解像度動画をそのまま送ることなく、表示側にて自由自在な高解像度化が可能になる。
図16は本実施形態における高解像度化プロセスすなわち表示側での処理を示すフローチャートである。まず、図15に示すような蓄積転送データを受け取り、記録動画(動画像1501)、材質領域分割画像1502、および高解像度化パラメータ(パラメータファイル1503)を取得する(S701)。そして、記録動画の1フレームの各画素を順次処理のために取得する(S702)。材質領域分割画像を参照して、当該画素が学習されたいずれの材質に該当するかを判定する(S703)。学習済みの材質に該当すると判定したときは、画素をテキスチャ特徴量に変換し(S704)、これに、該当する材質に係る高解像度化パラメータを適用して、高解像度テキスチャ特徴量を生成する(S705)。そして、高解像度テキスチャ特徴から画像に逆変換を行う(S706)。これは、図6および図7で説明した処理の逆変換を実施すればよい。一方、学習済みの材質に該当しないと判定された画素については、従来の補間処理を行う(S707)。これらの結果、高解像度動画が表示される。
(第3の実施形態)
図17は本発明の第3の実施形態に係る画像処理装置であって、本発明をビデオムービーカメラに応用した例を示すブロック図である。図17の画像処理装置は、ズームレンズ301、ズーム制御部302、可視光・分光撮像部303、被写体の分光情報からなる第3の画像としての分光画像を生成する分光画像生成部304、可視光画像生成部305、材質画像生成部306、テキスチャ特徴変換部307、学習済み領域分割部308、ディスプレイなどの表示部としての学習済み領域表示部309、材質領域分割画像記録部310、テキスチャ特徴学習部311、高解像度化パラメータ記録部312、学習ボタン313、記録ボタン314、および画像記録部315を備えている。
ズームレンズ301、ズーム制御部302、可視光・分光撮像部303、分光画像生成部304および可視光画像生成部305によって、被写体のターゲット領域について、解像度が異なる第1および第2の画像と被写体特性を示す第3の画像としての分光画像を取得可能に構成された取得部が、構成されている。テキスチャ特徴変換部307およびテキスチャ特徴学習部311によって、取得部によって取得された第1および第2の画像からこの第1および第2の画像を互いに対応付ける解像度変換ルールを生成するルール生成部が、構成されている。材質画像生成部306および学習済み領域分割部308によって、分光画像から被写体特性に基づいて領域分割された領域分割画像を生成する領域分割画像生成部が、構成されている。
撮影者は、動画記録プロセスに先立ち、画像学習プロセスを実行する。まず被写体のターゲット領域を決定して、該当する個所にカメラを向けて学習ボタン313を押す。この信号を受けてズーム制御部302はズームレンズ301を動作させ、可視光・分光撮像部303がターゲット領域の低解像度画像と高解像度画像を取得する。取得画像は、分光画像生成部304および可視光画像生成部305によって、分光画像と、解像度が異なる第1および第2の画像としての可視光画像とに分離される。テキスチャ特徴変換部307は可視光画像をテキスチャ特徴に変換し、材質画像生成部306は分光画像から材質画像を生成する。ここでの材質画像とは、材質という被写体特性に基づき量子化識別された画像を意味する。そして、学習済み領域分割部308が、材質画像の領域分割を行い、材質領域分割画像を生成する。生成された材質領域分割画像は、学習済み領域表示部309に表示される。
図18は学習済み領域表示部の表示例である。図18に示すように、被写体画像を材質で分割した材質領域分割画像が画面中央に表示されている。また、画面左上には、学習済み領域の凡例を示すウィンドウWD1が表示されており、画面右下には、未学習領域の凡例を示すウィンドウWD2が表示されている。ウィンドウWD1から、M1(肌部)、M2(髪部)、M3(コップ)およびM4(革靴)が、すでに学習済みであることが分かる。また、白い領域は未学習領域である。
このような表示を見た撮影者は、学習ボタン313を操作し、例えば、未学習領域である被写体の洋服の上にターゲット領域TA3を設定して、学習を実行する。すなわち、学習済み領域表示部309は、撮影者が未学習領域を確認して他のターゲット領域を設定するための補助を行う役割を持っている。学習開始ボタン313からの信号は、テキスチャ特徴学習部311と高解像度化パラメータ記録部312にも送られ、テキスチャ特徴間の高解像度化パラメータが上述の実施形態で説明したようにして作成され記録される。図19は学習後における学習済み領域表示部309の表示例である。すなわち、M5(洋服部)が学習され、未学習領域は背景部だけになっている。
また、撮影者は、学習済み領域表示部309の表示から、学習した材質が画像内のどの領域に分布しているかを確認し、もし、誤った領域が同一材質としてラベリングされている場合は、再度、ターゲット領域を設定して再学習を行ってもよい。例えば、人物の顔の肌の部分をターゲット領域として設定したとき、図18のように、手足の肌領域が同質として識別されたとする。このとき、撮影者が顔の肌と手足の肌とではテキスチャが異なる、と判断した場合は、顔と手足とが異なる領域に識別されるように、識別閾値等を調整すればよい。
学習プロセスの後に、撮影者は録画プロセスを実行するため、記録ボタン314を押す。これにより、可視光画像生成部305からの動画が画像記録部315に記録される。この場合、適当な画像圧縮が行われることが望ましい。
図20は可視光・分光撮像部303の構成例を示す図である。図20の構成では、3CCD方式の通常のビデオムービーにおけるカラー画像撮像用の光学系と、撮像素子を改良した6バンドの分光画像撮像可能な素子とを用いている。3CCD方式では、ダイクロックプリズム321によって波長帯域がレッド、グリーン、ブルーに分離され、各々のカラーバンドにCCD素子が割り当てられる。この点は同様であるが、図20の構成において異なるのは、各CCD素子内に異なる2種類の透過帯域のCCD素子が配列されている点である。すなわち、レッド波長域のCCD322には、波長域1および波長域2で示すCCD素子が、グリーン波長域のCCD323には、波長域3および波長域4で示すCCD素子が、ブルー波長域のCCD324には波長域5および波長域6で示すCCD素子が、各々配列されている。これらのCCD322,323,324からの出力の補間信号処理によって、画素深度6バンドの分光画像IMG1と、画素深度RGBの3バンドからなる可視光画像IMG2とが、素子画素数と同じ画像サイズで生成できる。
図21は分光画像における各バンドの波長感度を示すグラフである。6個のバンドはそれぞれ、約380nm〜780nmの可視域において、図21に示すような狭い波長域を有する。これにより、R(λ)のような分光情報を3バンドに比べて正確に取得できる。したがって、照明に依存することのない被写体に固有の分光反射率をより正確に求めることができる。加えて、3バンドのカラー画像では同じ緑色に観測されるような被写体についても、植物なのか緑色の紙なのか、というような材質の違いを細かく識別することができる。なお、材質の識別を実現するためには、波長域位置はかならずしも可視域に限定することはなく、近赤外域にバンドを設定することも非常に有効である。また、6バンド画像から可視光画像を生成することは、例えば、
のように簡易に実現できる。
(第4の実施形態)
図22は本発明の第4の実施形態に係る画像処理装置であって、撮影者が操作することなく、自動的に被写体のターゲット領域各部を学習して撮影を行うカメラの構成を示すブロック図である。図22において、図17と共通の構成要素には同一の符号を付しており、ここではその詳細な説明を省略する。図17と異なるのは、光軸可変ズーム機構401、光軸可変ズーム制御部402、カメラ動作プログラム設定部403、カメラ動作表示部404、カメラ動作プログラム蓄積部405、照明推定部406および録画許可部407を備えている点である。光軸可変ズーム機構401、光軸可変ズーム制御部402、可視光・分光撮像部303、分光画像生成部304および可視光画像生成部305によって、取得部が構成されている。
図23は光軸可変ズーム機構の一例を示す概念図である。図23の構成では、光学的手ブレ補正用の技術であるレンズシフト機構を用いている(例えば、特開平11−344669号などを参照)。物体側より正の屈折力を有し像面に対して固定された第1レンズ群411と、負の屈折力を有し光軸上を移動して変倍作用を有する第2レンズ群412と、像面に固定された正の屈折力を有する第3レンズ群413と、像面に固定された負の屈折力を有する第4レンズ群414と、第2レンズ群412の移動及び物体の移動によって変動する像面を基準面から一定の位置を保つように光軸上を移動する正の屈折力を有する第5レンズ群415と、電磁石等によって構成されるレンズシフト機構416とを備えている。光軸の変化は、第3レンズ群413をレンズシフト機構416によって光軸と垂直方向にシフトさせることによって行い、ズーム機能は第2レンズ群412および第5レンズ群415の移動作用によって行う。この機構によって、撮影する画角の中の一定の部位であるターゲット領域を光軸中心に移動でき、同時に光学ズームを行うことができる。これにより、カメラ自身を動かさなくても、画面内ターゲット領域の全てに対して自動的に光学ズームを実行できる。
カメラ動作表示部404には、ターゲット領域の指定などの操作が可能なように、タッチパネルなどの操作手段が、設けられている。
撮影者は、カメラ動作表示部404の表示を見ながら、カメラの録画画角を決定する。本実施形態では、学習プロセスにおいて、カメラがレンズ機構を用いて自動的にターゲットの学習をするため、学習期間中にカメラ位置を固定しておく必要がある。この意味で、記録プロセスにおいてもカメラ画角や向きは固定することが望ましい。
まず、学習プロセスにおいて、撮影範囲と、被写体における複数の異材質ターゲット領域を、画像上の座標で指定する。ここでいう異材質ターゲット領域の指定とは、画面に映った被写体の画像領域を指定することによって、学習を行う被写体の材質を指定する、ことを意味する。指定された内容は、カメラ動作プログラム設定部403においてプログラム化され、ズームと光軸変化によるパン動作とを組み合わせた、画像学習プロセスと録画プロセスの両方の制御プログラムとして、カメラ動作プログラム蓄積部405に蓄積される。
画像学習プロセスでは、光軸可変ズーム制御部402が、カメラ動作プログラム蓄積部405に蓄積されたプログラムに従って、光軸可変ズーム機構401を自動的に制御する。そして、被写体の任意の位置に光軸を合わせて光学ズームを行いつつ、複数のターゲット領域について、高解像度画像の取得と材質の学習とが行われる。
録画プロセスでは、カメラ動作プログラム蓄積部405に蓄積されたプログラムに従って、自動的に、一定時間の動画撮影が行われる。このとき、基本的には、カメラは画角も向きも架台上で固定されている。
照明推定部406は、画像全体の画像処理によって被写体の照明環境の変化を検知して、学習の再実施の必要性を判断する。ここでの学習とは、解像度変換ルールの生成を含む。そして、学習の再実施が必要であると判断されたときは、カメラは、例えばカメラ動作表示部404を介して、その旨を撮影者に通知する。
また、録画許可部407は、学習が終了しないまま録画や撮影を実施しようとした場合、または、照明条件が変化したために再度学習が必要になったのにこれが未実施の場合、録画や撮影を許諾せず、録画ボタンやシャッターを動作させない機構を有する。すなわち、本実施形態に係るカメラは、解像度変換ルールの生成が必要なとき、撮影を禁止する機能を有する。これによって、高解像度化の失敗を未然に防止することができる。
本実施形態に係るカメラの典型的な用途として、図24(a)のような、ステージ上での大人数の合唱を録画する場合が考えられる。この場合、従来は、各メンバーの顔のアップは、撮影者が自分なりのカメラワークによって撮影していた。ところがこれでは、撮影者の好みの人物やグループの中心人物がアップになる率が高く、他のメンバーから不満が出る可能性がある。また、熟練したカメラマンでないと全景や個人のアップを上手く撮影することができず、しかも撮影には相当な集中力が必要とされていた。これに対して本実施形態に係るカメラを用いた場合、撮影者はカメラワークを考えることなくただ全景を撮影してさえいればよく、撮影後の編集によって自在に画像の高解像度化が可能となり、メンバー全員のアップも容易に得られる、という大きな利点がある。
図24(a)において、カメラCAとカメラ架台BSは、被写体であるステージ上の合唱団を撮影するために、例えば客席に設置されている。この場合の学習プロセスを、図25のフローチャートを用いて説明する。
まず撮影者は、合唱団全体の映像の中から特定の場所を光学ズームすることを指定し、カメラ動作表示部404の表示を見ながら、異材質ターゲット領域を手動によって指定する(S801)。図24(b)はこのときの表示と異材質ターゲット領域の指定の一例である。図24(b)では、個人の顔領域(1)、黒い髪(2)、茶髪(3)、データー(4)および楽譜表面の紙(5)が、異材質ターゲット領域としてそれぞれ指定されている。なお、これらの領域は、異なった材質を学習させるために指定しているのであって、その位置の情報は必要ではない。
その後、カメラは、材質画像を生成し(S802)、指定された異材質ターゲット領域と被写体特性(材質)が同じ領域を、画面内から全て自動的に検出する(S803)。そして、光軸可変ズーム機構を持いて異材質ターゲット領域に光学ズームして(S804)、以降は、その異材質ターゲット領域について自動的に学習を行う(S503〜S507)。ここでの処理は第2の実施形態と同様であり、詳細は省略する。全ての異材質ターゲット領域について学習を終了したとき(S805でNo)、学習プロセスを終了する。
図26は学習プロセスと録画プロセスとの時間的な関係を示すタイミングチャートである。図26(a)は動画録画を行う場合を示す。合唱が開始される直前までにターゲット学習(期間t1)を終了し、合唱を動画録画する(期間t2)。録画中は特別なカメラワークは必要なく、ただ全景を撮影するだけでよい。また、例えばステージ上の照明が変化したような場合、分光情報による学習内容が適切でなくなってしまうため、再度の学習(期間t3)が必要となる場合もある。また、所定時間が経過する毎に、学習を行うようにしてもよい。このような場合は、カメラは、照明推定部406によって状況変化を感知し、再度学習が必要であるという指示を撮影者に出す。このとき、録画しつつターゲット学習を行うのが好ましいが、ターゲット学習のために撮影した画像をそのまま録画として代用してもよい。
また、図26(b)は合唱団の集合写真を撮影する場合を示す。この場合は、セルフタイマー機構を用いて、タイマー動作期間において、集合したメンバー全員が静止している状態で、ターゲットとして検出された人物の顔を次々と光学ズームして高解像度化パラメータ化していく(期間t5)。その後、全員の集合写真を撮影する。これにより、1枚の静止画から、後の編集によって、各人の顔を高解像度化することができる。また、照明が変化した場合は、再度の学習を行った後に静止画撮影を行う。この場合、学習が未だなされていない間は、録画許可部407の制御によって、撮影ができないようにすればよい。
なお、この例では、各人の顔は、同じ肌という材質と見なされるため、個別の手法による高解像度化はできない。もし、各人の顔を個別の手法によって高解像度化したい場合には、個々の被写体特性を異なさせるような手法、たとえば、各人が別個の特性を持つ化粧品を用いる、などといった工夫が必要になる。
(第5の実施形態)
図27は本発明の第5の実施形態に係る画像処理装置であって、撮影者が操作することなく、自動的に被写体のターゲット領域各部を学習して撮影を行うカメラの構成を示すブロック図である。図27において、図17および図22と共通の構成要素には同一の符号を付している。
第4の実施形態と異なるのは、画像学習プロセスと録画プロセスとの区別が無くなり、撮影者が通常のムービーカメラと同様の操作によって被写体に向かって録画を開始すると、学習が、必要に応じて、光軸可変ズーム機構を用いて並列に実行される点である。このため、第4の実施形態では学習プロセスの期間はカメラは架台に固定しておくことが必須であったが、本実施形態では手持ちのカメラによって学習と録画を自由に実行することができる。さらに、第3の実施形態では、撮影者が意識して特別な学習プロセスを実施していたが、本実施形態ではその必要がなくなり、撮影者は録画だけに集中できる。
図27において、記録部501と学習部502とは並列に設置されており、ハーフミラー503によって光が分割される。レンズ504を通過した光は、可視光・分光撮像部403を介して記録部501に入力され、第3の実施形態と同様の動作によって、材質画像は材質領域分割画像記録部310に記録され、可視光画像は画像記録部315に記録される。レンズ504はズーム機能を有しているが、録画プロセス時に学習のためのズームが別途可能なように、学習部502の入力側に光軸可変ズーム機構401と光軸可変ズーム制御部402が設けられている。レンズ504、ハーフミラー503、光軸可変ズーム機構401、光軸可変ズーム制御部402、可視光・分光撮像部403、分光画像生成部304および可視光画像生成部305によって、取得部が構成されている。
学習材質制御部505は、予めプログラムされた学習計画(動作プログラム設定部403に格納)に基づき、光軸可変ズーム制御部402およびテキスチャ特徴学習部311を制御する。すなわち、材質画像生成部306の出力から特定の材質の記録が開始されたことを判定すると、光軸可変ズーム制御部402に信号を送って光軸可変ズーム機構401を動作させるとともに、テキスチャ特徴学習部311に信号を送り、高解像度化パラメータを生成させる。生成された高解像度化パラメータは、高解像度化パラメータ記録部312に記録される。
図28は本実施形態における画像録画プロセスを示すフローチャートである。第4の実施形態の図25と異なるのは、画像の録画が学習プロセスと並列に動作する(S901)点のみである。他のステップの処理は第4の実施形態と同様であり、ステップS801では、撮影者はカメラ動作表示部404を見ながら、カメラの録画範囲とその内部における複数のターゲット領域を画像上の座標で選択する。これにより、カメラ動作プログラムが設定される。
図29は本実施形態における低解像度画像および高解像度画像と被写体特性(材質)空間との関係を示す概念図である。図29では、簡単のため、画像は4×4画素にて撮影されているものとする。本実施形態ではまず、低解像度の動画記録画像が取得され、次に被写体特性空間において、画像が領域AR1(材質Aに対応)と領域AR2(材質Bに対応)に分割される。ここで、「材質Aを学習する」というプログラムが予めあると仮定すると、次に領域AR1の位置中心部へ光軸可変ズームし、同一位置で高解像度ではあるが狭画角の画像が取得される。そして、位置が互いに同一の、低解像度画像の領域AR1と高解像度画像の領域AR3との間で、テキスチャ特徴の対応づけ学習が行われる。このように、上述した各実施形態と同様に、2枚の画像間での学習は、単に同一材質の領域同士ではなく、必ず同一被写体の同一位置にて実行される。これによって、高精度の高解像度化を実現することができる。
(第6の実施形態)
図30は本発明の第6の実施形態に係る画像処理装置であって、第5の実施形態と同様に、撮影者が操作することなく、自動的に被写体のターゲット領域各部を学習して撮影を行うカメラの構成を示すブロック図である。図30において、図17および図27と共通の構成要素には同一の符号を付している。
第5の実施形態と異なるのは、光学ズーム機構や光軸可変ズーム機構などを使用せず、低解像度撮像素子603と高解像度撮像素子604とを用いて、同時に同じ画角にて被写体を撮影する点である。高解像度撮像素子は通常、静止画用途のものが多く、動画のフレームレートには対応できないことが多いため、本実施形態では、高解像度撮像素子を用いた学習は動画録画の途中に所定のタイミングで行われるものとする。また、高解像度撮像素子は、分光情報を取得する必要はなく可視光画像のみ取得すればよいものとする。
図30において、記録部601と学習部602とは並列に設置されており、ハーフミラー503によって光が分割される。レンズ504を通過した光は、低解像度撮像素子603を介して動画として記録部601に入力され、第5の実施形態と同様の動作によって、材質画像は材質領域分割画像記録部310に記録され、可視光画像は画像記録部315に記録される。
学習材質制御部505は、予めプログラムされた学習計画に基づき、高解像度撮像素子604およびテキスチャ特徴学習部311を制御する。すなわち、材質画像生成部306の出力から特定の材質の記録が開始されたことを判定すると、高解像度撮像素子604を動作させ、動画と同一画角にて静止画像を撮影させるとともに、学習部602のテキスチャ特徴学習部311に信号を送り、高解像度化パラメータを生成させる。生成された高解像度化パラメータは、高解像度化パラメータ記録部312に記録される。
図31は本実施形態における低解像度画像および高解像度画像と被写体特性(材質)空間との関係を示す概念図である。図31では、簡単のため、低解像度画像は4×4画素にて、高解像度画像は8×8画素にて撮影されているものとする。本実施形態ではまず、広い画角の低解像度画像が動画撮影によって取得され、次に被写体特性空間において、画像が領域AR1(材質Aに対応)と領域AR2(材質Bに対応)に分割される。ここまでは図29と同様である。ここで、「材質Aを学習する」というプログラムが予めあると仮定すると、高解像度撮像素子604によって、低解像度画像と同一位置であり、高解像度で同一画角の静止画像が取得される。そして、位置が互いに同一の、低解像度画像の領域AR1と高解像度画像の領域AR4との間で、テキスチャ特徴の対応づけ学習が行われる。このように、上述した各実施形態と同様に、2枚の画像間での学習は、単に同一材質の領域同士ではなく、必ず同一被写体の同一位置にて実行されるので、これによって高精度の高解像度化を実現することができる。
図32は本実施形態において、高解像度画像の撮影を行うタイミングの例を示す図である。ここで、高解像度画像(静止画)の解像度は、低解像度画像(動画)の2×2倍であるものと仮定する。動画シーケンスでは、期間tAにおいて、材質Aの物体OBAが記録されている。いま、この材質Aを学習するものとすると、まず動画フレームaのタイミングにおいて、フレーム画像Maの2倍の解像度で高解像度の静止画Saが取得される。次のタイミングbでは、物体OBAが光学ズーミングされて大きく撮影されて状態で、再び、高解像度静止画Sbが撮影される。画像Maと画像Sa、画像Mbと画像Sbとの間でテキスチャ特徴の対応付け学習をそれぞれ行い、パラメータ化を実施する。
次に、タイミングzにおいて同じ物体OBAが現れているが、すでに同じ材質Aについて学習済みであるから高解像度撮影は不要である。期間tBでは、別の材質Bを持つ物体OBBが映り始めている。そこで、タイミングcにおいて、材質Bに関する学習を行うため、再び、高解像度静止画Scが撮影される。ある被写体特性が未学習であることは、分光画像から、認識することができる。
このように本実施形態では、被写体の録画プロセスに従って、次々と現れる新しい材質に対して学習を行ってパラメータ化を進めることができる、という利点を有している。
なお、本実施形態では、異なる解像度を持つ2種類の撮像素子を用いるものとしているが、例えば、単一の高解像度の撮像センサを動画用に解像度を落として用いる方法でも、実現は可能である。
本実施形態では、光学ズームを用いていないため、低解像度画像と高解像度画像とにおいて画面の画角および位置座標が常に一致する、という特徴がある。この特徴を活かすと、同一材質と判定された領域であっても、画像内の位置の違いによって、また、撮影した時間の違いによって、個別に異なる高解像度化を実現できる。このことを、上述した合唱団の例をとって、図33を用いて説明する。
いま、合唱団を、時間t1ではフレーミング枠FL1において、時間t2ではフレーミング枠FL2において、動画録画したとする。前列の3名のうち、フレーミング枠FL1ではAさんとBさんがズームされており、フレーミング枠FL2ではBさんとCさんがズームされている。低解像度画像と高解像度画像とは常に対応関係を保っている。
ここで、AさんとBさんがたとえ同じ材質と判定されたとしても、Aさんの画像の高解像度化パラメータPR1とBさんの画像の高解像度化パラメータPR2とは、画像上の位置が異なるため、区別が可能である。また、同じBさんの画像であっても、時間t1における高解像度化パラメータPR2と時間t2における高解像度化パラメータPR3とは、区別が可能である。したがって、高解像度化パラメータを、位置(x,y)と時間tをインデックスとして用いて蓄積すれば、合唱団の各人の顔を、それぞれ別個の解像度変換ルールによって高解像度化でき、より精度を高めることができる。
図34は本実施形態に係る録画プロセスのフローチャートである。ステップS801〜S803は図25と同様である。まず撮影者は、ターゲット領域を手動によって指定する(S801)。ここで、本実施形態では、材質だけでなく、画像内の空間的位置が高解像化に反映されるため、指定するターゲット領域を異位置ターゲット領域と称する。その後、カメラは、材質画像を生成し(S802)、指定された異位置ターゲット領域と被写体特性(材質)が同じ領域を、画面内から全て自動的に検出する(S803)。
このとき、例えば、AさんとBさんの顔を異位置ターゲット領域として指定したとすると、同じ材質(肌)であるCさん、Dさん…と、多数の領域が検出される可能性がある。この場合、検出されたそれぞれの領域に対して、どの学習結果すなわち高解像度化パラメータを適用すればよいか、という問題が生じる。例えば、指定したターゲット領域では、そのターゲット領域について学習した高解像度化パラメータを優先採用する。そして、ステップS803において検出された領域では、指定したターゲット領域の高解像度化パラメータのいずれを採用してもよいし、複数の高解像度化パラメータを補間して用いてもよい。
そして図29と同様に、学習と並行して録画が行われる(S901)。学習では、未学習領域が検出されたとき、または、動画録画が一定時間経過したとき、高解像度の静止画像が取得される(S1001,S1002)。その後、高解像度静止画像と低解像度動画像像とから、高解像度化パラメータが学習される。ただしこの高解像度化パラメータは、画面空間(x、y)と時間tの関数として蓄積される(S1003)。
図35は本実施形態において得られる画像ファイルフォーマットを模式的に示す図である。図15と対比すると、分析コードブックAC(Mi,x,y,t)および再生コードブックSC(Mi,x,y,t)からなる高解像度化パラメータデータ3501が、位置(x,y)と時間tの関数として表されている点が異なる。図35のフォーマットを用いた本実施形態における高解像度化プロセスは図16とほぼ同様であり、ステップS705において、空間位置(x、y)と時間tが合った高解像度化パラメータを用いるようにすればよい。
図36は本実施形態における高解像度化の例を示す模式図である。第4の実施形態と異なり、個々人の顔は同一材質(肌部)と見なされるが位置が異なるため、個別の高解像度化パラメータを用いて高解像度化できる。すなわち、AさんからFさんまでの個人毎に高解像度化が実現できる。例えば、低解像度でボケた状態で録画された動画から、個人の顔を別人として高解像度できる。また当然、髪部1や髪部2、楽譜の紙部など、材質別に高解像度化できればよいものは、特に必要がなければ、個別の高解像度化を行わなくてよい。
(第7の実施形態)
図37は本発明の第7の実施形態に係る画像処理装置であって、本発明をビデオムービーカメラに応用した例を示すブロック図である。本実施形態では、被写体特性として、鏡面反射成分と拡散反射成分とから得た被写体の表面反射状態を用いて、画像を表面反射状態に基づいて領域分割し、領域ごとに学習によって高解像度化する。上述の第3の実施形態における図17の構成との相違は、被写体表面における鏡面反射成分と拡散反射成分との比率を表す鏡面・拡散比率画像711を、可視光画像713とともに生成する鏡面反射・拡散反射分離撮像部701が設けられている点である。また、鏡面・拡散比率画像711を2値化することによって、鏡面反射領域と拡散反射領域とに領域分割された表面反射分割画像712を生成する学習済み領域分割部702と、この表面反射分割画像712を記録する表面反射分割画像記録部703が設けられている。表面反射分割画像712を学習済み領域表示部309に表示することによって、撮影者に学習の便を図っている。また、表面反射分割画像712は高解像度化プロセスにおいて領域識別情報として用いられる。
ズームレンズ301、ズーム制御部302、および鏡面反射・拡散反射分離撮像部701によって、被写体のターゲット領域について、解像度が異なる第1および第2の画像と、被写体特性を示す第3の画像としての鏡面・拡散比率画像を取得可能に構成された取得部が、構成されている。テキスチャ特徴変換部307およびテキスチャ特徴学習部311によって、取得部によって取得された第1および第2の画像からこの第1および第2の画像を互いに対応付ける解像度変換ルールを生成するルール生成部が、構成されている。学習済み領域分割部702によって、鏡面・拡散比率画像から被写体特性に基づいて領域分割された領域分割画像としての表面反射分割画像を生成する領域分割画像生成部が、構成されている。
上述した第6の実施形態までは、被写体特性は、被写体表面の材質など物質固有の性質としてきた。しかし同じ材質の被写体であっても、ある照明下である方向から観察した場合、表面での光の反射状態は位置によって異なる場合がある。すなわち、高解像度化に必要となる表面の凹凸などに起因するテキスチャ特徴は、被写体表面の反射状態によって全く異なってくるはずである。例えば、表面に凹凸が多い果物などを撮影する場合、表面の材質は同質であっても、ハイライト部分とシャドウ部分とでは表面凹凸が作るテキスチャは異なるため、これらは異なる領域として学習するのが好ましい。表面反射分割画像712は、照明と観察条件から決定される見かけの反射特性すなわち被写体表面の反射状態の違いに応じて、領域分割された画像である。
撮影者は、動画記録プロセスに先立ち、画像学習プロセスを実行する。まず被写体のターゲット領域を決定して、該当する個所にカメラを向けて学習ボタン313を押す。この信号を受けてズーム制御部302はズームレンズ301を動作させ、鏡面反射・拡散反射分離撮像部701がターゲット領域の低解像度画像と高解像度画像(可視光画像713)を取得する。また鏡面反射・拡散反射分離撮像部701は、鏡面反射成分と拡散反射成分とを分離し、鏡面・拡散比率画像711を生成する。学習済み領域分割部702は鏡面・拡散比率画像711を2値化して、表面反射分割画像712を生成する。生成された表面反射分割画像712は学習済み領域表示部309に表示される。
図38は学習済み領域表示部309の表示例である。図38では、被写体は表面に光沢を有する円筒としている。図38の例では、被写体画像を「光沢部(鏡面反射領域)」と「マット部(拡散反射領域)」とに分割した表面反射分割画像712が、画面中央に表示されている。また、画面左上には、学習済み領域の凡例を示すウィンドウWD1が表示されている。ウィンドウWD1から、Diffuse(拡散反射領域)だけがすでに学習済みであることが分かる。一方、円筒の光沢部についてはまだ学習がなされていない。
このような表示を見た撮影者は、学習ボタン313を操作し、未学習領域である被写体の領域にターゲット領域TA1を設定して、学習を実行する。すなわち、学習済み領域表示部309は、撮影者が未学習領域を確認して他のターゲット領域を設定するための補助を行う役割を持っている。学習ボタン313からの信号は、テキスチャ特徴学習部311と高解像度化パラメータ記録部312にも送られ、テキスチャ特徴間の高解像度化パラメータが作成され記録される。
また、撮影者は、学習済み領域表示部309の表示から、学習した領域が画像内のどの領域に分布しているかを確認し、もし、誤った領域が同一としてラベリングされている場合は、再度、ターゲット領域を設定して再学習を行ってもよい。
学習プロセスの後に、撮影者は録画プロセスを実行するため、記録ボタン314を押す。これにより、可視光画像713の動画が画像記録部315に記録される。この場合、適当な画像圧縮が行われることが望ましい。
図39は鏡面反射・拡散反射分離撮像部701の構成例を示す図である。この構成では、ズームレンズを通った被写体からの光はハーフミラー721で分解され、各々異なる偏光軸を有する偏光板722,723を透過して、単板撮像素子724,725に到達する。単板撮像素子724,725としては、非常に輝度の明るい鏡面反射を撮影できる広ダイナミックレンジ素子を用いる。推定部726は各撮像素子724,725からの画像信号を用いて、鏡面反射成分と拡散反射成分とを分離し、鏡面反射画像728と拡散反射画像729とを生成する。この詳細手法については、たとえば「拡散/鏡面反射分離のための2画像同時観測システムの試作」(第9回画像センシングシンポジウム講演論文集 I-1,PP537-542)などに詳しい。なお本手法によって分離可能な被写体は、非金属のプラスチックなど2色性反射モデルに合致する材質の被写体に限られる。そして反射画像加工部727は、鏡面反射画像728と拡散反射画像729から、各画素位置での鏡面反射成分と拡散反射成分との比率を示す鏡面・拡散比率画像711と、分離前の可視光画像713(分離した鏡面反射画像728と拡散反射画像729の和)を生成する。
図40〜図42は本実施形態における処理の流れを示す図であり、図40は学習プロセス、図41は動画記録プロセス、図42は高解像度化プロセスをそれぞれ示している。図40に示すように、学習プロセスでは、まず被写体731を撮影し、表面反射分割画像712を生成する。図中で、「S」は鏡面反射領域を示し、「D」は拡散反射領域を示す。この表面反射分割画像712から、撮影者はズームするターゲット領域を知り、被写体731表面をズームレンズで撮影して高解像度と低解像度の画像対の学習を実施する。この結果、領域ごとの高解像度化パラメータとして、拡散反射領域高解像度化パラメータ732、鏡面反射領域高解像度化パラメータ733が得られる。
次に図41に示すように、動画記録プロセスでは、被写体741を撮影し、低解像度動画742を記録する。このとき、低解像度の表面反射分割動画743も同時に記録される。なお、このときの被写体741は、学習プロセスの際の被写体731と必ずしも同一とはいえず、また、照明条件や撮影条件も必ずしも同一とはいえない。図41において、被写体741を図40と異なり寝かせた状態として描いているのは、このことを意味する。
次に図42に示すように、高解像度化プロセスでは、低解像度動画742を高解像度化して高解像度動画752を生成する。このとき、領域識別部751が表面反射分割動画743を用いて領域を識別する。そして、拡散反射領域では拡散反射領域高解像度化パラメータ732が用いられ、鏡面反射領域では鏡面反射領域高解像度化パラメータ733が用いられて、高解像度化が行われる。高解像度化の詳細については、上述した実施形態と同様であるため、説明を省略する。
以上のように本実施形態によると、被写体は鏡面反射と拡散反射という表面反射状態に依存して異なるテキスチャ特徴を持つため、この表面反射状態を識別して、それぞれに最適な高解像度化を実施することができる。したがって、従来の輝度だけを用いる学習型の高解像度化手法や、分光画像など材質による被写体画像の分離よりも、優れた高解像度化が実現できる。
なお、本実施形態では、鏡面反射・拡散反射分離撮像部701の構成として、ハーフミラーと偏光板を用いた構成を例示したが、この代わりに、ハーフミラーを用いないで、偏光板を回転させて異なる2種以上の偏光軸で撮影するようにして鏡面反射成分と拡散反射成分とを分離してもよいし、また照明を偏光させる方法を利用してもよい。また、偏光板を用いないで鏡面反射成分と拡散反射成分とを分離する手法についても、反射光の色特性を用いる方法、光源を変動させるフォトメトリックステレオと画像の線形化を用いた方法など様々知られている。これらについては「物体の見えからの拡散/鏡面反射成分の分離 −偏光フィルタを介した多重観測と確率的独立性を用いて−」、画像の認識・理解シンポジウム (MIRU)2002、I-469〜476に詳しい。鏡面反射・拡散反射分離撮像部701の構成としてこれら既存の方法を利用してもよい。
(第8の実施形態)
図43は本発明の第8の実施形態に係る画像処理装置であって、本発明をビデオムービーカメラに応用した例を示すブロック図である。第7の実施形態における図37の構成との相違は、可視光画像713の代わりに、鏡面反射画像728と拡散反射画像729とのそれぞれについて、学習・記録を行う点である。図37の構成では、可視光画像713について解像度が異なる第1および第2の画像を取得していたが、図43の構成では、鏡面反射画像728と拡散反射画像729とのそれぞれについて、解像度が異なる第1および第2の画像を取得する。鏡面反射画像用として、テキスチャ特徴変換部307a、テキスチャ特徴学習部311a、高解像度化パラメータ記録部312aおよび画像記録部315aが設けられ、拡散反射画像用として、テキスチャ特徴変換部307b、テキスチャ特徴学習部311b、高解像度化パラメータ記録部312bおよび画像記録部315bが設けられている。
鏡面反射成分を輝度から分離することによって、被写体表面の凹凸による微細テキスチャ情報がより正確に求められ、また、拡散反射成分を分離することによって、被写体表面の印刷など反射率(アルベド)の情報がより正確に求められる。このため、鏡面反射画像と拡散反射画像とについてそれぞれ高解像度化を行い、両者を合成することによって、従来よりも高性能な高解像度化が実現できる。
また、鏡面反射画像と拡散反射画像とが分離されて記録されるため、表面反射分割画像712の記録は不要となる。すなわち、表面反射分割画像712は、学習済み領域表示部309に表示して、撮影者に被写体のどの部分を学習すればよいかを示すだけの役割となる。
撮影者は、動画記録プロセスに先立ち、画像学習プロセスを実行する。まず被写体のターゲット領域を決定して、該当する個所にカメラを向けて学習ボタン313を押す。この信号を受けてズーム制御部302はズームレンズ301を動作させ、鏡面反射・拡散反射分離撮像部3703がターゲット領域の低解像度画像と高解像度画像を、鏡面反射画像728と拡散反射画像729とのそれぞれについて取得する。また鏡面反射・拡散反射分離撮像部701は、鏡面・拡散比率画像711を生成し、学習済み領域分割部702は鏡面・拡散比率画像711を2値化して、表面反射分割画像712を生成する。生成された表面反射分割画像712は学習済み領域表示部309に表示される。
学習済み領域表示部309に表示された表面反射分割画像712を見た撮影者は、学習ボタン313を操作し、未学習領域である被写体の領域にターゲット領域を設定して、学習を実行する。学習開始ボタン313からの信号は、テキスチャ特徴学習部311a,311bと高解像度化パラメータ記録部312a,312bにも送られ、テキスチャ特徴間の高解像度化パラメータが作成され記録される。
図44〜図46は本実施形態における処理の流れを示す図であり、図44は学習プロセス、図45は動画記録プロセス、図46は高解像度化プロセスをそれぞれ示している。図44に示すように、学習プロセスでは、被写体801について鏡面反射画像728と拡散反射画像729とが取得され、鏡面反射成分高解像度化パラメータ802と拡散反射成分高解像度化パラメータ803とが蓄積される。
学習プロセスの後に、撮影者は録画プロセスを実行するため、記録ボタン314を押す。これにより、図45に示すように、被写体811について撮影が行われ、可視光画像の動画が成分分離されて、鏡面反射画像812と拡散反射画像813とが記録される。これらの画像は、ズームせずに低解像度にて撮影記録された動画である。この場合、適当な画像圧縮が行われることが望ましい。
次に図46に示すように、高解像度化プロセスでは、まず、記録された鏡面反射画像812について鏡面反射成分高解像度化パラメータ802を用いて高解像度化が行われ、高解像度鏡面反射画像822が生成される。また同時に、拡散反射画像813について拡散反射成分高解像度化パラメータ803を用いて高解像度化が行われ、高解像度拡散反射画像823が生成される。高解像度化の詳細については、上述した実施形態と同様であり、説明を省略する。最後に、高解像度化された2成分の画像822,823が加算部824によって加算され、高解像度画像825が生成される。
最後に、第7および第8の実施形態に係る発明の実施検出の可能性について述べておく。この発明では、同一の材質の被写体であっても、照明と観察条件によって反射状態が異なる領域ごとに、異なるタイプの高解像度化が実施されることが特徴である。したがって、同じ材質の被写体を、反射状態が異なる領域が生じるように撮影して、その際の高解像度化の様子が領域に応じて異なることが検出されれば、発明の実施の明確な証拠となる。
本発明は、被写体特性が反映された精度の高い解像度変換を、少ない画像処理量で、実現することができるので、例えば、視覚的情報量が重要視される様々な応用分野において、材質感あふれるデジタル高解像度動画像を生成するのに有効である。また例えば、携帯電話のような低解像度表示系への画像表示にも、有効である。
本発明の第1の実施形態に係る画像処理方法における学習プロセスを示すフローチャートである。 本発明の第1実施形態に係る画像処理方法における録画プロセスを示すフローチャートである。 本発明の第1実施形態に係る画像処理方法における高解像度化プロセスを示すフローチャートである。 学習プロセスと録画プロセスの例を示す概念図である。 本発明の第2の実施形態に係る画像処理方法における学習プロセスを示すフローチャートである。 テキスチャ特徴量への変換手法の一例を示す図である。 変換後のテキスチャ特徴量を示す図である。 学習済み材質の登録を説明するための図である。 ターゲット領域と光学ズームとの関係を説明するための図である。 コードブックの作成を具体的に説明するための図である。 コードブックの作成を具体的に説明するための図である。 ズーム画像とコードブックとの関係を示す図である。 本発明の第2の実施形態に係る画像処理方法における録画プロセスを示すフローチャートである。 材質割画像の一例を示す模式図である。 本発明の第2の実施形態における画像ファイルフォーマットを示す図である。 本発明の第2の実施形態に係る画像処理方法における高解像度化プロセスを示すフローチャートである。 本発明の第3の実施形態に係る画像処理装置を示すブロック図である。 学習済み領域表示部の表示例である。 学習済み領域表示部の学習後の表示例である。 可視光・分光撮像部の構成例を示す図である。 分光画像における各バンドの波長感度を示すグラフである。 本発明の第4の実施形態に係る画像処理装置を示すブロック図である。 光軸可変ズーム機構の一例を示す概念図である。 本発明の第4の実施形態に係るカメラの利用例と、ターゲット領域の設定例を示す図である。 本発明の第4の実施形態における学習プロセスを示すフローチャートである。 本発明の第4の実施形態における学習プロセスと録画プロセスの時間的な関係を示すタイミングチャートである。 本発明の第5の実施形態に係る画像処理装置を示すブロック図である。 本発明の第5の実施形態における画像録画プロセスを示すフローチャートである。 本発明の第5の実施形態における低解像度および高解像度画像と被写体特性空間との関係を示す概念図である。 本発明の第6の実施形態に係る画像処理装置の構成を示すブロック図である。 本発明の第6の実施形態における低解像度および高解像度画像と被写体特性空間との関係を示す概念図である。 本発明の第6の実施形態における高解像度画像の撮影タイミングの例を示す図である。 本発明の第6の実施形態における低解像度画像と高解像度画像との対応関係を示す図である。 本発明の第6の実施形態における録画プロセスを示すフローチャートである。 本発明の第6の実施形態における画像ファイルフォーマットを示す図である。 本発明の第6の実施形態における高解像度化の例を示す模式図である。 本発明の第7の実施形態に係る画像処理装置の構成を示すブロック図である。 本発明の第7の実施形態における表面反射分割画像の表示例である。 本発明の第7の実施形態における鏡面反射・拡散反射分離撮像部の構成例を示す図である。 本発明の第7の実施形態における学習プロセスを示す図である。 本発明の第7の実施形態における動画記録プロセスを示す図である。 本発明の第7の実施形態における高解像度化プロセスを示す図である。 本発明の第8の実施形態に係る画像処理装置の構成を示すブロック図である。 本発明の第8の実施形態における学習プロセスを示す図である。 本発明の第8の実施形態における動画記録プロセスを示す図である。 本発明の第8の実施形態における高解像度化プロセスを示す図である。
TA1 ターゲット領域
IMa,IMb,IMc 画像
301 ズームレンズ
302 ズーム制御部
303 可視光・分光撮像部
304 分光画像生成部
305 可視光画像生成部
306 材質画像生成部
307 テキスチャ特徴変換部
308 学習済み領域分割部
309 学習済み領域表示部(表示部)
311 テキスチャ特徴学習部
313 学習ボタン
401 光軸可変ズーム機構
402 光軸可変ズーム制御部
404 カメラ動作表示部
406 照明推定部
407 録画許可部
603 低解像度撮像素子
604 高解像度撮像素子
701 鏡面反射・拡散反射分離撮像部
711 鏡面・拡散比率画像
728 鏡面反射画像
729 拡散反射画像
1501 画像データ
1502 領域分割画像データ
1503 高解像度化パラメータデータ
3501 高解像度化パラメータデータ

Claims (18)

  1. 被写体のターゲット領域について、解像度が異なる第1および第2の画像と、被写体特性を示す第3の画像とを取得可能に構成された取得部と、
    前記第1および第2の画像から、この第1および第2の画像を互いに対応付ける解像度変換ルールを、生成するルール生成部と、
    前記第3の画像から前記ターゲット領域の被写体特性を特定し、特定した被写体特性を用いて、被写体特性に基づいて被写体画像を領域分割した領域分割画像を生成する領域分割画像生成部とを備え
    前記領域分割画像を表示部に表示するとともに、解像度変換のために、前記解像度変換ルールを前記被写体特性とともに記録する
    ことを特徴とする画像処理装置。
  2. 請求項1において、
    前記取得部は、被写体の分光情報からなる分光画像を、前記第3の画像として取得するものである
    ことを特徴とする画像処理装置。
  3. 請求項1において、
    前記取得部は、被写体表面における鏡面反射成分と拡散反射成分との比率を表す鏡面・拡散比率画像を、前記第3の画像として取得する
    ことを特徴とする画像処理装置。
  4. 請求項1において、
    前記取得部は、鏡面反射画像と拡散反射画像とのそれぞれについて、解像度が異なる第1および第2の画像を取得する
    ことを特徴とする画像処理装置。
  5. 請求項1において、
    前記取得部は、ズームレンズを有し、光学ズーム手法を用いて、前記第1および第2の画像を取得するものである
    ことを特徴とする画像処理装置。
  6. 請求項1において、
    外部から、解像度変換ルール生成を指示するための学習ボタンを、備えた
    ことを特徴とする画像処理装置。
  7. 請求項1において、
    前記領域分割画像を表示するための前記表示部を、備えた
    ことを特徴とする画像処理装置。
  8. 請求項1において、
    前記取得部は、光軸可変ズーム機構を有し、この光軸可変ズーム機構を用いて、指定されたターゲット領域に光学ズーミングを行い、前記第1および第2の画像を取得するものである
    ことを特徴とする画像処理装置。
  9. 請求項8において、
    静止画撮影機能と、セルフタイマー機構とを有し、
    前記セルフタイマー機構を用いた静止画撮影を行うとき、撮影前のタイマー動作期間において、前記取得部が、前記第1、第2および第3の画像の取得を行うものである
    ことを特徴とする画像処理装置。
  10. 請求項1において、
    撮影機能と、照明環境の変化を検出する照明推定部とを備え、
    撮影中に、前記照明推定部によって照明環境の変化を検出したとき、解像度変換ルールの再生成が必要である旨を、撮影者に通知する
    ことを特徴とする画像処理装置。
  11. 請求項1において、
    撮影機能と、
    解像度変換ルールの生成が必要であるとき、撮影を禁止する機能とを備えた
    ことを特徴とする画像処理装置。
  12. 請求項1において、
    動画録画機能を備え、
    前記取得部は、前記第1および第2の画像の取得を、動画録画と並列に、実行可能に構成されている
    ことを特徴とする画像処理装置。
  13. 請求項12において、
    前記第1および第2の画像のうち、前記第1の画像の方が、解像度が高いものとすると、
    前記取得部は、動画録画中に、前記第1の画像として、静止画像を撮影するとともに、前記第2の画像として、録画されている動画像を取得するものである
    ことを特徴とする画像処理装置。
  14. 請求項13において、
    前記取得部は、前記第3の画像から未学習の被写体特性を認識したとき、前記第1および第2の画像の取得を行う
    ことを特徴とする画像処理装置。
  15. 請求項13において、
    前記取得部は、所定時間が経過する毎に、前記第1および第2の画像の取得を行う
    ことを特徴とする画像処理装置。
  16. 請求項1において、
    前記取得部は、前記第1および第2の画像を撮影するための、解像度が異なる複数の撮像素子を有する
    ことを特徴とする画像処理装置。
  17. 被写体のターゲット領域について、解像度が異なる第1および第2の画像と、被写体特性を示す第3の画像とを取得する第1の工程と、
    前記第1および第2の画像から、この第1および第2の画像を互いに対応付ける解像度変換ルールを、生成する第2の工程と、
    前記第3の画像から前記ターゲット領域の被写体特性を特定し、特定した被写体特性を用いて、被写体特性に基づいて被写体画像を領域分割した領域分割画像を生成する第3の工程とを備え
    前記領域分割画像を表示部に表示するとともに、解像度変換のために、前記解像度変換ルールを前記被写体特性とともに記録する
    ことを特徴とする画像処理方法。
  18. 被写体のターゲット領域について取得した、解像度が異なる第1および第2の画像と、被写体特性を示す第3の画像とを用いた画像処理を行うプログラムであって、
    前記第1および第2の画像から、この第1および第2の画像を互いに対応付ける解像度変換ルールを、生成する第1の工程と、
    前記第3の画像から前記ターゲット領域の被写体特性を特定し、特定した被写体特性を用いて、被写体特性に基づいて被写体画像を領域分割した領域分割画像を生成する第2の工程と
    前記領域分割画像を表示部に表示するとともに、解像度変換のために、前記解像度変換ルールを前記被写体特性ととともに記録する第3の工程とを
    コンピュータに実行させる画像処理プログラム。
JP2006547755A 2004-11-30 2005-11-18 画像処理方法、画像処理装置、および画像処理プログラム Active JP4701187B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006547755A JP4701187B2 (ja) 2004-11-30 2005-11-18 画像処理方法、画像処理装置、および画像処理プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004346985 2004-11-30
JP2004346985 2004-11-30
PCT/JP2005/021257 WO2006059504A1 (ja) 2004-11-30 2005-11-18 画像処理方法、画像処理装置、画像処理プログラムおよび画像ファイルフォーマット
JP2006547755A JP4701187B2 (ja) 2004-11-30 2005-11-18 画像処理方法、画像処理装置、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2006059504A1 JPWO2006059504A1 (ja) 2008-06-05
JP4701187B2 true JP4701187B2 (ja) 2011-06-15

Family

ID=36564939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006547755A Active JP4701187B2 (ja) 2004-11-30 2005-11-18 画像処理方法、画像処理装置、および画像処理プログラム

Country Status (4)

Country Link
US (2) US7924315B2 (ja)
JP (1) JP4701187B2 (ja)
CN (2) CN101431611A (ja)
WO (1) WO2006059504A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200025207A (ko) * 2018-08-29 2020-03-10 이형용 영상 화질 보정 방법 및 이를 이용한 장치

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101053249B (zh) * 2005-09-09 2011-02-16 松下电器产业株式会社 图像处理方法、图像存储方法、图像处理装置及文件格式
JP5684488B2 (ja) 2009-04-20 2015-03-11 富士フイルム株式会社 画像処理装置、画像処理方法およびプログラム
US20110075144A1 (en) * 2009-09-25 2011-03-31 Bossa Nova Technologies, Llc Visual appearance measurement method and system for randomly arranged birefringent fibers
US8223322B2 (en) * 2009-09-25 2012-07-17 Bossa Nova Technologies, Llc Visual appearance measurement method and system for randomly and regularly arranged birefringent fibers
JP5340895B2 (ja) * 2009-11-24 2013-11-13 株式会社ソニー・コンピュータエンタテインメント 画像データ作成支援装置および画像データ作成支援方法
US8498460B2 (en) * 2010-02-22 2013-07-30 Canfield Scientific, Incorporated Reflectance imaging and analysis for evaluating tissue pigmentation
FR2975804B1 (fr) * 2011-05-27 2022-06-17 Lvmh Rech Procede de caracterisation du teint de la peau ou des phaneres
WO2013109290A1 (en) 2012-01-20 2013-07-25 Hewlett-Packard Development Company, L.P. Feature resolution sensitivity for counterfeit determinations
EP2693396A1 (en) * 2012-07-30 2014-02-05 Nokia Corporation Method, apparatus and computer program product for processing of multimedia content
US9989463B2 (en) 2013-07-02 2018-06-05 Canon Kabushiki Kaisha Material classification
JPWO2015049899A1 (ja) * 2013-10-01 2017-03-09 オリンパス株式会社 画像表示装置および画像表示方法
US9978113B2 (en) 2014-03-26 2018-05-22 Hewlett-Packard Development Company, L.P. Feature resolutions sensitivity for counterfeit determinations
US10832374B2 (en) * 2015-01-16 2020-11-10 Disney Enterprises, Inc. Image decomposition and path-space motion estimation
CN107529975B (zh) * 2015-05-15 2020-07-10 索尼公司 光源控制装置、光源控制方法和成像***
CN106851399B (zh) 2015-12-03 2021-01-22 阿里巴巴(中国)有限公司 视频分辨率提升方法及装置
US9958267B2 (en) * 2015-12-21 2018-05-01 Industrial Technology Research Institute Apparatus and method for dual mode depth measurement
JP2018029279A (ja) 2016-08-18 2018-02-22 ソニー株式会社 撮像装置と撮像方法
SG11202006968PA (en) * 2018-01-24 2020-08-28 Cyberoptics Corp Structured light projection for specular surfaces
US11452455B2 (en) * 2018-05-02 2022-09-27 Canfield Scientific, Incorporated Skin reflectance and oiliness measurement
JP7122625B2 (ja) * 2018-07-02 2022-08-22 パナソニックIpマネジメント株式会社 学習データ収集装置、学習データ収集システム、及び学習データ収集方法
JP7312026B2 (ja) * 2019-06-12 2023-07-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7303896B2 (ja) * 2019-11-08 2023-07-05 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
CN113743525B (zh) * 2021-09-14 2024-02-13 杭州电子科技大学 一种基于光度立体的面料材质识别***及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251477A (ja) * 1995-03-10 1996-09-27 Canon Inc 画像形成装置
JPH11252428A (ja) * 1998-03-05 1999-09-17 Hitachi Ltd 超解像カメラ
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
JP2002203240A (ja) * 2000-10-31 2002-07-19 Matsushita Electric Ind Co Ltd 物体認識装置、物体を認識する方法、プログラムおよび記録媒体
JP2003203237A (ja) * 2002-01-09 2003-07-18 Monolith Co Ltd 画像マッチング方法と装置、および画像符号化方法と装置
JP2004518312A (ja) * 2000-07-06 2004-06-17 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク データ解像度を増す方法および装置
JP2004240622A (ja) * 2003-02-05 2004-08-26 Konica Minolta Holdings Inc 画像処理方法、画像処理装置及び画像処理プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3006015B2 (ja) 1990-02-16 2000-02-07 株式会社村田製作所 位相変調器
JP3438233B2 (ja) 1992-05-22 2003-08-18 ソニー株式会社 画像変換装置および方法
JP3557626B2 (ja) * 1993-08-27 2004-08-25 ソニー株式会社 画像復元装置及び方法
JP3240339B2 (ja) 1993-11-16 2001-12-17 コニカ株式会社 画像撮影装置及び画像処理装置
FR2762132B1 (fr) 1997-04-10 1999-06-18 Commissariat Energie Atomique Emballage de transport de colis dangereux, tels que des colis nucleaires de forte activite
JP4242944B2 (ja) 1998-06-01 2009-03-25 パナソニック株式会社 ズームレンズ及びこれを用いたビデオカメラ
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
US6681056B1 (en) 1999-03-30 2004-01-20 International Business Machines Corporation Method and system for digital image acquisition and continuous zoom display from multiple resolutional views using a heterogeneous image pyramid representation
JP4077120B2 (ja) * 1999-07-01 2008-04-16 富士フイルム株式会社 固体撮像装置および信号処理方法
EP1202214A3 (en) * 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
US7085436B2 (en) * 2001-08-28 2006-08-01 Visioprime Image enhancement and data loss recovery using wavelet transforms
JP2004051831A (ja) 2002-07-22 2004-02-19 Asahi Kasei Chemicals Corp ポリエチレン樹脂組成物およびシュリンクフィルム
US20040151376A1 (en) * 2003-02-05 2004-08-05 Konica Minolta Holdings, Inc. Image processing method, image processing apparatus and image processing program
JP4069136B2 (ja) * 2004-01-09 2008-04-02 松下電器産業株式会社 画像処理方法、画像処理装置、サーバクライアントシステム、サーバ装置、クライアント装置および画像処理システム
JP4744918B2 (ja) * 2005-04-19 2011-08-10 富士フイルム株式会社 顔検出方法および装置並びにプログラム
CN101053249B (zh) * 2005-09-09 2011-02-16 松下电器产业株式会社 图像处理方法、图像存储方法、图像处理装置及文件格式

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251477A (ja) * 1995-03-10 1996-09-27 Canon Inc 画像形成装置
JPH11252428A (ja) * 1998-03-05 1999-09-17 Hitachi Ltd 超解像カメラ
JP2004518312A (ja) * 2000-07-06 2004-06-17 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク データ解像度を増す方法および装置
JP2002203240A (ja) * 2000-10-31 2002-07-19 Matsushita Electric Ind Co Ltd 物体認識装置、物体を認識する方法、プログラムおよび記録媒体
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
JP2003203237A (ja) * 2002-01-09 2003-07-18 Monolith Co Ltd 画像マッチング方法と装置、および画像符号化方法と装置
JP2004240622A (ja) * 2003-02-05 2004-08-26 Konica Minolta Holdings Inc 画像処理方法、画像処理装置及び画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200025207A (ko) * 2018-08-29 2020-03-10 이형용 영상 화질 보정 방법 및 이를 이용한 장치
KR102164524B1 (ko) * 2018-08-29 2020-10-12 강한미 영상 화질 보정 방법 및 이를 이용한 장치

Also Published As

Publication number Publication date
CN101069417A (zh) 2007-11-07
US7924315B2 (en) 2011-04-12
US20070229658A1 (en) 2007-10-04
CN101431611A (zh) 2009-05-13
US8780213B2 (en) 2014-07-15
WO2006059504A1 (ja) 2006-06-08
JPWO2006059504A1 (ja) 2008-06-05
US20110134285A1 (en) 2011-06-09
CN100521743C (zh) 2009-07-29

Similar Documents

Publication Publication Date Title
JP4701187B2 (ja) 画像処理方法、画像処理装置、および画像処理プログラム
JP4035153B2 (ja) 画像処理方法および画像処理装置、並びに画像拡大方法
Massey et al. Salient stills: Process and practice
Capel et al. Computer vision applied to super resolution
CN102694969B (zh) 图像处理装置和图像处理方法
JP3406313B2 (ja) 連続画像の内容変更を行う方法および装置
CN109314752A (zh) 图像之间的光流的有效确定
CN101877767A (zh) 一种六通道视频源生成三维全景连续视频的方法和***
WO2007139067A1 (ja) 画像高解像度化装置、画像高解像度化方法、画像高解像度化プログラムおよび画像高解像度化システム
WO2007029443A1 (ja) 画像処理方法、画像記録方法、画像処理装置および画像ファイルフォーマット
JP2010009417A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JPWO2009019808A1 (ja) 画像データを生成する装置、方法およびプログラム
JP2007293912A (ja) 画像処理方法および画像処理装置
JP2007088814A (ja) 撮像装置、画像記録装置および撮像制御プログラム
KR20170032288A (ko) 이미지를 업-스케일링하기 위한 방법 및 장치
US6950130B1 (en) Method of image background replacement
Chang et al. Panoramic human structure maintenance based on invariant features of video frames
JP2001167276A (ja) 撮影装置
Gledhill 3D panoramic imaging for virtual environment construction
KR20160101762A (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
CN112785533B (zh) 图像融合方法、图像融合装置、电子设备与存储介质
JP2020009099A (ja) 画像処理装置、画像処理方法、及びプログラム
Reynolds Camera phones: a snapshot of research and applications
JP4571370B2 (ja) 動画像合成方法および装置並びにプログラム並びにデジタルカメラ
Castellano et al. Regularized CDWT optical flow applied to moving-target detection in IR imagery

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110307

R150 Certificate of patent or registration of utility model

Ref document number: 4701187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150