JP2004088408A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2004088408A
JP2004088408A JP2002246641A JP2002246641A JP2004088408A JP 2004088408 A JP2004088408 A JP 2004088408A JP 2002246641 A JP2002246641 A JP 2002246641A JP 2002246641 A JP2002246641 A JP 2002246641A JP 2004088408 A JP2004088408 A JP 2004088408A
Authority
JP
Japan
Prior art keywords
scene
image
digital camera
character
shading correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002246641A
Other languages
Japanese (ja)
Inventor
Tomonori Sato
佐藤 友則
Kenji Nakamura
中村 健二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002246641A priority Critical patent/JP2004088408A/en
Publication of JP2004088408A publication Critical patent/JP2004088408A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera for conducting an appropriate shading correction according to a photographed scene. <P>SOLUTION: The digital camera discriminates automatically whether an image scene is a character scene or a natural picture scene, based on luminance distribution and shade. When it is discriminated that the image is a character scene, the degree of shading correction is increased compared with when it is discriminated that it is a natural picture scene. As for character scenes, saturation suppressing processing is conducted in addition to shading correction. The saturation suppressing processing is conducted in a way such as the degree of suppressing is increased as it separates from the center of the image. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、デジタルカメラに関し、特にデジタルカメラにおけるシェーディングの補正技術に関する。
【0002】
【従来の技術】
デジタルカメラによる撮影画像においては、周辺光量落ちによるシェーディングが生じる。このシェーディングは、撮影光学系における口径食等に起因するものである。したがって、画質を向上させるため、撮影画像からこのようなシェーディングの影響を除去すること、すなわち、シェーディング補正を行うことが求められる。
【0003】
このようなシェーディング補正を行う従来技術としては、たとえば、特開平7−284011号公報に記載されたものが存在する。この文献においては、文字モードが設定された場合において、シェーディング補正を行う技術が記載されている。「文字モード」とは、書類上の文字等の2値的な画像を撮影する場合に設定されるモードである。
【0004】
【発明が解決しようとする課題】
しかしながら、上記の従来技術におけるシェーディング補正は必ずしも最適化されていない。
【0005】
具体的には、(1)上記の従来技術においては、操作者による手動操作でデジタルカメラが「文字モード」に設定されていることを条件に、シェーディング補正が行われる。したがって、上記の従来技術において、操作者が文字モードへの設定操作を行わなければ、シェーディング補正は適切に行われないことになる。このように、撮影シーンの内容に応じて、より適切にシェーディング補正を行うことが求められている。
【0006】
さらに、(2)上記の従来技術においては、文字モード設定時にシェーディング補正を行う場合、周辺部においては元の画素値に対して特に大きな値のゲインで画素値を増大させることになるため、粒状の色ノイズが生じることがある。このように、文字モード設定時の撮影シーン(すなわち文字シーン)に対しては、色ノイズを低減しつつシェーディング補正を行うことが求められている。
【0007】
そこで、本発明は、撮影シーンに応じて適切なシェーディング補正を行うことが可能なデジタルカメラを提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するため、請求項1の発明は、デジタルカメラであって、撮影光学系と、前記撮影光学系からの被写体像を画像として取得する撮像手段と、前記画像のシーンが、文字を被写体とする第1シーンと前記第1シーンとは異なる第2シーンとを含む複数のシーンのうちのいずれのシーンであるかを判別する判別手段と、前記判別手段の判別結果に応じて補正の度合いを変更してシェーディング補正を行う補正手段と、を備えることを特徴とする。
【0009】
請求項2の発明は、請求項1の発明に係るデジタルカメラにおいて、前記補正手段は、前記画像のシーンが前記第1シーンであると判別されるときには、前記第2シーンであると判別されるときに比べてシェーディング補正の度合いを大きくすることを特徴とする。
【0010】
請求項3の発明は、請求項1の発明に係るデジタルカメラにおいて、前記判別手段は、前記画像の中央領域に関連するデータに基づいてシーン判別を行うことを特徴とする。
【0011】
請求項4の発明は、デジタルカメラであって、撮影光学系と、前記撮影光学系からの被写体像を画像として取得する撮像手段と、撮影モードとして、文字モードを含む複数のモードのうちのいずれかのモードを設定する設定手段と、前記撮影モードとして前記文字モードが設定されたときには、シェーディング補正処理に加えて、周辺部における彩度抑圧処理をも行う処理手段と、を備えることを特徴とする。
【0012】
請求項5の発明は、請求項4の発明に係るデジタルカメラにおいて、前記処理手段は、前記画像の中心から離れるにつれて彩度抑圧の度合いを大きくすることを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0014】
<A.第1実施形態>
<A1.構成>
図1〜図3は、本発明の第1実施形態に係るデジタルカメラ1の外観の概略構成を示す図である。図1はデジタルカメラ1の平面図、図2は図1のII−II位置から見た断面図、図3はデジタルカメラ1の背面図に相当する。
【0015】
これらの図に示すように、デジタルカメラ1は略直方体状をしているカメラ本体部2と、カメラ本体部2に着脱可能に装着される撮影レンズ3から構成される。図1に示すように、デジタルカメラ1は撮影画像を記録するメモリカード8が着脱可能に収納されるようになっている。また、デジタルカメラ1は、4本の単三形乾電池E1〜E4を直列接続する電源電池Eを駆動源としている。
【0016】
図2に示すように、ズームレンズである撮影レンズ3はレンズ群30を備えている。ここでは、撮影レンズ3として2群ズームレンズを示しており、レンズ群30は、大きく2つのレンズ群300,301に分類される。なお、図2および図3においては、図示の都合上、レンズ群300,301をそれぞれ一枚のレンズとして示している。ただし、実際には各レンズ群300,301は、一枚のレンズに限定されず、複数枚のレンズの集合体として構成されていても良い。
【0017】
一方、カメラ本体部2の内部には、レンズ群300を駆動するためのモータM1、およびレンズ群301を駆動するモータM2とが設けられている。これらのモータM1,M2を制御することにより、撮影レンズ3のズーム倍率を変更すること、および撮影レンズ3の合焦状態を変更すること(すなわちフォーカス動作)を行うことが可能である。
【0018】
また、撮影レンズ3のレンズ群30の後方位置の適所にカラー撮像素子303が設けられている。カラー撮像素子303は、CCDからなるエリアセンサの各画素の表面に、R(赤)、G(緑)、B(青)のカラーフィルタが市松模様状に貼り付けられた単板式カラーエリアセンサで構成される。このカラー撮像素子(以下、「CCD」)303は、例えば、水平方向1600画素、縦方向1200画素の192万画素を有している。
【0019】
カメラ本体部2の前面には、図1のようにグリップ部Gが設けられ、カメラ本体部2の上端点の適所にポップアップ形式の内蔵フラッシュ5が設けられている。また、図3の如く、カメラ本体部2の上面にはシャッタボタン9が設けられている。このシャッタボタン9については、フォーカス調整用などのトリガーとして用いる半押し状態(S1)と、記録用撮影のトリガーとして用いる全押し状態(S2)とを検出し、判別する機能を有してる。
【0020】
一方、カメラ本体部2の背面には、電子ビューファインダ(以下、「EVF」)20と液晶ディスプレイ(以下、「LCD」)10とが設けられている。なお、光学ファインダーとは異なり、撮影待機状態においてCCD303からの画像信号のライブビュー表示を行うEVF20とLCD10とがファインダーとしての機能を担っている。
【0021】
また、LCD10は記録モードにおいて撮影モードや撮影条件等を設定するためのメニュー画面を表示したり、再生モードにおいてメモリカード8に記録された撮影画像を再生表示することが可能である。
【0022】
カメラ本体部2の背面左方には、電源スイッチ14が設けられている。この電源スイッチ14は記録モード(写真撮影の機能を果たすモード)と再生モード(記録画像をLCD10に再生するモード)とを切換設定するモード設定スイッチを兼ねている。すなわち、電源スイッチ14は3点スライドスイッチからなり、接点を中央の「OFF」位置に設定すると電源がオフになり、接点を上方の「REC」位置に設定すると電源がオンになるとともに記録モードとして設定され、接点を下方の「PLAY」位置に設定すると電源がオンになるとともに再生モードとして設定される。
【0023】
カメラ本体部2の背面右方には、4連スイッチ15が設けられている。4連スイッチ15は円形の操作ボタンを有し、この操作ボタンにおける上下左右の4方向のボタンSU、SD、SL、SRを押下することによって各種操作を行うことが可能となっている。例えば、LCD10に表示されるメニュー画面で選択された項目を変更したり、インデックス画面で選択された再生対象のコマを変更するためのスイッチとして機能する。また、記録モードにおいて左右方向のボタンSL,SRは、ズーム倍率を変更するためのスイッチとして機能する。具体的には、モータM1,M2の駆動により2つのレンズ群300,301の相対的な位置関係が変更されることによって、ズーム倍率が変更される。より詳細には、右方向スイッチSRを押下するとワイド側に連続的に移動し、左方向スイッチSLを押下するとテレ側に連続的に移動する。
【0024】
また、4連スイッチ15の下方には、取消スイッチ33、実行スイッチ32、メニュー表示スイッチ34及びLCD表示スイッチ31等のスイッチ群16が設けられている。取消スイッチ33は、メニュー画面で選択された内容を取り消すためのスイッチである。実行スイッチ32は、メニュー画面で選択された内容を確定するまたは実行するためのスイッチである。メニュー表示スイッチ34は、LCD10にメニュー画面を表示させたり、メニュー画面の内容を切り換えたりするためのスイッチである。LCD表示スイッチ31は、LCD10の表示のオンオフ切り替えスイッチである。
【0025】
次に、デジタルカメラ1の内部構成について説明する。図4は、デジタルカメラ1の内部構成を示す概略ブロック図である。
【0026】
撮影レンズ3は、レンズ群300,301とともに、内部に透過光量を調節するための絞り302を備えている。なお、図4においては、図示の都合上、絞り302がレンズ群301の後側に配置されるように示しているが、絞り302の配置はこのようなものに限定されない。たとえば、絞り302は、レンズ群301(ないし300)の内部に設けられていても良く、または、両レンズ群300,301の間に設けられていてもよい。
【0027】
CCD303(撮像素子)は、撮影レンズ3を通して入射された被写体からの光を所定の露光時間だけ受光して画像信号に光電変換して取り込む。CCD303は、光電変換後の画像信号を信号処理部120に出力する。このようにして、撮影レンズ3(撮影光学系)からの被写体像が画像として取得される。
【0028】
信号処理部120は、CCD303から出力される画像信号に所定のアナログ信号処理及びデジタル信号処理を行うものである。画像信号の信号処理は画像データを構成する各画素の受光信号毎に行われる。信号処理部120は、アナログ信号処理回路121、A/D変換回路122、シェーディング補正回路123、画像処理回路124、及び画像メモリ126を備えている。
【0029】
アナログ信号処理回路121はアナログ信号処理を行うものであり、主にCDS(相関二重サンプリング)回路及びAGC(オートゲインコントロール)回路からなり、CCD303から出力される画素信号のサンプリングノイズの低減と信号レベルの調整を行う。AGC回路におけるゲインコントロールには、絞り302の絞り値とCCD303の露光時間とで適正露出が得られなかった場合の撮影画像のレベル不足を補償する場合も含まれる。
【0030】
A/D変換回路122はアナログ信号処理回路121から出力されるアナログ信号である画素信号(画像信号)をデジタル信号である画素データ(画像データ)に変換するものである。A/D変換回路122は各画素で受光された画素信号を、例えば、10ビットのデジタル信号に変換し、0〜1023の階調値を有する画素データとする。変換後の画素データ(画像データ)は、画像メモリ126に一旦格納される。
【0031】
シェーディング補正回路123は、A/D変換された画素データに対して、光学系によるシェーディングを補正するものである。シェーディング補正回路は、A/D変換回路122において変換された画像データと全体制御部150において生成される補正テーブル内のシェーディング補正係数(後述)との乗算処理等を行う。
【0032】
画像処理回路124は、WB(ホワイトバランス)回路、カラーバランス評価回路、画素補間回路、色補正回路、γ補正回路、色分解回路、空間フィルタ、解像度変換回路、圧縮伸長処理回路等を有している。このうち、WB回路は撮影画像のホワイトバランスを調整するものである。WB回路は、カラーバランス評価回路による撮影画像のカラーバランスに関する評価結果等を用いて、R,G,Bの各色成分の画素データのレベルを変換する。画素補間回路は、R,G,Bの3種類の色フィルタが分散配置されたベイヤー配列を有するCCD303において、各画素位置における3つの色成分R,G,Bのうち実際には存在しない2つの色成分を補間により求める回路であり、色補正回路は、フィルタの分光感度特性を補正する回路である。γ補正回路は画素データのγ特性を補正する回路であり、予め設定されたγ補正用テーブルを用いて各画素データのレベルを補正する。色分解回路は、(R,G,B)信号を(Y,Cr,Cb)信号に変換する回路である。この色分解処理は、マトリクス演算器を用いて行われる。空間フィルタはローパスフィルタおよびハイパスフィルタ等を用いてエッジ強調などの各種のフィルタ処理を行う回路である。解像度変換回路は所望の解像度に変換する回路であり、圧縮伸長処理回路はJPEG等の所定形式のデータへの圧縮処理、およびその逆の伸長処理を行う回路である。
【0033】
画像メモリ126は画像データを一時保持するメモリである。画像処理回路124における各処理は、画像メモリ126に格納された画像データに対して施される。
【0034】
発光制御部102は、全体制御部150から入力される発光制御信号に基づいてフラッシュ(照明光源)5の発光を制御する。発光制御信号には発光準備の指示、発光タイミング及び発光量とが含まれる。
【0035】
レンズ制御部130は撮影レンズ3内のレンズ群300,301および絞り302の各部材の駆動を制御するものである。レンズ制御部130は、絞り302の絞り値を制御する絞り制御回路131と、モータM1,M2を駆動することによりズームの変倍率を変更する(言い換えれば画角を変更する)ズーム制御回路132と、モータM1,M2を駆動することによりフォーカス制御を行うフォーカス制御回路133とを備えている。
【0036】
絞り制御回路131は全体制御部150から入力される絞り値に基づいて絞り302を駆動し、その開口量を当該絞り値に設定する。フォーカス制御回路133は全体制御部150から入力されるAF制御信号に基づいてモータM1,M2の駆動量を制御し、レンズ群300,301を焦点位置に設定する。ズーム制御回路132は、4連スイッチ15による入力に応じて全体制御部150から入力されるズーム制御信号に基づいて、モータM1,M2を駆動してレンズ群300,301を移動させる。これによって、ズームの状態が、ワイド側あるいはテレ側へと移動する。
【0037】
表示部140は、LCD10及びEVF20への表示を行うものである。表示部140には、LCD10、EVF20とともに、LCD10に再生表示されるの画像データのバッファメモリとなるLCDVRAM141及びEVF20に再生表示される画像データのバッファメモリとなるEVFVRAM142を備えている。
【0038】
撮影待機状態においては、CCD303により1/30(秒)毎に撮影された画像(ライブビュー用画像)の各画素データが、信号処理部120による所定の信号処理を施された後、画像メモリ126に一時記憶される。そして、全体制御部150によって読み出され、データサイズが調整された後にLCDVRAM141及びEVFVRAM142に転送され、LCD10及びEVF20にライブビュー表示として表示される。これによりユーザは、被写体像を視認することができる。また、再生モードにおいては、メモリカード8から読み出された画像が全体制御部150によって所定の信号処理が施された後に、LCDVRAM141に転送され、LCD10に再生表示されることとなる。
【0039】
操作部101は、上述したカメラ本体部2に設けられた撮影や再生に関する操作部材の操作情報を全体制御部に入力するものである。操作部101から入力される操作情報にはシャッタボタン9、電源スイッチ14、4連スイッチ15及びスイッチ群16等の各操作部材の操作情報が含まれる。
【0040】
全体制御部150は、マイクロコンピュータからなり、撮影機能及び再生機能を集中制御するものである。全体制御部150にはカードインターフェース103を介してメモリカード8が接続されている。また、通信用インターフェース105を介してパーソナルコンピュータPCが外部接続されるようになっている。
【0041】
全体制御部150は、撮影機能及び再生機能における数々の具体的な処理を行うための処理プログラムや上述したデジタルカメラ1の各部材の駆動を制御するための制御プログラムが記憶されたROM151と、処理プログラム及び制御プログラムに従って数々の演算作業を行うための作業領域となるRAM152を備えている。なお、記録媒体であるメモリカード8に記録されているプログラムデータをカードインターフェース103を介して読み出し、ROM151に格納することができるようになっている。従って、これらの処理プログラム及び制御プログラムは、メモリカード8からデジタルカメラ1中にインストールされることが可能である。なお、処理プログラム及び制御プログラムは、通信用インターフェース105を介してパーソナルコンピュータPCからインストールされるようになっていてもよい。
【0042】
この全体制御部150は、シーン判別部154を有している。このシーン判別部154は、上記の処理プログラム等がマイクロコンピュータ等を用いて実行されることによって、機能的に実現される機能部である。
【0043】
シーン判別部154は、撮影された画像の撮影シーン(以下、単に「シーン」とも称する)が、「文字シーン」であるか「自然画シーン」であるかを判別する。「文字シーン」とは、書類あるいはホワイトボード(白板)などに描かれた文字を撮影した画像(テキスト画像とも称する)のように、文字を被写体とするシーンである。一方、「自然画シーン」は、風景、人物等を被写体とするシーンである。ここでは、文字シーンでない場合には自然画シーンであると判別するものとする。
【0044】
また、デジタルカメラ1は、その撮影シーンの判別結果に応じて、その撮影モードを設定する。具体的には、文字シーンであると判別した場合には撮影モードを「文字モード」に設定し、自然画シーンであると判別した場合には撮影モードを「自然画モード」に設定する。この文字モードは、文字シーンの撮影に適したモードであり、書類上の文字等の2値的な画像を撮影する場合に設定されるモードである。文字モードは、テキストモードなどとも称することができる。一方、自然画モードは、自然画シーンの撮影に適したモードである。
【0045】
後述するように、このシーン判別部154の判別結果に応じて、その程度(度合い)を変更してシェーディング補正処理が行われる。
【0046】
<A2.動作>
つぎに、図5を参照しながら、第1実施形態における詳細動作について説明する。図5は、この撮像動作の一例を示すフローチャートである。
【0047】
この第1実施形態では、撮影画像がいずれのシーンであるかについての判別を、その撮影画像自身ではなく、ライブビュー用画像(より詳細には、シャッタボタン9が全押し状態S2にされる直前のライブビュー用画像)を用いて行う場合について説明する。このように、シーン判別は、撮影画像自身ではなく、撮影画像とその被写体の同一性が高い画像を用いて行うことが可能である。
【0048】
また、ここでは、シャッタボタン9が全押し状態S2にされた後の撮影画像に対してのみ、シーン判別結果に応じたシェーディング補正を施し、ライブビュー用画像に対しては、シーン判別結果に依拠しない所定のシェーディング補正を施すものとする。この所定のシェーディング補正は、予めROM151内に格納された補正テーブルを用いて行う。ただし、これに限定されず、ライブビュー表示用画像に対しても、シーン判別結果に応じたシェーディング補正を施すようにしてもよい。
【0049】
まず、ステップSP10において、シーン自動判別を行う。
【0050】
ここで、シーン判別は、図6に示すように、ライブビュー用の所定サイズ(たとえば640画素×480画素)の画像の全体領域TRのうち、(たとえば320画素×240画素の)中央領域CR内の画像データに基づいて行われることが好ましい。言い換えれば、シーン判別は、周辺領域PRの画像データを用いずに行われることが好ましい。
【0051】
これは、撮影レンズの中には、その撮影画像の周辺部において光量落ちの程度が急激に上昇する(すなわち周辺部で急激に暗くなる)ものがあるため、周辺領域PRの画像データを用いてシーン判別を行うと判別結果が不正確なものになる恐れがあるからである。あるいは、周辺領域PRに枠や背景被写体が含まれる場合においても、シーン判別結果は所望の結果とならない恐れがあるからである。中央領域の画像データを用いることによって、これらの不都合を回避することが可能である。
【0052】
さて、上述したように、この画像における画素毎の色信号(R,G,B)は、上記の画像信号処理によって、輝度信号Y、色差信号Cr(=Y−R),Cb(=Y−B)に変換される。ここでは、これらの輝度信号Yおよび色差信号Cr,Cbを用いてシーン判別を行う。
【0053】
詳細には、まず、ステップSP11において輝度に基づく判別が行われる。すなわち、シーン判別部154は、画像の輝度分布に基づいてシーン判別を行う。
【0054】
図7は、文字シーンの輝度分布を示す図であり、図8は自然画シーンの輝度分布を示す図である。図7および図8のグラフにおいて、横軸は輝度値(輝度信号)Yを示し、縦軸は各輝度値の分布度数を示している。
【0055】
「文字シーン」は、たとえば均一色の用紙(白色用紙など)に別の色(黒色など)の文字が描かれるような画像であり、図7に示すように、明部と暗部とに大きく分かれた輝度分布を有している。
【0056】
これに対して、「自然画シーン」は、より多数の色によって構成される画像であり、図8に示すように、なだらかな輝度分布を有している。
【0057】
シーン判別部154は、画像の輝度分布に基づいて、その画像が「文字シーン」であるか否かを判別する。自然画シーンであると判別された場合には、ステップSP20に進み、文字シーンであると判別された場合には、ステップSP12に進む。
【0058】
次のステップSP12,SP13においては、色差信号Cr,Cbに基づく判別が行われる。すなわち、シーン判別部154は、画像の色合いに基づいてシーン判別を行う。
【0059】
図9は、文字シーンについての色差信号Crの分布を示す図であり、図10は自然画シーンについての色差信号Crの分布を示す図である。図9および図10のグラフにおいて、横軸は色差信号Crの各値を示し、縦軸は各色差信号値の分布度数を示している。
【0060】
「文字シーン」は、色の数が比較的少ない画像であり、図9に示すように、色差信号は一部に偏った分布となる。
【0061】
これに対して、「自然画シーン」は、より多数の色によって構成される画像であり、図10に示すように、より広い範囲にわたるなだらかな輝度分布となる。
【0062】
シーン判別部154は、画像の色差信号Crの分布に基づいて、その画像が「文字シーン」であるか否かを判別する。自然画シーンであると判別された場合には、ステップSP20に進み、文字シーンであると判別された場合には、ステップSP13に進む。
【0063】
ステップSP13においては、色差信号Cbについて同様の動作が行われる。シーン判別部154は、画像の色差信号Cbの分布に基づいて、その画像が「文字シーン」であるか否かを判別する。自然画シーンであると判別された場合には、ステップSP20に進み、文字シーンであると判別された場合には、ステップSP30に進む。
【0064】
このように、輝度信号Yおよび色差信号Cr,Cbに基づく判別結果に応じて、2種類のシェーディング補正処理の中から、採用対象のシェーディング補正処理が選択される。
【0065】
具体的には、各信号Y,Cr,Cbのいずれかに基づく判別結果が「自然画シーン」であるときには、ステップSP20に進む。ステップSP20においては、全体制御部150の制御下において、撮影モードが自然画モードに設定され、撮影画像に対して自然画モードのシェーディング補正処理を行う旨が決定される。
【0066】
一方、各信号Y,Cr,Cbのいずれに基づいても「文字シーン」であると判別されたときには、ステップSP30に進む。ステップSP30においては、全体制御部150の制御下において、撮影モードが文字モードに設定され、撮影画像に対して文字モードのシェーディング補正処理を行う旨が決定される。
【0067】
なお、ここでは輝度分布あるいは色合いによる判別結果がいずれも文字モードのときにのみ最終的な判別結果を文字モードとしている、すなわち、文字モードであると判別するための条件を厳しいものとしているが、これに限定されない。たとえば、輝度分布および色合いの一方による判別結果が文字モードであるときに最終的な判別結果を文字モードとしてもよい。
【0068】
さて、その後、シャッタボタン9が操作者によって全押し状態S2にされたことが検出されると、撮像画像が取得される。この撮影画像に対してシーン判別結果に応じた次のようなシェーディング補正処理が施される。
【0069】
図11は、シェーディング補正回路123等の構成を示す概念図である。図11に示すように、デジタルカメラのメモリの内部には、2種類のシェーディング補正テーブルTA,TB(以下、単にテーブルTA,TBとも称する)が保存されている。また、各テーブルTA,TBには、各画素の位置に応じた各画素に対応する補正係数が格納されている。そして、ステップSP10での判別結果に応じて、シェーディング補正テーブルTA,TBのいずれかを用いたシェーディング補正が行われる。なお、図11の右側には、メモリ内の論理的なマッピングテーブルが示されている。このメモリは、物理的には、画像メモリ126,ROM151,RAM152などで構成される。
【0070】
より詳細には、シェーディング補正回路123内の乗算回路は、画像メモリ126に格納されている元の画像データの各画素の画素値に対して、テーブルTA(あるいはTB)に格納された各画素に対応する補正係数を乗じ、補正後の画素値データとして出力する。シェーディング補正後の画像データは、この乗算後の各画素値によって構成される。
【0071】
上記のテーブルTA,TBのうち、ステップSP10で「自然画シーン」であると判別された場合には、自然画シーン用のテーブルTAを用いてシェーディング補正処理が行われる。一方、ステップSP10で「文字シーン」であると判別された場合には、文字シーン用のテーブルTBを用いてシェーディング補正処理が行われる。
【0072】
ここで、テーブルTA,TBは、その補正の度合い(程度)が異なっている。
【0073】
図12は、補正前後のシェーディングの状態を示す図である。ただし、図12は、画像を構成する全ての画素が、同一の輝度の被写体からの入射光を受光している場合を想定している。すなわち、この図12は、各画素位置におけるシェーディングの影響による画素データのレベルの低下率を示している。なお、各グラフにおいて、横軸は中心(光軸)からの距離xを示しており、縦軸は中心から距離x離れた位置における画素の輝度値Yを示している。
【0074】
図12において、曲線CL0は補正前のシェーディングの状態を示す図である。これに対して、曲線CL1はテーブルTAによるシェーディング補正後のシェーディングの影響を示しており、曲線CL2はテーブルTBによるシェーディング補正後のシェーディングの影響を示している。
【0075】
このように、補正テーブルTAは、補正テーブルTBよりも、補正の度合いを小さくするような補正係数を格納している。より詳細には、補正テーブルTAは、一様な光源を撮影したときに、補正後の中心輝度に対する周辺輝度の比(割合)が100%よりも小さな値(例えば80%前後)になるような補正係数を格納している。一方、補正テーブルTBは、一様な光源を撮影したときに、補正後の中心輝度に対する周辺輝度の比が例えば100%前後になるような補正係数を格納している。これは次のような事情による。
【0076】
自然画シーンの場合には、文字シーンに比べてシェーディング補正の度合いを小さくすることが好ましい。なぜなら、仮に、より大きな補正係数を元の画素値(輝度値)に乗じてシェーディングを補正すると、ノイズ成分をも増大させてしまい、特に周辺部分におけるS/N比が著しく低下するからである。あるいは、過剰な補正が行われる場合には、周辺部が中央部に比べて明るくなってしまうこともあり、このような状況を回避することにも寄与するからである。
【0077】
逆に、文字シーンの場合には、自然画シーンに比べてシェーディング補正の度合いを大きくすることが好ましい。文字シーンは、自然画シーンとはその撮影目的が異なっていることが多く、例えば、そのシーン内に描かれた文字等を認識するために撮影されることなどが多い。このような場合において、周辺光量落ちの補正不足に起因して周辺領域の文字が読みとれないという事態は避けるべきであるが、多少のノイズ成分が目立つ程度は許容される。このような事情により、文字シーンの場合には、自然画シーンに比べてシェーディング補正の度合いが大きなテーブルTBを用いてシェーディング補正が行われる。
【0078】
以上のように、シーンを自動判別し、予め格納されている2つのテーブルTA,TBのうち、判別結果に応じたテーブルを用いて、シェーディング補正を施すことが可能になるので、撮影シーンの内容に応じた適切なシェーディング補正を行うことが可能になる。
【0079】
特に、撮影画像のシーンが「文字シーン」である場合に「自然画シーン」である場合よりも、補正の度合い(程度)が大きなシェーディング補正を施すことによって、自然画シーンの場合にはノイズの影響を低減し、文字シーンの場合には周辺部においても文字が読みとれる程度に光量不足を補うことが可能である。
【0080】
また、シーン判別においては、シェーディングの影響を受けにくい中央領域内のデータを用いているので、より正確なシーン判別を行うことが可能である。
【0081】
<B.第2実施形態>
大きな補正度合いを有するテーブルに基づいてシェーディング補正が行われる場合、粒状の色ノイズ成分が目立つ場合が有る。第2実施形態においては、色差抑圧(クロマサプレス)を行うことによって、このような状況を解消することが可能な技術について説明する。
【0082】
この第2実施形態のデジタルカメラは、第1実施形態のデジタルカメラと同様の構成等を備えており、以下では、相違点を中心に説明する。
【0083】
具体的には、ステップSP10における判別処理において、撮影画像のシーンが「文字シーン」であると判別されると、撮影モードは文字モードに設定される。このとき、この第2実施形態においては上記と同様のシェーディング補正処理に加えてさらに彩度抑圧処理が行われる。
【0084】
図13は、画像処理回路124における色分解回路127、およびメモリ内の概念的な構成を示す図である。また、図13のRGB信号は、テーブルTBによるシェーディング補正が施された後の信号を表している。
【0085】
図13に示すように、各画素についてのRGB信号は、さらに色分解回路127内のマトリクス演算器128によって、輝度信号Y、色差信号Cr,Cbとに変換される。そして、マトリクス演算器128から出力された各色差信号Cr,Cbに対して、テーブルTr,Tbに格納された各ゲイン係数を各乗算器129r,129bによって乗じることによって、色を抑圧することができる。
【0086】
図14は、テーブルTr(あるいはテーブルTb)に格納された各ゲイン係数の一例を示す図である。図14内の数値は、その画素位置に応じた各画素に対応するゲイン係数を示している。ただし、図14においては、図示の簡略化のため、全画素のうちの一部の代表画素に対応する係数を示すものとする。
【0087】
図14に示すように、テーブルTrにおいては、中心部から周辺部にいくほどそのゲイン係数の値は小さくなっていること、すなわち色差抑圧(彩度抑圧)の度合い(程度)が大きくなっていることが判る。したがって、シェーディングにおける補正係数が大きく色ノイズが発生しやすい周辺部において、効率的に色ノイズを軽減することができる。
【0088】
以上のように、この第2実施形態によれば、撮影モードとして文字モードが設定されたときには、シェーディング補正処理に加えて周辺部における彩度抑圧処理も行われるので、シェーディング補正を行う場合に特に周辺部で発生しやすい色ノイズを低減しつつ、シェーディング補正を行うことが可能である。言い換えれば、文字シーンに関して、より適切なシェーディング補正を行うことが可能である。
【0089】
特に、画像の中心から離れるにつれて彩度抑圧の度合いが大きくなっているので、周辺光量落ちのシェーディングを補正するに際して、中心部から周辺部の全体にわたって色ノイズの発生をより適切に抑制することが可能である。
【0090】
また、この第2実施形態においては、デジタルカメラがシーンの判別(自動判別)の判別結果に応じて、撮影モードを文字モードに設定する場合を例示したが、これに限定されない。たとえば、操作者が操作部101等を用いて撮影モードを文字モードに設定すべき旨の指示入力をデジタルカメラに与え、デジタルカメラがその指示入力に応答して撮影モードを文字モードに設定する場合においても上記の思想を適用することができる。
【0091】
なお、この第2実施形態においては、シェーディング補正係数の大小関係に連動して、色差の抑圧を行う場合について説明したが、これに限定されない。たとえば、撮影モードが文字モードに設定されているときには、色差信号Cr,Cb信号を全て0(ゼロ)として、白黒画像として出力するようにしてもよい。
【0092】
<C.その他>
上記の第1実施形態では、シャッタボタン9が全押し状態S2にされる直前のライブビュー用画像を用いてシーン判別を行う場合を例示したが、これに限定されない。たとえば、シャッタボタン9が全押し状態S2にされたことに応答して撮影された撮影画像自身を用いてシーン判別を行ってもよい。その場合には、画像処理回路124内の各処理部による処理順序を変更することによって、シーン判別用の輝度信号Yおよび色差信号Cr,Cbをシェーディング補正に先立って算出しておけばよい。具体的には、マトリクス演算器128等による(R,G,B)信号から(Y,Cr,Cb)信号への変換処理を、シェーディング補正処理よりも前に行えばよい。あるいは、一旦所定のシェーディング補正テーブルでシェーディング補正を施して上述した順序で各処理を行って輝度信号Yおよび色差信号Cr,Cbを求めた後、再度、いずれかのテーブルTA,TBと当該所定のシェーディング補正テーブルとの補正不足分を追加補正するようにしてもよい。
【0093】
また、上記各実施形態においては、撮影シーンが2つのシーン(文字シーン、自然画シーン)のいずれかであるかを判別し、判別結果に応じて2種類のテーブルTA,TBの中からいずれかを選択的に用いてシェーディング補正を行っていたが、これに限定されない。たとえば、さらに多くの種類のシーンを判別し、その判別結果に応じて、各シーンに対応するさらに多数のシェーディング補正テーブルの中から選択した補正テーブルに基づいて、シェーディング補正を行うようにしてもよい。
【0094】
あるいは、補正の度合い(程度)が異なる所定数のシェーディング補正テーブルを設けておき、各シェーディング補正テーブルを撮影画像に対して別個に作用させることによってブラケット撮影を行い、所定数の画像を生成するようにしてもよい。たとえば、文字シーンに対して、互いに異なる3種類のシェーディング補正テーブルを用いた3つの画像を生成するようにしてもよい。
【0095】
なお、上述した具体的実施形態には以下の構成を有する発明が含まれている。
【0096】
(1)請求項3に記載のデジタルカメラにおいて、
前記判別手段は、前記画像の色合いに基づいてシーン判別を行うことを特徴とするデジタルカメラ。これによれば、シーン判別をより正確に行うことが可能である。
【0097】
(2)請求項3に記載のデジタルカメラにおいて、
前記判別手段は、前記画像の輝度分布に基づいてシーン判別を行うことを特徴とするデジタルカメラ。これによれば、シーン判別をより正確に行うことが可能である。
【0098】
【発明の効果】
以上のように、請求項1に記載の発明によれば、判別手段の判別結果に応じて補正の度合いが変更されてシェーディング補正が行われるので、撮影シーンの内容に応じた適切なシェーディング補正を行うことが可能である。
【0099】
請求項2に記載の発明によれば、画像のシーンが、文字を被写体とする第1シーンであると判別されるときには、第2シーンであると判別されるときに比べてシェーディング補正の度合いが大きいので、文字を被写体とする第1シーンの画像における周辺光量落ちを比較的十分に補正しつつ、且つ、第2シーンの画像におけるノイズの発生を比較的抑制することができる。
【0100】
請求項3に記載の発明によれば、シーン判別において、シェーディングの影響を受けにくい中央領域に関連するデータを用いているので、より正確なシーン判別を行うことが可能である。
【0101】
請求項4に記載の発明によれば、撮影モードとして文字モードが設定されたときには、シェーディング補正処理に加えて周辺部における彩度抑圧処理も行われるので、周辺部における色ノイズを低減しつつシェーディング補正を行うことが可能である。言い換えれば、文字シーンに関して、より適切なシェーディング補正を行うことが可能である。
【0102】
請求項5に記載の発明によれば、周辺光量落ちのシェーディングを補正するに際して、色ノイズの発生をより適切に抑制することが可能である。
【図面の簡単な説明】
【図1】デジタルカメラの外観の概略構成を示す平面図である。
【図2】デジタルカメラの断面図である。
【図3】デジタルカメラの背面図である。
【図4】デジタルカメラの内部構成を示す概略ブロック図である。
【図5】第1実施形態における動作を示すフローチャートである。
【図6】シーン判別に用いる中央領域を示す図である。
【図7】文字シーンの輝度分布を示す図である。
【図8】自然画シーンの輝度分布を示す図である。
【図9】文字シーンについての色差信号の分布を示す図である。
【図10】自然画シーンについての色差信号の分布を示す図である。
【図11】シェーディング補正回路等の構成を示す概念図である。
【図12】補正前後のシェーディングの状態を示す図である。
【図13】マトリクス演算器等の構成を示す概念図である。
【図14】色差抑圧のためのゲイン係数を格納したテーブルを示す図である。
【符号の説明】
1 デジタルカメラ
3 撮影レンズ
123 シェーディング補正回路
127 色分解回路
128 マトリクス演算器
129r,129b 乗算器
303 カラー撮像素子
CR 中央領域
Cr,Cb 色差信号
PR 周辺領域
TA,TB シェーディング補正テーブル
Tr,Tb (彩度抑圧用)テーブル
Y 輝度信号
x 距離
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a digital camera, and more particularly, to a technique for correcting shading in a digital camera.
[0002]
[Prior art]
In an image captured by a digital camera, shading occurs due to a drop in peripheral light amount. This shading is caused by vignetting or the like in the photographing optical system. Therefore, in order to improve image quality, it is required to remove such an influence of shading from a captured image, that is, to perform shading correction.
[0003]
As a conventional technique for performing such shading correction, for example, there is a technique disclosed in Japanese Patent Application Laid-Open No. Hei 7-284011. This document describes a technique for performing shading correction when a character mode is set. The “character mode” is a mode set when a binary image such as a character on a document is captured.
[0004]
[Problems to be solved by the invention]
However, the above-described shading correction in the related art is not always optimized.
[0005]
Specifically, (1) In the above-described conventional technology, shading correction is performed on the condition that the digital camera is set to the “character mode” by a manual operation by the operator. Therefore, in the above-described related art, the shading correction is not properly performed unless the operator performs the setting operation to the character mode. Thus, there is a demand for more appropriate shading correction according to the contents of a shooting scene.
[0006]
Further, (2) In the above-described conventional technique, when shading correction is performed at the time of setting the character mode, the pixel value is increased with a particularly large gain with respect to the original pixel value in the peripheral portion. Color noise may occur. As described above, it is required to perform shading correction while reducing color noise for a shooting scene (that is, a character scene) when the character mode is set.
[0007]
Therefore, an object of the present invention is to provide a digital camera capable of performing appropriate shading correction according to a shooting scene.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, an invention according to claim 1 is a digital camera, wherein a photographing optical system, an image pickup unit that acquires a subject image from the photographing optical system as an image, and a scene of the image include characters. Determining means for determining which one of a plurality of scenes including a first scene as a subject and a second scene different from the first scene; and performing correction based on a determination result of the determining means. Correction means for changing the degree to perform shading correction.
[0009]
According to a second aspect of the present invention, in the digital camera according to the first aspect of the present invention, when the scene of the image is determined to be the first scene, the correction unit determines that the scene is the second scene. It is characterized in that the degree of shading correction is increased compared to when.
[0010]
According to a third aspect of the present invention, in the digital camera according to the first aspect of the present invention, the determination unit performs a scene determination based on data relating to a central area of the image.
[0011]
The invention according to claim 4 is a digital camera, comprising: a photographing optical system; an image pickup unit that acquires a subject image from the photographing optical system as an image; and any of a plurality of modes including a character mode as a photographing mode. Setting means for setting the mode, and processing means for performing, in addition to shading correction processing, saturation suppression processing in a peripheral portion when the character mode is set as the shooting mode, I do.
[0012]
According to a fifth aspect of the present invention, in the digital camera according to the fourth aspect of the present invention, the processing unit increases the degree of saturation suppression as the distance from the center of the image increases.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0014]
<A. First Embodiment>
<A1. Configuration>
FIG. 1 to FIG. 3 are diagrams illustrating a schematic configuration of an external appearance of a digital camera 1 according to a first embodiment of the present invention. 1 is a plan view of the digital camera 1, FIG. 2 is a cross-sectional view of the digital camera 1 taken along the line II-II, and FIG.
[0015]
As shown in these figures, the digital camera 1 includes a camera body 2 having a substantially rectangular parallelepiped shape, and a photographing lens 3 detachably attached to the camera body 2. As shown in FIG. 1, the digital camera 1 is configured such that a memory card 8 for recording a captured image is detachably stored. In addition, the digital camera 1 uses a power supply battery E that connects four AA batteries E1 to E4 in series as a driving source.
[0016]
As shown in FIG. 2, the photographing lens 3 as a zoom lens includes a lens group 30. Here, a two-group zoom lens is shown as the photographing lens 3, and the lens group 30 is roughly classified into two lens groups 300 and 301. 2 and 3, each of the lens groups 300 and 301 is shown as a single lens for convenience of illustration. However, actually, each lens group 300, 301 is not limited to one lens, and may be configured as an aggregate of a plurality of lenses.
[0017]
On the other hand, inside the camera body 2, a motor M1 for driving the lens group 300 and a motor M2 for driving the lens group 301 are provided. By controlling these motors M1 and M2, it is possible to change the zoom magnification of the photographic lens 3 and change the focusing state of the photographic lens 3 (that is, focus operation).
[0018]
In addition, a color image sensor 303 is provided at an appropriate position behind the lens group 30 of the photographing lens 3. The color image sensor 303 is a single-plate type color area sensor in which R (red), G (green), and B (blue) color filters are attached in a checkered pattern on the surface of each pixel of an area sensor composed of a CCD. Be composed. The color image sensor (hereinafter, “CCD”) 303 has, for example, 1.92 million pixels of 1600 pixels in the horizontal direction and 1200 pixels in the vertical direction.
[0019]
As shown in FIG. 1, a grip portion G is provided on the front surface of the camera body 2, and a built-in flash 5 of a pop-up type is provided at an appropriate position at the upper end point of the camera body 2. As shown in FIG. 3, a shutter button 9 is provided on the upper surface of the camera body 2. The shutter button 9 has a function of detecting and discriminating between a half-pressed state (S1) used as a trigger for focus adjustment and the like and a fully-pressed state (S2) used as a trigger for recording shooting.
[0020]
On the other hand, an electronic viewfinder (hereinafter, “EVF”) 20 and a liquid crystal display (hereinafter, “LCD”) 10 are provided on the back of the camera body 2. Note that, unlike the optical viewfinder, the EVF 20 and the LCD 10 that perform live view display of the image signal from the CCD 303 in the shooting standby state have a function as a viewfinder.
[0021]
In addition, the LCD 10 can display a menu screen for setting a photographing mode, photographing conditions, and the like in the recording mode, and can reproduce and display a photographed image recorded on the memory card 8 in the reproduction mode.
[0022]
A power switch 14 is provided on the left side of the back of the camera body 2. The power switch 14 also functions as a mode setting switch for switching between a recording mode (a mode for performing a photographing function) and a reproduction mode (a mode for reproducing a recorded image on the LCD 10). That is, the power switch 14 is composed of a three-point slide switch. When the contact is set to the center “OFF” position, the power is turned off. When the contact is set to the upper “REC” position, the power is turned on and the recording mode is set. When the contact is set to the lower "PLAY" position, the power is turned on and the reproduction mode is set.
[0023]
A four-way switch 15 is provided on the right side of the back of the camera body 2. The quadruple switch 15 has a circular operation button, and various operations can be performed by pressing four buttons, SU, SD, SL, and SR, in the up, down, left, and right directions of the operation button. For example, it functions as a switch for changing an item selected on the menu screen displayed on the LCD 10 or changing a frame to be reproduced selected on the index screen. In the recording mode, the left and right buttons SL and SR function as switches for changing the zoom magnification. Specifically, the zoom magnification is changed by changing the relative positional relationship between the two lens groups 300 and 301 by driving the motors M1 and M2. More specifically, when the right switch SR is pressed, the camera continuously moves to the wide side, and when the left switch SL is pressed, the camera continuously moves to the tele side.
[0024]
A switch group 16 such as a cancel switch 33, an execution switch 32, a menu display switch 34, and an LCD display switch 31 is provided below the four switches 15. The cancel switch 33 is a switch for canceling the content selected on the menu screen. The execution switch 32 is a switch for confirming or executing the content selected on the menu screen. The menu display switch 34 is a switch for displaying a menu screen on the LCD 10 and switching the contents of the menu screen. The LCD display switch 31 is a switch for switching the display of the LCD 10 on and off.
[0025]
Next, the internal configuration of the digital camera 1 will be described. FIG. 4 is a schematic block diagram illustrating the internal configuration of the digital camera 1.
[0026]
The photographing lens 3 includes an aperture 302 for adjusting the amount of transmitted light inside, together with the lens groups 300 and 301. Note that, in FIG. 4, for convenience of illustration, the stop 302 is shown to be disposed behind the lens group 301, but the arrangement of the stop 302 is not limited to this. For example, the diaphragm 302 may be provided inside the lens group 301 (or 300), or may be provided between the two lens groups 300 and 301.
[0027]
The CCD 303 (imaging device) receives light from the subject incident through the photographing lens 3 for a predetermined exposure time, photoelectrically converts the light into an image signal, and takes in the image signal. The CCD 303 outputs the image signal after the photoelectric conversion to the signal processing unit 120. In this way, a subject image from the photographing lens 3 (photographing optical system) is obtained as an image.
[0028]
The signal processing unit 120 performs predetermined analog signal processing and digital signal processing on the image signal output from the CCD 303. The signal processing of the image signal is performed for each light receiving signal of each pixel constituting the image data. The signal processing unit 120 includes an analog signal processing circuit 121, an A / D conversion circuit 122, a shading correction circuit 123, an image processing circuit 124, and an image memory 126.
[0029]
The analog signal processing circuit 121 performs analog signal processing, and is mainly composed of a CDS (correlated double sampling) circuit and an AGC (auto gain control) circuit. The analog signal processing circuit 121 reduces the sampling noise of the pixel signal output from the CCD 303 and reduces the signal. Adjust the level. The gain control in the AGC circuit includes a case where a level shortage of a captured image when a proper exposure cannot be obtained with the aperture value of the aperture 302 and the exposure time of the CCD 303 is compensated.
[0030]
The A / D conversion circuit 122 converts a pixel signal (image signal) which is an analog signal output from the analog signal processing circuit 121 into pixel data (image data) which is a digital signal. The A / D conversion circuit 122 converts a pixel signal received by each pixel into, for example, a 10-bit digital signal to obtain pixel data having a gradation value of 0 to 1023. The converted pixel data (image data) is temporarily stored in the image memory 126.
[0031]
The shading correction circuit 123 corrects the shading by the optical system for the A / D converted pixel data. The shading correction circuit performs, for example, a multiplication process of the image data converted by the A / D conversion circuit 122 and a shading correction coefficient (described later) in a correction table generated by the overall control unit 150.
[0032]
The image processing circuit 124 includes a WB (white balance) circuit, a color balance evaluation circuit, a pixel interpolation circuit, a color correction circuit, a gamma correction circuit, a color separation circuit, a spatial filter, a resolution conversion circuit, a compression / decompression processing circuit, and the like. I have. The WB circuit adjusts the white balance of a captured image. The WB circuit converts the level of the pixel data of each of the R, G, and B color components by using the evaluation result of the color balance of the captured image by the color balance evaluation circuit. In the CCD 303 having a Bayer array in which three types of color filters of R, G, and B are distributed and arranged, two pixel components R, G, and B that do not actually exist in each pixel position This is a circuit for obtaining color components by interpolation, and the color correction circuit is a circuit for correcting the spectral sensitivity characteristics of the filter. The γ correction circuit is a circuit that corrects the γ characteristic of the pixel data, and corrects the level of each pixel data using a preset γ correction table. The color separation circuit is a circuit that converts an (R, G, B) signal into a (Y, Cr, Cb) signal. This color separation processing is performed using a matrix calculator. The spatial filter is a circuit that performs various filtering processes such as edge enhancement using a low-pass filter and a high-pass filter. The resolution conversion circuit is a circuit for converting to a desired resolution, and the compression / decompression processing circuit is a circuit for performing a compression process on data of a predetermined format such as JPEG and a decompression process on the contrary.
[0033]
The image memory 126 is a memory for temporarily storing image data. Each process in the image processing circuit 124 is performed on the image data stored in the image memory 126.
[0034]
The light emission control unit 102 controls light emission of the flash (illumination light source) 5 based on a light emission control signal input from the overall control unit 150. The light emission control signal includes a light emission preparation instruction, light emission timing, and light emission amount.
[0035]
The lens control unit 130 controls the driving of each member of the lens groups 300 and 301 and the stop 302 in the taking lens 3. The lens control unit 130 includes an aperture control circuit 131 that controls the aperture value of the aperture 302, a zoom control circuit 132 that changes the zoom magnification by driving the motors M1 and M2 (in other words, changes the angle of view). And a focus control circuit 133 that performs focus control by driving the motors M1 and M2.
[0036]
The aperture control circuit 131 drives the aperture 302 based on the aperture value input from the overall control unit 150, and sets the aperture amount to the aperture value. The focus control circuit 133 controls the driving amounts of the motors M1 and M2 based on the AF control signal input from the overall control unit 150, and sets the lens groups 300 and 301 to the focal position. The zoom control circuit 132 drives the motors M1 and M2 to move the lens groups 300 and 301 based on a zoom control signal input from the overall control unit 150 in response to an input from the quad switch 15. As a result, the zoom state moves to the wide side or the tele side.
[0037]
The display unit 140 performs display on the LCD 10 and the EVF 20. The display section 140 includes an LCD 10 and an EVF 20, an LCD VRAM 141 serving as a buffer memory for image data reproduced and displayed on the LCD 10, and an EVF VRAM 142 serving as a buffer memory for image data reproduced and displayed on the EVF 20.
[0038]
In the photographing standby state, after each pixel data of an image (live view image) photographed by the CCD 303 every 1/30 (second) is subjected to predetermined signal processing by the signal processing unit 120, the image memory 126 Is stored temporarily. Then, the data is read out by the overall control unit 150, transferred to the LCDVRAM 141 and the EVFVRAM 142 after the data size is adjusted, and displayed on the LCD 10 and the EVF 20 as a live view display. This allows the user to visually recognize the subject image. Further, in the reproduction mode, the image read from the memory card 8 is subjected to predetermined signal processing by the overall control unit 150, then transferred to the LCD VRAM 141, and reproduced and displayed on the LCD 10.
[0039]
The operation unit 101 inputs operation information of operation members related to shooting and reproduction provided in the camera body unit 2 to the overall control unit. The operation information input from the operation unit 101 includes operation information of each operation member such as the shutter button 9, the power switch 14, the four-way switch 15, and the switch group 16.
[0040]
The overall control unit 150 is composed of a microcomputer and centrally controls the photographing function and the reproduction function. The memory card 8 is connected to the overall control unit 150 via the card interface 103. Also, a personal computer PC is externally connected via the communication interface 105.
[0041]
The overall control unit 150 includes a ROM 151 storing a processing program for performing various specific processes in the photographing function and the reproduction function and a control program for controlling driving of each member of the digital camera 1 described above; A RAM 152 is provided as a work area for performing various arithmetic operations according to programs and control programs. Note that program data recorded on the memory card 8 as a recording medium can be read out via the card interface 103 and stored in the ROM 151. Therefore, these processing programs and control programs can be installed in the digital camera 1 from the memory card 8. The processing program and the control program may be installed from the personal computer PC via the communication interface 105.
[0042]
The overall control unit 150 has a scene determination unit 154. The scene determination unit 154 is a functional unit that is functionally implemented by executing the above-described processing program or the like using a microcomputer or the like.
[0043]
The scene determination unit 154 determines whether the shooting scene (hereinafter, also simply referred to as “scene”) of the shot image is a “text scene” or a “natural scene”. The “character scene” is a scene in which a character is a subject, such as an image (also referred to as a text image) of a character drawn on a document or a whiteboard (white board). On the other hand, a “natural scene” is a scene in which a landscape, a person, or the like is a subject. Here, if the scene is not a character scene, it is determined that the scene is a natural image scene.
[0044]
Further, the digital camera 1 sets the shooting mode according to the determination result of the shooting scene. Specifically, when it is determined that the scene is a character scene, the shooting mode is set to “character mode”, and when it is determined that the scene is a natural image scene, the shooting mode is set to “natural image mode”. This character mode is a mode suitable for photographing a character scene, and is a mode set when a binary image such as a character on a document is photographed. The character mode can also be called a text mode or the like. On the other hand, the natural image mode is a mode suitable for shooting a natural image scene.
[0045]
As will be described later, the shading correction process is performed by changing the degree according to the determination result of the scene determination unit 154.
[0046]
<A2. Operation>
Next, a detailed operation in the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing an example of this imaging operation.
[0047]
In the first embodiment, the determination as to which scene the captured image is is made not by the captured image itself but by a live view image (more specifically, immediately before the shutter button 9 is fully pressed S2. (A live view image) will be described. As described above, the scene determination can be performed using not the captured image itself but an image in which the captured image and the subject have high identity.
[0048]
Here, shading correction according to the scene determination result is performed only on the captured image after the shutter button 9 is fully pressed S2, and the live view image is based on the scene determination result. Predetermined shading correction is performed. This predetermined shading correction is performed using a correction table stored in the ROM 151 in advance. However, the present invention is not limited to this, and shading correction according to the scene determination result may be performed on the live view display image.
[0049]
First, in step SP10, automatic scene determination is performed.
[0050]
Here, as shown in FIG. 6, the scene discrimination is performed in the central region CR (for example, 320 pixels × 240 pixels) of the entire region TR of a predetermined size (for example, 640 pixels × 480 pixels) for live view. Is preferably performed based on the following image data. In other words, it is preferable that the scene determination is performed without using the image data of the peripheral region PR.
[0051]
This is because some of the photographing lenses have a sharp decrease in the amount of light at the peripheral portion of the photographed image (that is, suddenly darken at the peripheral portion). This is because performing a scene determination may result in an incorrect determination result. Alternatively, even when the peripheral region PR includes a frame or a background subject, the scene determination result may not be a desired result. These inconveniences can be avoided by using the image data of the central area.
[0052]
Now, as described above, the color signals (R, G, B) of each pixel in this image are converted into a luminance signal Y, a color difference signal Cr (= Y−R), and Cb (= Y− B). Here, scene determination is performed using the luminance signal Y and the color difference signals Cr and Cb.
[0053]
More specifically, first, in step SP11, determination based on luminance is performed. That is, the scene determination unit 154 performs the scene determination based on the luminance distribution of the image.
[0054]
FIG. 7 is a diagram illustrating a luminance distribution of a character scene, and FIG. 8 is a diagram illustrating a luminance distribution of a natural image scene. In the graphs of FIGS. 7 and 8, the horizontal axis represents the luminance value (luminance signal) Y, and the vertical axis represents the distribution frequency of each luminance value.
[0055]
The “character scene” is an image in which a character of another color (eg, black) is drawn on a sheet of uniform color (eg, white paper), and is largely divided into a bright portion and a dark portion as shown in FIG. Brightness distribution.
[0056]
On the other hand, the “natural scene” is an image composed of a larger number of colors, and has a gentle luminance distribution as shown in FIG.
[0057]
The scene determination unit 154 determines whether or not the image is a “character scene” based on the luminance distribution of the image. If it is determined that the scene is a natural image scene, the process proceeds to step SP20. If it is determined that the scene is a character scene, the process proceeds to step SP12.
[0058]
In the next steps SP12 and SP13, determination based on the color difference signals Cr and Cb is performed. That is, the scene determination unit 154 performs the scene determination based on the color of the image.
[0059]
FIG. 9 is a diagram showing the distribution of the color difference signal Cr for the character scene, and FIG. 10 is a diagram showing the distribution of the color difference signal Cr for the natural image scene. In the graphs of FIG. 9 and FIG. 10, the horizontal axis represents each value of the color difference signal Cr, and the vertical axis represents the distribution frequency of each color difference signal value.
[0060]
The “character scene” is an image having a relatively small number of colors, and as shown in FIG. 9, the color difference signal has a distribution partially biased.
[0061]
On the other hand, the “natural scene” is an image composed of a larger number of colors, and has a smooth luminance distribution over a wider range as shown in FIG.
[0062]
The scene determination unit 154 determines whether or not the image is a “character scene” based on the distribution of the color difference signal Cr of the image. If it is determined that the scene is a natural image scene, the process proceeds to step SP20. If it is determined that the scene is a character scene, the process proceeds to step SP13.
[0063]
In step SP13, the same operation is performed for the color difference signal Cb. The scene determination unit 154 determines whether or not the image is a “character scene” based on the distribution of the color difference signal Cb of the image. If it is determined that the scene is a natural scene, the process proceeds to step SP20. If it is determined that the scene is a character scene, the process proceeds to step SP30.
[0064]
As described above, the shading correction process to be adopted is selected from the two types of shading correction processes according to the determination result based on the luminance signal Y and the color difference signals Cr and Cb.
[0065]
Specifically, when the determination result based on any one of the signals Y, Cr, and Cb is a “natural image scene”, the process proceeds to step SP20. In step SP20, under the control of the overall control unit 150, the shooting mode is set to the natural image mode, and it is determined that the shading correction process in the natural image mode is performed on the shot image.
[0066]
On the other hand, when it is determined that the character scene is a character scene based on any of the signals Y, Cr, and Cb, the process proceeds to step SP30. In step SP30, under the control of the overall control unit 150, the photographing mode is set to the character mode, and it is determined that the shading correction processing in the character mode is to be performed on the photographed image.
[0067]
In this case, the final determination result is set to the character mode only when the determination result based on the luminance distribution or the hue is the character mode, that is, the condition for determining the character mode is strict. It is not limited to this. For example, when the determination result based on one of the luminance distribution and the hue is the character mode, the final determination result may be the character mode.
[0068]
After that, when it is detected that the shutter button 9 is fully pressed by the operator in the state S2, a captured image is acquired. The following shading correction processing according to the scene determination result is performed on the captured image.
[0069]
FIG. 11 is a conceptual diagram illustrating a configuration of the shading correction circuit 123 and the like. As shown in FIG. 11, two types of shading correction tables TA and TB (hereinafter, also simply referred to as tables TA and TB) are stored in the memory of the digital camera. In each of the tables TA and TB, a correction coefficient corresponding to each pixel corresponding to the position of each pixel is stored. Then, shading correction using one of the shading correction tables TA and TB is performed according to the determination result in step SP10. The logical mapping table in the memory is shown on the right side of FIG. This memory is physically composed of an image memory 126, a ROM 151, a RAM 152, and the like.
[0070]
More specifically, the multiplication circuit in the shading correction circuit 123 compares the pixel value of each pixel of the original image data stored in the image memory 126 with each pixel stored in the table TA (or TB). Multiply by the corresponding correction coefficient and output as corrected pixel value data. The image data after the shading correction is constituted by the pixel values after the multiplication.
[0071]
If it is determined in step SP10 that the scene is a "natural image scene" among the tables TA and TB, the shading correction process is performed using the natural image scene table TA. On the other hand, if it is determined in step SP10 that the character scene is a "character scene", shading correction processing is performed using the character scene table TB.
[0072]
Here, the tables TA and TB have different degrees of correction.
[0073]
FIG. 12 is a diagram showing a state of shading before and after correction. However, FIG. 12 assumes a case in which all pixels forming an image receive incident light from a subject having the same luminance. That is, FIG. 12 shows the rate of decrease in the level of pixel data due to the influence of shading at each pixel position. In each graph, the horizontal axis represents the distance x from the center (optical axis), and the vertical axis represents the luminance value Y of the pixel at a position at a distance x from the center.
[0074]
In FIG. 12, a curve CL0 is a diagram showing a shading state before correction. On the other hand, a curve CL1 shows the effect of shading after shading correction by the table TA, and a curve CL2 shows the effect of shading after shading correction by the table TB.
[0075]
As described above, the correction table TA stores a correction coefficient that makes the degree of correction smaller than that of the correction table TB. More specifically, the correction table TA indicates that the ratio (ratio) of the peripheral luminance to the corrected central luminance becomes a value smaller than 100% (for example, about 80%) when a uniform light source is photographed. The correction coefficient is stored. On the other hand, the correction table TB stores correction coefficients such that the ratio of the peripheral luminance to the corrected central luminance becomes, for example, about 100% when a uniform light source is photographed. This is due to the following circumstances.
[0076]
In the case of a natural image scene, it is preferable to reduce the degree of shading correction as compared with a character scene. This is because, if shading is corrected by multiplying the original pixel value (luminance value) by a larger correction coefficient, the noise component also increases, and the S / N ratio particularly in the peripheral portion is significantly reduced. Alternatively, if excessive correction is performed, the peripheral portion may be brighter than the central portion, which contributes to avoiding such a situation.
[0077]
Conversely, in the case of a character scene, it is preferable to increase the degree of shading correction as compared with a natural image scene. A character scene often has a different photographing purpose from a natural image scene, and for example, is often photographed in order to recognize characters and the like drawn in the scene. In such a case, it is necessary to avoid a situation in which characters in the peripheral area cannot be read due to insufficient correction of the peripheral light amount drop, but a slight noise component is allowed. Under such circumstances, in the case of the character scene, the shading correction is performed using the table TB in which the degree of the shading correction is larger than that of the natural image scene.
[0078]
As described above, the scene is automatically determined, and the shading correction can be performed using the table according to the determination result among the two tables TA and TB stored in advance. , It is possible to perform appropriate shading correction according to.
[0079]
In particular, when a scene of a photographed image is a “character scene”, shading correction is performed with a greater degree of correction than when the scene is a “natural image scene”. The influence can be reduced, and in the case of a character scene, it is possible to make up for the light quantity shortage to the extent that characters can be read even in the peripheral part.
[0080]
Further, in the scene discrimination, since data in the central area that is not easily affected by shading is used, more accurate scene discrimination can be performed.
[0081]
<B. Second Embodiment>
When shading correction is performed based on a table having a large correction degree, a granular color noise component may be conspicuous. In the second embodiment, a technique that can eliminate such a situation by performing color difference suppression (chroma suppression) will be described.
[0082]
The digital camera of the second embodiment has the same configuration and the like as the digital camera of the first embodiment, and the following description will focus on differences.
[0083]
Specifically, when the scene of the captured image is determined to be a “character scene” in the determination processing in step SP10, the shooting mode is set to the character mode. At this time, in the second embodiment, a saturation suppression process is further performed in addition to the same shading correction process as described above.
[0084]
FIG. 13 is a diagram showing a conceptual configuration of the color separation circuit 127 in the image processing circuit 124 and the inside of the memory. Further, the RGB signals in FIG. 13 represent the signals after the shading correction by the table TB is performed.
[0085]
As shown in FIG. 13, the RGB signals for each pixel are further converted into a luminance signal Y and color difference signals Cr and Cb by a matrix calculator 128 in the color separation circuit 127. The color can be suppressed by multiplying each of the color difference signals Cr and Cb output from the matrix calculator 128 by each of the gain coefficients stored in the tables Tr and Tb by each of the multipliers 129r and 129b. .
[0086]
FIG. 14 is a diagram illustrating an example of each gain coefficient stored in the table Tr (or the table Tb). Numerical values in FIG. 14 indicate gain coefficients corresponding to each pixel according to the pixel position. However, in FIG. 14, for simplicity of illustration, coefficients corresponding to some representative pixels of all pixels are shown.
[0087]
As shown in FIG. 14, in the table Tr, the value of the gain coefficient decreases from the center to the periphery, that is, the degree (degree) of color difference suppression (saturation suppression) increases. You can see that. Therefore, color noise can be efficiently reduced in the peripheral portion where the correction coefficient in shading is large and color noise is likely to occur.
[0088]
As described above, according to the second embodiment, when the character mode is set as the shooting mode, the saturation suppression process in the peripheral portion is performed in addition to the shading correction process. It is possible to perform shading correction while reducing color noise that tends to occur in the peripheral portion. In other words, more appropriate shading correction can be performed on the character scene.
[0089]
In particular, since the degree of saturation suppression increases as the distance from the center of the image increases, it is possible to more appropriately suppress the occurrence of color noise from the center to the entire periphery when correcting shading due to peripheral light drop. It is possible.
[0090]
Further, in the second embodiment, the case where the digital camera sets the shooting mode to the character mode according to the determination result of the scene determination (automatic determination) is exemplified, but the present invention is not limited to this. For example, when the operator uses the operation unit 101 or the like to give an instruction input to set the shooting mode to the character mode to the digital camera, and the digital camera sets the shooting mode to the character mode in response to the instruction input The above idea can be applied also to the above.
[0091]
In the second embodiment, the case where the color difference is suppressed in association with the magnitude relationship of the shading correction coefficients has been described, but the present invention is not limited to this. For example, when the shooting mode is set to the character mode, the color difference signals Cr and Cb may be all set to 0 (zero) and output as a monochrome image.
[0092]
<C. Others>
In the above-described first embodiment, the case where the scene determination is performed using the live view image immediately before the shutter button 9 is fully pressed S2 has been described, but the present invention is not limited to this. For example, scene determination may be performed using a captured image itself captured in response to the shutter button 9 being fully pressed in step S2. In that case, the luminance signal Y and the color difference signals Cr and Cb for scene determination may be calculated prior to the shading correction by changing the processing order of the respective processing units in the image processing circuit 124. Specifically, the conversion processing from the (R, G, B) signal to the (Y, Cr, Cb) signal by the matrix calculator 128 or the like may be performed before the shading correction processing. Alternatively, after the shading correction is once performed using a predetermined shading correction table and the respective processes are performed in the above-described order to obtain the luminance signal Y and the color difference signals Cr and Cb, one of the tables TA and TB is again stored in the predetermined table. The correction shortage with the shading correction table may be additionally corrected.
[0093]
In each of the above embodiments, it is determined whether the shooting scene is one of two scenes (a character scene and a natural image scene), and one of the two types of tables TA and TB is determined according to the determination result. Although shading correction is performed by selectively using, the present invention is not limited to this. For example, more types of scenes may be determined, and based on the determination result, shading correction may be performed based on a correction table selected from a larger number of shading correction tables corresponding to each scene. .
[0094]
Alternatively, a predetermined number of shading correction tables having different degrees of correction (degrees) are provided, and bracket shooting is performed by separately applying each shading correction table to a captured image to generate a predetermined number of images. It may be. For example, for a character scene, three images using three different shading correction tables may be generated.
[0095]
The specific embodiments described above include inventions having the following configurations.
[0096]
(1) In the digital camera according to claim 3,
The digital camera according to claim 1, wherein the determination unit performs a scene determination based on a hue of the image. According to this, the scene determination can be performed more accurately.
[0097]
(2) The digital camera according to claim 3,
The digital camera according to claim 1, wherein the determination unit performs a scene determination based on a luminance distribution of the image. According to this, the scene determination can be performed more accurately.
[0098]
【The invention's effect】
As described above, according to the first aspect of the present invention, the degree of correction is changed in accordance with the result of the determination by the determination means, and the shading correction is performed. It is possible to do.
[0099]
According to the second aspect of the invention, when the scene of the image is determined to be the first scene in which a character is a subject, the degree of shading correction is smaller than when the scene is determined to be the second scene. Since it is large, it is possible to relatively sufficiently correct the peripheral light amount drop in the image of the first scene in which a character is a subject, and to relatively suppress the occurrence of noise in the image of the second scene.
[0100]
According to the third aspect of the invention, since the data relating to the central area that is not easily affected by shading is used in the scene determination, more accurate scene determination can be performed.
[0101]
According to the fourth aspect of the invention, when the character mode is set as the photographing mode, the saturation suppression processing in the peripheral part is also performed in addition to the shading correction processing. Corrections can be made. In other words, more appropriate shading correction can be performed on the character scene.
[0102]
According to the fifth aspect of the present invention, it is possible to more appropriately suppress the occurrence of color noise when correcting the shading due to the peripheral light amount drop.
[Brief description of the drawings]
FIG. 1 is a plan view illustrating a schematic configuration of an external appearance of a digital camera.
FIG. 2 is a cross-sectional view of the digital camera.
FIG. 3 is a rear view of the digital camera.
FIG. 4 is a schematic block diagram illustrating an internal configuration of the digital camera.
FIG. 5 is a flowchart showing an operation in the first embodiment.
FIG. 6 is a diagram showing a central area used for scene determination.
FIG. 7 is a diagram illustrating a luminance distribution of a character scene.
FIG. 8 is a diagram illustrating a luminance distribution of a natural image scene.
FIG. 9 is a diagram illustrating a distribution of color difference signals for a character scene.
FIG. 10 is a diagram illustrating a distribution of color difference signals for a natural image scene.
FIG. 11 is a conceptual diagram illustrating a configuration of a shading correction circuit and the like.
FIG. 12 is a diagram showing a state of shading before and after correction.
FIG. 13 is a conceptual diagram showing a configuration of a matrix calculator and the like.
FIG. 14 is a diagram showing a table storing gain coefficients for suppressing color difference.
[Explanation of symbols]
1 Digital camera
3 Shooting lens
123 Shading correction circuit
127 color separation circuit
128 matrix calculator
129r, 129b Multiplier
303 color image sensor
CR central area
Cr, Cb color difference signal
PR surrounding area
TA, TB Shading correction table
Tr, Tb (for saturation suppression) table
Y luminance signal
x distance

Claims (5)

デジタルカメラであって、
撮影光学系と、
前記撮影光学系からの被写体像を画像として取得する撮像手段と、
前記画像のシーンが、文字を被写体とする第1シーンと前記第1シーンとは異なる第2シーンとを含む複数のシーンのうちのいずれのシーンであるかを判別する判別手段と、
前記判別手段の判別結果に応じて補正の度合いを変更してシェーディング補正を行う補正手段と、
を備えることを特徴とするデジタルカメラ。
A digital camera,
Shooting optics,
Imaging means for acquiring a subject image from the imaging optical system as an image,
Determining means for determining whether the scene of the image is a scene among a plurality of scenes including a first scene having a character as a subject and a second scene different from the first scene;
Correction means for performing shading correction by changing the degree of correction according to the result of the determination by the determination means,
A digital camera, comprising:
請求項1に記載のデジタルカメラにおいて、
前記補正手段は、前記画像のシーンが前記第1シーンであると判別されるときには、前記第2シーンであると判別されるときに比べてシェーディング補正の度合いを大きくすることを特徴とするデジタルカメラ。
The digital camera according to claim 1,
The digital camera according to claim 1, wherein the correction means increases the degree of shading correction when the scene of the image is determined to be the first scene, as compared with when the scene of the image is determined to be the second scene. .
請求項1に記載のデジタルカメラにおいて、
前記判別手段は、前記画像の中央領域に関連するデータに基づいてシーン判別を行うことを特徴とするデジタルカメラ。
The digital camera according to claim 1,
The digital camera according to claim 1, wherein the determination unit performs a scene determination based on data related to a central area of the image.
デジタルカメラであって、
撮影光学系と、
前記撮影光学系からの被写体像を画像として取得する撮像手段と、
撮影モードとして、文字モードを含む複数のモードのうちのいずれかのモードを設定する設定手段と、
前記撮影モードとして前記文字モードが設定されたときには、シェーディング補正処理に加えて、周辺部における彩度抑圧処理をも行う処理手段と、
を備えることを特徴とするデジタルカメラ。
A digital camera,
Shooting optics,
Imaging means for acquiring a subject image from the imaging optical system as an image,
Setting means for setting any one of a plurality of modes including a character mode as a shooting mode;
When the character mode is set as the shooting mode, in addition to the shading correction processing, a processing unit that also performs saturation suppression processing in a peripheral portion,
A digital camera, comprising:
請求項4に記載のデジタルカメラにおいて、
前記処理手段は、前記画像の中心から離れるにつれて彩度抑圧の度合いを大きくすることを特徴とするデジタルカメラ。
The digital camera according to claim 4,
The digital camera according to claim 1, wherein the processing unit increases the degree of saturation suppression as the distance from the center of the image increases.
JP2002246641A 2002-08-27 2002-08-27 Digital camera Pending JP2004088408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002246641A JP2004088408A (en) 2002-08-27 2002-08-27 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002246641A JP2004088408A (en) 2002-08-27 2002-08-27 Digital camera

Publications (1)

Publication Number Publication Date
JP2004088408A true JP2004088408A (en) 2004-03-18

Family

ID=32054484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002246641A Pending JP2004088408A (en) 2002-08-27 2002-08-27 Digital camera

Country Status (1)

Country Link
JP (1) JP2004088408A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005112428A1 (en) * 2004-05-18 2005-11-24 Konica Minolta Photo Imaging, Inc. Image processing method, image processing device, image recorder, and image processing program
JP2006237686A (en) * 2005-02-22 2006-09-07 Matsushita Electric Ind Co Ltd Imaging apparatus
JP2007043312A (en) * 2005-08-01 2007-02-15 Fujifilm Holdings Corp Imaging apparatus
JP2007094917A (en) * 2005-09-30 2007-04-12 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2009272799A (en) * 2008-05-02 2009-11-19 Casio Comput Co Ltd Imaging device and program
JP2010263267A (en) * 2009-04-30 2010-11-18 Aof Imaging Technology Ltd Image correction apparatus
JP2011176861A (en) * 2004-04-08 2011-09-08 Marvell Internatl Technology Ltd Flatbed scanner to image documents and other flat objects
JP5039786B2 (en) * 2007-07-23 2012-10-03 パナソニック株式会社 Imaging device
JP2019075716A (en) * 2017-10-17 2019-05-16 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542412B2 (en) 2004-04-08 2013-09-24 Marvell International Technology Ltd. Two-dimensional CMOS sensor array to image documents and other flat objects
JP2011176861A (en) * 2004-04-08 2011-09-08 Marvell Internatl Technology Ltd Flatbed scanner to image documents and other flat objects
JP2014045521A (en) * 2004-04-08 2014-03-13 Marvell Internatl Technology Ltd Two-dimensional cmos sensor array to image documents and other flat objects
WO2005112428A1 (en) * 2004-05-18 2005-11-24 Konica Minolta Photo Imaging, Inc. Image processing method, image processing device, image recorder, and image processing program
JP2006237686A (en) * 2005-02-22 2006-09-07 Matsushita Electric Ind Co Ltd Imaging apparatus
JP2007043312A (en) * 2005-08-01 2007-02-15 Fujifilm Holdings Corp Imaging apparatus
JP2007094917A (en) * 2005-09-30 2007-04-12 Casio Comput Co Ltd Image processing device, image processing method, and program
JP5039786B2 (en) * 2007-07-23 2012-10-03 パナソニック株式会社 Imaging device
US8294813B2 (en) 2007-07-23 2012-10-23 Panasonic Corporation Imaging device with a scene discriminator
JP2009272799A (en) * 2008-05-02 2009-11-19 Casio Comput Co Ltd Imaging device and program
JP2010263267A (en) * 2009-04-30 2010-11-18 Aof Imaging Technology Ltd Image correction apparatus
JP2019075716A (en) * 2017-10-17 2019-05-16 キヤノン株式会社 Image processing device, image processing method, and program
JP7051365B2 (en) 2017-10-17 2022-04-11 キヤノン株式会社 Image processing equipment, image processing methods, and programs

Similar Documents

Publication Publication Date Title
JP3680827B2 (en) Digital camera
JP3551123B2 (en) Electronic camera
US20040125220A1 (en) Image capturing apparatus, method of adjusting luminance of the same, and program product
JP2006121612A (en) Image pickup device
JP2010213213A (en) Imaging device and imaging method
JP4487342B2 (en) Digital camera
JP2005269373A (en) Video signal processing system, and electronic video apparatus
JP7157714B2 (en) Image processing device and its control method
JP2022183218A (en) Image processing device and control method thereof
US20110267494A1 (en) Image processing apparatus, control method thereof, and image-capturing apparatus
JP2004088408A (en) Digital camera
JPWO2019155757A1 (en) Image processing equipment, image processing method and image processing system
JP2007195122A (en) Imaging apparatus, image processor and image processing method
JP2007027943A (en) Imaging apparatus, program and method for processing shading
JP2010068046A (en) Imaging apparatus
JP4880375B2 (en) Image signal processing apparatus and image signal processing method
JP2004172835A (en) Imaging apparatus
JP2009118052A (en) Image signal processing method and apparatus
JP4335648B2 (en) Digital camera and imaging method of digital camera
JP2008228185A (en) Imaging apparatus
JP2008278333A (en) Image processing device and method
JP2001169152A (en) Electronic camera, method for display state adjustment of electronic camera, and recording medium
JP3995524B2 (en) Knee correction circuit and imaging apparatus
JP4404718B2 (en) Image processing apparatus and imaging apparatus
JP5708048B2 (en) Imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615