JP4054173B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP4054173B2
JP4054173B2 JP2000367947A JP2000367947A JP4054173B2 JP 4054173 B2 JP4054173 B2 JP 4054173B2 JP 2000367947 A JP2000367947 A JP 2000367947A JP 2000367947 A JP2000367947 A JP 2000367947A JP 4054173 B2 JP4054173 B2 JP 4054173B2
Authority
JP
Japan
Prior art keywords
imaging
unit
optical system
axis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000367947A
Other languages
Japanese (ja)
Other versions
JP2002171437A (en
Inventor
健太郎 常盤
岳志 三沢
賢一 船戸
誠 礒崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2000367947A priority Critical patent/JP4054173B2/en
Publication of JP2002171437A publication Critical patent/JP2002171437A/en
Application granted granted Critical
Publication of JP4054173B2 publication Critical patent/JP4054173B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Cameras In General (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カメラに関する。特に本発明は、広範囲の領域を撮像可能なカメラに関する。
【0002】
【従来の技術】
一回の撮像で撮像範囲が収まらない範囲をカメラで撮像する際には、ユーザは撮像領域を適宜ずらしながら複数の写真を撮像していた。ユーザは、撮像された複数の写真を印刷するか、またはモニタ画面に表示したのち、写真を見比べながらつなぎ合わせていた。
【0003】
【発明が解決しようとする課題】
撮像領域をずらすことは、ユーザの見当に頼っていた。このため、複数の撮像領域に隙間ができることがあり、写真をつなぎ合わせることができないことなどの課題があった。また、撮像領域間で写真の焦点などが異なるために、写真をつなぎ合わせると、不自然な印象を与えていた。
【0004】
そこで本発明は、上記の課題を解決することのできるカメラを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
【0005】
【課題を解決するための手段】
即ち、本発明の第1の形態によると、本発明は、被写体を撮像するのに用いる撮像光学系と、撮像光学系により撮像された画像を格納するカメラ本体と、撮像光学系を第1の軸、および第1の軸と交差する第2の軸回りに、カメラ本体に対し回転させる回転部と、撮像範囲を外部から受け付ける撮像範囲受付部と、撮像範囲を複数の分割領域に分割する撮像範囲分割部と、回転部を回転させつつ、撮像光学系を用いて分割領域を含む分割画像を順次撮像させる撮像制御部と、撮像対象となっている撮像範囲内の複数の前記分割領域において、被写体までの距離を測定する測距部とを備え、測距部は、回転部によって第1の軸及び第2の軸の回りに撮像光学系とともに回転可能であり、撮像制御部は、測距部が測定した複数の被写体までの距離に基づいて焦点距離を定めることによって、撮像範囲に含まれる複数の分割領域を撮像する間に、撮像光学系の焦点距離を一定にしつつ撮像する。また、撮像対象となっている撮像範囲内の複数の分割領域において、被写体の輝度を測定する測光部をさらに備えてもよい。測光部は、回転部によって第1の軸及び第2の軸の回りに撮像光学系とともに回転可能であり、撮像制御部は、測光部が測定した複数の被写体の輝度に基づいて露出を定めることによって、撮像範囲に含まれる複数の分割領域を撮像する間に、撮像光学系の露出を一定にしつつ撮像する。
【0006】
第1の軸の向きは、実質的に鉛直であってもよい。また、第1の軸は、回転部の重心を通ってもよい。
【0007】
本発明は、回転部を第1の軸及び第2の軸の回りに駆動することにより、撮像光学系の向きを調整する光学系駆動部をさらに備えてもよい。光学系駆動部は、画像を撮像する毎に、回転部を一定角度ずつステップ駆動してもよい。一定角度は、撮像光学系で撮像される画面の幅方向の画角を越えなくてもよい。また、一定角度は、撮像光学系で撮像される画面の高さ方向の画角を越えないてもよい。
【0009】
本発明は、分割画像と、撮像範囲における分割画像の位置に関する位置情報とを関連づけて記憶する記憶部をさらに備えてもよい。本発明は、記憶部に記憶されている複数の分割画像を、各々の分割画像に関連づけられている位置情報に基づいてつなぎ合わせ、撮像範囲の全体を表す単一の画像を生成する画像合成部をさらに備えてもよい。画像合成部は、互いに隣接する分割画像の重複部分を検出し、検出結果を利用して分割画像をつなぎ合わせてもよい。
【0012】
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。
【0013】
【発明の実施の形態】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態はクレームにかかる発明を限定するものではなく、又実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0014】
図1は、本発明のカメラ10の外観を示す。カメラ10は、撮像光学系21、カメラ本体11、および回転部120を備える。撮像光学系21は、被写体を撮像するのに用いられる。撮像光学系21の詳細は後述する。カメラ本体11は、撮像光学系21で撮像された画像をデジタルデータとして後述するメモリなどに格納する。回転部120は、撮像光学系21を、第1の軸140、および第1の軸140と交差する第2の軸150の軸回りに、カメラ本体11に対し回転させる。第1の軸140の向きは、実質的に鉛直である。これにより、カメラ10を平らな地面に置いたとすれば、カメラ10で撮像可能な領域は、カメラ10の位置を固定したままで、地面より上の領域をもれなくカバーできる。また、第1の軸140は、回転部120の重心を通る。第1の軸140が回転部120の重心を通ることによって、第1の軸140の軸回りに回転部120が回転するときの、回転部120の慣性モーメントを小さくなる。これによって、回転部120の精密な制御がしやすくなる。
【0015】
図2は、本発明の実施形態に係るカメラ10の構成を示す。本実施形態のカメラ10は、主に撮像ユニット20、撮像制御ユニット40、処理ユニット60、表示ユニット100、および操作ユニット110を含む。
【0016】
撮像ユニット20は、撮影および結像に関する機構部材および電気部材を含む。撮像ユニット20は、撮像光学系21、CCD30、および撮像信号処理部32を含む。撮像光学系21は、映像を取り込んで処理を施す撮影レンズ22、絞り24、シャッタ26、および光学LPF(ローパスフィルタ)28を含む。撮影レンズ22は、フォーカスレンズやズームレンズ等からなる。この構成により、被写体像がCCD30の受光面上に結像する。結像した被写体像の光量に応じ、CCD30の各センサエレメント(図示せず)に電荷が蓄積される(以下その電荷を「蓄積電荷」という)。蓄積電荷は、リードゲートパルスによってシフトレジスタ(図示せず)に読み出され、レジスタ転送パルスによって電圧信号として順次読み出される。
【0017】
デジタルカメラ10は一般に電子シャッタ機能を有するので、シャッタ26のような機械式シャッタは必須ではない。電子シャッタ機能を実現するために、CCD30にシャッタゲートを介してシャッタドレインが設けられる。シャッタゲートを駆動すると蓄積電荷がシャッタドレインに掃き出される。シャッタゲートの制御により、各センサエレメントに電荷を蓄積するための時間、すなわちシャッタスピードが制御できる。
【0018】
CCD30から出力される電圧信号、すなわちアナログ信号は撮像信号処理部32でR、G、B成分に色分解され、まずホワイトバランスが調整される。つづいて撮像信号処理部32はガンマ補正を行い、必要なタイミングでR、G、B信号を順次A/D変換し、その結果得られたデジタルの画像データ(以下単に「デジタル画像データ」とよぶ)を処理ユニット60へ出力する。
【0019】
撮像ユニット20はさらに、ファインダ34とストロボ36を有する。ファインダ34には図示しないLCDを内装してもよく、その場合、後述のメインCPU62等からの各種情報をファインダ34内に表示できる。ストロボ36は、コンデンサ(図示せず)に蓄えられたエネルギが放電管36aに供給されたときそれが発光することで機能する。撮像光学系21、CCD30、ファインダ34、およびストロボ36は、図1で示した回転部120に含まれる。
【0020】
撮像制御ユニット40は、ズーム駆動部42、フォーカス駆動部44、絞り駆動部46、シャッタ駆動部48、光学系駆動部130、それらを制御する撮像系CPU50、測距センサ52、および測光センサ54をもつ。ズーム駆動部42などの駆動部は、それぞれステッピングモータ等の駆動手段を有する。後述のレリーズスイッチ114の押下に応じ、測距センサ52は被写体までの距離を測定し、測光センサ54は被写体輝度を測定する。測定された距離のデータ(以下単に「測距データ」という)および被写体輝度のデータ(以下単に「測光データ」という)は撮像系CPU50へ送られる。撮像系CPU50は、ズームスイッチ118を介してユーザから指示されたズーム倍率等の撮影情報に基づき、ズーム駆動部42とフォーカス駆動部44を制御して撮影レンズ22のズーム倍率とピントの調整を行う。
【0021】
光学系駆動部130は、モータなどを用いて回転部120を第1の軸140及び第2の軸150の回りに駆動することにより、撮像光学系21の向きを調整する。光学系駆動部130により、撮像光学系21が、任意の撮像方向に向けられる。光学系駆動部130は、画像を撮像する毎に、回転部40を一定角度ずつステップ駆動する。
【0022】
撮像系CPU50は、1画像フレームのRGBのデジタル信号積算値、すなわちAE情報に基づいて絞り値とシャッタスピードを決定する。決定された値にしたがい、絞り駆動部46とシャッタ駆動部48がそれぞれ絞り量の調整とシャッタ26の開閉を行う。
【0023】
撮像系CPU50はまた、測光データに基づいてストロボ36の発光を制御し、同時に絞り24の絞り量を調整する。ユーザが映像の取込を指示したとき、CCD30が電荷蓄積を開始し、測光データから計算されたシャッタ時間の経過後、蓄積電荷が撮像信号処理部32へ出力される。
【0024】
処理ユニット60は、デジタルカメラ10全体、とくに処理ユニット60自身を制御するメインCPU62と、これによって制御されるメモリ制御部64、YC処理部70、オプション装置制御部74、圧縮伸張処理部78、通信I/F部80を有する。メインCPU62は、シリアル通信などにより、撮像系CPU50との間で必要な情報をやりとりする。メインCPU62の動作クロックは、クロック発生器88から与えられる。クロック発生器88は、撮像系CPU50、表示ユニット100に対してもそれぞれ異なる周波数のクロックを提供する。
【0025】
メインCPU62には、キャラクタ生成部84とタイマ86が併設されている。タイマ86は電池でバックアップされ、つねに日時をカウントしている。このカウント値から撮影日時に関する情報、その他の時刻情報がメインCPU62に与えられる。キャラクタ生成部84は、撮影日時、タイトル等の文字情報を発生し、この文字情報が適宜撮影画像に合成される。
【0026】
メモリ制御部64は、不揮発性メモリ66とメインメモリ68を制御する。不揮発性メモリ66は、EEPROM(電気的消去およびプログラム可能なROM)やFLASHメモリなどで構成され、ユーザーによる設定情報や出荷時の調整値など、デジタルカメラ10の電源がオフの間も保持すべきデータが格納されている。不揮発性メモリ66には、場合によりメインCPU62のブートプログラムやシステムプログラムなどが格納されてもよい。一方、メインメモリ68は一般にDRAMのように比較的安価で容量の大きなメモリで構成される。メインメモリ68は、撮像ユニット20から出力されたデータを格納するフレームメモリとしての機能、各種プログラムをロードするシステムメモリとしての機能、その他ワークエリアとしての機能をもつ。不揮発性メモリ66とメインメモリ68は、処理ユニット60内外の各部とメインバス82を介してデータのやりとりを行う。
【0027】
YC処理部70は、デジタル画像データにYC変換を施し、輝度信号Yと色差(クロマ)信号B−Y、R−Yを生成する。輝度信号と色差信号はメモリ制御部64によってメインメモリ68に一旦格納される。圧縮伸張部78はメインメモリ68から順次輝度信号と色差信号を読み出して圧縮する。こうして圧縮されたデータ(以下単に「圧縮データ」という)は、オプション装置制御部74を介してオプション装置76の一種であるメモリカードへ書き込まれる。
【0028】
処理ユニット60はさらにエンコーダ72をもつ。エンコーダ72は輝度信号と色差信号を入力し、これらをビデオ信号(NTSCやPAL信号)に変換してビデオ出力端子90から出力する。オプション装置76に記録されたデータからビデオ信号を生成する場合、そのデータはまずオプション装置制御部74を介して圧縮伸張部78へ与えられる。つづいて、圧縮伸張部78で必要な伸張処理が施されたデータはエンコーダ72によってビデオ信号へ変換される。
【0029】
オプション装置制御部74は、オプション装置76に認められる信号仕様およびメインバス82のバス仕様にしたがい、メインバス82とオプション装置76の間で必要な信号の生成、論理変換、または電圧変換などを行う。デジタルカメラ10は、オプション装置76として前述のメモリカードのほかに、例えばPCMCIA準拠の標準的なI/Oカードをサポートしてもよい。その場合、オプション装置制御部74は、PCMCIA用バス制御LSIなどで構成してもよい。
【0030】
通信I/F部80は、デジタルカメラ10がサポートする通信仕様、たとえばUSB、RS−232C、イーサネットなどの仕様に応じたプロトコル変換等の制御を行う。通信I/F部80は、必要に応じてドライバICを含み、ネットワークを含む外部機器とコネクタ92を介して通信する。そうした標準的な仕様のほかに、例えばプリンタ、ゲーム機等の外部機器との間で独自のI/Fによるデータ授受を行う構成としてもよい。
【0031】
表示ユニット100は、LCDモニタ102とLCDパネル104を有する。それらはLCDドライバであるモニタドライバ106、パネルドライバ108によってそれぞれ制御される。LCDモニタ102は、例えば2インチ程度の大きさでカメラ背面に設けられ、現在の撮影や再生のモード、撮影や再生のズーム倍率、電池残量、日時、モード設定のための画面、被写体画像などを表示する。本実施形態においては、LCDモニタ102は、電子ズーム処理部からの告知情報を表示する告知ユニットとしての機能も有し、電子ズーム処理を行うことによって画像が劣化する恐れがある旨の警告を表示する。LCDモニタ102は、ファインダ34の内部に設けられても良い。LCDパネル104は例えば小さな白黒LCDでカメラ上面に設けられ、画質(FINE/NORMAL/BASICなど)、ストロボ発光/発光禁止、標準撮影可能枚数、画素数、電池容量などの情報を簡易的に表示する。
【0032】
操作ユニット110は、ユーザーがデジタルカメラ10の動作やそのモードなどを設定または指示するために必要な機構および電気部材を含む。パワースイッチ112は、デジタルカメラ10の電源のオンオフを決める。レリーズスイッチ114は、半押しと全押しの二段階押し込み構造になっている。一例として、半押しでAFおよびAEがロックし、全押しで撮影画像の取込が行われ、必要な信号処理、データ圧縮等の後、メインメモリ68、オプション装置76等に記録される。操作ユニット110はこれらのスイッチの他、回転式のモードダイヤルや十字キーなどによる設定を受け付けてもよく、それらは図1において機能設定部116と総称されている。操作ユニット110で指定できる動作または機能の例として、「ファイルフォーマット」、「特殊効果」、「印画」、「決定/保存」、「表示切換」等がある。ズームスイッチ118は、ズーム倍率を決める。
【0033】
以上の構成による主な動作は以下のとおりである。
【0034】
まずデジタルカメラ10のパワースイッチ112がオンされ、カメラ各部に電力が供給される。メインCPU62は、機能設定部116の状態を読み込むことで、デジタルカメラ10が撮影モードにあるか再生モードにあるかを判断する。
【0035】
カメラが撮影モードにあるとき、メインCPU62はレリーズスイッチ114の半押し状態を監視する。半押し状態が検出されたとき、メインCPU62は測光センサ54および測距センサ52からそれぞれ測光データと測距データを得る。得られたデータに基づいて撮像制御ユニット40が動作し、撮影レンズ22のピント、絞りなどの調整が行われる。調整が完了すると、LCDモニタ102に「スタンバイ」などの文字を表示してユーザーにその旨を伝え、つづいてレリーズスイッチ114の全押し状態を監視する。レリーズスイッチ114が全押しされると、所定のシャッタ時間をおいてシャッタ26が閉じられ、CCD30の蓄積電荷が撮像信号処理部32へ掃き出される。撮像信号処理部32による処理の結果生成されたデジタル画像データはメインバス82へ出力される。デジタル画像データは一旦メインメモリ68へ格納され、この後YC処理部70と圧縮伸張部78で処理を受け、オプション装置制御部74を経由してオプション装置76へ記録される。記録された画像は、フリーズされた状態でしばらくLCDモニタ102に表示され、ユーザーは撮影画像を知ることができる。以上で一連の撮影動作が完了する。
【0036】
一方、デジタルカメラ10が再生モードの場合、メインCPU62は、メモリ制御部64を介してメインメモリ68から最後に撮影した画像を読み出し、これを表示ユニット100のLCDモニタ102へ表示する。この状態でユーザーが機能設定部116にて「順送り」、「逆送り」を指示すると、現在表示している画像の前後に撮影された画像が読み出され、LCDモニタ102へ表示される。
【0037】
以上、本発明のカメラ10の基本的な構成について説明した。以下に、本発明のカメラ10の特徴的な構成および機能について説明する。
【0038】
図3は、メインCPU62、不揮発性メモリ66、およびメインメモリ68(以下、「メインCPU62等」と略す)によって実現される機能部のブロック図を示す。メインCPU62等で実現される機能部には、撮像範囲受付け部200、撮像範囲分割部210、撮像制御部220、記憶部230、画像合成部240、測距部250、焦点距離決定部260、測光部270、および露出決定部280が含まれる。
【0039】
撮像範囲受付け部200は、外部から入力された撮像範囲を受付ける。撮像範囲の入力は、操作ユニット110が含む十字キーなどによって行われる。撮像範囲分割部210は、撮像範囲受付け部200が受付けた撮像範囲を複数の分割領域に分割する。撮像制御部220は、回転部120を回転させつつ、撮像光学系20を用いて分割領域を含む分割画像を順次撮像させる。
【0040】
撮像制御部220は、撮像範囲に含まれる複数の分割領域を撮像する間に、撮像光学系21の焦点距離を一定にしつつ撮像する。測距部250は、撮像対象となっている撮像範囲内の複数の分割領域において、測距センサ52などを用いて被写体までの距離を測定する。焦点距離決定部260は、測距部が測定した複数の距離に基づいて、焦点距離を定める。焦点距離は、たとえば、複数の測距結果の平均値に定められる。これにより、撮像範囲内において焦点が合うポイントを多くすることができる。
【0041】
また、撮像制御部220は、撮像範囲に含まれる複数の分割領域を撮像する間に、撮像光学系の露出を一定にしつつ撮像する。測光部270は、撮像対象となっている撮像範囲内の複数の分割領域において、測光センサ54などを用いて被写体の輝度を測定する。露出決定部280は、測距部が測定した複数の輝度に基づいて、露出を定める。焦点距離は、たとえば、複数の測光結果の平均値に定められる。これにより、撮像範囲全体について、露光不足または露光過剰の偏りがない画像が撮像される。
【0042】
記憶部230は、分割画像と、撮像範囲における分割画像の位置に関する位置情報とを関連付けてメモリなどに記憶する。画像合成部240は、記憶部230によって記憶された複数の分割画像をメモリから読出し、各々の分割画像に関連付けられている位置情報に基づいてつなぎ合わせ、撮像範囲の全体を表わす単一の画像を生成する。生成された画像は、メモリなどに格納される。また、画像合成部240は、互いに隣接する分割画像の重複部分を検出し、検出結果を利用して分割画像をつなぎ合わせる。
【0043】
図4は、光学系駆動部130が、画像を撮像する毎に、回転部120を第1の軸140の軸回りに一定角度ずつステップ駆動する様子を示す。回転駆動部130は、回転部120を第1の軸140の軸周りに回転角Φずつステップ駆動する。このとき、回転角Φが、カメラ10を基点としたときの、画面の幅方向の画角Θを越えないように制御される。これにより、画面の幅方向について、撮像領域が異なるとともに、隣合った撮像領域間に隙間がない画像を順次撮像することが可能となる。
【0044】
なお、画面の高さ方向の撮像領域の移動についても、画面の幅方向と同様に、高さ方向の画角を越えないように、回転部120が第2の軸150の軸回りにステップ駆動される。
【0045】
図5は、カメラ10によって、撮像範囲が分割して撮像される様子を示す。撮像範囲300は、撮像範囲受付け部200によって受付けられた撮像範囲を示す。撮像範囲300は、撮像範囲分割部210によって複数の領域に分割される。図5では、撮像範囲300が分割領域310Aから分割領域310Hまでの9つの領域に分割されている。撮像制御部220は、まず、分割領域310Aを含むような分割画像320Aを撮像させる。次に、撮像制御部220は、回転部120を回転させることにより、撮像光学系21の撮像領域を分割領域310Bに合わせ、分割領域310Bを含むような分割画像320Bを撮像させる。このように、順次撮像領域を変えていき、最後に分割領域310Iを含む分割画像310Iが撮像される。これにより、複数の分割画像によって、撮像範囲300がもれなくカバーされる。
【0046】
図6は、画像合成部240による分割画像の合成の例を示す。撮像範囲300は、分割画像320Aから分割画像320Hまでの9つの領域に分割されて撮像されている。各分割画像は、撮像範囲300の中のどの位置を撮像したかを示す位置情報が関連付けられてメモリなどに格納される。位置情報は、たとえば、分割画像の配列を行と列を表わす。たとえば、位置情報は、分割画像の行を下から数えた数字M、および分割画像の行を左から数えた数字Nを用いて、(M、N)のように表わされる。たとえば、分割画像320Aについては、位置情報は、(1、1)である。画像合成部240は、位置情報に基づいて、分割画像をつなぎあわせ撮像範囲の全体を表わす単一の画像330を合成する。画像合成部140は、隣あう分割画像の重複領域340を検出して、画像の類似性などに基づいて、分割画像のつなぎ合わせを行う。これにより、分割画像のつなぎ目が目立たない単一の画像330を作成することができる。
【0047】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることができる。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0048】
なお、測距センサ52、および測光センサ54は、撮像光学系21とともに、回転部120によって、第1の軸140、および第1の軸140と交差する第2の軸150の軸回りに、カメラ本体11に対し回転できてもよい。これによって、ある撮像範囲内の複数の分割領域における被写体までの距離が、測距センサ52の向きを回転部120を用いて各被写体の方向へ向ける毎に順次測定されることが可能となる。同様に、ある撮像範囲内の複数の分割領域における被写体の輝度が、測距センサ52の向きを回転部120を用いて各被写体の方向へ向ける毎に順次測定されることが可能となる。
【0049】
【発明の効果】
上記説明から明らかなように、本発明によればカメラの位置を固定したままで、撮像レンズの向きを撮像したい方向に向けて写真を撮像することができる。
【図面の簡単な説明】
【図1】 本発明のカメラ10の外観を示す図である。
【図2】 本発明の実施形態に係るカメラ10の構成を示す図である。
【図3】 メインCPU62、不揮発性メモリ66、およびメインメモリ68によって実現される機能のブロック図を示す。
【図4】 光学系駆動部130が、画像を撮像する毎に、回転部120を第1の軸140の軸回りに一定角度ずつステップ駆動する様子を示す図である。
【図5】 カメラ10によって、撮像範囲が分割して撮像される様子を示す図である。
【図6】 画像合成部240による分割画像の合成の例を示す図である。
【符号の説明】
10 カメラ
11 カメラ本体
21 撮像光学系
120 回転部
130 光学系駆動部
200 撮像範囲受付部
210 撮像範囲分割部
220 撮像制御部
230 記憶部
240 画像合成部
250 測距部
260 焦点距離決定部
270 測光部
280 露出決定部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera. In particular, the present invention relates to a camera capable of imaging a wide area.
[0002]
[Prior art]
When the camera captures a range where the imaging range does not fit in a single imaging, the user captures a plurality of photographs while appropriately shifting the imaging area. The user printed a plurality of photographed photographs or displayed them on a monitor screen, and then joined them while comparing the photographs.
[0003]
[Problems to be solved by the invention]
Shifting the imaging area relies on the user's idea. For this reason, gaps may be formed in a plurality of imaging areas, and there are problems such as that the photographs cannot be joined together. In addition, since the focus of the photograph is different between the imaging areas, an unnatural impression is given when the photographs are joined together.
[0004]
Therefore, an object of the present invention is to provide a camera that can solve the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.
[0005]
[Means for Solving the Problems]
That is, according to the first aspect of the present invention, the present invention includes an imaging optical system used for imaging a subject, a camera body that stores an image captured by the imaging optical system, and an imaging optical system. A rotating unit that rotates the camera body around an axis and a second axis that intersects the first axis, an imaging range receiving unit that receives an imaging range from the outside, and imaging that divides the imaging range into a plurality of divided regions In the plurality of divided regions in the imaging range that is the imaging target, the range dividing unit, the imaging control unit that sequentially captures the divided images including the divided regions using the imaging optical system while rotating the rotating unit, and a distance measuring unit for measuring a distance to the object, the distance measurement unit is rotatable together with the first axis and around the imaging optical system of the second shaft by the rotation unit, the imaging control unit, ranging Distance to multiple subjects measured by the By defining the focal length based, while imaging the plurality of divided regions included in the imaging range, the imaging while the focal length of the imaging optical system constant. In addition, a photometric unit that measures the luminance of the subject may be further provided in a plurality of divided regions within the imaging range that is the imaging target. The photometry unit can be rotated together with the imaging optical system around the first axis and the second axis by the rotation unit, and the imaging control unit determines the exposure based on the luminance of a plurality of subjects measured by the photometry unit. Thus, imaging is performed while keeping the exposure of the imaging optical system constant during imaging of a plurality of divided regions included in the imaging range .
[0006]
The orientation of the first axis may be substantially vertical. The first axis may pass through the center of gravity of the rotating part.
[0007]
The present invention may further include an optical system driving unit that adjusts the orientation of the imaging optical system by driving the rotating unit around the first axis and the second axis. The optical system drive unit may step-drive the rotation unit by a certain angle each time an image is captured. The fixed angle may not exceed the angle of view in the width direction of the screen imaged by the imaging optical system. The certain angle may not exceed the angle of view in the height direction of the screen imaged by the imaging optical system.
[0009]
The present invention may further include a storage unit that stores the divided images and positional information related to the positions of the divided images in the imaging range in association with each other. The present invention relates to an image composition unit that joins a plurality of divided images stored in a storage unit based on position information associated with each divided image and generates a single image representing the entire imaging range. May be further provided. The image composition unit may detect an overlapping portion between adjacent divided images and use the detection result to connect the divided images.
[0012]
The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are the solution of the invention. It is not always essential to the means.
[0014]
FIG. 1 shows the appearance of a camera 10 of the present invention. The camera 10 includes an imaging optical system 21, a camera body 11, and a rotating unit 120. The imaging optical system 21 is used to image a subject. Details of the imaging optical system 21 will be described later. The camera body 11 stores an image captured by the imaging optical system 21 in a later-described memory or the like as digital data. The rotating unit 120 rotates the imaging optical system 21 with respect to the camera body 11 about the first axis 140 and the second axis 150 intersecting the first axis 140. The orientation of the first axis 140 is substantially vertical. As a result, if the camera 10 is placed on a flat ground, the area that can be captured by the camera 10 can cover the entire area above the ground with the position of the camera 10 fixed. In addition, the first shaft 140 passes through the center of gravity of the rotating unit 120. When the first shaft 140 passes through the center of gravity of the rotating unit 120, the moment of inertia of the rotating unit 120 when the rotating unit 120 rotates around the axis of the first shaft 140 is reduced. This facilitates precise control of the rotating unit 120.
[0015]
FIG. 2 shows a configuration of the camera 10 according to the embodiment of the present invention. The camera 10 of the present embodiment mainly includes an imaging unit 20, an imaging control unit 40, a processing unit 60, a display unit 100, and an operation unit 110.
[0016]
The imaging unit 20 includes a mechanism member and an electrical member related to shooting and imaging. The imaging unit 20 includes an imaging optical system 21, a CCD 30, and an imaging signal processing unit 32. The imaging optical system 21 includes a photographic lens 22 that captures and processes an image, a diaphragm 24, a shutter 26, and an optical LPF (low-pass filter) 28. The photographing lens 22 includes a focus lens, a zoom lens, and the like. With this configuration, a subject image is formed on the light receiving surface of the CCD 30. Charges are accumulated in each sensor element (not shown) of the CCD 30 in accordance with the amount of light of the formed subject image (hereinafter, the charges are referred to as “accumulated charges”). The accumulated charge is read to a shift register (not shown) by a read gate pulse, and sequentially read as a voltage signal by a register transfer pulse.
[0017]
Since the digital camera 10 generally has an electronic shutter function, a mechanical shutter such as the shutter 26 is not essential. In order to realize the electronic shutter function, the CCD 30 is provided with a shutter drain via a shutter gate. When the shutter gate is driven, the accumulated charge is swept out to the shutter drain. By controlling the shutter gate, the time for accumulating charges in each sensor element, that is, the shutter speed can be controlled.
[0018]
A voltage signal output from the CCD 30, that is, an analog signal, is color-separated into R, G, and B components by the imaging signal processing unit 32, and first, white balance is adjusted. Subsequently, the imaging signal processing unit 32 performs gamma correction, sequentially A / D-converts the R, G, and B signals at a necessary timing, and the resulting digital image data (hereinafter simply referred to as “digital image data”). ) To the processing unit 60.
[0019]
The imaging unit 20 further includes a finder 34 and a strobe 36. The finder 34 may be equipped with an LCD (not shown). In this case, various information from the main CPU 62 and the like which will be described later can be displayed in the finder 34. The strobe 36 functions by emitting light when energy stored in a capacitor (not shown) is supplied to the discharge tube 36a. The imaging optical system 21, the CCD 30, the finder 34, and the strobe 36 are included in the rotating unit 120 shown in FIG.
[0020]
The imaging control unit 40 includes a zoom driving unit 42, a focus driving unit 44, an aperture driving unit 46, a shutter driving unit 48, an optical system driving unit 130, an imaging system CPU 50 that controls them, a distance measuring sensor 52, and a photometric sensor 54. Have. Each of the driving units such as the zoom driving unit 42 has driving means such as a stepping motor. In response to pressing of a release switch 114 described later, the distance measuring sensor 52 measures the distance to the subject, and the photometric sensor 54 measures the subject brightness. The measured distance data (hereinafter simply referred to as “distance data”) and subject luminance data (hereinafter simply referred to as “photometry data”) are sent to the imaging system CPU 50. The imaging system CPU 50 adjusts the zoom magnification and focus of the photographing lens 22 by controlling the zoom driving unit 42 and the focus driving unit 44 based on photographing information such as a zoom magnification instructed by the user via the zoom switch 118. .
[0021]
The optical system driving unit 130 adjusts the orientation of the imaging optical system 21 by driving the rotating unit 120 around the first shaft 140 and the second shaft 150 using a motor or the like. By the optical system driving unit 130, the imaging optical system 21 is directed in an arbitrary imaging direction. Each time the optical system driving unit 130 captures an image, the optical system driving unit 130 drives the rotating unit 40 step by step at a constant angle.
[0022]
The imaging system CPU 50 determines the aperture value and the shutter speed based on the RGB digital signal integrated value of one image frame, that is, the AE information. According to the determined value, the aperture driving unit 46 and the shutter driving unit 48 adjust the aperture amount and open / close the shutter 26, respectively.
[0023]
The imaging system CPU 50 also controls the light emission of the strobe 36 based on the photometric data and simultaneously adjusts the aperture amount of the aperture 24. When the user instructs to capture an image, the CCD 30 starts to accumulate charges, and the accumulated charges are output to the imaging signal processing unit 32 after the shutter time calculated from the photometric data has elapsed.
[0024]
The processing unit 60 includes a main CPU 62 that controls the entire digital camera 10, particularly the processing unit 60 itself, a memory control unit 64, a YC processing unit 70, an optional device control unit 74, a compression / decompression processing unit 78, and communication that are controlled thereby. An I / F unit 80 is included. The main CPU 62 exchanges necessary information with the imaging CPU 50 by serial communication or the like. The operation clock of the main CPU 62 is given from the clock generator 88. The clock generator 88 also provides clocks with different frequencies to the imaging system CPU 50 and the display unit 100, respectively.
[0025]
The main CPU 62 is provided with a character generation unit 84 and a timer 86. The timer 86 is backed up by a battery and always counts the date and time. From this count value, information on the shooting date and time information and other time information are given to the main CPU 62. The character generation unit 84 generates character information such as a shooting date and time and a title, and the character information is appropriately combined with the shot image.
[0026]
The memory control unit 64 controls the nonvolatile memory 66 and the main memory 68. The non-volatile memory 66 includes an EEPROM (electrically erasable and programmable ROM), a FLASH memory, and the like, and should be retained even when the power of the digital camera 10 is turned off, such as setting information by a user and adjustment values at the time of shipment. Data is stored. In some cases, the non-volatile memory 66 may store a boot program or a system program for the main CPU 62. On the other hand, the main memory 68 is generally composed of a relatively inexpensive memory having a large capacity, such as a DRAM. The main memory 68 has a function as a frame memory for storing data output from the imaging unit 20, a function as a system memory for loading various programs, and other functions as a work area. The nonvolatile memory 66 and the main memory 68 exchange data with each part inside and outside the processing unit 60 via the main bus 82.
[0027]
The YC processing unit 70 performs YC conversion on the digital image data, and generates a luminance signal Y and color difference (chroma) signals BY and RY. The luminance signal and the color difference signal are temporarily stored in the main memory 68 by the memory control unit 64. The compression / decompression unit 78 sequentially reads out the luminance signal and the color difference signal from the main memory 68 and compresses them. The data thus compressed (hereinafter simply referred to as “compressed data”) is written to a memory card which is a type of option device 76 via the option device control unit 74.
[0028]
The processing unit 60 further has an encoder 72. The encoder 72 receives the luminance signal and the color difference signal, converts them into a video signal (NTSC or PAL signal), and outputs the video signal from the video output terminal 90. When a video signal is generated from data recorded in the option device 76, the data is first supplied to the compression / decompression unit 78 via the option device control unit 74. Subsequently, the data that has been subjected to the decompression processing required by the compression / decompression unit 78 is converted into a video signal by the encoder 72.
[0029]
The option device control unit 74 performs necessary signal generation, logic conversion, voltage conversion, etc. between the main bus 82 and the option device 76 in accordance with the signal specifications recognized by the option device 76 and the bus specifications of the main bus 82. . The digital camera 10 may support a standard I / O card conforming to PCMCIA, for example, in addition to the memory card described above as the optional device 76. In this case, the option device control unit 74 may be configured by a PCMCIA bus control LSI or the like.
[0030]
The communication I / F unit 80 performs control such as protocol conversion according to communication specifications supported by the digital camera 10, such as USB, RS-232C, Ethernet, and the like. The communication I / F unit 80 includes a driver IC as necessary, and communicates with an external device including a network via the connector 92. In addition to such standard specifications, for example, data may be exchanged with an external device such as a printer or a game machine using a unique I / F.
[0031]
The display unit 100 includes an LCD monitor 102 and an LCD panel 104. They are controlled by a monitor driver 106 and a panel driver 108, which are LCD drivers. The LCD monitor 102 is provided on the back of the camera with a size of about 2 inches, for example, and the current shooting / playback mode, zoom magnification for shooting / playback, battery level, date / time, mode setting screen, subject image, etc. Is displayed. In this embodiment, the LCD monitor 102 also has a function as a notification unit that displays notification information from the electronic zoom processing unit, and displays a warning that the image may be deteriorated by performing the electronic zoom processing. To do. The LCD monitor 102 may be provided inside the finder 34. The LCD panel 104 is a small black-and-white LCD, for example, provided on the upper surface of the camera, and simply displays information such as image quality (FINE / NORMAL / BASIC, etc.), strobe light emission / flash prohibition, standard number of shoots, number of pixels, battery capacity, etc. .
[0032]
The operation unit 110 includes mechanisms and electric members necessary for the user to set or instruct the operation of the digital camera 10 and its mode. The power switch 112 determines whether to turn on or off the power of the digital camera 10. The release switch 114 has a two-step pushing structure of half-pressing and full-pressing. As an example, AF and AE are locked when pressed halfway, and a captured image is captured when pressed fully, and is recorded in the main memory 68, optional device 76, etc. after necessary signal processing, data compression, and the like. In addition to these switches, the operation unit 110 may accept settings using a rotary mode dial, a cross key, and the like, which are collectively referred to as a function setting unit 116 in FIG. Examples of operations or functions that can be specified by the operation unit 110 include “file format”, “special effect”, “print”, “decision / save”, “display switching”, and the like. The zoom switch 118 determines the zoom magnification.
[0033]
The main operation of the above configuration is as follows.
[0034]
First, the power switch 112 of the digital camera 10 is turned on, and power is supplied to each part of the camera. The main CPU 62 reads the state of the function setting unit 116 to determine whether the digital camera 10 is in the shooting mode or the playback mode.
[0035]
When the camera is in the shooting mode, the main CPU 62 monitors the half-pressed state of the release switch 114. When the half-pressed state is detected, the main CPU 62 obtains photometry data and distance measurement data from the photometry sensor 54 and the distance measurement sensor 52, respectively. The imaging control unit 40 operates based on the obtained data, and adjustments such as focus and aperture of the taking lens 22 are performed. When the adjustment is completed, a character such as “Standby” is displayed on the LCD monitor 102 to notify the user, and then the release switch 114 is fully pressed. When the release switch 114 is fully pressed, the shutter 26 is closed after a predetermined shutter time, and the accumulated charge in the CCD 30 is swept out to the imaging signal processing unit 32. Digital image data generated as a result of processing by the imaging signal processing unit 32 is output to the main bus 82. The digital image data is temporarily stored in the main memory 68, then processed by the YC processing unit 70 and the compression / decompression unit 78, and recorded in the option device 76 via the option device control unit 74. The recorded image is displayed on the LCD monitor 102 in a frozen state for a while, and the user can know the captured image. This completes a series of shooting operations.
[0036]
On the other hand, when the digital camera 10 is in the playback mode, the main CPU 62 reads the last photographed image from the main memory 68 via the memory control unit 64 and displays it on the LCD monitor 102 of the display unit 100. In this state, when the user instructs “forward” or “reverse” on the function setting unit 116, images taken before and after the currently displayed image are read and displayed on the LCD monitor 102.
[0037]
The basic configuration of the camera 10 of the present invention has been described above. The characteristic configuration and function of the camera 10 of the present invention will be described below.
[0038]
FIG. 3 is a block diagram of functional units realized by the main CPU 62, the nonvolatile memory 66, and the main memory 68 (hereinafter, abbreviated as “main CPU 62 etc.”). The functional units realized by the main CPU 62 and the like include an imaging range receiving unit 200, an imaging range dividing unit 210, an imaging control unit 220, a storage unit 230, an image composition unit 240, a distance measuring unit 250, a focal length determining unit 260, and photometry. Part 270 and exposure determining part 280.
[0039]
The imaging range accepting unit 200 accepts an imaging range input from the outside. The input of the imaging range is performed by a cross key included in the operation unit 110. The imaging range dividing unit 210 divides the imaging range received by the imaging range receiving unit 200 into a plurality of divided regions. The imaging control unit 220 sequentially captures the divided images including the divided areas using the imaging optical system 20 while rotating the rotating unit 120.
[0040]
The imaging control unit 220 performs imaging while keeping the focal length of the imaging optical system 21 constant while imaging a plurality of divided regions included in the imaging range. The distance measuring unit 250 measures the distance to the subject using the distance measuring sensor 52 or the like in a plurality of divided regions within the imaging range that is the imaging target. The focal length determination unit 260 determines the focal length based on a plurality of distances measured by the ranging unit. The focal length is determined to be an average value of a plurality of distance measurement results, for example. Thereby, it is possible to increase the number of points that are in focus within the imaging range.
[0041]
In addition, the imaging control unit 220 captures an image while keeping the exposure of the imaging optical system constant while imaging a plurality of divided regions included in the imaging range. The photometric unit 270 measures the luminance of the subject using the photometric sensor 54 or the like in a plurality of divided regions within the imaging range that is the imaging target. The exposure determining unit 280 determines the exposure based on the plurality of luminances measured by the distance measuring unit. The focal length is determined to be an average value of a plurality of photometric results, for example. As a result, an image with no bias of underexposure or overexposure is captured for the entire imaging range.
[0042]
The storage unit 230 stores the divided image and the position information regarding the position of the divided image in the imaging range in association with each other in a memory or the like. The image composition unit 240 reads a plurality of divided images stored in the storage unit 230 from the memory, connects them based on position information associated with each divided image, and creates a single image representing the entire imaging range. Generate. The generated image is stored in a memory or the like. In addition, the image composition unit 240 detects overlapping portions of adjacent divided images, and uses the detection results to connect the divided images.
[0043]
FIG. 4 shows a state in which the optical system driving unit 130 drives the rotating unit 120 stepwise around the first axis 140 by a predetermined angle every time an image is captured. The rotation drive unit 130 drives the rotation unit 120 stepwise around the axis of the first shaft 140 by a rotation angle Φ. At this time, the rotation angle Φ is controlled so as not to exceed the angle of view Θ in the width direction of the screen when the camera 10 is the base point. As a result, it is possible to sequentially capture images with different imaging areas and no gaps between adjacent imaging areas in the width direction of the screen.
[0044]
As for the movement of the imaging area in the height direction of the screen, the rotation unit 120 is step-driven around the second axis 150 so as not to exceed the angle of view in the height direction, similarly to the width direction of the screen. Is done.
[0045]
FIG. 5 shows a state in which the imaging range is divided and imaged by the camera 10. The imaging range 300 indicates the imaging range received by the imaging range receiving unit 200. The imaging range 300 is divided into a plurality of areas by the imaging range dividing unit 210. In FIG. 5, the imaging range 300 is divided into nine areas from a divided area 310A to a divided area 310H. The imaging control unit 220 first captures a divided image 320A that includes the divided region 310A. Next, the imaging control unit 220 rotates the rotating unit 120 to align the imaging area of the imaging optical system 21 with the divided area 310B and to capture a divided image 320B including the divided area 310B. In this way, the imaging area is sequentially changed, and finally the divided image 310I including the divided area 310I is captured. Thereby, the imaging range 300 is completely covered by the plurality of divided images.
[0046]
FIG. 6 shows an example of synthesis of divided images by the image synthesis unit 240. The imaging range 300 is imaged by being divided into nine regions from the divided image 320A to the divided image 320H. Each divided image is stored in a memory or the like in association with position information indicating which position in the imaging range 300 is imaged. The position information represents, for example, rows and columns in the array of divided images. For example, the position information is represented as (M, N) using a number M obtained by counting the rows of the divided images from the bottom and a number N obtained by counting the rows of the divided images from the left. For example, for the divided image 320A, the position information is (1, 1). Based on the position information, the image synthesis unit 240 stitches the divided images and synthesizes a single image 330 that represents the entire imaging range. The image composition unit 140 detects an overlapping region 340 of adjacent divided images, and joins the divided images based on the similarity of the images. Thereby, the single image 330 in which the joint of the divided images is not conspicuous can be created.
[0047]
As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.
[0048]
The distance measuring sensor 52 and the photometric sensor 54 are arranged around the first axis 140 and the second axis 150 intersecting the first axis 140 by the rotating unit 120 together with the imaging optical system 21. You may be able to rotate with respect to the main body 11. Thus, the distance to the subject in a plurality of divided regions within a certain imaging range can be sequentially measured each time the direction of the distance measuring sensor 52 is directed to the direction of each subject using the rotating unit 120. Similarly, the luminance of the subject in a plurality of divided regions within a certain imaging range can be sequentially measured each time the direction of the distance measuring sensor 52 is directed to the direction of each subject using the rotating unit 120.
[0049]
【The invention's effect】
As is clear from the above description, according to the present invention, it is possible to take a photograph with the camera position fixed and in the direction in which the imaging lens is desired to be imaged.
[Brief description of the drawings]
FIG. 1 is a diagram showing an external appearance of a camera 10 of the present invention.
FIG. 2 is a diagram showing a configuration of a camera 10 according to an embodiment of the present invention.
FIG. 3 shows a block diagram of functions implemented by a main CPU 62, a nonvolatile memory 66, and a main memory 68.
FIG. 4 is a diagram illustrating a state in which an optical system driving unit 130 drives a rotating unit 120 stepwise around a first axis 140 every time an image is captured.
FIG. 5 is a diagram illustrating a state in which an imaging range is divided and imaged by a camera.
6 is a diagram illustrating an example of synthesis of divided images by an image synthesis unit 240. FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Camera 11 Camera main body 21 Imaging optical system 120 Rotation part 130 Optical system drive part 200 Imaging range reception part 210 Imaging range division part 220 Imaging control part 230 Storage part 240 Image composition part 250 Distance measurement part 260 Focal length determination part 270 Photometry part 280 Exposure determiner

Claims (11)

被写体を撮像するのに用いる撮像光学系と、
前記撮像光学系により撮像された画像を格納するカメラ本体と、
前記撮像光学系を第1の軸、および第1の軸と交差する第2の軸回りに、前記カメラ本体に対し回転させる回転部と、
撮像範囲を外部から受け付ける撮像範囲受付部と、
前記撮像範囲を複数の分割領域に分割する撮像範囲分割部と、
前記回転部を回転させつつ、前記撮像光学系を用いて前記分割領域を含む分割画像を順次撮像させる撮像制御部と、
撮像対象となっている前記撮像範囲内の複数の前記分割領域において、前記被写体までの距離を測定する測距部とを備え、
前記測距部は、前記回転部によって前記第1の軸及び前記第2の軸の回りに前記撮像光学系とともに回転可能であり、前記撮像制御部は、前記測距部が測定した複数の前記被写体までの距離に基づいて焦点距離を定めることによって、前記撮像範囲に含まれる複数の前記分割領域を撮像する間に、前記撮像光学系の焦点距離を一定にしつつ撮像することを特徴とするカメラ。
An imaging optical system used to image a subject;
A camera body for storing an image captured by the imaging optical system;
A rotating unit that rotates the imaging optical system relative to the camera body about a first axis and a second axis that intersects the first axis;
An imaging range receiving unit for receiving an imaging range from the outside;
An imaging range dividing unit that divides the imaging range into a plurality of divided regions;
An imaging control unit that sequentially captures the divided images including the divided regions using the imaging optical system while rotating the rotating unit;
A distance measuring unit that measures the distance to the subject in the plurality of divided regions within the imaging range that is an imaging target;
The ranging unit can be rotated together with the imaging optical system around the first axis and the second axis by the rotating unit, and the imaging control unit includes a plurality of the ranging units measured by the ranging unit. A camera that captures images while maintaining a constant focal length of the imaging optical system while imaging a plurality of the divided regions included in the imaging range by determining a focal length based on a distance to a subject. .
撮像対象となっている前記撮像範囲内の複数の前記分割領域において、被写体の輝度を測定する測光部をさらに備え、
前記測光部は、前記回転部によって前記第1の軸及び前記第2の軸の回りに前記撮像光学系とともに回転可能であり、前記撮像制御部は、前記測光部が測定した複数の前記被写体の輝度に基づいて露出を定めることによって、前記撮像範囲に含まれる複数の前記分割領域を撮像する間に、前記撮像光学系の露出を一定にしつつ撮像することを特徴とする請求項1に記載のカメラ。
A photometric unit that measures the luminance of a subject in the plurality of divided regions within the imaging range that is an imaging target;
The photometry unit can be rotated together with the imaging optical system around the first axis and the second axis by the rotation unit, and the imaging control unit is capable of rotating a plurality of subjects measured by the photometry unit. 2. The imaging according to claim 1 , wherein the exposure is determined based on luminance, and imaging is performed while the exposure of the imaging optical system is constant while imaging the plurality of divided regions included in the imaging range . camera.
前記第1の軸の向きは、実質的に鉛直であることを特徴する請求項1または2に記載のカメラ。  The camera according to claim 1, wherein the orientation of the first axis is substantially vertical. 前記第1の軸は、前記回転部の重心を通ることを特徴とする請求項1または2に記載のカメラ。  The camera according to claim 1, wherein the first axis passes through the center of gravity of the rotating unit. 前記回転部を前記第1の軸及び前記第2の軸の回りに駆動することにより、前記撮像光学系の向きを調整する光学系駆動部をさらに備えることを特徴とする請求項1または2に記載のカメラ。  3. The optical system driving unit according to claim 1, further comprising an optical system driving unit configured to adjust a direction of the imaging optical system by driving the rotating unit around the first axis and the second axis. The listed camera. 前記光学系駆動部は、前記画像を撮像する毎に、前記回転部を一定角度ずつステップ駆動することを特徴とする請求項5に記載のカメラ。  The camera according to claim 5, wherein the optical system driving unit drives the rotating unit step by step at a certain angle each time the image is captured. 前記一定角度は、前記撮像光学系で撮像される画面の幅方向の画角を越えないことを特徴とする請求項6に記載のカメラ。  The camera according to claim 6, wherein the certain angle does not exceed an angle of view in a width direction of a screen imaged by the imaging optical system. 前記一定角度は、前記撮像光学系で撮像される画面の高さ方向の画角を越えないことを特徴とする請求項6に記載のカメラ。  The camera according to claim 6, wherein the certain angle does not exceed an angle of view in a height direction of a screen imaged by the imaging optical system. 前記分割画像と、
前記撮像範囲における前記分割画像の位置に関する位置情報とを関連づけて記憶する記憶部をさらに備えることを特徴とする請求項5に記載のカメラ。
The divided image;
The camera according to claim 5, further comprising a storage unit that associates and stores position information related to a position of the divided image in the imaging range.
前記記憶部に記憶されている複数の前記分割画像を、各々の前記分割画像に関連づけられている前記位置情報に基づいてつなぎ合わせ、前記撮像範囲の全体を表す単一の画像を生成する画像合成部をさらに備えることを特徴とする請求項9に記載のカメラ。  Image composition for joining a plurality of the divided images stored in the storage unit based on the position information associated with each of the divided images to generate a single image representing the entire imaging range The camera according to claim 9, further comprising a unit. 前記画像合成部は、互いに隣接する前記分割画像の重複部分を検出し、検出結果を利用して前記分割画像をつなぎ合わせることを特徴とする請求項10に記載のカメラ。  The camera according to claim 10, wherein the image composition unit detects an overlapping portion of the divided images adjacent to each other, and uses the detection result to connect the divided images.
JP2000367947A 2000-12-04 2000-12-04 camera Expired - Fee Related JP4054173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000367947A JP4054173B2 (en) 2000-12-04 2000-12-04 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000367947A JP4054173B2 (en) 2000-12-04 2000-12-04 camera

Publications (2)

Publication Number Publication Date
JP2002171437A JP2002171437A (en) 2002-06-14
JP4054173B2 true JP4054173B2 (en) 2008-02-27

Family

ID=18838282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000367947A Expired - Fee Related JP4054173B2 (en) 2000-12-04 2000-12-04 camera

Country Status (1)

Country Link
JP (1) JP4054173B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7994093B2 (en) 2002-10-18 2011-08-09 Syngenta Crop Protection, Inc. Heterocyclocarboxamide derivatives

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7465107B2 (en) 2004-09-21 2008-12-16 Canon Kabushiki Kaisha Photographing apparatus and control method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7994093B2 (en) 2002-10-18 2011-08-09 Syngenta Crop Protection, Inc. Heterocyclocarboxamide derivatives

Also Published As

Publication number Publication date
JP2002171437A (en) 2002-06-14

Similar Documents

Publication Publication Date Title
JP4101421B2 (en) INPUT UNIT, INFORMATION RECORDING DEVICE USING INPUT UNIT, AND DIGITAL CAMERA
JP4146984B2 (en) Imaging device
JP3971100B2 (en) Digital camera and image projection method
JP2003037757A (en) Imaging unit
JP3914060B2 (en) Focusing device
JP2003204475A (en) Image processing system and imaging apparatus
JP4124404B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP4176328B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP4275326B2 (en) Imaging apparatus and position information detection system
JP2003018437A (en) Imaging apparatus
JP4034029B2 (en) Digital camera
JP4054173B2 (en) camera
JP3957147B2 (en) Focusing device
JP2003043558A (en) Image pickup device
JP2003209737A (en) Imaging apparatus
JP2003242504A (en) Image processor
JP2002344724A (en) Imaging device, image processing apparatus, image processing method, and program
JP3949888B2 (en) Imaging device
JP2003018479A (en) Image processing unit and image processing method, and imaging apparatus
JP4421788B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP4357782B2 (en) Imaging device
JP4180234B2 (en) Imaging device
JP4421729B2 (en) Imaging device
JP2002359771A (en) Imaging device, image processing unit, image processing method and program
JP3943323B2 (en) IMAGING DEVICE, IMAGING METHOD, SIGNAL PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR MAKING COMPUTER TO PROCESS IMAGE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees