JP6659162B2 - 撮像装置、撮像装置の制御方法及びプログラム - Google Patents

撮像装置、撮像装置の制御方法及びプログラム Download PDF

Info

Publication number
JP6659162B2
JP6659162B2 JP2016051208A JP2016051208A JP6659162B2 JP 6659162 B2 JP6659162 B2 JP 6659162B2 JP 2016051208 A JP2016051208 A JP 2016051208A JP 2016051208 A JP2016051208 A JP 2016051208A JP 6659162 B2 JP6659162 B2 JP 6659162B2
Authority
JP
Japan
Prior art keywords
image
trajectory
subject
simulation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016051208A
Other languages
English (en)
Other versions
JP2017168982A (ja
Inventor
平 池田
平 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016051208A priority Critical patent/JP6659162B2/ja
Priority to US15/457,465 priority patent/US10359498B2/en
Publication of JP2017168982A publication Critical patent/JP2017168982A/ja
Application granted granted Critical
Publication of JP6659162B2 publication Critical patent/JP6659162B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7867Star trackers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • H04N25/633Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current by using optical black pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、星の軌跡等をシミュレーションした画像を生成する機能を有する撮像装置、撮像装置の制御方法及びプログラムに関する。
星空を手軽に撮影することができるように、満点の星空を撮影するモードや星空と人物を綺麗に撮影するモード、星の日周運動を軌跡として撮影するモード等の撮影モードを搭載したコンパクトデジタルカメラ等の装置が市販されている。ここで、星の日周運動を軌跡として撮影する場合、一般的に、長秒時の露光で繰り返し撮影を行い、撮影したフレーム画像の比較明合成が行われる。しかし、星の日周運動は非常に遅く、軌跡として撮影するためには長時間の撮影が必要となり、しかも、ユーザ(撮影者)は撮影が完了するまでどのような軌跡が撮影されるかが分からないことが多いため、撮影前の構図決めは容易ではない。そこで、GPSと仰角センサの情報を用いて撮影装置の方向と天体の位置関係を算出することによって任意の時間経過後の天***置を予測し、ライブビュー映像に重畳表示する撮像装置が提案されている(特許文献1参照)。
一方、デジタルカメラでは、長時間露光によって撮像素子の温度上昇することでキズやダークシェーディング等の固定パターンノイズが発生し、これにより画質が低下することがある。星の日周運動の軌跡撮影では、長秒時露光での撮影を長時間続ける必要があるため、このような固定パターンノイズが発生しやすい条件が揃っている。そこで、長秒時露光を繰り返し撮影しても、固定パターンノイズの少ない高画質な画像を生成することを可能とする技術が提案されている(特許文献2参照)。特許文献2に記載された撮像装置では、本撮影の前と後にそれぞれ黒画像(遮光画像)を撮影し、撮影した黒画像を用いてノイズ低減処理を行っている。
特開2012−4763号公報 特開2015−35717号公報
しかしながら、特許文献1に記載された撮像装置では、GPSセンサや仰角センサ等が必要であるため、撮像装置が大型化してしまい、製品コストも高くなってしまう。また、特許文献1に記載された撮像装置では、任意の時間経過後の天***置を表示することができるだけであり、天体の軌跡がどのように撮影されるかを知ることはできない。この問題に対して、複数枚の画像データに基づいて天体(星等)を検出し、検出した天体の軌跡をシミュレーションした画像(以下「軌跡シミュレーション画像」という)を生成する対応策が考えられる。この方法によれば、特別な外部装置を用いることなく、撮像装置のみで、撮影完了後の星の予測される軌跡を知ることができる。
しかし、固定パターンノイズによる画質低下を抑制するために特許文献2に記載されているようなノイズ低減処理を更に行う場合には、星の動きを予測するための演算に用いる画像の撮影の他に、黒画像の撮影を行わなければならない。この場合、軌跡シミュレーション画像の生成に長時間を要することになり、使い勝手の低下を招いてしまう。
本発明は、使い勝手を低下させることなく、ノイズの少ない高画質な軌跡シミュレーション画像の生成が可能な撮像装置を提供することを目的とする。
本発明に係る撮像装置は、1枚目の画像、黒画像、2枚目の画像をこの順序で撮影する撮像手段と、前記黒画像を用いて前記1枚目の画像と前記2枚目の画像の少なくとも一方の画像内のノイズを低減させる処理を行うノイズ低減手段と、前記1枚目の画像と前記2枚目の画像間における被写体の動きに基づいて前記被写体の予測される軌跡を生成する軌跡生成手段と、前記ノイズ低減手段により画像内のノイズが低減された1枚目の画像または2枚目の画像に前記軌跡生成手段によって生成された軌跡を合成して、前記被写体の軌跡シミュレーション画像を生成する合成手段と、前記合成手段によって合成された前記軌跡シミュレーション画像を表示する表示手段と、を備えることを特徴とする。
本発明によれば、使い勝手を低下させることなく、ノイズの少ない高画質な軌跡シミュレーション画像を生成することが可能になる。
本発明の実施形態に係る撮像装置の概略構成を示すブロック図と背面側から見て示す斜視図である。 図1の撮像装置の星空軌跡モードでの動作を説明するフローチャートである。 ステップS106の軌跡シミュレーション処理のフローチャートである。 ステップS106での軌跡生成処理を説明する図である。 ステップS106での軌跡シミュレーション画像の生成処理を説明する図である。 ステップS108の本撮影処理のフローチャートである。
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。ここでは、本発明に係る撮像装置として、一般的にコンパクトデジタルカメラと称呼されているものを取り上げるが、本発明に係る撮像装置は、これに限定されず、例えば、デジタル一眼レフカメラや静止画撮影が可能なデジタルビデオカメラであってもよい。
図1(a)は、本発明の実施形態に係る撮像装置10の概略構成を示すブロック図である。図1(b)は、撮像装置10の概略構成を背面側から見て示す斜視図である。撮像装置10は、CPU11、ROM12、表示部13、操作部14、DRAM15、記憶媒体I/F16、撮像部17、画像処理回路18及び画像圧縮伸張回路19を備え、これらは内部バス30を介して通信可能に接続されている。
CPU11は、操作部14が受け付けた指示に応じて、撮像装置10を構成する各部の動作を制御することにより撮像装置10の全体的な制御を行う中央演算装置である。ROM12には、CPU11が撮像装置10を制御するために実行する各種のプログラム(ファームウェア、ソフトウェア)や、各種のプログラムの実行に必要なパラメータ等の情報(データ)を格納する。
表示部13は、例えば、カラー液晶ディスプレイであり、撮影時の被写体や撮影された画像を表示する他、撮像装置10の各種情報の表示や撮像装置10の機能設定を行うためのGUIとして用いられる。また、表示部13は、外部装置に映像信号等を出力する不図示の端子を備えており、不図示の端子にコネクタケーブル22が接続されることにより、CPU11と外部装置との間のデータ通信が可能となる。操作部14は、電源ボタン23、レリーズボタン24、モードダイヤル25、十字キー26、コントローラホイール27等を含み、ユーザ(撮影者)による操作を受け付ける。後述する星空軌跡モードは、モードダイヤル25の操作によって選択、設定が可能となっている。
DRAM15は、CPU11のワークエリアとして使用され、また、画像データや表示用データ、画像圧縮後のデータ等の各種データを一時的に記憶する。不図示であるが、DRAM15へのデータの書き込みやDRAM15からのデータの読み出しはメモリコントローラ(不図示)を介して行われる。また、撮像装置10では、DRAM15と他の各部との間には、CPU11による読み出し/書き込みを介さないDMA転送を行うためのDMAコントローラが設けられている。
撮像装置10は、不図示の記憶媒体スロットを有する。この記憶媒体スロットは蓋21により開閉自在となっており、記憶媒体スロットに対するメモリカード(フラッシュメモリ等の半導体メモリ)等の記憶媒体20の着脱が可能となっている。記憶媒体I/F16は、記憶媒体スロットに装着された記憶媒体20とCPU11等との間の通信を可能とするインタフェースである。撮像部17は、レンズ、絞り、シャッタ、CCDセンサ又はCMOSセンサ等の撮像素子及びA/D変換器等を有する。撮像素子に結像した光学像は撮像素子によって光電変換され、生成されたアナログ信号はA/D変換器によりデジタル信号からなる画像データに変換されてDRAM15へ出力され、更にDRAM15から画像処理回路18等へ出力される。
画像処理回路18は、撮像部17から読み出された画像データに対してホワイトバランス調整(以下「WB調整」と記す)や画素補間等の各種処理を行う。また、画像処理回路18は、YUVデータへの変換や任意のサイズへのリサイズ処理、表示部13に表示する表示用画像データの生成や画像圧縮伸張回路19で圧縮する圧縮用画像データの生成を行う。更に、画像処理回路18は、星等の輝点の軌跡が撮影された画像(以下「星空画像」という)を生成するための比較明合成処理や、星空画像の生成に際してキズやダークシェーディング等の固定パターンノイズのノイズ低減処理を行う。また、画像処理回路18は、軌跡シミュレーション画像(星等の輝点の軌跡をシミュレーションした画像)を生成する。画像圧縮伸張回路19は、YUVデータをJPEG形式或いはH.264形式の画像データに圧縮し、逆に圧縮された画像データを元の大きさのデータに伸張する。
撮像装置10は、モードダイヤル25を操作することにより、連続撮影された複数枚の静止画像を比較明合成することにより、輝点の移動軌跡が撮影された画像を生成し、記憶する撮影モードで動作することができるように構成されている。輝点の移動軌跡の典型例として、星の日周運動の軌跡が挙げられる。そこで、本実施形態では、以下の説明において、輝点の移動軌跡が撮影された画像を生成して記憶する撮影モードを「星空軌跡モード」と称呼する。星空軌跡モードでの撮影時には、所定のタイミングで黒引き処理が実行され、また、ユーザの操作部14に対する操作に応じて軌跡シミュレーション処理の実行が可能となる。ここで、軌跡シミュレーション処理とは、本撮影(星空画像の実際の撮影)の前に複数枚の画像から星等の輝点を検出し、検出した輝点の軌跡の予測画像を生成して表示部13に表示する処理である。また、黒引き処理は、本実施形態では、長秒時露光により発生しやすい固定パターンノイズを黒画像を用いて低減させて、高画質な画像を生成するノイズ低減処理を指す。
図2は、撮像装置10の星空軌跡モードでの動作を説明するフローチャートである。ここでは、肉眼で星を確認可能な撮影シーンにおいて、星の日周運動の軌跡を撮影するものとする。図2のフローチャートに示される各処理は、CPU11が、ROMに格納された所定のプログラムをDRAM15のワークエリアに展開することにより、撮像装置10の各部を協調して動作させることによって実現される。
ステップS101においてCPU11は、ライブビュー表示用に撮像部17により撮像される画像を動画フレームとしてキャプチャする。ステップS102においてCPU11は、キャプチャされた動画フレームの画像データに対して画像処理回路18によりWB調整や画素補間等の処理を施してYUVデータに変換し、DRAM15に書き込む。ステップS103においてCPU11は、YUVデータに対して画像処理回路18により表示用画像データサイズへのリサイズ処理等を行い、表示部13にライブビュー表示するための表示用画像データを生成し、DRAM15に書き込む。ステップS104においてCPU11は、表示部13に表示用画像データを表示させ、これにより、表示部13のライブビュー表示画像が更新される。
ステップS105においてCPU11は、操作部14を介して軌跡シミュレーション処理を開始する指示を受け付けたか否かを判定する。なお、軌跡シミュレーション処理の開始は、ユーザによる操作部14に含まれる所定のボタンを操作或いは表示部13のカラー液晶ディスプレイに対するタッチ操作によって行われる。CPU11は、軌跡シミュレーション処理の開始が指示された場合(S105でYES)、処理をステップS106へ進め、軌跡シミュレーション処理の開始が指示されていない場合(S105でNO)、処理をステップS107へ進める。ステップS106においてCPU11は、軌跡シミュレーション処理を実行する。ステップS106の軌跡シミュレーション処理の詳細については後述する。
ステップS107においてCPU11は、本撮影(星空画像の撮影)の開始が指示されたか否かを判定する。なお、本撮影開始指示は、ユーザによるレリーズボタン24の押下或いは表示部13のカラー液晶ディスプレイに対するタッチ操作によって行われる。CPU11は、本撮影の開始指示を受け付けた場合(S107でYES)、処理をステップS108へ進め、本撮影の開始指示を受け付けていない場合(S107でNO)、処理をステップS101へ戻す。ステップS108においてCPU11は、本撮影処理を実行する。なお、ステップS108の本撮影処理の詳細については後述する。ステップS108の本撮影処理の終了により、本フローは終了となる。
次に、ステップS106の軌跡シミュレーション処理について詳細に説明する。図3は、ステップS106の軌跡シミュレーション処理のフローチャートである。図4は、軌跡シミュレーション処理での軌跡生成処理を説明する図である。
最初にステップS201においてCPU11は、ユーザによる操作部14に対する操作によって指示された撮影時間を設定する。軌跡シミュレーション処理では、ステップS201で設定された撮影時間だけ星空を撮影した場合の星の軌跡をシミュレーションして表した軌跡シミュレーション画像が生成される。ユーザは、星の軌跡を長く写したいときには長い撮影時間を設定し、短い軌跡を撮影したい場合ときには短い撮影時間を設定すればよい。ステップS202においてCPU11は、本撮影での露出条件を算出し、算出した露出条件と同じ露出条件となるように撮像部17の絞りや露光時間、ISO感度等を設定する。
ステップS203においてCPU11は、ステップS202で設定された露出条件で、撮像部17により1枚目のシミュレーション用画像を撮影し、その画像データをDRAM15に書き込む。ステップS204においてCPU11は、撮像部17のシャッタを閉じて遮光状態とし、ステップS202で設定された露光時間及びISO感度に基づいて撮像部17によりノイズ低減用黒画像(以下「NR用黒画像」と記す)を撮影する。そして、CPU11は、撮影したNR用黒画像の画像データをDRAM15に書き込む。なお、後段のステップS209において2枚目のシミュレーション用画像が撮影される。したがって、NR用黒画像の撮影は、2枚のシミュレーション用画像の撮影の間に行われる。これにより、2枚のシミュレーション用画像の撮影の前又は後にNR用黒画像の撮影を行う場合と比較して、NR用黒画像の撮影に要する時間の分だけ軌跡シミュレーション画像の生成に要する時間が延びてしまうのを回避することができる。
ステップS205においてCPU11は、画像処理回路18を用いて、ステップS203で撮影した1枚目のシミュレーション用画像に対してステップS204で撮影したNR用黒画像を用いて黒引き処理を行う。なお、ここでの黒引き処理は、1枚目のシミュレーション用画像からNR用黒画像を減算することにより、撮像素子に起因する固定パターンノイズを低減させる処理である。ステップS206においてCPU11は、画像処理回路18を用いて、ステップS205で黒引き処理を施した1枚目のシミュレーション用画像に対して現像処理(WB調整や画素補間等)を行い、YUVデータに変換してDRAM15に書き込む。
ステップS207においてCPU11は、ステップS203の1枚目のシミュレーション用画像の撮影から所定時間が経過したか否か判定する。ステップS207での判定基準である所定時間は、後段のステップS214での星の移動予測点の算出に適した動きベクトルが後段のステップS212で得られるように設定される。CPU11は、所定時間が経過するまでステップS207の判定を繰り返し(S207でNO)、所定時間が経過すると(S207でYES)、処理をステップS208へ進める。
ステップS208においてCPU11は、ステップS202で設定された露出条件で、撮像部17により2枚目のシミュレーション用画像を撮影し、その画像データをDRAM15に書き込む。ステップS209においてCPU11は、画像処理回路18を用いて、ステップS208で撮影した2枚目のシミュレーション用画像に対してステップS204で撮影したNR用黒画像を用いて黒引き処理を行う。ステップS210においてCPU11は、画像処理回路18を用いて、ステップS209で黒引き処理を施した2枚目のシミュレーション用画像に対して現像処理(WB調整や画素補間等)を行い、YUVデータに変換してDRAM15に書き込む。
ステップS211においてCPU11は、画像処理回路18を用いて、ステップS206で現像した(黒引き処理された)1枚目のシミュレーション用画像から星領域を検出する。図4(a)は1枚目のシミュレーション用画像を示す図であり、図4(b)は、1枚目のシミュレーション用画像から星領域を検出した結果を示す図である。星領域の検出方法は、特に制限されるものではない。例えば、所定の閾値以上の高輝度領域(輝点)を抽出し、ROMに予め保持された固有のテンプレートとマッチングを行うことにより、画像内の孤立点(星領域)を検出する。続いて、検出された全ての星領域について、その中心座標、中心座標の色情報、星領域の面積及び平均輝度を算出する。
ステップS212においてCPU11は、画像処理回路18を用いて、ステップS206,S210で現像した2枚のシミュレーション用画像から動きベクトルを算出する。図4(b)には、動きベクトルの算出結果の例が併記されている。ステップS212では、CPU11は、先ず、画像を複数のブロック(領域)に分割し、ブロック毎にテンプレートマッチングを行うことにより、各ブロックの動きベクトルを検出する。このとき、所定数以上の孤立点がステップS211にて検出されているブロックを星領域とし、ブロックを限定して動きベクトルの検出を行うようにしてもよい。続いて、CPU11は、検出されたブロック毎の動きベクトルに基づき、2枚の画像間の画像全体の動きベクトルを算出する。
本実施形態では、画像全体の動きをアフィン係数によって表すこととする。この場合、1枚目を基準画像、2枚目を対象画像とすると、基準画像内の注目画素の座標(x,y)と、注目画素の対象画像における座標(x´,y´)は、アフィン変換においてアフィン係数(a,b,c,d)を用いて下記式1の通りに表すことができる。そこで、検出された各ブロックの動きベクトルのうち3つ以上の動きベクトルを用いてアフィン係数を算出し、動きベクトルの誤差Eを下記式2により求める。そして、動きベクトルの選び方のパターンを所定回数変更して処理を行い、誤差E以下になる動きベクトルの個数が最も多いアフィン係数を求める。
ステップS213においてCPU11は、動きベクトル算出が可能であったか否かを判定する。具体的には、誤差E以下になる動きベクトルの個数の最大数が予め定められた所定数よりも少ない場合には、アフィン係数の算出は不可能であるため、動きベクトル算出は不可能であると判定される。CPU11は、動きベクトルを算出することができなかった場合(S213でNO)、軌跡シミュレーション処理を終了させ、動きベクトルを算出することができた場合(S213でYES)、処理をステップS214へ進める。
ステップS214においてCPU11は、ステップS212で算出した動きベクトル(アフィン係数)に基づき、ステップS201で設定された撮影時間までの星の移動予測点を算出する。図4(c)は、移動予測点の算出結果の一例を示す図である。星の移動予測点の算出は、例えば、次の通りに行うことができる。まず、ステップS212で算出したアフィン係数と1枚目及び2枚目のシミュレーション用画像を撮影したときのそれぞれの露光開始時間の差分に基づき、単位時間あたりのアフィン係数(例えば、1分あたりアフィン係数)を算出する。続いて、予測点を算出する時間間隔(以下「予測点算出間隔」という)毎のアフィン係数を先に求めた単位時間あたりのアフィン係数を補正することによって算出する。ここでは、予測点算出間隔は15分であるとして、以下に説明を続ける。ステップS211で検出された星の中心座標それぞれについて、補正したアフィン係数に基づいてアフィン変換を行うことにより、15分経過後の移動予測点を算出することができる。そして、算出した15分経過後の移動予測点について、補正したアフィン係数に基づいてアフィン変換を行うことにより、30分経過後の移動予測点を算出することができる。このような処理を繰り返すことによって、予測点算出間隔毎の1つ又は複数の移動予測点を算出することができる。移動予測点の算出は、ステップS201で設定された撮影時間に達した時点で終了となる。
ステップS215においてCPU11は、ステップS214で求めた移動予測点に基づき軌跡画像を生成する。図4(d)は、軌跡画像の生成結果の一例を示す図である。軌跡画像の生成処理では、最初に、背景部分を黒で塗り潰しておく。続いて、ステップS211で検出された星の中心座標と、ステップS201で設定された撮影時間に対してステップS214で算出された予測点算出間隔毎の移動予測点とを結ぶように線を引くことで、星の軌跡を生成する。よって、軌跡画像は、予測された星の動きのみが線として表現された画像となる。
このとき、星の軌跡として描画する線の性質を、ステップS211で検出した星領域(孤立点)の特徴を示すパラメータに応じて調整する。第1のパラメータは星領域の面積であり、星領域の面積に応じて線の太さが変更される。星領域が広ければ、太い線で軌跡が描画され、星領域が小さければ、細い線で軌跡が描画される。第2のパラメータは星領域の輝度であり、星領域の平均輝度にしたがって軌跡として描画される線の輝度が調整される。第3のパラメータは星領域の色であり、星領域の中心座標の色成分にしたがって軌跡として描画される線の色が変更される。星の軌跡を線として描画する際に、これら全てのパラメータを考慮する必要はなく、少なくとも1つのパラメータを考慮すればよい。
ステップS216においてCPU11は、画像処理回路18を用いて、ステップS215で生成した軌跡画像とステップS206で現像した1枚目の画像との比較明合成を行うことにより、軌跡シミュレーション画像を生成する。図5は、ステップS216での軌跡シミュレーション画像の生成処理を説明する図である。図5に示す軌跡画像は、図4(d)に示す画像と同じであり、1枚目のシミュレーション用画像は、図4(a)に示す画像と同じである。これらの画像を比較明合成することにより、軌跡シミュレーション画像が生成される。その際、前景領域(本実施形態では、画像下側の山の領域)の検出を行い、検出された前景領域では画像合成を行わないようにする。
前景領域の検出は、例えば、最初に画像を縮小し、隣接した画素で輝度値や色の情報が近いものをグルーピングして領域分割を行い、領域毎の平均輝度値を算出する。続いて、グルーピングした領域のうちステップS211で検出した星領域を多く含む領域(比較元)の平均輝度に対する他の領域(比較先)の平均輝度を比較し、平均輝度値の差が所定の閾値以上であった場合に、比較先の領域は前景領域であると判断する。これにより、前景領域に星が流れ込むような不自然な軌跡シミュレーション画像が生成されてしまうのを防止することができる。
ステップS217においてCPU11は、ステップS216で生成した軌跡シミュレーション画像を表示部13に表示させる。ステップS218においてCPU11は、軌跡シミュレーション処理を終了させる指示を操作部14が受け付けたか否かを判定する。CPU11は、軌跡シミュレーション処理の終了指示がなされるまで待機し(S218でNO)、軌跡シミュレーション処理の終了指示がなされると(S218でYES)、軌跡シミュレーション処理を終了させる。
なお、図2を参照して説明した一連の処理の一部については、変更が可能である。例えば、ステップS211の処理には、黒引き処理された1枚目のシミュレーション用画像を用いることが望ましいが、これに代えて、ステップS203で撮影されて黒引き処理されていない1枚目のシミュレーション用画像を用いてもよい。また、ステップS212では、黒引き処理された1枚目と2枚目のシミュレーション用画像を用いることが望ましいが、これに代えて、ステップS203,S208で撮影されて黒引き処理されていない1枚目と2枚目のシミュレーション用画像を用いてもよい。更に、ステップS216において、ステップS215で生成した軌跡画像とステップS210で現像した黒引き処理された2枚目のシミュレーション用画像との比較明合成を行うことにより、軌跡シミュレーション画像を生成するようにしてもよい。黒引き処理された1枚目のシミュレーション用画像の生成処理(S205,S206)と黒引き処理された2枚目のシミュレーション用画像の生成処理(S209,S210)はそれぞれ、後段の処理で使用されない場合には省略することができる。また、ステップS212では、2枚のシミュレーション用画像から動きベクトルを算出することによって星の移動を予測したが、星の動きを予測する方法はこれに限定されるものではなく、周知の種々の方法を用いてもよい。
次に、ステップS108の本撮影処理について詳細に説明する。図6は、ステップS108の本撮影処理のフローチャートである。ステップS301においてCPU11は、ユーザによって指示された撮影時間を設定する。ここで、ステップS106を経由している場合には、ステップS201で設定した撮影時間が自動的に設定される構成となっていてもよい。ステップS302においてCPU11は、露出条件を算出し、撮像部17の絞りや露光時間、ISO感度を設定する。ここで、ステップS106を経由している場合には、ステップS202において設定された露出条件が自動的に設定される構成となっていてもよい。
ステップS303においてCPU11は、撮像部17のシャッタを閉じて遮光状態とし、ステップS302で設定された露光時間及びISO感度に基づいて撮像部17によりNR用黒画像を撮影し、その画像データをDRAM15に書き込む。本撮影では複数の画像を連続して撮影するが、NR用黒画像の撮影を被写体撮影の前に行うことにより、撮影間隔が空いて星の軌跡が途切れてしまわないようにすることができる。
ステップS304〜S307では、長秒時の露光で繰り返し星空が撮影され、撮影されたフレーム画像が比較明合成される。即ち、ステップS304においてCPU11は、ステップS302で設定された露出条件に基づき、被写体である星空の撮影を行い、その画像データをDRAM15に書き込む。ステップS305においてCPU11は、画像処理回路18を用いて、ステップS304で撮影した画像に対してステップS303で撮影したNR用黒画像を用いて黒引き処理を行う。ステップS306においてCPU11は、画像処理回路18を用いて、現在をn回目の処理としたときに、ステップS305で黒引き処理を施したn回目の画像をn−1回までの合成画像に対して比較明合成を行うことにより、n回までの合成画像を生成する。ステップS307においてCPU11は、ステップS301で設定された撮影時間が経過したか否かを判定する。CPU11は、撮影時間が経過していない場合(S307でNO)、処理をステップS304へ戻し、これにより、n+1枚目の処理が行われることになる。一方、CPU11は、撮影時間が経過した場合(S307でYES)、処理をステップS308へ進める。
ステップS308においてCPU11は、画像処理回路18を用いて、時間的に直近のステップS306で生成された合成画像に対して現像処理(WB調整や画素補間等)を行い、YUVデータに変換することにより、星空画像の画像データが生成される。CPU11は、生成した星空画像の画像データをDRAM15に書き込む。ステップS309においてCPU11は、画像圧縮伸張回路19を用いて、ステップS308でDRAM15に書き込んだ星空画像の画像データを、例えば、JPEG形式の静止画像データに圧縮符号化し、再度、DRAM15に書き込む。ステップS310においてCPU11は、ステップS309でDRAM15に書き込んだ静止画像データを、記憶媒体I/F16を介して記憶媒体20に記憶する。これにより、本撮影処理は終了となる。
以上の説明の通り、本実施形態では、軌跡シミュレーション画像を生成する際に、1枚目のシミュレーション用画像、NR用黒画像、2枚目のシミュレーション用画像をこの順序で撮影する。これにより、2枚のシミュレーション用画像の撮影の前又は後にNR用黒画像の撮影を行う場合と比較して、NR用黒画像の撮影に要する時間分だけ軌跡シミュレーション画像の生成時間を延ばさずに、高画質な軌跡シミュレーション画像を生成することができる。よって、ユーザは、生成された軌跡シミュレーション画像に基づいて、容易に所望する構図の星空画像を撮影することが可能となる。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、本発明は、デジタルカメラ等の撮像装置に限られず、撮像素子による撮影機能を有するスマートフォン等の携帯型の通信端末、タブレットPCなどの携帯型コンピュータ、携帯型ゲーム機等の各種の電子機器にも適用が可能である。また、撮像装置10のように撮像部17とCPU11及び画像処理回路18とが1つの筐体内に配置されていることは必須ではない。つまり、本発明に係る撮像装置は、撮像部17と画像処理装置(撮像装置10から撮像部17を除いた構成を有するもの(主に画像処理等と撮像部17の動作制御を行うもの))とが有線又は無線により通信可能に構成されることで構成されていてもよい。本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10 撮像装置
11 CPU(中央演算装置)
13 表示部
14 操作部
17 撮像部
18 画像処理回路
25 モードダイヤル

Claims (8)

  1. 1枚目の画像、黒画像、2枚目の画像をこの順序で撮影する撮像手段と、
    前記黒画像を用いて前記1枚目の画像と前記2枚目の画像の少なくとも一方の画像内のノイズを低減させる処理を行うノイズ低減手段と、
    前記1枚目の画像と前記2枚目の画像間における被写体の動きに基づいて前記被写体の予測される軌跡を生成する軌跡生成手段と、
    前記ノイズ低減手段により画像内のノイズが低減された1枚目の画像または2枚目の画像に前記軌跡生成手段によって生成された軌跡を合成して、前記被写体の軌跡シミュレーション画像を生成する合成手段と、
    前記合成手段によって合成された前記軌跡シミュレーション画像を表示する表示手段と、を備えることを特徴とする撮像装置。
  2. 前記軌跡生成手段は、前記被写体の面積、前記被写体の平均輝度および前記被写体の色を検出し、
    前記合成手段は、前記軌跡シミュレーション画像において前記被写体の軌跡を線で描画するとともに、前記線の性質を前記被写体の面積、前記被写体の平均輝度および前記被写体の色の少なくとも1つに応じて調整することを特徴とする請求項1に記載の撮像装置。
  3. 前記被写体の軌跡を求める撮影時間を設定する設定手段を備え、
    前記軌跡生成手段は、前記撮影時間までの前記被写体の移動予測点を算出することにより前記被写体の予測される軌跡を求めることを特徴とする請求項1又は2に記載の撮像装置。
  4. 前記被写体は星であることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  5. 前記軌跡生成手段は、前記1枚目の画像または前記2枚目の画像から前景領域を検出し、
    前記合成手段は、前記前景領域に対して前記軌跡生成手段により生成された軌跡を合成しないことを特徴とする請求項4に記載の撮像装置。
  6. 前記ノイズ低減手段は、前記黒画像を用いて前記1枚目の画像と前記2枚目の画像のそれぞれの画像内のノイズを低減させる処理を行い、
    前記軌跡生成手段は、前記ノイズ低減手段により画像内のノイズが低減された1枚目の画像と2枚目の画像から前記被写体を検出することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
  7. 撮像手段により1枚目の画像、黒画像、2枚目の画像をこの順序で撮影するステップと、
    前記黒画像を用いて前記1枚目の画像と前記2枚目の画像の少なくとも一方の画像内のノイズを低減させる処理を行うステップと、
    前記1枚目の画像と前記2枚目の画像間における被写体の動きに基づいて前記被写体の予測される軌跡を生成するステップと、
    前記ノイズを低減させる処理が行われた1枚目の画像または2枚目の画像と前記被写体の予測される軌跡とから前記被写体の軌跡シミュレーション画像を合成するステップと、
    前記軌跡シミュレーション画像を表示手段に表示するステップと、を有することを特徴とする撮像装置の制御方法。
  8. 被写体の軌跡シミュレーション画像を合成する画像処理を撮像装置のコンピュータに実行させるプログラムであって、
    前記画像処理は、
    撮像手段により1枚目の画像、黒画像、2枚目の画像をこの順序で撮影するステップと、
    前記黒画像を用いて前記1枚目の画像と前記2枚目の画像の少なくとも一方の画像内のノイズを低減させる処理を行うステップと、
    前記1枚目の画像と前記2枚目の画像間における被写体の動きに基づいて前記被写体の予測される軌跡を生成するステップと、
    前記ノイズを低減させる処理が行われた1枚目の画像または2枚目の画像と前記被写体の予測される軌跡とから前記被写体の軌跡シミュレーション画像を合成するステップと、
    前記軌跡シミュレーション画像を表示手段に表示するステップと、を有することを特徴とするプログラム。
JP2016051208A 2016-03-15 2016-03-15 撮像装置、撮像装置の制御方法及びプログラム Active JP6659162B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016051208A JP6659162B2 (ja) 2016-03-15 2016-03-15 撮像装置、撮像装置の制御方法及びプログラム
US15/457,465 US10359498B2 (en) 2016-03-15 2017-03-13 Image pickup apparatus having function of generating simulation image,control method therefor, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016051208A JP6659162B2 (ja) 2016-03-15 2016-03-15 撮像装置、撮像装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017168982A JP2017168982A (ja) 2017-09-21
JP6659162B2 true JP6659162B2 (ja) 2020-03-04

Family

ID=59855512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016051208A Active JP6659162B2 (ja) 2016-03-15 2016-03-15 撮像装置、撮像装置の制御方法及びプログラム

Country Status (2)

Country Link
US (1) US10359498B2 (ja)
JP (1) JP6659162B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106647A (ja) * 2017-12-13 2019-06-27 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
JP7102150B2 (ja) * 2018-01-10 2022-07-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7030565B2 (ja) * 2018-03-06 2022-03-07 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7100535B2 (ja) * 2018-08-16 2022-07-13 キヤノン株式会社 撮像装置及び画像処理装置、それらの制御方法、プログラム、記憶媒体
CN110891140B (zh) * 2018-08-16 2021-07-20 佳能株式会社 摄像装置、图像处理装置及其控制方法和存储介质
JP7114081B2 (ja) * 2019-03-20 2022-08-08 株式会社アクセルスペース 情報処理装置、情報処理方法及びプログラム
CN111783498B (zh) * 2019-04-03 2021-02-19 邱群 多参数现场采集方法
JP2021125820A (ja) * 2020-02-06 2021-08-30 キヤノン株式会社 撮像装置、制御方法、プログラムおよび記録媒体
CN113674364A (zh) * 2020-05-14 2021-11-19 索尼公司 信息处理设备和方法、计算机可读存储介质
CN112102190A (zh) * 2020-09-14 2020-12-18 努比亚技术有限公司 图像处理方法、移动终端及计算机可读存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091795A (ja) * 1996-09-12 1998-04-10 Toshiba Corp 移動物体検出装置及び移動物体検出方法
JP3633159B2 (ja) * 1996-12-18 2005-03-30 ソニー株式会社 動画像信号符号化方法及び装置、並びに動画像信号伝送方法
US6366317B1 (en) * 1998-03-27 2002-04-02 Intel Corporation Motion estimation using intrapixel logic
US6665342B1 (en) * 1999-07-02 2003-12-16 International Business Machines Corporation System and method for producing a still image representation of a motion video
US7167267B2 (en) * 2001-12-19 2007-01-23 Hewlett-Packard Development Company, L.P. Noise reduction in an image capturing device
JP2005045552A (ja) * 2003-07-22 2005-02-17 Canon Inc 撮像装置及び方法
JP2005057691A (ja) * 2003-08-07 2005-03-03 Canon Inc 撮像装置及び方法
JP5374217B2 (ja) * 2009-04-22 2013-12-25 キヤノン株式会社 画像処理装置およびその方法
JP5742465B2 (ja) * 2010-05-25 2015-07-01 リコーイメージング株式会社 天体自動追尾撮影方法及び天体自動追尾撮影装置
JP2012004763A (ja) * 2010-06-16 2012-01-05 Nikon Corp カメラ
JP5750864B2 (ja) * 2010-10-27 2015-07-22 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP5678911B2 (ja) * 2012-03-12 2015-03-04 カシオ計算機株式会社 画像合成装置、その画像合成方法、及びプログラム
JP6034740B2 (ja) * 2013-04-18 2016-11-30 オリンパス株式会社 撮像装置および撮像方法
JP6126491B2 (ja) * 2013-08-08 2017-05-10 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US9712756B2 (en) * 2013-08-21 2017-07-18 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP5840189B2 (ja) * 2013-10-02 2016-01-06 オリンパス株式会社 撮像装置、画像処理装置、および画像処理方法
JP2015118213A (ja) * 2013-12-18 2015-06-25 キヤノン株式会社 画像処理装置およびそれを備えた撮像装置、画像処理方法、プログラム、記憶媒体
US10267890B2 (en) * 2014-06-26 2019-04-23 Nantong Schmidt Opto-Electrical Technology Co. Ltd. Apparatus and methods for time-lapse astrophotography
JP2016019231A (ja) * 2014-07-10 2016-02-01 オリンパス株式会社 撮像装置および撮像装置の制御方法
JP2016076869A (ja) * 2014-10-08 2016-05-12 オリンパス株式会社 撮像装置、撮影方法、およびプログラム
CN105141853B (zh) * 2015-08-18 2019-02-05 联想(北京)有限公司 图像处理方法以及电子设备
JP2017108309A (ja) * 2015-12-10 2017-06-15 オリンパス株式会社 撮像装置および撮像方法

Also Published As

Publication number Publication date
US10359498B2 (en) 2019-07-23
US20170269187A1 (en) 2017-09-21
JP2017168982A (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6659162B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
EP2387229B1 (en) Image capturing apparatus and camera shake correction method, and computer-readable medium
CN109547691B (zh) 图像拍摄方法和图像拍摄装置
JP6267502B2 (ja) 撮像装置、撮像装置の制御方法、及び、プログラム
JP6460721B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6116299B2 (ja) 撮像装置及びその制御方法
JP6077853B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2013165487A (ja) 画像処理装置、撮像装置、およびプログラム
US10839497B2 (en) Image processing apparatus and method
JP2017175364A (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP5499853B2 (ja) 電子カメラ
JP6108680B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2014179920A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
WO2014188647A1 (ja) 画像調整装置、画像調整方法、画像調整プログラムおよび撮像装置
JP6758950B2 (ja) 撮像装置、その制御方法とプログラム
JP5569361B2 (ja) 撮像装置およびホワイトバランス制御方法
WO2015129479A1 (ja) 撮像装置および方法、並びにプログラム
JP6231814B2 (ja) 露出決定装置、撮像装置、制御方法、及びプログラム
JP6157274B2 (ja) 撮像装置、情報処理方法及びプログラム
JP2017212698A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2017183983A (ja) 撮像装置、その制御方法、および制御プログラム
JP5482428B2 (ja) 撮像装置、手ブレ補正方法、プログラム
JP6762843B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6700937B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2020043398A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6659162

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151