JP6700813B2 - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6700813B2
JP6700813B2 JP2016016169A JP2016016169A JP6700813B2 JP 6700813 B2 JP6700813 B2 JP 6700813B2 JP 2016016169 A JP2016016169 A JP 2016016169A JP 2016016169 A JP2016016169 A JP 2016016169A JP 6700813 B2 JP6700813 B2 JP 6700813B2
Authority
JP
Japan
Prior art keywords
image
data
distance
subject
focusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016016169A
Other languages
English (en)
Other versions
JP2017135660A (ja
Inventor
片山 達嗣
達嗣 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016016169A priority Critical patent/JP6700813B2/ja
Priority to PCT/JP2016/083651 priority patent/WO2017130522A1/ja
Publication of JP2017135660A publication Critical patent/JP2017135660A/ja
Priority to US16/040,722 priority patent/US10694093B2/en
Application granted granted Critical
Publication of JP6700813B2 publication Critical patent/JP6700813B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、画像処理装置、撮像装置、画像処理方法、及びプログラムに関する。
近年、デジタルカメラ等の撮像装置において、撮影後に任意の被写体に合焦した画像を生成する技術が提案されている(特許文献1参照)。特許文献1の撮像装置は、マイクロレンズアレイを介して撮像素子の各画素に撮像光学系の異なる瞳領域を通過した光束を結像させることにより、様々な方向から入射した光を分離して記録した動画出力データを生成する。その後、撮像装置は、動画記録データから、特定の被写体に合焦した動画を生成する。
特開2013−145314号公報
静止画と動画とでは、高画質な画像を得るのに適した合焦制御が異なる。静止画の場合、被写体に正確に合焦させることが、画質の向上につながる。他方、動画の場合、時間方向の連続性が画質に影響を与える。そのため、被写体が高速に移動した場合、追従速度を抑制して徐々に被写体に合焦させることが、画質の向上につながる。
しかしながら、特許文献1は、動画を生成することは開示しているが、動画記録データの各フレームから静止画を生成することは考慮していない。動画出力データの用途に応じた合焦制御を撮影後に行う技術はこれまで提案されていなかった。
本発明はこのような状況に鑑みてなされたものであり、撮像データから画像を生成する際に、画像の用途に応じた合焦制御を実行することを可能にする技術を提供することを目的とする。
上記課題を解決するために、本発明は、撮像手段により連続的に生成された複数の撮像データを取得する取得手段と、前記複数の撮像データそれぞれについて対象位置を決定する位置決定手段と、第1の合焦モード又は第2の合焦モードを選択する選択手段と、前記対象位置に基づいて、前記複数の撮像データそれぞれについて合焦距離を決定する距離決定手段と、前記複数の撮像データそれぞれについて、前記決定された合焦距離に合焦した画像を前記撮像データから生成する生成手段と、を備え、前記距離決定手段は、前記第1の合焦モードが選択された場合、前記対象位置における被写体距離を前記合焦距離として決定し、前記第2の合焦モードが選択された場合、前記複数の撮像データそれぞれの合焦距離が、前記複数の撮像データの生成順において閾値以下の速度で、前記対象位置における被写体距離に追従するように前記合焦距離の決定を行うことを特徴とする画像処理装置を提供する。
なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
本発明によれば、撮像データから画像を生成する際に、画像の用途に応じた合焦制御を実行することが可能となる。
撮像装置100のブロック図。 被写体の距離情報について説明する図。 撮像装置100が実行する再生処理を示すフローチャート。 表示部107に表示されるサムネイル画像の模式図。 (A)被写体選択画面501を示す図、(B)フレーム選択画面503を示す図。 静止画再生処理(図3のS305)の詳細を示すフローチャート。 静止画リフォーカス処理の概念図。 動画再生処理(図3のS306)の詳細を示すフローチャート。 動画リフォーカス処理の概念図。 撮影時に表示部107に表示される画面の概略図。
以下、添付図面を参照して、本発明の実施形態を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。
なお、以下では、再生時にリフォーカス処理を実行する画像処理装置の構成を含んだ撮像装置に基づいて、各実施形態の説明を行う。しかしながら、画像処理装置と撮像装置とは分離していてもよい。この場合、画像処理装置は、撮像装置から撮像データなどを取得し、取得した撮像データなどに基づいてリフォーカス処理などの各種画像処理を行う。
また、以下の各実施形態では、再生時のリフォーカス処理を可能にするために、撮像装置はパンフォーカスで撮影を行い、撮像データとしてRAW画像データを生成するものとする。パンフォーカスの撮像画像の各位置に対して、その位置の被写体距離と目標の合焦距離との差に基づいて画像をぼかす画像処理を行うことにより、目標の合焦距離に対するリフォーカス処理の効果を得ることができる。しかしながら、リフォーカス処理の実現方法はこれに限定されず、撮像装置が生成する撮像データはRAW画像データに限定されない。例えば、撮像装置は、特許文献1と同様に、様々な方向から入射した光を分離して記録したデータ(ライトフィールドデータ)を撮像データとして生成し、ライトフィールドデータに基づくリフォーカス処理を行ってもよい。
[第1の実施形態]
図1は、第1の実施形態に係る撮像装置100のブロック図である。図1において、撮像光学系101は、ズーム、フォーカス等の操作に応じてレンズ制御できるように構成されている。撮像素子102は、CMOS等により構成される。撮像素子102は、撮像面の各画素の信号を分割して取り込むことにより画素単位でAF(オートフォーカス)用の位相差信号を取得できるように構成されている。撮像素子102から出力される位相差信号を用いれば、撮影する被写体の距離情報を取得することができる。距離情報生成部111は、撮像素子102から出力される位相差信号をもとに、被写体の距離情報を算出して、メモリ105に書き込む。
画像処理部103は、撮像素子102から出力される画像信号をA/D変換することによりデジタルデータを生成し、このデジタルデータに対して所定の処理を施すことによりRAW画像データを生成する。RAW画像データは、メモリ105に一時的に保持される。また、記録モード時においては、画像処理部103は、撮影中の映像を液晶パネル等の表示部107に表示するために、表示用の現像処理を行う。RAW画像データの生成及び現像処理には、任意の既知の技術を利用可能である。また、画像処理部103は、RAW画像データの再生時にリフォーカス処理を行う(詳細は後述)。
メモリ105は、DRAM等により構成され、記録処理部104で生成される記録データ、撮像装置100を制御するプログラム、及び、表示部107に表示する文字やアイコン等のリソースデータ等を保持する。
記録処理部104は、メモリ105に保持されているRAW画像データ及び被写体の距離情報を読み出して所定の記録フォーマットに変換し、記録媒体108に書きこむ。表示処理部106は、メモリ105に保持されている撮影中の映像、アイコン、及び文字などを表示部107に表示する処理を行う。表示部107は、液晶パネル等から構成される。記録媒体108は、SDメモリカード等の不揮発性半導体メモリである。
システム制御部110は、CPU等から構成され、撮像装置100全体を制御する。ROM109(リードオンリーメモリ)は、制御プログラム、文字フォント、アイコンリソースデータ等を保持する。バス112は、撮像装置100の各部を接続してデータ交換を行うためのバスである。システム制御部110からの制御信号をバス112を介して撮像装置100の各部に伝達することで、撮像装置100全体を制御することができる。操作部113は、ボタン及びダイヤル等を含み、記録開始及び記録停止等の動作指示や、各種設定指示のために用いられる。また、表示部107の液晶パネル上に装着されているタッチパネルも操作部113に含まれるものとする。
ここで、本実施形態に係る撮像装置100の記録動作について説明する。システム制御部110は、操作部113の不図示のモード設定ダイヤルが記録モードに設定されたことを検出すると、記録モードの制御に移行する。記録モードにおいては、撮像装置100は、ユーザが撮影状況を確認できるようにするために、撮影中の被写体像を表示部107に表示する。そのために、画像処理部103は、撮像光学系101を介して入射した被写体像から撮像素子102が生成したデータに対して、所定の現像処理を行い、メモリ105に出力する。表示処理部106は、メモリ105のデータを変換して表示部107に表示する。また、本実施形態では、記録媒体108に記録する画像はRAW画像データであるものとする。そこで、画像処理部103は、撮像素子102から出力されるデータに対して所定の処理を施すことによりRAW画像データを生成し、メモリ105に一時的に格納する。その後、記録処理部104は、RAW画像データを所定の記録フォーマットに変換して記録媒体108に記録する。
また、本実施形態では、ユーザは、撮影時には動画と静止画とを区別する必要が無い。撮像装置100は、操作部113を介してユーザから記録開始指示を受信すると、例えば60fpsのフレームレートでRAW画像データを連続的に生成して記録する。撮影中、システム制御部110は、画像の種類(動画又は静止画)に依存しないように合焦制御を行う。例えば、システム制御部110は、フォーカスがパンフォーカスとなるように撮像光学系101の絞りを所定の設定値に絞り、更に、撮像素子102及び画像処理部103を制御しながらRAW画像データを取得する。RAW画像データの再生時に、ユーザは、静止画再生モード(第1の合焦モード)又は動画再生モード(第2の合焦モード)を選択する。静止画再生モードは、RAW画像データを静止画として再生する再生モードであり、動画再生モードは、RAW画像データを動画として再生する再生モードである。撮像装置100は、RAW画像データに対して、選択された再生モードに応じた現像処理及びリフォーカス処理を行い、再生画像を生成する。再生時のリフォーカス処理を可能にするために、撮像装置100は、記録するRAW画像データの各被写体の距離情報(詳細は後述)を取得し、RAW画像データと共に記録する。
次に、図2を参照して、被写体の距離情報について説明する。図2(A)は、撮像装置100及び被写体210〜212の配置を示す概略図である。撮像装置100から被写体210〜212までの距離は、各々距離L1〜L3である。前述の通り、撮像装置100の撮像素子102は、撮像面の各画素の信号を分割して取り込むことにより画素単位でAF(オートフォーカス)用の位相差信号を取得できるように構成されている。距離情報生成部111は、撮像素子102から取得した位相差信号をもとに、撮影している被写体までの距離情報を所定の分解能で生成する。なお、撮像面位相差検出による距離情報の生成については、任意の既知の技術を用いることができる。
図2(B)は、図2(A)の配置で撮影を行った場合に取得される距離情報を2次元の画像情報として表した距離マップ215の模式図である。距離マップ215は、距離を示す数値を画像の濃淡で表しており、濃度が濃いほど被写体が奥(撮像装置100から遠い位置)にあることを示している。距離データ220〜222は、図2(A)の被写体210〜212までの距離を表す濃度である。濃度レベル230は、距離マップ215の濃度と被写体までの距離との関係を示すものである。
なお、距離情報の形式は距離マップ215に限られるものではなく、撮像装置100からの距離を示す任意の形式を用いることが可能である。また、距離情報の分解能も、図2(B)に示されるものに限定されない。距離情報は、撮像画像の複数の位置における被写体距離を示していればよく、分解能に応じて、各位置における距離情報がカバーする範囲が適宜決定される。
距離情報生成部111が生成した距離マップ215は、メモリ105の所定の領域に一時的に保持される。そして、記録処理部104は、システム制御部110の制御に従い、メモリ105に保持されている距離マップ215を、メモリ105に保持されているRAW画像データと共に、記録媒体108に記録する。RAW画像データと距離マップ215とは、撮像素子102の同じタイミングの出力信号を基に生成される。従って、撮像装置100が複数のRAW画像データを生成する場合、距離マップ215も、RAW画像データと同じ数だけ生成される。
なお、撮像装置100が撮像データとしてライトフィールドデータを生成する場合は、ライトフィールドデータから位相差情報を取得可能である。そのため、撮像装置100は、撮影時に距離情報を生成する必要は無い。
本実施形態では、システム制御部110は、記録モードにおいて操作部113の記録ボタン(不図示)の押下を検知すると、記録動作を開始する。記録動作が開始すると、システム制御部110は、所定のフォーマットのファイルを生成して、ヘッダ情報等を設定した後に、記録媒体108に記録する。前述の通り、本実施形態では、ユーザは、撮影時には動画と静止画とを区別する必要が無い。記録中は、撮像装置100は、フレームレート60fpsで逐次RAW画像データと距離マップ215とを生成して一時的にメモリ105に格納し、記録処理部104が所定のタイミングでRAW画像データと距離マップ215とを記録媒体108に記録する。記録フレームに付加すべきメタ情報等があれば、記録処理部104は、同時に記録媒体108に記録する。
ここで、システム制御部110は、操作部113の記録ボタン(不図示)の押下を再度検知すると、その時点での撮像素子102から出力される画像信号に対応したRAW画像データ及び距離マップ215を記録媒体108に記録する。その後、システム制御部110は、記録動作を停止する。
次に、図3のフローチャートを参照して、撮像装置100が実行する再生処理について説明する。本フローチャートの各ステップの処理は、特に断らない限り、システム制御部110が制御プログラムを実行して撮像装置100の各部を制御することにより実現される。システム制御部110が操作部113を介してユーザから再生指示を受信すると、本フローチャートの処理が開始する。
S301で、システム制御部110は、ユーザ指示に従い、再生対象の画像ファイルを選択する。そのために、システム制御部110は、表示部107に、記録媒体108に記録されている画像ファイルの一覧をサムネイル画像として表示する。ここで、サムネイル画像の生成について説明する。システム制御部110は、記録媒体108に記録されている画像ファイルを読み出す。システム制御部110は、読み出した画像ファイル内の一連のRAW画像データの先頭のRAW画像データをメモリ105に保持する。次に、画像処理部103は、RAW画像データを現像処理し、更に、所定のサイズに縮小したサムネイル画像をメモリ105に書き出す。その後、表示処理部106は、メモリ105に保持されているサムネイル画像を表示部107に表示する。
図4は、表示部107に表示されるサムネイル画像の模式図である。図4において、表示画面401は、タッチパネルを貼付した液晶パネルにより表示される。表示画面401には、サムネイル画像402〜407が表示されている。
ユーザは、表示画面401に表示されたサムネイル画像の中から、再生対象の画像を選択する。図4の例では、ユーザは、タッチパネルをタッチすることにより、サムネイル画像405を選択している。操作部113は、タッチパネルからの信号を受け取り、この信号を表示画面401上の座標情報に変換して、システム制御部110に出力する。システム制御部110は、座標情報をもとに、タッチされているサムネイル画像を検出して、そのサムネイル画像に対応する画像ファイルを特定する。この時、システム制御部110は、表示画面401において、選択されたサムネイル画像を強調表示してもよい。
次に、S302で、システム制御部110は、ユーザ指示に従い、再生モードを選択する。ユーザは、図4の表示画面401に表示される静止画再生ボタン410及び動画再生ボタン411のいずれかをタッチして選択する。システム制御部110は、ユーザがタッチした座標をもとに、静止画再生ボタン410及び動画再生ボタン411のいずれがタッチされたかを検出し、再生モードを決定する。なお、本実施形態では、再生モードとして静止画再生モード又は動画再生モードが選択されるものとして説明を行うが、選択可能な再生モードはこれに限定されない。2以上の再生モードから再生モードを選択可能であり、選択された再生モードに応じて合焦制御が異なるあらゆる構成が、本実施形態に含まれ得る。
S303で、システム制御部110は、ユーザ指示に従い、合焦対象とする被写体を選択する。図5(A)は、ユーザが合焦対象の被写体を選択するための表示画面の模式図である。システム制御部110は、S301において選択した再生対象の画像ファイルから所定のフレーム間隔でRAW画像データを読み出す。そして、システム制御部110は、S301と同様の手順で現像及びサムネイル画像の生成を行い、表示部107に表示する。図5(A)の被写体選択画面501には、画像ファイルから60フレーム間隔、即ち1秒間隔で読み出したフレームから生成したサムネイル画像510〜513が配置されている。被写体選択画面501の中に全てのサムネイル画像が収まらない場合には、ユーザは、タッチパネル上で左右ボタン506をタッチすることにより、画面を左右にスクロースして他のサムネイル画像を確認することができる。ユーザは、被写体選択画面501に配置されているサムネイル画像内の被写体をタッチすることで、合焦対象の被写体を選択する。図5(A)の例では、サムネイル画像510上の被写体580が選択されている。ユーザは、画面をスクロールしながら上記と同様の操作を繰り返すことで、フレーム毎に被写体を選択することができる。システム制御部110は、選択された被写体の位置情報を、フレーム番号に関連付けてメモリ105に保持する。ここで保持される位置情報及びフレーム番号を、以下では「リフォーカスデータ」とも呼ぶ。
なお、本実施形態では、ユーザが選択した被写体の位置がリフォーカス処理における合焦の対象位置として用いられるものとして説明を行うが、本実施形態はこれに限定されない。撮像装置100は、リフォーカス処理における合焦の対象位置の位置決定を、任意の基準で行うことができる。
また、S303において、ユーザは、画像ファイルの中で再生対象とするフレームを選択することができる。ユーザは、図5(A)のフレーム選択ボタン502を押下する。システム制御部110は、この押下を検出すると、図5(B)に示すフレーム選択画面503を表示する。フレーム選択画面503には、再生対象の画像ファイル内のフレームに対応するサムネイル画像が1秒間隔で表示される。ここでは、サムネイル画像520〜539が表示されている。フレーム選択画面503の中に全てのサムネイル画像が収まらない場合には、ユーザは、上下ボタン505をタッチすることにより、画面を上下にスクロースして他のサムネイル画像を表示させることができる。ユーザは、フレーム選択画面503において、再生対象とするフレームをタッチして選択する。図5(B)の例では、サムネイル画像528〜533が選択されている。この場合、サムネイル画像528〜533に対応する範囲のフレームが再生対象として選択される。システム制御部110は、選択したフレームを示す情報をメモリ105に格納する。また、ユーザは、フレーム選択画面503の被写体選択ボタン504を押下することで、図5(A)の被写体選択画面501に遷移することができる。
なお、フレーム選択画面503における選択が行われない場合、画像ファイル内の全てのフレームが再生対象となる。また、図5(A)及び図5(B)の例では、60フレーム間隔(1秒間隔)でサムネイル画像が表示されているが、サムネイル画像の表示間隔は任意に変更することが可能である。
ユーザが被写体選択画面501の再生ボタン507をタッチすると、システム制御部110は処理をS304に進める。S304で、システム制御部110は、S302において静止画再生モードが選択されたか否かを判定する。静止画再生モードが選択された場合、システム制御部110は処理をS305に進め、そうでない場合、システム制御部110は処理をS306に進める。S305及びS306の詳細については後述する。
S307で、システム制御部110は、再生モードを終了するか否かを判定する。再生モードを終了する場合(例えば、ユーザが操作部113により再生モードの終了指示を行った場合)、システム制御部110は本フローチャートの処理を終了する。そうでない場合、システム制御部110は処理をS301に戻す。
図6を参照して、S305の静止画再生処理について説明する。S601で、システム制御部110は、記録媒体108に記録されている再生対象の画像ファイルから、現在の処理対象のフレームに対応するRAW画像データを読み出し、メモリ105に格納する。最初の処理対象のフレームは、画像ファイルの先頭フレーム(図5(B)のフレーム選択画面503において範囲の選択が行われた場合、選択範囲の先頭フレーム)である。また、システム制御部110は、画像処理部103に、静止画再生に対応した現像パラメータを設定し、画像処理部103に現像処理を指示する。システム制御部110は、現像処理により得られた静止画データをメモリ105に格納する。
S602で、システム制御部110は、メモリ105からリフォーカスデータを取得する。S603で、システム制御部110は、現在の処理対象のフレームに対応するリフォーカスデータが存在するか否かを判定する。S303において説明した通り、リフォーカスデータは位置情報及びフレーム番号を含む。そのため、S603の判定は、リフォーカスデータのフレーム番号と現在の処理対象のフレーム番号との比較に基づいて行われる。現在の処理対象のフレームに対応するリフォーカスデータが存在する場合、システム制御部110は処理をS604に進める。現在の処理対象のフレームに対応するリフォーカスデータが存在しない場合、システム制御部110は処理をS605に進める。
S604で、システム制御部110は、S601において生成された静止画データから、リフォーカスデータに含まれる位置情報における被写体の画像データ(被写体データ)を抽出し、メモリ105に格納する。この被写体データは、S605における被写体の追尾処理のために用いられる。
S605で、システム制御部110は、被写体の追尾処理を行う。具体的には、システム制御部110は、S604においてメモリ105に格納された被写体データを取得する。そして、システム制御部110は、処理対象のフレーム画像において被写体データに対応する被写体の画像を探索することにより、被写体の位置を検出する。また、システム制御部110は、検出した被写体の画像データにより、メモリ105内の被写体データを更新する。これにより、対応するリフォーカスデータが存在しないフレーム(リフォーカスデータが存在する撮像データ以外の撮像データ)についても、被写体を基準としたリフォーカス処理が可能になる。なお、被写体の追尾方法は上記に限られるものではなく、任意の既知の技術を利用可能である。
なお、合焦対象の被写体がフレームアウトした場合など、システム制御部110が被写体の位置の検出に失敗する場合がある。この場合、システム制御部110は、メモリ105に格納された最新の被写体データよりも古い被写体データ(即ち、直前のフレームよりも前のフレームの被写体データ)を用いて、被写体の位置の検出を行う。このような検出処理の再試行を可能にするために、システム制御部110は、S604において被写体データをメモリ105に格納したり、S605において被写体データを更新したりする際に、古い被写体データを削除せずに残す。また、所定のフレーム数よりも古い被写体データは削除するように撮像装置100を構成してもよい。
S606で、システム制御部110は、静止画リフォーカス処理を行う。図7は、静止画リフォーカス処理の概念図である。撮像装置100は、記録されているRAW画像データと、RAW画像データに対応した距離マップをもとに、静止画リフォーカス処理を行う。システム制御部110は、記録媒体108から処理対象のフレーム番号に対応する距離マップを読み出し、メモリ105に格納する。合焦距離の距離決定は、メモリ105に格納された距離マップを用いて行われる。
図7の距離マップ700は、図2(B)の濃度レベル230に示すように、各領域の濃淡レベルが距離を表している。図7の画像701は、距離マップ700に対応する画像を表している。被写体領域702は、合焦対象の被写体の位置を示す。この位置は、リフォーカスデータに含まれる位置情報、又はS605の追尾処理によって検出された位置に対応する。画像処理部103は、被写体領域702の座標に対応する距離データを距離マップ700から取得する。図7の距離マップ700では、被写体領域702に対応する距離データは領域「A」に対応するので、画像処理部103は、領域「A」の距離データを取得する。
次に、画像処理部103は、取得した距離データを「k」として、距離マップ700の各領域の距離データとの差「dk」を算出する。そして、画像処理部103は、差「dk」に所定の係数を乗算して算出した値nを用いて、n×nのサイズで係数pのカーネルを生成する。そして、画像処理部103は、距離マップ700の各領域に対して生成したカーネルを用いて、S601で生成された静止画とコンボリューション演算を行い、画像をぼかす。これにより、被写体領域702の距離データとの差に応じて画像のぼかし量が変化したリフォーカス画像を得ることができる。なお、リフォーカス処理は上述の処理に限られるものではなく、任意の既知の技術を利用可能である。
上記のリフォーカス処理により、ユーザが選択した被写体に合焦し、奥行き方向における被写体との距離差に応じてぼかされたリフォーカス画像が生成される。生成されたリフォーカス画像は、メモリ105に格納される。
S607で、システム制御部110は、メモリ105に保持されたリフォーカス画像を、再生画像として表示部107に表示する。再生画像の表示は、1枚毎に行われる。ユーザが送りボタン(不図示)を押下したり、タッチパネルのスライド操作を行ったりすることにより、再生画像が次の画像に遷移する。また別の表示方法として、再生画像を縮小して複数枚毎に表示部107に表示することも可能である。
S608で、システム制御部110は、再生対象のフレームのうちの最終フレームに到達したか否かを判定する。最終フレームに到達した場合、システム制御部110は処理を図3のフローチャートに戻す。最終フレームに到達していない場合、システム制御部110は処理をS601に戻し、次のフレームを処理対象のフレームとして同様の処理を行う。
以上のように、静止画再生処理においては、リフォーカスデータに保持されているフレームの被写体を追尾しながら合焦したリフォーカス画像がフレーム単位で逐次生成、表示される。
次に、図8を参照して、図3のS306の動画再生処理について説明する。図8において、図6と同一又は同様の処理が行われるステップには図6と同一の符号を付し、その説明を省略する。S801で、システム制御部110は、記録媒体108に記録されている再生対象の画像ファイルから、現在の処理対象のフレームに対応するRAW画像データを読み出し、メモリ105に格納する。最初の処理対象のフレームは、画像ファイルの先頭フレーム(図5(B)のフレーム選択画面503において範囲の選択が行われた場合、選択範囲の先頭フレーム)である。また、システム制御部110は、画像処理部103に、動画再生に対応した現像パラメータを設定し、画像処理部103に現像処理を指示する。システム制御部110は、現像処理により得られた動画データをメモリ105に格納する。
S806で、システム制御部110は、動画リフォーカス処理を行う。図9を参照して、動画リフォーカス処理について説明する。図9の上段は、合焦距離の変動を模式的に示し、図9の中段は、再生対象のフレームを模式的に示す。フレーム920〜928は、生成順に並んでおり、60fpsのフレームレートで再生される。図9の下段は、フレーム920及び925を表示部107に表示したときのリフォーカス画像を模式的に示す。動画再生処理においては、静止画再生処理と比較して、合焦距離の決定方法が異なる。動画ではフレーム間の画像の連続性が画質に影響を与えるため、撮像装置100は、合焦距離の変動速度を閾値以下に制限する。
現在、フレーム921が処理対象であるものとする。直前のフレーム920の合焦距離は距離910であり、この時、リフォーカス画像930において被写体932に合焦しているものとする。また、フレーム921では、被写体933が合焦対象として選択されているものとする。システム制御部110は、記録媒体108から、フレーム921に対応する距離マップを読み出し、メモリ105に格納する。システム制御部110は、距離マップに基づき、フレーム921における被写体933の距離911bを検出する。ここで、仮にフレーム921の合焦距離を距離911bとした場合、距離910からの変化量が大きく、動画が不自然になる。そこで、システム制御部110は、閾値以下の速度で合焦距離が被写体933に追従するように、合焦距離を距離911aに決定する。そして、システム制御部110は、距離911aに合焦するように、リフォーカス画像を生成する。具体的な生成方法は、図6のS607と同様である。
フレーム922〜924についても、被写体距離は距離912b〜914bであるが、速度を閾値以下に制限した結果、距離912a〜914aを合焦距離とするリフォーカス画像が生成される。フレーム925〜928については、処理対象のフレームの被写体距離と直前のフレームの合焦距離との差が小さいため、被写体距離と一致する距離915〜918を合焦距離とするリフォーカス画像が生成される。従って、リフォーカス画像931においては、被写体933に合焦している。
上記のリフォーカス処理により、複数のフレームに亘って合焦距離がユーザが選択した被写体に閾値以下の速度で追従するリフォーカス画像が生成される。生成されたリフォーカス画像は、メモリ105に格納される。
なお、ユーザが閾値を決定可能なように撮像装置100を構成してもよい。例えば、撮像装置100は、表示部107に閾値決定画面を表示し、ユーザは、閾値決定画面において所望の閾値を指示する。システム制御部110は、閾値決定画面におけるユーザ指示に従い、閾値を決定する。
S807で、システム制御部110は、メモリ105に保持されたリフォーカス画像を、再生画像として表示部107に表示する。静止画再生処理の場合(S607)と異なり、再生画像は、再生フレームレート(例えば60fps)に従って自動的に次の画像に遷移する。従って、システム制御部110は、再生画像の表示後、自動的に処理をS608に進め、再生フレームレートに従って次々と再生画像を表示する。
以上説明したように、第1の実施形態によれば、撮像装置100は、撮像データの再生時に、リフォーカス処理を行って再生画像を生成する。撮像装置100は、選択された再生モードに応じて、リフォーカス処理の合焦距離を決定する。これにより、画像の用途に応じた合焦制御を実行することが可能となる。
[第2の実施形態]
第1の実施形態では、再生時にリフォーカスデータを生成する構成について説明した(図3のS303参照)。これに対し、第2の実施形態では、撮影時にリフォーカスデータを生成する構成について説明する。本実施形態において、撮像装置100の基本的な構成は第1の実施形態と同様である(図1参照)。以下、主に第1の実施形態と異なる点について説明する。
図10は、撮影時に表示部107に表示される画面の概略図である。画像1001は、撮像装置100が撮影中に撮像素子102を介して取得した画像である。ユーザは、撮影中に合焦対象の被写体をタッチ操作で選択することが可能である。図10の例では、ユーザは、被写体1002にタッチしたものとする。ユーザが被写体をタッチすると、操作部113は、タッチパネルからの信号を受け取り、この信号を表示画面上の座標に変換してシステム制御部110に出力する。システム制御部110は、この座標を示す位置情報と、現在のフレーム番号とを、リフォーカスデータとして記録媒体108に記録する。次のフレーム以降については、システム制御部110は、被写体の追尾を行って被写体の位置を検出し、リフォーカスデータを記録媒体108に記録する。或いは、システム制御部110は、被写体の追尾を行わず、ユーザがタッチを行ったタイミングのフレームについてのみリフォーカスデータを生成してもよい。リフォーカスデータは、例えば、画像ファイルのヘッダ部に記録される。
再生処理は、図3のS303を除き、第1の実施形態と同様である。第2の実施形態では、S303において、システム制御部110は、再生対象の画像ファイルのヘッダ部にリフォーカスデータが含まれることを検出する。この検出に応じて、システム制御部110は、表示部107に、画像ファイルのリフォーカスデータを使用するか否かを確認するメッセージを表示する。ユーザは、操作部113を介して、画像ファイルのリフォーカスデータを使用するか否かを選択する。ユーザが画像ファイルのリフォーカスデータを使用する場合、システム制御部110は、画像ファイルのリフォーカスデータを使用してS304以降の処理を行う。
ところで、第1の実施形態においては、撮像装置100は、撮像画像の各位置の被写体距離と合焦距離との差に基づいてリフォーカス処理を行うものとした。しかしながら、本実施形態の撮像装置100は、この差に加えて、撮像光学系101のレンズの設計データを用いてリフォーカス処理を行う。撮像装置100は、リフォーカス処理の際に、画像処理部103を用いて、合焦距離以外の距離に位置する被写体のぼけ量を、レンズの設計データをもとに算出して、リフォーカス画像を生成する。なお、レンズの設計データからぼけ量を算出する技術は、任意の既知の技術を使用可能である。
また、第2の実施形態では、撮像装置100は、動画再生処理(図8及び図9参照)における合焦距離の変動速度の閾値を、レンズの設計データに基づいて決定する。
以上説明したように、第2の実施形態によれば、撮像装置100は、再生時に用いるリフォーカスデータを、撮影時におけるユーザの被写体選択に応じて生成する。これにより、撮影時の状況を反映したリフォーカス画像を生成することが可能となる。また、本実施形態では、撮像装置100はレンズの設計データを用いてリフォーカス処理を行うため、光学的なフォーカス制御により近い画質を得ることができる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…撮像装置、101…撮像光学系、102…撮像素子、103…画像処理部、104…記録処理部、105…メモリ、106…表示処理部、107…表示部、108…記録媒体、109…ROM、110…システム制御部、111…距離情報生成部

Claims (10)

  1. 撮像手段により連続的に生成された複数の撮像データを取得する取得手段と、
    前記複数の撮像データそれぞれについて対象位置を決定する位置決定手段と、
    第1の合焦モード又は第2の合焦モードを選択する選択手段と、
    前記対象位置に基づいて、前記複数の撮像データそれぞれについて合焦距離を決定する距離決定手段と、
    前記複数の撮像データそれぞれについて、前記決定された合焦距離に合焦した画像を前記撮像データから生成する生成手段と、
    を備え、
    前記距離決定手段は、
    前記第1の合焦モードが選択された場合、前記対象位置における被写体距離を前記合焦距離として決定し、
    前記第2の合焦モードが選択された場合、前記複数の撮像データそれぞれの合焦距離が、前記複数の撮像データの生成順において閾値以下の速度で、前記対象位置における被写体距離に追従するように前記合焦距離の決定を行う
    ことを特徴とする画像処理装置。
  2. 前記複数の撮像データそれぞれは、パンフォーカスの撮像画像を示すデータであり、
    前記取得手段は、前記複数の撮像データそれぞれについて、前記撮像画像の複数の位置における被写体距離を示す距離情報を更に取得し、
    前記生成手段は、前記撮像画像の前記複数の位置それぞれについて、前記位置における被写体距離と前記決定された合焦距離との差に基づいて前記撮像画像をぼかす画像処理を行うことにより、前記決定された合焦距離に合焦した画像を生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記位置決定手段は、前記複数の撮像データのうちの1以上の撮像データそれぞれについて、ユーザ指示に従って前記対象位置を決定する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記取得手段は、前記複数の撮像データのうちの1以上の撮像データそれぞれについて、特定の位置を示す位置情報を更に取得し、
    前記位置決定手段は、前記1以上の撮像データそれぞれについて、前記位置情報が示す位置を前記対象位置として決定する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  5. 前記位置決定手段は、前記1以上の撮像データ以外の撮像データについては、前記複数の撮像データの生成順において直前の撮像データの前記対象位置の被写体に対応する位置を検出し、当該検出した位置を当該撮像データの前記対象位置として決定する
    ことを特徴とする請求項3又は4に記載の画像処理装置。
  6. 前記位置決定手段は、前記直前の撮像データの前記対象位置の被写体に対応する位置の前記検出に失敗した場合、前記直前の撮像データよりも前の撮像データの前記対象位置の被写体に対応する位置を検出する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. ユーザ指示に従って前記閾値を決定する閾値決定手段を更に備える
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 請求項1乃至7のいずれか1項に記載の画像処理装置と、
    前記撮像手段と、
    を備えることを特徴とする撮像装置。
  9. 画像処理装置が実行する画像処理方法であって、
    撮像手段により連続的に生成された複数の撮像データを取得する取得工程と、
    前記複数の撮像データそれぞれについて対象位置を決定する位置決定工程と、
    第1の合焦モード又は第2の合焦モードを選択する選択工程と、
    前記対象位置に基づいて、前記複数の撮像データそれぞれについて合焦距離を決定する距離決定工程と、
    前記複数の撮像データそれぞれについて、前記決定された合焦距離に合焦した画像を前記撮像データから生成する生成工程と、
    を備え、
    前記距離決定工程では、
    前記第1の合焦モードが選択された場合、前記対象位置における被写体距離を前記合焦距離として決定し、
    前記第2の合焦モードが選択された場合、前記複数の撮像データそれぞれの合焦距離が、前記複数の撮像データの生成順において閾値以下の速度で、前記対象位置における被写体距離に追従するように前記合焦距離の決定を行う
    ことを特徴とする画像処理方法。
  10. コンピュータを、請求項1乃至7のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2016016169A 2016-01-29 2016-01-29 画像処理装置、撮像装置、画像処理方法、及びプログラム Active JP6700813B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016016169A JP6700813B2 (ja) 2016-01-29 2016-01-29 画像処理装置、撮像装置、画像処理方法、及びプログラム
PCT/JP2016/083651 WO2017130522A1 (ja) 2016-01-29 2016-11-14 画像処理装置、撮像装置、画像処理方法、及びプログラム
US16/040,722 US10694093B2 (en) 2016-01-29 2018-07-20 Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016016169A JP6700813B2 (ja) 2016-01-29 2016-01-29 画像処理装置、撮像装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017135660A JP2017135660A (ja) 2017-08-03
JP6700813B2 true JP6700813B2 (ja) 2020-05-27

Family

ID=59397734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016016169A Active JP6700813B2 (ja) 2016-01-29 2016-01-29 画像処理装置、撮像装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US10694093B2 (ja)
JP (1) JP6700813B2 (ja)
WO (1) WO2017130522A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818586B2 (ja) * 2017-02-21 2021-01-20 キヤノン株式会社 通信装置およびその制御方法、プログラム並びに記憶媒体
JP2020091445A (ja) 2018-12-07 2020-06-11 キヤノン株式会社 画像処理装置およびその制御方法
US11763538B2 (en) 2018-08-31 2023-09-19 Canon Kabushiki Kaisha Image processing apparatus and electronic apparatus
CN109842760A (zh) * 2019-01-23 2019-06-04 罗超 一种模拟人眼视物的影像拍摄与回放方法
US11756221B2 (en) * 2021-01-28 2023-09-12 Qualcomm Incorporated Image fusion for scenes with objects at multiple depths

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8559705B2 (en) * 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
WO2010065344A1 (en) * 2008-11-25 2010-06-10 Refocus Imaging, Inc. System of and method for video refocusing
JP5299529B2 (ja) * 2011-03-29 2013-09-25 株式会社ニコン 撮像装置
JP5898501B2 (ja) 2012-01-13 2016-04-06 キヤノン株式会社 画像処理装置、撮像装置、制御方法、プログラム及び記録媒体
US8995785B2 (en) * 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
JP2013254432A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
WO2014010672A1 (ja) * 2012-07-12 2014-01-16 オリンパス株式会社 撮像装置及びプログラム
JP6216169B2 (ja) * 2012-09-26 2017-10-18 キヤノン株式会社 情報処理装置、情報処理方法
EP2967966B1 (en) * 2013-03-14 2017-05-10 Hollister Incorporated Catheter assembly with deployable collection container
JP6228402B2 (ja) * 2013-07-23 2017-11-08 キヤノン株式会社 画像再生装置、画像再生方法、プログラム、及び記憶媒体
KR102257620B1 (ko) * 2014-03-20 2021-05-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
CN103973978B (zh) * 2014-04-17 2018-06-26 华为技术有限公司 一种实现重对焦的方法和电子设备
US20160309091A1 (en) * 2015-04-16 2016-10-20 Canon Kabushiki Kaisha Display apparatus, display control method, and image capturing apparatus
GB2539198B (en) * 2015-06-08 2019-09-25 Imagination Tech Ltd Motion estimation using collocated blocks
JP6546474B2 (ja) * 2015-07-31 2019-07-17 キヤノン株式会社 撮像装置およびその制御方法

Also Published As

Publication number Publication date
JP2017135660A (ja) 2017-08-03
US10694093B2 (en) 2020-06-23
US20180332214A1 (en) 2018-11-15
WO2017130522A1 (ja) 2017-08-03

Similar Documents

Publication Publication Date Title
US10200590B2 (en) Image pickup apparatus and method of controlling the same
US11743583B2 (en) Imaging apparatus and setting screen thereof
JP6271990B2 (ja) 画像処理装置、画像処理方法
JP6663193B2 (ja) 撮像装置およびその制御方法
JP6700813B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
EP3460674A1 (en) Appartus, method and program for displaying thumbnails of fisheye images
JP6261205B2 (ja) 画像処理装置
JP6323022B2 (ja) 画像処理装置
JP6525809B2 (ja) 焦点検出装置及びその制御方法
JP6056551B2 (ja) 画像処理プログラムおよびデジタルカメラ
JP6031670B2 (ja) 撮像装置
US11513315B2 (en) Focus control device, focus control method, program, and imaging device
JP5409483B2 (ja) 撮像装置
US20220191401A1 (en) Image processing device, image processing method, program, and imaging device
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2016100868A (ja) 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
US11985420B2 (en) Image processing device, image processing method, program, and imaging device
JP2020061760A (ja) 撮像装置
JP2015039242A (ja) 撮像装置
JP6504693B2 (ja) 撮像装置、操作支援方法及び操作支援プログラム
JP2012165405A (ja) 撮像装置、及びプログラム
JP6833772B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2014217008A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP6415279B2 (ja) 撮像制御装置、撮像装置および撮像制御プログラム
JP2021125741A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6700813

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151