JP2023124561A - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2023124561A JP2023124561A JP2022028383A JP2022028383A JP2023124561A JP 2023124561 A JP2023124561 A JP 2023124561A JP 2022028383 A JP2022028383 A JP 2022028383A JP 2022028383 A JP2022028383 A JP 2022028383A JP 2023124561 A JP2023124561 A JP 2023124561A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- subject information
- information
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 122
- 238000003384 imaging method Methods 0.000 title claims description 23
- 238000003672 processing method Methods 0.000 title claims description 4
- 239000002131 composite material Substances 0.000 claims abstract description 34
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims description 13
- 239000000463 material Substances 0.000 abstract description 87
- 238000000034 method Methods 0.000 abstract description 37
- 230000008569 process Effects 0.000 description 27
- 230000015572 biosynthetic process Effects 0.000 description 22
- 238000003786 synthesis reaction Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000007906 compression Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 101150053844 APP1 gene Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101100189105 Homo sapiens PABPC4 gene Proteins 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 102100039424 Polyadenylate-binding protein 4 Human genes 0.000 description 1
- 235000010724 Wisteria floribunda Nutrition 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10144—Varying exposure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【課題】合成画像に関連付けられる被写体情報の冗長性を抑制するように、各素材画像の被写体情報を合成画像に関連付ける技術を提供する。
【解決手段】第1の画像、前記第1の画像において検出された第1の被写体を表す第1の被写体情報、第2の画像、及び前記第2の画像において検出された第2の被写体を表す第2の被写体情報を取得する取得手段と、前記第1の画像と前記第2の画像とを合成することにより合成画像を生成する合成手段と、前記第1の被写体情報及び前記第2の被写体情報の類似性が所定の基準を満たす場合、前記第1の被写体情報及び前記第2の被写体情報のいずれか一方を前記合成画像に関連付けて記録し、前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たさない場合、前記第1の被写体情報及び前記第2の被写体情報の両方を前記合成画像に関連付けて記録する記録手段と、を備えることを特徴とする画像処理装置を提供する。
【選択図】図4
【解決手段】第1の画像、前記第1の画像において検出された第1の被写体を表す第1の被写体情報、第2の画像、及び前記第2の画像において検出された第2の被写体を表す第2の被写体情報を取得する取得手段と、前記第1の画像と前記第2の画像とを合成することにより合成画像を生成する合成手段と、前記第1の被写体情報及び前記第2の被写体情報の類似性が所定の基準を満たす場合、前記第1の被写体情報及び前記第2の被写体情報のいずれか一方を前記合成画像に関連付けて記録し、前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たさない場合、前記第1の被写体情報及び前記第2の被写体情報の両方を前記合成画像に関連付けて記録する記録手段と、を備えることを特徴とする画像処理装置を提供する。
【選択図】図4
Description
本発明は、画像処理装置、撮像装置、画像処理方法、及びプログラムに関する。
近年、深層学習などといった人工知能(Artificial Intelligence:AI)技術が様々な技術分野で活用されつつある。例えば、従来、デジタルスチルカメラなどにおいて、撮影された画像から人の顔を検出する機能が知られている。また、特許文献1には、検出対象を人に限らず、犬や猫といった動物などを精度よく検出し、認識する技術が開示されている。
また、HDR合成や多重合成など、複数の素材画像を合成して合成画像を作成する技術が知られている。この技術に関連して、特許文献2は、主被写体を含む画像(素材画像)の撮影情報のみを合成後の画像に付加して記録することを開示している。
AI技術などを用いて素材画像の被写体情報を推定して記録し、複数の素材画像を合成して合成画像を生成する場合を考える。この場合において、各素材画像の被写体情報を全て無条件に合成画像に関連付けると、素材画像間の被写体情報の類似性によっては、合成画像に関連付けられた被写体情報が冗長になり、被写体情報の使い勝手が低下する可能性がある。しかしながら、従来技術では、この問題に対処できない。
本発明はこのような状況に鑑みてなされたものであり、合成画像に関連付けられる被写体情報の冗長性を抑制するように、各素材画像の被写体情報を合成画像に関連付ける技術を提供することを目的とする。
上記課題を解決するために、本発明は、第1の画像、前記第1の画像において検出された第1の被写体を表す第1の被写体情報、第2の画像、及び前記第2の画像において検出された第2の被写体を表す第2の被写体情報を取得する取得手段と、前記第1の画像と前記第2の画像とを合成することにより合成画像を生成する合成手段と、前記第1の被写体情報及び前記第2の被写体情報の類似性が所定の基準を満たす場合、前記第1の被写体情報及び前記第2の被写体情報のいずれか一方を前記合成画像に関連付けて記録し、前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たさない場合、前記第1の被写体情報及び前記第2の被写体情報の両方を前記合成画像に関連付けて記録する記録手段と、を備えることを特徴とする画像処理装置を提供する。
本発明によれば、合成画像に関連付けられる被写体情報の冗長性を抑制することが可能となる。
なお、本発明のその他の特徴及び利点は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
また、以下の説明では、推論モデルを使用して被写体分類を行う画像処理装置として、デジタルカメラ(撮像装置)を例示する。しかしながら、以下の実施形態において、画像処理装置はデジタルカメラに限定されない。以下の実施形態における画像処理装置は、以下で説明するデジタルカメラの機能を備える装置であればいかなる装置であってもよく、例えば、スマートフォン又はタブレットPCなどであってもよい。
[第1の実施形態]
●デジタルカメラ100の構成
図1は、デジタルカメラ100の構成例を示すブロック図である。バリア10は、デジタルカメラ100の撮影レンズ11を含む撮像部を覆う事により、撮像部の汚れや破損を防止する保護部材である。バリア10の動作は、バリア制御部43により制御される。撮影レンズ11は、光学像を撮像素子13の撮像面に結像させる。シャッター12は、絞り機能を備える。撮像素子13は、例えば、CCDやCMOSセンサ等で構成され、シャッター12を介して撮影レンズ11により撮像面上に結像された光学像を電気信号に変換する。
●デジタルカメラ100の構成
図1は、デジタルカメラ100の構成例を示すブロック図である。バリア10は、デジタルカメラ100の撮影レンズ11を含む撮像部を覆う事により、撮像部の汚れや破損を防止する保護部材である。バリア10の動作は、バリア制御部43により制御される。撮影レンズ11は、光学像を撮像素子13の撮像面に結像させる。シャッター12は、絞り機能を備える。撮像素子13は、例えば、CCDやCMOSセンサ等で構成され、シャッター12を介して撮影レンズ11により撮像面上に結像された光学像を電気信号に変換する。
A/D変換器15は、撮像素子13から出力されたアナログの画像信号をデジタルの画像信号に変換する。A/D変換器15で変換されたデジタルの画像信号は、所謂RAW画像データとして、メモリ25に書き込まれる。併せて、撮影時の情報を基に各RAW画像データに対応する現像パラメータが生成され、メモリ25に書き込まれる。現像パラメータは、露光設定、ホワイトバランス、色空間、コントラストなど、JPEG方式などで画像を記録するための画像処理で使用される各種パラメータから構成される。
タイミング発生部14は、メモリ制御部22及びシステム制御部50により制御され、撮像素子13、A/D変換器15、及びD/A変換器21にクロック信号や制御信号を供給する。
画像処理部20は、A/D変換器15からのデータ又はメモリ制御部22からのデータに対して所定の画素補間処理、色変換処理、補正処理、リサイズ処理、画像合成処理などの各種画像処理を行う。また、画像処理部20は、撮像して得られた画像データを用いて所定の画像処理や演算処理を行い、得られた演算結果をシステム制御部50に提供する。システム制御部50は、提供された演算結果に基づいて露光制御部40及び焦点制御部41を制御することにより、AF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を実現する。
本実施形態では、システム制御部50は、露出の異なる2つの露出設定で撮影を行うことができる。1つ目の露出設定は「適露出設定」であり、システム制御部50がAE(自動露出)処理の結果を露光制御部40にフィードバックすることにより、適切な露光の画像が得られる。2つ目の露出設定は「アンダー露出設定」であり、システム制御部50がAE(自動露出)処理の結果に対して露出を下げるオフセットを持たせて露光制御部40にフィードバックすることにより、暗い露光の画像が得られる。
また、画像処理部20は、撮像して得られた画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてAWB(オートホワイトバランス)処理も行う。更に、画像処理部20は、メモリ25に格納された画像データを読み込んで、JPEG方式、MPEG-4 AVC方式、HEVC(High Efficiency Video Coding)方式、又は非圧縮のRAWデータに対する可逆圧縮方式などの方式により、圧縮処理又は伸長処理を行う。そして、画像処理部20は、処理を終えた画像データをメモリ25に書き込む。
また、画像処理部20は、撮像して得られた画像データを用いて所定の演算処理を行い、各種画像データの編集処理を行う。例えば、画像処理部20は、画像データの周囲にある不要な部分を非表示にすることで画像の表示範囲やサイズを調整するトリミング処理、及び、画像データや画面の表示要素などを拡大又は縮小して大きさを変更するリサイズ処理を行うことができる。更に、画像処理部20は、非圧縮のRAWデータに対する可逆圧縮方式により圧縮処理又は伸長処理を行ったデータに対して色変換などの画像処理を加え、JPEG形式に変換して画像データを作成する、RAW現像を行うことができる。また、画像処理部20は、MPEG-4などの動画フォーマットの指定フレームを切り出してJPEG形式に変換して保存する動画切り出し処理を行うことができる。
また、画像処理部20は、複数の画像データを合成する合成処理回路を備える。画像処理部20は、加算合成処理、加重加算合成処理、及び領域指定合成処理を実行可能である。領域指定合成処理は、素材画像ごとに合成に用いる領域を指定し、各素材画像の指定された領域を合成する処理である。
また、画像処理部20は、表示用の画像データと共に、表示部23に表示するメニューや任意の文字等のOSD(On-Screen Display)を重畳させる処理等も行う。
更に、画像処理部20では、入力された画像データや撮影時の撮像素子13などから得られる被写体との距離情報などを利用して、画像データ内に存在する被写体を検出して、その被写体領域を検出する被写体検出処理を行う。検出できる情報(被写体検出情報)として、画像内における被写体領域の位置、大きさ、及び傾きなどの情報や、確からしさの情報などがある。
メモリ制御部22は、A/D変換器15、タイミング発生部14、画像処理部20、画像表示メモリ24、D/A変換器21、及びメモリ25を制御する。A/D変換器15により生成されたRAW画像データは、画像処理部20及びメモリ制御部22を介して、又は、直接メモリ制御部22を介して、画像表示メモリ24又はメモリ25に書き込まれる。
画像表示メモリ24に書き込まれた表示用の画像データは、D/A変換器21を介して、TFT LCDなどにより構成される表示部23に表示される。表示部23を用いて、撮像して得られた画像データを逐次表示すれば、ライブ画像を表示する電子ファインダ機能を実現することが可能である。
メモリ25は、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備え、撮影した静止画像や動画像を格納する。また、メモリ25はシステム制御部50の作業領域としても使用することが可能である。
露光制御部40は、絞り機能を備えるシャッター12を制御する。また、露光制御部40は、フラッシュ44と連動することによりフラッシュ調光機能も有する。焦点制御部41は、システム制御部50からの指示に基づいて撮影レンズ11に含まれる不図示のフォーカスレンズを駆動することで、焦点調節を行う。ズーム制御部42は、撮影レンズ11に含まれる不図示のズームレンズを駆動することで、ズーミングを制御する。フラッシュ44は、AF補助光の投光機能、フラッシュ調光機能を有する。
システム制御部50は、デジタルカメラ100全体を制御する。不揮発性メモリ51は、電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。なお、不揮発性メモリ51には、プログラムだけでなく、地図情報等も記録されている。
シャッタースイッチ61(SW1)は、シャッターボタン60の操作途中でONとなり、AF処理、AE処理、AWB処理、EF処理などの動作開始を指示する。シャッタースイッチ62(SW2)は、シャッターボタン60の操作完了でONとなり、露光処理、現像処理、記録処理を含む一連の撮影動作の開始を指示する。露光処理では、撮像素子13から読み出された信号を、A/D変換器15及びメモリ制御部22を介して、RAW画像データとしてメモリ25に書き込むことが行われる。現像処理では、画像処理部20やメモリ制御部22での演算により、メモリ25に書き込まれたRAW画像データを現像して画像データとしてメモリ25に書き込むことが行われる。記録処理では、メモリ25から画像データを読み出し、画像処理部20により圧縮を行い、圧縮した画像データをメモリ25に格納した後にカードコントローラ90を介して外部記録媒体91に書き込むことが行われる。
操作部63は、各種ボタンやタッチパネルなどの操作部材を備える。例えば、操作部63は、電源ボタン、メニューボタン、撮影モード/再生モード/その他特殊撮影モードの切替えを行うモード切替えスイッチ、十字キー、セットボタン、マクロボタン、マルチ画面再生改ページボタンを含む。また、例えば、操作部63は、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動-(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタンなどを含む。
メタデータ生成・解析部70は、外部記録媒体91に画像データを記録する際に、撮影時の情報を基に、画像データに添付するExif(Exchangeable image file format)規格の情報などの、様々なメタデータを生成する。また、メタデータ生成・解析部70は、外部記録媒体91に記録されている画像データを読み込んだ際に、画像データに付与されているメタデータの解析を行う。メタデータとしては、例えば、撮影時の撮影設定情報、画像データに関する画像データ情報、画像データに含まれる被写体の特徴情報などが挙げられる。また、動画像データを記録する際には、メタデータ生成・解析部70は、各フレームについてメタデータを生成し、付与することもできる。
電源80は、アルカリ電池やリチウム電池等の一次電池、NiCd電池、NiMH電池、若しくはLi電池等の二次電池、又はACアダプター等を含む。電源制御部81は、電源80から供給される電力をデジタルカメラ100の各部に供給する。
カードコントローラ90は、メモリカード等の外部記録媒体91とデータの送受信を行う。外部記録媒体91は、例えばメモリカードで構成され、デジタルカメラ100が撮影した画像(静止画、動画)を記録する。
推論エンジン73は、推論モデル記録部72に記録された推論モデルを用いて、システム制御部50を介して入力された画像データに対して推論を行う。システム制御部50は、通信部71を通じて外部装置(不図示)から入力された推論モデルを、推論モデル記録部72に記録することができる。また、システム制御部50は、学習部74を用いて推論モデルの再学習を行うことにより得られた推論モデルを推論モデル記録部72に記録することができる。なお、推論モデル記録部72に記録された推論モデルは、外部装置からの推論モデルの入力や学習部74を用いる推論モデルの再学習により更新される可能性がある。そのため、推論モデルのバージョンを識別できるように、推論モデル記録部72はバージョン情報を保持する。
また、推論エンジン73は、ニューラルネットワーク・デザイン73aを有する。ニューラルネットワーク・デザイン73aは、入力層と出力層の間に中間層(ニューロン)が配置された構成を持つ。入力層には、システム制御部50から画像データが入力される。中間層としては、何層かのニューロンが配置されている。ニューロンの層の数は設計上適宜決められる。また、各層におけるニューロンの数も設計上適宜決められる。中間層では、推論モデル記録部72に記録された推論モデルに基づいて、重み付けがなされる。出力層には、入力層に入力された画像データに応じた推論結果が出力される。
本実施形態では、推論モデル記録部72に記録された推論モデルとして、画像に含まれる被写体がどのようなものであるかの分類を推論する推論モデルを想定する。様々な被写体の画像データと、その分類(例えば、犬、猫などの動物の分類や、人、動物、植物、建物などの被写体種類の分類など)の結果とを教師データとして、深層学習により生成された推論モデルが使用される。従って、画像、及びこの画像において検出された被写体の領域を示す情報が、推論モデルを用いる推論エンジン73に入力されると、この被写体の分類(種類)を示す推論結果が出力される。
学習部74は、システム制御部50等から依頼を受けて、推論モデルの再学習を行う。学習部74は、教師データ記録部74aを有する。教師データ記録部74aは、推論エンジン73のための教師データに関する情報を記録する。学習部74は、教師データ記録部74aに記録されている教師データを用いて、推論エンジン73を再学習させ、推論モデル記録部72を用いて、推論エンジン73を更新することができる。
通信部71は、送信及び受信を行うための通信回路を有する。通信回路が行う通信は、具体的にはWi-FiやBluetooth(登録商標)などの無線通信でも良いし、イーサネットやUSBなどの有線通信でもよい。
●HDR撮影処理及びHDR合成処理
次に、図2~図6を参照して、デジタルカメラ100が実行するHDR撮影処理及びHDR合成処理について説明する。図2は、デジタルカメラ100が実行するHDR撮影処理のフローチャートである。本フローチャートの各ステップの処理は、特に断らない限り、デジタルカメラ100のシステム制御部50がプログラムに従ってデジタルカメラ100の各構成要素を制御することにより実現される。デジタルカメラ100の動作モードがHDR撮影モードに設定されると、本フローチャートのHDR撮影処理が開始する。なお、ユーザは、操作部63の操作により表示部23にメニュー画面を表示し、メニュー画面においてHDR撮影モードを選択することにより、デジタルカメラ100の動作モードをHDR撮影モードに設定することができる。
次に、図2~図6を参照して、デジタルカメラ100が実行するHDR撮影処理及びHDR合成処理について説明する。図2は、デジタルカメラ100が実行するHDR撮影処理のフローチャートである。本フローチャートの各ステップの処理は、特に断らない限り、デジタルカメラ100のシステム制御部50がプログラムに従ってデジタルカメラ100の各構成要素を制御することにより実現される。デジタルカメラ100の動作モードがHDR撮影モードに設定されると、本フローチャートのHDR撮影処理が開始する。なお、ユーザは、操作部63の操作により表示部23にメニュー画面を表示し、メニュー画面においてHDR撮影モードを選択することにより、デジタルカメラ100の動作モードをHDR撮影モードに設定することができる。
S202において、システム制御部50は、ユーザによる撮影指示が行われたか否かを判定する。ユーザは、シャッターボタン60の押下により、シャッタースイッチ61(SW1)及び62(SW2)をONにすることにより、撮影指示を行うことができる。システム制御部50は、ユーザによる撮影指示が行われるまでS202において判定処理を繰り返す。ユーザによる撮影指示が行われると、処理ステップはS203へ進む。
S203において、システム制御部50は、適露出設定での撮影処理(適撮影処理)を行う。適撮影処理では、システム制御部50は、焦点制御部41及び露光制御部40を用いて、AF(オートフォーカス)処理及びAE(自動露出)処理を行った上で、撮像素子13からA/D変換器15を介して出力される画像信号をメモリ25に保存する。このとき、システム制御部50は、AE(自動露出)処理の結果を適露出設定で露光制御部40にフィードバックすることにより、適切な露光の画像が得られるように制御する。また、画像処理部20は、メモリ25に保存した画像信号に対してユーザの設定に応じた圧縮処理を行うことにより、ユーザの設定に応じた形式(例えばJPEG形式)の画像データを生成し、メモリ25に保存する。
S204において、画像処理部20は、メモリ25に保存された画像信号に対して被写体検出処理を行い、画像に含まれる被写体の情報(被写体検出情報)を取得する。
S205において、システム制御部50は推論エンジン73を用いて、メモリ25に保存された画像信号(素材画像)において検出された被写体に対して推論処理を行う。システム制御部50は、メモリ25に保存された画像信号とS204で取得した被写体検出情報とに基づいて、画像内の被写体領域を特定する。システム制御部50は、画像信号(素材画像)、及び素材画像における被写体領域を示す情報を、推論エンジン73に入力する。推論エンジン73が被写体領域ごとに推論処理を行った結果として、被写体領域に含まれる被写体の分類(種類)を示す推論結果が出力される。なお、推論エンジン73は、推論結果に加えて、推論処理の動作上のデバッグ情報及びログなどの、推論処理に関連する情報を出力しても構わない。
S206において、システム制御部50は、S203で生成された画像データ、S204で取得した被写体検出情報、及びS205で取得した推論結果を含むファイルを、HDR合成の素材画像ファイルとして外部記録媒体91に記録する。
図3は、素材画像ファイルの構成例を示す図である。図3に示すように、素材画像ファイル300は、複数の格納領域に区分されており、Exif規格に従ったメタデータを記憶するExif領域301と、圧縮された画像データを記録する画像データ領域308とを含む。また、素材画像ファイル300は、アノテーション情報を記録するアノテーション情報領域310も含む。素材画像ファイル300がJPEG形式のファイルの場合、複数の格納領域それぞれは、マーカーにより規定される。例えば、ユーザからJPEG形式での画像記録が指示された場合、素材画像ファイル300はJPEG形式で記録される。この場合、S203で生成された画像データがJPEG形式で画像データ領域308に記録され、Exif領域301の情報は、例えばAPP1マーカーなどにより規定される領域に記録される。また、アノテーション情報領域310の情報は、例えばAPP11マーカーなどにより規定される領域に記録される。ユーザからHEIF(High Efficiency Image File Format)形式での画像記録が指示された場合、素材画像ファイル300はHEIFファイル形式で記録される。この場合、Exif領域301及びアノテーション情報領域310の情報は、MetaデータBoxなどに記録される。ユーザからRAW形式での画像記録が指示された場合も同様に、Exif領域301及びアノテーション情報領域310の情報は、MetaデータBoxなどの所定の領域に記録される。
S204で取得された被写体検出情報は、メタデータ生成・解析部70により、Exif領域301に含まれるMakerNote305(メーカー固有のメタデータを原則非公開の形式で記載できる領域)内の被写体検出情報タグ306に記録される。また、推論モデル記録部72に記録された現在の推論モデルのバージョン情報や、S205において推論エンジン73が出力したデバッグ情報などがある場合には、これらの情報は、推論モデル管理情報307としてMakerNote305内に記録される。
S205で取得された推論結果は、アノテーション情報として、アノテーション情報領域310に記録される。アノテーション情報領域310の位置は、アノテーションリンク情報格納タグ302に含まれるアノテーション情報リンク303により指し示される。本実施形態では、アノテーション情報は、XMLやJSONなどのテキスト形式で記載することを想定している。
図2に戻り、S207において、システム制御部50は、アンダー露出設定での撮影処理(アンダー撮影処理)を行う。アンダー撮影処理では、システム制御部50は、S203と同様の処理を行うが、AE(自動露出)処理の結果をアンダー露出設定で露光制御部40にフィードバックすることにより、暗い露光の画像が得られるように制御する。また、システム制御部50は、S203と同様に、ユーザの設定に応じた形式(例えばJPEG形式)の画像データを生成し、メモリ25に保存する。
S208において、画像処理部20は、S204と同様の処理により、アンダー撮影処理で得られた画像に含まれる被写体の情報(被写体検出情報)を取得する。
S209において、システム制御部50は、S205と同様の処理により、アンダー撮影処理で得られた画像信号(素材画像)に含まれる被写体に関する推論結果を取得する。
S210において、システム制御部50は、S206と同様に、S207で生成された画像データ、S208で取得した被写体検出情報、及びS209で取得した推論結果を含むファイルを、HDR合成の素材画像ファイルとして外部記録媒体91に記録する。
その後、処理ステップはS202に戻り、次の撮影指示が行われると、システム制御部50は、再びS203以降の処理を実行する。
図5を参照して、図2のHDR撮影処理により得られる素材画像の例を説明する。素材画像501は、適撮影処理により生成された画像である。素材画像501に対する推論処理により、山504、空507、斜面510、及び雲513に対応する推論結果が得られている。素材画像502は、アンダー撮影処理により生成された画像である。素材画像502に対する推論処理により、山505、空508、斜面511、及び雲514に対応する推論結果が得られている。素材画像501の推論結果は、図6に示すアノテーション情報601として素材画像ファイルに記録され、素材画像502の推論結果は、図6に示すアノテーション情報602として素材画像ファイルに記録される。図6に示すように、アノテーション情報は、被写体の領域及び種類を示す情報を含む推論結果(被写体を表す被写体情報)を、被写体毎に含む。
次に、図4を参照して、HDR合成処理について説明する。本フローチャートの各ステップの処理は、特に断らない限り、デジタルカメラ100のシステム制御部50がプログラムに従ってデジタルカメラ100の各構成要素を制御することにより実現される。デジタルカメラ100の動作モードがHDR合成モードに設定されると、本フローチャートのHDR合成処理が開始する。なお、ユーザは、操作部63の操作により表示部23にメニュー画面を表示し、メニュー画面においてHDR合成モードを選択することにより、デジタルカメラ100の動作モードをHDR合成モードに設定することができる。
S401において、システム制御部50は、ユーザがHDR合成処理の素材画像を選択するためのユーザインタフェース(画像選択UI)を表示部23に表示する。画像選択UIには、例えば、適撮影処理により生成された素材画像がサムネイル表示される。ユーザは、操作部63の操作により、サムネイル表示された素材画像を選択することができる。画像選択UIにおいて素材画像が選択されると、選択された素材画像に対応するアンダー撮影処理により生成された素材画像もHDR合成処理の素材画像として選択される。
なお、1回のHDR撮影処理に含まれる適撮影処理及びアンダー撮影処理により生成される2つの素材画像ファイルは、何らかの方法で相互に関連付けられているものとする。一例として、2つの素材画像ファイルにファイル名に共通する固有の文字列を識別情報として含めることにより、2つの素材画像ファイルを相互に関連付けることができる。
S402において、システム制御部50は、ユーザによる素材画像の選択が完了したか否かを判定する。システム制御部50は、ユーザによる素材画像の選択が完了するまでS402において判定処理を繰り返す。ユーザによる素材画像の選択が完了すると、処理ステップはS403へ進む。
S403において、システム制御部50は、S402で選択された素材画像に対応する素材画像ファイルを外部記録媒体91から読み出し、メモリ25に保存する。
S404において、システム制御部50は、S403でメモリ25に保存された素材画像ファイルをパース(解析)し、画像データ(素材画像)、被写体検出情報、及び推論結果を取り出す。
S405において、画像処理部20は、S404で得られた2つの素材画像を合成することにより、輝度のダイナミックレンジが拡大されたHDR合成画像を生成する。ここでの合成方法としては、画像合成によりHDR合成画像を生成する技術分野における任意の既存の合成方法を使用することができる。一例として、画像処理部20は、2つの素材画像の対応する位置における輝度の比較に基づいて、どちらの素材画像の画素が適正露光画素であるかを画素単位で判定する。そして、画像処理部20は、2つの素材画像に含まれる適正露光画素を合成することにより、HDR合成画像を生成する。生成されたHDR合成画像は、メモリ25に保存される。
図5のHDR合成画像503は、S405において生成されるHDR合成画像の例である。この例では、斜面510については、素材画像501に含まれる斜面510の画素が合成されており、山505、空508、及び雲514については、素材画像502に含まれる山505、空508、及び雲514の画素が合成されている。
S406において、システム制御部50は、記録対象から除外する推論結果を決定する。具体的には、システム制御部50は、2つの素材画像間で類似している推論結果を識別する。例えば、図5に示した素材画像501及び502の場合、山504及び505、空507及び508、斜面510及び511、並びに雲513及び514の各組合せが、素材画像501と素材画像502との間で類似している推論結果として識別される。2つの推論結果(例えば、山504及び505)が2つの素材画像間で類似している場合、その両方がHDR合成画像に関連付けて記録されると、HDR合成画像が冗長な推論結果を含むことになるため、ユーザにとって使い勝手が低下する。そこで、システム制御部50は、2つの推論結果(例えば山504及び505)が2つの素材画像間で類似している場合、そのうちの1つを記録対象から除外する。
ここで、2つの素材画像間で類似している推論結果を識別する方法の例について説明する。システム制御部50は、一方の素材画像の推論結果(例えば、山504)と他方の素材画像の推論結果(山505)との類似性が所定の基準を満たすか否かを判定する。この類似性に関する所定の基準が満たされる場合に、システム制御部50は、これら2つの推論結果を、2つの素材画像間で類似している推論結果として識別することができる。類似性に関する所定の基準は特に限定されないが、一例として、被写体領域の重複度合いに基づく基準を採用することができる。例えば、一方の素材画像の推論結果により特定される被写体の領域(例えば、アノテーション情報601に含まれる座標(x11, y11, w11, h11)により特定される、山504の矩形領域)と他方の素材画像の推論結果により特定される被写体の領域(例えば、アノテーション情報602に含まれる座標(x21, y21, w21, h21)により特定される、山505の矩形領域)との重複度合いが所定の度合い以上である場合に、システム制御部50は、これら2つの推論結果の類似性が所定の基準を満たすと判定する。
次に、記録対象から除外する推論結果の決定方法について、2つの例を説明する。説明の便宜上、2つの素材画像間で類似している推論結果として、山504及び505に着目する。
第1の例として、システム制御部50は、HDR合成画像において山504に由来する成分と山505に由来する成分のどちらの方が多いかを判定する。山504に由来する成分が山505に由来する成分よりも多い場合、山504の露出が山505よりも適切であり、山504の推論結果の信頼性又は重要性が山505の推論結果よりも高いと考えられる。そこで、システム制御部50は、山505を除外する(即ち、山504が記録される)。反対に、山505に由来する成分が山504に由来する成分よりも多い場合、システム制御部50は、山504を除外する(即ち、山505が記録される)。
第2の例として、システム制御部50は、推論結果が示す被写体の種類の詳細度合いに基づいて、記録対象から除外する推論結果を決定する。図6のアノテーション情報601に示されるように、各被写体の推論結果は、被写体の種類を示す情報を含む。また、被写体の種類を示す情報は、その種類に関する更に詳細な情報を含んでいる場合がある。アノテーション情報601において山504に対応する「被写体1」については、種類が山であり、より詳細には富士山であることを示す情報が存在する。他方、アノテーション情報602において山505に対応する「被写体1」については、種類が山であることを示す情報は存在するが、より詳細な情報は存在しない。そこで、システム制御部50は、被写体の種類を示す情報がより詳細な推論結果が記録されるように、被写体の種類を示す情報が相対的に詳細でない推論結果を除外する。従って、山504及び山505については、山505に対応する推論結果が除外される。
なお、何らかの条件が満たされる場合に、類似している推論結果の除外を行わない構成を採用してもよい。例えば、システム制御部50は、2つの素材画像が所定の撮影モードで撮影された場合、推論結果が類似しているか否かに関わらず、推論結果の除外を行わない(従って、例えば山504及び505の両方が記録される)。所定の撮影モードは、例えば夜景モードである。記録対象から除外する推論結果の決定方法に関する上述の第1の例で説明したように、一般的には、露出が不適切な領域において検出された被写体の推論結果の信頼性又は重要性は低いと考えられる。しかし、夜景モードの場合、露出アンダーの領域において検出された被写体の推論結果がユーザにとって重要な可能性がある。そのため、システム制御部50は、2つの素材画像が夜景モードで撮影された場合、推論結果が類似しているか否かに関わらず、推論結果の除外を行わない。
S407において、システム制御部50は、S405で生成されたHDR合成画像、及び各素材画像の推論結果(S406で除外された推論結果を除く)を、HDR合成画像ファイルとして外部記録媒体91に記録する。また、システム制御部50は、記録される推論結果に対応する被写体検出情報(図2のS204及びS209で得られたもの)をHDR合成画像ファイルに含める。HDR合成画像ファイルの構成としては、図3を参照して説明した素材画像ファイルの構成と同様の構成を用いることができる。
図6のアノテーション情報603は、S407において生成されるHDR合成画像ファイルに含まれるアノテーション情報(即ち、HDR合成画像に関連付けて記録される推論結果)の例である。素材画像501及び502に対応するアノテーション情報601及び602との対比から理解できるように、アノテーション情報603は、記録対象から除外する推論結果の決定方法として上述した第1の例が用いられた場合に対応する。
●撮影処理及び合成処理に関する変形例
上の説明では、合成される2つの素材画像は、異なる露出設定(適露出設定及びアンダー露出設定)での撮影処理により撮影された画像であるものとした。しかしながら、本実施形態の撮影処理における異なる露出設定は、適露出設定及びアンダー露出設定に限定されない。例えば、アンダー露出設定の代わりに、オーバー露出設定を用いてもよい。オーバー露出設定においては、システム制御部50がAE(自動露出)処理の結果に対して露出を上げるオフセットを持たせて露光制御部40にフィードバックすることにより、明るい露光の画像が得られる。
上の説明では、合成される2つの素材画像は、異なる露出設定(適露出設定及びアンダー露出設定)での撮影処理により撮影された画像であるものとした。しかしながら、本実施形態の撮影処理における異なる露出設定は、適露出設定及びアンダー露出設定に限定されない。例えば、アンダー露出設定の代わりに、オーバー露出設定を用いてもよい。オーバー露出設定においては、システム制御部50がAE(自動露出)処理の結果に対して露出を上げるオフセットを持たせて露光制御部40にフィードバックすることにより、明るい露光の画像が得られる。
また、合成される素材画像の数は2つに限定されない。例えば、3つの素材画像を異なる露出設定(例えば、適露出設定、アンダー露出設定、及びオーバー露出設定)で撮影し、これら3つの素材画像を合成する構成を採用してもよい。
また、上の説明では、素材画像の合成処理はHDR合成処理(輝度のダイナミックレンジを拡大する合成処理)であるものとしたが、本実施形態の合成処理はHDR合成処理に限定されず、例えば深度合成処理(被写界深度を拡大する合成処理)であってもよい。この場合、システム制御部50は、異なる露出設定で2つ(又はそれ以上)の素材画像を撮影する代わりに、異なる合焦距離設定で2つ(又はそれ以上)の素材画像を撮影する。
以上説明したように、第1の実施形態によれば、デジタルカメラ100は、複数の素材画像(例えば、素材画像501及び素材画像502)、及び各素材画像において検出された被写体を表す被写体情報(例えば、アノテーション情報601及び602の各被写体の情報)を取得する。また、デジタルカメラ100は、複数の素材画像を合成することにより合成画像(例えば、HDR合成画像503)を生成する。そして、デジタルカメラ100は、被写体情報を合成画像に関連付けて記録する。この記録に際して、1つの素材画像の被写体情報(第1の被写体情報)及び別の素材画像の被写体情報(第2の被写体情報)の類似性が所定の基準を満たす場合、デジタルカメラ100は、第1の被写体情報及び第2の被写体情報のいずれか一方を記録する。これにより、合成画像に関連付けられる被写体情報(推論結果)の冗長性が減少し、ユーザにとって被写体情報(推論結果)の使い勝手が向上する。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
11…撮影レンズ、13…撮像素子、20…画像処理部、25…メモリ、50…システム制御部、51…不揮発性メモリ、72…推論モデル記録部、73…推論エンジン、74…学習部、100…デジタルカメラ
Claims (13)
- 第1の画像、前記第1の画像において検出された第1の被写体を表す第1の被写体情報、第2の画像、及び前記第2の画像において検出された第2の被写体を表す第2の被写体情報を取得する取得手段と、
前記第1の画像と前記第2の画像とを合成することにより合成画像を生成する合成手段と、
前記第1の被写体情報及び前記第2の被写体情報の類似性が所定の基準を満たす場合、前記第1の被写体情報及び前記第2の被写体情報のいずれか一方を前記合成画像に関連付けて記録し、前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たさない場合、前記第1の被写体情報及び前記第2の被写体情報の両方を前記合成画像に関連付けて記録する記録手段と、
を備えることを特徴とする画像処理装置。 - 前記第1の被写体情報により特定される前記第1の被写体の領域と前記第2の被写体情報により特定される前記第2の被写体の領域との重複度合いが所定の度合い以上である場合に、前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たす
ことを特徴とする請求項1に記載の画像処理装置。 - 前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たす場合において、
前記合成画像において前記第1の被写体に由来する成分が前記第2の被写体に由来する成分よりも多い場合、前記記録手段は、前記第1の被写体情報を前記合成画像に関連付けて記録し、
前記合成画像において前記第2の被写体に由来する成分が前記第1の被写体に由来する成分よりも多い場合、前記記録手段は、前記第2の被写体情報を前記合成画像に関連付けて記録する
ことを特徴とする請求項1又は2に記載の画像処理装置。 - 前記第1の被写体情報は前記第1の被写体の種類を示す情報を含み、
前記第2の被写体情報は前記第2の被写体の種類を示す情報を含み、
前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たす場合において、
前記第1の被写体の種類を示す情報が前記第2の被写体の種類を示す情報よりも詳細な場合、前記記録手段は、前記第1の被写体情報を前記合成画像に関連付けて記録し、
前記第2の被写体の種類を示す情報が前記第1の被写体の種類を示す情報よりも詳細な場合、前記記録手段は、前記第2の被写体情報を前記合成画像に関連付けて記録する
ことを特徴とする請求項1又は2に記載の画像処理装置。 - 前記第1の画像及び前記第2の画像は、異なる露出設定で撮影された画像であり、
前記合成手段は、輝度のダイナミックレンジを拡大するように前記第1の画像及び前記第2の画像を合成する
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 - 前記第1の画像及び前記第2の画像が所定の撮影モードで撮影された場合、前記記録手段は、前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たすか否かに関わらず、前記第1の被写体情報及び前記第2の被写体情報の両方を前記合成画像に関連付けて記録する
ことを特徴とする請求項5に記載の画像処理装置。 - 前記所定の撮影モードは、夜景モードである
ことを特徴とする請求項6に記載の画像処理装置。 - 前記第1の画像及び前記第2の画像は、異なる合焦距離設定で撮影された画像であり、
前記合成手段は、被写界深度を拡大するように前記第1の画像及び前記第2の画像を合成する
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 - 前記第1の画像において前記第1の被写体を検出し、前記第2の画像において前記第2の被写体を検出する検出手段と、
前記第1の画像において検出された前記第1の被写体を表す前記第1の被写体情報を生成し、前記第2の画像において検出された前記第2の被写体を表す前記第2の被写体情報を生成する生成手段と、
を更に備え、
前記取得手段は、前記生成手段により生成された前記第1の被写体情報及び前記第2の被写体情報を取得する
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 - 前記生成手段は、前記第1の画像において検出された前記第1の被写体、及び前記第2の画像において検出された前記第2の被写体に対して推論モデルを用いて推論処理を行うことにより、前記第1の被写体情報及び前記第2の被写体情報を生成する
ことを特徴とする請求項9に記載の画像処理装置。 - 請求項1乃至10のいずれか1項に記載の画像処理装置と、
前記第1の画像及び前記第2の画像を生成する撮像手段と、
を備え、
前記取得手段は、前記撮像手段により生成された前記第1の画像及び前記第2の画像を取得する
ことを特徴とする撮像装置。 - 画像処理装置が実行する画像処理方法であって、
第1の画像、前記第1の画像において検出された第1の被写体を表す第1の被写体情報、第2の画像、及び前記第2の画像において検出された第2の被写体を表す第2の被写体情報を取得する取得工程と、
前記第1の画像と前記第2の画像とを合成することにより合成画像を生成する合成工程と、
前記第1の被写体情報及び前記第2の被写体情報の類似性が所定の基準を満たす場合、前記第1の被写体情報及び前記第2の被写体情報のいずれか一方を前記合成画像に関連付けて記録し、前記第1の被写体情報及び前記第2の被写体情報の類似性が前記所定の基準を満たさない場合、前記第1の被写体情報及び前記第2の被写体情報の両方を前記合成画像に関連付けて記録する記録工程と、
を備えることを特徴とする画像処理方法。 - コンピュータを、請求項1乃至10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028383A JP2023124561A (ja) | 2022-02-25 | 2022-02-25 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
US18/172,140 US20230274402A1 (en) | 2022-02-25 | 2023-02-21 | Image processing apparatus, image capturing apparatus, image processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022028383A JP2023124561A (ja) | 2022-02-25 | 2022-02-25 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023124561A true JP2023124561A (ja) | 2023-09-06 |
Family
ID=87761947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022028383A Pending JP2023124561A (ja) | 2022-02-25 | 2022-02-25 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230274402A1 (ja) |
JP (1) | JP2023124561A (ja) |
-
2022
- 2022-02-25 JP JP2022028383A patent/JP2023124561A/ja active Pending
-
2023
- 2023-02-21 US US18/172,140 patent/US20230274402A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230274402A1 (en) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9251765B2 (en) | Image processing device, image processing method, and program for generating composite image | |
JP4574459B2 (ja) | 撮影装置及びその制御方法及びプログラム及び記憶媒体 | |
JP4340806B2 (ja) | 画像処理装置、方法及びプログラム | |
JP5366584B2 (ja) | 撮像装置、画像処理方法およびプログラム | |
JP5782813B2 (ja) | 撮像装置および画像表示方法 | |
JP2006262451A (ja) | 画像記録装置及び方法 | |
KR100797113B1 (ko) | 촬상장치 및 그 제어 방법 | |
JP5889247B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム、並びに撮像装置 | |
KR20190079536A (ko) | 전자기기 | |
JP2010124411A (ja) | 画像処理装置、画像処理方法、および、画像処理プログラム | |
JP2007081732A (ja) | 撮像装置 | |
JP4725854B2 (ja) | 画像表示装置及び画像表示方法 | |
JP6559014B2 (ja) | 撮像装置、その制御方法及びプログラム | |
JP6765919B2 (ja) | 画像処理装置、その制御方法、プログラム | |
JP2023124561A (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP6353585B2 (ja) | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 | |
CN113615156A (zh) | 图像处理设备、图像处理方法、计算机程序和存储介质 | |
JP4812073B2 (ja) | 画像撮像装置、画像撮像方法、プログラムおよび記録媒体 | |
JP2023091494A (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
US20230388533A1 (en) | Image processing apparatus capable of converting image file such that all annotation information can be used, control method therefor, and storage medium | |
JP6235919B2 (ja) | 画像処理装置、撮像装置及びそれらの制御方法、プログラム、並びに記憶媒体 | |
US20230385245A1 (en) | Image processing apparatus capable of efficiently converting image file, control method therefor, and storage medium | |
US20230260299A1 (en) | Image processing apparatus, image processing method, image capturing apparatus, and storage medium | |
JP2010220229A (ja) | 撮像装置及びその制御方法 | |
JP2023118057A (ja) | 画像処置装置及び画像処理方法、撮像装置、プログラム、記憶媒体 |