JP3805145B2 - Imaging apparatus and group photo image forming method - Google Patents

Imaging apparatus and group photo image forming method Download PDF

Info

Publication number
JP3805145B2
JP3805145B2 JP21861599A JP21861599A JP3805145B2 JP 3805145 B2 JP3805145 B2 JP 3805145B2 JP 21861599 A JP21861599 A JP 21861599A JP 21861599 A JP21861599 A JP 21861599A JP 3805145 B2 JP3805145 B2 JP 3805145B2
Authority
JP
Japan
Prior art keywords
image
photographed
subjects
partial image
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21861599A
Other languages
Japanese (ja)
Other versions
JP2001045355A (en
Inventor
哲郎 芦田
幸治 市川
浩一 坂本
紳夫 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP21861599A priority Critical patent/JP3805145B2/en
Publication of JP2001045355A publication Critical patent/JP2001045355A/en
Application granted granted Critical
Publication of JP3805145B2 publication Critical patent/JP3805145B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は撮影装置及び集合写真画像の形成方法に係り、特に、集合した複数の被撮影者を撮影する撮影装置及び集合写真画像の形成方法に関する。
【0002】
【従来の技術】
従来、記念写真やスクール写真等の集合写真のように被写体が複数集合した場合の撮影を写真スタジオ等で行う場合、被撮影者全員がある程度満足する写真を撮影するために複数回撮影を行い、その中で最適と思われる写真を選択していた。
【0003】
しかしながら、被撮影者のうち数人が満足する写真を選択することは可能であっても、被撮影者全員が満足する写真を選択するのは困難であり、何度も撮影し直さなければならない、という問題があった。
【0004】
この問題を解決するため、カメラの向きとほぼ直交する方向へ移動する姿見を設けることにより、ひな壇上の被撮影者が、撮影の直前まで自分の容姿や服装の乱れをチェックすることができる写真撮影スタジオが提案されている(特許第2505388号公報)
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来技術では、直前に自分の容姿や服装の乱れをチェックすることはできても、例えば撮影の瞬間に表情が崩れてしまった場合等には結局撮影し直さなければならず、被撮影者全員が満足する写真を撮影するのは非常に困難であるという問題があった。
【0006】
本発明は、上記問題を解決すべく成されたものであり、被撮影者全員が満足する写真を撮影することができる撮影装置及び集合写真画像の形成方法を提供することが目的である。
【0007】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の発明は、集合した複数の被撮影者の連続撮影を指示する指示手段と、前記指示手段からの指示により撮影された複数の撮影画像を表示する表示手段と、前記表示手段に表示される複数の撮影画像から部分画像を選択するための入力手段と、選択された前記部分画像を抽出する抽出手段と、抽出された部分画像を基準となる合成画像の指定された部分に合成する合成手段と、を有することを特徴としている。
【0008】
指示手段は、集合した複数の被撮影者の撮影、例えば結婚式での集合写真や団体旅行での記念写真の連続撮影を指示する。表示手段は、指示手段からの指示により撮影された複数の撮影画像、すなわち、集合した複数の被撮影者の画像を表示する。画像の表示は、複数の撮影画像を一度に表示してもよいし、切り替えて1画面ずつ表示するようにしてもよい。
【0009】
デジタルカメラの場合の撮影は、例えば所定のタイミングでシャッタを切り、シャッタが開いた時間だけレンズを透過した光がCCD等の撮像装置に電荷として蓄積されることにより行われる。この蓄積された電荷が被写体像を示す画像信号になる。
【0010】
入力手段は、表示手段に表示される複数の撮影画像から部分画像を選択するためのものであり、この入力手段により、例えば各被撮影者が表示手段に表示される複数の撮影画像を見て最も好みの撮影画像を選択し、該選択した撮影画像から自分が写っている部分の部分画像(例えば顔)を選択することができる。
【0011】
抽出手段は、撮影画像から選択された部分の部分画像、例えば顔部分の画像を抽出する。例えば、選択された部分の周辺の画像に対してエッジ検出処理を行うことにより、被撮影者の顔部分の輪郭線を検出し、この輪郭線で囲まれた部分を部分画像として抽出する。なお、胴体部分まで含めた部分画像を抽出してもよい。また、胴体部分まで含めた部分画像を抽出した後、顔部分の部分画像を抽出してもよい。
【0012】
合成手段は、抽出された部分画像を基準となる合成画像の指定された部分、例えば、入力手段により選択された部分画像の位置に合成する。このとき、各部分画像のエッジを若干ぼかすようにして合成してもよい。これにより、より自然な合成画像を得ることができる。また、赤目が発生している場合には、合成する際に必要に応じて赤目軽減補正を行うようにしてもよい。
【0013】
このように、各被撮影者が最適な画像を選択することができると共に、選択された画像を合成することができるため、被撮影者全員が満足する集合写真画像を得ることができる。また、撮影を連続撮影としているため、それぞれの撮影画像における被写体のぶれが少なくなり、より自然な合成画像を得ることができる。
【0014】
請求項2記載の発明は、被撮影者毎に設けられ、かつ集合した複数の被撮影者の撮影を遠隔指示する複数の遠隔指示手段と、複数の前記遠隔指示手段による遠隔指示により撮影された複数の撮影画像から部分画像を選択するための入力手段と、選択された前記部分画像を抽出する抽出手段と、抽出された複数の部分画像を、基準となる合成画像の対応する部分に合成する合成手段と、を有することを特徴としている。
【0015】
遠隔指示手段は、集合した複数の被撮影者の撮影を遠隔指示する。また、この遠隔指示手段は、被撮影者毎に複数設けられている。
【0016】
入力手段は、複数の遠隔指示手段による遠隔指示により撮影された複数の撮影画像から部分画像を選択するためのものである。この場合、例えば撮影画像をLCD等の表示手段に表示させ、各被撮影者が前記表示手段に表示される複数の撮影画像を見て最も好みの撮影画像を入力手段により選択させ、該選択した撮影画像から自分が写っている部分の部分画像を選択させるようにすることができる。
【0017】
また、部分画像の選択を自動的に行うようにしてもよい。例えば、遠隔指示が遠隔指示手段によって各々異なるようにすると共に、被撮影者の位置に応じて使用する遠隔指示手段を予め定めておくことで、遠隔指示に対応する被撮影者の位置を検出することができる。そして、検出した位置から部分画像(例えば、顔)の位置を推定する。
【0018】
抽出手段は、撮影画像から選択された部分の部分画像を抽出する。例えば、選択された部分の周辺の画像に対してエッジ検出処理を行うことにより、被撮影者の輪郭線を検出し、この輪郭線で囲まれた部分の画像を抽出する。
【0019】
合成手段は、抽出された部分画像を基準となる合成画像の対応する部分に合成する。このとき、各部分画像のエッジを若干ぼかすようにして合成してもよい。これにより、より自然な合成画像を得ることができる。
【0020】
このように、各被撮影者がそれぞれ最適なタイミングで遠隔指示手段により撮影の指示をすることができ、該撮影した各撮影画像から各被撮影者の部分画像を抽出して合成するため、被撮影者全員が満足する写真を得ることができる。また、部分画像を自動的に抽出し、自動的に合成写真を得るようにすれば、撮影からプリントするまでの時間を短縮することができる。
【0021】
請求項3記載の発明は、集合した複数の被撮影者の全体を撮影する第1の撮影手段と、前記複数の被撮影者の顔部分を各々撮影する複数の第2の撮影手段と、前記顔部分の部分画像を、前記全体の画像の対応する部分に合成する合成手段と、を有することを特徴としている。
【0022】
第1の撮影手段は、集合した複数の被撮影者の全体を撮影する。第2の撮影手段は、複数の被撮影者の顔部分を各々撮影する。また、第2の撮影手段は、複数設けられ、例えば被撮影者の数分設けられる。
【0023】
合成手段は、顔部分の部分画像を全体の画像の対応する部分に合成する。このとき、顔部分の部分画像のエッジを若干ぼかして合成するようにしてもよい。また、第2の撮影手段は顔部分だけ撮影するため、解像度が高い顔部分の部分画像を得ることができる。従って、赤目軽減補正等の補正処理を精度よく行うことができる。また、全体の画像を予め定めた画像とすれば、被撮影者全員が集まることができない場合でも各々の顔部分の撮影を別々に行い、これらを後で合成することにより集合写真画像を形成することができる。
【0024】
請求項4記載の発明は、集合した複数の被撮影者を連続撮影し、連続撮影された撮影画像を表示し、表示される複数の撮影画像から部分画像を選択し、選択された前記部分画像を抽出し、抽出された部分画像を、基準となる合成画像の指定された部分に合成することにより集合写真画像を形成することを特徴としている。
【0025】
まず、集合した複数の被撮影者、例えば結婚式での集合写真や団体旅行での記念写真の連続撮影を行う。そして、連続撮影した撮影画像を例えばLCD等の表示手段に表示する。撮影画像の表示は、複数の撮影画像を一度に表示してもよいし、切り替えて表示するようにしてもよい。
【0026】
撮影は、前述したように例えば所定のタイミングでシャッタを切り、シャッタが開いた時間だけレンズを透過した光がCCD等の撮像装置に電荷として蓄積されることにより行われる。この蓄積された電荷が被写体像を示す画像信号になる。
【0027】
そして、表示される複数の撮影画像から部分画像を選択する。例えば各被撮影者が表示される複数の撮影画像を見て最も好みの撮影画像を選択し、該選択した撮影画像から自分が写っている部分の部分画像を選択する。
【0028】
次に、撮影画像から選択された部分の部分画像を抽出する。例えば、選択された部分の周辺の画像に対してエッジ検出処理を行うことにより、被撮影者の輪郭線を検出し、この輪郭線で囲まれた部分の画像を抽出する。
【0029】
次に、抽出された部分画像を基準となる合成画像の指定された部分に合成する。このとき、各部分画像のエッジを若干ぼかすようにして合成してもよい。これにより、より自然な合成画像を得ることができる。また、合成する際に必要に応じて赤目軽減補正を行うようにしてもよい。
【0030】
このように、各被撮影者が最適な画像を選択することができると共に、選択された画像を合成することができるため、被撮影者全員が満足する集合写真画像を形成することができる。また、撮影を連続撮影としているため、それぞれの撮影画像における被写体のぶれが少なくなり、より自然な合成画像を得ることができる。
【0031】
請求項5記載の発明は、集合した複数の被撮影者を、該被撮影者各々の指示に応じて撮影し、被撮影者の指示に応じて撮影された撮影画像から部分画像を選択し、選択された前記部分画像を抽出し、抽出された部分画像を、基準となる合成画像の対応する部分に合成することにより集合写真画像を形成することを特徴としている。
【0032】
まず、集合した複数の被撮影者を、該被撮影者の指示に応じて撮影する。すなわち、被撮影者がそれぞれ最適なタイミングで撮影を行う。そして、撮影された複数の撮影画像から部分画像を選択する。この場合、例えば撮影画像をLCD等の表示手段に表示させ、各被撮影者が前記表示手段に表示される複数の撮影画像を見て最も好みの撮影画像を入力手段により選択させ、該選択した撮影画像から自分が写っている部分の部分画像を選択させるようにすることができる。
【0033】
次に、撮影画像から選択された部分の部分画像を、エッジ検出処理等を行うことにより抽出する。
【0034】
そして、抽出された部分画像を基準となる合成画像の指定された部分に合成する。このとき、各部分画像のエッジを若干ぼかすようにして合成してもよい。これにより、より自然な合成画像を得ることができる。また、合成する際に必要に応じて赤目軽減補正を行うようにしてもよい。
【0035】
このように、各被撮影者がそれぞれ最適なタイミングで遠隔指示手段により撮影の指示をすることができ、該撮影した各撮影画像から各被撮影者の部分画像を抽出して合成するため、被撮影者全員が満足する写真を得ることができる。また、自動的に合成写真を得ることができるため、撮影からプリントするまでの時間を短縮することができる。
【0036】
請求項6記載の発明は、集合した複数の被撮影者の全体と複数の前記被撮影者の顔部分とを各々撮影し、前記顔部分の画像を、前記全体の画像の対応する部分に合成することにより集合写真画像を形成することを特徴としている。
【0037】
まず、集合した複数の被撮影者の全体と複数の被撮影者の顔部分とを各々撮影する。そして、顔部分の画像を、全体の画像の対応する部分に合成する。このとき、顔部分の部分画像のエッジを若干ぼかして合成するようにしてもよい。また、被撮影者の顔の部分だけ撮影するため、解像度が高い顔部分の部分画像を得ることができる。従って、赤目軽減補正等の補正処理を精度よく行うことができる。また、全体の画像を予め定めた画像とすれば、被撮影者全員が集まることができない場合でも各々の顔部分の撮影を別々に行い、これらを後で合成することにより集合写真画像を得ることができる。
【0038】
【発明の実施の形態】
[第1の実施の形態]
以下、図面を参照して本発明の第1の実施の形態を詳細に説明する。
【0039】
図2(A)には、本発明が適用された撮影装置としてのデジタルカメラ10の正面図が、図2(B)にはデジタルカメラ10の背面図が示されている。また、図2(C)には、デジタルカメラ10を遠隔操作するためのリモコン70の外観が示されている。図2(A)に示すように、デジタルカメラ10は、シャッタボタン12、レンズ14、ストロボ16、メモリーカード18に撮影した画像を記録するためのメモリーカードドライブ20、リモコン70からの操作信号(本実施の形態では赤外線信号とする)を受信するための受光部22を備えている。また、図2(B)に示すように、デジタルカメラ10の背面には撮影した画像の表示及び各種操作を行うためのタッチパネル58が設けられている。
【0040】
一方、リモコン70はデジタルカメラ10を遠隔操作で撮影するためのレリーズボタン72、レリーズボタン72を押下したときに操作信号を赤外線信号で送信する投光部76を備えている。
【0041】
図1には、デジタルカメラ10のブロック図が示されている。図1に示すように、デジタルカメラ10は制御部24を備えている。制御部24には、駆動回路26が接続されている。駆動回路26には、レンズ14、ストロボ16、シャッタ32、絞り34、及び撮像デバイス36が接続されている。撮像デバイス36は、例えばCCD等の撮像素子を含んで構成される。
【0042】
制御部24では、測距部38により測定された被写体との距離に基づいてオートフォーカス(AF)制御値を定めて駆動回路26へ出力する。駆動回路26では、AF制御値に基づいてレンズ14を駆動させ、自動的に焦点調整を行う。
【0043】
また、制御部24では、測光部40により測定された測光値に基づいて露光制御値、例えば絞り値(絞りの開口量)やシャッタスピード、ストロボ16により発光させるか否か等を定めて駆動回路26へ出力する。そして、シャッタボタン12が押下されると、駆動回路26では、露光制御値に基づいてシャッタ32や絞り34、ストロボ16、撮像デバイス36を駆動させ、レンズ14を透過した被写体像を撮影する。
【0044】
撮像デバイス36のCCDには、露光制御値に応じて入射する光の光量に対応した電荷が蓄積される。蓄積された電荷、すなわち画像信号は、アナログ信号処理部46へ出力される。
【0045】
アナログ信号処理部46では、入力された画像信号に所定のアナログ信号処理(例えばノイズ低減処理)を施し、A/D変換部48へ出力する。A/D変換部48では、入力されたアナログ信号をデジタル信号に変換してデジタル信号処理部50へ出力する。デジタル信号処理部50では、入力されたデジタル信号に所定のデジタル信号処理(例えばシェーディング補正処理)を施し、画像データとしてメモリ54へ出力する。また、メモリ54に出力された画像データの画像はタッチパネル58に表示することができる。タッチパネル58には、画像の他にも、矢印ボタン66、決定ボタン67、終了ボタン68が表示される。
【0046】
なお、デジタルカメラ10は、操作ボタン64で所定の操作を行うことにより、集合写真モードに設定することができる。この場合、シャッタボタン12を1回押下するだけで比較的短い所定時間間隔で連続撮影することができる連写モードになる。
【0047】
連写モードで撮影した画像は、例えばタッチパネル58に表示された矢印ボタン66を操作することにより順次切り替えて表示することができる。タッチパネル58は、指80等で触れた場所の座標値を制御部24へ出力するようになっている。制御部24では、この座標値に基づいて処理を行う。例えば、タッチパネル58に表示された矢印ボタン66を指80で触れると、触れた部分の座標値が制御部24へ出力される。制御部24では、この座標値が予め定めた矢印ボタン66が表示されている領域の座標であるか否かを判断し、矢印ボタン66が押下されたと判断した場合には、表示されている画像を別の画像に切り替える。
【0048】
また、制御部24には、画像処理部60が接続されている。画像処理部60は、例えば図3に示すように被撮影者81〜87の集合写真を撮影した場合において、指80で触れた部分の被撮影者84の画像を抽出することができる。具体的には、例えば指80で抽出したい部分の画像に触れると、タッチパネル58から出力された座標値が画像処理部60に出力され、画像処理部60では、この座標値付近の画像に対してエッジ検出を行うことにより被撮影者の輪郭を検出し、被撮影者のみの画像を抽出する。そして、抽出した部分の画像、すなわち被撮影者のみの画像を強調してタッチパネル58に表示させる。
【0049】
そして、被撮影者が決定ボタン67を押下すると、抽出された部分画像が確定し、メモリ54に一旦記憶される。そして、被撮影者が連写した複数の撮影画像から各被撮影者81〜87が最も好みの部分画像を選択(指80で触れる)して決定ボタン67を押下し、最後に終了ボタン68が押下されると、画像処理部60では、メモリ54に記憶された各々の部分画像の合成を行う。これにより、各被撮影者の好みの部分画像が合成され、被撮影者全員が満足する写真が得られる。
【0050】
また、デジタルカメラ10では、操作ボタン64により所定の操作を行うことにより撮影した画像をメモリカード18へ記憶させることができる。この場合、メモリ54に記憶された画像データは圧縮伸張部56へ出力され、該圧縮伸張部56において所定の画像圧縮処理(例えばJPEG処理)が行われる。圧縮された画像データはメモリカードドライブ20に出力され、メモリカード18に書き込まれる。
【0051】
なお、デジタルカメラ10では、メモリカード18に記憶された圧縮画像データを読み出すこともできる。この場合、メモリカード18から読み出された圧縮画像データは圧縮伸張部56へ出力され、該圧縮伸張部56において伸張処理が施される。これにより、圧縮画像から元の画像に戻される。伸張処理された画像は、タッチパネル58に表示することができる。
【0052】
また、制御部24には、受光部22が接続されている。受光部22は、リモコン70から送信された操作信号を受信する。制御部24では、この操作信号を受信した場合には、デジタルカメラ10のシャッタボタン12が押下された時と同じ動作を行い、被写体の撮影を行う。
【0053】
次に、本実施の形態の作用として、制御部24において実行される制御ルーチンについて図4に示すフローチャートを参照して説明する。なお、以下では、図示しない写真スタジオにおいて集合写真を撮影する場合を例に説明する。
【0054】
まず、図示しない写真スタジオにセットされたデジタルカメラ10の制御部24では、ステップ100でシャッタボタン12が押下されたか否かを判断する。そして、シャッタボタン12が押下されていない場合にはステップ100で否定され、ステップ102で操作信号を受信したか否か、すなわち、リモコン70のレリーズボタン72が押下されたか否かを判断する。
【0055】
シャッタボタン12が押下された場合、及び操作信号を受信した場合、すなわちレリーズボタン72が押下された場合は、ステップ104で集合写真モードか否か、すなわち連写モードか否かを判断する。連写モードでない場合はステップ104で否定され、ステップ106で通常の撮影処理を行う。
【0056】
すなわち、測距部38により測定された被写体との距離に基づいて定めたAF制御及び測光部40により測定された測光値に基づいて定めた露光制御値を駆動回路26へ出力する。駆動回路26では、AF制御値及び露光制御値に基づいてシャッタ32や絞り34、ストロボ16、撮像デバイス36を駆動させ、レンズ14を透過した被写体像を撮影する。
【0057】
そして、撮像デバイス36のCCDに蓄積された電荷、すなわち画像信号がアナログ信号処理部46へ出力される。出力された画像信号は、アナログ信号処理部46で所定のアナログ信号処理が施され、A/D変換部48でアナログ信号からデジタル信号に変換される。デジタル信号に変換された画像信号は、デジタル信号処理部50で所定のデジタル信号処理が施され、画像データとしてメモリ54へ出力される。
【0058】
一方、連写モードの場合にはステップ104で肯定され、ステップ108で連写撮影を行う。すなわち、短い時間間隔でシャッタ32を切り、複数回(例えば5回)連続して撮影処理を行う。これにより、図5に示すように複数の撮影画像90A〜90Eが得られ、メモリ54に記憶される。
【0059】
そして、ステップ110において連写撮影した撮影画像のうち最初に撮影した画像90Aをメモリ54から読み込んでタッチパネル58に表示させる。そして、ステップ112で部分画像が選択されたか否か、すなわち、図3に示すように被撮影者がタッチパネル58に表示された画像の一部(例えば、顔)を指80で触れたか否かを判断する。
【0060】
部分画像が選択された場合、すなわち指80でタッチパネル58を触れていた場合はステップ112で肯定され、ステップ114で指80で触れた部分の部分画像(例えば、顔)を抽出する。具体的には、制御部24が指80で触れた場所の座標値を画像処理部60へ出力する。画像処理部60では、この座標値周辺の画像に対してエッジ検出処理を行い、指80で触れた部分に写っている被撮影者の輪郭線を検出し、この輪郭線で囲まれた部分の画像を部分画像として抽出する。そして、制御部24は抽出した部分画像をタッチパネル58に強調して表示させる。
【0061】
一方、部分画像が選択されていない場合、すなわち指80でタッチパネル58を触れていない場合はステップ112で否定され、ステップ116で矢印ボタン66が押下されたか否かを判断する。矢印ボタン66が押下された場合には、ステップ116で肯定され、ステップ118でタッチパネル58に表示されている撮影画像90Aを次に撮影された撮影画像90Bに切り替える。
【0062】
矢印ボタン66が押下されていない場合には、ステップ116で否定され、ステップ120で決定ボタン67が押下されたか否かを判断する。矢印ボタン67が押下されたと判断した場合には、ステップ120で肯定され、ステップ122でステップ114で抽出した部分画像及び指80で触れた部分の座標値をメモリ54に記憶する。
【0063】
矢印ボタン67が押下されていない場合には、ステップ120で否定され、ステップ124で終了ボタン68が押下されたか否かを判断する。終了ボタン68が押下されていない場合にはステップ124で否定され、ステップ112へ戻って上記と同様の処理を行う。
【0064】
終了ボタン68が押下された場合には、ステップ124で肯定され、ステップ126でメモリ54に記憶された部分画像の画像合成を画像処理部60に指示する。これにより、画像処理部60は、メモリ54から順次部分画像及び指80で触れた部分の座標値を読み出し、該部分画像を基準となる合成画像の指定された部分、すなわち、メモリ54から読み出した座標値に対応する部分に合成する。これにより、元々写っていた位置に自分の部分画像が合成される。なお、基準となる合成画像は、各撮影画像のうちの何れか1つを選べばよい。
【0065】
そして、合成された画像は、ステップ128でメモリ54に記憶される。そして、合成した画像を例えばメモリカードドライブ20によりメモリカード18に記憶させ、このメモリカード18に記憶された画像を図示しないプリント装置によりプリントする。
【0066】
このようにして、被撮影者81〜87の各自がタッチパネル58に表示される撮影画像90A〜90Eを適宜切り替ながら確認し、最も好みの画像を選択する。例えば、図10(A)に示すような口が少し開いた撮影画像は選択せず、図10(B)に示すように口が閉まった撮影画像を選択する。このようにして各自が最も好みの撮影画像を選択し、選択された画像から部分画像を抽出して合成することにより、図5に示すような合成画像92が得られる。図5の場合では、被撮影者81は撮影画像90Bを、被撮影者82は撮影画像90Cを、被撮影者83は撮影画像90Bを、被撮影者84は撮影画像90Eを、被撮影者85は撮影画像90Aを、被撮影者86は撮影画像90Bの画像を、被撮影者87は撮影画像90Bをそれぞれ選択している。なお、合成する際に、部分画像のエッジ又は基準となる合成画像の前記部分画像が合成される部分のエッジを若干ぼかし気味にして合成するようにしてもよく、双方をぼかし気味にして合成するようにしてもよい。また、部分画像が基準となる合成画像に透け込むように合成したり、とけ込むように合成するようにしてもよい。このようにすることで、より自然な合成画像を得ることができる。また、合成する際に赤目軽減等の画像処理を施してもよい。さらに、顔部分を抽出して合成する際には、図11に示すように、顔の表情部分のみを抽出して合成するようにしてもよい。
【0067】
このように、被撮影者が複数の撮影画像から最も好みの撮影画像を選択することができるため、被撮影者全員が満足する写真画像を得ることができる。また、撮影画像90A〜90Eは連写撮影した画像のため、それぞれの撮影画像における被撮影者のぶれが少ない。従って、合成した画像に違和感が発生するのを防ぐことができる。
【0068】
なお、顔全体の部分画像でなく、顔の中心部又は一部の部分画像を抽出して基準となる合成画像に合成してもよい。また、胴体まで含めた部分画像を抽出し、この部分画像を基準となる合成画像に合成してもよい。また、デジタルカメラ10に設けたタッチパネル58に撮影画像を表示するのではなく、別に設けたモニタに撮影画像を表示し、マウスやキーボード等による操作で部分画像を選択して合成するようにしてもよい。
[第2の実施の形態]
以下、図面を参照して第2の実施の形態を詳細に説明する。
【0069】
第2の実施の形態では、被撮影者全員(本実施の形態では一例として7人とする)がリモコン70A〜70Gを持ち、各自がそれぞれレリーズボタン72を押下することにより各自撮影する。なお、第1の実施の形態におけるデジタルカメラ10及びリモコン70と同一部分には同一符号を付し、その詳細な説明は省略する。
【0070】
第2の実施の形態では、被撮影者が立つ位置は予め定められており、この立つ位置に応じて使用するリモコン70A〜70Gも決められている。例えば、図5に示すように被撮影者81〜87が並んだ場合、被撮影者81はリモコン70Aを、被撮影者82はリモコン70Bを、被撮影者83はリモコン70Cを、被撮影者84はリモコン70Dを、被撮影者85はリモコン70Eを、被撮影者86はリモコン70Fを、被撮影者87はリモコン70Gをそれぞれ使用する。
【0071】
そして、各リモコン70が送信する操作信号のコード、すなわちリモコンコードは各々異なっている。そして、デジタルカメラ10のメモリ54には、このリモコンコードと被撮影者の位置、例えば顔の部分や胴体の一部分の位置を示す位置データとが対応つけられたテーブルデータが記憶されている。なお、位置データは、例えば座標値として表される。従って、デジタルカメラ10では、テーブルデータを参照することによりどの位置から操作信号が送信されたかを把握することができる。
【0072】
次に、第2の実施の形態の作用を説明する。
【0073】
図6には、制御部24において実行される制御ルーチンのフローチャートが示されている。
【0074】
まず、図示しない写真スタジオにセットされたデジタルカメラ10の制御部24では、ステップ200で操作信号を受信したか否か、すなわち、被撮影者81〜87の何れかがリモコン70のレリーズボタン72を押下したか否かを判断する。そして、操作信号を受信した場合は、ステップ200で肯定され、ステップ204で撮影処理が行われる。
【0075】
すなわち、測距部38により測定された被写体との距離に基づいて定めたAF制御及び測光部40により測定された測光値に基づいて定めた露光制御値を駆動回路26へ出力する。駆動回路26では、AF制御値及び露光制御値に基づいてシャッタ32や絞り34、ストロボ16、撮像デバイス36を駆動させ、レンズ14を透過した被写体像を撮影する。
【0076】
そして、撮像デバイス36のCCDに蓄積された電荷、すなわち画像信号がアナログ信号処理部46へ出力される。出力された画像信号は、アナログ信号処理部46で所定のアナログ信号処理が施され、A/D変換部48でアナログ信号からデジタル信号に変換される。デジタル信号に変換された画像信号は、デジタル信号処理部50で所定のデジタル信号処理が施され、画像データとしてメモリ54へ出力される。
【0077】
次のステップ206では、集合写真モードか否かを判断する。集合写真モードでない場合はステップ206で否定され、ステップ200へ戻る。一方、集合写真モードの場合にはステップ206で肯定され、ステップ208で受信した操作信号に対応する被撮影者の画像を撮影した画像から抽出する。
【0078】
具体的には、受信した操作信号のリモコンコードに対応する被撮影者の位置データ、例えば座標値をメモリ54に記憶されたテーブルデータから読み出し、この座標値を画像処理部60へ出力する。画像処理部60では、この座標値周辺の画像に対してエッジ検出処理を行い、レリーズボタン72を押下した被撮影者の輪郭線(例えば顔の輪郭線)を検出し、この輪郭線で囲まれた部分の画像を抽出する。そして、画像処理部60は、抽出した画像を制御部24へ出力する。
【0079】
制御部24では、ステップ210において、画像処理部60から出力された部分画像をメモリ54へ記憶させる。そして、ステップ212で撮影が終了したか否かを判断する。
【0080】
この判断は、具体的には以下のようにして行う。例えば被撮影者の数、すなわちレリーズボタン72が押下される回数をデジタルカメラ10のメモリ54に予め記憶させておいて、操作信号を受信する毎にカウントアップし、カウント値が被撮影者の数と一致した場合にすべての撮影が終了したと判断する。これにより、自動的に撮影が終了したことを判断することができる。また、操作ボタン64により所定の操作が成された場合、又は終了を示すリモコンコードを予め定めておき、受信した操作信号のリモコンコードが前記終了を示すリモコンコードだった場合を撮影終了として判断するようにしてもよい。
【0081】
撮影終了と判断されなかった場合には、ステップ212で否定され、ステップ200へ戻って次の撮影が行われるまで待機する。撮影終了と判断された場合にはステップ212で肯定され、ステップ214でメモリ54に記憶された部分画像の画像合成を画像処理部60に指示する。これにより、画像処理部60は、メモリ54から順次部分画像及びリモコンコードに対応する座標値を読み出し、該部分画像を基準となる合成画像の対応する部分、すなわち、該部分画像を基準となる合成画像の指定された部分、すなわち、メモリ54から読み出した座標値に対応する部分に合成する。これにより、元々写っていた位置に自分の部分画像が合成される。なお、基準となる合成画像は、各撮影画像のうちの何れか1つを選べばよい。
【0082】
そして、合成された画像は、ステップ216でメモリ54に記憶される。そして、合成した画像を例えばメモリカードドライブ20によりメモリカード18に記憶させ、このメモリカード18に記憶された画像を図示しないプリント装置によりプリントする。
【0083】
このようにして、被撮影者81〜87の各自が順次最適なタイミング、例えば身だしなみを整え、最もよい表情で撮影できるタイミングでレリーズボタン72を押下して撮影する。そして、撮影した画像から各被撮影者の部分画像を抽出して合成することにより、図5に示すような合成画像92が得られる。
【0084】
このように、被撮影者がそれぞれ最適なタイミングで撮影し、該撮影した各撮影画像から各被撮影者の部分画像を抽出して合成するため、被撮影者全員が満足する写真画像を得ることができる。また、自動的に合成写真を得ることができるため、撮影からプリントするまでの時間を短縮することができる。なお、撮影した画像をタッチパネルやモニタに表示し、被撮影者に部分画像を選択させるようにしてもよい。
[第3の実施の形態]
以下、図面を参照して第3の実施の形態を詳細に説明する。
【0085】
第3の実施の形態では、図7に示すように、被撮影者81〜87の全員を撮影するデジタルカメラ10A、各被撮影者の顔の部分を撮影するデジタルカメラ10B〜10Hが設置されている。なお、デジタルカメラ10A〜10Hについて、第1の実施の形態におけるデジタルカメラ10と同一部分には同一符号を付し、その詳細な説明は省略する。
【0086】
ここで、例えば、デジタルカメラ10Bは被撮影者81の顔部分を、デジタルカメラ10Cは被撮影者84の顔部分を、デジタルカメラ10Dは被撮影者82の顔部分を、デジタルカメラ10Eは被撮影者85の顔部分を、デジタルカメラ10Fは被撮影者86の顔部分を、デジタルカメラ10Gは被撮影者83の顔部分を、デジタルカメラ10Hは被撮影者87の顔部分をそれぞれ撮影する。
【0087】
撮影した画像は、図8に示す写真画像形成装置300で合成される。写真画像形成装置300は、制御部302を備えている。制御部302には、画像合成部304、メモリ306、ディスプレイ308、キーボードやマウス等で構成された操作部310、メモリカードドライブ312が接続されている。
【0088】
次に、第3の実施の形態の作用として、制御部302で実行される制御ルーチンについて図9を参照して説明する。
【0089】
まず、被撮影者81〜87全員をデジタルカメラ10Aで撮影する。撮影した全体画像は、メモリカード18Aに記憶される。次にデジタルカメラ10B〜10Hにより被撮影者81〜87の顔部分を撮影する。撮影した部分画像はメモリカード18B〜18Hにそれぞれ記憶される。
【0090】
そして、撮影者がメモリカード18Aを写真画像形成装置300のメモリカードドライブ312にセットすると、写真画像形成装置300の制御部302では、図9に示すステップ400でメモリカード18Aから全体画像を取り込みメモリ306に記憶する。次にメモリカード18Bがセットされると、メモリカード18Bから被撮影者81の顔部分の部分画像を取り込んでメモリ306に記憶する。以下同様にして全ての被撮影者の顔部分の部分画像を取りこむ。
【0091】
次に、制御部302は、ステップ402でメモリ306に記憶された全体画像に被撮影者81〜87の顔部分の部分画像を合成する。この合成は、例えば自動的に行うことができる。具体的には、例えば予め被撮影者81〜87の立つ位置にマークをつけるなどして顔部分が必ず同じ位置にくるようにしておくと共に、顔部分が写る位置の位置データ、例えば座標値を予めメモリ306に記憶しておく。そして、部分画像を全体画像の前記座標値に対応する部分に順次合成していく。これにより自動的に合成することができる。
【0092】
また、全体画像と合成したい顔部分の画像とをディスプレイ308に表示し、表示された画像を見ながら操作部310による操作で顔部分の画像を全体画像の合成したい位置に合成できるようにしてもよい。
【0093】
そして、ステップ404で合成した画像をディスプレイ308に表示し、ステップ406で合成画像を画像処理部304に出力する。画像処理部304では、所定の画像処理、例えば赤目軽減処理等を行い合成画像を修正する。このとき、顔部分の解像度が高いため、精度よく補正することができる。また、操作部310を操作することにより、合成した顔部分の画像の位置を修正できるようにしてもよい。そして、ステップ408で合成した画像をメモリ306又はメモリカードドライブ312によりメモリカード18に記録する。
【0094】
このように、顔部分のみを高解像度で撮影することができるため、顔部分の画像の補正、例えば赤目軽減補正等の処理を精度よく行うことができる。また、各被撮影者を個々に撮影することができるため、全体の画像を固定にしておけば、例えば全員同じ時間に集合できないような場合でも、被撮影者全員が満足する写真画像を得ることができる。例えば、図12(A)、(B)に示すような集合時間に遅れてきて後から撮影したり、別の時に撮影したりした時の上半身や顔のアップの撮影画像から図11に示すような顔の表情部分を抽出して合成することにより被撮影者全員が満足する写真画像を得ることができる。
【0095】
【発明の効果】
以上説明したように、請求項1又は請求項4記載の発明によれば、集合した複数の被写体を撮影する場合においても、複数回撮影した撮影画像から各被写体にとって最適な画像を各々選択して合成することができるため、全体として最適な写真を得ることができる、という効果を有する。
【0096】
請求項2又は請求項5記載の発明によれば、集合した複数の被写体を撮影する場合においても、各被写体がそれぞれ最適なタイミングで遠隔指示手段により撮影の指示をすることができるため、被撮影者全員が満足する写真を得ることができる、という効果を有する。
【0097】
請求項3又は請求項6記載の発明によれば、集合した複数の被撮影者の全体と複数の被撮影者の顔部分とを各々撮影し、顔部分の部分画像を全体の画像の対応する部分に合成するので、赤目軽減補正等の補正処理を精度よく行うことができる、という効果を有する。
【図面の簡単な説明】
【図1】 第1の実施の形態に係るカメラのブロック図である。
【図2】 (A)はカメラの外観図、(B)はカメラの背面図、(C)はリモコンの外観図である。
【図3】 タッチパネルによる操作を説明するための図である。
【図4】 第1の実施の形態における制御部で実行される制御ルーチンの流れを示すフローチャートである。
【図5】 画像合成を説明するための図である。
【図6】 第2の実施の形態における制御部で実行される制御ルーチンの流れを示すフローチャートである。
【図7】 第3の実施の形態における集合写真の撮影を説明するための図である。
【図8】 第3の実施の形態における写真画像形成装置の概略構成を示すブロック図である。
【図9】 第3の実施の形態における制御部で実行される制御ルーチンの流れを示すフローチャートである。
【図10】 撮影画像の一部を示す図である。
【図11】 顔の表情部分のみを抽出した部分画像を示す図である。
【図12】 撮影画像の一例を示す図である。
【符号の説明】
10 デジタルカメラ
12 シャッタボタン(指示手段)
14 レンズ
16 ストロボ
18 メモリカード
20 メモリカードドライブ
22 受光部
24 制御部
26 駆動回路
32 シャッタ
34 絞り
36 撮像デバイス
58 タッチパネル(表示手段、選択手段)
60 画像処理部(合成手段)
70 リモコン(遠隔指示手段)
72 レリーズボタン
76 投光部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a photographing apparatus and a group photograph image forming method, and more particularly to a photographing apparatus for photographing a plurality of grouped subjects and a group photograph image forming method.
[0002]
[Prior art]
Conventionally, when shooting at a photo studio etc. when multiple subjects are gathered like group photos such as commemorative photos and school photos, multiple shots are taken in order to take photos that all the subjects are satisfied to some extent, The photograph that seems to be the best was selected.
[0003]
However, even though it is possible to select photos that some of the subjects are satisfied with, it is difficult to select photos that are satisfied with all of the subjects and must be re-taken many times. There was a problem.
[0004]
In order to solve this problem, by providing a figure that moves in a direction almost orthogonal to the direction of the camera, the photographer on the platform can check their appearance and clothing disorder until just before shooting. A photography studio has been proposed (Japanese Patent No. 2505388).
[0005]
[Problems to be solved by the invention]
However, in the above prior art, even though it is possible to check the appearance and disorder of clothing immediately before, for example, if the facial expression collapses at the moment of shooting, it must be re-taken after all. There was a problem that it was very difficult to take pictures that all photographers were satisfied with.
[0006]
The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a photographing apparatus and a method for forming a group photo image that can photograph a photograph satisfying all subjects.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 displays instruction means for instructing continuous shooting of a plurality of subjects to be photographed and a plurality of photographed images taken by instructions from the instruction means. A display unit; an input unit for selecting a partial image from a plurality of captured images displayed on the display unit; an extraction unit for extracting the selected partial image; and a composition based on the extracted partial image And a synthesizing unit for synthesizing the designated part of the image.
[0008]
The instructing unit instructs to shoot a plurality of subjects to be photographed, for example, to continuously take a group photo at a wedding or a souvenir photo at a group trip. The display means displays a plurality of photographed images taken by an instruction from the instruction means, that is, a set of images of a plurality of subjects. The images may be displayed by displaying a plurality of captured images at a time or switching and displaying one screen at a time.
[0009]
Shooting in the case of a digital camera is performed, for example, by closing the shutter at a predetermined timing and storing light that has passed through the lens as long as the shutter is opened as an electric charge in an imaging device such as a CCD. This accumulated charge becomes an image signal indicating a subject image.
[0010]
The input means is for selecting a partial image from a plurality of photographed images displayed on the display means. With this input means, for example, each subject views a plurality of photographed images displayed on the display means. It is possible to select a photographed image that is most preferred and select a partial image (for example, a face) of a portion in which the photographed person is photographed from the selected photographed image.
[0011]
The extraction unit extracts a partial image of a selected part from the photographed image, for example, an image of a face part. For example, an edge detection process is performed on an image around the selected portion to detect a contour line of the face portion of the photographed person, and a portion surrounded by the contour line is extracted as a partial image. A partial image including the body part may be extracted. Further, after extracting the partial image including the body part, the partial image of the face part may be extracted.
[0012]
The synthesizing unit synthesizes the extracted partial image with a designated portion of the reference synthetic image, for example, the position of the partial image selected by the input unit. At this time, the image may be synthesized by slightly blurring the edges of the partial images. Thereby, a more natural composite image can be obtained. Further, when red eyes are generated, red-eye reduction correction may be performed as necessary when combining.
[0013]
In this way, each photographed person can select an optimal image and the selected images can be combined, so that a group photo image that satisfies all the photographed persons can be obtained. In addition, since the shooting is continuous shooting, there is less subject blur in each shot image, and a more natural composite image can be obtained.
[0014]
The invention according to claim 2 is photographed by remote instruction by a plurality of remote instruction means provided for each person to be photographed and remotely instructing photographing of a plurality of photographed persons gathered. An input unit for selecting a partial image from a plurality of captured images, an extraction unit for extracting the selected partial image, and the plurality of extracted partial images are combined with corresponding portions of a reference composite image. And a synthesizing means.
[0015]
The remote instruction means remotely instructs the photographing of a plurality of subjects to be collected. Further, a plurality of remote instruction means are provided for each subject.
[0016]
The input means is for selecting a partial image from a plurality of photographed images photographed by a remote instruction by a plurality of remote instruction means. In this case, for example, the photographed image is displayed on a display unit such as an LCD, and each photographed person selects a favorite photographed image by viewing the plurality of photographed images displayed on the display unit. It is possible to select a partial image of a part in which the subject is photographed from the photographed image.
[0017]
Alternatively, the partial image may be automatically selected. For example, the remote instruction is made different depending on the remote instruction means, and the position of the subject corresponding to the remote instruction is detected by setting the remote instruction means to be used according to the position of the subject. be able to. Then, the position of the partial image (for example, face) is estimated from the detected position.
[0018]
The extraction unit extracts a partial image of the selected portion from the captured image. For example, an edge detection process is performed on an image around the selected portion to detect a contour line of the subject and an image of a portion surrounded by the contour line is extracted.
[0019]
The synthesizing unit synthesizes the extracted partial image with a corresponding portion of the reference synthesized image. At this time, the image may be synthesized by slightly blurring the edges of the partial images. Thereby, a more natural composite image can be obtained.
[0020]
In this way, each subject can instruct the photographing by the remote instruction means at the optimum timing, and the partial images of each subject are extracted and combined from each photographed image. All photographers can get a satisfying photo. In addition, if a partial image is automatically extracted and a composite photograph is automatically obtained, the time from photographing to printing can be shortened.
[0021]
According to a third aspect of the present invention, there is provided a first photographing unit that photographs the entire plurality of subjects to be photographed, a plurality of second photographing units that respectively photograph the face portions of the plurality of subjects. And combining means for combining a partial image of the face portion with a corresponding portion of the entire image.
[0022]
The first photographing means photographs the entire plurality of subjects to be photographed. The second photographing unit photographs each face portion of the plurality of subjects. Also, a plurality of second photographing means are provided, for example, as many as the number of subjects.
[0023]
The synthesizing unit synthesizes the partial image of the face portion with the corresponding portion of the entire image. At this time, the edge of the partial image of the face portion may be slightly blurred and combined. Further, since the second photographing unit photographs only the face part, it is possible to obtain a partial image of the face part with high resolution. Therefore, correction processing such as red-eye reduction correction can be performed with high accuracy. Also, if the entire image is a predetermined image, even if all the subjects cannot be gathered, each face part is shot separately, and these are combined later to form a group photo image be able to.
[0024]
The invention according to claim 4 continuously shoots a plurality of subjects to be gathered, displays continuously shot photographic images, selects partial images from the displayed photographic images, and selects the selected partial images. And a group photograph image is formed by synthesizing the extracted partial image with a designated portion of a reference synthetic image.
[0025]
First, a plurality of gathered subjects, for example, a group photo at a wedding or a commemorative photo at a group trip are taken continuously. Then, continuously taken images are displayed on a display means such as an LCD. The photographed images may be displayed by displaying a plurality of photographed images at the same time or switching them.
[0026]
As described above, photographing is performed by, for example, closing the shutter at a predetermined timing and accumulating light that has passed through the lens for the time when the shutter is opened as an electric charge in an imaging device such as a CCD. This accumulated charge becomes an image signal indicating a subject image.
[0027]
Then, a partial image is selected from a plurality of displayed captured images. For example, each photographed person views a plurality of captured images to select the most preferred captured image, and selects a partial image of a portion in which he / she is photographed from the selected captured image.
[0028]
Next, a partial image of the selected portion is extracted from the captured image. For example, an edge detection process is performed on an image around the selected portion to detect a contour line of the subject and an image of a portion surrounded by the contour line is extracted.
[0029]
Next, the extracted partial image is combined with the designated portion of the reference composite image. At this time, the image may be synthesized by slightly blurring the edges of the partial images. Thereby, a more natural composite image can be obtained. Further, red-eye reduction correction may be performed as necessary when combining.
[0030]
As described above, each photographed person can select an optimum image and the selected images can be combined, so that a group photo image that satisfies all the photographed persons can be formed. In addition, since the shooting is continuous shooting, there is less subject blur in each shot image, and a more natural composite image can be obtained.
[0031]
The invention according to claim 5 shoots a plurality of gathered subjects in accordance with instructions of each of the subjects, selects a partial image from the photographed images photographed in accordance with the instructions of the subject, The selected partial image is extracted, and the grouped photograph image is formed by combining the extracted partial image with the corresponding portion of the reference composite image.
[0032]
First, a plurality of gathered subjects are photographed according to instructions from the subject. That is, each person to be photographed takes an image at an optimum timing. Then, a partial image is selected from a plurality of photographed images. In this case, for example, the photographed image is displayed on a display unit such as an LCD, and each photographed person selects a favorite photographed image by viewing the plurality of photographed images displayed on the display unit. It is possible to select a partial image of a part in which the subject is photographed from the photographed image.
[0033]
Next, the partial image of the part selected from the captured image is extracted by performing edge detection processing or the like.
[0034]
Then, the extracted partial image is combined with the designated portion of the reference composite image. At this time, the image may be synthesized by slightly blurring the edges of the partial images. Thereby, a more natural composite image can be obtained. Further, red-eye reduction correction may be performed as necessary when combining.
[0035]
In this way, each subject can instruct the photographing by the remote instruction means at the optimum timing, and the partial images of each subject are extracted and combined from each photographed image. All photographers can get a satisfying photo. Further, since a composite photograph can be automatically obtained, the time from photographing to printing can be shortened.
[0036]
According to a sixth aspect of the present invention, the whole of the plurality of subjects to be photographed and the face portions of the subjects to be photographed are respectively photographed, and the images of the face portions are combined with the corresponding portions of the whole images. In this way, a group photo image is formed.
[0037]
First, the whole of the plurality of subjects to be photographed and the face portions of the subjects to be photographed are each photographed. Then, the image of the face part is synthesized with the corresponding part of the entire image. At this time, the edge of the partial image of the face portion may be slightly blurred and combined. Further, since only the face portion of the subject is photographed, a partial image of the face portion with high resolution can be obtained. Therefore, correction processing such as red-eye reduction correction can be performed with high accuracy. Also, if the entire image is a predetermined image, even if all the subjects cannot be gathered, each face part is photographed separately, and these are combined later to obtain a group photo image Can do.
[0038]
DETAILED DESCRIPTION OF THE INVENTION
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
[0039]
FIG. 2A shows a front view of a digital camera 10 as a photographing apparatus to which the present invention is applied, and FIG. 2B shows a rear view of the digital camera 10. FIG. 2C shows the appearance of a remote controller 70 for remotely operating the digital camera 10. As shown in FIG. 2A, the digital camera 10 includes an operation signal (main book) from a shutter button 12, a lens 14, a strobe 16, a memory card drive 20 for recording a photographed image on a memory card 18, and a remote controller 70. In the embodiment, a light receiving unit 22 for receiving an infrared signal) is provided. As shown in FIG. 2B, a touch panel 58 for displaying captured images and performing various operations is provided on the back of the digital camera 10.
[0040]
On the other hand, the remote controller 70 includes a release button 72 for photographing the digital camera 10 by remote operation, and a light projecting unit 76 that transmits an operation signal as an infrared signal when the release button 72 is pressed.
[0041]
FIG. 1 is a block diagram of the digital camera 10. As shown in FIG. 1, the digital camera 10 includes a control unit 24. A drive circuit 26 is connected to the control unit 24. The drive circuit 26 is connected to the lens 14, the strobe 16, the shutter 32, the aperture 34, and the imaging device 36. The imaging device 36 includes an imaging element such as a CCD, for example.
[0042]
The control unit 24 determines an autofocus (AF) control value based on the distance from the subject measured by the distance measuring unit 38 and outputs it to the drive circuit 26. The drive circuit 26 drives the lens 14 based on the AF control value, and automatically performs focus adjustment.
[0043]
Further, the control unit 24 determines an exposure control value based on the photometric value measured by the photometric unit 40, for example, an aperture value (aperture aperture), a shutter speed, and whether or not the flash 16 emits light. 26. When the shutter button 12 is pressed, the drive circuit 26 drives the shutter 32, the aperture 34, the strobe 16, and the imaging device 36 based on the exposure control value, and captures the subject image that has passed through the lens 14.
[0044]
A charge corresponding to the amount of incident light is accumulated in the CCD of the imaging device 36 in accordance with the exposure control value. The accumulated charge, that is, the image signal is output to the analog signal processing unit 46.
[0045]
The analog signal processing unit 46 performs predetermined analog signal processing (for example, noise reduction processing) on the input image signal and outputs it to the A / D conversion unit 48. The A / D converter 48 converts the input analog signal into a digital signal and outputs it to the digital signal processor 50. The digital signal processing unit 50 performs predetermined digital signal processing (for example, shading correction processing) on the input digital signal and outputs it to the memory 54 as image data. Also, the image data image output to the memory 54 can be displayed on the touch panel 58. On the touch panel 58, an arrow button 66, a determination button 67, and an end button 68 are displayed in addition to the image.
[0046]
The digital camera 10 can be set to the group photo mode by performing a predetermined operation with the operation button 64. In this case, it becomes a continuous shooting mode in which continuous shooting can be performed at a relatively short predetermined time interval by pressing the shutter button 12 once.
[0047]
Images taken in the continuous shooting mode can be sequentially switched and displayed by operating an arrow button 66 displayed on the touch panel 58, for example. The touch panel 58 outputs the coordinate value of the place touched with the finger 80 or the like to the control unit 24. The control unit 24 performs processing based on this coordinate value. For example, when the arrow button 66 displayed on the touch panel 58 is touched with the finger 80, the coordinate value of the touched portion is output to the control unit 24. The control unit 24 determines whether or not the coordinate value is a coordinate of a predetermined area where the arrow button 66 is displayed. If it is determined that the arrow button 66 is pressed, the displayed image is displayed. Switch to a different image.
[0048]
In addition, an image processing unit 60 is connected to the control unit 24. For example, as illustrated in FIG. 3, the image processing unit 60 can extract an image of the person 84 to be touched with the finger 80 when taking a group photo of the persons 81 to 87. Specifically, for example, when an image of a part to be extracted is touched with the finger 80, the coordinate value output from the touch panel 58 is output to the image processing unit 60, and the image processing unit 60 applies the image near the coordinate value to the image. The contour of the subject is detected by performing edge detection, and an image of only the subject is extracted. Then, the extracted portion of the image, that is, the image of only the subject is emphasized and displayed on the touch panel 58.
[0049]
When the photographed person presses the enter button 67, the extracted partial image is confirmed and temporarily stored in the memory 54. Then, each of the subjects 81 to 87 selects (touchs with the finger 80) the most preferred partial image from a plurality of photographed images taken by the subject and presses the decision button 67. Finally, an end button 68 is displayed. When pressed, the image processing unit 60 synthesizes the partial images stored in the memory 54. Thereby, the favorite partial images of each photographed person are combined, and a photograph that satisfies all the photographed persons is obtained.
[0050]
In the digital camera 10, an image captured by performing a predetermined operation with the operation button 64 can be stored in the memory card 18. In this case, the image data stored in the memory 54 is output to the compression / decompression unit 56, and a predetermined image compression process (for example, JPEG processing) is performed in the compression / decompression unit 56. The compressed image data is output to the memory card drive 20 and written to the memory card 18.
[0051]
The digital camera 10 can also read compressed image data stored in the memory card 18. In this case, the compressed image data read from the memory card 18 is output to the compression / decompression unit 56, and decompression processing is performed in the compression / decompression unit 56. As a result, the original image is restored from the compressed image. The expanded image can be displayed on the touch panel 58.
[0052]
In addition, the light receiving unit 22 is connected to the control unit 24. The light receiving unit 22 receives an operation signal transmitted from the remote controller 70. When receiving the operation signal, the control unit 24 performs the same operation as when the shutter button 12 of the digital camera 10 is pressed, and shoots the subject.
[0053]
Next, as an operation of the present embodiment, a control routine executed in the control unit 24 will be described with reference to a flowchart shown in FIG. In the following, a case where a group photo is taken in a photo studio (not shown) will be described as an example.
[0054]
First, the control unit 24 of the digital camera 10 set in a photo studio (not shown) determines whether or not the shutter button 12 has been pressed in step 100. If the shutter button 12 is not pressed, the result is negative in step 100, and it is determined in step 102 whether an operation signal has been received, that is, whether the release button 72 of the remote controller 70 has been pressed.
[0055]
When the shutter button 12 is pressed and when an operation signal is received, that is, when the release button 72 is pressed, it is determined in step 104 whether the mode is the group photo mode, that is, the continuous shooting mode. If it is not the continuous shooting mode, the result in Step 104 is negative, and a normal photographing process is performed in Step 106.
[0056]
That is, the AF control determined based on the distance to the subject measured by the distance measuring unit 38 and the exposure control value determined based on the photometric value measured by the photometric unit 40 are output to the drive circuit 26. The drive circuit 26 drives the shutter 32, the diaphragm 34, the strobe 16, and the imaging device 36 based on the AF control value and the exposure control value, and captures a subject image that has passed through the lens 14.
[0057]
Then, the electric charge accumulated in the CCD of the image pickup device 36, that is, an image signal is output to the analog signal processing unit 46. The output image signal is subjected to predetermined analog signal processing by the analog signal processing unit 46 and converted from an analog signal to a digital signal by the A / D conversion unit 48. The image signal converted into the digital signal is subjected to predetermined digital signal processing by the digital signal processing unit 50 and is output to the memory 54 as image data.
[0058]
On the other hand, in the continuous shooting mode, affirmative determination is made in step 104, and continuous shooting is performed in step 108. That is, the shutter 32 is cut at short time intervals, and the photographing process is continuously performed a plurality of times (for example, five times). Thereby, as shown in FIG. 5, a plurality of captured images 90 </ b> A to 90 </ b> E are obtained and stored in the memory 54.
[0059]
Then, in step 110, the first image 90 </ b> A captured among the continuously captured images is read from the memory 54 and displayed on the touch panel 58. Then, whether or not a partial image has been selected in step 112, that is, whether or not the subject has touched a part of the image (for example, a face) displayed on the touch panel 58 with the finger 80 as shown in FIG. to decide.
[0060]
When the partial image is selected, that is, when the touch panel 58 is touched with the finger 80, the result is affirmative in step 112, and the partial image (for example, face) of the part touched with the finger 80 is extracted in step 114. Specifically, the coordinate value of the place touched by the finger 80 by the control unit 24 is output to the image processing unit 60. The image processing unit 60 performs edge detection processing on the image around the coordinate value, detects the contour line of the photographed person appearing in the part touched with the finger 80, and detects the part surrounded by the contour line. Extract an image as a partial image. Then, the control unit 24 highlights and displays the extracted partial image on the touch panel 58.
[0061]
On the other hand, when the partial image is not selected, that is, when the touch panel 58 is not touched with the finger 80, the result is negative in step 112, and it is determined whether or not the arrow button 66 is pressed in step 116. If the arrow button 66 is pressed, the result is affirmative in step 116, and the captured image 90A displayed on the touch panel 58 is switched to the next captured image 90B in step 118.
[0062]
If the arrow button 66 has not been pressed, the result in Step 116 is negative, and it is determined in Step 120 whether the Enter button 67 has been pressed. If it is determined that the arrow button 67 has been pressed, the determination in step 120 is affirmative, and the partial image extracted in step 114 and the coordinate value of the part touched with the finger 80 are stored in the memory 54 in step 122.
[0063]
If the arrow button 67 has not been pressed, a negative determination is made in step 120, and it is determined in step 124 whether the end button 68 has been pressed. If the end button 68 has not been pressed, the result in step 124 is negative, and the process returns to step 112 to perform the same processing as described above.
[0064]
If the end button 68 is pressed, the result in step 124 is affirmative, and in step 126, the image processing unit 60 is instructed to combine the partial images stored in the memory 54. As a result, the image processing unit 60 sequentially reads out the partial image and the coordinate value of the part touched with the finger 80 from the memory 54, and reads out the partial image from the designated part of the reference composite image, that is, from the memory 54. Composite to the part corresponding to the coordinate value. As a result, the user's partial image is synthesized at the position where it was originally captured. Note that any one of the captured images may be selected as a reference composite image.
[0065]
The synthesized image is stored in the memory 54 at step 128. Then, the synthesized image is stored in the memory card 18 by the memory card drive 20, for example, and the image stored in the memory card 18 is printed by a printing device (not shown).
[0066]
In this way, each of the subjects 81 to 87 confirms the captured images 90A to 90E displayed on the touch panel 58 while switching appropriately, and selects the most favorite image. For example, a photographed image with a mouth slightly open as shown in FIG. 10A is not selected, and a photographed image with a mouth closed is selected as shown in FIG. In this way, each person selects the most preferred photographed image, extracts partial images from the selected images, and combines them to obtain a composite image 92 as shown in FIG. In the case of FIG. 5, the photographed person 81 takes the photographed image 90B, the photographed person 82 takes the photographed image 90C, the photographed person 83 takes the photographed image 90B, the photographed person 84 takes the photographed image 90E, and the photographed person 85. Shows the photographed image 90A, the photographed person 86 selects the photographed image 90B, and the photographed person 87 selects the photographed image 90B. When combining, the edge of the partial image or the edge of the portion where the partial image of the reference composite image is combined may be slightly blurred, and the two may be combined with a slight blur. You may do it. Further, the partial images may be combined so as to show through the reference composite image, or may be combined so as to be combined. In this way, a more natural composite image can be obtained. Further, image processing such as red-eye reduction may be performed at the time of synthesis. Furthermore, when extracting and synthesizing the face part, as shown in FIG. 11, only the facial expression part of the face may be extracted and synthesized.
[0067]
Thus, the photographed person can select the most preferred photographed image from a plurality of photographed images, so that a photograph image that satisfies all the photographed persons can be obtained. Further, since the captured images 90A to 90E are images obtained by continuous shooting, there is little blurring of the subject in each captured image. Therefore, it is possible to prevent a sense of incongruity from occurring in the synthesized image.
[0068]
In addition, instead of the partial image of the entire face, the central portion or partial partial image of the face may be extracted and combined with a reference composite image. Alternatively, a partial image including the body may be extracted and the partial image may be combined with a reference composite image. Further, instead of displaying the photographed image on the touch panel 58 provided in the digital camera 10, the photographed image may be displayed on a monitor provided separately, and the partial images may be selected and synthesized by an operation with a mouse or a keyboard. Good.
[Second Embodiment]
Hereinafter, the second embodiment will be described in detail with reference to the drawings.
[0069]
In the second embodiment, all the persons to be photographed (seven as an example in the present embodiment) have the remote controls 70A to 70G, and each of them takes a picture by pressing the release button 72. The same parts as those of the digital camera 10 and the remote controller 70 in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
[0070]
In the second embodiment, the position where the person to be photographed stands is determined in advance, and the remote controllers 70A to 70G to be used are also determined according to the standing position. For example, as shown in FIG. 5, when the subjects 81 to 87 are arranged, the subject 81 has the remote control 70A, the subject 82 has the remote control 70B, the subject 83 has the remote control 70C, and the subject 84 Uses the remote control 70D, the subject 85 uses the remote control 70E, the subject 86 uses the remote control 70F, and the subject 87 uses the remote control 70G.
[0071]
The operation signal codes transmitted from the respective remote controllers 70, that is, remote control codes are different from each other. The memory 54 of the digital camera 10 stores table data in which the remote control code is associated with position data indicating the position of the person to be photographed, for example, the position of the face portion or the torso portion. The position data is expressed as coordinate values, for example. Therefore, the digital camera 10 can grasp from which position the operation signal is transmitted by referring to the table data.
[0072]
Next, the operation of the second embodiment will be described.
[0073]
FIG. 6 shows a flowchart of a control routine executed in the control unit 24.
[0074]
First, in the control unit 24 of the digital camera 10 set in a photo studio (not shown), whether or not an operation signal has been received in step 200, that is, one of the subjects 81 to 87 presses the release button 72 of the remote controller 70. It is determined whether or not the button has been pressed. If an operation signal is received, an affirmative determination is made in step 200, and a photographing process is performed in step 204.
[0075]
That is, the AF control determined based on the distance to the subject measured by the distance measuring unit 38 and the exposure control value determined based on the photometric value measured by the photometric unit 40 are output to the drive circuit 26. The drive circuit 26 drives the shutter 32, the diaphragm 34, the strobe 16, and the imaging device 36 based on the AF control value and the exposure control value, and captures a subject image that has passed through the lens 14.
[0076]
Then, the electric charge accumulated in the CCD of the image pickup device 36, that is, an image signal is output to the analog signal processing unit 46. The output image signal is subjected to predetermined analog signal processing by the analog signal processing unit 46 and converted from an analog signal to a digital signal by the A / D conversion unit 48. The image signal converted into the digital signal is subjected to predetermined digital signal processing by the digital signal processing unit 50 and is output to the memory 54 as image data.
[0077]
In the next step 206, it is determined whether or not the group photo mode is set. If it is not the group photo mode, the result in Step 206 is negative, and the process returns to Step 200. On the other hand, in the group photo mode, the result is affirmative in step 206, and the image of the subject corresponding to the operation signal received in step 208 is extracted from the captured image.
[0078]
Specifically, the position data of the subject corresponding to the remote control code of the received operation signal, for example, coordinate values are read from the table data stored in the memory 54, and the coordinate values are output to the image processing unit 60. The image processing unit 60 performs edge detection processing on the image around the coordinate value, detects the contour of the subject who pressed the release button 72 (for example, the contour of the face), and is surrounded by the contour. Extract the part of the image. Then, the image processing unit 60 outputs the extracted image to the control unit 24.
[0079]
In step 210, the control unit 24 stores the partial image output from the image processing unit 60 in the memory 54. Then, in step 212, it is determined whether or not shooting has been completed.
[0080]
Specifically, this determination is made as follows. For example, the number of photographed persons, that is, the number of times the release button 72 is pressed is stored in the memory 54 of the digital camera 10 in advance, and is counted up every time an operation signal is received, and the count value is the number of photographed persons. If it matches, it is determined that all shooting has been completed. Thereby, it can be automatically determined that the photographing has been completed. Further, when a predetermined operation is performed by the operation button 64, or when a remote control code indicating the end is determined in advance and the remote control code of the received operation signal is the remote control code indicating the end, it is determined as the end of photographing. You may do it.
[0081]
If it is not determined that the photographing has been completed, the result in Step 212 is negative, and the process returns to Step 200 and waits until the next photographing is performed. If it is determined that the photographing has ended, the result is affirmative in step 212, and the image processing unit 60 is instructed to combine the partial images stored in the memory 54 in step 214. As a result, the image processing unit 60 sequentially reads out the coordinate values corresponding to the partial image and the remote control code from the memory 54, and corresponds to the corresponding portion of the composite image based on the partial image, that is, the composite based on the partial image. The image is combined with the designated portion, that is, the portion corresponding to the coordinate value read from the memory 54. As a result, the user's partial image is synthesized at the position where it was originally captured. Note that any one of the captured images may be selected as a reference composite image.
[0082]
The synthesized image is stored in the memory 54 in step 216. Then, the synthesized image is stored in the memory card 18 by the memory card drive 20, for example, and the image stored in the memory card 18 is printed by a printing device (not shown).
[0083]
In this way, each of the persons to be photographed 81 to 87 takes pictures by pressing the release button 72 at the optimum timing, for example, adjusting the appearance and taking a picture with the best expression. Then, by extracting and synthesizing the partial images of each person to be photographed from the photographed images, a composite image 92 as shown in FIG. 5 is obtained.
[0084]
In this way, each photographed person shoots at the optimum timing, and the partial images of each photographed person are extracted and combined from each photographed image, so that a photographic image satisfying all the photographed persons can be obtained. Can do. Further, since a composite photograph can be automatically obtained, the time from photographing to printing can be shortened. Note that the photographed image may be displayed on a touch panel or a monitor, and the photographed person may select a partial image.
[Third Embodiment]
Hereinafter, the third embodiment will be described in detail with reference to the drawings.
[0085]
In the third embodiment, as shown in FIG. 7, a digital camera 10 </ b> A that captures all the subjects 81 to 87 and digital cameras 10 </ b> B to 10 </ b> H that capture the face portions of the subjects are installed. Yes. In addition, about the digital camera 10A-10H, the same code | symbol is attached | subjected to the same part as the digital camera 10 in 1st Embodiment, and the detailed description is abbreviate | omitted.
[0086]
Here, for example, the digital camera 10B is the face portion of the subject 81, the digital camera 10C is the face portion of the subject 84, the digital camera 10D is the face portion of the subject 82, and the digital camera 10E is the subject. The digital camera 10F photographs the face portion of the photographed person 86, the digital camera 10G photographs the face part of the photographed person 83, and the digital camera 10H photographs the face part of the photographed person 87.
[0087]
The captured images are synthesized by the photographic image forming apparatus 300 shown in FIG. The photographic image forming apparatus 300 includes a control unit 302. Connected to the control unit 302 are an image composition unit 304, a memory 306, a display 308, an operation unit 310 including a keyboard and a mouse, and a memory card drive 312.
[0088]
Next, as an operation of the third embodiment, a control routine executed by the control unit 302 will be described with reference to FIG.
[0089]
First, all the subjects 81 to 87 are photographed with the digital camera 10A. The captured whole image is stored in the memory card 18A. Next, the face portions of the subjects 81 to 87 are photographed by the digital cameras 10B to 10H. The captured partial images are stored in the memory cards 18B to 18H, respectively.
[0090]
When the photographer sets the memory card 18A in the memory card drive 312 of the photographic image forming apparatus 300, the control unit 302 of the photographic image forming apparatus 300 captures the entire image from the memory card 18A in step 400 shown in FIG. Store in 306. Next, when the memory card 18B is set, a partial image of the face portion of the subject 81 is taken from the memory card 18B and stored in the memory 306. In the same manner, partial images of the face portions of all subjects are captured.
[0091]
Next, the control unit 302 combines the partial images of the face portions of the subjects 81 to 87 with the entire image stored in the memory 306 in step 402. This synthesis can be performed automatically, for example. Specifically, for example, a mark is placed at the position where the subjects 81 to 87 are standing in advance so that the face portion is always at the same position, and position data of the position where the face portion is captured, such as coordinate values, is set. It is stored in the memory 306 in advance. Then, the partial image is sequentially combined with the portion corresponding to the coordinate value of the entire image. Thus, it can be automatically synthesized.
[0092]
Further, the entire image and the image of the face portion to be combined are displayed on the display 308, and the face portion image can be combined with the position where the entire image is to be combined by operating the operation unit 310 while viewing the displayed image. Good.
[0093]
Then, the image synthesized at step 404 is displayed on the display 308, and the synthesized image is output to the image processing unit 304 at step 406. The image processing unit 304 corrects the composite image by performing predetermined image processing such as red-eye reduction processing. At this time, since the resolution of the face portion is high, it can be corrected with high accuracy. Further, by operating the operation unit 310, the position of the synthesized face portion image may be corrected. Then, the image synthesized in step 408 is recorded on the memory card 18 by the memory 306 or the memory card drive 312.
[0094]
As described above, since only the face portion can be photographed with high resolution, the image of the face portion, for example, processing such as red-eye reduction correction can be accurately performed. In addition, since each subject can be photographed individually, if the entire image is fixed, for example, even if all the subjects cannot gather at the same time, a photographic image satisfying all the subjects can be obtained. Can do. For example, as shown in FIG. 11 from a photographed image of the upper body and the face up when the image is taken later or after another set time as shown in FIGS. 12A and 12B. By extracting and synthesizing the facial expression part of a simple face, it is possible to obtain a photographic image that satisfies all the subjects.
[0095]
【The invention's effect】
As described above, according to the first or fourth aspect of the invention, even when shooting a plurality of collected subjects, the optimum images for each subject are selected from the shot images shot a plurality of times. Since they can be combined, it is possible to obtain an optimal photograph as a whole.
[0096]
According to the second or fifth aspect of the invention, even when shooting a plurality of collected subjects, each subject can issue a shooting instruction by the remote instruction means at an optimal timing. It is possible to obtain a photograph that satisfies all the users.
[0097]
According to the third or sixth aspect of the present invention, the whole of the plurality of subjects to be photographed and the face portions of the plurality of subjects are respectively photographed, and the partial images of the face portions correspond to the whole images. Since the image is combined with the portion, there is an effect that correction processing such as red-eye reduction correction can be performed with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block diagram of a camera according to a first embodiment.
2A is an external view of a camera, FIG. 2B is a rear view of the camera, and FIG. 2C is an external view of a remote control.
FIG. 3 is a diagram for explaining an operation using a touch panel.
FIG. 4 is a flowchart showing a flow of a control routine executed by a control unit in the first embodiment.
FIG. 5 is a diagram for explaining image composition;
FIG. 6 is a flowchart showing a flow of a control routine executed by a control unit in the second embodiment.
FIG. 7 is a diagram for explaining group photo shooting in the third embodiment;
FIG. 8 is a block diagram showing a schematic configuration of a photographic image forming apparatus according to a third embodiment.
FIG. 9 is a flowchart showing a flow of a control routine executed by a control unit in the third embodiment.
FIG. 10 is a diagram illustrating a part of a captured image.
FIG. 11 is a diagram showing a partial image obtained by extracting only the facial expression part.
FIG. 12 is a diagram illustrating an example of a captured image.
[Explanation of symbols]
10 Digital camera
12 Shutter button (instruction means)
14 Lens
16 Strobe
18 Memory card
20 Memory card drive
22 Receiver
24 Control unit
26 Drive circuit
32 Shutter
34 Aperture
36 Imaging device
58 Touch panel (display means, selection means)
60 Image processing unit (compositing means)
70 Remote control (remote indication means)
72 Release button
76 Projector

Claims (6)

集合した複数の被撮影者の連続撮影を指示する指示手段と、前記指示手段からの指示により撮影された複数の撮影画像を表示する表示手段と、
前記表示手段に表示される複数の撮影画像から部分画像を選択するための入力手段と、
選択された前記部分画像を抽出する抽出手段と、
抽出された部分画像を基準となる合成画像の指定された部分に合成する合成手段と、
を有する撮影装置。
Instruction means for instructing continuous shooting of a plurality of subjects to be gathered, and display means for displaying a plurality of captured images taken by instructions from the instruction means;
An input means for selecting a partial image from a plurality of captured images displayed on the display means;
Extracting means for extracting the selected partial image;
A synthesizing means for synthesizing the extracted partial image with a designated portion of the reference synthetic image;
A photographing apparatus having
被撮影者毎に設けられ、かつ集合した複数の被撮影者の撮影を遠隔指示する複数の遠隔指示手段と、
複数の前記遠隔指示手段による遠隔指示により撮影された複数の撮影画像から部分画像を選択するための入力手段と、
選択された前記部分画像を抽出する抽出手段と、
抽出された複数の部分画像を、基準となる合成画像の対応する部分に合成する合成手段と、
を有する撮影装置。
A plurality of remote instruction means provided for each person to be photographed and remotely instructing photographing of a plurality of photographed persons;
Input means for selecting a partial image from a plurality of photographed images photographed by a remote instruction by the plurality of remote instruction means;
Extracting means for extracting the selected partial image;
A synthesizing unit that synthesizes the plurality of extracted partial images with corresponding portions of the reference synthesized image;
A photographing apparatus having
集合した複数の被撮影者の全体を撮影する第1の撮影手段と、
前記複数の被撮影者の顔部分を撮影する複数の第2の撮影手段と、
前記顔部分の部分画像を、前記全体の画像の対応する部分に合成する合成手段と、
を有する撮影装置。
First photographing means for photographing the entirety of the plurality of subjects to be collected;
A plurality of second photographing means for photographing the face portions of the plurality of subjects;
Combining means for combining the partial image of the face portion with a corresponding portion of the entire image;
A photographing apparatus having
集合した複数の被撮影者を連続撮影し、
連続撮影された撮影画像を表示し、
表示される複数の撮影画像から部分画像を選択し、
選択された前記部分画像を抽出し、
抽出された部分画像を、基準となる合成画像の指定された部分に合成することにより集合写真画像を形成する集合写真画像の形成方法。
Take multiple shots of a group of subjects,
Displays continuously shot images,
Select a partial image from the multiple captured images displayed,
Extracting the selected partial image;
A group photo image forming method for forming a group photo image by combining an extracted partial image with a designated portion of a reference composite image.
集合した複数の被撮影者を、該被撮影者各々の指示に応じて撮影し、
被撮影者の指示に応じて撮影された撮影画像から部分画像を選択し、
選択された前記部分画像を抽出し、
抽出された部分画像を、基準となる合成画像の対応する部分に合成することにより集合写真画像を形成する集合写真画像の形成方法。
Shooting a plurality of subjects to be gathered according to the instructions of each subject,
Select a partial image from the captured images taken according to the instructions of the subject,
Extracting the selected partial image;
A group photo image forming method for forming a group photo image by combining an extracted partial image with a corresponding portion of a reference composite image.
集合した複数の被撮影者の全体と複数の前記被撮影者の顔部分とを各々撮影し、
前記顔部分の部分画像を、前記全体の画像の対応する部分に合成することにより集合写真画像を形成する集合写真画像の形成方法。
Photographing the whole of the plurality of subjects to be gathered and the face portions of the subjects to be photographed,
A group photo image forming method of forming a group photo image by combining a partial image of the face portion with a corresponding portion of the entire image.
JP21861599A 1999-08-02 1999-08-02 Imaging apparatus and group photo image forming method Expired - Fee Related JP3805145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21861599A JP3805145B2 (en) 1999-08-02 1999-08-02 Imaging apparatus and group photo image forming method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21861599A JP3805145B2 (en) 1999-08-02 1999-08-02 Imaging apparatus and group photo image forming method

Publications (2)

Publication Number Publication Date
JP2001045355A JP2001045355A (en) 2001-02-16
JP3805145B2 true JP3805145B2 (en) 2006-08-02

Family

ID=16722742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21861599A Expired - Fee Related JP3805145B2 (en) 1999-08-02 1999-08-02 Imaging apparatus and group photo image forming method

Country Status (1)

Country Link
JP (1) JP3805145B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040223649A1 (en) 2003-05-07 2004-11-11 Eastman Kodak Company Composite imaging method and system
KR100702954B1 (en) 2005-01-12 2007-04-03 삼성테크윈 주식회사 Method for marking emphasis portion to image in digital image processing device
JP2006254229A (en) 2005-03-11 2006-09-21 Fuji Photo Film Co Ltd Imaging apparatus, imaging method and imaging program
WO2006117942A1 (en) * 2005-04-28 2006-11-09 Konica Minolta Holdings, Inc. Person imaging device and person imaging method
JP2006330800A (en) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Image synthesis system, image synthesis method, and program of the method
JP5119642B2 (en) * 2006-10-13 2013-01-16 辰巳電子工業株式会社 Automatic photo creation device and automatic photo creation method
JP4513903B2 (en) * 2008-06-25 2010-07-28 ソニー株式会社 Image processing apparatus and image processing method
JP5517192B2 (en) * 2009-09-30 2014-06-11 Necカシオモバイルコミュニケーションズ株式会社 Electronic device, image processing method and program
US9355486B2 (en) 2013-04-24 2016-05-31 Morpho, Inc. Image compositing device and image compositing method

Also Published As

Publication number Publication date
JP2001045355A (en) 2001-02-16

Similar Documents

Publication Publication Date Title
JP5144422B2 (en) Imaging apparatus and imaging method
JP4553346B2 (en) Focus adjustment device and focus adjustment method
US8050464B2 (en) Image taking apparatus and image taking method
JP4759082B2 (en) Compound eye imaging device
JP2006203600A (en) Imaging apparatus, image processor, image processing system, and image processing method and program
JP2007311861A (en) Photographic apparatus and method
CN101272455A (en) Image taking apparatus
JP3971240B2 (en) Camera with advice function
JP2009098351A (en) Photographing method and apparatus
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
JP3805145B2 (en) Imaging apparatus and group photo image forming method
JP2003209727A (en) Digital camera
JP2006067452A (en) Video recording apparatus, and electronic camera
JP2005143112A (en) Camera and method concerning the same
JP4000176B1 (en) camera
JP5635450B2 (en) Imaging apparatus, finder and display method thereof
JP2007049371A (en) Digital camera and method for controlling to display photographed image
JP4309740B2 (en) Imaging apparatus and imaging method
JP2010161547A (en) Composition selecting device and program
JP2009017006A (en) Photographic device
JP2010087598A (en) Photographic apparatus, photographic control method and program therefor, image display apparatus, image display method and program therefor, and photographic system, control method therefor and program therefor
JP5043721B2 (en) Imaging device
JP2007208355A (en) Photographing device, method, and program
JP2007183512A (en) Photographing apparatus and illuminating device
JPH0779375A (en) Electronic still camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060509

R150 Certificate of patent or registration of utility model

Ref document number: 3805145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140519

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees