JP5023932B2 - Imaging apparatus, image capturing method by scenario, and program - Google Patents

Imaging apparatus, image capturing method by scenario, and program Download PDF

Info

Publication number
JP5023932B2
JP5023932B2 JP2007253082A JP2007253082A JP5023932B2 JP 5023932 B2 JP5023932 B2 JP 5023932B2 JP 2007253082 A JP2007253082 A JP 2007253082A JP 2007253082 A JP2007253082 A JP 2007253082A JP 5023932 B2 JP5023932 B2 JP 5023932B2
Authority
JP
Japan
Prior art keywords
scenario
image
performer
guidance
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007253082A
Other languages
Japanese (ja)
Other versions
JP2009088749A (en
Inventor
明弘 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007253082A priority Critical patent/JP5023932B2/en
Publication of JP2009088749A publication Critical patent/JP2009088749A/en
Application granted granted Critical
Publication of JP5023932B2 publication Critical patent/JP5023932B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、デジタルカメラ等の撮像装置を用いて、シナリオに基づいて各シーン(カット)ごとの演者に台詞を対応付けた画像を撮影するシナリオによる画像撮影技術に関する。   The present invention relates to an image capturing technique based on a scenario in which an image is associated with a performer for each scene (cut) based on a scenario using an imaging apparatus such as a digital camera.

動画の中の一つながりの断片部分であるシーンのそれぞれについての撮影指南情報を含むシナリオデータを保持するシナリオデータ保持手段と、前記撮像手段を用いて行われる動画の各シーンの撮影時に前記シナリオデータの該当シーンの撮影指南情報を表示する表示手段とを備え、ストーリー性に優れ且つ完成度が高い動画撮影を可能にする動画記録装置がある(例えば、特許文献1参照)。   Scenario data holding means for holding scenario data including shooting instruction information for each of the scenes that are a part of a connected segment in the video, and the scenario data at the time of shooting each scene of the video performed using the imaging means There is a moving image recording apparatus that includes a display means for displaying shooting instruction information of the relevant scene, and that enables moving image shooting with excellent story and high completeness (see, for example, Patent Document 1).

また、受信した音声データを文字データに変換し、同時に受信した画像の口元に文字列を表示する画像表示装置がある(例えば、特許文献2参照)。   There is also an image display device that converts received voice data into character data and displays a character string at the mouth of the received image at the same time (see, for example, Patent Document 2).

特開2006−174318号公報JP 2006-174318 A 特許第3711418号Japanese Patent No. 3711418

しかしながら、上記特許文献1に開示の動画記録装置では、撮影者は自分の撮影目的により合致したシナリオを選んで撮影を行うことができ、撮影時には、時間軸に沿って撮影指南情報として台本やシナリオを文字ガイダンスやイラストガイダンスを表示するだけでなく、シナリオに基づいて撮影条件を制御できるのでので、ストーリー性に優れた完成度の高い動画撮影を行うことができるが、被写体(人物や動物等)に台詞を与え、その台詞を被写体に自動的、且つ視覚的に関連付けて画像中に表示することができなかった。   However, in the moving image recording apparatus disclosed in Patent Document 1, a photographer can select a scenario that matches his or her own shooting purpose and perform shooting, and at the time of shooting, a script or scenario is provided as shooting instruction information along the time axis. In addition to displaying text guidance and illustration guidance, you can control shooting conditions based on scenarios, so you can shoot high-quality videos with excellent storylines, but subjects (people, animals, etc.) The dialogue was given to the subject and the dialogue could not be automatically and visually associated with the subject and displayed in the image.

また、上記特許文献2に開示の技術によれば、被写体人物の発言を被写体画像の口元に吹き出し風に文字表示できるので、被写体(人物)の主張や気持ちを可視的に伝えることができるが、撮影者がシナリオに沿った発言を被写体に割り当てて紙芝居風に画像のストーリー性を高めるといったことができなかった。   In addition, according to the technique disclosed in Patent Document 2, since the remarks of the subject person can be displayed in a balloon-like manner at the mouth of the subject image, the assertion and feeling of the subject (person) can be transmitted visually. The photographer could not assign the remarks according to the scenario to the subject and enhance the story of the image like a picture-story show.

本発明は、カメラ視野内の被写体のうち演者(人物や動物、および人物や動物として擬制されたものをいう)を選ぶと、選択したシナリオに応じて自動的に演者の台詞を演者に対応付けて表示する撮像装置、シナリオによる画像撮影方法、およびプログラムの提供を目的とする。   According to the present invention, when a performer (a person or animal, or an object imitated as a person or animal) is selected from subjects in the camera field of view, the speech of the performer is automatically associated with the performer according to the selected scenario. It is an object of the present invention to provide an imaging device that displays images, an image capturing method according to a scenario, and a program.

また、更に、本発明は、選択したシナリオに応じて自動的に演者に対応付けて(例えば、吹き出し文字として)表示される演者の台詞をカット単位で補正(台詞の追加、置換、部分的修正)できる撮像装置、シナリオによる画像撮影方法、およびプログラムの提供を目的とする。   Further, the present invention corrects the performer's dialogue displayed automatically in association with the performer (for example, as a balloon character) according to the selected scenario in units of cuts (addition, replacement, partial correction of dialogue). An object of the present invention is to provide an imaging device that can be used, an image capturing method according to a scenario, and a program.

前記課題を解決するために請求項1記載の発明では、レリーズ操作により被写体像を取り込んで画像データに変換し、画像を得る撮像装置において、シナリオによる画像撮影モードを有するとともに、複数のシナリオとそのシナリオを説明するための文字ガイダンスを含むシナリオ用データベースと、前記文字ガイダンスを補正するための台詞補正用データベースと、画像認識手段と、を有し、シナリオによる画像撮影モード時に、前記シナリオ用データベースに記憶されているシナリオを選択する手段と、前記画像認識手段により被写体から演者を指定する手段と、前記演者と前記シナリオの文字ガイダンスとを対応付ける手段と、前記対応付けられた文字ガイダンスを前記台詞補正用データベースから補正文字列を取り出して補正する手段と、前記レリーズ操作時に、前記演者と前記補正された文字ガイダンスが関連付けられて生成された撮像画像を記録媒体に記録する手段と、を備えたことを特徴とする撮像装置を提供するものである。 In order to solve the above-mentioned problem, in the invention according to claim 1, an imaging apparatus that captures a subject image by a release operation and converts it into image data to obtain an image has an image shooting mode based on a scenario, and a plurality of scenarios and their and database scenarios including character guidance for describing the scenario, the dialog correcting database for correcting the character guidance has an image recognition unit, and the image pickup mode by the scenario, the database for the scenario Means for selecting a stored scenario; means for designating a performer from a subject by the image recognition means; means for associating the performer with character guidance for the scenario; and correcting the associated character guidance to the dialogue To correct the correction character string from the database And a means for recording a captured image generated by associating the performer with the corrected character guidance during a release operation on a recording medium. .

前記課題を解決するために請求項2記載の発明では、前記生成された撮像画像をウエブサイトに送信する手段を備えたことを特徴とする請求項1記載の撮像装置を提供するものである。In order to solve the above-mentioned problem, the invention according to claim 2 provides an imaging apparatus according to claim 1, further comprising means for transmitting the generated captured image to a website.

前記課題を解決するために請求項3記載の発明では、レリーズ操作により被写体像を取り込んで画像データに変換し、画像を得るシナリオによる画像撮影方法において、シナリオによる画像撮影モードを有するとともに、複数のシナリオとそのシナリオを説明するための文字ガイダンスを含むシナリオ用データベースと、前記文字ガイダンスを補正するための台詞補正用データベースと、画像認識手段と、を有し、シナリオによる画像撮影モード時に、前記シナリオ用データベースに記憶されているシナリオを選択し、前記画像認識手段により被写体から演者を指定し、前記演者と前記シナリオの文字ガイダンスとを対応付け、前記対応付けられた文字ガイダンスを前記台詞補正用データベースから補正文字列を取り出して補正し、前記レリーズ操作時に、前記演者と前記補正された文字ガイダンスが関連付けられて生成された撮像画像を記録媒体に記録することを特徴とするシナリオによる画像撮影方法を提供するものである。 In order to solve the above-mentioned problem, in the invention according to claim 3, an image capturing method based on a scenario that captures a subject image by a release operation and converts it into image data to obtain an image has an image capturing mode based on the scenario, and a plurality of image capturing modes. and database scenarios including character guidance for explaining the scenarios and scenario, a dialogue correcting database for correcting the character guidance has an image recognition unit, and the image pickup mode by the scenario, the scenario The scenario stored in the database is selected, the performer is designated from the subject by the image recognition means, the performer is associated with the character guidance of the scenario, and the associated character guidance is used as the dialogue correction database. Take out the correction character string from During's operation, there is provided an image capturing method according to the scenario, characterized by recording the captured image in which the said performers corrected text guidance is generated associated with the recording medium.

前記課題を解決するために請求項4記載の発明では、レリーズ操作により被写体像を取り込んで画像データに変換し、画像を得るシナリオによる画像撮影モードを有するとともに、複数のシナリオとそのシナリオを説明するための文字ガイダンスを含むシナリオ用データベースと、前記文字ガイダンスを補正するための台詞補正用データベースと、画像認識手段とを有する撮像装置のシナリオによる画像撮影プログラムにおいて、前記シナリオ用データベースに記憶されているシナリオを選択するステップと、前記画像認識手段により被写体から演者を指定するステップと、前記演者と前記シナリオの文字ガイダンスとを対応付けるステップと、前記対応付けられた文字ガイダンスを前記台詞補正用データベースから補正文字列を取り出して補正するステップと、前記レリーズ操作時に、前記演者と前記補正された文字ガイダンスが関連付けられて生成された撮像画像を記録媒体に記録するステップと、を有することを特徴とするプログラムを提供するものである。 In order to solve the above-mentioned problem, the invention described in claim 4 has an image shooting mode based on a scenario for capturing a subject image by a release operation and converting it into image data to obtain an image, and describes a plurality of scenarios and the scenarios. An image capturing program based on a scenario of an image pickup apparatus having a scenario database including character guidance for correcting, a dialogue correcting database for correcting the character guidance, and an image recognition means, is stored in the scenario database . A step of selecting a scenario, a step of designating a performer from the subject by the image recognition means, a step of associating the performer with the character guidance of the scenario, and correcting the associated character guidance from the dialogue correction database. Take out the string And a step of recording a captured image generated by associating the performer with the corrected character guidance on a recording medium during the release operation. is there.

発明によれば、シナリオデータがシーン及び演者に対応付けた台詞を含んでいるので、撮影過程において、ユーザが指定した被写体像(演者像(以下、単に演者と記す))と対応させて台詞文字を表示でき、選択したシナリオに応じたよりストーリー性のある紙芝居的な一連の画像を得ることができる。 According to the present invention, since scenario data includes dialogues associated with scenes and performers, dialogue is performed in correspondence with a subject image (actor image (hereinafter simply referred to as a performer)) specified by the user in the shooting process. Characters can be displayed, and a series of picture-story-like images can be obtained with more story characteristics according to the selected scenario.

本発明において、演者とは人物や動物、および人物や動物として擬制された被写体をいう。本発明の撮像装置は、撮影時にシナリオおよびシーン(カット)を選択したあと、モニタ画面に表示される画像(演者)を指定(同じシナリオの演者は一回のみ指定)すると自動的に演者の台詞を(例えば、吹き出し文字として)演者に対応付けて表示したり、表示されている台詞を補正できる。
本発明は、撮像機能を備えた機器、例えば、デジタルカメラやカメラ付き携帯電話、カメラ付き携帯情報機器(PDA(Personal Digital Assistant))などに適用できる。以下、図面を参照して本発明の実施形態について説明する。
<実施形態1>
In the present invention, a performer means a person or an animal and a subject impersonated as a person or an animal. The imaging apparatus of the present invention automatically selects the scenario and scene (cut) at the time of shooting, and then automatically specifies the performer's dialogue when the image (performer) displayed on the monitor screen is designated (the performer of the same scenario is designated only once). Can be displayed in association with the performer (for example, as a balloon character) or the displayed dialogue can be corrected.
The present invention can be applied to a device having an imaging function, for example, a digital camera, a mobile phone with a camera, a mobile information device with a camera (PDA (Personal Digital Assistant)), and the like. Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Embodiment 1>

図1は、本発明の実施形態に係わる撮像装置の一実施例として用いるデジタルカメラ100の電子回路の構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration example of an electronic circuit of a digital camera 100 used as an example of an imaging apparatus according to an embodiment of the present invention.

デジタルカメラ100は、制御部10、撮像部11、画像データ処理部12、画像認識処理部13、プログラム格納メモリ15、一次記憶メモリ16、画像表示部17、画像記録部18、シナリオ用データベース20、外部入出力部40、操作部60を備えており、本発明に基づくシナリオによる画像撮影モード(機能)を含む静止画撮影モードおよび動画撮影モード、および公知のオートフォーカス機能等を備えている。撮像部11および画像データ処理部12は本発明の撮像系を構成する。また、台詞補正用データベース14を備えるようにしてもよい。   The digital camera 100 includes a control unit 10, an imaging unit 11, an image data processing unit 12, an image recognition processing unit 13, a program storage memory 15, a primary storage memory 16, an image display unit 17, an image recording unit 18, a scenario database 20, An external input / output unit 40 and an operation unit 60 are provided, and a still image shooting mode and a moving image shooting mode including an image shooting mode (function) according to a scenario based on the present invention, a known autofocus function, and the like are provided. The imaging unit 11 and the image data processing unit 12 constitute an imaging system of the present invention. Further, a dialogue correction database 14 may be provided.

制御部10は、デジタルカメラ100全体の制御動作を司るものであり、CPU若しくはMPU(以下、CPU)と、該CPUで実行される動作プログラム等を記憶したフラッシュメモリ等のプログラム格納メモリ、及びワークメモリとして使用されるRAM等により構成されている。また、制御部10は画像データ処理部12からの画像データ(輝度及び色差信号)のDRAM等の一次記憶メモリ16へのDMA転送終了後に、この輝度及び色差信号を一次記憶メモリ16から読出し、画像表示部17の表示用バッファ171に書き込むよう制御する。   The control unit 10 is responsible for overall control operations of the digital camera 100, and includes a CPU or MPU (hereinafter referred to as CPU), a program storage memory such as a flash memory that stores an operation program executed by the CPU, and a work It is comprised by RAM etc. which are used as a memory. Further, after the DMA transfer of the image data (brightness and color difference signals) from the image data processing unit 12 to the primary storage memory 16 such as a DRAM is completed, the control unit 10 reads the brightness and color difference signals from the primary storage memory 16 and reads the image. Control is performed to write to the display buffer 171 of the display unit 17.

撮像部11は、撮影レンズのほか、基本モードである撮影モードにおいてズームレンズを移動させて光学ズーム動作を行わせるズーム駆動部やフォーカスレンズを移動させて合焦動作を行わせるAF駆動部等を含むレンズ駆動系(図示せず)と、撮像素子、信号変換部、撮像タイミング制御部や撮影補助光源等を含む撮像信号系(図示せず)を有しており、撮像レンズを経由し、撮像レンズの撮像光軸後方に配置された撮像素子に入射した被写体光像は撮像素子によって光電変換され撮像信号(アナログ)として出力される。撮像素子の出力信号は信号変換部で相関二重サンプリングおよびゲイン調整され、A/D変換によりデジタル信号に変換される。A/D変換された撮像信号は所定の周期で画像データ処理部12に送られる。撮像素子は、被写体の二次元画像を撮像するCMOS(Complementary Metal Oxide Semiconductor)などの固体撮像デバイスであり、典型的には毎秒数十フレームの画像を撮像する。なお、撮像素子はCMOSに限定されない。   In addition to the photographing lens, the imaging unit 11 includes a zoom driving unit that moves the zoom lens in the photographing mode, which is a basic mode, and performs an optical zoom operation, an AF driving unit that moves a focus lens, and performs a focusing operation, and the like. Including a lens driving system (not shown), and an imaging signal system (not shown) including an imaging element, a signal conversion unit, an imaging timing control unit, an imaging auxiliary light source, and the like. A subject light image incident on an image sensor disposed behind the imaging optical axis of the lens is photoelectrically converted by the image sensor and output as an image signal (analog). The output signal of the image sensor is correlated double sampling and gain adjustment by a signal conversion unit, and converted to a digital signal by A / D conversion. The A / D converted image signal is sent to the image data processing unit 12 at a predetermined cycle. The imaging element is a solid-state imaging device such as a complementary metal oxide semiconductor (CMOS) that captures a two-dimensional image of a subject, and typically captures an image of several tens of frames per second. Note that the image sensor is not limited to a CMOS.

画像データ処理部12は、撮像部11から出力されたデジタル信号(画像データ)に対して画像補間処理及びγ補正処理を含むカラープロセス処理を行ってデジタル値の輝度信号Y及び色差信号Cb、Crを生成し、DRAM等の一次記憶メモリ16にバス90を介してDMA転送する。   The image data processing unit 12 performs a color process process including an image interpolation process and a γ correction process on the digital signal (image data) output from the imaging unit 11 to obtain a digital luminance signal Y and color difference signals Cb, Cr. And DMA-transferred to the primary storage memory 16 such as DRAM via the bus 90.

画像認識処理部13は、シナリオによる画像撮影モード時に、一次記憶メモリ16に記憶されている1フレーム分の画像データの中から演者として指定された画像の特定部分領域(例えば、演者が人物や動物の場合は顔画像領域)から特定部分の画像データ(以下、特定部分)を抽出しバス90を介して制御部10に送出する。また、抽出した特定部分と表示されている画像の特定領域内の画像を比較して類似判定により、表示されている画像のなかに演者の画像があるか否かを判定する。   The image recognition processing unit 13 performs a specific partial area of an image designated as a performer from image data for one frame stored in the primary storage memory 16 (for example, if the performer is a person or an animal) In this case, image data of a specific part (hereinafter referred to as a specific part) is extracted from the face image area) and sent to the control unit 10 via the bus 90. Further, the extracted specific portion is compared with the image in the specific area of the displayed image, and it is determined by similarity determination whether or not there is a performer image in the displayed image.

人物等の顔画像領域の抽出処理は、公知の技術(例えば、特開平2004−145563号公報に記載の技術)を適宜用いることができる。なお、この特定部分の認識処理のために専用の回路を設けてもよいし、プログラム格納メモリ15等のメモリに画像認識処理のための画像認識処理プログラムを格納しておき、制御部10で画像認識処理プログラムを実行させるようにしてもよい。   A known technique (for example, the technique described in Japanese Patent Application Laid-Open No. 2004-145563) can be appropriately used for the extraction process of the face image area of a person or the like. Note that a dedicated circuit may be provided for the recognition processing of the specific portion, or an image recognition processing program for image recognition processing is stored in a memory such as the program storage memory 15 and the control unit 10 A recognition processing program may be executed.

台詞補正用データベース14は単語や接頭語、接尾語等を検索可能に格納してなり、演者に対応付けられて表示された台詞(文字列)に撮影者が文字を追加したり、一部を訂正したり、台詞全体を置換したりする場合(以下、補正という)する場合に、補正用に入力(または指定)されたキーによって検索される。   The dialogue correction database 14 stores words, prefixes, suffixes, and the like so as to be searchable. The photographer adds characters to the dialogue (character string) displayed in association with the performer, When correcting or replacing the entire dialogue (hereinafter referred to as correction), a search is performed using a key input (or designated) for correction.

プログラム格納メモリ15は、本発明に基づくシナリオによる画像撮影プログラムや、撮像制御プログラム、画像処理プログラム、通信制御プログラム等の各種プログラムを格納し、処理段階に応じて呼び出され制御部10によって実行される。プログラム格納メモリ15に格納されるプログラムの機能等については後述する(図2の説明参照)。また、上述した画像認識処理部33を設けることなくプログラム格納メモリ15に画像認識処理のための画像認識処理プログラムを格納するようにしてもよい。   The program storage memory 15 stores various programs such as an image shooting program according to a scenario based on the present invention, an imaging control program, an image processing program, a communication control program, etc., and is called according to the processing stage and executed by the control unit 10. . The function of the program stored in the program storage memory 15 will be described later (see the description of FIG. 2). Further, an image recognition processing program for image recognition processing may be stored in the program storage memory 15 without providing the image recognition processing unit 33 described above.

一次記憶メモリ16はDRAM等のメモリで構成され、画像データ処理部12から取得する画像データを一時記憶するバッファメモリや、画像認識処理部13による演者の顔画像抽出処理用のワークメモリや、本発明のシナリオによる画像撮影方法に基づくシナリオによる画像撮影用のワークメモリ等、各種プログラムによるデータ処理に必要なワークメモリとして用いられる。   The primary storage memory 16 is constituted by a memory such as a DRAM, a buffer memory for temporarily storing image data acquired from the image data processing unit 12, a work memory for performing a performer's face image extraction process by the image recognition processing unit 13, It is used as a work memory necessary for data processing by various programs, such as a work memory for photographing an image according to a scenario based on the image photographing method according to the scenario of the invention.

シナリオによる画像撮影モードにおいて、一次記憶メモリ16には、画像撮影時に用いられる部分領域として、画像認識処理部13による認識処理の際、演者から抽出された特定部分(たとえば、人物や動物の場合は顔)の特徴データを保持する特徴データ保持領域161および演者に関連付けて合成する吹き出し枠の吹き出し位置、サイズ、および吹き出し文字列等を保持しておく文字列保持領域162がそれぞれ複数個確保される。   In the image capturing mode according to the scenario, the primary storage memory 16 stores, as a partial region used at the time of image capturing, a specific portion extracted from the performer during the recognition processing by the image recognition processing unit 13 (for example, in the case of a person or an animal). A plurality of character string holding areas 162 for holding the feature data holding area 161 for holding (face) feature data and a balloon position and size of the balloon frame to be synthesized in association with the performer, and a balloon character string, etc. are secured. .

画像表示部17はVRAM等の表示バッファ171や、表示制御部172及び液晶モニタ液晶モニタ173を有し、制御部10の制御下で表示用バッファメモリに書き込まれた上記輝度及び色差信号を表示制御部を介して定期的に読み出し、これらのデータを基にビデオ信号を生成して上記液晶モニタ173に出力する。   The image display unit 17 includes a display buffer 171 such as a VRAM, a display control unit 172, and a liquid crystal monitor liquid crystal monitor 173, and controls display of the luminance and color difference signals written in the display buffer memory under the control of the control unit 10. The data is periodically read out via the unit, a video signal is generated based on these data, and is output to the liquid crystal monitor 173.

画像記録部18は、画像データの圧縮または伸張を行うデータ圧縮伸張部、DRAM等のバッファメモリから転送されるデータの記録媒体19への書き込みや記録媒体19からの読み出しを行うコントローラ(図示せず)から構成されている。   The image recording unit 18 is a data compression / decompression unit that compresses or decompresses image data, and a controller (not shown) that writes data to and from the recording medium 19 that is transferred from a buffer memory such as a DRAM. ).

記録媒体19は内蔵メモリ(フラッシュメモリ)や光ディスク、あるいは着脱可能なメモリーカード等の書き換え可能な記録媒体からなり画像記録部18によって書き込まれた撮影画像データや、シナリオによる撮影画像や、撮像情報等を保存記録する。また、シナリオ用データベース20を記録媒体19に予め格納しておくようにしてもよい。   The recording medium 19 is composed of a rewritable recording medium such as a built-in memory (flash memory), an optical disk, or a removable memory card. The captured image data written by the image recording unit 18, the captured image according to the scenario, the imaging information, etc. Save and record. Further, the scenario database 20 may be stored in the recording medium 19 in advance.

シナリオ用データベース20は、演者に関連付けて表示する文字列を所定の分類基準に基づいて簡易に検索可能に構成されており、シナリオ用データベース20に格納されている台詞データ(文字列)は撮影時に、選択されたシナリオのシーン(カット)ごとに自動的に演者に対応付けられて表示される。シナリオ用データベース20の構成例等については後述する(図3の説明参照)。   The scenario database 20 is configured so that a character string to be displayed in association with a performer can be easily searched based on a predetermined classification standard. Dialog data (character string) stored in the scenario database 20 is stored at the time of shooting. Each scene (cut) of the selected scenario is automatically displayed in association with the performer. A configuration example of the scenario database 20 will be described later (see the description of FIG. 3).

外部入出力部40は、デジタルカメラ100とUSBケーブル等の接続手段やインターネット等の通信ネットワークによりデジタルカメラ100に接続する外部装置との間で画像データやプログラム等を入出力する際の入出力インターフェィス等からなる。   The external input / output unit 40 is an input / output interface for inputting / outputting image data, a program, and the like between the digital camera 100 and an external device connected to the digital camera 100 via a connection means such as a USB cable or a communication network such as the Internet. Etc.

操作部60は、モードダイアル61、カーソルキー62、SETキー63、シャッターキー65、メニューキー66、および電源ボタン69等のキーと、それらのキーが操作されると操作されたキーの操作信号を生成して制御部10に送出するキー処理部(図示せず)等から構成されている。   The operation unit 60 has keys such as a mode dial 61, a cursor key 62, a SET key 63, a shutter key 65, a menu key 66, and a power button 69, and operation signals of the keys operated when these keys are operated. A key processing unit (not shown) that is generated and sent to the control unit 10 is configured.

モードダイアル61は撮影モードや再生モードの選択を行うものである。ユーザはモードダイアル61を操作して、各種撮影モードのほか本発明に基づくシナリオによる画像撮影モードを選択することができる。シナリオによる画像撮影モードは静止画撮影モードまたは動画撮影モード下で表示される処理選択メニューで選択できる。なお、モードダイアル61でシナリオによる画像撮影モードを選択できるように構成してもよい。   The mode dial 61 is used to select a shooting mode and a playback mode. The user can select the image shooting mode based on the scenario based on the present invention in addition to various shooting modes by operating the mode dial 61. The image shooting mode according to the scenario can be selected from a processing selection menu displayed under the still image shooting mode or the moving image shooting mode. Note that the mode dial 61 may be configured to select an image shooting mode according to the scenario.

カーソルキー62はモード設定やメニュー選択等に際して液晶モニタ173に表示されるメニューやアイコン等をカーソルでポイント(指定)する際に操作するキーであり、カーソルキー62の操作によりカーソルを上下又は左右に移動させることができる。
SETキー63はカーソルキー62によってカーソル表示されている項目を選択設定する際に押されるキーである。また、シナリオによる画像撮影モード時には液晶モニタ173の中央部分(フォーカス領域)にある画像を演者として指定する演者指定キーとして機能させることもできる。
The cursor key 62 is a key that is operated when pointing (designating) a menu, icon, or the like displayed on the liquid crystal monitor 173 with a cursor when setting a mode or selecting a menu. Can be moved.
A SET key 63 is a key that is pressed when the item displayed by the cursor key 62 is selected and set. Further, in the image capturing mode according to the scenario, it is possible to function as a performer designation key for designating an image in the central portion (focus area) of the liquid crystal monitor 173 as a performer.

シャッターキー65は、撮像時にレリーズ操作を行うもので、2段階のストロークを有しており、1段目の操作(半押し状態)でオートフォーカス(AF)と自動露出(AE)を行わせるための合焦指示信号を発生し、2段目の操作(全押し状態)で撮像処理を行うための撮像指示信号を発生する。なお、シナリオによる画像撮影モード下では2段目の操作(全押し状態)があると、撮影処理が行われ、演者と文字列が関連付けられて記録媒体に記録される。
また、シナリオによる画像撮影モード時には、上述したSETキー63に代えて、液晶モニタ173の中央部分(フォーカス領域)にある画像を演者として指定する演者指定キーとして機能させるようにしてもよい。
The shutter key 65 performs a release operation at the time of imaging, has a stroke of two steps, and performs auto focus (AF) and automatic exposure (AE) by the first step operation (half-pressed state). And an imaging instruction signal for performing imaging processing by the second stage operation (fully pressed state). Note that under the image shooting mode according to the scenario, if there is a second-stage operation (fully pressed state), shooting processing is performed, and the performer and the character string are associated and recorded on the recording medium.
Further, in the image capturing mode according to the scenario, instead of the SET key 63 described above, the image in the center portion (focus area) of the liquid crystal monitor 173 may be functioned as a performer designation key for designating as a performer.

メニューキー66は、その時点で処理可能な選択メニューやアイコンを表示する場合に操作されるキーである。   The menu key 66 is operated to display a selection menu or icon that can be processed at that time.

図2はプログラム格納メモリ15に格納されているプログラムの例を示す図であり、図示の例ではプログラム格納メモリ15には、撮像制御プログラム151、画像処理プログラム152、通信制御プログラム153、および本発明に基づくシナリオによる画像撮影プログラム154等が格納されている。また、画像認識処理部13として専用の回路を設けない場合は、プログラム格納メモリ15に画像認識処理のための画像認識処理プログラム155を格納するようにしてもよい。
なお、プログラムを格納するメモリはプログラム格納メモリ15に限定されない。プログラムはその構成や使用目的に応じてプログラム格納メモリ15以外のメモリ(例えば、記録媒体19)に格納される。また、プログラムはその構成や使用目的に応じて外部入出力部40を介してダウンロードして実行することもできる。
FIG. 2 is a diagram showing an example of a program stored in the program storage memory 15. In the illustrated example, the program storage memory 15 includes an imaging control program 151, an image processing program 152, a communication control program 153, and the present invention. An image photographing program 154 based on a scenario based on the above is stored. Further, when a dedicated circuit is not provided as the image recognition processing unit 13, an image recognition processing program 155 for image recognition processing may be stored in the program storage memory 15.
The memory for storing the program is not limited to the program storage memory 15. The program is stored in a memory (for example, a recording medium 19) other than the program storage memory 15 according to the configuration and purpose of use. The program can also be downloaded and executed via the external input / output unit 40 according to the configuration and purpose of use.

撮像制御プログラム151は、いくつかのサブプログラムからなり、制御部10がレンズ駆動系や撮像信号系の動作制御や各種プログラムの実行タイミングの制御等を行うように機能する。画像処理プログラム152は、いくつかのサブプログラムからなり、画像データ処理部12の動作制御や画像表示時の画像処理、画像記録/読み出し時の画像圧縮/伸張処理等を行うように機能する。通信制御プログラム153は、いくつかのサブプログラムからなり、外部入出力部40によるデジタルカメラ100と外部装置との間での画像データやプログラム等の送受信を制御するように機能する。また、本発明により生成されたシナリオによる撮影画像をインターネット上のウエブサイトに送信するよう機能することもできる。   The imaging control program 151 includes several subprograms, and functions so that the control unit 10 performs operation control of the lens driving system and imaging signal system, execution timing control of various programs, and the like. The image processing program 152 includes several subprograms, and functions to perform operation control of the image data processing unit 12, image processing at the time of image display, image compression / expansion processing at the time of image recording / reading, and the like. The communication control program 153 includes several subprograms, and functions to control transmission / reception of image data, programs, and the like between the digital camera 100 and an external device by the external input / output unit 40. It is also possible to function to transmit a photographed image based on a scenario generated by the present invention to a website on the Internet.

シナリオによる画像撮影プログラム154は、撮影時にスルー表示されるカメラ視野内の被写体(演者)を選ぶと、演者の台詞(文字列)を出力し、演者とその台詞を視覚的に関連付けて表示してなるシナリオによる撮影画像を生成する。シナリオによる画像撮影プログラム154の動作例については後述する(図7参照)。   The scenario-based image shooting program 154 outputs a performer's dialogue (character string) when selecting a subject (actor) within the camera field of view that is displayed through during the shooting, and visually displays the performer and its dialogue in association with each other. A captured image is generated according to a scenario. An example of the operation of the image capturing program 154 according to the scenario will be described later (see FIG. 7).

(シナリオ用データベース)
図3は、シナリオ用データベース20の概念図である。シナリオ用データベース20は、たとえば、シナリオテーブル21、シーンテーブル22及びカットテーブル23の三つのテーブルを結合させたリレーショナル構造とすることができる。リレーショナル構造としたとき、シナリオテーブル21は、ユニークなシナリオ識別情報(ID)を格納するシナリオIDフィールド24、そのシナリオの名前(シナリオ名)を格納するシナリオ名フィールド25及びそのシナリオの内容を説明するための文字ガイダンス26aやイラストガイダンス26bからなるシナリオガイダンスを格納するシナリオガイダンスフィールド26を含み、シーンテーブル22は、シナリオテーブル21との連結用参照IDを格納する参照IDフィールド22−1、ユニークなシーン識別情報(ID)を格納するシーンIDフィールド22−2、シーンの名前(シーン名)を格納するシーン名フィールド22−3を含み、カットテーブル23は、シーンテーブル22との連結用参照IDを格納する参照IDフィールド23−1、ユニークなカット識別情報(ID)を格納するカットIDフィールド23−2、そのカットの名前(カット名)を格納するカット名フィールド23−3、そのカットの内容を説明するための文字ガイダンス23−4aやイラストガイダンス23−4bからなるカットガイダンスを格納するカットガイダンスフィールド23−4、そのカットにおける各演者の台詞データ(文字列)を格納する台詞フィールド23−5、そのカットの撮影に適した撮影条件データを格納する撮影条件データフィールド23−6を含む。
(Scenario database)
FIG. 3 is a conceptual diagram of the scenario database 20. The scenario database 20 can have, for example, a relational structure in which three tables of a scenario table 21, a scene table 22, and a cut table 23 are combined. When the relational structure is adopted, the scenario table 21 describes a scenario ID field 24 for storing unique scenario identification information (ID), a scenario name field 25 for storing the scenario name (scenario name), and the contents of the scenario. Including a scenario guidance field 26 for storing scenario guidance composed of character guidance 26a and illustration guidance 26b. The scene table 22 includes a reference ID field 22-1 for storing a reference ID for connection with the scenario table 21, and a unique scene. It includes a scene ID field 22-2 for storing identification information (ID) and a scene name field 22-3 for storing the name of the scene (scene name). The cut table 23 stores a reference ID for connection with the scene table 22. Reference ID Field 23-1, a cut ID field 23-2 for storing unique cut identification information (ID), a cut name field 23-3 for storing the name of the cut (cut name), and the contents of the cut Cut guidance field 23-4 for storing cut guidance composed of character guidance 23-4a and illustration guidance 23-4b, dialogue field 23-5 for storing dialogue data (character string) of each performer in the cut, and photographing of the cut Includes a shooting condition data field 23-6 for storing shooting condition data suitable for the camera.

撮影条件フィールド23−6に格納される撮影条件データは、絞り、被写界深度、画角、ズーム倍率、画像のボケ具合、露出、ホワイトバランス又は自動手ブレ補正の制御データである。制御部10は各シーンの撮影条件データに基づいて、当該シーンにおける撮影動作を制御することができる。   The shooting condition data stored in the shooting condition field 23-6 is control data for aperture, depth of field, angle of view, zoom magnification, image blur, exposure, white balance, or automatic camera shake correction. The control unit 10 can control the shooting operation in the scene based on the shooting condition data of each scene.

シーン(Scene)とは、映像のストーリの中で、ある特定の同一地点や同一の動きのまとまりのある部分のことをいう。一般的に複数のカット(Cut)で構成されることが多い。カットは、映像の構成単位とみられる画像の一つながりの断片を指す編集用語。カメラが回り始めてから止まるまでに撮影された一つながりの断片をいう。ショット(Shot)ともいう。   A scene is a part of a video story that has a specific point and a set of movements. Generally, it is often composed of a plurality of cuts. Cut is an editing term that refers to a single piece of an image that is considered to be a video unit. A piece of a piece taken from the time the camera starts turning until it stops. Also called a shot.

通常、映画や放送などの分野ではシーンとカットを厳密に区別しているが、どちらも、概念的には「動画の中の一つながりの断片部分」であるので、ホームビデオなどのパーソナル用途では区別しないことも多い。本実施形態では一応、シーンとカットを区別するが、同義語として取り扱っても構わない。つまり、シーンテーブル22とカットテーブル23に分けているが、シーンテーブル22を用いずに、シナリオテーブル21とカットテーブル23を一つのテーブルにまとめても構わない。この場合、カットテーブル23は“シーン/カットテーブル”となり、また、それを構成するカットIDフィールド23−2やカット名フィールド23−3及びカットガイダンスフィールド23−4の各々の用語(“カット”)は“シーン/カット”と読み替えられる。   Usually, scenes and cuts are strictly differentiated in the fields of movies and broadcasts, but both are conceptually "a piece of a piece in a video", so they are distinguished in personal applications such as home video. Often not. In this embodiment, the scene and the cut are distinguished for the time being, but they may be handled as synonyms. That is, although the scene table 22 and the cut table 23 are separated, the scenario table 21 and the cut table 23 may be combined into one table without using the scene table 22. In this case, the cut table 23 is “scene / cut table”, and the terms (“cut”) of the cut ID field 23-2, the cut name field 23-3 and the cut guidance field 23-4 constituting the cut table 23 are included. Is read as “scene / cut”.

図4〜図6は、シナリオ用データベース20からのデータ取り出し概念図である。便宜的に、三つのシナリオ(A、B、C)を考える。シナリオAは二つのシーン(A1、A2)からなり、それぞれのシーンは各々二つのカット(A1_1、A1_2、A2_1、A2_2)からなっているものとする。また、シナリオBは三つのシーン(B1、B2、B3)からなり、それぞれのシーンは各々三つのカット(B1_1、B1_2、B1_3、B2_1、B2_2、B2_3、B3_1、B3_2、B3_3)からなっているものとする。また、シナリオCは四つのシーン(C1、C2、C3、C4)からなり、それぞれのシーンは各々四つのカット(C1_1、C1_2、C1_3、C1_4、C2_1、C2_2、C2_3、C2_4、C3_1、C3_2、C3_3、C3_4、C4_1、C4_2、C4_3、C4_4)からなっているものとする。 4 to 6 are conceptual diagrams of data extraction from the scenario database 20. For convenience, consider three scenarios (A, B, C). Scenario A is composed of two scenes (A1, A2), and each scene is composed of two cuts (A1_1, A1_2, A2_1, A2_2). Scenario B consists of three scenes (B1, B2, B3), and each scene consists of three cuts (B1_1, B1_2, B1_3, B2_1, B2_2, B2_3, B3_1, B3_2, B3_3). And Scenario C consists of four scenes (C1, C2, C3, C4). Each scene has four cuts (C1_1, C1_2, C1_3, C1_4, C2_1, C2_2, C2_3, C2_4, C3_1, C3_2, C3_3). , C3_4, C4_1, C4_2, C4_3, C4_4).

今、シナリオテーブル21のシナリオAを選択したとすると、図5に示すように、シナリオテーブル21からシナリオAのシナリオ名とシナリオガイダンス(文字ガイダンス、イラストガイダンス)が取り出されるとともに、シーンテーブル22からシナリオAの各シーン(A1、A2)のシーン名が取り出され、さらに、カットテーブル23からそれぞれのシーン(A1、A2)を構成する各カット(A1_1、A1_2、A2_1、A2_2)のカット名やカットガイダンス(文字ガイダンス、イラストガイダンス)、台詞データ及び撮影条件データが取り出される。   Assuming that scenario A in scenario table 21 is selected, the scenario name and scenario guidance (character guidance and illustration guidance) of scenario A are extracted from scenario table 21 as shown in FIG. The scene name of each scene (A1, A2) of A is extracted, and further, the cut name and cut guidance of each cut (A1_1, A1_2, A2_1, A2_2) constituting each scene (A1, A2) from the cut table 23. (Text guidance, illustration guidance), dialogue data and shooting condition data are extracted.

同様に、シナリオテーブル21のシナリオBを選択したとすると、図6に示すように、シナリオテーブル21からシナリオBのシナリオ名とシナリオガイダンス(文字ガイダンス、イラストガイダンス)が取り出されるとともに、シーンテーブル22からシナリオBの各シーン(B1、B2、B3)のシーン名が取り出され、さらに、カットテーブル23からそれぞれのシーン(B1、B2、B3)を構成する各カット(B1_1、B1_2、B1_3、B2_1、B2_2、B2_3、B3_1、B3_2、B3_3)のカット名やカットガイダンス(文字ガイダンス、イラストガイダンス)、台詞データ及び撮影条件データが取り出される。   Similarly, if scenario B in scenario table 21 is selected, the scenario name and scenario guidance (character guidance, illustration guidance) of scenario B are extracted from scenario table 21 and from scene table 22 as shown in FIG. The scene name of each scene (B1, B2, B3) of scenario B is taken out, and furthermore, each cut (B1_1, B1_2, B1_3, B2_1, B2_2) constituting each scene (B1, B2, B3) from the cut table 23. , B2_3, B3_1, B3_2, B3_3), cut guidance (character guidance, illustration guidance), dialogue data, and shooting condition data are extracted.

同様に、シナリオテーブル21のシナリオCを選択したとすると、図7に示すように、シナリオテーブル21からシナリオCのシナリオ名とシナリオガイダンス(文字ガイダンス、イラストガイダンス)が取り出されるとともに、シーンテーブル22からシナリオCの各シーン(C1、C2、C3、C4)のシーン名が取り出され、さらに、カットテーブル23からそれぞれのシーン(C1、C2、C3、C4)を構成する各カット(C1_1、C1_2、C1_3、C1_4、C2_1、C2_2、C2_3、C2_4、C3_1、C3_2、C3_3、C3_4、C4_1、C4_2、C4_3、C4_4)のカット名やカットガイダンス(文字ガイダンス、イラストガイダンス)、台詞データ及び撮影条件データが取り出される。   Similarly, assuming that scenario C in scenario table 21 is selected, the scenario name and scenario guidance (character guidance, illustration guidance) of scenario C are taken out from scenario table 21 as shown in FIG. The scene names of the scenes (C1, C2, C3, C4) of the scenario C are extracted, and further, the cuts (C1_1, C1_2, C1_3) constituting the respective scenes (C1, C2, C3, C4) from the cut table 23. , C1_4, C2_1, C2_2, C2_3, C2_4, C3_1, C3_2, C3_3, C3_4, C4_1, C4_2, C4_3, C4_4) cut names, cut guidance (character guidance, illustration guidance), dialogue data and shooting condition data are extracted .

(シナリオによる画像撮影)
図7は、シナリオによる画像撮影時の制御部10の制御動作例を示すフローチャートであり、シナリオによる画像撮影プログラムの動作に相当する。以下、本実施形態に係わるシナリオによる画像撮影時の動作について図7と、図1および図3〜図6を基に説明する。
なお、下記図7のフローチャートにおいて、表示された台詞(文字列)を補正するためのステップS8、S9は必須ではない。
(Image shooting by scenario)
FIG. 7 is a flowchart illustrating an example of a control operation of the control unit 10 at the time of image capturing according to a scenario, and corresponds to the operation of the image capturing program based on the scenario. Hereinafter, the operation at the time of image capturing according to the scenario according to the present embodiment will be described with reference to FIG. 7 and FIGS. 1 and 3 to 6.
In the flowchart of FIG. 7 below, steps S8 and S9 for correcting the displayed dialogue (character string) are not essential.

シナリオによる画像撮影モードが選択されると、制御部10は演者カウンタJの値を1に設定すると共に、一次記憶メモリ16に確保される特徴データ保持領域161および台詞データ等保持領域162をクリアし(ステップS1)、スルー画像の表示を開始する(ステップS2)。   When the image capturing mode based on the scenario is selected, the control unit 10 sets the value of the performer counter J to 1 and clears the feature data holding area 161 and the dialogue data etc. holding area 162 secured in the primary storage memory 16. (Step S1), display of the through image is started (Step S2).

制御部10は、シナリオ選択操作を検出するとシナリオ選択およびカットガイダンス表示処理を行う。シナリオ選択およびカットガイダンス表示処理動作については後述する(図8参照)(ステップS3)。   When detecting the scenario selection operation, the control unit 10 performs scenario selection and cut guidance display processing. The scenario selection and cut guidance display processing operations will be described later (see FIG. 8) (step S3).

カットガイダンスが表示されると、撮影者はシナリオやカットガイダンスを参照して最適なカメラアングルの決定等の撮影準備を行なう。そして、シナリオやカットガイダンスに示す演者がそのカット画面に存在する場合は、演者に台詞を関連付けるために演者指定操作(例えば、SETキー63の押し下げ操作)を行うので、制御部10は、演者指定操作を検出するとステップS5に進み、そうでない場合はステップS15に進む(ステップS4)。   When the cut guidance is displayed, the photographer makes preparations for shooting such as determining the optimum camera angle with reference to the scenario and the cut guidance. When the performer shown in the scenario or the cut guidance exists on the cut screen, a performer specifying operation (for example, a pressing operation of the SET key 63) is performed in order to associate the dialogue with the performer. If an operation is detected, the process proceeds to step S5, and if not, the process proceeds to step S15 (step S4).

制御部10は、合焦領域(カメラ中央に示される矩形領域)に表示されている画像を演者として画像認識処理部13に演者の特定部分(人物、動物の場合は顔部分)について画像認識処理を行わせ、画像認識処理部13によって抽出された特定部分の特徴を一次記憶メモリ16に確保されている特徴データ保持領域161のうちJ番目の領域に保持(記憶)する(ステップS5)。   The control unit 10 uses the image displayed in the in-focus area (rectangular area shown in the center of the camera) as a performer, and performs an image recognition process on the specific part of the performer (a person or a face in the case of an animal). And the feature of the specific part extracted by the image recognition processing unit 13 is held (stored) in the Jth region of the feature data holding region 161 secured in the primary storage memory 16 (step S5).

制御部10は、演者に対応付けて吹き出し枠を表示する。本実施例では吹き出し枠は演者が人物または動物の場合は口元に表示し、その他の場合はその近傍に表示しているがこれに限定されない。なお、口元に吹き出し枠を表示し、吹き出し枠内に文字列を表示するには公知の技術(例えば、特許文献2(特許第3711418号)や特許第307096号に開示の技術)を適宜用いることができる(ステップS6)。   The control unit 10 displays a balloon frame in association with the performer. In this embodiment, when the performer is a person or an animal, the balloon frame is displayed at the mouth, and in other cases, the balloon frame is displayed in the vicinity thereof, but the present invention is not limited to this. In order to display a balloon frame at the mouth and display a character string in the balloon frame, a known technique (for example, the technique disclosed in Patent Document 2 (Patent No. 3711418) or Patent No. 307096) is appropriately used. (Step S6).

制御部10は、シナリオ用データベース20から台詞データフィールド23−5に格納されている現在撮影中のカット(シーン)の台詞(文字列)を取り出してステップS6で表示した吹き出し枠の中に表示すると共に吹き出し枠の吹き出し位置、サイズ、および吹き出し文字列等を文字列保持領域162のうちのJ番目の領域に保持する(ステップ7)。   The control unit 10 extracts the dialogue (character string) of the currently shot cut (scene) stored in the dialogue data field 23-5 from the scenario database 20, and displays it in the balloon frame displayed in step S6. At the same time, the balloon position and size of the balloon frame, the balloon character string, and the like are held in the Jth area of the character string holding area 162 (step 7).

吹き出し枠内に表示されている台詞補正の要否を問うメッセージを画面の所定領域(例えば、画面下部)に表示し、撮影者が台詞補正を要する旨の指示(例えば、SETキー63の押し下げ)を行ったか否かを調べ、台詞補正を要する旨の指示があった場合はステップS9に進み、そうでない場合(例えば、所定時間経過するか他のキーが操作された場合)はステップS10に進む(ステップS8)。   A message asking whether or not to correct the dialogue displayed in the balloon frame is displayed in a predetermined area of the screen (for example, the lower part of the screen), and an instruction to the photographer that the dialogue correction is necessary (for example, pressing the SET key 63) The process proceeds to step S9 if there is an instruction that a dialogue correction is required, and if not (for example, if a predetermined time has elapsed or another key has been operated), the process proceeds to step S10. (Step S8).

台詞補正処理を実行し、ステップS8に戻る。台詞補正処理動作については後述する(図9参照)(ステップS9)。   The line correction process is executed, and the process returns to step S8. The line correction processing operation will be described later (see FIG. 9) (step S9).

次に、制御部10は、次の演者指定操作(例えば、SETキー63の押し下げ操作)の有無を調べ、演者指定操作を検出するとステップS9に進み、そうでない場合(例えば、所定時間経過するか他のキーが操作された場合)はステップS15に進む(ステップS10)。   Next, the control unit 10 checks the presence / absence of the next performer designation operation (for example, pressing operation of the SET key 63). If the performer designation operation is detected, the control unit 10 proceeds to step S9, otherwise (for example, whether a predetermined time has elapsed). If another key is operated), the process proceeds to step S15 (step S10).

演者指定操作を検出すると、制御部10は、合焦領域(カメラ中央に示される矩形領域)にある画像を演者として画像認識処理部13に特定部分(人物、動物の場合は顔部分)について画像認識処理を行わせ、画像認識処理部13によって抽出された特定部分の特徴を一次記憶メモリ16の特徴データ保持領域161のうちJ番目の領域に確保されている特徴データと比較し(ステップS11)、類似度が所定の閾値を超えた場合はステップS13に進み、所定の閾値以下の場合はステップS15に進む(ステップS12)。   When the performer designation operation is detected, the control unit 10 uses the image in the in-focus area (rectangular area shown in the center of the camera) as the performer to the image recognition processing unit 13 for the specific part (a face part in the case of a person or an animal). A recognition process is performed, and the feature of the specific part extracted by the image recognition processing unit 13 is compared with the feature data secured in the Jth area of the feature data holding area 161 of the primary storage memory 16 (step S11). If the similarity exceeds a predetermined threshold, the process proceeds to step S13, and if the similarity is equal to or less than the predetermined threshold, the process proceeds to step S15 (step S12).

類似度が所定の閾値を超えた場合は、制御部10は、指定された演者がすでに指定済みの演者の被写体と同一被写体と判定して抽出された特定部分の特徴を一次記憶メモリ16の特徴データ保持領域161のうちJ番目の領域に確保されている特徴データに上書きする(ステップS13)。   When the degree of similarity exceeds a predetermined threshold, the control unit 10 determines the feature of the specific storage extracted by determining that the designated performer is the same subject as the subject of the already designated performer. The feature data secured in the Jth area of the data holding area 161 is overwritten (step S13).

制御部10は、演者カウンタJの値に1を加えてステップS4に戻る。これにより、新たな演者に文字列を関連付けるための処理を開始できる(ステップS14)。   The control unit 10 adds 1 to the value of the performer counter J and returns to step S4. Thereby, the process for associating the character string with the new performer can be started (step S14).

シャッターキー65が操作されたか否かを調べ、シャッターキー65の操作がされていない場合はステップS8に戻る。なお、ステップS8、S9を設けない場合はシャッターキー65の操作がされるまで待つようにする(ステップS15)。   It is checked whether or not the shutter key 65 has been operated. If the shutter key 65 has not been operated, the process returns to step S8. If steps S8 and S9 are not provided, the process waits until the shutter key 65 is operated (step S15).

シャッターキー65が半押し操作されるとオートフォーカス処理を行なう。オートフォーカス終了後、シャッターキー65が全押し操作されると撮影処理を実行し、撮影された画像の各演者に吹き出しを視覚的に関連付けることができるように、一次記憶メモリ16の吹き出し文字等保持領域162の各領域に保持(記憶)されている吹き出し枠の吹き出し位置や吹き出し枠のサイズに基づいて吹き出し文字を撮影画像に合成(たとえば、吹き出し枠および吹き出し文字を撮影画像に上書きするように合成)し、記録部18を制御して記録媒体に記録し、1カット枚分の画像の撮影を終了する(ステップS16)。   When the shutter key 65 is pressed halfway, autofocus processing is performed. After the autofocus is completed, when the shutter key 65 is fully pressed, shooting processing is executed, and the balloon characters in the primary storage memory 16 are held so that the balloons can be visually associated with each performer of the shot image. The balloon character is combined with the photographed image based on the balloon position and the size of the balloon frame held (stored) in each area of the area 162 (for example, the balloon frame and the balloon character are combined so as to overwrite the photographed image). Then, the recording unit 18 is controlled and recorded on the recording medium, and photographing of one cut image is finished (step S16).

なお、上記図7のステップS16の後に、「制御部10は、送信指示があると通信制御プログラムの制御により合成されたシナリオによる撮影画像を外部入出力部50を介してインターネット上のウエブサイトに送信する」ステップを設けるようにしてもよい。   After step S16 in FIG. 7, “the control unit 10 sends a photographed image based on the scenario synthesized under the control of the communication control program to the website on the Internet via the external input / output unit 50 when there is a transmission instruction. A “send” step may be provided.

図8は、図7のステップS3(シナリオ選択およびカットガイダンス表示処理)の詳細な動作を示すフローチャートである。   FIG. 8 is a flowchart showing the detailed operation of step S3 (scenario selection and cut guidance display processing) of FIG.

制御部10は、シナリオ選択操作を検出すると、あらかじめシナリオ用データベース20に保存されているシナリオテーブル21のすべてのシナリオ名を液晶モニタ173の画面上に選択可能にリスト表示して撮影者にシナリオの選択を促し(ステップS3−1)、撮影者によるシナリオの選択を検出するとステップS3−3に進む。シナリオの選択は例えばカーソルキー62によるシナリオの指定操作およびSETキー63による確定操作によって行うことができる(ステップS3−2)。 When detecting the scenario selection operation, the control unit 10 displays a list of all scenario names in the scenario table 21 stored in the scenario database 20 in advance on the screen of the liquid crystal monitor 173 so that the scenario is displayed to the photographer. When the selection is prompted (step S3-1) and the selection of the scenario by the photographer is detected, the process proceeds to step S3-3. The scenario can be selected by, for example, a scenario designation operation using the cursor key 62 and a confirmation operation using the SET key 63 (step S3-2).

制御部10は上記ステップS3−2の撮影者のシナリオ選択操作により選択されたシナリオに従い該当する文字ガイダンスや絵コンテ(イラスト)をシナリオ用データベース20のカットガイダンスフィールド23−4から取り出して液晶モニタ173の所定の箇所(実施例では画面の下側)に表示して演者等の選択を促し、図7のステップS4に進む(ステップS3−3)。これにより撮影者は表示される文字ガイダンスや絵コンテに基づいてカット(シーン)単位に撮影操作を行うことができる。   The control unit 10 takes out the corresponding character guidance and storyboard (illustration) from the cut guidance field 23-4 of the scenario database 20 according to the scenario selected by the scenario selection operation of the photographer in step S3-2, and the liquid crystal monitor 173. Is displayed at a predetermined location (lower side of the screen in the embodiment) to prompt the selection of performers and the like, and the process proceeds to step S4 in FIG. 7 (step S3-3). Thus, the photographer can perform a photographing operation in units of cuts (scenes) based on the displayed character guidance and storyboard.

図9は、図7のステップS9(表示されている台詞(文字列)の補正処理)の詳細な動作を示すフローチャートである。   FIG. 9 is a flowchart showing the detailed operation of Step S9 (correction processing of the displayed dialogue (character string)) in FIG.

台詞補正を要する旨の指示があった場合は、制御部10は、液晶モニタ173の画面の所定領域(例えば画面下部)に撮影者に台詞の補正位置の指定を促すメッセージを表示する(ステップS9−1)。   When there is an instruction to require line correction, the control unit 10 displays a message prompting the photographer to specify a line correction position in a predetermined area (for example, the lower part of the screen) of the screen of the liquid crystal monitor 173 (step S9). -1).

撮影者は表示されている台詞のうちの補正したい位置(先頭に文字を追加する場合は先頭部分、後尾に追加したい場合は後尾部分、置換したい場合はその部分(図10(b)の例では符号104で示す部分)をカーソルキー62を動かして指定するので、制御部10は画面上の位置(座標)を一次記憶メモリ16の所定領域に保持する(ステップS9−2)。   The photographer selects the position of the displayed dialogue to be corrected (the head portion when adding characters at the beginning, the tail portion when adding characters to the tail, or the portion when replacing) (in the example of FIG. 10B). Since the part designated by reference numeral 104 is designated by moving the cursor key 62, the control unit 10 holds the position (coordinates) on the screen in a predetermined area of the primary storage memory 16 (step S9-2).

次に、台詞補正用データベースから補正文字列を取り出すためのキーの選択を促すメッセージ105とキー選択欄106(図10参照)を表示する。キーとしては、例えばキー選択欄106に五十音のうちの1文字をスクロール可能に表示し、カーソル操作により1文字キーを選択するように構成できる(ステップS9−3)。   Next, a message 105 for prompting selection of a key for extracting a correction character string from the dialogue correction database and a key selection field 106 (see FIG. 10) are displayed. As a key, for example, one character of the Japanese syllabary can be displayed in a scrollable manner in the key selection field 106, and one character key can be selected by a cursor operation (step S9-3).

撮影者がキー選択欄101で補正文字の先頭をキーとして選択すると、選択された1文字をキーとして台詞補正用データベース14を検索し、補正文字列候補(一個または複数個の、単語、接頭語、接尾語等)を画面の所定位置に表示し選択を促す(ステップS9−4)。   When the photographer selects the beginning of the correction character in the key selection field 101 as a key, the dialogue correction database 14 is searched using the selected one character as a key, and a correction character string candidate (one or a plurality of words, prefixes) is searched. , A suffix, etc.) are displayed at a predetermined position on the screen to prompt selection (step S9-4).

撮影者は上記ステップS9−4で表示された文字列から所望の文字列を得るためにカーソルキー62を操作して、文字列選択や連想検索等による文字列絞込み処理により所望の文字列を選択する(ステップS9−5)。   The photographer operates the cursor key 62 to obtain a desired character string from the character string displayed in step S9-4, and selects a desired character string by character string narrowing processing such as character string selection or associative search. (Step S9-5).

所望の文字が確定すると確定キー(本実施形態では、SETキー63)を押すので、制御部10は、確定キーの押し下げを検出すると、その文字列を台詞補正文字列とし、上記ステップS9−2で指定した補正位置に上書き表示して台詞を補正し、ステップS7に戻る(S9−6)。   When the desired character is confirmed, the confirmation key (SET key 63 in the present embodiment) is pressed, so that when the depressing of the confirmation key is detected, the control unit 10 sets the character string as a line correction character string, and the above step S9-2 The dialogue is corrected by overwriting at the correction position designated in step S7, and the process returns to step S7 (S9-6).

上記図7〜図9のフローチャートに示した動作により、撮影者は表示されるシナリオガイダンスや絵コンテに基づいて撮影操作を行うことができる。
また、デジタルカメラ100は、撮影者が選択したシナリオに基づいて、撮影時に撮影者が演者として指定した被写体画像に台詞を視覚的に関連付けたシナリオによる撮影画像を生成することができる。また、ステップS10以下の動作により、複数の演者を指定し、それぞれ言葉(文字列)を視覚的に関連付けることもできる。
Through the operations shown in the flowcharts of FIGS. 7 to 9, the photographer can perform a photographing operation based on the displayed scenario guidance or storyboard.
Further, the digital camera 100 can generate a photographed image based on a scenario in which a dialogue is visually associated with a subject image designated by the photographer as a performer at the time of photographing based on the scenario selected by the photographer. In addition, by performing the operations after step S10, a plurality of performers can be designated, and words (character strings) can be visually associated with each other.

また、図7のステップS7、S8を設けることにより台詞の補正ができるので、画面がシナリオに沿って入るものの、そのときの演者の様子や撮影者の気分で、予めシナリオ用データベース20に登録されている台詞を少し変更したり、アドリブを入れたい場合や、場面に応じた台詞をいれたい場合などに便利である。   In addition, since the dialogue can be corrected by providing steps S7 and S8 in FIG. 7, the screen enters along the scenario, but the state of the performer and the mood of the photographer at that time are registered in the scenario database 20 in advance. This is convenient when you want to change the dialogue that is being used a little, if you want to add ad libs, or if you want to add dialogue according to the scene.

なお、図8に示したフローチャートでは、演者指定操作手段としてSETキー63を用い、SETキー63が押されたときにステップS3およびステップS8でカメラの合焦領域にある画像を演者とするように構成したが、演者指定操作手段はSETキー63に限定されない。例えば、シャッターキー65を演者指定操作手段として用いるようにしてもよい。   In the flowchart shown in FIG. 8, the SET key 63 is used as the performer designation operation means, and when the SET key 63 is pressed, the image in the in-focus area of the camera is set as the performer in step S3 and step S8. Although configured, the performer designation operation means is not limited to the SET key 63. For example, the shutter key 65 may be used as a performer specifying operation means.

また、カメラの合焦領域にある画像を演者とするのではなく、カーソルキー62によってカーソルを画面中の所望の画像部分に移動させ、SETキー63等の演者決定操作手段の操作があるとカーソルが位置している画像を演者とするようにしてもよい。   Also, instead of using the image in the in-focus area of the camera as a performer, the cursor is moved to a desired image portion on the screen by the cursor key 62, and when the performer determining operation means such as the SET key 63 is operated, the cursor is moved. The image where is located may be the performer.

図8に示したフローチャートでは図10に示すように文字列の表示位置を演者の口元(演者が風景や建造物の場合は近傍)とし、吹き出し枠内に表示するようにしたがこれに限定されず、画面上の所定の位置(例えば、演者の頭上、口元、文字表示領域内(画面上で画像表示領域と別に設けた文字表示領域等)でもよい。   In the flowchart shown in FIG. 8, as shown in FIG. 10, the display position of the character string is the performer's mouth (near the performer if it is a landscape or a building) and is displayed in the balloon frame. However, the present invention is not limited to this. Instead, it may be a predetermined position on the screen (for example, above the performer's head, mouth, or within a character display area (a character display area provided separately from the image display area on the screen).

図10は、演者に対応付けた台詞の吹き出表示例および表示された台詞の補正例を示す図である。
図10で、(a)は演者に対応付けて表示される吹き出し枠102内に台詞103を表示した例、(b)は台詞の補正位置104の指定例およびキー選択のメッセージ105、キー選択欄106、スクロール指示ボタン107、確認ボタン108の表示例、(c)は選択した補正文字列によって補正された台詞の例を示し、この例では、「いいお天気!」という台詞の先頭に「すばらしく」という文字列が追加され「すばらしくいいお天気!」という台詞109が表示されている。
FIG. 10 is a diagram illustrating a speech balloon display example associated with the performer and a correction example of the displayed speech.
10, (a) is an example in which dialogue 103 is displayed in a balloon frame 102 displayed in association with a performer, (b) is a designation example of dialogue correction position 104, key selection message 105, and a key selection field. 106, a display example of the scroll instruction button 107 and the confirmation button 108, and (c) shows an example of the dialogue corrected by the selected correction character string. In this example, “excellent” is placed at the beginning of the dialogue “Good weather!”. Is added, and the line 109 “Great weather!” Is displayed.

<実施形態2>
上記実施形態1の台詞補正処理(図7のステップS9(図9のフローチャート))の例では、撮像装置が音声入力部を備えていない例を示したが、撮像装置を音声入力部を備えるように構成し、音声/文字変換部(若しくは音声/文字変換プログラム)により、入力した音声を文字に変換して演者に関連付けて表示されている台詞を補正することができる。
<Embodiment 2>
In the example of the dialogue correction process (step S9 in FIG. 7 (flowchart in FIG. 9)) of the first embodiment, an example in which the imaging device does not include the voice input unit is shown. However, the imaging device includes the voice input unit. The speech / character conversion unit (or speech / character conversion program) converts the input speech into characters and corrects the dialogue displayed in association with the performer.

図11は、実施形態2に係わるデジタルカメラの内部構成例を示すブロック図であり、
デジタルカメラ200の内部構成は、実施形態1(図1)で示したデジタルカメラ100の構成に音声入出力部31および音声/文字変換部32を付加した構成(台詞補正用データベース14は不要)でよい。
FIG. 11 is a block diagram illustrating an internal configuration example of a digital camera according to the second embodiment.
The internal configuration of the digital camera 200 is a configuration in which the voice input / output unit 31 and the voice / character conversion unit 32 are added to the configuration of the digital camera 100 shown in the first embodiment (FIG. 1) (the dialogue correction database 14 is not required). Good.

音声入出力部31はデジタルカメラ200の液晶モニタ173側に設けられたマイクロフォンであり、入力した音声を音声信号に変換して文字列音声/文字変換部32に出力する。音声/文字変換部32は音声入力部31から入力した音声信号を一音節ごとに音声認識処理により認識して対応する文字列を出力する。   The voice input / output unit 31 is a microphone provided on the liquid crystal monitor 173 side of the digital camera 200, converts the input voice into a voice signal, and outputs the voice signal to the character string voice / character conversion unit 32. The voice / character conversion unit 32 recognizes the voice signal input from the voice input unit 31 by voice recognition processing for each syllable and outputs a corresponding character string.

このような音声入出力部31および音声/文字変換部32を設けることにより、シナリオによる画像撮影モードにおける台詞補正を簡単に行うことができる。   By providing the voice input / output unit 31 and the voice / character conversion unit 32 as described above, dialogue correction in an image shooting mode based on a scenario can be easily performed.

具体的には、図7のフローチャートのステップS9(つまり、図9のステップS9−3、〜S9−5を、「撮影者は台詞補正用データベース14から所望の補正用文字列を得るために音声を発するので、制御部10は音声/変換部31をオンにして音声入力部31からの入力音声信号を音声認識し、出力された文字列を画面の所定位置に表示し確認を促す(ステップS9−3)。」ように構成し、ステップS9−6を「撮影者は、表示された文字列が所望の文字列の場合は確定キー(本実施形態では、SETキー63)を押すので、制御部10は、確定キーの押し下げを検出すると、その文字列を台詞補正文字列とし、上記ステップS9−2で指定した補正位置に上書き表示し、ステップS7に戻る。また、表示された文字列が所望の文字列でない場合は、音声の再入力を促すメッセージを表示してステップS9−3に戻る(S9−4)。」ように構成すればよい。   Specifically, step S9 in the flowchart of FIG. 7 (that is, steps S9-3 to S9-5 of FIG. 9 are performed by “the photographer uses the speech correction database 14 to obtain a desired correction character string from the speech correction database 14”. Therefore, the control unit 10 turns on the voice / conversion unit 31, recognizes the voice signal input from the voice input unit 31, and displays the output character string at a predetermined position on the screen to prompt confirmation (step S9). -3). ”, The step S9-6 is executed when the photographer presses the confirmation key (in this embodiment, the SET key 63) when the displayed character string is a desired character string. When detecting the depression of the enter key, the unit 10 sets the character string as a line correction character string, overwrites it on the correction position specified in step S9-2, and returns to step S7. The desired string If not, the flow returns to step S9-3 to display a message urging re-inputting of the voice (S9-4). "May be configured.

このように、補正用文字列を音声入力部からの入力音声に基づいて行うよう構成することにより、カーソル操作で補正文字列を取得する場合に比べ簡単に補正文字列を取得して台詞を補正できる。
<実施形態3>
In this way, by configuring the correction character string to be performed based on the input voice from the voice input unit, it is easier to acquire the correction character string and correct the dialogue than when the correction character string is acquired by the cursor operation. it can.
<Embodiment 3>

上記実施形態2では、撮像装置が文字入力装置を備えていない例を示したが、撮像装置を文字入力装置を備えるように構成し、入力した補正用文字列で台詞を補正することもできる。例えば、携帯電話の文字キーを用いてカーソル指定された位置から文字を入力するようにすれば撮影者の思い通りに補正できる。また、音声入力部(マイクロフォン345)や無線送信部331も元々備わっているので、音声による補正文字列の取得はカメラの場合より構造的に容易であり、ウエブサイトにシナリオによる撮影画像を送信する際にも予めウエブサイトのURLを登録しておけば、送信指示キーを押すだけでウエブサイトに送信できる。   In the second embodiment, an example in which the imaging device does not include the character input device has been described. However, the imaging device may be configured to include the character input device, and the dialogue may be corrected using the input correction character string. For example, if a character is input from the position designated by the cursor using a character key of a mobile phone, it can be corrected as the photographer wishes. In addition, since the voice input unit (microphone 345) and the wireless transmission unit 331 are originally provided, it is structurally easier to obtain a corrected character string by voice than in the case of a camera, and a photographed image according to a scenario is transmitted to a website. Also, if the URL of the website is registered in advance, it can be transmitted to the website simply by pressing the transmission instruction key.

図12は、本実施形態に係わるカメラ付き携帯電話機300の内部構成例を示すブロック図であり、携帯電話機300は、無線送受信部331、無線信号処理部332、制御部333、キー入力部334、ドライバ337、表示部338、加入者情報記憶部339、ROM340、一時記憶メモリ341、記憶部342、音声信号処理部343、スピーカ344、マイクロフォン345、ドライバ346、スピーカ347、バイブレータ348に加え、撮像部335、画像データ処理部336、音声/文字変換部351、および台詞シナリオ用データベース352を備えている。また、撮像部335および画像データ処理部336は本発明の撮像系を構成する。   FIG. 12 is a block diagram illustrating an internal configuration example of the camera-equipped cellular phone 300 according to the present embodiment. The cellular phone 300 includes a wireless transmission / reception unit 331, a wireless signal processing unit 332, a control unit 333, a key input unit 334, In addition to the driver 337, the display unit 338, the subscriber information storage unit 339, the ROM 340, the temporary storage memory 341, the storage unit 342, the audio signal processing unit 343, the speaker 344, the microphone 345, the driver 346, the speaker 347, and the vibrator 348, the imaging unit 335, an image data processing unit 336, a voice / character conversion unit 351, and a dialogue scenario database 352. In addition, the imaging unit 335 and the image data processing unit 336 constitute an imaging system of the present invention.

無線送受信部331は無線によりアンテナ311を介して音声信号やデータを送受する。
無線信号処理部332は無線送受信部331で受信した音声信号やデータを復調したり、無線送受信部331から送信する音声信号やデータを変調するなどの無線通信に必要な処理を行う。
The wireless transmission / reception unit 331 transmits and receives audio signals and data via the antenna 311 wirelessly.
The wireless signal processing unit 332 performs processing necessary for wireless communication such as demodulating the audio signal and data received by the wireless transmission / reception unit 331 and modulating the audio signal and data transmitted from the wireless transmission / reception unit 331.

制御部333は、図2に示した各内部構成要素を総括し、ROM40に格納されている制御プログラム及び動作プログラムや、撮像制御プログラム、画像処理プログラム、等の各種プログラムにより、各内部構成要素の動作を制御する。動作プログラムにはモード選択プログラム、本発明に係わる画像認識プログラムおよびシナリオによる画像撮影プログラムを含んでいる。   The control unit 333 summarizes each internal component shown in FIG. 2 and controls each internal component by various programs such as a control program and an operation program stored in the ROM 40, an imaging control program, and an image processing program. Control the behavior. The operation program includes a mode selection program, an image recognition program according to the present invention, and an image photographing program based on a scenario.

キー入力部334は、電源キー、テンキー、送受信開始キー、送受信停止キー、カーソルキー、取り消しキー、決定キー、シャッターキー等の各種キーを含みこれらのキーが操作されると対応する信号が制御部333に送出される。カーソルキーは実施形態1(図1参照)のカーソルキー62に、決定キーはSETキー63に、シャッターキーはシャッターキー66に相当する。   The key input unit 334 includes various keys such as a power key, a numeric keypad, a transmission / reception start key, a transmission / reception stop key, a cursor key, a cancel key, a determination key, and a shutter key. When these keys are operated, a corresponding signal is transmitted to the control unit. 333. The cursor key corresponds to the cursor key 62 of the first embodiment (see FIG. 1), the enter key corresponds to the SET key 63, and the shutter key corresponds to the shutter key 66.

撮像部335は、撮像素子、信号変換部、撮像タイミング制御部や撮影補助光源等を含む撮像信号系(図示せず)を有しており、撮像レンズを経由し、撮像レンズの撮像光軸後方に配置された撮像素子に入射した被写体光像は撮像素子によって光電変換され撮像信号(アナログ)として出力される。撮像素子の出力信号は信号変換部で相関二重サンプリングおよびゲイン調整され、A/D変換によりデジタル信号に変換される。A/D変換された撮像信号は所定の周期で画像データ処理部336に送られる。   The imaging unit 335 has an imaging signal system (not shown) including an imaging element, a signal conversion unit, an imaging timing control unit, an imaging auxiliary light source, and the like, and passes through the imaging lens and is behind the imaging optical axis of the imaging lens. The subject light image incident on the image pickup device arranged at is photoelectrically converted by the image pickup device and output as an image pickup signal (analog). The output signal of the image sensor is correlated double sampling and gain adjustment by a signal conversion unit, and converted to a digital signal by A / D conversion. The A / D converted image signal is sent to the image data processing unit 336 at a predetermined cycle.

画像データ処理部336は、撮像部335から出力されたデジタル信号(画像データ)に対して画像補間処理及びγ補正処理を含むカラープロセス処理を行ってデジタル値の輝度信号Y及び色差信号Cb、Crを生成し、RAM等の一時記憶メモリ341にバスを介してDMA転送する。   The image data processing unit 336 performs color process processing including image interpolation processing and γ correction processing on the digital signal (image data) output from the imaging unit 335 to perform digital value luminance signal Y and color difference signals Cb, Cr. And DMA-transferred to a temporary storage memory 341 such as a RAM via a bus.

ドライバ337は表示部338を駆動し、画像及びデータを表示させる。また、加入者情報記憶部339は携帯電話機300を呼び出すための電話番号やユーザ(加入者)のID等、プロフィールデータを格納する。   The driver 337 drives the display unit 338 to display an image and data. The subscriber information storage unit 339 stores profile data such as a telephone number for calling the mobile phone 300 and a user (subscriber) ID.

ROM340は制御部の動作プログラムが記録されたプログラム格納用メモリであり、ROM40には制御プログラム及び動作プログラム、本発明に基づくシナリオによる画像撮影プログラムや、撮像制御プログラム、画像処理プログラム、等の各種プログラムを格納し、処理段階に応じて呼び出され制御部10によって実行される。また、動作プログラムにはモード選択プログラムが含まれている。また、上述した画像認識処理部33を設けることなくプログラム格納メモリ15に画像認識処理のための画像認識処理プログラムを格納するようにしてもよい。   A ROM 340 is a program storage memory in which an operation program of the control unit is recorded. The ROM 40 has various programs such as a control program and an operation program, an image photographing program according to a scenario based on the present invention, an imaging control program, and an image processing program. And is called according to the processing stage and executed by the control unit 10. The operation program includes a mode selection program. Further, an image recognition processing program for image recognition processing may be stored in the program storage memory 15 without providing the image recognition processing unit 33 described above.

一時記憶メモリ341はDRAM等のメモリで構成され、無線通信端末として必要な各種データを記憶し、且つ制御部333が動作する上で必要なプログラムやデータを記憶する。また、一時記憶メモリ341は撮影モードおよびシナリオによる画像撮影モードでは、画像データ処理部336から取得する画像データを一時記憶するバッファメモリや、画像認識処理部349による演者の顔画像抽出処理用のワークメモリや、シナリオによる画像撮影用のワークメモリ等、各種プログラムによるデータ処理に必要なワークメモリとして用いられる。   The temporary storage memory 341 is configured by a memory such as a DRAM, stores various data necessary as a wireless communication terminal, and stores programs and data necessary for the control unit 333 to operate. The temporary storage memory 341 is a buffer memory for temporarily storing image data acquired from the image data processing unit 336 and a work for performing a facial image extraction process of the performer by the image recognition processing unit 349 in the shooting mode and the image shooting mode based on the scenario. It is used as a work memory necessary for data processing by various programs such as a memory and a work memory for photographing an image according to a scenario.

シナリオによる画像撮影モードにおいて、一時記憶メモリ341には、シナリオによる画像撮影時に用いられる部分領域として、画像認識処理部349による認識処理の際、演者から抽出された特定部分(たとえば、人物や動物の場合、顔)の特徴データを保持する特徴データ保持領域および演者に関連付けて合成する文字列を保持しておく文字列保持領域がそれぞれ複数個確保される。また、取得した季節(季節コード)を保持しておく季節データ保持領域も確保される(図1参照)。   In the image capturing mode according to the scenario, the temporary storage memory 341 stores a specific portion (for example, a person or an animal) extracted from the performer during the recognition processing by the image recognition processing unit 349 as a partial region used when capturing the image according to the scenario. In this case, a plurality of feature data holding areas for holding face) feature data and a plurality of character string holding areas for holding character strings to be combined in association with performers are secured. Further, a seasonal data holding area for holding the acquired season (season code) is also secured (see FIG. 1).

記憶部342は無線通信端末として必要な各種データや撮影画像や生成されたシナリオによる撮影画像を記憶する。また、プログラムを記憶することもできる。携帯電話機300の電源スイッチがオフの場合でも、記憶部342には電源が供給され記憶内容が維持される。   The storage unit 342 stores various data necessary for the wireless communication terminal, captured images, and captured images based on generated scenarios. A program can also be stored. Even when the power switch of the mobile phone 300 is off, the storage unit 342 is supplied with power and the stored contents are maintained.

音声信号処理部343はマイクロフォン345から入力された音声信号を符号化処理したり、無線信号処理部332から出力された信号に基づいて音声信号を復号してスピーカ347から出力したりする。ドライバ346は、スピーカ347、バイブレータ348を駆動するためのドライバである。   The audio signal processing unit 343 performs encoding processing on the audio signal input from the microphone 345, decodes the audio signal based on the signal output from the wireless signal processing unit 332, and outputs the decoded audio signal from the speaker 347. The driver 346 is a driver for driving the speaker 347 and the vibrator 348.

音声/文字変換部351は、マイクロフォン345から入力した音声信号を一音節ごとに音声認識処理により認識して対応する文字列を出力する。   The voice / character conversion unit 351 recognizes the voice signal input from the microphone 345 by voice recognition processing for each syllable and outputs a corresponding character string.

上記カメラ付き携帯電話機300のキー入力部334に設けられている文字入力キーを用いてシナリオによる画像撮影モードでの補正用文字列の取得を簡単に行うことができる。   Using the character input key provided in the key input unit 334 of the camera-equipped cellular phone 300, it is possible to easily obtain the correction character string in the image shooting mode according to the scenario.

具体的には、図7のフローチャートのステップS9(つまり、図9のステップS9−3、〜S9−5を、「撮影者は台詞補正用データベース14から所望の補正用文字列を得るために文字入力キーを操作して所望の文字列を入力するので、制御部10は入力された文字列を画面の所定位置に表示し確認を促す(ステップS9−3)。」ように構成し、ステップS9−6を「撮影者は、表示された文字列が所望の文字列の場合は確定キー(本実施形態では、SETキー63)を押すので、制御部10は、確定キーの押し下げを検出すると、その文字列を台詞補正文字列とし、上記ステップS9−2で指定した補正位置に上書き表示し、ステップS7に戻る。また、表示された文字列が所望の文字列でない場合は、音声の再入力を促すメッセージを表示してステップS9−3に戻る(S9−4)。」ように構成すればよい。   Specifically, step S9 in the flowchart of FIG. 7 (that is, steps S9-3 to S9-5 of FIG. 9 are performed by “the photographer obtains a character string for obtaining a desired correction character string from the dialogue correction database 14”. Since a desired character string is input by operating the input key, the control unit 10 displays the input character string at a predetermined position on the screen to prompt confirmation (step S9-3). ”Step S9 −6 indicates that the photographer presses the confirmation key (in this embodiment, the SET key 63) when the displayed character string is a desired character string. Therefore, when the controller 10 detects the depression of the confirmation key, The character string is set as a line corrected character string, overwritten at the correction position specified in step S9-2, and the process returns to step S7, and when the displayed character string is not a desired character string, the voice is re-inputted. Message prompting Display to return to step S9-3 (S9-4). "It may be configured.

このように構成することにより、図12に示したカメラ付き携帯電話機300のシナリオによる画像撮影モードでは、、撮影者は、演者指定、出力された台詞(文字列)の確認操作といった簡単な操作でシナリオ撮影画像を生成することができる。また、台詞を補正したい場合は、補正箇所の指定、補正用文字列の入力、補正された台詞(文字列)の確認操作といった簡単な操作で台詞を補正して所望の台詞にすることができる。生成されたシナリオによる撮影画像をまた、送信指示キーを押すだけでウエブサイトに送信できる。   With this configuration, in the image shooting mode based on the scenario of the camera-equipped cellular phone 300 shown in FIG. 12, the photographer can perform simple operations such as performing a performer designation and confirming the output dialogue (character string). A scenario photographed image can be generated. When it is desired to correct a dialogue, the dialogue can be corrected to a desired dialogue by a simple operation such as designation of a correction portion, input of a correction character string, and confirmation operation of the corrected dialogue (character string). . The photographed image based on the generated scenario can also be transmitted to the website simply by pressing the transmission instruction key.

まなお、表示部338に表示される演者の台詞の補正を入力装置からの入力音声に基づいて行うようにしてもよい(実施形態2参照)。   In addition, you may make it correct | amend the performer's dialog displayed on the display part 338 based on the input audio | voice from an input device (refer Embodiment 2).

本発明の実施形態に係わる撮像装置の一実施例として用いるデジタルカメラの電子回路の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an electronic circuit of a digital camera used as an example of an imaging apparatus according to an embodiment of the present invention. プログラム格納メモリに格納されているプログラムの例を示す図である。It is a figure which shows the example of the program stored in the program storage memory. シナリオ用データベースの構成例を示す図である。It is a figure which shows the structural example of the database for scenarios. シナリオ用データベースからのデータ取り出しの概念図である。It is a conceptual diagram of the data extraction from the scenario database. シナリオ用データベースからのデータ取り出しの概念図である。It is a conceptual diagram of the data extraction from the scenario database. シナリオ用データベースからのデータ取り出しの概念図である。It is a conceptual diagram of the data extraction from the scenario database. シナリオによる画像撮影時の制御部の制御動作例を示すフローチャートである。It is a flowchart which shows the example of control operation of the control part at the time of the image photography by a scenario. シナリオ選択およびカットガイダンス表示処理の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of scenario selection and a cut guidance display process. 表示されている台詞(文字列)の補正処理の詳細な動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the correction process of the displayed dialog (character string). 演者に対応付けた台詞の吹き出表示例および表示された台詞の補正例を示す図である。It is a figure which shows the example of a balloon display of the speech matched with the performer, and the example of correction | amendment of the displayed speech. 実施形態2に係わるデジタルカメラの内部構成例を示すブロック図である。6 is a block diagram illustrating an internal configuration example of a digital camera according to Embodiment 2. FIG. 実施形態3に係わるカメラ付き携帯電話機の内部構成例を示すブロック図である。FIG. 6 is a block diagram illustrating an example of an internal configuration of a camera-equipped mobile phone according to a third embodiment.

符号の説明Explanation of symbols

10,333 制御部
11,335 撮像部
12,336 画像データ処理部
13、349 画像認識処理部
14 台詞補正用データベース
15 プログラム格納メモリ
16、341 一時記憶メモリ
17 画像表示部
18 画像記録部
20、352 シナリオ用データベース
31 音声入力部
32、351 音声/文字変換部
40 外部入出力部
60 操作部
100、200 デジタルカメラ
300 カメラ付き携帯電話機
345 マイクロフォン
DESCRIPTION OF SYMBOLS 10,333 Control part 11,335 Image pick-up part 12,336 Image data process part 13,349 Image recognition process part 14 Database 15 for word correction Program storage memory 16,341 Temporary storage memory 17 Image display part 18 Image recording part 20,352 Database for scenario 31 Voice input unit 32, 351 Voice / character conversion unit 40 External input / output unit 60 Operation unit 100, 200 Digital camera 300 Mobile phone with camera 345 Microphone

Claims (4)

レリーズ操作により被写体像を取り込んで画像データに変換し、画像を得る撮像装置において、
シナリオによる画像撮影モードを有するとともに、
複数のシナリオとそのシナリオを説明するための文字ガイダンスを含むシナリオ用データベースと、
前記文字ガイダンスを補正するための台詞補正用データベースと、
画像認識手段と、
を有し、
シナリオによる画像撮影モード時に、
前記シナリオ用データベースに記憶されているシナリオを選択する手段と、
前記画像認識手段により被写体から演者を指定する手段と、
前記演者と前記シナリオの文字ガイダンスとを対応付ける手段と
前記対応付けられた文字ガイダンスを前記台詞補正用データベースから補正文字列を取り出して補正する手段と、
前記レリーズ操作時に、前記演者と前記補正された文字ガイダンスが関連付けられて生成された撮像画像を記録媒体に記録する手段と、
を備えたことを特徴とする撮像装置。
In an imaging device that captures a subject image by a release operation, converts it into image data, and obtains an image,
It has an image shooting mode by scenario,
A scenario database containing multiple scenarios and text guidance to describe them,
A dialogue correction database for correcting the character guidance;
Image recognition means;
Have
In the image shooting mode by scenario,
Means for selecting a scenario stored in the scenario database ;
Means for designating a performer from the subject by the image recognition means;
Means for associating the performer with the character guidance of the scenario, and means for taking out and correcting the associated character guidance by extracting a correction character string from the dialogue correction database;
Means for recording on the recording medium a captured image generated by associating the performer with the corrected character guidance during the release operation;
An imaging apparatus comprising:
前記生成された撮像画像をウエブサイトに送信する手段を備えたことを特徴とする請求項1記載の撮像装置。   2. The imaging apparatus according to claim 1, further comprising means for transmitting the generated captured image to a website. レリーズ操作により被写体像を取り込んで画像データに変換し、画像を得るシナリオによる画像撮影方法において、
シナリオによる画像撮影モードを有するとともに、
複数のシナリオとそのシナリオを説明するための文字ガイダンスを含むシナリオ用データベースと、
前記文字ガイダンスを補正するための台詞補正用データベースと、
画像認識手段と、
を有し、
シナリオによる画像撮影モード時に、
前記シナリオ用データベースに記憶されているシナリオを選択し、
前記画像認識手段により被写体から演者を指定し、
前記演者と前記シナリオの文字ガイダンスとを対応付け、
前記対応付けられた文字ガイダンスを前記台詞補正用データベースから補正文字列を取り出して補正し、
前記レリーズ操作時に、前記演者と前記補正された文字ガイダンスが関連付けられて生成された撮像画像を記録媒体に記録する
ことを特徴とするシナリオによる画像撮影方法。
In the image shooting method based on the scenario of capturing the subject image by the release operation and converting it to image data to obtain the image,
It has an image shooting mode by scenario,
A scenario database containing multiple scenarios and text guidance to describe them,
A dialogue correction database for correcting the character guidance;
Image recognition means;
Have
In the image shooting mode by scenario,
Select a scenario stored in the scenario database ,
Specify the performer from the subject by the image recognition means,
Associating the performer with the text guidance of the scenario,
Correcting the associated character guidance by taking out a correction character string from the dialogue correction database,
An image photographing method according to a scenario, wherein a captured image generated by associating the performer with the corrected character guidance is recorded on a recording medium during the release operation.
レリーズ操作により被写体像を取り込んで画像データに変換し、画像を得るシナリオによる画像撮影モードを有するとともに、複数のシナリオとそのシナリオを説明するための文字ガイダンスを含むシナリオ用データベースと、前記文字ガイダンスを補正するための台詞補正用データベースと、画像認識手段とを有する撮像装置のシナリオによる画像撮影プログラムにおいて、
前記シナリオ用データベースに記憶されているシナリオを選択するステップと、
前記画像認識手段により被写体から演者を指定するステップと、
前記演者と前記シナリオの文字ガイダンスとを対応付けるステップと、
前記対応付けられた文字ガイダンスを前記台詞補正用データベースから補正文字列を取り出して補正するステップと、
前記レリーズ操作時に、前記演者と前記補正された文字ガイダンスが関連付けられて生成された撮像画像を記録媒体に記録するステップと、
を有することを特徴とするプログラム。
A scenario database that includes an image shooting mode based on a scenario for capturing a subject image by a release operation and converting it into image data to obtain an image, and includes a plurality of scenarios and character guidance for explaining the scenarios, and the character guidance. In an image shooting program based on a scenario of an imaging apparatus having a dialogue correction database for correcting and an image recognition means,
Selecting a scenario stored in the scenario database ;
Designating a performer from the subject by the image recognition means;
Associating the performer with the character guidance of the scenario;
Taking out the corrected character string from the dialogue correction database and correcting the associated character guidance; and
Recording a captured image generated in association with the performer and the corrected character guidance on a recording medium during the release operation;
The program characterized by having.
JP2007253082A 2007-09-28 2007-09-28 Imaging apparatus, image capturing method by scenario, and program Expired - Fee Related JP5023932B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007253082A JP5023932B2 (en) 2007-09-28 2007-09-28 Imaging apparatus, image capturing method by scenario, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007253082A JP5023932B2 (en) 2007-09-28 2007-09-28 Imaging apparatus, image capturing method by scenario, and program

Publications (2)

Publication Number Publication Date
JP2009088749A JP2009088749A (en) 2009-04-23
JP5023932B2 true JP5023932B2 (en) 2012-09-12

Family

ID=40661622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007253082A Expired - Fee Related JP5023932B2 (en) 2007-09-28 2007-09-28 Imaging apparatus, image capturing method by scenario, and program

Country Status (1)

Country Link
JP (1) JP5023932B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5233491B2 (en) * 2008-08-06 2013-07-10 株式会社ニコン Electronic camera, data distribution method and server
JP2010283637A (en) * 2009-06-05 2010-12-16 Casio Computer Co Ltd Device, program and method for processing photographed image
JP6334873B2 (en) * 2013-09-11 2018-05-30 日本放送協会 Content production apparatus and content production program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3784289B2 (en) * 2000-09-12 2006-06-07 松下電器産業株式会社 Media editing method and apparatus
JP2004260632A (en) * 2003-02-26 2004-09-16 Sony Ericsson Mobilecommunications Japan Inc Portable terminal device and method for editing moving image added information
US20050206751A1 (en) * 2004-03-19 2005-09-22 East Kodak Company Digital video system for assembling video sequences
JP2006174318A (en) * 2004-12-20 2006-06-29 Casio Comput Co Ltd Apparatus and method for recording motion image
JP2006211139A (en) * 2005-01-26 2006-08-10 Sanyo Electric Co Ltd Imaging apparatus

Also Published As

Publication number Publication date
JP2009088749A (en) 2009-04-23

Similar Documents

Publication Publication Date Title
JP5056061B2 (en) Imaging device
JP4645685B2 (en) Camera, camera control program, and photographing method
US20170099425A1 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium
US7053938B1 (en) Speech-to-text captioning for digital cameras and associated methods
US7405754B2 (en) Image pickup apparatus
JPWO2008133237A1 (en) IMAGING DEVICE, COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE CONTROL PROGRAM, AND CONTROL METHOD
JP2007221570A (en) Imaging apparatus and its program
US20070236327A1 (en) Apparatus, method, program and system for remote control
JPWO2008149709A1 (en) Portable terminal, portable terminal control method, portable terminal control program, and computer-readable recording medium recording the same
JP4639965B2 (en) Imaging apparatus, image processing method, and program
JP2006270263A (en) Photographing system
JP5023932B2 (en) Imaging apparatus, image capturing method by scenario, and program
JP5206422B2 (en) Composition selection device and program
JP4595832B2 (en) Imaging apparatus, program, and storage medium
JP2017059121A (en) Image management device, image management method and program
JP2005117369A (en) Moving image recorder, moving image reproducer and digital camera
JP2008085582A (en) System for controlling image, image taking apparatus, image control server and method for controlling image
JP2010041527A (en) Photographing support method, system, program
JP5181935B2 (en) Image processing apparatus, program, and subject detection method
US10051203B2 (en) Composite image creating apparatus
JP6977847B2 (en) Image management device, image management method and program
KR102166331B1 (en) Method and device for quick changing to playback mode
JP5370577B2 (en) Composition selection device and program
KR20130101707A (en) Photographing apparatus, electronic apparatus, method for generation of video, and method for display of thumbnail
WO2022158201A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5023932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees