JP2006047416A - Imaging device, imaging operation informing method and program - Google Patents

Imaging device, imaging operation informing method and program Download PDF

Info

Publication number
JP2006047416A
JP2006047416A JP2004224735A JP2004224735A JP2006047416A JP 2006047416 A JP2006047416 A JP 2006047416A JP 2004224735 A JP2004224735 A JP 2004224735A JP 2004224735 A JP2004224735 A JP 2004224735A JP 2006047416 A JP2006047416 A JP 2006047416A
Authority
JP
Japan
Prior art keywords
sound
output
sound data
shooting
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004224735A
Other languages
Japanese (ja)
Inventor
Taku Yamamoto
卓 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004224735A priority Critical patent/JP2006047416A/en
Publication of JP2006047416A publication Critical patent/JP2006047416A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device capable of securely informing a person to be photographed of a photographing operation. <P>SOLUTION: The imaging device includes: a sound file storage section 32a storing sound data representing a photographing operation; a loudspeaker 11 for outputting the sound data stored in the sound file storage section 32a; and a control section 32 by which the output of sound data from the loudspeaker 11 before photographing starts at least after the depression of a shutter key is controlled according to a photographing environment. The photographing environment means an environment sound such as ambient noise. By altering the output level of the sound data in accordance with the level of the environment sound, a person to be photographed can be securely informed of the photographing operation. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、例えばデジタルカメラなどの撮像装置と、この撮像装置に用いられる撮影動作通知方法及びプログラムに関する。   The present invention relates to an imaging apparatus such as a digital camera, and a shooting operation notification method and program used in the imaging apparatus.

従来、デジタルカメラなどの撮像装置において、セルフタイマを用いた自動撮影時に、発光ダイオードなどの発光体を点灯制御することで、被撮影者に対して撮影タイミングを通知する方法が知られている(例えば、特許文献1参照)。しかしながら、このような光を利用した通知方法は、カメラとの距離が遠かったり、周囲が明るい場合などに視認しづらいといった問題がある。   2. Description of the Related Art Conventionally, in an imaging apparatus such as a digital camera, a method is known in which shooting timing is notified to a subject by controlling lighting of a light emitter such as a light emitting diode during automatic shooting using a self-timer ( For example, see Patent Document 1). However, such a notification method using light has a problem that it is difficult to visually recognize when the distance from the camera is long or the surroundings are bright.

一方で、大容量のフラッシュメモリを搭載し、例えばMP3(MPEG audio layer3)など、音声データを記録可能なデジタルカメラが増えてきた。そこで、前記光による通知方法とは別に、例えば「はいチーズ」とか「3,2,1」といったような音声データを出力することにより、被撮影者に撮影タイミングを通知することが考えられている。
特開2000−299802号公報
On the other hand, an increasing number of digital cameras have a large capacity flash memory and can record audio data such as MP3 (MPEG audio layer 3). Therefore, in addition to the light notification method, for example, it is considered that the photographing timing is notified to the photographed person by outputting audio data such as “yes cheese” or “3, 2, 1”. .
JP 2000-299802 A

しかしながら、上述したような音声データによる通知方法でも、周囲が非常に騒がしかったり、あるいは、カメラとの距離が離れていると、被撮影者に聞こえないことがあるため、例えば撮影の際に被撮影者がよそ見をして、撮影を失敗してしまう可能性などがあった。   However, even with the notification method using audio data as described above, the subject may not be able to hear if the surroundings are very noisy or the distance from the camera is long. There was a possibility that the person would look away and fail to shoot.

本発明は前記のような点に鑑みなされたもので、撮影動作を被撮影者に確実に伝えることのできる撮像装置、撮影動作通知方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an imaging apparatus, a shooting operation notification method, and a program capable of reliably transmitting a shooting operation to a subject.

本発明の請求項1に係る撮像装置は、撮影動作を表す音データを記憶した記憶手段と、この記憶手段に記憶された音データを出力する音声出力手段と、少なくともシャッタキーが押下されてから撮影が開始されるまでの間に前記音声出力手段により出力される音データの出力を撮影環境に応じて制御する制御手段とを具備したことを特徴とする。   According to a first aspect of the present invention, there is provided an image pickup apparatus comprising: a storage unit storing sound data representing a shooting operation; a voice output unit outputting sound data stored in the storage unit; and at least a shutter key being pressed. And control means for controlling the output of sound data output by the audio output means until the start of shooting according to the shooting environment.

このような構成によれば、少なくともシャッタキーが押下されてから撮影が開始されるまでの間に出力される音データの出力が撮影環境に応じて制御されるので、撮影動作を被撮影者に確実に伝えることができる。   According to such a configuration, since the output of sound data output at least after the shutter key is pressed until shooting is started is controlled according to the shooting environment, the shooting operation can be performed on the subject. I can tell you with certainty.

また、本発明の請求項2は、前記請求項1記載の撮像装置において、前記制御手段は、前記音声出力手段により出力される音データの出力レベルを撮影環境に応じて変更することを特徴とする。   According to a second aspect of the present invention, in the imaging apparatus according to the first aspect, the control unit changes an output level of sound data output from the audio output unit according to a shooting environment. To do.

このような構成によれば、撮影環境に応じて音データの出力レベルが変更されることで、撮影動作を被撮影者に確実に伝えることができる。   According to such a configuration, by changing the output level of the sound data according to the shooting environment, the shooting operation can be reliably transmitted to the subject.

また、本発明の請求項3は、前記請求項1記載の撮像装置において、前記制御手段は、前記音声出力手段により出力される音データの種類を撮影環境に応じて変更することを特徴とする。   According to a third aspect of the present invention, in the imaging apparatus according to the first aspect, the control unit changes a type of sound data output by the audio output unit according to a shooting environment. .

このような構成によれば、撮影環境に応じて音データの種類が変更されることで、撮影動作を被撮影者に確実に伝えることができる。   According to such a configuration, the type of sound data is changed according to the shooting environment, so that the shooting operation can be reliably transmitted to the subject.

また、本発明の請求項4は、前記請求項1乃至3のいずれか1つに記載の撮像装置において、環境音のレベルを測定する環境音測定手段を備え、前記制御手段は、前記環境音測定手段によって得られた環境音のレベルに基づいて、前記音声出力手段により出力される音データの出力を制御することを特徴とする。   According to a fourth aspect of the present invention, in the imaging apparatus according to any one of the first to third aspects, an environmental sound measuring unit that measures a level of environmental sound is provided, and the control unit includes the environmental sound. The output of the sound data output from the sound output means is controlled based on the level of the environmental sound obtained by the measurement means.

このような構成によれば、環境音のレベルに基づいて音データの出力が制御される。したがって、周囲が騒がしい場合には音データの出力レベルを上げるなどして、撮影動作を被撮影者に確実に伝えることができる。   According to such a configuration, output of sound data is controlled based on the level of environmental sound. Therefore, when the surroundings are noisy, the shooting operation can be reliably communicated to the subject by increasing the output level of the sound data.

また、本発明の請求項5は、前記請求項1乃至3のいずれか1つに記載の撮像装置において、被撮影者までの距離データを測定する測距手段を備え、前記制御手段は、前記測距手段によって得られた距離データに基づいて、前記音声出力手段により出力される音データの出力を制御することを特徴とする。   According to a fifth aspect of the present invention, there is provided the imaging apparatus according to any one of the first to third aspects, further comprising a distance measuring unit that measures distance data to a subject, and the control unit includes: Based on the distance data obtained by the distance measuring means, the output of the sound data output by the sound output means is controlled.

このような構成によれば、被撮影者までの距離データに基づいて音データの出力が制御される。したがって、被撮影者までの距離が遠い場合には音データの出力レベルを上げるなどして、撮影動作を被撮影者に確実に伝えることができる。   According to such a configuration, output of sound data is controlled based on distance data to the subject. Therefore, when the distance to the subject is far, the photographing operation can be reliably transmitted to the subject by increasing the output level of the sound data.

また、本発明の請求項6は、前記請求項1乃至3のいずれか1つに記載の撮像装置において、撮影時のズーム状態を検出するズーム検出手段を備え、前記制御手段は、前記ズーム検出手段によって検出されたズーム状態に基づいて、前記音声出力手段により出力される音データの出力を制御することを特徴とする。   According to a sixth aspect of the present invention, in the imaging apparatus according to any one of the first to third aspects, the image capturing apparatus further includes a zoom detection unit that detects a zoom state at the time of shooting, and the control unit includes the zoom detection unit. The output of sound data output by the sound output means is controlled based on the zoom state detected by the means.

このような構成によれば、ズーム状態に基づいて音データの出力が制御される。したがって、例えば被撮影者が遠くにいてズームアップしている場合には音データの出力レベルを上げるなどして、例えば撮影タイミングなどを被撮影者に確実に伝えることができる。   According to such a configuration, output of sound data is controlled based on the zoom state. Therefore, for example, when the person being photographed is far away and zooming up, the sound data output level can be increased, for example, and the photographing timing can be reliably communicated to the person to be photographed.

また、本発明の請求項7は、前記請求項1記載の撮像装置において、前記記憶手段には、セルフタイマ音を表す音データが含まれていることを特徴とする。   According to a seventh aspect of the present invention, in the imaging apparatus according to the first aspect, the storage means includes sound data representing a self-timer sound.

このような構成によれば、撮影時にセルフタイマ音を被撮影者に確実に伝えることができる。   According to such a configuration, a self-timer sound can be reliably transmitted to the subject during shooting.

また、本発明の請求項8は、前記請求項1記載の撮像装置において、前記記憶手段には、シャッタ音を表す音データが含まれていることを特徴とする。   According to an eighth aspect of the present invention, in the imaging apparatus according to the first aspect, the storage means includes sound data representing a shutter sound.

このような構成によれば、撮影時にシャッタ音を被撮影者に確実に伝えることができる。   According to such a configuration, the shutter sound can be reliably transmitted to the photographed person during photographing.

本発明の請求項9に係る撮影動作通知方法は、撮影動作を表す音データを記憶したメモリと、このメモリに記憶された音データを出力するスピーカとを備えた撮像装置に用いられる撮影動作通知方法であって、少なくともシャッタキーが押下されてから撮影が開始されるまでの間に、前記スピーカにより出力される音データの出力を撮影環境に応じて制御することを特徴とする。   According to a ninth aspect of the present invention, there is provided a photographing operation notification method for use in an imaging apparatus including a memory storing sound data representing a photographing operation and a speaker for outputting the sound data stored in the memory. A method is characterized in that the output of sound data output from the speaker is controlled in accordance with the shooting environment at least after the shutter key is pressed and before shooting is started.

したがって、このような撮影動作通知方法を用いることで、前記請求項1記載の発明と同様の作用効果が奏せられる。   Therefore, by using such a shooting operation notification method, the same effect as that of the first aspect of the invention can be achieved.

本発明の請求項10に係るプログラムは、撮影動作を表す音データを記憶したメモリと、このメモリに記憶された音データを出力するスピーカとを備えた撮像装置に用いられるコンピュータにより実行されるプログラムであって、前記コンピュータに、少なくともシャッタキーが押下されてから撮影が開始されるまでの間に、前記スピーカにより出力される音データの出力を撮影環境に応じて制御する機能を実現させることを特徴とする。   A program according to claim 10 of the present invention is a program executed by a computer used in an imaging apparatus including a memory that stores sound data representing a shooting operation and a speaker that outputs the sound data stored in the memory. The computer has a function of controlling output of sound data output from the speaker in accordance with a shooting environment at least after the shutter key is pressed and before shooting is started. Features.

したがって、コンピュータが前記機能を実現するためのプログラムを実行することにより、前記請求項1記載の発明と同様の作用効果が奏せられる。   Therefore, when the computer executes the program for realizing the functions, the same effects as those of the first aspect of the invention can be achieved.

本発明によれば、撮影動作を表す音データを所定のタイミングで出力する際に、周囲の騒音や被撮影者までの距離などに応じて、その音データの出力を制御するようにしたため、撮影動作を被撮影者に確実に伝えることができる。したがって、撮影の際に、被撮影者がセルフタイマ音やシャッタ音などを聞こえずによそ見をしてしまい、撮影が失敗することなどを防ぐことができる。   According to the present invention, when sound data representing a photographing operation is output at a predetermined timing, the output of the sound data is controlled according to the ambient noise, the distance to the subject, and the like. The operation can be reliably transmitted to the subject. Accordingly, it is possible to prevent the photographed person from looking away without being able to hear the self-timer sound, the shutter sound, or the like during photographing, and photographing failure.

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は本発明の第1の実施形態における撮像装置としてデジタルカメラを例にした場合の外観構成を示すものであり、図1(a)が主に前面の構成、図1(b)が主に背面の構成を示す斜視図である。
(First embodiment)
FIG. 1 shows an external configuration when a digital camera is taken as an example of the imaging apparatus according to the first embodiment of the present invention. FIG. 1 (a) is mainly a front configuration, and FIG. 1 (b) is mainly. It is a perspective view which shows the structure of a back surface.

このデジタルカメラ1は、略矩形の薄板状ボディの前面に、撮影レンズ2、セルフタイマランプ3、光学ファインダ窓4、マイクロホン部5、ストロボ発光部6、及びラバーグリップ7を配設し、上面の(ユーザにとって)右端側には電源キー8及びシャッタキー9を配する。   The digital camera 1 includes a photographing lens 2, a self-timer lamp 3, an optical viewfinder window 4, a microphone unit 5, a strobe light emitting unit 6, and a rubber grip 7 on the front surface of a substantially rectangular thin plate body. A power key 8 and a shutter key 9 are arranged on the right end side (for the user).

ラバーグリップ7は、ユーザが撮影時にデジタルカメラ1を右手で筐体右側面側から把持した場合に右手中指、薬指、及び小指が確実に該筐体を把持できるように配設されたゴム製の帯状突起である。   The rubber grip 7 is made of rubber and is disposed so that the middle finger, the ring finger, and the little finger of the right hand can securely hold the housing when the user grips the digital camera 1 with the right hand from the right side of the housing at the time of shooting. It is a band-like projection.

また、電源キー8は、電源のオン/オフ毎に操作するためのキーである。シャッタキー9は、撮影タイミングを指示するためのキーである。   The power key 8 is a key for operating each time the power is turned on / off. The shutter key 9 is a key for instructing photographing timing.

また、デジタルカメラ1の背面には、モードスイッチ(SW)10、スピーカ部11、メニューキー12、十字キー13、セットキー14、光学ファインダ15、ストロボチャージランプ16、表示部17、ズームキー18およびセルフタイマキー19が設けられている。   Also, on the back of the digital camera 1, a mode switch (SW) 10, a speaker unit 11, a menu key 12, a cross key 13, a set key 14, an optical viewfinder 15, a strobe charge lamp 16, a display unit 17, a zoom key 18, and self A timer key 19 is provided.

モードスイッチ10は、例えばスライドキースイッチにより構成され、基本モードである記録モード「R」と再生モード「P」を切り換えるためのものである。前記記録モード「R」には、静止画モード「R1」、動画モード「R2」が含まれる。静止画モード「R1」は静止画の撮影を行うためのモード、動画モード「R2」は動画の撮影を行うためのモードである。   The mode switch 10 is constituted by, for example, a slide key switch, and is for switching between a recording mode “R” and a reproduction mode “P” which are basic modes. The recording mode “R” includes a still image mode “R1” and a moving image mode “R2”. The still image mode “R1” is a mode for shooting a still image, and the moving image mode “R2” is a mode for shooting a moving image.

前記シャッタキー9は、これらのモード「R1」、「R2」に共通に使用される。すなわち、静止画モード「R1」では、シャッタキー9が押下されたときのタイミングで静止画の撮影が行われる。動画モード「R2」では、シャッタキー9が押下されたときのタイミングで動画の撮影が開始され、シャッタキー9が再度押下されたときにその動画の撮影が終了する。   The shutter key 9 is commonly used for these modes “R1” and “R2”. That is, in the still image mode “R1”, a still image is taken at the timing when the shutter key 9 is pressed. In the moving image mode “R2”, shooting of a moving image starts at the timing when the shutter key 9 is pressed, and shooting of the moving image ends when the shutter key 9 is pressed again.

メニューキー12は、各種メニュー項目等を選択させる際に操作する。十字キー13は、上下左右各方向へのカーソル移動用のキーが一体に形成されたものであり、表示されているメニュー項目等を移動させる際に操作する。セットキー14は、前記十字キー13の中心位置に配置され、その時点で選択されているメニュー項目内容等を設定するために操作する。   The menu key 12 is operated when selecting various menu items. The cross key 13 is integrally formed with keys for moving the cursor in the up, down, left, and right directions, and is operated when moving a displayed menu item or the like. The set key 14 is disposed at the center position of the cross key 13 and is operated to set the contents of the menu item selected at that time.

ストロボチャージランプ16は、光学ファインダ15に近接して配設されたLEDランプでなり、このデジタルカメラ1のユーザが光学ファインダ15を覗いている場合と表示部17を見ている場合のいずれであってもストロボのチャージ状態等をユーザに視認させる。   The strobe charge lamp 16 is an LED lamp disposed in the vicinity of the optical viewfinder 15, which is either when the user of the digital camera 1 is looking into the optical viewfinder 15 or looking at the display unit 17. However, the user can visually recognize the charge state of the strobe.

表示部17は、バックライト付きのカラー液晶パネルで構成されるもので、撮影時には電子ファインダとしてスルー画像のモニタ表示を行う一方で、再生時には再生対象として選択された画像等を表示する。   The display unit 17 is composed of a color liquid crystal panel with a backlight, and displays a through image on the monitor as an electronic viewfinder during shooting, while displaying an image selected as a playback target during playback.

また、ズームキー18は、撮影レンズ2(ズームレンズ)をズーム操作するためのキーである。このズームキー18の操作により、撮影レンズ2はズームアップ(ズームインとも呼ぶ)/ズームダウン(ズームアウトとも呼ぶ)する。   The zoom key 18 is a key for zooming the photographing lens 2 (zoom lens). By operating the zoom key 18, the photographing lens 2 is zoomed up (also referred to as zoom in) / zoomed down (also referred to as zoom out).

セルフタイマキー19は、セルフタイマモードを設定するためのキーである。このセルフタイマキー19の操作により、セルフタイマモードが設定され、シャッタキー9を押下すると、所定時間経過後に自動的に撮影が行われる。   The self-timer key 19 is a key for setting the self-timer mode. By operating the self-timer key 19, the self-timer mode is set. When the shutter key 9 is pressed, shooting is automatically performed after a predetermined time has elapsed.

なお、特に図示はしないがデジタルカメラ1の底面には、記録媒体として用いられるメモリカードを着脱するためのメモリカードスロットや、外部のパーソナルコンピュータ等と接続するためのシリアルインタフェースコネクタとして、例えばUSB(Universal Serial Bus)コネクタ等が設けられる。   Although not particularly illustrated, the bottom surface of the digital camera 1 has a memory card slot for attaching / detaching a memory card used as a recording medium, a serial interface connector for connecting to an external personal computer, etc. (Universal Serial Bus) connector and the like are provided.

図2はデジタルカメラ1の電子回路構成を示すブロック図である。   FIG. 2 is a block diagram showing an electronic circuit configuration of the digital camera 1.

このデジタルカメラ1には、前記撮影レンズ2を構成するレンズ光学系22がモータ21の駆動により光軸方向に所定の範囲内で移動可能に設けられている。前記レンズ光学系22には、フォーカスレンズやズームレンズなどが含まれる。このレンズ光学系22の光軸後方に撮像素子であるCCD23が配設されている。CCD23は、撮影レンズ2を通過する光を受光し、その受光量に応じた画像データを取得する。   In the digital camera 1, a lens optical system 22 constituting the photographing lens 2 is provided so as to be movable within a predetermined range in the optical axis direction by driving a motor 21. The lens optical system 22 includes a focus lens and a zoom lens. A CCD 23 serving as an image pickup element is disposed behind the optical axis of the lens optical system 22. The CCD 23 receives light passing through the photographing lens 2 and acquires image data corresponding to the amount of light received.

基本モードである記録モード時において、CCD23がタイミング発生器(TG)24及びドライバ25によって走査駆動され、一定周期毎に結像した光像に対応する光電変換出力を1画面分出力する。   In the recording mode, which is the basic mode, the CCD 23 is scanned and driven by a timing generator (TG) 24 and a driver 25, and outputs a photoelectric conversion output corresponding to a light image formed at regular intervals for one screen.

このCCD23の光電変換出力は、アナログ値の信号の状態でRGBの各原色成分毎に適宜ゲイン調整された後に、サンプルホールド回路26でサンプルホールドされ、A/D変換器27でデジタルデータに変換される。そして、カラープロセス回路28において、画素補間処理及びγ補正処理を含むカラープロセス処理が行われて、デジタル値の輝度信号Y及び色差信号Cb,Crが生成され、DMA(Direct Memory Access)コントローラ29に出力される。   The photoelectric conversion output of the CCD 23 is appropriately gain-adjusted for each primary color component of RGB in the state of an analog value signal, sampled and held by the sample hold circuit 26, and converted into digital data by the A / D converter 27. The In the color process circuit 28, color process processing including pixel interpolation processing and γ correction processing is performed to generate digital luminance signals Y and color difference signals Cb, Cr, which are sent to a DMA (Direct Memory Access) controller 29. Is output.

DMAコントローラ29は、カラープロセス回路28の出力する輝度信号Y及び色差信号Cb,Crを、同じくカラープロセス回路28からの複合同期信号、メモリ書込みイネーブル信号、及びクロック信号を用いて一度DMAコントローラ29内部のバッファに書込み、DRAMインタフェース(I/F)30を介してバッファメモリとして使用されるDRAM31にDMA転送を行う。   The DMA controller 29 once uses the luminance signal Y and the color difference signals Cb and Cr output from the color process circuit 28 by using the composite synchronization signal, memory write enable signal, and clock signal from the color process circuit 28 once. And the DMA transfer to the DRAM 31 used as the buffer memory via the DRAM interface (I / F) 30.

制御部32は、CPUと、このCPUで実行される動作プログラムを記憶したROM、及びワークメモリとして使用されるRAMなどを含むマイクロコンピュータにより構成される。   The control unit 32 includes a microcomputer including a CPU, a ROM that stores an operation program executed by the CPU, and a RAM that is used as a work memory.

また、この制御部32には、音ファイル記憶部32aおよび音量制御テーブル32bが備えられている。音ファイル記憶部32aには、例えばセルフタイマ音やシャッタ音などを含む撮影動作を表す各種音データが所定の形式で記憶されている。音量制御テーブル32bには、これらの音データを出力する場合に参照される音量制御データが記憶されている(図5参照)。   Further, the control unit 32 includes a sound file storage unit 32a and a volume control table 32b. In the sound file storage unit 32a, various sound data representing a photographing operation including, for example, a self-timer sound and a shutter sound are stored in a predetermined format. The volume control table 32b stores volume control data that is referred to when outputting these sound data (see FIG. 5).

制御部32は、デジタルカメラ1全体の制御動作を司り、前記輝度及び色差信号のDRAM31へのDMA転送終了後に、この輝度及び色差信号をDRAMインタフェース30を介してDRAM31より読出し、VRAMコントローラ33を介してVRAM34に書込む。   The control unit 32 controls the entire digital camera 1. After the DMA transfer of the luminance and chrominance signals to the DRAM 31 is completed, the control unit 32 reads the luminance and chrominance signals from the DRAM 31 via the DRAM interface 30 and passes through the VRAM controller 33. Write to the VRAM 34.

デジタルビデオエンコーダ35は、前記輝度及び色差信号をVRAMコントローラ33を介してVRAM34より定期的に読出し、これらのデータを元にビデオ信号を発生して表示部17に出力する。   The digital video encoder 35 periodically reads out the luminance and color difference signals from the VRAM 34 via the VRAM controller 33, generates a video signal based on these data, and outputs the video signal to the display unit 17.

この表示部17は、上述した如く撮影時にはモニタ表示部(電子ファインダ)として機能するもので、デジタルビデオエンコーダ35からのビデオ信号に基づいた表示を行うことで、その時点でVRAMコントローラ33から取込んでいる画像情報に基づく画像をリアルタイムに表示することとなる。   The display unit 17 functions as a monitor display unit (electronic finder) at the time of shooting as described above. By performing display based on the video signal from the digital video encoder 35, the display unit 17 captures from the VRAM controller 33 at that time. An image based on the image information is displayed in real time.

このように、表示部17にその時点での画像がモニタ画像としてリアルタイムに表示されている状態で、例えば静止画撮影を行いたいタイミングでシャッタキー9を押下操作すると、トリガ信号が発生する。   As described above, when the shutter key 9 is pressed at a timing when it is desired to take a still image while the image at that time is displayed in real time on the display unit 17 as a monitor image, a trigger signal is generated.

制御部32は、このトリガ信号に応じて、その時点でCCD23から取込んでいる1画面分の輝度及び色差信号のDRAM31へのDMA転送の終了後、直ちにCCD23からのDRAM31への経路を停止し、記録保存の状態に遷移する。   In response to the trigger signal, the control unit 32 immediately stops the path from the CCD 23 to the DRAM 31 immediately after the DMA transfer of the luminance and color difference signals for one screen captured from the CCD 23 to the DRAM 31 is completed. , Transition to the record storage state.

この記録保存の状態では、制御部32がDRAM31に書込まれている1フレーム分の輝度及び色差信号をDRAMインタフェース30を介してY,Cb,Crの各コンポーネント毎に縦8画素×横8画素の基本ブロックと呼称される単位で読み出して、画像処理部37の内部に存在するJPEG(Joint Photograph coding Experts Group)処理ブロックに書込み、この画像処理部37でADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換)、エントロピ符号化方式であるハフマン符号化等の処理によりデータ圧縮する。   In this record storage state, the control unit 32 outputs the luminance and color difference signals for one frame written in the DRAM 31 through the DRAM interface 30 for each of Y, Cb, and Cr components of 8 pixels × 8 pixels horizontally. And is written in a JPEG (Joint Photographic Coding Experts Group) processing block existing inside the image processing unit 37, and the image processing unit 37 uses ADCT (Adaptive Discrete Cosine Transform: Adaptive Discrete Cosine). Conversion), and data compression by processing such as Huffman coding, which is an entropy coding method.

そして、得た符号データを1画像のデータファイルとして該画像処理部37から読出して記録用のメモリ38に書き込む。このメモリ38としては、予め本体に内蔵されたメモリの他に、記録媒体として着脱自在に装着されるメモリカードなどを含む。1フレーム分の輝度及び色差信号の圧縮処理及びメモリ38への全圧縮データの書込み終了に伴って、制御部32はCCD23からDRAM31への経路を再び起動する。   The obtained code data is read out from the image processing unit 37 as a data file of one image and written in the memory 38 for recording. The memory 38 includes, in addition to a memory built in the main body in advance, a memory card that is detachably mounted as a recording medium. With the compression processing of the luminance and color difference signals for one frame and the completion of writing all the compressed data to the memory 38, the control unit 32 activates the path from the CCD 23 to the DRAM 31 again.

また、制御部32には、さらにUSBインタフェース(I/F)39、ストロボ駆動部40、音声処理部41及びセルフタイマ42が接続される。   The control unit 32 is further connected with a USB interface (I / F) 39, a strobe driving unit 40, an audio processing unit 41, and a self-timer 42.

USBインタフェース39は、USBコネクタを介して有線接続されるパーソナルコンピュータ等の他の情報端末装置との間で画像データその他の送受を行う場合の通信制御を行う。ストロボ駆動部40は、撮影時に図示せぬストロボ用の大容量コンデンサを充電した上で、制御部32からの制御に基づいて前記ストロボ発光部6を閃光駆動する。   The USB interface 39 performs communication control when image data and other information is transmitted / received to / from another information terminal device such as a personal computer connected by wire via a USB connector. The strobe drive unit 40 charges a strobe capacitor (not shown) at the time of shooting, and then drives the strobe light emitting unit 6 to flash based on the control from the control unit 32.

なお、前記キー入力部36は、上述したシャッタキー9の他に、前記電源キー8、モードスイッチ10、メニューキー12、十字キー13、セットキー14及びズームキー18などから構成され、それらのキー操作に伴う信号は直接制御部32へ送出される。   The key input unit 36 includes the power key 8, the mode switch 10, the menu key 12, the cross key 13, the set key 14 and the zoom key 18 in addition to the shutter key 9 described above. A signal accompanying this is directly sent to the control unit 32.

また、静止画像ではなく動画像の撮影時においては、シャッタキー9が押下操作されたときに、上述した画像処理部37の内部に存在する動画処理ブロックで、MPEG(Moving Picture Expert Group)やmotion−JPEGなどの手法により撮影動画をデータ圧縮し、この撮影動画データをメモリ38へ記録する。そして、再度シャッタキー9が操作されると、動画データの記録を終了する。   In addition, when shooting a moving image instead of a still image, a moving picture processing group (MPEG) or motion is a moving image processing block existing inside the image processing unit 37 described above when the shutter key 9 is pressed. -Compress the captured moving image data using a technique such as JPEG, and record the captured moving image data in the memory 38. Then, when the shutter key 9 is operated again, the recording of the moving image data is finished.

一方、基本モードである再生モード時には、制御部32がメモリ38に記録されている画像データを選択的に読出し、画像処理部37で記録モード時にデータ圧縮した手順と全く逆の手順で圧縮されている画像データを伸長する。そして、この伸長した画像データをDRAMインタフェース30を介してDRAM31に保持させた上で、このDRAM31の保持内容をVRAMコントローラ33を介してVRAM34に記憶させ、このVRAM34より定期的に画像データを読出してビデオ信号を発生し、表示部17で再生出力させる。   On the other hand, in the playback mode which is the basic mode, the control unit 32 selectively reads out the image data recorded in the memory 38 and is compressed by a procedure completely opposite to the procedure in which the image processing unit 37 compresses the data in the recording mode. Decompress image data. The decompressed image data is held in the DRAM 31 via the DRAM interface 30, and then the content held in the DRAM 31 is stored in the VRAM 34 via the VRAM controller 33. The image data is periodically read out from the VRAM 34. A video signal is generated and reproduced and output by the display unit 17.

選択した画像データが静止画像ではなく動画像であった場合には、その選択した動画像ファイルを構成するMPEG動画データの再生を実行し、すべての動画像データの再生を終了した時点で、例えば、次に再生の指示がなされるまで先頭に位置する静止画像データを表示するなどを行う。   When the selected image data is not a still image but a moving image, reproduction of MPEG moving image data constituting the selected moving image file is executed, and when reproduction of all moving image data is completed, for example, Then, the still image data positioned at the head is displayed until the next reproduction instruction is given.

また、音声処理部41は、マイク5およびスピーカ11に対する音声入出力処理を行う。セルフタイマ42は、シャッタキー9が押下されてから実際に撮影を行うまでの時間を遅延させるためのタイマであり、所定時間(例えば10秒)分の計時を行う。セルフタイマランプ3は、このセルフタイマ42によるカウント動作に同期して点灯する。   The audio processing unit 41 performs audio input / output processing for the microphone 5 and the speaker 11. The self-timer 42 is a timer for delaying the time from when the shutter key 9 is pressed until the actual shooting is performed, and measures time for a predetermined time (for example, 10 seconds). The self-timer lamp 3 is lit in synchronization with the counting operation by the self-timer 42.

次に、同実施形態の動作について説明する。   Next, the operation of the embodiment will be described.

なお、以下の各フローチャートで示される処理は、制御部32を構成するCPUがROMなどに記憶されたプログラムを読み込むことにより、そのプログラムに記述された手順に従って実行される。   The processes shown in the following flowcharts are executed according to the procedure described in the program by the CPU constituting the control unit 32 reading the program stored in the ROM or the like.

図3は同実施形態におけるデジタルカメラ1による撮影時の処理動作を示すフローチャートであり、静止画の撮影を行う場合の処理の流れが示されている。   FIG. 3 is a flowchart showing a processing operation at the time of shooting by the digital camera 1 in the embodiment, and shows a flow of processing when shooting a still image.

モードスイッチ10の操作により、静止画モード「R1」が設定されている状態で、シャッタキー9が押下されると(ステップA11のYes)、制御部32は、現在セルフタイマモードが設定されているか否かを判断する(ステップA12)。セルタイマモードは、例えばメニューキー12の操作により表示される図示せぬメニュー画面上で設定されるか、あるいは、セルフタイマキー19の押下により設定される。   If the shutter key 9 is pressed while the still image mode “R1” is set by the operation of the mode switch 10 (Yes in Step A11), the control unit 32 determines whether the self-timer mode is currently set. It is determined whether or not (step A12). The cell timer mode is set, for example, on a menu screen (not shown) displayed by operating the menu key 12, or is set by pressing the self-timer key 19.

セルフタイマモードが設定されている場合には(ステップA12のYes)、制御部32は、セルフタイマ42によるカウント動作を開始し(ステップA13)、そのタイマ値を所定周期でカウントダウンしながら、セルフタイマ音を鳴らすタイミングになったか否かを判断する(ステップA14、A15)。そして、セルフタイマ音を鳴らすタイミングになったときに(ステップA15のYes)、制御部32は、現在のタイマ値に合わせたセルフタイマ音を発生する(ステップA16)。   When the self-timer mode is set (Yes in step A12), the control unit 32 starts a counting operation by the self-timer 42 (step A13), and counts down the timer value at a predetermined period, It is determined whether or not it is time to make a sound (steps A14 and A15). When it is time to sound the self-timer sound (Yes in step A15), the control unit 32 generates a self-timer sound that matches the current timer value (step A16).

すなわち、カウントダウンされるタイマ値に同期して、例えば「10秒前」,「5秒前」,「4」,「3」,「2」,「1」といったようなセルフタイマ音を表す音データを音ファイル記憶部32aから選択的に読み込み、この読み込んだ音データを音声処理部41を介してスピーカ11から出力する。なお、ここで行われる「発音処理」については、後に詳しく説明する。   That is, in synchronization with the timer value to be counted down, for example, sound data representing a self-timer sound such as “10 seconds ago”, “5 seconds ago”, “4”, “3”, “2”, “1” Are selectively read from the sound file storage unit 32a, and the read sound data is output from the speaker 11 via the sound processing unit 41. Note that the “sound generation process” performed here will be described in detail later.

また、所定時間分のカウントダウンが終了し、そのタイマ値が「0」になると、制御部32は撮影タイミングになったものと判断し(ステップA17のYes)、例えば「カシャ」といったようなシャッタ音を表す音データを音ファイル記憶部32aから選択的に読み込み、この読み込んだ音データを音声処理部41を介してスピーカ11から出力する。(ステップA18)。なお、ここで行われる「発音処理」についても前記ステップA16と同様であり、後に詳しく説明する。   Further, when the countdown for a predetermined time is completed and the timer value becomes “0”, the control unit 32 determines that the photographing timing has come (Yes in Step A17), and for example, a shutter sound such as “Cash”. Is selectively read from the sound file storage unit 32a, and the read sound data is output from the speaker 11 via the audio processing unit 41. (Step A18). The “sound generation process” performed here is the same as in step A16 and will be described in detail later.

また、シャッタ音の発生と同時に、現在撮影対象となっている被写体の画像が撮像素子であるCCD23を通じて取り込まれ(ステップA19)、その撮影画像が所定の方式で圧縮されてメモリ38に記録される(ステップA20)。なお、撮影処理については、図2にて詳しく説明してあるため、ここでは省略する。   Simultaneously with the generation of the shutter sound, an image of the subject that is currently imaged is captured through the CCD 23, which is an image sensor (step A19), and the captured image is compressed by a predetermined method and recorded in the memory 38. (Step A20). Note that the photographing process has been described in detail with reference to FIG.

次に、前記ステップA16、A18で実行される発音処理について説明する。   Next, the sound generation process executed in steps A16 and A18 will be described.

図4は同実施形態におけるデジタルカメラ1による発音処理を示すフローチャートである。セルフタイマ音またはシャッタ音を発生するタイミングになると、制御部32は、まず、音ファイル記憶部32aから現在発生すべき音データを読み込む(ステップB11)。これは、例えばセルフタイマ音であれば、タイマ値が「10」のときに「10秒前」といった音データを音ファイル記憶部32aから読み込むことである。   FIG. 4 is a flowchart showing sound generation processing by the digital camera 1 in the embodiment. When it is time to generate a self-timer sound or shutter sound, the control unit 32 first reads the sound data to be generated from the sound file storage unit 32a (step B11). For example, in the case of a self-timer sound, sound data such as “10 seconds ago” is read from the sound file storage unit 32a when the timer value is “10”.

ここで、通常は、この読み込んだ音データをスピーカ11から出力するだけであるが、本実施形態では、周囲の騒音などの環境音のレベルを測定し、その環境音のレベルに応じて音データの出力を制御することを特徴としている。   Here, normally, the read sound data is only output from the speaker 11, but in the present embodiment, the level of the environmental sound such as ambient noise is measured, and the sound data is determined according to the level of the environmental sound. It is characterized by controlling the output of.

すなわち、制御部32は、まず、マイク5を通じて環境音を取得する(ステップB12)。このマイク5から入力される環境音は音声処理部41によりデジタルデータに変換されて制御部32に与えられる。これにより、制御部32は、音量制御テーブル32bを参照して、前記取得した環境音のレベルに応じた音量を決定する(ステップB13)。   That is, the control unit 32 first acquires an environmental sound through the microphone 5 (step B12). The environmental sound input from the microphone 5 is converted into digital data by the sound processing unit 41 and given to the control unit 32. Thereby, the control part 32 determines the sound volume according to the level of the acquired environmental sound with reference to the sound volume control table 32b (step B13).

図5に示すように、音量制御テーブル32bには、環境音のレベル毎に音データの音量レベルが音量制御データとして記憶されている。この例では、環境音のレベルが0〜255の値で表され、「0〜63」の範囲が音量1、「64〜127」の範囲が音量2、「128〜191」の範囲が音量3、「192〜255」の範囲が音量4として定められている。この場合、音量1は最小レベル、音量4は最大レベルであり、音量1<音量2<音量3<音量4の関係にある。   As shown in FIG. 5, the volume control table 32b stores the volume level of the sound data as volume control data for each environmental sound level. In this example, the level of the environmental sound is represented by a value from 0 to 255, the volume from “0 to 63” is volume 1, the range from “64 to 127” is volume 2, and the range from “128 to 191” is volume 3. , “192-255” is defined as volume 4. In this case, volume 1 is the minimum level, volume 4 is the maximum level, and volume 1 <volume 2 <volume 3 <volume 4 is in a relationship.

このような音量制御テーブル32bを参照して、環境音のレベルに応じた音量を決定した後、制御部32は、前記ステップB11で読み込んだ音データを前記決定した音量で出力するべく、音声処理部41にて音量調整してスピーカ11から出力する(ステップB14)。   After determining the sound volume according to the level of the environmental sound with reference to such a sound volume control table 32b, the control unit 32 performs sound processing to output the sound data read in step B11 at the determined sound volume. The volume is adjusted by the unit 41 and output from the speaker 11 (step B14).

ここで、前記ステップB13で実行される発生音量決定処理について詳しく説明する。以下のような4通り方法があり、そのうちのいずれかの方法にて発生音量を決定するものとする。図6乃至図9はそれらに対応したフローチャートである。   Here, the generated sound volume determination process executed in step B13 will be described in detail. There are the following four methods, and the generated sound volume is determined by any one of them. 6 to 9 are flowcharts corresponding to them.

(1)第1の方法
第1の方法として、図6のフローチャートに示すように、マイク5を通じて入力された環境音を所定間隔でサンプリングしてデジタルデータに変換し、そのときに得られる複数の時系列的に連続したパワー値(レベル)の中から最新のものを抽出する(ステップC11)。そして、図5に示した音量制御テーブル32bを参照して(ステップC12)、前記最新のパワー値に対応した音量を当該音データの出力レベルとして選択する(ステップC13)。
(1) First Method As a first method, as shown in the flowchart of FIG. 6, the environmental sound input through the microphone 5 is sampled at a predetermined interval and converted into digital data, and a plurality of obtained sounds are obtained. The latest one is extracted from power values (levels) continuous in time series (step C11). Then, referring to the volume control table 32b shown in FIG. 5 (step C12), the volume corresponding to the latest power value is selected as the output level of the sound data (step C13).

具体的に説明すると、例えば環境音の最新のパワー値(レベル)が「50」であれば、音量1を選択する。また、環境音の最新のパワー値(レベル)が「200」であれば、音量4を選択する。これにより、比較的静かな環境下であれば、セルフタイマ音やシャッタ音が小さな音量で発音されることになり、逆に騒がしい環境下では、これらの音が大きな音量で発音されることになる。   More specifically, for example, if the latest power value (level) of the environmental sound is “50”, the volume 1 is selected. If the latest power value (level) of the environmental sound is “200”, the volume 4 is selected. As a result, in a relatively quiet environment, the self-timer sound and shutter sound are pronounced at a low volume, and conversely, in a noisy environment, these sounds are pronounced at a high volume. .

(2)第2の方法
第2の方法として、図7のフローチャートに示すように、マイク5を通じて入力された環境音を所定間隔でサンプリングしてデジタルデータに変換し、そのときに得られる複数の時系列的に連続したパワー値(レベル)の中から所定数分のパワー値を抽出する(ステップD11)。そして、これらのパワー値の平均値を求めることにより(ステップD12)、図5に示した音量制御テーブル32bを参照して(ステップD13)、前記平均値に対応した音量を当該音データの出力レベルとして選択する(ステップD14)。
(2) Second Method As a second method, as shown in the flowchart of FIG. 7, the environmental sound input through the microphone 5 is sampled at a predetermined interval and converted into digital data, and a plurality of obtained sounds are obtained. A predetermined number of power values are extracted from power values (levels) continuous in time series (step D11). Then, by obtaining an average value of these power values (step D12), referring to the volume control table 32b shown in FIG. 5 (step D13), the volume corresponding to the average value is set to the output level of the sound data. (Step D14).

(3)第3の方法
第3の方法として、図8のフローチャートに示すように、マイク5を通じて入力された環境音を所定間隔でサンプリングしてデジタルデータに変換し、そのときに得られる複数の時系列的に連続したパワー値(レベル)の中から所定数分のパワー値を抽出する(ステップE11)。そして、これらのパワー値の中で最も大きな値を求めることにより(ステップE12)、図5に示した音量制御テーブル32bを参照して(ステップE13)、前記最大値に対応した音量を当該音データの出力レベルとして選択する(ステップE14)。
(3) Third Method As a third method, as shown in the flowchart of FIG. 8, the environmental sound input through the microphone 5 is sampled at a predetermined interval and converted into digital data. A predetermined number of power values are extracted from power values (levels) continuous in time series (step E11). Then, by obtaining the largest value among these power values (step E12), the volume control table 32b shown in FIG. 5 is referred to (step E13), and the volume corresponding to the maximum value is set as the sound data. Is selected as the output level (step E14).

(4)第4の方法
第4の方法として、図9のフローチャートに示すように、マイク5を通じて入力された環境音を所定間隔でサンプリングしてデジタルデータに変換し、そのときに得られる複数の時系列的に連続したパワー値(レベル)の中から所定数分のパワー値を抽出する(ステップF11)。そして、これらのパワー値の頻度分布を作成し(ステップF12)、その頻度分布の中で最頻値の範囲とその中心値を求める(ステップF13)。
(4) Fourth Method As a fourth method, as shown in the flowchart of FIG. 9, the environmental sound input through the microphone 5 is sampled at predetermined intervals and converted into digital data, and a plurality of obtained sounds are obtained. A predetermined number of power values are extracted from power values (levels) continuous in time series (step F11). Then, the frequency distribution of these power values is created (step F12), and the range of the mode value and its center value are obtained in the frequency distribution (step F13).

例えば、環境音データの100サンプル中のパワー値の頻度分布が以下のようなであったとする。   For example, assume that the frequency distribution of power values in 100 samples of environmental sound data is as follows.

192〜255:12回
128〜191:46回
64〜127:28回
0〜 63:14回
このような場合、最頻値の範囲は46回の「128〜191」であり、その中心値は「160」となる。そこで、図5に示した音量制御テーブル32bを参照して(ステップF14)、前記中心値に対応した音量を当該音データの出力レベルとして選択する(ステップF15)。前記の例では、中心値は「160」であるため、音量制御テーブル32bの中から音量3が選択されることになる。
192 to 255: 12 times 128 to 191: 46 times 64 to 127: 28 times 0 to 63: 14 times In this case, the mode value range is 46 times "128 to 191", and its central value is “160”. Therefore, referring to the volume control table 32b shown in FIG. 5 (step F14), the volume corresponding to the central value is selected as the output level of the sound data (step F15). In the above example, since the center value is “160”, the volume 3 is selected from the volume control table 32b.

このように、撮影時の環境音に応じて音データの出力レベルを変更することで、例えば遊園地などのように周囲が非常に騒がしい環境下であっても、セルフタイマ音やシャッタ音を被撮影者に確実に伝えことができる。したがって、撮影の際に被撮影者がこれらの音を聞けずに、撮影が失敗してしまうことを防ぐことができる。   In this way, by changing the output level of the sound data according to the environmental sound at the time of shooting, even if the surroundings are in a very noisy environment such as an amusement park, I can tell the photographer with certainty. Therefore, it is possible to prevent the photographing subject from failing without listening to these sounds during photographing.

なお、前記第1の実施形態では、音データの出力レベルを変更するものとしたが、例えば環境音のレベルに応じて音データの種類を変更することでも良い。この場合、周囲の騒音が激しければ、そのような環境下でも被撮影者の耳に届きやすい音データを選出して出力する。   In the first embodiment, the output level of sound data is changed. However, for example, the type of sound data may be changed according to the level of environmental sound. In this case, if ambient noise is severe, sound data that can easily reach the subject's ear even under such an environment is selected and output.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

前記第1の実施形態では、環境音に基づいて音データの出力を制御するようにしたが、第2の実施形態では、被写体である被撮影者までの距離に基づいて音データの出力を制御することを特徴とする。   In the first embodiment, the output of the sound data is controlled based on the environmental sound. In the second embodiment, the output of the sound data is controlled based on the distance to the subject who is the subject. It is characterized by doing.

なお、装置構成や基本的な処理な流れについては前記第1の実施形態と同様であるため、ここでは処理的に異なる点のみ説明する。   Since the apparatus configuration and the basic processing flow are the same as those in the first embodiment, only differences in processing will be described here.

図10は本発明の第2の実施形態に係るデジタルカメラ1による発音処理を示すフローチャートであり、前記第1の実施形態における図4に対応している。   FIG. 10 is a flowchart showing sound generation processing by the digital camera 1 according to the second embodiment of the present invention, and corresponds to FIG. 4 in the first embodiment.

すなわち、制御部32は、まず、音ファイル記憶部32aから現在発生すべき音データを読み込む(ステップG11)。これは、例えばセルフタイマ音であれば、タイマ値が「10」のときに「10秒前」といった音データを音ファイル記憶部32aから読み込むことである。   That is, the control unit 32 first reads sound data to be generated from the sound file storage unit 32a (step G11). For example, in the case of a self-timer sound, sound data such as “10 seconds ago” is read from the sound file storage unit 32a when the timer value is “10”.

ここで、このデジタルカメラ1がオートフォーカス機能(AF機能)を備えているものとすると、シャッタキー9の押下に伴い、制御部32は、オートフォーカス処理によりレンズ光学系22に含まれるフォーカスレンズを移動させて、被写体に対する焦点(ピント)を調整する(ステップG12)。その際、デジタルカメラ1から被写体である被撮影者までの距離データを取得する(ステップG13)。   If the digital camera 1 is provided with an autofocus function (AF function), the control unit 32 moves the focus lens included in the lens optical system 22 by autofocus processing when the shutter key 9 is pressed. The focus is adjusted with respect to the subject (step G12). At that time, distance data from the digital camera 1 to the subject who is the subject is acquired (step G13).

なお、オートフォーカス処理に用いられる測距方法としては、例えば赤外線などを発して被写体との距離を測距するアクティブAF方式や、レンズの異なる位置での入射光の差を検出するコントラストAF方式(位相差検出方式)などがあるが、本発明では、これらの方法に特に限定されるものではない。   As a distance measuring method used for the autofocus process, for example, an active AF method that measures the distance from the subject by emitting infrared rays, or a contrast AF method that detects a difference in incident light at different positions of the lens ( However, the present invention is not particularly limited to these methods.

被撮影者までの距離データが得られると、制御部32は、その距離データに基づいて発生音量の決定処理を行い(ステップG14)、その決定された音量で前記ステップG11で読み込んだ音データをスピーカ11から出力する(ステップG15)。   When the distance data to the person to be photographed is obtained, the control unit 32 determines the generated sound volume based on the distance data (step G14), and the sound data read in step G11 with the determined sound volume. Output from the speaker 11 (step G15).

詳しくは、前記図5に示した音量制御テーブル32bに代わって、距離データと音量とを関連付けた音量制御テーブル(図示せず)を用意しておき、前記ステップG13で得られた距離データに対応した音量を前記音量制御テーブルから求める。そして、このようにして求めた音量で前記ステップG11で読み込んだ音データを出力するべく、音声処理部41にて音量調整してスピーカ11から出力する。この場合、デジタルカメラ1から被撮影者までの距離が遠いほど、音データの音量レベルを上げて出力することになる。   Specifically, in place of the volume control table 32b shown in FIG. 5, a volume control table (not shown) in which distance data and volume are associated is prepared and corresponds to the distance data obtained in step G13. The obtained volume is obtained from the volume control table. Then, the sound processing unit 41 adjusts the sound volume and outputs it from the speaker 11 so as to output the sound data read in step G11 with the sound volume thus obtained. In this case, as the distance from the digital camera 1 to the person to be photographed increases, the volume level of the sound data is increased and output.

このように、オートフォーカスにより得られる被撮影者までの距離データに応じて音データの出力レベルを変更するようにすれば、被撮影者がカメラから離れている場合でも対応でき、撮影時にセルフタイマ音やシャッタ音などを被撮影者に確実に伝えて撮影を行うことができる。   In this way, if the output level of the sound data is changed according to the distance data to the subject obtained by autofocus, it is possible to cope even when the subject is away from the camera, and the self-timer at the time of photographing. It is possible to take a picture by reliably transmitting a sound, a shutter sound, and the like to the subject.

なお、音データの出力レベルを変更する他に、例えば音データの種類を変更することでも良い。この場合、被撮影者までの距離が遠ければ、遠方に届きやすい音データを選出して出力する。   In addition to changing the output level of sound data, for example, the type of sound data may be changed. In this case, if the distance to the subject is far, sound data that can easily reach far away is selected and output.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

前記第1の実施形態では、環境音に基づいて音データの出力ルを制御するようにしたが、第3の実施形態では、撮影時のズーム状態(撮影画像の拡大率)に基づいて音データの出力を制御することを特徴とする。   In the first embodiment, the output level of the sound data is controlled based on the environmental sound. However, in the third embodiment, the sound data is based on the zoom state at the time of shooting (magnification rate of the shot image). The output is controlled.

なお、装置構成や基本的な処理な流れについては前記第1の実施形態と同様であるため、ここでは処理的に異なる点のみ説明する。   Since the apparatus configuration and the basic processing flow are the same as those in the first embodiment, only differences in processing will be described here.

図11は本発明の第3の実施形態に係るデジタルカメラ1の発音処理を示すフローチャートであり、前記第1の実施形態における図4に対応している。   FIG. 11 is a flowchart showing sound generation processing of the digital camera 1 according to the third embodiment of the present invention, and corresponds to FIG. 4 in the first embodiment.

すなわち、制御部32は、まず、音ファイル記憶部32aから現在発生すべき音データを読み込む(ステップH11)。これは、例えばセルフタイマ音であれば、タイマ値が「10」のときに「10秒前」といった音データを音ファイル記憶部32aから読み込むことである。   That is, the control unit 32 first reads sound data to be generated from the sound file storage unit 32a (step H11). For example, in the case of a self-timer sound, sound data such as “10 seconds ago” is read from the sound file storage unit 32a when the timer value is “10”.

ここで、シャッタキー9の押下に伴い、制御部32は、現在のズーム状態を調べる(ステップH12)。具体的には、ズームキー18の操作によって変更される撮影画像の倍率を調べることである。なお、ズーム操作には、光学系レンズ22に含まれるズームレンズを光軸方向に移動させることで光学的に倍率を変更する「光学ズーム」と、CCD23の画像データをソフト的に処理して倍率を変更する「デジタルズーム」があるが、そのどちらの操作によるものでも良い。   Here, as the shutter key 9 is pressed, the control unit 32 checks the current zoom state (step H12). Specifically, the magnification of the captured image that is changed by operating the zoom key 18 is examined. The zoom operation includes “optical zoom” in which the magnification is optically changed by moving the zoom lens included in the optical system lens 22 in the optical axis direction, and the magnification of the image data of the CCD 23 processed by software. There is a “digital zoom” that changes, but either of them can be used.

通常、被撮影者が遠くにいる場合には、撮影者はズーム操作により倍率を上げた状態で撮影を行う。そこで、制御部32は、現在のズーム状態つまり撮影画像の倍率値に基づいて発生音量の決定処理を行い(ステップH13)、その決定された音量で前記ステップH11で読み込んだ音データをスピーカ11から出力する(ステップH14)。   Normally, when the person to be photographed is far away, the photographer takes a picture with the magnification increased by a zoom operation. Therefore, the control unit 32 determines the generated sound volume based on the current zoom state, that is, the magnification value of the captured image (step H13), and the sound data read in step H11 with the determined sound volume is read from the speaker 11. Output (step H14).

詳しくは、前記図5に示した音量制御テーブル32bに代わって、撮影画像の倍率値と音量とを関連付けた音量制御テーブル(図示せず)を用意しておき、前記ステップH13にて現在のズーム状態として得られた撮影画像の倍率値に対応した音量を前記音量制御テーブルから求める。そして、このようにして求めた音量にて前記ステップH11で読み込んだ音データを出力するべく、音声処理部41にて音量調整してスピーカ11から出力する。この場合、遠くの被撮影者に合わせてズームアップされているほど、つまり、撮影画像の倍率値が高く設定されているほど、音データの音量レベルを上げて出力することになる。   Specifically, in place of the volume control table 32b shown in FIG. 5, a volume control table (not shown) in which the magnification value of the captured image is associated with the volume is prepared, and the current zoom is performed in step H13. The volume corresponding to the magnification value of the captured image obtained as the state is obtained from the volume control table. Then, the sound processing unit 41 adjusts the sound volume and outputs it from the speaker 11 in order to output the sound data read in step H11 at the sound volume thus obtained. In this case, the volume of sound data is increased and output as the zoom-in is increased according to the far-distance subject, that is, the higher the magnification value of the captured image is set.

このように、撮影時のズーム状態に応じて音データの出力レベルを変更するようにすれば、前記第2の実施形態と同様に、被撮影者がカメラから離れている場合でも対応でき、撮影時にセルフタイマ音やシャッタ音などを被撮影者に確実に伝えて撮影を行うことができる。   As described above, if the output level of the sound data is changed according to the zoom state at the time of shooting, as in the second embodiment, it is possible to cope with the case where the person being taken is away from the camera. Sometimes, the self-timer sound, shutter sound, etc. can be reliably communicated to the subject to perform photographing.

なお、音データの出力レベルを変更する他に、例えば音データの種類を変更することでも良い。この場合、ズームアップしていれば、被撮影者が遠くいるものと仮定し、遠方に届きやすい音データを選出して出力する。   In addition to changing the output level of sound data, for example, the type of sound data may be changed. In this case, if the zoom is up, it is assumed that the subject is far away, and sound data that can easily reach far away is selected and output.

また、前記各実施形態では、撮影動作を表す音データとして、セルフタイマ音やシャッタ音を例にして説明したが、これらの音に限らず、例えば「これから撮ります」などのような音声ガイドなども含まれるものであり、要は、少なくともシャッタキーが押下されてから撮影が開始されるまでの間に発生される音であれば、そのすべてが対象となる。   In each of the above embodiments, the self-timer sound and the shutter sound are described as sound data representing the photographing operation. However, the sound data is not limited to these sounds. In short, at least the sound generated between the time when the shutter key is pressed and the start of shooting is the target.

また、前記各実施形態の方法を組み合わせることにより、例えばメニュー画面上で「環境音で音データの出力を制御する方法」(第1の実施形態の方法)、「被撮影者までの距離で音データの出力を制御する方法」(第2の実施形態の方法)、「ズーム状態で音データの出力を制御する方法」(第3の実施形態の方法)をユーザが任意に設定可能とし、その設定された方法で音データの出力制御を行うような構成にしても良い。   Further, by combining the methods of the above embodiments, for example, on the menu screen, “a method of controlling output of sound data with environmental sounds” (a method of the first embodiment), “a sound at a distance to the subject” The method for controlling the output of data ”(the method of the second embodiment) and the“ method of controlling the output of sound data in the zoom state ”(the method of the third embodiment) can be arbitrarily set by the user. A configuration may be adopted in which output control of sound data is performed by a set method.

また、本発明は、デジタルカメラに限るものでなく、例えばカメラ付きの携帯電話やカメラ付きのPDA(Personal Digital Assistant)など、撮像機能を備えた電子機器であれば、その全てに適用可能である。   Further, the present invention is not limited to a digital camera, and can be applied to any electronic device having an imaging function such as a mobile phone with a camera and a PDA (Personal Digital Assistant) with a camera. .

要するに、本発明は前記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   In short, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the respective embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD−ROM等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、そのプログラム自体をネットワーク等の伝送媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムあるいは伝送媒体を介して提供されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。   Further, the method described in each of the above-described embodiments is a program that can be executed by a computer, such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD-ROM, etc.), and a semiconductor memory. It is possible to write the program on a recording medium and apply it to various apparatuses, or to transmit the program itself via a transmission medium such as a network to apply to various apparatuses. A computer that implements this apparatus reads a program recorded on a recording medium or a program provided via a transmission medium, and performs the above-described processing by controlling the operation by this program.

また、前述したCD−ROMやDVD−ROM等の記録媒体の他にも、例えば、Blu−ray Disc(R)やAOD(Advanced Optical Disc)などの青色レーザを用いた次世代光ディスク、赤色レーザを用いるHD-DVD9、青紫色レーザを用いるBlue Laser DVDなど、今後開発される種々の大容量記録媒体を用いて本発明を実施することが可能である。   In addition to the above-described recording media such as CD-ROM and DVD-ROM, for example, next-generation optical discs and red lasers using blue lasers such as Blu-ray Disc (R) and AOD (Advanced Optical Disc) It is possible to implement the present invention using various large-capacity recording media that will be developed in the future, such as HD-DVD9 used and Blue Laser DVD using a blue-violet laser.

本発明の第1の実施形態における撮像装置としてデジタルカメラを例にした場合の外観構成を示すものであり、図1(a)が主に前面の構成、図1(b)が主に背面の構成を示す斜視図。FIG. 1 shows an external configuration when a digital camera is taken as an example of the imaging apparatus according to the first embodiment of the present invention, in which FIG. 1A is mainly a front configuration, and FIG. The perspective view which shows a structure. 同実施形態におけるデジタルカメラの電子回路構成を示すブロック図。FIG. 2 is a block diagram showing an electronic circuit configuration of the digital camera in the embodiment. 同実施形態におけるデジタルカメラによる撮影時の処理動作を示すローチャート。6 is a flowchart showing a processing operation at the time of shooting by the digital camera in the embodiment. 同実施形態におけるデジタルカメラによる発音処理を示すフローチャート。6 is a flowchart showing sound generation processing by the digital camera in the embodiment. 同実施形態におけるデジタルカメラに用いられる音量制御テーブルの一例を示す図。The figure which shows an example of the volume control table used for the digital camera in the embodiment. 同実施形態におけるデジタルカメラの第1の方法による発生音量決定処理を示すフローチャート。7 is a flowchart showing generated sound volume determination processing by the first method of the digital camera in the embodiment. 同実施形態におけるデジタルカメラの第2の方法による発生音量決定処理を示すフローチャート。7 is a flowchart showing generated sound volume determination processing by a second method of the digital camera in the embodiment. 同実施形態におけるデジタルカメラの第3の方法による発生音量決定処理を示すフローチャート。9 is a flowchart showing generated sound volume determination processing by a third method of the digital camera in the embodiment. 同実施形態におけるデジタルカメラの第4の方法による発生音量決定処理を示すフローチャート。14 is a flowchart showing generated sound volume determination processing by a fourth method of the digital camera in the embodiment. 本発明の第2の実施形態に係るデジタルカメラによる発音処理を示すフローチャート。9 is a flowchart showing sound generation processing by a digital camera according to a second embodiment of the present invention. 本発明の第3の実施形態に係るデジタルカメラによる発音処理を示すフローチャート。10 is a flowchart showing sound generation processing by a digital camera according to a third embodiment of the present invention.

符号の説明Explanation of symbols

1…デジタルカメラ、2…撮影レンズ、3…セルフタイマランプ、4…光学ファインダ窓、5…マイクロホン部(MIC)、6…ストロボ発光部、7…ラバーグリップ、8…電源キー、9…シャッタキー、10…モードスイッチ(SW)、11…スピーカ部(SP)、12…メニューキー、13…十字キー、14…セットキー、15…光学ファインダ、16…ストロボチャージランプ、17…表示部、18…ズームキー、19…セルフタイマキー、21…モータ、22…レンズ光学系、23…CCD、24…タイミング発生器(TG)、25…ドライバ、26…サンプルホールド回路(S/H)、27…A/D変換器、28…カラープロセス回路、29…DMAコントローラ、30…DRAMインタフェース(I/F)、31…DRAM、32…制御部、33…VRAMコントローラ、34…VRAM、35…デジタルビデオエンコーダ、36…キー入力部、37…画像処理部、38…メモリ、39…USBインタフェース(I/F)、40…ストロボ駆動部、41…音声処理部、42…セルフタイマ。   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 2 ... Shooting lens, 3 ... Self-timer lamp, 4 ... Optical finder window, 5 ... Microphone part (MIC), 6 ... Strobe light emission part, 7 ... Rubber grip, 8 ... Power key, 9 ... Shutter key DESCRIPTION OF SYMBOLS 10 ... Mode switch (SW), 11 ... Speaker part (SP), 12 ... Menu key, 13 ... Cross key, 14 ... Set key, 15 ... Optical finder, 16 ... Strobe charge lamp, 17 ... Display part, 18 ... Zoom key, 19 ... Self-timer key, 21 ... Motor, 22 ... Lens optical system, 23 ... CCD, 24 ... Timing generator (TG), 25 ... Driver, 26 ... Sample hold circuit (S / H), 27 ... A / D converter 28 ... Color process circuit 29 ... DMA controller 30 ... DRAM interface (I / F) 31 ... DRAM 3 Control unit, 33 VRAM controller, 34 VRAM, 35 Digital video encoder, 36 Key input unit, 37 Image processing unit, 38 Memory, 39 USB interface (I / F), 40 Strobe drive unit , 41 ... voice processing unit, 42 ... self-timer.

Claims (10)

撮影動作を表す音データを記憶した記憶手段と、
この記憶手段に記憶された音データを出力する音声出力手段と、
少なくともシャッタキーが押下されてから撮影が開始されるまでの間に前記音声出力手段により出力される音データの出力を撮影環境に応じて制御する制御手段と
を具備したことを特徴とする撮像装置。
Storage means for storing sound data representing a shooting operation;
Audio output means for outputting the sound data stored in the storage means;
An image pickup apparatus comprising: control means for controlling output of sound data output by the sound output means in accordance with a shooting environment at least from when the shutter key is pressed to when shooting is started. .
前記制御手段は、前記音声出力手段により出力される音データの出力レベルを撮影環境に応じて変更することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit changes an output level of sound data output from the audio output unit according to a shooting environment. 前記制御手段は、前記音声出力手段により出力される音データの種類を撮影環境に応じて変更することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit changes a type of sound data output from the audio output unit according to a shooting environment. 環境音のレベルを測定する環境音測定手段を備え、
前記制御手段は、前記環境音測定手段によって得られた環境音のレベルに基づいて、前記音声出力手段により出力される音データの出力を制御することを特徴とする請求項1乃至3のいずれか1つに記載の撮像装置。
An environmental sound measuring means for measuring the level of the environmental sound is provided.
4. The control unit according to claim 1, wherein the control unit controls output of sound data output from the sound output unit based on an environmental sound level obtained by the environmental sound measurement unit. The imaging device according to one.
被撮影者までの距離データを測定する測距手段を備え、
前記制御手段は、前記測距手段によって得られた距離データに基づいて、前記音声出力手段により出力される音データの出力を制御することを特徴とする請求項1乃至3のいずれか1つに記載の撮像装置。
Equipped with a distance measuring means for measuring distance data to the subject,
The said control means controls the output of the sound data output by the said audio | voice output means based on the distance data obtained by the said ranging means, The one of Claim 1 thru | or 3 characterized by the above-mentioned. The imaging device described.
撮影時のズーム状態を検出するズーム検出手段を備え、
前記制御手段は、前記ズーム検出手段によって検出されたズーム状態に基づいて、前記音声出力手段により出力される音データの出力を制御することを特徴とする請求項1乃至3のいずれか1つに記載の撮像装置。
Provided with zoom detection means for detecting the zoom state at the time of shooting,
4. The control unit according to claim 1, wherein the control unit controls output of sound data output from the audio output unit based on a zoom state detected by the zoom detection unit. The imaging device described.
前記記憶手段には、セルフタイマ音を表す音データが含まれていることを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the storage unit includes sound data representing a self-timer sound. 前記記憶手段には、シャッタ音を表す音データが含まれていることを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the storage unit includes sound data representing a shutter sound. 撮影動作を表す音データを記憶したメモリと、このメモリに記憶された音データを出力するスピーカとを備えた撮像装置に用いられる撮影動作通知方法であって、
少なくともシャッタキーが押下されてから撮影が開始されるまでの間に、前記スピーカにより出力される音データの出力を撮影環境に応じて制御することを特徴とする撮影動作通知方法。
A shooting operation notification method used in an imaging apparatus including a memory storing sound data representing a shooting operation and a speaker for outputting the sound data stored in the memory,
An imaging operation notification method, comprising: controlling output of sound data output from the speaker in accordance with an imaging environment at least from when a shutter key is pressed to when imaging is started.
撮影動作を表す音データを記憶したメモリと、このメモリに記憶された音データを出力するスピーカとを備えた撮像装置に用いられるコンピュータにより実行されるプログラムであって、
前記コンピュータに、
少なくともシャッタキーが押下されてから撮影が開始されるまでの間に、前記スピーカにより出力される音データの出力を撮影環境に応じて制御する機能を実現させることを特徴とするプログラム。
A program executed by a computer used in an imaging apparatus including a memory that stores sound data representing a shooting operation and a speaker that outputs sound data stored in the memory,
In the computer,
A program for realizing a function of controlling output of sound data output from the speaker according to a photographing environment at least from when a shutter key is pressed to when photographing is started.
JP2004224735A 2004-07-30 2004-07-30 Imaging device, imaging operation informing method and program Pending JP2006047416A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004224735A JP2006047416A (en) 2004-07-30 2004-07-30 Imaging device, imaging operation informing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004224735A JP2006047416A (en) 2004-07-30 2004-07-30 Imaging device, imaging operation informing method and program

Publications (1)

Publication Number Publication Date
JP2006047416A true JP2006047416A (en) 2006-02-16

Family

ID=36026075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004224735A Pending JP2006047416A (en) 2004-07-30 2004-07-30 Imaging device, imaging operation informing method and program

Country Status (1)

Country Link
JP (1) JP2006047416A (en)

Similar Documents

Publication Publication Date Title
US20070230933A1 (en) Device and method for controlling flash
JP4569389B2 (en) Imaging apparatus, image processing method, and program
JP2009219020A (en) Imaging apparatus, control method of imaging device, and control program of imaging device
JP2008054177A (en) Imaging apparatus
JP4161865B2 (en) Imaging apparatus, focus control method, and computer program
JP4259339B2 (en) Imaging apparatus, imaging condition setting method and program
JP2005117369A (en) Moving image recorder, moving image reproducer and digital camera
JP2009077265A (en) Imaging apparatus
JP4654947B2 (en) Movie processing apparatus and program thereof
JP4570171B2 (en) Information processing apparatus and recording medium
JP4379921B2 (en) Imaging apparatus and program thereof
JP2005176015A (en) Imaging device and method therefor
JP4345515B2 (en) Imaging apparatus and program
JP2005094133A (en) Photographing apparatus
JP4565276B2 (en) Camera and mode switching method thereof
US20050174447A1 (en) Method of controlling digital photographing apparatus and digital photographing apparatus using the same
JP4912680B2 (en) Camera system, camera and external flash
JP2005249959A (en) Imaging device, luminescence control method used for the same, and program
JP2006047416A (en) Imaging device, imaging operation informing method and program
JP2007088747A (en) Image reproduction display method and device, and imaging device
JP2006094200A (en) Imaging apparatus, focusing display method, and program
JP4558108B2 (en) Information processing apparatus, information processing method, and recording medium
JP2005026889A (en) Electronic camera
JP4654677B2 (en) Imaging apparatus, image parameter setting method, and program
JP2005117077A (en) Mobile electronic apparatus and data reproducing method