JP3363857B2 - camera - Google Patents

camera

Info

Publication number
JP3363857B2
JP3363857B2 JP36392099A JP36392099A JP3363857B2 JP 3363857 B2 JP3363857 B2 JP 3363857B2 JP 36392099 A JP36392099 A JP 36392099A JP 36392099 A JP36392099 A JP 36392099A JP 3363857 B2 JP3363857 B2 JP 3363857B2
Authority
JP
Japan
Prior art keywords
sound
audio
signal
file
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36392099A
Other languages
Japanese (ja)
Other versions
JP2001186393A (en
Inventor
昌宏 塩路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP36392099A priority Critical patent/JP3363857B2/en
Publication of JP2001186393A publication Critical patent/JP2001186393A/en
Application granted granted Critical
Publication of JP3363857B2 publication Critical patent/JP3363857B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、シャッタボタンの操
作に応答して擬似操作音を発生させる、カメラに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera which produces a pseudo operation sound in response to an operation of a shutter button.

【0002】[0002]

【従来の技術】従来のこの種のカメラが、平成11年6
月22日に出願公開された特開平11−168646号
公報[H04N5/225]および平成11年8月27
日に出願公開された特開平11−231399号公報
[G03B17/18]に開示されている。これらの従
来技術は、メモリに格納された所望の擬似音声をシャッ
タボタンの操作に応答して発生させようとするものであ
る。
2. Description of the Related Art A conventional camera of this type was developed in June 1999.
Published Japanese Patent Application No. H11-168646 [H04N5 / 225] on August 22, and August 27, 1999
It is disclosed in Japanese Patent Application Laid-Open No. 11-231399 [G03B17 / 18], which was published on the date. These conventional techniques attempt to generate a desired pseudo voice stored in a memory in response to an operation of a shutter button.

【0003】[0003]

【発明が解決しようとする課題】しかし、シャッタボタ
ンの操作タイミングと音声の発生タイミングとの間にず
れが生じたのでは、音声によって撮影タイミングを誤認
してしまうなど、オペレータに逆に混乱を与えてしま
う。このようなタイムラグを解消する方法については、
上述のいずれの従来技術も開示していない。
However, if there is a discrepancy between the operation timing of the shutter button and the sound generation timing, the operator may be confused by the fact that the sound may cause the photographing timing to be mistaken. Will end up. For how to eliminate such time lag,
It does not disclose any of the above prior art.

【0004】それゆえに、この発明の主たる目的は、シ
ャッタボタンの操作タイミングと音声の発生タイミング
のずれをできるだけ小さくすることができる、カメラを
提供することである。
Therefore, a main object of the present invention is to provide a camera capable of minimizing the difference between the shutter button operation timing and the sound generation timing.

【0005】[0005]

【課題を解決するための手段】この発明は、シャッタボ
タンが操作されたとき被写体の撮影とともにメモリから
擬似操作音信号を再生するカメラにおいて、音声取込操
作に応答して音声信号を取り込む取り込み手段、取り込
み手段によって取り込まれた音声信号から有音成分を抽
出する抽出手段、抽出手段によって抽出された有音成分
を擬似操作音信号としてメモリに格納する格納手段、お
よび音声試聴操作に応答して被写体を撮影することなく
メモリから擬似操作音信号を再生する再生手段を備え、
特定モードが選択された状態でのシャッタボタンの操作
を音声試聴操作としたことを特徴とする、カメラであ
る。
SUMMARY OF THE INVENTION The present invention provides a shutter button.
When the tongue is operated
In a camera that reproduces a pseudo operation sound signal, a voice capturing operation is performed.
Capturing means for capturing an audio signal in response to work, extracting means for extracting a sound component from the audio signal captured by the capture means, sound component extracted by the extracting means
Means for storing in the memory as a pseudo operation sound signal , and without photographing the subject in response to the audio audition operation.
A reproducing means for reproducing the pseudo operation sound signal from the memory is provided,
Shutter button operation when a specific mode is selected
Is a voice audition operation, which is a camera .

【0006】[0006]

【作用】第1指示手段によって音声信号の取り込みが指
示されると、取り込み手段が音声信号を取り込む。抽出
手段は、有音成分から始まる有音成分信号を取り込み手
段によって取り込まれた音声信号から抽出し、メモリ手
段は、抽出手段によって抽出された有音成分信号を格納
する。第2指示手段によって撮影が指示されると、撮影
手段によって被写体が撮影されるとともに、第1再生手
段によってメモリ手段から有音成分信号が再生される。
取り込まれた音声信号から有音声分が抽出されるため、
有音成分は、撮影指示に応答して速やかに再生される。
When the first instruction means gives an instruction to take in the audio signal, the taking means takes in the audio signal. The extracting means extracts the voiced component signal starting from the voiced component from the voice signal captured by the capturing means, and the memory means stores the voiced component signal extracted by the extracting means. When the photographing is instructed by the second instructing means, the object is photographed by the photographing means, and the sound component signal is reproduced from the memory means by the first reproducing means.
Since the voiced part is extracted from the captured audio signal,
The voiced component is promptly reproduced in response to the shooting instruction.

【0007】この発明のある実施例では、音声信号は、
所定形式で作成された音声ファイルである。取り込み手
段はファイル読み出し手段を含み、抽出手段は第1有音
成分抽出手段を含む。このうち、ファイル読み出し手段
は、着脱可能な記録媒体から音声ファイルを読み出し、
第1有音成分抽出手段は、読み出された音声ファイルか
ら有音成分信号を抽出する。第1有音成分抽出手段は、
好ましくは、音声ファイルの有音成分開始位置を検出す
る検出手段を含む。
In one embodiment of the invention, the audio signal is
It is an audio file created in a predetermined format. The capturing means includes a file reading means, and the extracting means includes a first voiced component extracting means. Of these, the file reading means reads the audio file from the removable recording medium,
The first sound component extraction means extracts a sound component signal from the read audio file. The first voiced component extraction means,
Preferably, it includes a detection means for detecting the start position of the voiced component of the audio file.

【0008】この発明のある局面では、取り込み手段は
マイクを含み、抽出手段は第2有音成分抽出手段を含
む。マイクは外部音声を捉え、第2有音成分抽出手段は
マイクによって捉えられた外部音声信号から有音成分信
号を抽出する。記録手段は、第2有音成分抽出手段によ
って抽出された有音成分信号を含む所定形式の音声ファ
イルを、記録媒体に記録する。第2有音成分抽出手段
は、好ましくは、音声信号のレベルを所定の閾値と比較
する比較手段を含む。
In one aspect of the present invention, the capturing means includes a microphone, and the extracting means includes second sound component extracting means. The microphone captures the external voice, and the second voiced component extraction means extracts the voiced component signal from the external voice signal captured by the microphone. The recording means records an audio file of a predetermined format containing the voiced component signal extracted by the second voiced component extracting means on a recording medium. The second voiced component extraction means preferably includes a comparison means for comparing the level of the audio signal with a predetermined threshold value.

【0009】この発明の他の実施例では、第3指示手段
によって有音成分信号の再生が指示されると、第3再生
手段が、撮影手段を能動化することなくメモリ手段から
有音声分信号を再生する。
In another embodiment of the present invention, when the reproduction of the voiced component signal is instructed by the third instructing means, the third reproducing means outputs the voiced signal from the memory means without activating the photographing means. To play.

【0010】[0010]

【発明の効果】この発明によれば、取り込まれた音声信
号から有音成分信号を抽出し、撮影指示に応答して有音
成分信号を再生するようにしたため、シャッタボタンの
操作タイミングと音声の発生タイミングのずれをできる
だけ小さくすることができる。
According to the present invention, since the voiced component signal is extracted from the taken-in voice signal and the voiced component signal is reproduced in response to the photographing instruction, the operation timing of the shutter button and the voice. The deviation of the generation timing can be minimized.

【0011】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
The above-mentioned objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.

【0012】[0012]

【実施例】図1を参照して、この実施例のディジタルカ
メラ10は、前面に色フィルタ(図示せず)が装着され
たCCDイメージャ(イメージセンサ)12を含み、被
写体の光像は、この色フィルタを通してCCDイメージ
ャ12の受光面に照射される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to FIG. 1, a digital camera 10 of this embodiment includes a CCD imager (image sensor) 12 having a color filter (not shown) mounted on the front surface thereof. The light is received on the light receiving surface of the CCD imager 12 through the color filters.

【0013】オペレータがモニタオン/オフキー64を
オン状態に設定すると、システムコントローラ66は、
対応する状態信号をCPU34に与える。すると、CP
U34はタイミングジェネレータ(TG)14に間引き
読出しを命令し、TG14はCCDイメージャ12を間
引き読み出し方式で駆動する。これによって、被写体像
に対応する低解像度のカメラ信号(画素信号)がCCD
イメージャ12から出力される。出力されたカメラ信号
は、CDS/AGC回路16で周知のノイズ除去および
レベル調整を施され、その後、A/D変換器18によっ
てディジタル信号に変換される。
When the operator sets the monitor on / off key 64 to the on state, the system controller 66
A corresponding status signal is given to the CPU 34. Then CP
U34 commands the timing generator (TG) 14 to perform thinning-out reading, and the TG 14 drives the CCD imager 12 by the thinning-out reading method. As a result, the low-resolution camera signal (pixel signal) corresponding to the subject image is transferred to the CCD.
It is output from the imager 12. The output camera signal is subjected to well-known noise removal and level adjustment in the CDS / AGC circuit 16, and then converted into a digital signal by the A / D converter 18.

【0014】CPU34は、信号処理回路20およびビ
デオエンコーダ26にも、所定の処理命令を与える。信
号処理回路20は、A/D変換器18を通して与えられ
たカメラデータに色分離,白バランス調整,YUV変換
などの処理を施し、被写体像に対応するYUVデータを
生成する。そして、生成したYUVデータを書き込みリ
クエストとともにメモリ制御回路22に出力する。信号
処理回路20から出力されたYUVデータは、メモリ制
御回路22によってSDRAM34に書き込まれる。一
方、ビデオエンコーダ26は、CPU34からの処理命
令に応答してYUVデータの読み出しをメモリ制御回路
22にリクエストし、メモリ制御回路22によって読み
出されたYUVデータをNTSC方式のコンポジット画
像信号に変換する。変換されたコンポジット画像信号は
スイッチSW1を通してモニタ28に与えられ、この結
果、被写体のリアルタイムの動画像(スルー画像)がモ
ニタ28に表示される。
The CPU 34 also gives a predetermined processing instruction to the signal processing circuit 20 and the video encoder 26. The signal processing circuit 20 performs processing such as color separation, white balance adjustment, and YUV conversion on the camera data provided through the A / D converter 18, and generates YUV data corresponding to the subject image. Then, the generated YUV data is output to the memory control circuit 22 together with the write request. The YUV data output from the signal processing circuit 20 is written in the SDRAM 34 by the memory control circuit 22. On the other hand, the video encoder 26 requests the memory control circuit 22 to read the YUV data in response to the processing command from the CPU 34, and converts the YUV data read by the memory control circuit 22 into an NTSC composite image signal. . The converted composite image signal is applied to the monitor 28 through the switch SW1, and as a result, a real-time moving image (through image) of the subject is displayed on the monitor 28.

【0015】なお、スイッチSW1は、キャラクタジェ
ネレータ40からキャラクタ信号が出力されるとき、所
定タイミングでキャラクタジェネレータ40と接続され
る。キャラクタ信号はスイッチSW1によってコンポジ
ット映像信号と混合され、この結果、対応するキャラク
タがモニタ28にOSD表示される。
When the character signal is output from the character generator 40, the switch SW1 is connected to the character generator 40 at a predetermined timing. The character signal is mixed with the composite video signal by the switch SW1, and as a result, the corresponding character is OSD-displayed on the monitor 28.

【0016】オペレータによってシャッタボタン56が
半押しされると、システムコントローラ66は、半押し
を示す状態信号をCPU34に与える。すると、CPU
34は、シャッタスピードや白バランスなどの撮影条件
を調整する。オペレータがシャッタボタン56を全押し
すると、全押しを示す状態信号がシステムコントローラ
66からCPU34に与えられる。CPU34は、この
状態信号に応答して以下のような撮影記録処理を行う。
When the shutter button 56 is half-depressed by the operator, the system controller 66 gives the CPU 34 a state signal indicating the half-depression. Then the CPU
Reference numeral 34 adjusts shooting conditions such as shutter speed and white balance. When the operator fully presses the shutter button 56, the system controller 66 gives a status signal to the CPU 34, which indicates the full press. In response to this status signal, the CPU 34 performs the following shooting / recording processing.

【0017】CPU34はまず、最適シャッタスピード
での被写体の撮影ならびに光電変換された全ての画素信
号の読み出しをTG14に命令する。これによって、シ
ャッタボタン56が操作された時点の静止画像に対応す
る高解像度のカメラ信号がCCDイメージャ12から出
力される。出力されたカメラ信号は上述と同様の処理を
施され、高解像度のYUVデータがSDRAM24に確
保される。
First, the CPU 34 commands the TG 14 to photograph an object at an optimum shutter speed and read out all the pixel signals photoelectrically converted. Thereby, the CCD imager 12 outputs a high-resolution camera signal corresponding to the still image at the time when the shutter button 56 is operated. The output camera signal is subjected to the same processing as described above, and high resolution YUV data is secured in the SDRAM 24.

【0018】CPU34は、TG14に撮影を命令した
直後に所定の音声データをフラッシュメモリ36から読
み出し、読み出した音声データをD/A変換器42に出
力する。音声データはD/A変換器によってアナログ信
号に変換され、変換された音声信号はスピーカ44から
出力される。つまり、シャッタボタン56の全押しとほ
ぼ同時に、所定の擬似操作音がスピーカ44から発され
る。
The CPU 34 reads out predetermined voice data from the flash memory 36 immediately after instructing the TG 14 to shoot, and outputs the read voice data to the D / A converter 42. The voice data is converted into an analog signal by the D / A converter, and the converted voice signal is output from the speaker 44. That is, a predetermined pseudo operation sound is emitted from the speaker 44 almost at the same time as the shutter button 56 is fully pressed.

【0019】CPU34は続いて、JPEGコーデック
38に対して圧縮命令を与える。JPEGコーデック3
8は、この圧縮命令に応答してメモリ制御回路22にY
UVデータの読み出しをリクエストする。読み出しがリ
クエストされたとき、メモリ制御回路22は、SDRA
M24に確保された1フレーム分の高解像度YUVデー
タつまり1画面分の静止画像データを読み出す。読み出
された静止画像データはJPEGコーデック38に与え
られ、JPEG圧縮を施される。これによって圧縮画像
データ(JPEG信号)が生成されると、JPEGコー
デック38は、この圧縮画像データを書き込みリクエス
トとともにメモリ制御回路22に与える。このため、圧
縮画像データもまたSDRAM24に格納される。
The CPU 34 subsequently gives a compression instruction to the JPEG codec 38. JPEG codec 3
8 responds to this compression instruction by sending Y to the memory control circuit 22.
Request to read UV data. When a read request is made, the memory control circuit 22 sends the SDRA
The high resolution YUV data for one frame secured in M24, that is, the still image data for one screen is read. The read still image data is given to the JPEG codec 38 and subjected to JPEG compression. When the compressed image data (JPEG signal) is generated by this, the JPEG codec 38 gives this compressed image data to the memory control circuit 22 together with the write request. Therefore, the compressed image data is also stored in the SDRAM 24.

【0020】圧縮画像データがSDRAM24に格納さ
れると、CPU34は、記録命令をディスクコントロー
ラ46に与える。ディスクコントローラ46は、この記
録命令に応答してメモリ制御回路22に圧縮画像データ
の読み出しをリクエストし、メモリ制御回路22によっ
て読み出された圧縮画像データを取り込む。そして、光
ピックアップ50および記録ヘッド52を駆動し、圧縮
画像データをAS−MOのような着脱可能な光磁気ディ
スク54に記録する。記録処理が完了すると、CPU3
4は再度スルー画像表示処理を行ない、この結果、スル
ー画像がモニタ28に表示される。
When the compressed image data is stored in the SDRAM 24, the CPU 34 gives a recording command to the disk controller 46. In response to this recording command, the disk controller 46 requests the memory control circuit 22 to read the compressed image data, and fetches the compressed image data read by the memory control circuit 22. Then, the optical pickup 50 and the recording head 52 are driven to record the compressed image data on a removable magneto-optical disk 54 such as AS-MO. When the recording process is completed, the CPU 3
4 again performs the through image display processing, and as a result, the through image is displayed on the monitor 28.

【0021】フラッシュメモリ36には、図2に示すよ
うにデフォルト音声領域36aおよび取込音声領域36
bが形成される。デフォルト音声領域36aは予め準備
されたデフォルト音声データを格納する領域であり、こ
のデフォルト音声データは別の音声データによって更新
されることはない。一方、取込音声領域36bはオペレ
ータによって事後的に取り込まれた音声データを格納す
る領域である。オペレータがマイク30およびA/D変
換器32を通して外部から音声データを取り込んだと
き、または光磁気ディスク54から再生された音声ファ
イルを取り込み、このファイルから音声データを読み出
したとき、この音声データは取込音声領域36bに書き
込まれる。つまり、取込音声領域36bの音声データ
は、オペレータの操作によって任意に変更される。
In the flash memory 36, as shown in FIG. 2, a default voice area 36a and a capture voice area 36 are provided.
b is formed. The default audio area 36a is an area for storing previously prepared default audio data, and this default audio data is not updated by another audio data. On the other hand, the captured voice area 36b is an area for storing the voice data captured afterwards by the operator. When the operator takes in audio data from the outside through the microphone 30 and the A / D converter 32, or takes in an audio file reproduced from the magneto-optical disk 54 and reads the audio data from this file, the audio data is taken out. It is written in the embedded voice area 36b. That is, the voice data in the captured voice area 36b is arbitrarily changed by the operator's operation.

【0022】このように、デフォルト音声および取込音
声の2種類の音声データがフラッシュメモリ36に記憶
されるため、いずれの音声をスピーカ44から発生させ
るかはオペレータの選択に委ねられる。さらに、いずれ
の音声も発生させたくない場合が考えられるため、擬似
操作音の発生/非発生も、オペレータの選択に委ねられ
る。
As described above, since the two types of voice data, the default voice and the captured voice, are stored in the flash memory 36, it is up to the operator to select which voice is to be generated from the speaker 44. Further, since it may be considered that neither voice is desired to be generated, generation / non-generation of the pseudo operation sound is left to the operator's selection.

【0023】擬似操作音に関連するCPU34の具体的
な処理を、図7〜図11を参照して説明する。なお、こ
の図7〜図11の処理は、モードキー60が押され、対
応する状態信号がシステムコントローラ66から入力さ
れたときに実行される。
Specific processing of the CPU 34 relating to the pseudo operation sound will be described with reference to FIGS. 7 to 11. The processing of FIGS. 7 to 11 is executed when the mode key 60 is pressed and the corresponding status signal is input from the system controller 66.

【0024】CPU34はまず、ステップS1でキャラ
クタジェネレータ40およびスイッチSW1を制御し、
図4に示すようなメニュー画面をモニタ28にOSD表
示する。メニュー画面は擬似操作音を発生させるかどう
かを設定するための画面であり、“操作音発生”および
“操作音非発生”の項目およびいずれか一方の項目を指
向するカーソルが表示される。ここでオペレータがカー
ソルキー62を操作すれば、CPU34はステップS3
でYESと判断し、ステップS5でカーソルを所望の位
置に移動させる。そして、ステップS3に戻る。一方、
オペレータがセットキー58を押すと、CPU34はス
テップS7でYESと判断し、ステップS11でカーソ
ルの指向する項目を判別する。
First, the CPU 34 controls the character generator 40 and the switch SW1 in step S1,
A menu screen as shown in FIG. 4 is OSD-displayed on the monitor 28. The menu screen is a screen for setting whether or not to generate a pseudo operation sound, and the items "operation sound generation" and "non-operation sound generation" and a cursor pointing to either one of the items are displayed. If the operator operates the cursor key 62 here, the CPU 34 executes the step S3.
Is determined to be YES, and the cursor is moved to a desired position in step S5. Then, the process returns to step S3. on the other hand,
When the operator presses the set key 58, the CPU 34 determines YES in step S7, and determines the item pointed by the cursor in step S11.

【0025】カーソルが“操作音発生”を指向している
場合、CPU34はステップS11でYESと判断し、
ステップS13で操作音フラグ34aをセットするとと
もに、ステップS15で操作音選択処理を行う。これに
対して、カーソルが“操作音非発生”を指向している場
合、CPU34はステップS9でNOと判断し、ステッ
プS15で操作音フラグ34aをリセットする。ステッ
プS15またはS17の処理を終えると、CPU34は
ステップS3に戻る。擬似操作音に関する所望の設定状
態が得られた後、モードキー60が押されると、CPU
34はステップS19でYESと判断し、処理を終了す
る。
If the cursor is pointing to "manipulation sound", the CPU 34 determines YES in step S11,
The operation sound flag 34a is set in step S13, and the operation sound selection process is performed in step S15. On the other hand, when the cursor is pointing to "no operation sound is generated", the CPU 34 determines NO in step S9, and resets the operation sound flag 34a in step S15. When the process of step S15 or S17 is completed, the CPU 34 returns to step S3. When the mode key 60 is pressed after the desired setting state regarding the pseudo operation sound is obtained, the CPU
34 determines YES in step S19, and ends the process.

【0026】CPU34は、ステップS15において図
8〜図10に示すフロー図を処理する。まず、ステップ
S21でキャラクタジェネレータ40およびスイッチS
W1を制御し、図5に示すメニュー画面をモニタ28に
OSD表示する。選択できるメニュー項目は“マイ
ク”,“ファイル”,“デフォルト”および“試聴”の
4つである。このうち、“マイク”,“ファイル”およ
び“デフォルト”はカーソルキー62およびセットキー
58の操作によって選択され、“試聴”はシャッタボタ
ン56の操作によって選択される。
The CPU 34 processes the flowcharts shown in FIGS. 8 to 10 in step S15. First, in step S21, the character generator 40 and the switch S
The W1 is controlled to display the menu screen shown in FIG. There are four menu items that can be selected: "microphone", "file", "default" and "listening". Among these, “microphone”, “file” and “default” are selected by operating the cursor key 62 and the set key 58, and “listening” is selected by operating the shutter button 56.

【0027】このようなメニュー画面を表示した後、C
PU34は、ステップS23,S27,S29およびS
37のそれぞれで、カーソルキー62,セットキー5
8,シャッタボタン56およびモードキー60の操作の
有無を判別する。
After displaying such a menu screen, C
The PU 34 performs steps S23, S27, S29 and S.
Cursor key 62 and set key 5 for each of 37
8, it is determined whether or not the shutter button 56 and the mode key 60 are operated.

【0028】カーソルキー62が操作された場合、CP
U34はステップS23からステップS25に進み、カ
ーソルを所望の位置に移動させる。そして、ステップS
23に戻る。セットキー58が操作された場合、CPU
34はステップS27でYESと判断し、ステップS3
9およびS41でいずれの項目が選択されたかを判別す
る。カーソルが“マイク”を指向している状態でセット
キー58が押されると、CPU34は“マイク”が選択
されたと判断してステップS45〜S59を処理する。
そして、ステップS23に戻る。一方、カーソルが“フ
ァイル”を指向している状態でセットキー58が押され
ると、CPU34は“ファイル”が選択されたと判断し
てステップS61〜S79を処理する。そして、ステッ
プS23に戻る。他方、カーソルが“デフォルト”を指
向している状態でセットキー58が押されると、CPU
34は“デフォルト”が選択されたと判断し、ステップ
S43でデフォルトフラグ34bをセットする。そし
て、ステップS23に戻る。
When the cursor key 62 is operated, the CP
The U34 proceeds from step S23 to step S25 and moves the cursor to a desired position. And step S
Return to 23. When the set key 58 is operated, the CPU
34 determines YES in step S27, and determines in step S3
In 9 and S41, it is determined which item is selected. When the set key 58 is pressed while the cursor is pointing to the "microphone", the CPU 34 determines that the "microphone" is selected and processes steps S45 to S59.
Then, the process returns to step S23. On the other hand, when the set key 58 is pressed while the cursor is pointing to "file", the CPU 34 determines that "file" is selected and processes steps S61 to S79. Then, the process returns to step S23. On the other hand, if the set key 58 is pressed with the cursor pointing to "default", the CPU
34 determines that "default" has been selected, and sets the default flag 34b in step S43. Then, the process returns to step S23.

【0029】シャッタボタン56が押された場合、CP
U34はステップS29でYESと判断し、ステップS
31でデフォルトフラグ34bの状態を判別する。そし
て、デフォルトフラグ34bがセット状態であれば、ス
テップS33でデフォルト音声領域36aに格納された
デフォルト音声データを再生し、ステップS23に戻
る。一方、デフォルトフラグ34bがリセット状態であ
れば、ステップS35で取込音声領域36bに格納され
た音声データを再生し、ステップS23に戻る。つま
り、シャッタボタン56を押すことで、どのような擬似
操作音が再生されるかを試すことができる。
When the shutter button 56 is pressed, the CP
U34 determines YES in step S29, and proceeds to step S29.
At 31, the state of the default flag 34b is determined. If the default flag 34b is in the set state, the default voice data stored in the default voice area 36a is reproduced in step S33, and the process returns to step S23. On the other hand, if the default flag 34b is in the reset state, the voice data stored in the captured voice area 36b is reproduced in step S35, and the process returns to step S23. That is, by pressing the shutter button 56, it is possible to try what kind of pseudo operation sound is reproduced.

【0030】モードキー60が押された場合、CPU3
4はステップS37でYESと判断し、図7に示すルー
チンに戻る。
When the mode key 60 is pressed, the CPU 3
In step S37, YES is determined in step S37, and the process returns to the routine shown in FIG.

【0031】“マイク”の選択によって図9のステップ
S45に進んだ場合、CPU34は、まずシャッタボタ
ン56が押されたかどうかを判断し、YESであれば、
ステップS47でマイク30およびA/D変換器32を
通して外部音声データを取り込む。そして、取り込んだ
外部音声データのレベルをステップS49で所定の閾値
と比較する。ここで、音声レベルが閾値以下であれば、
CPU34はステップS51以降の処理を行うことなく
ステップS47に戻る。一方、音声レベルが閾値を上回
れば、CPU34はステップS51でこの音声データを
取込音声領域36bに書き込む。このステップS49お
よびS51の処理によって、外部音声データから有音成
分データが抽出されるとともに、抽出された有音成分デ
ータが取込音声領域36bに格納される。
When the process proceeds to step S45 in FIG. 9 by selecting "Mic", the CPU 34 first determines whether or not the shutter button 56 has been pressed, and if YES,
In step S47, external audio data is taken in through the microphone 30 and the A / D converter 32. Then, the level of the external audio data taken in is compared with a predetermined threshold value in step S49. If the audio level is below the threshold,
The CPU 34 returns to step S47 without performing the processing from step S51. On the other hand, if the audio level exceeds the threshold, the CPU 34 writes this audio data in the captured audio area 36b in step S51. By the processing of steps S49 and S51, the voiced component data is extracted from the external voice data, and the extracted voiced component data is stored in the captured voice area 36b.

【0032】CPU34は続いて、シャッタボタン56
の押圧状態が解除されたかどうかをステップS53で判
断するとともに、書き込まれた音声データ量(有音成分
データ量)が取込音声領域36bの容量に達したかどう
かをステップS55で判断する。そして、ステップS5
3およびS55のいずれでもNOであれば、ステップS
47に戻るが、いずれか一方でもYESであれば、ステ
ップS57に進む。このため、シャッタボタン56が押
され続け、かつ設定音声領域36bの残容量が十分であ
れば、有音成分データの書き込みが継続される。一方、
シャッタボタン56から指が離されるか、または設定音
声領域36bが満杯になると、書き込みを終了する。
The CPU 34 then continues to release the shutter button 56.
In step S53, it is determined whether or not the pressed state has been released, and it is determined in step S55 whether the written voice data amount (voice component data amount) has reached the capacity of the captured voice region 36b. Then, step S5
If NO in both 3 and S55, step S
The process returns to 47, but if either one is YES, the process proceeds to step S57. Therefore, if the shutter button 56 is continuously pressed and the remaining capacity of the set sound area 36b is sufficient, the writing of the voice component data is continued. on the other hand,
When the finger is released from the shutter button 56 or the set audio area 36b becomes full, the writing is ended.

【0033】ステップS57では、設定音声領域36b
に書き込まれた音声データ(有音成分データ)をWAV
形式の音声ファイルに収納し、この音声ファイルを光磁
気ディスク54に記録する。WAV形式によれば、デー
タサイズなどの管理情報がファイルのヘッダに格納さ
れ、このヘッダ以降に音声データが格納される。このよ
うな音声ファイルはSDRAM24上で作成され、その
後、ディスクコントローラ46によって光磁気ディスク
54に記録される。音声ファイルの記録が完了すると、
CPU34は、ステップS59におけるデフォルトフラ
グ34bのリセット処理を経てステップS23に戻る。
デフォルトフラグ34bがリセットされることで、試聴
のときに再生されるのは、以上の処理で取込音声領域3
6bに書き込まれた有音成分データである。
In step S57, the set voice area 36b is set.
The audio data (voice component data) written in the WAV
The audio file of the format is stored and the audio file is recorded on the magneto-optical disk 54. According to the WAV format, management information such as data size is stored in the header of the file, and audio data is stored after this header. Such an audio file is created on the SDRAM 24 and then recorded on the magneto-optical disk 54 by the disk controller 46. When recording of the audio file is completed,
The CPU 34 returns to step S23 through the reset process of the default flag 34b in step S59.
By resetting the default flag 34b, what is reproduced at the time of trial listening is the captured voice region 3
6b is the voiced component data written in 6b.

【0034】“ファイル”の選択によって図10のステ
ップS61に進んだ場合、CPU34はまず音声ファイ
ルの選択処理を行なう。この選択処理によって、光磁気
ディスク54から所望の音声ファイルが再生され、SD
RAM24に格納される。再生される音声ファイルはW
AV形式に従うファイルであるが、これは、上述のステ
ップS45〜S59で作成された音声ファイルに限られ
ない。つまり、パーソナルコンピュータなどの汎用の処
理装置によって作成されたWAV形式の音声ファイルで
もよい。
When the process proceeds to step S61 of FIG. 10 by selecting "file", the CPU 34 first performs a sound file selecting process. By this selection processing, a desired audio file is reproduced from the magneto-optical disk 54, and SD
It is stored in the RAM 24. The audio file to be played is W
Although the file complies with the AV format, this is not limited to the audio file created in steps S45 to S59 described above. That is, it may be a WAV format audio file created by a general-purpose processing device such as a personal computer.

【0035】ステップS63では、SDRAM24に格
納された音声ファイルのヘッダの末尾にポインタ1を配
置し、続くステップS65では、ポインタ1の指向先に
有音成分データが存在するかどうかを判断する。この判
断は、音声データレベルを所定の閾値と比較して行う。
ポインタ1の指向先に存在するデータが無音成分の場
合、CPU34はステップS65でNOと判断し、ステ
ップS67でポインタ1を所定バイトだけ先に進める。
そして、ステップS65に戻る。一方、ポインタ1の指
向先に有音成分が存在すれば、CPU34はステップS
65でYESと判断し、ステップS69に進む。図3に
示すような音声ファイルがSDRAM24に展開されて
いる場合、ポインタ1は、ステップS65でYESと判
断された時点で有音成分の先頭位置に配置される。
In step S63, the pointer 1 is arranged at the end of the header of the audio file stored in the SDRAM 24, and in the following step S65, it is determined whether or not there is voiced component data at the pointing destination of the pointer 1. This judgment is made by comparing the audio data level with a predetermined threshold value.
When the data existing at the pointing destination of the pointer 1 is a silent component, the CPU 34 determines NO in step S65, and advances the pointer 1 forward by a predetermined byte in step S67.
Then, the process returns to step S65. On the other hand, if there is a voiced component at the pointing destination of the pointer 1, the CPU 34 proceeds to step S
If YES is determined in 65, the process proceeds to step S69. When the audio file as shown in FIG. 3 is expanded in the SDRAM 24, the pointer 1 is placed at the head position of the voiced component at the time when YES is determined in step S65.

【0036】ステップS69では、ポインタ1の現在位
置から所定バイト進んだ位置にポインタ2を配置する。
続いて、ポインタ2の指向先に存在するデータが無音成
分であるかどうかをステップS71で判断するととも
に、ポインタ1および2の間にあるデータ量が取込音声
領域36bの容量に達したかどうかをステップS73で
判断する。ステップS71の判断は、音声データレベル
を所定の閾値と比較して行う。ステップS71およびS
73のいずれもNOであれば、CPU34は、ステップ
S75でポインタ2を所定バイトだけ先に進め、ステッ
プS71に戻る。
In step S69, the pointer 2 is placed at a position advanced by a predetermined number of bytes from the current position of the pointer 1.
Subsequently, it is determined in step S71 whether or not the data existing at the pointing destination of the pointer 2 is a silent component, and whether or not the amount of data between the pointers 1 and 2 has reached the capacity of the captured voice area 36b. Is determined in step S73. The determination in step S71 is performed by comparing the audio data level with a predetermined threshold value. Steps S71 and S
If all of 73 are NO, the CPU 34 advances the pointer 2 by a predetermined byte in step S75, and returns to step S71.

【0037】これに対して、ステップS71およびS7
3の一方でもYESと判断されれば、CPU34はステ
ップS77に進み、ポインタ1および2の間の音声デー
タ(有音成分データ)を取込音声領域36bに書き込
む。つまり、音声ファイルに含まれる有音成分データ
が、ステップS65〜S77の処理によって抽出され、
取込音声領域36bに格納される。
On the other hand, steps S71 and S7
If one of 3 is also determined to be YES, the CPU 34 proceeds to step S77 and writes the voice data (sound component data) between the pointers 1 and 2 in the captured voice area 36b. That is, the voiced component data included in the audio file is extracted by the processing of steps S65 to S77,
It is stored in the captured voice area 36b.

【0038】図3に示す音声ファイルの有音成分データ
量が取込音声領域36bの容量に満たない場合、CPU
34は、ポインタ2が図3に示す位置に移動したときに
ステップS77に進み、同図の有効音声データを取込音
声領域36bに書き込む。書き込みが完了すると、CP
U34はステップS79でデフォルトフラグ34bをリ
セットし、ステップS23に戻る。
If the amount of voiced component data of the audio file shown in FIG. 3 is less than the capacity of the captured audio area 36b, the CPU
When the pointer 2 moves to the position shown in FIG. 3, the process proceeds to step S77 to write the valid voice data shown in FIG. 34 in the captured voice area 36b. When writing is completed, CP
U34 resets the default flag 34b in step S79, and returns to step S23.

【0039】ステップS61では、図11に示すサブル
ーチンが処理される。CPU34はまずステップS81
で、光磁気ディスク54に記録された管理情報に基づい
て、ディスクに記録されている音声ファイルのファイル
名を検出する。次に、検出した音声ファイル名を含むフ
ァイルリストを、ステップS83でモニタ28にOSD
表示する。モニタ28には、図6に示す要領で複数のフ
ァイル名およびいずれか1つのファイル名を指向するカ
ーソルが表示される。CPU34は続いて、カーソルキ
ー62の操作の有無をステップS85で判断し、セット
キー58の操作の有無をステップS89で判断する。
In step S61, the subroutine shown in FIG. 11 is processed. The CPU 34 firstly performs step S81.
Then, based on the management information recorded on the magneto-optical disk 54, the file name of the audio file recorded on the disk is detected. Next, in step S83, the file list including the detected audio file name is OSDed on the monitor 28.
indicate. On the monitor 28, a plurality of file names and a cursor pointing to any one of the file names are displayed as shown in FIG. Subsequently, the CPU 34 determines whether or not the cursor key 62 is operated in step S85, and determines whether or not the set key 58 is operated in step S89.

【0040】カーソルキー62が操作されたときは、ス
テップS87でカーソルを移動させてからステップS8
5に戻る。一方、セットキー58が操作されたときはス
テップS91に進み、カーソルが指向している音声ファ
イルの再生をディスクコントローラ46に命令する。こ
のとき、ディスクコントローラ46は、光ピックアップ
50を駆動して光ディスク54から所望の音声ファイル
を再生し、再生した音声ファイルを書き込みリクエスト
とともにメモリ制御回路22に与える。この結果、所望
の音声ファイルは、メモリ制御回路22によってSDR
AM24に展開される。ステップS91の処理を終える
と、図10に示すルーチンに戻る。
When the cursor key 62 is operated, the cursor is moved in step S87 and then step S8.
Return to 5. On the other hand, when the set key 58 is operated, the process proceeds to step S91 to instruct the disk controller 46 to reproduce the audio file pointed by the cursor. At this time, the disk controller 46 drives the optical pickup 50 to reproduce a desired audio file from the optical disk 54, and gives the reproduced audio file to the memory control circuit 22 together with a write request. As a result, the desired audio file is SDR by the memory control circuit 22.
Expanded to AM24. When the process of step S91 is completed, the process returns to the routine shown in FIG.

【0041】以上の図7〜図11に示す処理はモードキ
ー60の操作に応答して開始される割り込みルーチンで
あり、このような割り込みルーチンが処理されない間
は、図12および図13に示すフロー図が処理される。
The above-described processing shown in FIGS. 7 to 11 is an interrupt routine started in response to the operation of the mode key 60. While such an interrupt routine is not processed, the flow shown in FIGS. 12 and 13 is executed. The figure is processed.

【0042】CPU34はまず、ステップS101でモ
ニタオン/オフキー64が“オン”側に設定されたかど
うか判断し、YESとの判断結果が得られたときに、ス
テップS103でスルー画像表示処理を行なう。具体的
には、TG14に間引き読み出しを命令するとともに、
信号処理回路20およびビデオエンコーダ26に所定の
処理命令を与える。この結果、スルー画像がモニタ28
に表示される。
First, in step S101, the CPU 34 determines whether or not the monitor on / off key 64 is set to the "on" side. When a YES determination result is obtained, the through image display process is performed in step S103. Specifically, while instructing the TG 14 to perform thinning-out reading,
A predetermined processing instruction is given to the signal processing circuit 20 and the video encoder 26. As a result, a through image is displayed on the monitor 28.
Is displayed in.

【0043】CPU34は続いて、シャッタボタン56
が半押し状態となったかどうかをステップS105で判
断する。ここでNOであればステップS105の処理を
繰り返すが、YESであればステップS107でシャッ
タスピードや白バランスなどの撮影条件を調整する。撮
影条件の調整が完了すると、CPU34は、ステップS
109でシャッタボタン56の押圧か解除されたかどう
かを判断するとともに、ステップS111でシャッタボ
タン56が全押しされたかどうかを判断する。そして、
シャッタボタン56の押圧が解除されるとステップS1
05に戻り、シャッタボタン56が全押しされるとステ
ップS113に進む。なお、シャッタボタン56が全押
しされない限り、モニタ28にはスルー画像が表示され
続ける。
The CPU 34 then continues to the shutter button 56.
It is determined in step S105 whether or not is in the half-pressed state. If NO here, the process of step S105 is repeated, but if YES, the shooting conditions such as shutter speed and white balance are adjusted in step S107. When the adjustment of the shooting conditions is completed, the CPU 34 proceeds to step S
At 109, it is determined whether or not the shutter button 56 is pressed or released, and at step S111, it is determined whether or not the shutter button 56 is fully pressed. And
When the shutter button 56 is released, step S1
Returning to 05, when the shutter button 56 is fully pressed, the process proceeds to step S113. The through image continues to be displayed on the monitor 28 unless the shutter button 56 is fully pressed.

【0044】シャッタボタン56の全押しに応答してス
テップS113に進むと、CPU34はTG14に全画
素読み出しを命令する。TG14は、この命令に応答し
てCCDイメージャ12の駆動方式を間引き読み出しか
ら全画素読み出しに切り換え、1フレーム分のカメラ信
号がCCDイメージャ12から出力された時点で読み出
しを中断する。CPU34は、全画素読み出しを命令し
た後、ステップS115で操作音フラグ34aの状態を
判別する。そして、操作音フラグ34aがリセット状態
であればそのままステップS123に進み、撮影された
被写体像の記録処理を行なう。つまり、全画素読み出し
されたカメラ信号に対応するYUVデータ(静止画像デ
ータ)がSDRAM24に確保されているため、この静
止画像データの圧縮および圧縮画像データの記録を行う
べく、JPEGコーデック38およびディスクコントロ
ーラ46の各々に圧縮命令および記録命令を与える。こ
の結果、圧縮画像データが収納されたWAV形式の画像
ファイルが光磁気ディスク54内に記録される。記録処
理が完了すると、CPU34はステップS101に戻
る。この結果、モニタ28にはスルー画像が再度表示さ
れる。
When the process proceeds to step S113 in response to the full depression of the shutter button 56, the CPU 34 commands the TG 14 to read all pixels. In response to this command, the TG 14 switches the driving system of the CCD imager 12 from thinning-out reading to all-pixel reading, and interrupts reading when a camera signal for one frame is output from the CCD imager 12. After instructing to read all pixels, the CPU 34 determines the state of the operation sound flag 34a in step S115. Then, if the operation sound flag 34a is in the reset state, the process directly proceeds to step S123 to record the photographed subject image. That is, since YUV data (still image data) corresponding to the camera signals read out from all the pixels is secured in the SDRAM 24, the JPEG codec 38 and the disk controller 38 are used to compress the still image data and record the compressed image data. Compress and record commands are provided to each of the 46. As a result, a WAV format image file containing the compressed image data is recorded in the magneto-optical disk 54. When the recording process is completed, the CPU 34 returns to step S101. As a result, the through image is displayed again on the monitor 28.

【0045】一方、ステップS115で操作音フラグ3
4aがセット状態であると判断されると、CPU34
は、ステップS117でデフォルトフラグ34bの状態
を判別する。そして、デフォルトフラグ34bがセット
状態であればステップS119に進み、デフォルト音声
領域36aに書き込まれたデフォルト音声データを再生
する。一方、デフォルトフラグ34bがリセット状態で
あれば、ステップS121に進んで取込音声領域36b
に書き込まれた音声データ(有効音声データ)を再生す
る。このため、オペレータのメニュー設定に従う擬似操
作音がスピーカ44から出力される。ステップS119
またはS121の処理を終えると、CPU34はステッ
プS123で上述の撮影画像記録処理を行い、その後ス
テップS101に戻る。
On the other hand, in step S115, the operation sound flag 3
If it is determined that 4a is in the set state, the CPU 34
Determines the state of the default flag 34b in step S117. If the default flag 34b is in the set state, the process proceeds to step S119, and the default audio data written in the default audio area 36a is reproduced. On the other hand, if the default flag 34b is in the reset state, the process proceeds to step S121 and the captured voice area 36b is acquired.
The audio data (effective audio data) written in is reproduced. Therefore, the pseudo operation sound according to the operator's menu setting is output from the speaker 44. Step S119
Alternatively, when the process of S121 ends, the CPU 34 performs the above-described captured image recording process in step S123, and then returns to step S101.

【0046】以上の説明から分かるように、図5に示す
メニューの中から“マイク”が選択され、シャッタボタ
ン56が押されると、外部の音声がマイク30およびA
/D変換器32を通して取り込まれ、取り込まれた音声
データから有音声分データが抽出される。抽出された有
音成分データは、フラッシュメモリ36の取込音声領域
36bに書き込まれとともに、WAV形式の音声ファイ
ルへの変換処理を経て光磁気ディスク54に記録され
る。一方、メニューの中から“ファイル”が選択される
と、光磁気ディスク54に記録された音声ファイルのフ
ァイル名が図6に示す要領で表示され、所望の音声ファ
イルが選択されると、所望の音声ファイルから有音成分
データが抽出される。そして、抽出された有音成分デー
タが取込音声領域36bに書き込まれる。“マイク”ま
たは“ファイル”が選択されたときはまたデフォルトフ
ラグ34bがリセットされ、これによって取込音声領域
36bの音声データが有効化される。
As can be seen from the above description, when "microphone" is selected from the menu shown in FIG. 5 and the shutter button 56 is pressed, external sound is transmitted to the microphones 30 and A.
The voiced data is extracted from the voice data that has been captured through the / D converter 32. The extracted voice component data is written in the captured audio area 36b of the flash memory 36, and is recorded on the magneto-optical disk 54 after being converted into a WAV format audio file. On the other hand, when "File" is selected from the menu, the file name of the audio file recorded on the magneto-optical disk 54 is displayed as shown in FIG. 6, and when the desired audio file is selected, the desired audio file is selected. Sound component data is extracted from the audio file. Then, the extracted voiced component data is written in the captured voice area 36b. When "microphone" or "file" is selected, the default flag 34b is also reset, thereby validating the voice data in the captured voice area 36b.

【0047】他方、メニューの中から“デフォルト”が
選択されると、デフォルトフラグ34bがセットされ、
これによって製造時にデフォルト音声領域36aに書き
込まれた音声データが有効化される。このようにして有
効化された音声データは、被写体を撮影するときのシャ
ッタボタン58の操作に応答してスピーカ44から出力
される。つまり、マイク30から取り込んだ音声デー
タ、光磁気ディスク54から読み出された音声データ、
または当初から用意されていた音声データが、スピーカ
44から発される。
On the other hand, when "default" is selected from the menu, the default flag 34b is set,
As a result, the voice data written in the default voice area 36a at the time of manufacturing is validated. The voice data thus validated is output from the speaker 44 in response to the operation of the shutter button 58 when photographing the subject. That is, the voice data taken from the microphone 30, the voice data read from the magneto-optical disc 54,
Alternatively, the audio data prepared from the beginning is emitted from the speaker 44.

【0048】この実施例によれば、マイクまたは着脱可
能な記録媒体から音声を取り込んだとき、この取り込み
音声から有音成分が抽出され、抽出された有音成分のみ
がメモリに格納される。このため、シャッタボタンの操
作タイミングと擬似操作音の発生タイミングの間で大き
なタイムラグが生じることはない。
According to this embodiment, when voice is captured from the microphone or the removable recording medium, the voiced component is extracted from the captured voice, and only the extracted voiced component is stored in the memory. Therefore, a large time lag does not occur between the operation timing of the shutter button and the generation timing of the pseudo operation sound.

【0049】なお、この実施例では、マイクから取り込
まれた音声データおよびSDRAMに展開された音声フ
ァイルに含まれる音声データから有音成分データを抽出
するとき、音声データの先頭部分および末尾部分の両方
の無音成分を除去するようにしているが、上述のタイム
ラグを解消するためには、先頭部分の無音成分のみを除
去すればよい。つまり、有音声分から始まる音声データ
を抽出して取込音声領域に格納するようにすれば、上述
のタイムラグを解消することができる。
In this embodiment, when the voiced component data is extracted from the voice data taken in from the microphone and the voice data included in the voice file expanded in the SDRAM, both the beginning portion and the end portion of the voice data are extracted. However, in order to eliminate the above-mentioned time lag, it suffices to remove only the silent component at the beginning. That is, the above-mentioned time lag can be eliminated by extracting the voice data starting from the voiced portion and storing it in the captured voice area.

【0050】また、この実施例で再生される擬似操作音
としては、動物の泣き声や人の掛け声のほか、各種カメ
ラメーカの銀塩カメラで生じるシャッタ音が考えられ
る。
Further, as the pseudo operation sound reproduced in this embodiment, a cry of an animal, a scream of a person, and a shutter sound produced by a silver salt camera of various camera makers can be considered.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】フラッシュメモリの構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing a configuration of a flash memory.

【図3】WAV形式の音声ファイルの構造を示す図解図
である。
FIG. 3 is an illustrative view showing a structure of a WAV format audio file.

【図4】モニタに表示されるメニュー画面の一例を示す
図解図である。
FIG. 4 is an illustrative view showing one example of a menu screen displayed on a monitor.

【図5】モニタに表示されるメニュー画面の他の例を示
す図解図である。
FIG. 5 is an illustrative view showing another example of the menu screen displayed on the monitor.

【図6】モニタに表示されるファイルリストの一例を示
す図解図である。
FIG. 6 is an illustrative view showing one example of a file list displayed on a monitor.

【図7】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 7 is a flowchart showing a part of the operation of FIG. 1 embodiment.

【図8】図1実施例の動作の他の一部を示すフロー図で
ある。
FIG. 8 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図9】図1実施例の動作のその他の一部を示すフロー
図である。
FIG. 9 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図10】図1実施例の動作のさらにその他の一部を示
すフロー図である。
FIG. 10 is a flowchart showing yet another portion of the operation of FIG. 1 embodiment.

【図11】図1実施例の動作の他の一部を示すフロー図
である。
FIG. 11 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図12】図1実施例の動作のその他の一部を示すフロ
ー図である。
FIG. 12 is a flowchart showing another portion of the operation of the embodiment in FIG. 1;

【図13】図1実施例の動作のさらにその他の一部を示
すフロー図である。
FIG. 13 is a flowchart showing yet another portion of the operation of the embodiment in FIG. 1;

【符号の説明】[Explanation of symbols]

10…ディジタルカメラ 12…CCDイメージャ 22…メモリ制御回路 24…SDRAM 26…ビデオエンコーダ 28…モニタ 30…マイク 34…CPU 36…フラッシュメモリ 54…光磁気ディスク 10 ... Digital camera 12 ... CCD imager 22 ... Memory control circuit 24 ... SDRAM 26 ... Video encoder 28 ... Monitor 30 ... Mike 34 ... CPU 36 ... Flash memory 54 ... Magneto-optical disk

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】シャッタボタンが操作されたとき被写体の
撮影とともにメモリから擬似操作音信号を再生するカメ
ラにおいて、 音声取込操作に応答して 音声信号を取り込む取り込み手
段、 前記取り込み手段によって取り込まれた音声信号から
音成分を抽出する抽出手段、 前記抽出手段によって抽出された有音成分を前記擬似操
作音信号として前記メモリに格納する格納手段、および
音声試聴操作に応答して被写体を撮影することなく前記
メモリから前記擬似操作音信号を再生する再生手段を備
え、 特定モードが選択された状態での前記シャッタボタンの
操作を前記音声試聴操作としたことを特徴とする、カメ
ラ。
1. An object for shooting when a shutter button is operated.
A turtle that reproduces a pseudo-operation sound signal from the memory during shooting
In La, capture means for capturing an audio signal in response to sound capture operation, closed from the audio signals captured by said capturing means
Extracting means for extracting a sound component, the pseudo steering the sound component extracted by said extraction means
Storage means for storing in the memory as a sound production signal , and
Without taking a picture of the subject in response to the audio audition operation,
Equipped with reproducing means for reproducing the pseudo operation sound signal from the memory
If the specific mode is selected, the shutter button
The turtle is characterized in that the operation is the audio audition operation.
La.
【請求項2】前記音声信号は所定形式で作成された音声
ファイルであり、 前記取り込み手段は着脱可能な記録媒体から前記音声フ
ァイルを読み出すファイル読み出し手段を含み、 前記抽出手段は前記音声ファイルから前記有音成分を
出する第1有音成分抽出手段を含む、請求項1記載のカ
メラ。
2. The audio signal is an audio file created in a predetermined format, the capturing means includes file reading means for reading the audio file from a removable recording medium, and the extracting means includes the audio file from the audio file. including a first sound component extraction means to extract <br/> the sound ingredient of claim 1, wherein the camera.
【請求項3】前記第1有音成分抽出手段は音声ファイル
の有音成分開始位置を検出する検出手段を含む、請求項
3記載のカメラ。
3. The camera according to claim 3, wherein the first voiced component extraction means includes detection means for detecting a voiced component start position of an audio file.
【請求項4】前記取り込み手段は外部音声を捉えるマイ
クを含み、 前記抽出手段は前記マイクによって捉えられた外部音声
信号から前記有音成分を抽出する第2有音成分信号抽出
手段をさらに含み、 前記第2有音成分抽出手段によって抽出された前記有音
分を含む前記所定形式の音声ファイルを前記記録媒体
に記録する記録手段をさらに備える、請求項2または
記載のカメラ。
Wherein said capturing means includes a microphone to capture the external audio, the extraction means further comprises a second sound component signal extracting means for extracting the sound Ingredient external audio signals captured by the microphone further comprising a recording means for recording an audio file of the predetermined format containing the sound <br/> ingredient extracted by said second sound component extraction unit to the recording medium, according to claim 2 or 3
The listed camera.
【請求項5】前記第2有音成分抽出手段は前記音声信号
のレベルを所定の閾値と比較する比較手段を含む、請求
項4記載のカメラ。
5. The camera according to claim 4, wherein the second voiced component extracting means includes a comparing means for comparing the level of the audio signal with a predetermined threshold value.
JP36392099A 1999-12-22 1999-12-22 camera Expired - Fee Related JP3363857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36392099A JP3363857B2 (en) 1999-12-22 1999-12-22 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36392099A JP3363857B2 (en) 1999-12-22 1999-12-22 camera

Publications (2)

Publication Number Publication Date
JP2001186393A JP2001186393A (en) 2001-07-06
JP3363857B2 true JP3363857B2 (en) 2003-01-08

Family

ID=18480525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36392099A Expired - Fee Related JP3363857B2 (en) 1999-12-22 1999-12-22 camera

Country Status (1)

Country Link
JP (1) JP3363857B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7535496B2 (en) 2002-01-30 2009-05-19 Intel Corporation Audio-based attention grabber for imaging devices
US7821536B2 (en) 2002-03-12 2010-10-26 Canon Kabushiki Kaisha Information processing apparatus, data storage device, data transfer system and data transfer method, program and recording medium
US7660521B2 (en) 2004-12-27 2010-02-09 Kyocera Corporation Image pickup terminal

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3156930B2 (en) * 1989-11-20 2001-04-16 オリンパス光学工業株式会社 camera
JPH06332491A (en) * 1993-05-21 1994-12-02 Gijutsu Kenkyu Kumiai Iryo Fukushi Kiki Kenkyusho Voiced section detecting device and noise suppressing device
JPH1166729A (en) * 1997-08-26 1999-03-09 Nippon Columbia Co Ltd Recorder
JP2000350062A (en) * 1999-06-07 2000-12-15 Sony Corp Digital camera

Also Published As

Publication number Publication date
JP2001186393A (en) 2001-07-06

Similar Documents

Publication Publication Date Title
JP4768028B2 (en) Image capture method and device
US7417668B2 (en) Digital camera
JP4044571B2 (en) Video shooting device for displaying OSD menu and display method thereof
TWI387322B (en) Image capturing apparatus, record medium and method for controlling image capturing apparatus
US7417667B2 (en) Imaging device with function to image still picture during moving picture imaging
JP3398081B2 (en) Digital camera
JP5251878B2 (en) Imaging apparatus and imaging method
JP2003110914A (en) Digital camera
JP3881168B2 (en) Digital camera and operation control method thereof, and image reproducing apparatus and method
JP4500465B2 (en) Imaging apparatus and control method thereof
CN104811605B (en) Camera device, camera shooting control method and recording medium
JP3363857B2 (en) camera
JP4595832B2 (en) Imaging apparatus, program, and storage medium
JP2007194829A (en) Camera, image processing apparatus, still picture generating method, program, and storage medium
JP2004297177A (en) Image processor
JP5509781B2 (en) Imaging device
JP2009077265A (en) Imaging apparatus
JP4948014B2 (en) Electronic camera
JP2002232830A (en) Image processor, image processing program and image processing method
JP2001069453A (en) Still picture camera
JP2003125344A (en) Method and device for recording/reproducing picture and method and device for managing file
JP3495667B2 (en) Data recording device
JP2021057764A (en) Imaging apparatus, audio processing method, and program
JP4462660B2 (en) Still image recording apparatus and method, and imaging apparatus
JP2004056699A (en) Camera with moving picture photographing function

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071025

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081025

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081025

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091025

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101025

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101025

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111025

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111025

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121025

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121025

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131025

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131025

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131025

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees