JP4751758B2 - Playback device - Google Patents

Playback device Download PDF

Info

Publication number
JP4751758B2
JP4751758B2 JP2006117143A JP2006117143A JP4751758B2 JP 4751758 B2 JP4751758 B2 JP 4751758B2 JP 2006117143 A JP2006117143 A JP 2006117143A JP 2006117143 A JP2006117143 A JP 2006117143A JP 4751758 B2 JP4751758 B2 JP 4751758B2
Authority
JP
Japan
Prior art keywords
shooting
unit
image
time
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006117143A
Other languages
Japanese (ja)
Other versions
JP2007295034A (en
JP2007295034A5 (en
Inventor
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2006117143A priority Critical patent/JP4751758B2/en
Publication of JP2007295034A publication Critical patent/JP2007295034A/en
Publication of JP2007295034A5 publication Critical patent/JP2007295034A5/ja
Application granted granted Critical
Publication of JP4751758B2 publication Critical patent/JP4751758B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

この発明は、GPSセンサ等により得られた位置情報を利用した再生を行う再生装置に関する。 The present invention relates to a playback apparatus that performs playback using position information obtained by a GPS sensor or the like.

人工衛星が発する電波を検出して地図上の位置と対応づける、いわゆるGPS(Global Positioning System)の技術は、ナビゲーションのシステムでは良く知られている。このGPSの技術は、カメラにも色々応用されている。一方、GPS信号は微弱信号のため、カメラの位置によっては取得できないという課題も広く知られている。そこで、撮影時にGPS情報が取得できないときには、前回のGPSデータを代用して位置情報として記録するカメラも提案されている(特許文献1)。   A so-called GPS (Global Positioning System) technique for detecting a radio wave emitted from an artificial satellite and associating it with a position on a map is well known in a navigation system. This GPS technology has been applied to various cameras. On the other hand, since the GPS signal is a weak signal, there is a widely known problem that it cannot be obtained depending on the position of the camera. Therefore, a camera has also been proposed that records GPS information as position information instead of the previous GPS data when GPS information cannot be acquired at the time of shooting (Patent Document 1).

また、GPS信号が取得できないのは専ら屋内であるという性質に着目した提案もある。特許文献2には、GPS情報が取得できるか否かで、カメラが屋外にあるか屋内にあるかを推定して、その撮影モードを設定するカメラについて記載されている。また、特許文献3には、GPS情報が取得できるか否かで、カメラが屋外にあるか屋内にあるかを推定して、そのホワイトバランスを設定するカメラについて記載されている。   There is also a proposal focusing on the property that GPS signals cannot be acquired exclusively indoors. Patent Document 2 describes a camera that estimates whether a camera is outdoors or indoors and sets its shooting mode depending on whether GPS information can be acquired. Patent Document 3 describes a camera that estimates whether the camera is outdoors or indoors and sets its white balance depending on whether GPS information can be acquired.

更に、この屋外か屋内かを検出する手段としては、GPSセンサだけではなく、赤外センサや光量センサを利用する例もある。特許文献4では、赤外センサや光量センサを利用して、屋内外を判定してその結果を、LCDの自動制御に利用する技術が開示されている。
特開平6−67282号公報 特開2004−336326号公報 特開2005−328271号公報 特開2005−175888号公報
Further, as a means for detecting whether this is outdoor or indoor, there is an example using not only a GPS sensor but also an infrared sensor or a light quantity sensor. Patent Document 4 discloses a technique of using an infrared sensor or a light amount sensor to determine indoor / outdoor and using the result for automatic control of the LCD.
JP-A-6-67282 JP 2004-336326 A JP 2005-328271 A JP 2005-175888 A

従来のカメラで、番号順に画像を再生する際には、撮影シーンやタイミングは特に考慮せずに、撮影順に表示させていた。従って、図10(A)のように山で撮影した写真から、突然に図10(c)のような海で撮影した写真に切換わったりすることもあった。撮影した本人や被写体の記憶がはっきりしている間は問題ないが、だんだん記憶が薄れてくると、何か起こったか、とっさには理解できないことがある。このような不自然な画像の切換わりがあると、見ている方に戸惑いを与える。When images are played back in numerical order with a conventional camera, the shooting scenes and timings are not taken into consideration, and the images are displayed in the shooting order. Therefore, the photograph taken at the mountain as shown in FIG. 10A may be suddenly switched to the photograph taken at the sea as shown in FIG. 10C. There is no problem as long as the memory of the subject and the subject is clear, but when the memory gradually fades, it may not be easy to understand what happened. If there is such an unnatural switching of images, it is confusing to the viewer.

本願発明は、上記課題に鑑み、連続再生時に表示画像の地域が大きく変わる場合でも、見ている者に画面の切換わりで不自然さを感じさせない再生装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a playback device that does not make the viewer feel unnatural by switching the screen even when the area of the display image changes greatly during continuous playback .

上記目的を達成するために、第1の発明による再生装置は、再生される画像の撮影位置情報を比較して、当該連続再生される画像の前後間の撮影位置の差が所定距離より大きいか否かを判断する制御部と、上記制御部によって上記撮影位置の差が所定より大きいと判断される場合には、撮影位置の変化表示を示す中間画面を当該連続再生される画像の前後間に所定時間表示する表示制御部と、備えるものである。 In order to achieve the above object, the playback apparatus according to the first invention compares the shooting position information of the images to be played back, and determines whether the difference between the shooting positions before and after the continuously played back images is greater than a predetermined distance. If the control unit determines that the difference between the shooting positions is larger than a predetermined value, an intermediate screen showing a change display of the shooting position is displayed before and after the continuously reproduced images. And a display control unit for displaying for a predetermined time .

本発明によれば、連続再生時に表示画像の地域が大きく変わる場合でも、見ている者に画面の切換わりで不自然さを感じさせない再生装置を提供することができる。 According to the present invention, it is possible to provide a playback device that does not make the viewer feel unnatural by switching the screen even when the area of the display image changes greatly during continuous playback .

以下本発明を実施するための最良の形態を図面を参照して説明する。
(第1実施形態)
図1から図6を用いて第1実施形態を説明する。図1は、本発明が適用されるカメラ1の全体ブロック図である。カメラ1には撮影レンズ2、撮像素子3、AFE(アナログフロントエンド)4、画像処理部5、記録部6及びメモリ7が設けられる。撮影レンズ2は、入射した被写体20の像を撮像素子3に結像する。撮像素子3は、CCDやCMOSからなり、結像された被写体像を電気信号に変換する。AFE4は、撮像素子3からの画像信号を読み出し、読み出した画像信号にAGC処理やCDS処理やAD変換等してデジタル画像データとして出力する。またAFE4は、撮像素子3の駆動も制御する。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(First embodiment)
The first embodiment will be described with reference to FIGS. 1 to 6. FIG. 1 is an overall block diagram of a camera 1 to which the present invention is applied. The camera 1 includes a photographic lens 2, an image sensor 3, an AFE (analog front end) 4, an image processing unit 5, a recording unit 6, and a memory 7. The taking lens 2 forms an image of the incident subject 20 on the image sensor 3. The image sensor 3 is composed of a CCD or a CMOS, and converts the formed subject image into an electrical signal. The AFE 4 reads an image signal from the image sensor 3 and outputs the read image signal as digital image data by performing AGC processing, CDS processing, AD conversion, or the like. The AFE 4 also controls driving of the image sensor 3.

画像処理部5は、画像データに各種処理を施し、記録媒体に記録する。内部に、圧縮部や伸張部等が設けられ、画像データに対して色補正や信号圧縮、伸張などの処理を行う。圧縮部は、画像データを不図示のメモリに記録するための例えばJPEG(Joint Photographic Expert Group)圧縮やMPEG(Motion Picture Experts Group)圧縮を行い、また音声圧縮の機能も有する。伸張部は、圧縮された画像データを元に戻す処理を行う。   The image processing unit 5 performs various processes on the image data and records them on a recording medium. A compression unit, an expansion unit, and the like are provided inside, and perform processing such as color correction, signal compression, and expansion on image data. The compression unit performs, for example, JPEG (Joint Photographic Expert Group) compression or MPEG (Motion Picture Experts Group) compression for recording image data in a memory (not shown), and also has an audio compression function. The decompressing unit performs a process of restoring the compressed image data.

記録部6は、画像処理部5で画像処理された画像をメモリ7に記録する。また、記録部6は、後述する音声処理部からの音声および位置情報や時間情報を撮影画像とともにメモリ7に記録する。また、メモリ7内の一部には地図データ7aが予め格納されている。地図データ7aは、後述するGPS部17からの位置情報を活用するために、緯度経度情報を地図上のポイントや地名と結びつけるためのデータや、地図画像そのもののデータである。   The recording unit 6 records the image processed by the image processing unit 5 in the memory 7. The recording unit 6 records sound, position information, and time information from a sound processing unit, which will be described later, in the memory 7 together with the captured image. In addition, map data 7 a is stored in advance in a part of the memory 7. The map data 7a is data for associating latitude / longitude information with points and place names on the map and data of the map image itself in order to utilize position information from the GPS unit 17 described later.

また、カメラ1には、表示制御部8、表示部9が設けられる。表示制御部8は、画像処理部5によって画像処理された画像を表示部9へ表示するための制御を行う。表示部9は、例えばLCDから構成され、撮影時にモニタ画像を表示し、再生時には伸張処理された記録画像を表示する。   The camera 1 is provided with a display control unit 8 and a display unit 9. The display control unit 8 performs control for displaying the image processed by the image processing unit 5 on the display unit 9. The display unit 9 is composed of, for example, an LCD, and displays a monitor image at the time of shooting, and displays an expanded recorded image at the time of reproduction.

また、カメラ1には、ストロボ部11、AF部12、マイク部14及び音声処理部15が設けられる。ストロボ部は、暗い場合に発光して被写体に補助光を与える。AF部12は、アクチュエータや位置エンコーダを有し、撮影レンズ2内のピントレンズの移動を制御する。AF部12は、画像処理部5からの画像のコントラスト値に基づいて合焦位置を検出し、このピントレンズを移動させる。マイク部14は、撮影時の音声情報を検出する。音声処理部15は、マイク部14で検出された音声信号をデジタル化して、記録部6に出力する。   In addition, the camera 1 is provided with a flash unit 11, an AF unit 12, a microphone unit 14, and an audio processing unit 15. The flash unit emits light when dark and gives auxiliary light to the subject. The AF unit 12 includes an actuator and a position encoder, and controls the movement of the focus lens in the photographing lens 2. The AF unit 12 detects the in-focus position based on the contrast value of the image from the image processing unit 5 and moves the focus lens. The microphone unit 14 detects sound information at the time of shooting. The audio processing unit 15 digitizes the audio signal detected by the microphone unit 14 and outputs the digitized signal to the recording unit 6.

そして、カメラ1には、MPU10、ROM13及び操作部16が設けられる。MPU10は、プログラムに従って撮影や再生等カメラ1の全体の制御を司る制御部である。ROM13は、不揮発性でかつ記録可能なメモリで例えばフラッシュROMからなり、カメラ処理を行う制御用のプログラムが格納される。   The camera 1 is provided with an MPU 10, a ROM 13, and an operation unit 16. The MPU 10 is a control unit that controls the entire camera 1 such as shooting and reproduction according to a program. The ROM 13 is a non-volatile and recordable memory, for example, a flash ROM, and stores a control program for performing camera processing.

そして、MPU10には、記録制御部10a、作動制御部10b、屋外判定部10c及び位置決定部10dが機能部として備わる。これは、プログラムに従って処理を実行するMPU10が、適宜記録制御部10a、作動制御部10bあるいは屋外判定部10cとして動作することを意味する。操作部16は、撮影者の指示をMPU10に通知する。操作部16の代表例としてスイッチ16a、16bが設けられる。スイッチ16aはレリーズ指示用である。   The MPU 10 includes a recording control unit 10a, an operation control unit 10b, an outdoor determination unit 10c, and a position determination unit 10d as functional units. This means that the MPU 10 that executes processing according to the program operates as the recording control unit 10a, the operation control unit 10b, or the outdoor determination unit 10c as appropriate. The operation unit 16 notifies the MPU 10 of the photographer's instruction. Switches 16 a and 16 b are provided as a representative example of the operation unit 16. The switch 16a is for release instruction.

また、カメラ1には、GPS部17、時計部18、センサ部19a、検出部19bが設けられる。GPS部17は、衛星からの電波を受信するアンテナやその信号より地図上の位置を検出するための位置検出部である。GPS部17から位置情報PがMPU10に出力される。センサ19aは、太陽光を受光するためのセンサである。検出部19bは、センサ19aの出力から太陽光の存在を検出する。時計部18は、撮影時やGPS(位置)判定時の時間情報Tを検出する。   The camera 1 includes a GPS unit 17, a clock unit 18, a sensor unit 19a, and a detection unit 19b. The GPS unit 17 is a position detection unit for detecting a position on a map from an antenna that receives radio waves from a satellite and its signal. Position information P is output from the GPS unit 17 to the MPU 10. The sensor 19a is a sensor for receiving sunlight. The detector 19b detects the presence of sunlight from the output of the sensor 19a. The clock unit 18 detects time information T at the time of shooting or GPS (position) determination.

そして、MPU10内の記録制御部10aは、記録部6を制御するもので、特に撮影時の位置情報Pと時間情報Tを、記録部6により画像データとともに記録させる。また、屋外判定部10cは、カメラが屋外に有るか否かを判定するものである。屋外判定部10cは、撮影時にはAF部12からの距離情報、画像処理部5からの露出情報あるいは音声処理部15からの音声信号に基づいて、現在カメラが屋外にあるかを判定する。また、撮影時以外には、検出部19bからの信号に基づいて判定する。そして作動制御部10bは、判定によって屋外判定部10cから出力される起動信号に応じて、GPS部17の動作を制御する。また、位置決定部10dは、GPS部17で位置情報が取得できない場合に、前後に撮影された画像の時間情報と位置情報に基づいて、これを決定するものである。これについては、第2実施形態で説明する。   The recording control unit 10a in the MPU 10 controls the recording unit 6. In particular, the recording unit 6 records position information P and time information T at the time of photographing together with image data. The outdoor determination unit 10c determines whether or not the camera is outdoors. The outdoor determination unit 10c determines whether the camera is currently outdoors based on the distance information from the AF unit 12, the exposure information from the image processing unit 5, or the audio signal from the audio processing unit 15 at the time of shooting. Further, the determination is made based on a signal from the detection unit 19b except at the time of photographing. And the operation control part 10b controls operation | movement of the GPS part 17 according to the starting signal output from the outdoor determination part 10c by determination. The position determination unit 10d determines the position information based on time information and position information of images taken before and after when the position information cannot be acquired by the GPS unit 17. This will be described in the second embodiment.

また、MPU10は、GPS部17から出力される位置情報と地図データ7aの情報を対照して、撮影した画像情報に撮影したポイントを対応づけて表示部9に表示させる。またなお、GPSシステムは微弱な人工衛星の信号を受信して位置検出するシステムなので、ビルの中や影では正確な位置検出ができないが、このようなときには、MPU10は、時計情報も参照して、撮影時のポイントを類推するようにもしている。これについては第2実施形態で詳述する。   Further, the MPU 10 compares the position information output from the GPS unit 17 with the information of the map data 7a, and displays the captured point on the display unit 9 in association with the captured image information. In addition, since the GPS system receives a weak satellite signal and detects the position, accurate position detection cannot be performed in a building or in a shadow. In such a case, the MPU 10 also refers to clock information. I try to analogize the points when shooting. This will be described in detail in the second embodiment.

図2は、上記センサ19aがカメラに配置される位置を示すカメラ外観図である。図2(A)がカメラ1を前面を見た外観図で、(B)がカメラ1を背面から見た外観図である。カメラ1の前面には撮影レンズ2とストロボ部11の窓が配置される。カメラ背面には表示部9の表示面が配置される。そして、カメラ1の上面には、スイッチ16aを有するレリーズボタンと、レリーズボタンより中央寄りの位置にセンサ19aが配置される。センサ19aは、カメラ1のボディ面より若干突出するように配置される。   FIG. 2 is a camera external view showing a position where the sensor 19a is arranged on the camera. 2A is an external view of the camera 1 viewed from the front, and FIG. 2B is an external view of the camera 1 viewed from the back. On the front surface of the camera 1, a photographing lens 2 and a window of the flash unit 11 are arranged. A display surface of the display unit 9 is disposed on the rear surface of the camera. On the upper surface of the camera 1, a release button having a switch 16a and a sensor 19a are arranged at a position closer to the center than the release button. The sensor 19 a is disposed so as to slightly protrude from the body surface of the camera 1.

図3はカメラ1のGPS信号検出処理を示すフローチャートである。この処理は、主にプログラムに従ってMPU10、特に記録制御部10a、作動制御部10b及び屋外判定部10cによって実行される。   FIG. 3 is a flowchart showing the GPS signal detection process of the camera 1. This process is mainly executed by the MPU 10, particularly the recording control unit 10a, the operation control unit 10b, and the outdoor determination unit 10c, according to a program.

まず、レリーズスイッチ16aの操作有無を判断する(ステップS11)。レリーズスイッチ16aが操作されたと判断されると(ステップS11YES)、オートフォーカス(AF)制御を行う(ステップS12)。被写体20の像信号のコントラストを画像処理部5の出力によりAF部12が判定し、最も高いコントラストになる所にピントレンズを位置させるよう制御する。この合焦ポイントのレンズの位置により被写体の距離なども判定できる。AF後、撮像を行う(ステップS13)。また撮影時の時刻を合わせて記録するために、時計部18を利用して時間情報Tを取得する(ステップS14)。   First, it is determined whether or not the release switch 16a is operated (step S11). When it is determined that the release switch 16a has been operated (step S11 YES), autofocus (AF) control is performed (step S12). The AF unit 12 determines the contrast of the image signal of the subject 20 based on the output of the image processing unit 5, and controls the focus lens to be positioned at the highest contrast. The distance of the subject can also be determined from the position of the lens at the in-focus point. After AF, imaging is performed (step S13). Further, in order to record the time at the time of photographing together, the time information T is acquired using the clock unit 18 (step S14).

また撮影位置の記録のために、位置情報Pも画像に付加して記録する。そのため、まず、すでに位置情報が取得済みであるかを判定する(ステップS15)。撮影のたびにGPS部17を起動させて位置情報Pを取得すると、時間的にも電力的にも不利だからである。位置情報Pを取得済みである場合(ステップS15YES)は、ステップS16に進む。記録部6によって、撮影した画像データと共に時間情報Tと位置情報Pをメモリ7に記録させる(ステップS16)。一方、位置情報Pが未取得の場合には(ステップS15NO)、位置情報の取得できる屋外に、現在いるかを判断する。そのためにシーン判定を行う(ステップS17)。図4に移る。   In addition, for recording the shooting position, the position information P is also added to the image and recorded. Therefore, first, it is determined whether or not position information has already been acquired (step S15). This is because it is disadvantageous in terms of time and power if the GPS unit 17 is activated and the position information P is acquired every time shooting is performed. If the position information P has been acquired (step S15 YES), the process proceeds to step S16. The recording unit 6 records time information T and position information P together with the captured image data in the memory 7 (step S16). On the other hand, if the position information P has not been acquired (NO in step S15), it is determined whether the user is currently in the outdoors where the position information can be acquired. For this purpose, scene determination is performed (step S17). Turning to FIG.

図4は屋外シーンを判定処理するためのサブルーチンである。屋外判定部が、撮影時の情報に基づいて、図4のようなフローでGPS検出が可能な屋外シーンか否かを判定する。まず、図3のステップS12でピントあわせにより得られた撮影距離を利用する。撮影距離はAF部12より出力される。この撮影距離が所定の距離(例えば、10m)よりも遠いかを判定する(ステップS41)。遠いときは(ステップS41YES)、風景撮影と推定して、屋外にいると判定する(ステップS45)。   FIG. 4 is a subroutine for determining an outdoor scene. Based on the information at the time of shooting, the outdoor determination unit determines whether or not the outdoor scene is capable of GPS detection by the flow as shown in FIG. First, the shooting distance obtained by focusing in step S12 of FIG. 3 is used. The shooting distance is output from the AF unit 12. It is determined whether this shooting distance is longer than a predetermined distance (for example, 10 m) (step S41). When it is far away (YES in step S41), it is estimated that the scene is photographed, and it is determined that the user is outdoors (step S45).

次に、撮影時の被写体の明るさが所定以上あるかを判定する(ステップS42)。明るいときは(ステップS42YES)、屋外と判定する(ステップS45)。屋外では前述のように室外では室内と比べ物にならないくらい太陽光があるからである。また、画面の上半分が明るいかを判定する(ステップS53)。空が撮影されていれば、画面の上半部が明るくなるからである。画面の上半分が明るときも(ステップS53YES)、屋外と判定する(ステップS55)。これらの明るさは、画像処理部5内の露出制御部からの出力される信号によって判断する。   Next, it is determined whether the brightness of the subject at the time of shooting is greater than or equal to a predetermined value (step S42). When it is bright (YES in step S42), it is determined as outdoor (step S45). This is because, as described above, there is sunlight that does not compare with the outdoors when compared outdoors. Further, it is determined whether the upper half of the screen is bright (step S53). This is because if the sky is photographed, the upper half of the screen becomes brighter. Even when the upper half of the screen is bright (step S53 YES), it is determined to be outdoors (step S55). These brightnesses are determined by signals output from the exposure control unit in the image processing unit 5.

以上3つの何れにも当てはまらなければ屋内と判断する(ステップS44)。そして図3のステップ18に進む。   If none of the above three applies, it is judged indoor (step S44). Then, the process proceeds to step 18 in FIG.

屋外シーン判定の結果、現在位置が屋外であるときは(ステップS18YES)、GPS信号の入手を実行する(ステップS19)。図5に進む。   As a result of outdoor scene determination, when the current position is outdoor (step S18 YES), acquisition of a GPS signal is executed (step S19). Proceed to FIG.

図5は、GPS信号入手の手順を説明するサブルーチンである。GPS信号の入手には、状況によって、ある程度時間を要する場合がある。そこで、この実施形態では、それを考慮してGPS信号を入手する処理を行う。まず、作動制御部10bによりGPS部17により信号検出開始させる(ステップS51)。信号検出開始後、レリーズ操作の有無を判断する(ステップS52)。信号検出中に再度レリーズ操作があったら(ステップS52YES)、GPS信号検出を中止して、このサブルーチンを終了する。そして、図3のステップS12以降の撮影操作を実行する。シャッタータイミングを逸することを防止するためである。   FIG. 5 is a subroutine for explaining a procedure for obtaining a GPS signal. Obtaining the GPS signal may take some time depending on the situation. Therefore, in this embodiment, processing for obtaining a GPS signal is performed in consideration of this. First, signal detection is started by the GPS unit 17 by the operation control unit 10b (step S51). After starting the signal detection, it is determined whether or not a release operation has been performed (step S52). If a release operation is performed again during signal detection (YES in step S52), GPS signal detection is stopped and this subroutine is terminated. Then, the photographing operation after step S12 in FIG. 3 is executed. This is to prevent the shutter timing from being lost.

レリーズ操作がないときは(ステップS52NO)、位置情報検出中である旨を表示部9に表示させて(ステップS53)、撮影者に検出中であることを通知する。そしてGPS信号が検出されると(ステップS54YES)、この信号を用いて位置情報Pを演算する(ステップ55)。これにより現在位置の緯度や経度が算出される。   When there is no release operation (NO in step S52), a message indicating that position information is being detected is displayed on the display unit 9 (step S53), and the photographer is notified that detection is in progress. When a GPS signal is detected (step S54 YES), the position information P is calculated using this signal (step 55). As a result, the latitude and longitude of the current position are calculated.

GPS信号の検出は、所定時間が経過するまで継続する(ステップS56NO)。そして、GPS信号が検出できないまま所定時間経過すると(ステップS56YES)、取得できなかった旨の警告信号や表示を行う(ステップS57)。そして、図3のメインルーチンのステップS20に進む。   The detection of the GPS signal continues until a predetermined time has elapsed (NO in step S56). Then, when a predetermined time has elapsed without being able to detect the GPS signal (step S56 YES), a warning signal or display indicating that the GPS signal could not be obtained is displayed (step S57). Then, the process proceeds to step S20 of the main routine of FIG.

ステップS20では、図5のサブルーチンでGPS信号に基づく位置情報Pが取得できたかを判断する。入手できなかった場合には(ステップS20NO)、撮影データとして時間情報Tのみを画像データとともに記録させる(ステップS21)。位置情報Pが取得できたときは(ステップS20YES)、撮影データとして時間情報Tと位置情報Pを画像データととに記録させ(ステップS16)、終了する。   In step S20, it is determined whether or not the position information P based on the GPS signal has been acquired in the subroutine of FIG. If it cannot be obtained (NO in step S20), only time information T is recorded as image data together with the image data (step S21). When the position information P has been acquired (step S20 YES), the time information T and the position information P are recorded as image data in the image data (step S16), and the process ends.

一方、撮影が行われないときには(ステップS11NO)、再生操作の有無を判断する(ステップS22)。再生操作があれば(ステップS22YES)、再生処理を行う(ステップS23)。再生操作が行われないときには(ステップS22NO)、所定のタイミングのたびに(ステップS24YES)、GPS信号の検出を行う。GPS情報は撮影タイミング以外のタイミングでも適当な時間において入手するようにする。GPS信号が撮影時には取得できないこともあるからである。この所定のタイミングについてを図6のサブルーチンで説明する。   On the other hand, when shooting is not performed (NO in step S11), the presence / absence of a reproduction operation is determined (step S22). If there is a reproduction operation (YES in step S22), reproduction processing is performed (step S23). When the reproduction operation is not performed (step S22 NO), the GPS signal is detected at every predetermined timing (step S24 YES). The GPS information is obtained at an appropriate time even at a timing other than the shooting timing. This is because the GPS signal may not be acquired at the time of shooting. This predetermined timing will be described with reference to the subroutine of FIG.

図6は、撮影時以外にGPS部17を起動させるタイミングを説明するサブルーチンである。図6は、作動制御部10bがGPS部17の起動タイミングを決定するフローチャートである。前回GPS信号を入手したタイミングを考慮して、今回のGPS部17の起動タイミングを決めるようにしたものである。   FIG. 6 is a subroutine for explaining the timing for starting the GPS unit 17 other than during photographing. FIG. 6 is a flowchart in which the operation control unit 10 b determines the activation timing of the GPS unit 17. In consideration of the timing at which the previous GPS signal was obtained, the current activation timing of the GPS unit 17 is determined.

前回のGPS信号を入手した時間(時刻)をTgφとし、このTgφを求める(ステップS61)。Tgφは、メモリ7に記録されている。次に現在の時刻をTg1とし、Tg1を時計部18から入手する(ステップS62)。そして現在の時刻と前回の時刻の差(Tg1−Tgφ)を求め、この差が所定時間ΔTg以上か判断する(ステップS63)。ΔTgは、例えば2時間である。この差がΔTg以上であれば(ステップ63YES)、10分おきにGPS信号を検出するようにする(ステップS25)。前回検出時より一定時間以上経過しているので、ユーザーが移動して位置が大きく変化してしまっている可能性が高いからである。   The time (time) at which the previous GPS signal was obtained is defined as Tgφ, and this Tgφ is obtained (step S61). Tgφ is recorded in the memory 7. Next, the current time is set as Tg1, and Tg1 is obtained from the clock unit 18 (step S62). Then, a difference (Tg1−Tgφ) between the current time and the previous time is obtained, and it is determined whether this difference is equal to or longer than a predetermined time ΔTg (step S63). ΔTg is, for example, 2 hours. If this difference is greater than or equal to ΔTg (step 63 YES), GPS signals are detected every 10 minutes (step S25). This is because a certain time or more has passed since the previous detection, and it is highly likely that the user has moved and the position has changed significantly.

逆に、その差がΔTg以下であれば、前回のGPS信号入手時点からさほど時間が経過していないので、長いインターバル、例えば1時間おきに、ステップS25に進むようにする。細かく検出すると、むやみに電力を消耗するだけになるからである。   On the other hand, if the difference is equal to or less than ΔTg, since not much time has elapsed since the last GPS signal acquisition time, the process proceeds to step S25 at long intervals, for example, every one hour. This is because if it is detected in detail, the power is consumed unnecessarily.

図3に戻る。以下ステップS25からステップ27は、主に屋外判定部10cによって処理される。センサ19aを用いてカメラが太陽光下にあるかを判定する(ステップS25)。衛星からの電波に対して遮蔽物のないオープンスペースでは、昼間は太陽光がある。そこで太陽光を検出すれば、現在屋外にあるか否かが判定できる。なお、室内の窓際でも、太陽光がふりそそぐことがあるが、窓ガラスによる紫外線等特定波長の吸収が起こるので、検出部19bで波長成分まで判定するようにして、室外と区別することができる。また、曇った天気でも、屋外では通常の室内では得ることのできない光量の光がセンサ19aに入射するので、光量によっても判定可能である。また、室内でも強力な人口光が照射されることがあるが、これも太陽光とは異なる波長成分を持つ光であるため、センサ19aに波長依存性のある光学フィルタを用いて分割センサで受光する等の工夫をすれば、検出部19bで、太陽光と区別することができる。   Returning to FIG. Hereinafter, steps S25 to S27 are mainly processed by the outdoor determination unit 10c. It is determined whether the camera is in sunlight using the sensor 19a (step S25). In an open space with no obstruction to radio waves from the satellite, there is sunlight in the daytime. If sunlight is detected, it can be determined whether or not the user is currently outdoors. In addition, although sunlight may plow even at the window in the room, since absorption of a specific wavelength such as ultraviolet rays occurs by the window glass, it can be distinguished from the outside by determining the wavelength component in the detection unit 19b. Even in cloudy weather, the amount of light that cannot be obtained outdoors in a normal room is incident on the sensor 19a. In addition, strong artificial light may be irradiated indoors, but this is also light having a wavelength component different from that of sunlight. Therefore, the sensor 19a uses a wavelength-dependent optical filter to receive light with a split sensor. If the device is devised, it can be distinguished from sunlight by the detector 19b.

また、夜間は太陽光を受光することができないのでマイク部14を利用する。マイク部14から入力された音声信号に、例えば屋外特有の幹線道路沿いの騒音や鉄道の音などが検出されたときには、その旨を判定する(ステップS26)。以上のようにして、屋外か否かを判定する(ステップS27)。屋外判定時には(ステップS27YES)、GPS信号入手を実行する(ステップS28)。つまり前述の図5のサブルーチンを実行する。そして、GPS信号に基づき位置情報Pが入手できれば(ステップS29YES)、時計情報Tと位置情報Pを合わせてメモリ7に記録させる(ステップS30)。ここでは、撮影画像データとは無関係に記録させる。   Moreover, since the sunlight cannot be received at night, the microphone unit 14 is used. For example, when noise along the main road or railway sound that is peculiar to the outdoors is detected in the audio signal input from the microphone unit 14, it is determined (step S26). As described above, it is determined whether or not the vehicle is outdoors (step S27). At the time of outdoor determination (step S27 YES), GPS signal acquisition is executed (step S28). That is, the subroutine shown in FIG. 5 is executed. If the position information P can be obtained based on the GPS signal (YES in step S29), the clock information T and the position information P are combined and recorded in the memory 7 (step S30). Here, it is recorded irrespective of the photographed image data.

また、ステップS24NO、ステップS27NOまたはステップS29NOでは、ステップS11に戻る。なお、前述の撮影中の屋外判定であるステップS18でも、太陽光判定(ステップS25)、音声判定(ステップS26)を適用してもよい。   In step S24NO, step S27NO, or step S29NO, the process returns to step S11. Note that sunlight determination (step S25) and sound determination (step S26) may also be applied in step S18, which is the outdoor determination during shooting described above.

また、ステップS24の所定のタイミングについても、GPS信号が検出可能時と不可能時では、切換えるのが望ましい。つまり、検出不可のときにはなるべく早く位置判定したいので、頻繁にステップS25に進むようにする。検出可能だった場合は、次のGPS検出までの時間は少し間が開くようにしてもよい。また、ステップS21のように撮影データが位置情報Pを持たないで記録されたときにも、GPS信号検出を頻繁に行うようにする。   Also, it is desirable to switch the predetermined timing in step S24 between when the GPS signal can be detected and when it cannot be detected. That is, when it is impossible to detect, it is desired to determine the position as soon as possible, so that the process frequently proceeds to step S25. If the detection is possible, the time until the next GPS detection may be slightly open. Further, when the shooting data is recorded without the position information P as in step S21, GPS signal detection is frequently performed.

GPS情報は、微弱な人工衛星の信号を検出して増幅し位置を求めるために、室外などでは検出が困難で、その一連の過程が時間のかかるものとなる。それを念入りに行っていると、回路の消費電流も無視できなくなる。第1実施形態では、GPS情報入手が効率よくできるタイミングでのみ実行するようにしたので、タイムラグや電力消費の問題を解決し、即写性等の応答性に優れ、撮影枚数等電池寿命に優れたカメラが提供できる。   GPS information is detected and amplified by detecting a weak satellite signal, and its position is determined. Therefore, it is difficult to detect the GPS information outdoors, and the series of processes takes time. If this is done carefully, the current consumption of the circuit cannot be ignored. In the first embodiment, since the GPS information is obtained only when it can be efficiently obtained, the problem of time lag and power consumption is solved, quick response and other responsiveness are excellent, and the battery life such as the number of shots is excellent. Camera can be provided.

(第2実施形態)
図7、8を用いて第2実施形態についてを説明する。位置情報は、時間情報のように常に入手できる情報でない。つまり、前述したようにカメラがGPS情報の入手できない環境、たとえば屋内撮影時には、撮影画像にリアルタイムで位置情報を付加することはできない。そこで、第2実施形態では、このような場合に、位置情報を補う方法についてを説明する。具体的には、直接の位置情報Pがない画像データについて、前後の画像の時間情報と位置情報に基づいて、間接的に位置情報Pを決定して、撮影した画像データとともに記録するようにする。なお、本実施形態で適用されるカメラ1のブロック図は図1と同様であるので、記載は省略する。
(Second embodiment)
The second embodiment will be described with reference to FIGS. The location information is not always available like time information. That is, as described above, position information cannot be added to a captured image in real time in an environment where the GPS information cannot be obtained by the camera, for example, indoor shooting. Therefore, in the second embodiment, a method for supplementing position information in such a case will be described. Specifically, for image data without direct position information P, the position information P is indirectly determined based on the time information and position information of the preceding and following images, and recorded together with the captured image data. . The block diagram of the camera 1 applied in the present embodiment is the same as that in FIG.

図7に、不明な位置情報を補う2つの例を示す。図7(A)(B)は、時間的に移動するカメラを、カメラの位置を示す平面の移動で示す図である。1つの平面がある時間タイミングでのカメラの位置を示す面で、縦軸を緯度、奥行き方向の軸を経度とする。そして点Pがこの面でカメラが存在する位置である。また、横軸は時間で、右方向に向かって進行するものとする。   FIG. 7 shows two examples for supplementing unknown position information. FIGS. 7A and 7B are diagrams illustrating a camera that moves in time by moving a plane indicating the position of the camera. A plane indicating the position of the camera at a certain time in one plane, where the vertical axis is latitude and the depth axis is longitude. Point P is the position where the camera is located on this plane. In addition, the horizontal axis is time, and proceeds in the right direction.

図7(A)は,T、T、Tの3つの時間タイミングで、カメラの位置が移動する様子を示す。
ここで、Tタイミングの位置情報Pが入手できなかったものとする。そして、Tは、TとTの間であるが、TよりTのかなり近いタイミングであるとする。このような条件にあるときには、PをTタイミングのPと同じと決定することも可能である。
FIG. 7A shows how the position of the camera moves at three time timings T 0 , T 1 , and T 2 .
Here, it is assumed that the positional information P 1 of T 1 timing is not available. T 1 is between T 0 and T 2 , but is at a timing much closer to T 2 than T 0 . Under such conditions, it is possible to determine that P 1 is the same as P 2 at the T 2 timing.

一方、図7(B)では、TがTおよびTのいずれからも十分に離れているものの、PとPに差が少ないとする。このような場合には、Pは、PまたはPと同様な位置と決定することも可能である。このように、位置情報Pが不明なタイミングがあっても、その前後のタイミングと前後の位置情報から、不明な位置を補うことが可能である。写真の位置情報には、厳密は精度は要求されないことが多いからである。 On the other hand, in FIG. 7B, it is assumed that T 1 is sufficiently separated from both T 0 and T 2 , but there is little difference between P 0 and P 2 . In such a case, P 1 can be determined to be the same position as P 0 or P 2 . As described above, even when the position information P is unknown, it is possible to compensate for the unknown position from the timing before and after the timing information and the position information before and after the timing. This is because the position information of a photograph is not strictly required to be accurate.

図8は、不明な位置情報を決定する手順を説明するフローチャートである。図7で説明したような例を一般化したフローチャートである。この処理は、主にプログラムに従ってMPU10、特に位置決定部10dによって実行される。   FIG. 8 is a flowchart illustrating a procedure for determining unknown position information. It is the flowchart which generalized the example which was demonstrated in FIG. This process is mainly executed by the MPU 10, particularly the position determination unit 10d, according to a program.

まず、位置情報Pの不明な画像データを検出する(ステップS71)。そして、その画像から時間情報Tを検出し、これをTとする(ステップS72)。次にこのTの前後に撮影された画像であって、位置情報Pを有する2つ画像データを検出する。そしてこの2つの画像データから、それぞれの時刻情報と位置情報を入手する。先の画像の位置情報をP、時間情報をTとする(ステップS73)。同様に、後の画像の位置情報をPとし、その時間情報をTとする(ステップS74)。 First, image data with unknown position information P is detected (step S71). Then, to detect the time information T from the image, which is referred to as T 1 (step S72). Then an image taken before and after the T 1, to detect the two image data having position information P. Then, the respective time information and position information are obtained from the two image data. The position information of the previous image is P 0 and the time information is T 0 (step S73). Similarly, the positional information after the image and P 2, to the time information T 2 (step S74).

そして、TとTの時間差を算出し、この時間差をΔTとする(ステップS75)。同じくTとTの時間差を算出し、この時間差をΔTとする(ステップS76)。続いて、ΔTとΔTを比較し、TとTのいずれかTのタイミングに近いほうを選ぶ。ΔT<ΔT、つまりTがTに近ければ、ステップS78に進む。逆に、ΔT>ΔT、つまりTがTに近ければ、ステップS83に進む。 Then, the time difference between T 1 and T O is calculated, and this time difference is set to ΔT 1 (step S75). Similarly, a time difference between T 2 and T 1 is calculated, and this time difference is set to ΔT 2 (step S76). Subsequently, ΔT 1 and ΔT 2 are compared, and one of T 0 and T 2 that is closer to the timing of T 1 is selected. If ΔT 1 <ΔT 2 , that is, if T 1 is close to T 0 , the process proceeds to step S78. Conversely, if ΔT 1 > ΔT 2 , that is, if T 2 is close to T 0 , the process proceeds to step S83.

そして、ステップS78では、ΔT≦ΔTpを判断する。ΔTpは所定時間差で、例えば1時間である。ΔTが移動可能性の十分に少ない時間差かを判断するためである。時間差ΔTと所定時間差ΔTpを比較する(ステップS78)。時間差ΔTが所定時間差ΔTpより小さければ(ステップS78YES)。位置情報PをPの値と同じと決定し、PをPの位置情報として記録する(ステップS79)。TがTに十分に近ければ、移動も少ないと推定できるからである。 In step S78, ΔT 1 ≦ ΔTp is determined. ΔTp is a predetermined time difference, for example, 1 hour. This is to determine whether ΔT 1 is a time difference with a sufficiently small possibility of movement. The time difference ΔT 1 is compared with the predetermined time difference ΔTp (step S78). If the time difference ΔT 1 is smaller than the predetermined time difference ΔTp (step S78 YES). Position information P 1 is the same as the determined value of P 0, record the P 0 as the position information P 1 (step S79). This is because if T 1 is sufficiently close to T 0 , it can be estimated that there is little movement.

逆に、ΔTがΔTpより大きい時は(ステップS78NO)、PとPの差を算出し、その差が一定距離以内かを判断する(ステップS80)。一定距離は、例えば10kmとする。一定距離以内であれば(ステップS80)、移動量は少ないと考え、前述のステップS79に進み、PをPの位置情報と決定する。一方PとPの差が大きいときは、さらにΔTが所定時間差ΔTqより大きいかを判断する(ステップS81)。ΔTqは、たとえば1日である。大きくなければ(ステップS81NO)、PとPの中間位置をPの位置と決定して記録する(ステップS82)。一方、大きいときは(ステップS81YES)、Pを参考にすることが適切でないので、前述のステップS79に進み、PをPの位置情報と決定して記録する。 Conversely, when [Delta] T 1 is greater than ΔTp calculates the difference (step S78NO), P 0 and P 2, determines the difference to or less than a predetermined distance (step S80). The constant distance is, for example, 10 km. If it is within a predetermined distance (step S80), the movement amount is considered to be small, the process proceeds to step S79 described above, it determines the P 0 and the position information of the P 1. On the other hand, if the difference between P 0 and P 2 is large, it is further determined whether ΔT 2 is greater than a predetermined time difference ΔTq (step S81). ΔTq is, for example, one day. It is greater (step S81NO), an intermediate position of P 0 and P 2 is recorded to determine the position of P 1 (step S82). On the other hand, when the large (step S81YES), so that are not intended to be in reference to P 2, the process proceeds to step S79 described above, and records the determined P 0 and the position information of the P 1.

また、ステップ83では、ΔT≦ΔTpを判断する。ΔTpは、前述の通り例えば1時間である。
時間差ΔTと所定時間差ΔTpを比較する(ステップS83)。時間差ΔTが所定時間差ΔTp以下であれば(ステップS83YES)、PをPの位置情報と決定して記録する(ステップS86)。また、ΔTがΔTpより大きい時は(ステップS83NO)、PとPの差を算出し、その差が一定距離以内かを判断する(ステップS84)。一定距離は、同じく10kmとする。一定距離以内であれば(ステップS84YES)、前述のステップS86に進み、PをPの位置情報と決定して記録する。一方PとPの差が大きいときは、さらにΔTが所定時間差ΔTqより大きいかを判断する(ステップS81)。ΔTqは、たとえば1日である。大きくなければ(ステップS85NO)、PとPの中間位置をPと決定して記録する。一方、大きいときは(ステップS85YES)、Pを参考にすることが適切でないので、前述のステップS79に進み、PをPの位置情報と決定して記録する。
In step 83, ΔT 2 ≦ ΔTp is determined. ΔTp is, for example, 1 hour as described above.
Comparing the time difference [Delta] T 2 and a predetermined time difference [Delta] Tp (step S83). If the time difference ΔT 2 is equal to or smaller than the predetermined time difference ΔTp (step S83 YES), P 2 is determined as the position information of P 1 and recorded (step S86). Also, when [Delta] T 2 is greater than ΔTp (step S83NO), calculates the difference between P 0 and P 2, determines the difference to or less than a predetermined distance (step S84). The constant distance is also 10 km. If it is within a predetermined distance (step S84YES), the process proceeds to step S86 described above, and records the determined P 2 and position information P 1. On the other hand, if the difference between P 0 and P 2 is large, it is further determined whether ΔT 1 is greater than a predetermined time difference ΔTq (step S81). ΔTq is, for example, one day. Be greater (step S85NO), an intermediate position of P 0 and P 2 is recorded to determine the P 1. On the other hand, when the large (step S85YES), so that are not intended to be in reference to P 0, the process proceeds to step S79 described above, and records the determined P 2 and position information P 1.

以上説明したように、第2実施形態によれば、直接的に位置情報が得られなかった画像についても、前後の画像の位置情報からその位置情報を決定するようにしたので、屋内等の撮影でGPS情報が得なれないときでも、支障が少なくなる。写真の位置情報は、多少精度が悪くても、有ることが重要であるからである。   As described above, according to the second embodiment, since the position information is determined from the position information of the previous and subsequent images even for images for which position information was not directly obtained, shooting indoors or the like Even when GPS information cannot be obtained, troubles are reduced. This is because it is important that the position information of the photograph is present even if it is somewhat inaccurate.

(第3実施形態)
図9、10、11を用いて、第3実施形態について説明する。第3実施形態では、離れた場所や離れた時間で撮影された画像が連続して再生される場合でも、画面が不自然に切換わらないような再生を行うようにする。本実施形態に適用されるカメラ1のブロック図は図1と同様であるので省略する。
(Third embodiment)
The third embodiment will be described with reference to FIGS. In the third embodiment, even when images taken at a distant place or at a distant time are continuously reproduced, reproduction is performed so that the screen does not switch unnaturally. Since the block diagram of the camera 1 applied to this embodiment is the same as that of FIG.

図9は、再生時に表示部9に表示される検索画面の例である。図9(A)は地名によって画像を検索させる地名選択画面である。同図(B)は、撮影日付によって画像を検索させる日付選択画面である。このような検索画面を、再生時にカメラ1背面に配置された表示部9に表示させて、希望の画像の検索を容易にさせる。この地名選択画面及び日付選択画面は表示制御部8によって表示される。   FIG. 9 is an example of a search screen displayed on the display unit 9 during reproduction. FIG. 9A is a place name selection screen for searching for an image by place name. FIG. 5B shows a date selection screen for searching for an image by shooting date. Such a search screen is displayed on the display unit 9 disposed on the back surface of the camera 1 at the time of reproduction so that a desired image can be easily searched. The place name selection screen and the date selection screen are displayed by the display control unit 8.

図9(A)の画面で三角カーソル9aで地名が選択されると、その土地で撮影された写真画像が位置情報Pに従って検索され表示される。位置情報Pと地名を関連付ける情報が地図データ7aに含まれていて、MPU10は、この地図データを参照して、選択された地名に対応する画像をメモリ7から選択し、表示させる。   When a place name is selected with the triangular cursor 9a on the screen of FIG. 9A, a photographic image taken on the place is retrieved and displayed according to the position information P. Information relating the position information P and the place name is included in the map data 7a, and the MPU 10 refers to this map data, selects an image corresponding to the selected place name from the memory 7, and displays it.

図9(B)の画面で三角カーソル9aで日付が選択されると、その日付で撮影された写真画像が時間情報Tに従って検索され表示される。MPU10が、画像に付けられた日付データ(時間情報T)に基づいて該当する画像をメモリ7から検索する。ユーザーがスイッチで三角カーソル9aを動かすと、その条件を満たす画像が検索されて表示される。   When a date is selected with the triangular cursor 9a on the screen of FIG. 9B, a photographic image taken on that date is retrieved and displayed according to the time information T. The MPU 10 searches the memory 7 for a corresponding image based on the date data (time information T) attached to the image. When the user moves the triangular cursor 9a with a switch, an image satisfying the condition is retrieved and displayed.

このように、地名や日付から該当画像が迅速に検索可能である。旅行に行ったりすると、ユーザーの記憶には、地名や場所などは強く印象づけられているので、このような検索によって効果的に見たい画像を楽しめるカメラが提供できる。   In this way, the corresponding image can be quickly searched from the place name and date. When you go on a trip, place names and places are strongly impressed in the memory of the user, so that you can provide a camera that lets you enjoy the images you want to see effectively.

図10は、大きく内容の変化する画像間に入れられた中間画面を説明する図である。連続再生時に表示画像の日時や地域が大きく変わる場合でも、見ている者に画面の切換わりで不自然さを感じさせないようにするためである。従来のカメラで、番号順に画像を再生する際には、撮影シーンやタイミングは特に考慮せずに、撮影順に表示させていた。従って、図10(A)のように山で撮影した写真から、突然に図10(c)のような海で撮影した写真に切換わったりすることもあった。撮影した本人や被写体の記憶がはっきりしている間は問題ないが、だんだん記憶が薄れてくると、何か起こったか、とっさには理解できないことがある。このような不自然な画像の切換わりがあると、見ている方に戸惑いを与える。   FIG. 10 is a diagram for explaining an intermediate screen inserted between images whose contents greatly change. This is to prevent the viewer from feeling unnatural by switching the screen even when the date and time or area of the display image changes greatly during continuous playback. When images are played back in numerical order with a conventional camera, the shooting scenes and timings are not taken into consideration, and the images are displayed in the shooting order. Therefore, the photograph taken at the mountain as shown in FIG. 10A may be suddenly switched to the photograph taken at the sea as shown in FIG. 10C. There is no problem as long as the memory of the subject and the subject is clear, but when the memory gradually fades, it may not be easy to understand what happened. If there is such an unnatural switching of images, it is confusing to the viewer.

そこで、本実施形態では、図10(B)のような中間画面を間に挟んで前後の関係を明示するようにする。中間画面の表示時間は、数秒でよい。前後で日付が大きく変化するときは、中間画面として、図10(B)の表示9bのような画像を入れる。表示9bは、日めくりカレンダを模した表示である(日が経つとめくった紙が飛んでいくように変化する)。表示9bは、前の画像の最後または後の画像の最初のいずれかまたは両方に挿入するようにしても良い。   Therefore, in the present embodiment, the front-rear relationship is clearly shown with an intermediate screen as shown in FIG. The display time of the intermediate screen may be several seconds. When the date greatly changes before and after, an image such as the display 9b in FIG. 10B is inserted as an intermediate screen. The display 9b is a display imitating a daily calendar (changes so that the turned paper flies as the day passes). The display 9b may be inserted either at the end of the previous image or at the beginning of the subsequent image or both.

また、地域が大きく変化するときは、中間画面として、同図(B)の表示9cのような画像を入れる。表示9cは、キャラクタが撮影時の位置情報に対応するP0位置からP1位置に歩いていくような表示を行って、図10(A)と(C)の写真が別の日に撮影されたものであることや、別の場所で撮影されたことを明示する。また、日付と地域の両方が大きく変化するときは、図10(B)のように表示9bと9cの両方の画像を入れるようにする。   When the area changes greatly, an image such as the display 9c in FIG. The display 9c is a display in which the character walks from the P0 position corresponding to the position information at the time of shooting to the P1 position, and the pictures of FIGS. 10A and 10C are taken on different days. And clearly indicate that the photo was taken at another location. Further, when both the date and the region change significantly, both the images of the displays 9b and 9c are inserted as shown in FIG.

なお、表示9bと9cの画像データはROM13に格納され、MPU10の指示により表示制御部8が表示部9に表示させる。以上により日付や位置の情報を用いてさらなる画像の楽しみ方が可能となる。   Note that the image data of the displays 9b and 9c is stored in the ROM 13, and is displayed on the display unit 9 by the display control unit 8 according to an instruction from the MPU 10. As described above, it is possible to enjoy the image further using the date and position information.

図11は、本実施形態の表示処理手順を説明するフローチャートである。上記図9、図10で説明した検索画面や中間画面を表示する手順である。この処理は、プログラムに従ったMPU10と表示制御部8によって主に実行される。   FIG. 11 is a flowchart for explaining the display processing procedure of the present embodiment. This is a procedure for displaying the search screen and the intermediate screen described with reference to FIGS. This process is mainly executed by the MPU 10 and the display control unit 8 according to the program.

カメラ1が画像を表示するモードに設定されているとする。スイッチにより地名選択画面か日付選択画面が切り替えて表示される。そして、地名選択画面または日付選択画面で、画像が選択されたかを判断する。地名選択が指定されると(ステップS91YES)、図9(A)のような地名選択画面が表示される。この画面で、三角カーソル9aを移動させて希望の地名が選択される。また、日付選択が指定されると(ステップS92YES)、図9(B)のような日付選択画面が表示される。この画面でも、三角カーソル9aを移動させて希望の日付が選択される。いづれの選択画面も指定されなければ(ステップ91NO、ステップ92NO)、これを巡回する。   Assume that the camera 1 is set to a mode for displaying an image. The place name selection screen or date selection screen is switched and displayed by the switch. Then, it is determined whether an image is selected on the place name selection screen or the date selection screen. When place name selection is designated (YES in step S91), a place name selection screen as shown in FIG. 9A is displayed. On this screen, a desired place name is selected by moving the triangular cursor 9a. If date selection is designated (YES in step S92), a date selection screen as shown in FIG. 9B is displayed. Also on this screen, the desired date is selected by moving the triangular cursor 9a. If any selection screen is not designated (step 91NO, step 92NO), this is circulated.

いづれかの選択画面で項目が選択されれば、選択された項目に対応する画像を表示させる(ステップS93)。さらにユーザーがまた別の操作スイッチを操作して画像の送りや戻しが指示されると(ステップS94)、次の画像を表示するが、ここで、次の画像との時間差や地域差に応じた表示を行うようにする。まず、現表示中の画像と次の画像の各撮影日時情報(時間情報T)を比較する。そして、現画像から次画像までの時間経過が、所定時間より大であるかを判定する(ステップS96)。また、現表示中の画像と次の画像の各位置情報Pを比較する。そして、現画像から次画像までの位置変化が、所定距離より大であるかを判定する(ステップS97)。   If an item is selected on any of the selection screens, an image corresponding to the selected item is displayed (step S93). Further, when the user operates another operation switch to instruct image forwarding or returning (step S94), the next image is displayed. Here, the time corresponding to the time difference or the region difference from the next image is displayed. Make the display. First, each shooting date / time information (time information T) of the currently displayed image and the next image is compared. Then, it is determined whether the time elapsed from the current image to the next image is longer than a predetermined time (step S96). Further, the position information P of the currently displayed image and the next image is compared. Then, it is determined whether the change in position from the current image to the next image is greater than a predetermined distance (step S97).

判定の結果、時間経過が大でかつ位置変化も大であると判定すると(ステップS96YES、ステップS97YES)、図10(B)の表示9b及び表示9cを含む中間画面を表示する(ステップS99)。これによって、撮影時間と地域が大きく変わることを明示する。また、時間経過のみが大と判定するときは(ステップS96YES、ステップS97NO)、時間経過が大であることを図10(B)の表示9bを含む中間画面で表示させる(ステップS100)。また、位置変化のみが大と判定するときは(ステップS96NO、ステップS98YES)、位置変化が大であることを図10(B)の表示9cを含む中間画面で表示させる(ステップS101)。時間経過も位置変化も少であると判定すると(ステップS96NO、ステップS98NO)、中間画面の表示を行わわず、次の画像を表示させる(ステップS102)。またステップS99、ステップS100、ステップS101の各中間画面を所定時間表示させた後には、次の画像を表示させる(ステップS102)。そして、ステップS94に戻る。   As a result of the determination, if it is determined that the passage of time is large and the position change is also large (step S96 YES, step S97 YES), an intermediate screen including the display 9b and display 9c of FIG. 10B is displayed (step S99). This clearly shows that the shooting time and area will change significantly. When it is determined that only the passage of time is large (step S96 YES, step S97 NO), the fact that the passage of time is large is displayed on an intermediate screen including the display 9b of FIG. 10B (step S100). When it is determined that only the position change is large (step S96 NO, step S98 YES), the fact that the position change is large is displayed on an intermediate screen including the display 9c of FIG. 10B (step S101). If it is determined that the passage of time and the position change are small (step S96 NO, step S98 NO), the next image is displayed without displaying the intermediate screen (step S102). Further, after the intermediate screens of step S99, step S100, and step S101 are displayed for a predetermined time, the next image is displayed (step S102). Then, the process returns to step S94.

また、画面表示中には表示終了操作の有無を判断し(ステップS95)、終了操作があれば(ステップS95YES)、検索画面に移行する(ステップS91)。終了操作がなければ(ステップS95NO)、ステップS94に進み、表示を継続させる。   Further, during the screen display, it is determined whether or not there is a display end operation (step S95). If there is an end operation (YES in step S95), the screen shifts to a search screen (step S91). If there is no end operation (NO in step S95), the process proceeds to step S94 and the display is continued.

以上説明したように本実施形態のカメラによれば、写真に付随した撮影時情報に従って、経過表示を示す中間画面を表示するようにしたので、画像と画像の関係をわかりやすく再生して楽しみこともできる。なお、音声等でその旨を伝えるようにしてもよい。   As described above, according to the camera of the present embodiment, the intermediate screen showing the progress display is displayed according to the shooting time information attached to the photograph, so that the relationship between the images can be easily reproduced and enjoyed. You can also. In addition, you may make it tell that by a voice | voice etc.

また上記第3実施形態はカメラ1に適用した例で説明したが、図11の処理はカメラ1の再生機能によって実現されるので、撮像系のない再生装置にも本実施形態が適用される。   Further, although the third embodiment has been described with an example applied to the camera 1, the processing of FIG. 11 is realized by the playback function of the camera 1, and thus the present embodiment is also applied to a playback device without an imaging system.

また、上記各実施形態で説明したMPU10の処理に関しては、一部または全てをハードウェアで構成してもよい。具体的な構成は設計事項である。そして、MPU10による各制御処理は、ROM13に格納されたソフトウェアプログラムがMPUに供給され、供給されたプログラムに従って上記動作させることによって実現されるものである。従って、上記ソフトウェアのプログラム自体がMPUの機能を実現することになり、そのプログラム自体は本発明を構成する。また、そのプログラムを格納する記録媒体も本発明を構成する。記録媒体としては、フラッシュメモリ以外でも、CD−ROM、DVD等の光学記録媒体、MD等の磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、各実施形態では本願発明をデジタルカメラに適用した例を説明したが、これに限らず例えば携帯電話のカメラ部に適用しても良い。   Further, part or all of the processing of the MPU 10 described in the above embodiments may be configured by hardware. The specific configuration is a design matter. Each control process by the MPU 10 is realized by a software program stored in the ROM 13 being supplied to the MPU and operating according to the supplied program. Therefore, the software program itself realizes the function of the MPU, and the program itself constitutes the present invention. A recording medium for storing the program also constitutes the present invention. As a recording medium, besides a flash memory, an optical recording medium such as a CD-ROM or DVD, a magnetic recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Moreover, although each embodiment demonstrated the example which applied this invention to the digital camera, you may apply not only to this but the camera part of a mobile telephone, for example.

さらに、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Furthermore, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

第1実施形態において、本発明が適用されるデジタルカメラ1の全体ブロック図。1 is an overall block diagram of a digital camera 1 to which the present invention is applied in a first embodiment. 第1実施形態において、センサ19aがカメラに配置される位置を示すカメラ外観図Camera external view which shows the position where the sensor 19a is arrange | positioned at a camera in 1st Embodiment 第1実施形態において、カメラ1のGPS信号検出処理を示すフローチャート。5 is a flowchart showing GPS signal detection processing of the camera 1 in the first embodiment. 第1実施形態において、屋外シーンを判定処理するためのサブルーチン。In the first embodiment, a subroutine for determining the outdoor scene. 第1実施形態において、GPS信号入手の手順を説明するサブルーチン。The subroutine explaining the procedure of GPS signal acquisition in 1st Embodiment. 第1実施形態において、撮影時以外にGPS部17を起動させるタイミングを説明するサブルーチン。The subroutine explaining the timing which starts the GPS part 17 other than the time of imaging | photography in 1st Embodiment. 第2実施形態において、時間的に移動するカメラの位置の様子を示す図The figure which shows the mode of the position of the camera which moves temporally in 2nd Embodiment. 第2実施形態において、不明な位置情報を補間する手順を説明するフローチャート。The flowchart explaining the procedure which interpolates unknown positional information in 2nd Embodiment. 第3実施形態において、再生時に表示部9に表示される検索画面を示す図。The figure which shows the search screen displayed on the display part 9 at the time of reproduction | regeneration in 3rd Embodiment. 第3実施形態において、大きく内容の変化する画像間に入れられた中間画像の画面例を説明する図。The figure explaining the example of a screen of the intermediate image put between the images from which content changes largely in 3rd Embodiment. 第3実施形態において、表示処理手順を説明するフローチャート。The flowchart explaining a display processing procedure in 3rd Embodiment.

符号の説明Explanation of symbols

1…カメラ、2…撮影レンズ、3…撮像素子、4…アナログフロントエンド(AFE)部、
5…画像処理部、6…記録部、7…メモリ、7a…地図データ、
8…表示制御部、9…表示部、9a…三角カーソル、9b…表示、9c…
10…MPU、10a…記録制御部、10b…作動制御部、10c…屋外判定部、
10d…位置決定部、11…ストロボ部、12…AF部、13…ROM、
14…マイク部、15…音声処理部、16…操作部、16a、16b…操作部、
17…GPS部、18…時計部、19a…センサ、19b…検出部、20…被写体、
P…位置情報、T…時間情報
1 ... Camera, 2 ... Shooting lens, 3 ... Image sensor, 4 ... Analog front end (AFE) section,
5 ... Image processing unit, 6 ... Recording unit, 7 ... Memory, 7a ... Map data,
8 ... Display control unit, 9 ... Display unit, 9a ... Triangular cursor, 9b ... Display, 9c ...
10 ... MPU, 10a ... recording control unit, 10b ... operation control unit, 10c ... outdoor determination unit,
10d: Position determining unit, 11: Strobe unit, 12 ... AF unit, 13 ... ROM,
14 ... Microphone unit, 15 ... Audio processing unit, 16 ... Operation unit, 16a, 16b ... Operation unit,
17 ... GPS section, 18 ... clock section, 19a ... sensor, 19b ... detection section, 20 ... subject,
P: Location information, T: Time information

Claims (2)

再生される画像の撮影位置情報を比較して、当該連続再生される画像の前後間の撮影位置の差が所定距離より大きいか否かを判断する制御部と、A control unit that compares the shooting position information of the images to be reproduced and determines whether or not the difference between the shooting positions before and after the continuously reproduced images is greater than a predetermined distance;
上記制御部によって上記撮影位置の差が所定より大きいと判断される場合には、撮影位置の変化表示を示す中間画面を当該連続再生される画像の前後間に所定時間表示する表示制御部と、備えるWhen the control unit determines that the difference between the shooting positions is larger than a predetermined value, a display control unit that displays an intermediate screen showing a change display of the shooting position for a predetermined time before and after the continuously reproduced images; Prepare
ことを特徴とする再生装置。A reproducing apparatus characterized by that.
さらに、上記制御部は、連続再生される画像の撮影日時情報を比較して、当該連続再生される画像の前後間の撮影時間の差が所定より大きいか否かを判断し、Further, the control unit compares the shooting date and time information of the continuously reproduced images, determines whether or not the difference between the shooting times before and after the continuously reproduced images is greater than a predetermined value,
上記表示制御部は、上記制御部によって上記撮影日時の差が所定より大きいと判断され、かつ、上記撮影位置の差が所定より大きいと判断される場合には、撮影日時の経過表示を示す中間画面を上記撮影位置の変化表示を示す中間画面とともに、当該連続再生される画像の前後間に所定時間表示し、一方、上記制御部によって上記撮影日時の差が所定より大きいと判断され、かつ上記撮影位置の差が所定より大きいとは判断されない場合には、撮影日時の経過表示を示す中間画面のみを当該連続再生される画像の前後間に所定時間表示するThe display control unit, when the control unit determines that the difference between the shooting dates and times is larger than a predetermined value and determines that the difference between the shooting positions is larger than a predetermined value, The screen is displayed for a predetermined time before and after the continuously reproduced image together with the intermediate screen showing the change display of the shooting position. On the other hand, the control unit determines that the difference between the shooting dates and times is larger than a predetermined value, and If it is not determined that the difference in shooting position is larger than a predetermined value, only the intermediate screen showing the shooting date and time display is displayed for a predetermined time before and after the continuously reproduced images.
ことを特徴とする請求項1に記載の再生装置。The reproducing apparatus according to claim 1.
JP2006117143A 2006-04-20 2006-04-20 Playback device Expired - Fee Related JP4751758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006117143A JP4751758B2 (en) 2006-04-20 2006-04-20 Playback device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006117143A JP4751758B2 (en) 2006-04-20 2006-04-20 Playback device

Publications (3)

Publication Number Publication Date
JP2007295034A JP2007295034A (en) 2007-11-08
JP2007295034A5 JP2007295034A5 (en) 2009-04-30
JP4751758B2 true JP4751758B2 (en) 2011-08-17

Family

ID=38765243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006117143A Expired - Fee Related JP4751758B2 (en) 2006-04-20 2006-04-20 Playback device

Country Status (1)

Country Link
JP (1) JP4751758B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147694A (en) * 2007-12-14 2009-07-02 Funai Electric Co Ltd Photographic image display system
JP5187399B2 (en) * 2008-09-12 2013-04-24 株式会社ニコン Imaging device
US8675096B2 (en) 2009-03-31 2014-03-18 Panasonic Corporation Image capturing device for setting one or more setting values for an imaging mechanism based on acquired sound data that includes information reflecting an imaging environment
JP5549300B2 (en) * 2010-03-23 2014-07-16 カシオ計算機株式会社 Imaging apparatus, imaging method, indoor / outdoor determination apparatus, indoor / outdoor determination method, and program
CN103907120B (en) * 2011-12-16 2018-01-02 英派尔科技开发有限公司 Automatic privacy management for image sharing network
JP6296780B2 (en) 2013-12-19 2018-03-20 キヤノン株式会社 Imaging apparatus, control method therefor, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3339876B2 (en) * 1992-04-28 2002-10-28 株式会社日立製作所 Imaging device
JP4241945B2 (en) * 1997-01-27 2009-03-18 富士フイルム株式会社 camera
JPH11202041A (en) * 1998-01-19 1999-07-30 Nikon Corp Intermittently receiving gps system and apparatus for recording image pickup position using it
JP2001091290A (en) * 1999-09-17 2001-04-06 Sony Corp Device and method for information processing and program storage medium
JP2004061464A (en) * 2002-07-31 2004-02-26 Matsushita Electric Works Ltd Position information terminal
JP4292972B2 (en) * 2003-12-11 2009-07-08 パナソニック株式会社 Imaging device
JP2005283957A (en) * 2004-03-30 2005-10-13 Sanyo Electric Co Ltd Automatic focus controller for imaging device

Also Published As

Publication number Publication date
JP2007295034A (en) 2007-11-08

Similar Documents

Publication Publication Date Title
KR101342477B1 (en) Imaging apparatus and imaging method for taking moving image
JP5287465B2 (en) Imaging apparatus, shooting setting method and program thereof
JP4751758B2 (en) Playback device
JP2011188210A (en) Photographing apparatus and photographing system
US20100253801A1 (en) Image recording apparatus and digital camera
US20090051786A1 (en) Image capturing apparatus, its controlling method, and program
JPH05252432A (en) Camera system
JP4955909B2 (en) Camera device and imaging condition setting method thereof
JP2006197243A (en) Imaging apparatus and method, program, and storage medium
JP2000244800A (en) Image pickup device
US7515816B2 (en) Imaging apparatus having a focus function
JP2008292663A (en) Camera and portable electronic equipment
JP4417737B2 (en) Digital camera
JP5311922B2 (en) Imaging apparatus and control method thereof
WO2012132626A1 (en) Image display apparatus and image display method
JP4553134B2 (en) Image generating apparatus and program thereof
JP5851133B2 (en) Image reproducing apparatus, image reproducing method and program
JP3630104B2 (en) CAMERA DEVICE, SAMPLE IMAGE DISPLAY METHOD, AND RECORDING MEDIUM
JP2008011346A (en) Imaging system
JP2007295035A (en) Camera, reproducing apparatus, display control method, program, and recording medium
JP2007195099A (en) Photographing apparatus
JP2006270426A (en) Imaging apparatus, its control method, and computer program
JP4725075B2 (en) CAMERA DEVICE, SAMPLE IMAGE DISPLAY METHOD, AND RECORDING MEDIUM
JP2007129339A (en) Imaging apparatus and control method of imaging apparatus
JP2018098585A (en) Imaging apparatus, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

R151 Written notification of patent or utility model registration

Ref document number: 4751758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees