WO2021153205A1 - 表示制御装置およびその制御方法 - Google Patents

表示制御装置およびその制御方法 Download PDF

Info

Publication number
WO2021153205A1
WO2021153205A1 PCT/JP2021/000616 JP2021000616W WO2021153205A1 WO 2021153205 A1 WO2021153205 A1 WO 2021153205A1 JP 2021000616 W JP2021000616 W JP 2021000616W WO 2021153205 A1 WO2021153205 A1 WO 2021153205A1
Authority
WO
WIPO (PCT)
Prior art keywords
display control
display
item
focus
focusing
Prior art date
Application number
PCT/JP2021/000616
Other languages
English (en)
French (fr)
Inventor
康弘 桑原
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to CN202180011781.2A priority Critical patent/CN115039026A/zh
Publication of WO2021153205A1 publication Critical patent/WO2021153205A1/ja
Priority to US17/815,145 priority patent/US20220368838A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Definitions

  • the present invention relates to a display control device and a control method thereof, and particularly to a technique for displaying an AF frame.
  • Patent Document 1 when a face is detected, one AF frame is displayed so as to surround the face, and when not, an AF frame is displayed at a position where focusing is detected. It is disclosed.
  • an object of the present invention is to provide a display control device capable of improving the visibility of a live view image when displaying an AF frame.
  • the display control device of the present invention has an acquisition means for acquiring information on the in-focus position in the live view image and an item indicating the in-focus position based on the information acquired by the acquisition means.
  • the display control means is capable of displaying and controlling the display on the live view image, and the display control means is continuously in focus among the currently focused positions.
  • the first item displayed in the first in-focus position is controlled so as to have a display form with higher visibility than the second item displayed in the second in-focus position that was not in focus at least last time. It is characterized by that.
  • the present invention it is possible to improve the visibility of the live view image when displaying the AF frame.
  • Flowchart of shooting process according to the embodiment of the present invention Flowchart of display processing according to the embodiment of the present invention A flowchart showing a modified example of the display process according to the embodiment of the present invention.
  • FIG. 1 is an external view of a digital camera 100 as an example of the display control device of the present invention
  • FIG. 2 is a block diagram showing a configuration example of the digital camera 100 as an example of the display control device of the present invention.
  • the display unit 28 is a display unit that displays images and various information.
  • the liquid crystal 16 in the finder is a display unit provided in the finder, and is a display unit that displays images and various information similar to the display unit 28.
  • a touch panel 70a is provided integrally with the display unit 28. Since the touch panel 70a can detect a touch operation on the display surface of the display unit 28, it is possible to intuitively touch the item or subject displayed on the display unit 28.
  • the lens unit 150 is a lens unit having a lens.
  • the shutter button 61 is an operation unit for giving a shooting instruction.
  • the mode changeover switch 60 is an operation unit for switching various modes.
  • the operation unit 70 is an operation unit composed of operation members such as various switches, buttons, and a touch panel that receive various operations from the user.
  • the power switch 74 is a push button for switching between power on and power off.
  • the main electronic dial 71 is a rotation operation member, and by turning the main electronic dial 71, it is possible to change set values such as a shutter speed and an aperture.
  • the sub electronic dial 73 is a rotation operation member that moves the selection frame, feeds an image, and the like.
  • the SET button 75 is a push button mainly used for determining a selection item or the like.
  • the menu button 79 is a button for displaying the menu screen. On the menu screen, you can make settings related to shooting such as AF (autofocus, automatic focusing) and the number of shots, settings related to recording, and settings related to display.
  • the liquid crystal 16 in the finder described above can be visually recognized by looking into the finder 77.
  • the approach sensor 75 under the finder 77 detects the approach of an object and can display the display on the liquid crystal 16 in the finder.
  • the approach sensor 75 is a detection unit that detects whether or not an object has approached, detects a change in capacitance between the object and the sensor, and determines whether or not the object is approaching depending on whether or not the amount of change exceeds a threshold value. Is detected.
  • the approach detection method of the approach sensor 75 may be a method of radiating infrared rays and determining whether or not the object is near by the reflected infrared power, even if the method is not based on capacitance. Not limited to the above.
  • the display switching button 78 is a button for switching the display between the liquid crystal 16 in the finder and the display unit 28.
  • the recording medium 200 is a recording medium such as a memory card or a hard disk.
  • the recording medium slot 201 is a slot for storing the recording medium 200.
  • the recording medium 200 stored in the recording medium slot 201 can communicate with the digital camera 100, and can record and play back.
  • the lid 202 is a lid of the recording medium slot 201. In the figure, the lid 202 is closed.
  • FIG. 2 is a block diagram showing a configuration example of the digital camera 100 according to the present embodiment.
  • the photographing lens 103 is a lens group including a zoom lens and a focus lens.
  • a single focus lens is shown as an example of the lens unit 150.
  • Single-focus lenses include wide-angle lenses, standard lenses, and telephoto lenses.
  • the lens 103 is usually composed of a plurality of lenses, but here, only one lens is shown for brevity.
  • the communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the digital camera 100 side.
  • the lens unit 150 communicates with the system control unit 50 via the communication terminals 6 and 10, controls the aperture 102 via the aperture drive circuit 2 by the internal lens system control circuit 4, and controls the aperture 102 via the AF drive circuit 3.
  • the lens 103 is focused by shifting the position of the lens 103.
  • the shutter 101 is a shutter having an aperture function.
  • the image pickup unit 22 is an image pickup device composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal.
  • the A / D converter 23 converts an analog signal into a digital signal.
  • the A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal.
  • the image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. Further, in the image processing unit 24, a predetermined calculation process is performed using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (autoexposure) processing, and EF (flash pre-flash) processing are performed. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and also performs a TTL method AWB (auto white balance) process based on the obtained calculation result.
  • TTL through-the-lens
  • AF autofocus
  • AE autoexposure
  • EF flash pre-flash
  • the output data from the A / D converter 23 is written directly to the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15.
  • the memory 32 stores the image data obtained by the image pickup unit 22 and converted into digital data by the A / D converter 23, and the image data to be displayed on the display unit 28 or the liquid crystal 16 in the finder.
  • the memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio.
  • the memory 32 also serves as a memory (video memory) for displaying an image.
  • the D / A converter 13 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display unit 28 and the liquid crystal 16 in the finder. In this way, the image data for display written in the memory 32 is displayed by the display unit 28 and the liquid crystal 16 in the finder via the D / A converter 13.
  • the display unit 28 displays on a display such as an LCD according to the analog signal from the D / A converter 13.
  • the digital signal once A / D converted by the A / D converter 23 and stored in the memory 32 is analog-converted by the D / A converter 13 and sequentially transferred to the display unit 28 for display, thereby displaying a through image (through image display). Live view image display).
  • the liquid crystal 16 in the finder functions as an electronic viewfinder by performing the same processing as the display unit 28.
  • the liquid crystal 16 in the finder does not have to be an electronic viewfinder, but may be an optical finder.
  • a display surface is arranged near the focusing screen on the optical path of the viewfinder so that the display of the subject optical image on the focusing screen and the liquid crystal in the viewfinder can be checked at once.
  • the non-volatile memory 56 is a memory as a recording medium that can be electrically erased and recorded, and for example, EEPROM or the like is used.
  • the non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50.
  • the program referred to here is a computer program for executing various flowcharts described later in the present embodiment.
  • RAM is used for the system memory 52.
  • system memory 52 constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 56, and the like are expanded.
  • the system control unit 50 also performs display control by controlling the memory 32, the D / A converter 13, the display unit 28, and the like (display control is possible).
  • the mode changeover switch 60, the shutter button 61, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50.
  • the mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image shooting mode, an interval shooting mode, a playback mode, a menu screen, and the like.
  • the first shutter switch 62 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 61 provided on the digital camera 100, and the first shutter switch signal SW1 is generated.
  • the first shutter switch signal SW1 starts operations such as AF (autofocus) processing, AE (autoexposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing.
  • the second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is generated.
  • the system control unit 50 starts a series of shooting processes from reading the signal from the imaging unit 22 to writing the image data to the recording medium 200 by the second shutter switch signal SW2.
  • Each operation member of the operation unit 70 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 28, the liquid crystal 16 in the finder, and the like, and acts as various function buttons.
  • the function buttons include, for example, an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like.
  • various settable menu screens are displayed on the display unit 28 or the like. The user can intuitively make various settings by using the menu screen displayed on the display unit 28 or the like and the up / down / left / right four-direction buttons and the SET button.
  • the power supply control unit 80 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period.
  • the power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.
  • the recording medium I / F18 is an interface with a recording medium 200 such as a memory card or a hard disk.
  • the recording medium 200 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, an optical disk, a magnetic disk, or the like.
  • the proximity sensor 75 is a sensor for detecting whether or not an object has approached the finder 77 of the digital camera 100.
  • the display is displayed on the display unit 28, and when the approach of the object is detected, the display destination can be switched from the display unit 28 to the liquid crystal 16 in the finder.
  • a touch panel 70a capable of detecting contact with the display unit 28.
  • the input coordinates on the touch panel 70a are associated with the display coordinates on the display unit 28.
  • the system control unit 50 performs the following operations on the touch panel 70a.
  • the state can be detected. -A finger or pen that has not touched the touch panel 70a has newly touched the touch panel 70a. That is, the start of touch (hereinafter referred to as touch-down).
  • touch panel 70a is in a state of being touched with a finger or a pen (hereinafter, referred to as touch-on).
  • touch panel 70a is moved while being touched with a finger or a pen (hereinafter, referred to as a touch move (Touch-Move)).
  • a touch move Touch-Move
  • touch-up Touch-Up
  • touch-off A state in which nothing is touched on the touch panel 70a
  • touch-on When touchdown is detected, it is also detected that it is touch-on. After touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch move is also detected when touch on is detected. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.
  • Flicking is an operation of quickly moving a finger on the touch panel 70a by a certain distance and then releasing it as it is, in other words, an operation of swiftly tracing the touch panel 70a with a finger.
  • the touch panel 70a may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. good.
  • there are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel but any method may be used.
  • the AF mode in this embodiment will be described.
  • the mode can be selected from one-shot AF and servo AF.
  • one-shot AF focusing processing is executed according to the half-pressing of the shutter button 61 at the selected AF position.
  • One-shot AF is suitable for focusing on a stationary subject.
  • the servo AF tracks the selected subject and keeps focusing on the subject while the shutter button 61 is pressed halfway.
  • Servo AF is suitable for shooting moving subjects.
  • the subject to be the target of the servo AF can track the detected subject (for example, the face of a person) if the automatic setting is made even if the subject is not selected by the user.
  • the touch panel 70a when selecting the AF position and AF subject, if a touch operation is performed on the display unit 28 on which the live view image is displayed, the touch panel 70a can be selected by detecting the touch operation. It becomes. Alternatively, it can be selected by using the operation member of the operation unit 70. In the present embodiment, it is assumed that there are AF points a to t illustrated in FIG. 5H as AF points, but the number of AF points is an example and may be 45 points or 100 points or more.
  • FIG. 3 shows the shooting process in the present embodiment, which is started when the digital camera 100 is turned on and enters the shooting mode. This process is realized by expanding the program recorded in the non-volatile memory 56 into the system memory 52 and executing it by the system control unit 50.
  • the system control unit 50 determines whether or not the user has performed an operation to change the AF mode. If it is determined that the operation to change the AF mode has been performed, the process proceeds to S302, and if not, the process proceeds to S303.
  • the system control unit 50 changes the AF mode based on the operation of the user in S301. For example, when the one-shot AF is changed to the servo AF, it is recorded in the memory 32.
  • the system control unit 50 determines whether or not the currently set AF mode is servo AF. If it is determined that the servo AF is performed, the process proceeds to S304, and if not, the process proceeds to S310.
  • the system control unit 50 determines whether or not the subject has been selected by the user. If it is determined that the subject has been selected, the process proceeds to S305, and if not, the process returns to S301. As described above, even if the user does not select the subject in the servo AF, if the face + tracking priority AF that automatically detects the face of the person and performs the servo AF is set, the determination of S304 is performed. Without doing this, the face is detected and the process proceeds to S305. If the subject has already been selected, the process proceeds to S306.
  • the system control unit 50 starts a calligraphy that tracks the subject selected in S304. If tracking has already started, the process proceeds to S306 without performing the processes of S304 and S305.
  • the system control unit 50 executes focusing processing on the subject being tracked. It should be noted that the focusing process is simpler than the focusing process performed by half-pressing the shutter button 61 described above.
  • the system control unit 50 acquires focusing information indicating where the focus was in the focusing process performed in S306. That is, it is assumed that the subject A is selected from the subject A and the subject B in the live view images as shown in FIGS. 5A to 5F. Subject A shows an electric fan, and the central part does not move, but the position of the wing part moves due to rotation. The timing of shooting is different between the subject A in FIGS. 5A, 5C and 5E and the subject A in FIGS. 5B, 5D and 5F, and the positions of the wings are moved. At this time, the focusing frames 501 to 507, 510 are displayed at the positions detected in FIG. 5A in the process of S306 immediately before. In FIG.
  • the portion where the focusing frame is not displayed indicates a portion that is not in focus.
  • the areas 512 to 515 are displays for showing the areas, and are not displayed on the live view screen.
  • the focused positions are set as focusing positions 1 to N, and recording is performed in the memory 32 in association with the focusing points.
  • a focusing flag may be set for each of the AF points.
  • S308 the system control unit 50 performs display processing.
  • the display process will be described later with reference to FIGS. 4A and 4B.
  • the processing of S308 may be executed by performing the processing of S306 and S307 in accordance with the update of the display frame of the display unit 28, or may be executed each time the processing of S306 and S307 is performed.
  • the system control unit 50 determines whether or not to end the shooting process.
  • the shooting process ends when the power is turned off, the playback mode is switched, and the menu screen is displayed. If it is determined that the shooting process is finished, the process is finished, and if not, the process proceeds to S313.
  • the processing of S310 to S312 is a one-shot AF processing.
  • the system control unit 50 determines whether or not the AF position has been selected. If it is determined that the AF position has been selected, the process proceeds to S311. If not, the process of S310 is repeated.
  • the system control unit 50 superimposes the AF frame indicating the position selected in S310 on the live view image with 0% transmittance and displays it on the display unit 28.
  • FIG. 5G shows a display example of the AF frame when the one-shot F is set.
  • the AF frame 511 indicates the AF position selected by the user.
  • the system control unit 50 executes the focusing process based on the AF position selected in S310.
  • the focusing process in S312 is simpler than the focusing process performed by half-pressing the shutter button 61 as in S306.
  • the system control unit 50 determines whether or not a shooting preparation instruction has been given by half-pressing the shutter button 61. If it is determined that the shutter button 61 is half-pressed, the process proceeds to S314, and if not, the process proceeds to S318.
  • the system control unit 50 performs focusing processing.
  • the system control unit 50 superimposes the AF frame on the live view image at the position focused in S314 with 0% transmittance and displays it on the display unit 28.
  • the AF frame is displayed as shown in FIGS. 5A and 5B in the case of servo AF, and as shown in FIG. 5G in the case of one-shot AF.
  • the AF frame may be displayed in a color different from that of S311 and S404 and S453 described later. However, the AF frame indicating the in-focus position is displayed in the same display mode.
  • the system control unit 50 determines whether or not a shooting instruction has been given by fully pressing the shutter button 61. If it is determined that the shutter button 61 is fully pressed, the process proceeds to S317, and if not, the process returns to S313.
  • the system control unit 50 performs a shooting process.
  • the system control unit 50 makes the same determination as in S303, and if Yes, proceeds to S304, and if No, proceeds to S310.
  • the display processing in the present embodiment will be described with reference to FIGS. 4A and 4B.
  • the focusing frame is displayed in a normal state (transparency 0%) for the focusing points that are continuously in focus, and the focusing is not continuous but is currently in focus.
  • This is a process for displaying the focusing frame with respect to a point in a display form (transparency 30%) that is less noticeable than in a normal state.
  • the process of FIG. 4 starts when the process proceeds to S308 of FIG. This process is realized by expanding the program recorded in the non-volatile memory 56 into the system memory 52 and executing it by the system control unit 50.
  • the system control unit 50 determines whether or not the focusing position n (position included in the focusing positions 1 to N) was in focus last time. That is, it is determined whether or not it was determined that the subject was in focus even in the process of displaying the previous focusing frame (information indicating the previously acquired focusing position). In other words, it is determined whether or not the focusing position n is the focusing position determined to be in focus twice in succession. Whether or not the camera was in focus last time can be determined by whether or not the previous focus flag, which will be described later, is ON. If it is determined that the focusing position n is also in focus last time, the process proceeds to S402, and if not, the process proceeds to S403. That is, if the subject is in focus two or more times in a row, the process proceeds to S403, and if the subject was not in focus last time but is in focus this time, the process proceeds to S403.
  • the system control unit 50 superimposes the AF frame on the live view image at the focusing position n with a transmittance of 0% and displays it on the display unit 28.
  • AF frames 503, 505, and 507 are displayed with 0% transmittance.
  • FIG. 5D AF frames 503, 505, and 507 are displayed with a transmittance of 0%.
  • the system control unit 50 superimposes the AF frame on the live view image at the focusing position n with a transmittance of 30% and displays it on the display unit 28.
  • AF frames 501a, 502a, 504a, 510a, and 506a are displayed with a transmittance of 30%.
  • AF frames 501a, 509a, 508a, 504a, and 506a are displayed with a transmittance of 30%.
  • the system control unit 50 determines whether or not the display processing of S402 or S403 has been performed for all the focusing positions 1 to N. If it is determined that the display processing has been performed for all the focusing positions 1 to N, the process proceeds to S405, and if not, the process returns to S401.
  • the system control unit 50 turns on the previous focusing flag for the focusing positions 1 to N acquired in S307 of FIG. 3 immediately before, and records in the memory 32.
  • the previous focus flag indicates whether or not the focus was achieved in the previous determination in S307. This flag is used in the process of displaying the next focusing frame (next display frame) as in S401.
  • the system control unit 50 turns off the previous focusing flag for the out-of-focus position that is not in focus.
  • the flicker when the AF frame is displayed. This improves the visibility of the user's live view image.
  • the visibility of the live view image is improved, it becomes easier to understand the state of the subject while grasping the position of the AF frame, and it becomes possible to concentrate on shooting.
  • the AF frame having 0% transmittance is displayed at all the focused positions as shown in FIGS. 5A and 5B, the AF frames 502, 508, 509, and 510 are displayed or hidden. In this way, when the display / non-display is frequently switched, the user feels flickering. As shown in FIGS.
  • the AF frame having a transmittance of 0% is displayed at the continuously focused position, and the AF frame having a transmittance of 30% is displayed so as to be less noticeable than the transmittance of 0%. do.
  • flicker can be reduced even if some AF frames are repeatedly displayed / hidden.
  • the user can grasp where the stable focus position is.
  • the first position is in focus at the immediately preceding N-1th display.
  • the second position is not in focus at the time of N-1th display, it will be as follows. That is, at the first position, the Nth display shows the transmittance at 0%, and at the second position, the Nth display shows the transparency at 30%, even if the focus position is the same. Each display form will be different.
  • FIG. 4A it has been described that the image is displayed with a transmittance of 0% when it is focused twice in a row, but in FIG. 4B, an example in which the image is displayed with a transmittance of 0% when it is focused four times or more in a row will be described.
  • the flowchart of FIG. 4B is the same as that of FIG. 4A except that it will be described below.
  • the process of FIG. 4 starts when the process proceeds to S308 of FIG. This process is realized by expanding the program recorded in the non-volatile memory 56 into the system memory 52 and executing it by the system control unit 50.
  • the system control unit 50 determines whether or not the number of continuous focusing times A is 4 or more at the focusing position n (position included in the focusing positions 1 to N).
  • the threshold value of the number of continuous focusing times A to be determined in S451 is not limited to 4, but may be 3 or 5 (set to a predetermined number or more). If it is determined that the number of continuous focusing times A at the focusing position n is 4 or more, the process proceeds to S452, and if not, the process proceeds to S453.
  • the number of continuous focusing times A is recorded in the memory 32.
  • system control unit 50 performs the same processing as in S402.
  • system control unit 50 performs the same processing as in S403.
  • S454 the system control unit 50 makes the same determination as in S404. If Yes, the process proceeds to S455, and if No, the system returns to S451.
  • the deformation described above it is possible to reduce the flicker when the AF frame is displayed. This improves the visibility of the user's live view image. Further, if the focus is not continuously performed more times than in FIG. 4A, the display is not displayed with a transmittance of 0%, so that the flicker becomes less noticeable.
  • the AF frame with 0% transmittance when focusing twice in a row as shown in FIG. 4A or to display the AF frame having 0% transmittance when focusing four or more times in a row as shown in FIG. 4B. May be changed according to the movement of the subject. Further, if the subject has a lot of movement, the threshold value determined by S451 may be increased. Further, in the case of FIG. 4B, the transmittance may be gradually lowered according to the number of consecutive times of focusing. For example, the transmittance may be 30% for two consecutive times, 10% for three consecutive times, and 0% for four consecutive times.
  • FIGS. 4A and 4B if the subject is the following subject, it is also useful to display with a transmittance of 0% without performing the determination of S401 and S451.
  • the face, animal, and pupil of a person having a predetermined size or more displayed in an area of half or more or one-third or more of the display unit 28. If the face of a person is larger than a predetermined size, it is highly possible that the person is the center of the shooting. Therefore, even if it flickers a little, it is better to be able to confirm that it is in focus on the person's face. The same applies to the pupil.
  • the type of the subject is detected from the image taken by the system control unit 50.
  • the method of changing the display form of the AF frame is not only to increase the transparency, but also to display the line of the AF frame thinly as shown in FIGS. 5E and 5F.
  • the AF frames 501b, 502b, 504b, 510b, 506b and in FIG. 5F, the AF frames 501b, 508b, 509b, 504b, 506b are displayed as thinner lines than the normal AF frames (503, 505, 507). ing. That is, the area displayed superimposed on the live view image is small. As a result, flicker can be reduced even if the display / non-display is repeated.
  • the AF frame is displayed by increasing the transmittance or thinning the line for the AF points that are not continuously focused, but the display mode is not limited to this.
  • the AF frame display format is such that the area that overlaps with the live view image is small, or the visibility of the live view image is higher (the visible area of the live view image is larger or less noticeable). good.
  • the focus points that are continuously in focus are displayed as solid lines
  • the focus points that are not in focus are displayed as dotted lines
  • the focus points that are continuously in focus are displayed in red
  • the focus points that are not in focus are displayed in yellow ( It may be displayed in a color with lower visibility).
  • the AF points that are continuously focused may be displayed with higher brightness than the AF points that are not in focus.
  • the above-described embodiment is performed when the number of AF points is a predetermined number or more, and in other cases, the display form does not have to be changed even if the focus is not continuous.
  • the larger the number of AF points the more detailed the focusing situation can be grasped, but on the other hand, when the subject moves, the focusing situation changes frequently and the flicker becomes more noticeable.
  • the display form of the AF frame is controlled according to whether or not the focus is continuously focused on the AF point, but the conditions for changing the display form are limited to this. do not have.
  • the display form of the AF frame may be controlled according to the focusing frequency (focusing frequency) within a unit time.
  • the focusing frequency is lower than the threshold value
  • the transparency of the AF frame may be increased or the line of the AF frame may be made thinner than the AF points whose focusing frequency is equal to or higher than the threshold value.
  • the relationship between the focusing frequency and the display form of the AF frame is not limited to the above, and the display form of the AF frame may be changed stepwise according to the focusing frequency using a plurality of threshold values. Further, the transparency of the AF frame and the fineness of the line of the AF frame may be continuously changed according to the focusing frequency.
  • system control unit 50 may be performed by one hardware, or the entire device may be controlled by sharing the processing among a plurality of hardware. ..
  • the present invention is applied to the digital camera 100 as an example, but this is not limited to this example, and the AF frame may be displayed by superimposing on the live view image. It is applicable as long as it is a display control device that can be used. That is, the present invention can be applied to a mobile phone terminal, a portable image viewer, a printer device including a finder, a digital photo frame, a music player, a game machine, an electronic book reader, and the like.
  • the present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the recording medium storing the program constitute the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

ライブビュー画像における合焦位置に関する情報を取得する取得手段と、前記取得手段により取得された情報に基づき、前記合焦位置を示すアイテムを前記ライブビュー画像上に表示するように表示制御可能な表示制御手段と、を有し、前記表示制御手段は、現在合焦している合焦位置のうち、連続的に合焦している第1の合焦位置に表示する第1のアイテムは、少なくとも前回は合焦していない第2の合焦位置に表示する第2のアイテムよりも視認性の高い表示形態となるように制御することを特徴とする表示制御装置。

Description

表示制御装置およびその制御方法
 本発明は、表示制御装置およびその制御方法に関し、特にAF枠を表示する技術に関する。
 合焦位置を示す表示により視認性が低下しないように合焦枠の表示形態を変える技術がある。特許文献1には、顔が検出された場合には顔を囲うように1枠のAF枠を表示し、そうでない場合には、合焦が検出された位置にそれぞれAF枠を表示することが開示されている。
特開2018-67802号公報
 特許文献1の方法では、顔が検出されていない場合に、検出される合焦位置が変わる度に表示されるAF枠の位置が変わるので、測距点が増えてきた場合にユーザがAF枠の表示/非表示の切り替わりがちらついて見える可能性がある。
 本発明は、上記の課題に鑑み、AF枠を表示する際のライブビュー画像の視認性を向上させることが可能な表示制御装置の提供を目的とする。
 上記目的を達成するために、本発明の表示制御装置は、ライブビュー画像における合焦位置に関する情報を取得する取得手段と、前記取得手段により取得された情報に基づき、前記合焦位置を示すアイテムを前記ライブビュー画像上に表示するように表示制御可能な表示制御手段と、を有し、前記表示制御手段は、現在合焦している合焦位置のうち、連続的に合焦している第1の合焦位置に表示する第1のアイテムは、少なくとも前回は合焦していない第2の合焦位置に表示する第2のアイテムよりも視認性の高い表示形態となるように制御することを特徴とする。
 本発明によれば、AF枠を表示する際のライブビュー画像の視認性を向上させることができる。
本発明の実施形態の構成を適用可能な装置の一例としてのデジタルカメラの外観図 本発明の実施形態の構成を適用可能な装置の一例としてのデジタルカメラの外観図 本発明の実施形態の構成を適用可能な装置の一例としてのデジタルカメラの構成例を示すブロック図 本発明の実施形態における撮影処理のフローチャート 本発明の実施形態にける表示処理のフローチャート 本発明の実施形態における表示処理の変形例を示すフローチャート 本発明の実施形態を説明するための表示例を示した図 本発明の実施形態を説明するための表示例を示した図 本発明の実施形態を説明するための表示例を示した図 本発明の実施形態を説明するための表示例を示した図 本発明の実施形態を説明するための表示例を示した図 本発明の実施形態を説明するための表示例を示した図 本発明の実施形態を説明するための表示例を示した図 本発明の実施形態を説明するための表示例を示した図
 以下、図面を参照して本発明の好適な実施形態を説明する。
 図1は本発明の表示制御装置の一例としてのデジタルカメラ100の外観図、図2は本発明の表示制御装置の一例としてのデジタルカメラ100の構成例を示すブロック図である。
 図1において、表示部28は画像や各種情報を表示する表示部である。ファインダー内液晶16はファインダー内に設けられた表示部で、表示部28と同様の画像や各種情報を表示する表示部である。表示部28と一体となってタッチパネル70aが設けられる。タッチパネル70aは表示部28の表示面へのタッチ操作を検知可能なので、表示部28に表示されるアイテムや被写体を直感的にタッチ操作することができる。
 レンズ部150は、レンズを有するレンズユニットである。
 シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。操作部70はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材より成る操作部である。電源スイッチ74は、電源オン、電源オフを切り替えるための押しボタンである。メイン電子ダイヤル71は回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。サブ電子ダイヤル73は選択枠の移動や画像送りなどを行う回転操作部材である。SETボタン75は、主に選択項目の決定などに用いられる押しボタンである。メニューボタン79は、メニュー画面を表示させるためのボタンである。メニュー画面においてはAF(オートフォーカス、自動合焦)や撮影枚数などの撮影に関する設定、記録に関する設定、表示に関する設定を行うことができる。
 上述した、ファインダー内液晶16は、ファインダ77を覗くことにより視認可能となる。ファインダ77をユーザが覗こうとするとファインダ77の下にある接近センサ75が物体の接近を検知し、ファインダー内液晶16への表示を行うことができる。接近センサ75は物体が接近したかを検知する検知部であり、物体とセンサ間の静電容量の変化を検出し、変化量が閾値を超えているか否かにより物体が接近しているか否かを検知する。接近センサ75の物体の接近の検知方法は、静電容量によるものでなくても、赤外線を放射し、反射してきた赤外線の電力により物体が近くか否かを判定する方式でもよいし、方式は上記のものに限らない。
 表示切替ボタン78は、ファインダー内液晶16と表示部28との表示を切り替えるためのボタンである。
 記録媒体200はメモリカードやハードディスク等の記録媒体である。記録媒体スロット201は記録媒体200を格納するためのスロットである。記録媒体スロット201に格納された記録媒体200は、デジタルカメラ100との通信が可能となり、記録や再生が可能となる。蓋202は記録媒体スロット201の蓋である。図においては、蓋202を閉めた状態である。
 図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図2において、撮影レンズ103はズームレンズ、フォーカスレンズを含むレンズ群である。レンズ部150の一例として単焦点のレンズを示している。単焦点のレンズには、広角レンズ、標準レンズ、望遠レンズがある。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズ部150がデジタルカメラ100側と通信を行う為の通信端子である。レンズ部150は、この通信端子6,10を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り102の制御を行い、AF駆動回路3を介して、レンズ103の位置を変位させることで焦点を合わせる。シャッター101は絞り機能を備えるシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
 画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
 A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やファインダー内液晶16に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
 また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28やファインダー内液晶16に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28やファインダー内液晶16により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、スルー画像表示(ライブビュー画像表示)を行う。ファインダー内液晶16は、表示部28と同等の処理を行うことで、電子ビューファインダとして機能する。なお、ファインダー内液晶16は、電子ビューファインダでなくてもよく、光学ファインダーであってもよい。光学ファインダの場合には、ファインダー光路上のフォーカシングスクリーンの近くに表示面を配置し、フォーカシングスクリーン上の被写体光学像とファインダー内液晶とのそれぞれの表示を一度に確認できるようにする。
 不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。
 システムメモリ52には、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う(表示制御可能)。
 モード切替スイッチ60やシャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、インターバル撮影モード、再生モード、メニュー画面等のいずれかに切り替える。
 第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
 第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
 操作部70の各操作部材は、表示部28やファインダー内液晶16等に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28等に表示される。利用者は、表示部28等に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
 電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。
 電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。
 接近センサ75は物体がデジタルカメラ100のファインダ77に近づいたかどうかを検知するためのセンサである。物体の接近を非検知のときは表示部28に表示を行い、物体の接近を検知すると表示部28からファインダー内液晶16に表示先を切り替えることなどに用いることができる。
 なお、操作部70の一つとして、表示部28に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、あたかもユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。システム制御部50はタッチパネル70aへの以下の操作。あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
 タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
 これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。またタッチパネル70a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
 本実施形態におけるAFモードについて説明をする。AFモードでは、ワンショットAFとサーボAFとからモードを選択可能である。ワンショットAFでは、選択したAF位置にシャッターボタン61を半押ししたことに応じて合焦処理が実行される。ワンショットAFでは、止まっている被写体に対して合焦させるのに適している。サーボAFでは、選択された被写体を追尾し、シャッターボタン61を半押ししている間、被写体にピントを合わせ続ける。サーボAFは動いている被写体を撮影するのに適している。サーボAFの対象となる被写体は、ユーザが選択してなくても自動の設定にすれば検出された被写体(例えば人物の顔)を追尾することができる。
 また、ワンショットAFでもサーボAFでも、AF位置、AF被写体を選択するときにはライブビュー画像の表示される表示部28上へのタッチ操作をすれば、タッチパネル70aがタッチ操作を検出することで選択可能となる。もしくは、操作部70の操作部材を用いても選択可能となる。本実施形態では測距点として図5Hに例示する測距点aからtまでがあるものとして説明をするが、測距点の数は一例であり45点や100点以上でもよい。
 次に、図3、図4のフローチャートを用いて本実施形態における撮影処理と表示処理について説明をする。以下の実施形態においては表示部28にライブビュー画像が表示されている場合について説明をするが、本発明は、ファインダー内液晶16にライブビュー画像が表示される場合にも適用可能である。
 図3は本実施形態における撮影処理を示しており、デジタルカメラ100に電源が入り撮影モードに入ると開始される。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。
 S301では、システム制御部50は、ユーザがAFモードを変更する操作をしたか否かを判定する。AFモードを変更する操作がされたと判定された場合は、S302に進み、そうでない場合は、S303へ進む。
 S302では、システム制御部50は、S301のユーザの操作に基づき、AFモードを変更する。例えば、ワンショットAFからサーボAFに変更された場合は、メモリ32に記録する。
 S303では、システム制御部50は、現在設定されているAFモードがサーボAFであるか否かを判定する。サーボAFであると判定した場合は、S304へ進み、そうでない場合は、S310へ進む。
 S304では、システム制御部50は、ユーザから被写体の選択がされたか否かを判定する。被写体の選択がされたと判定した場合には、S305へ進み、そうでない場合は、S301へ戻る。なお、上述したようサーボAFにおいて被写体をユーザが選択をしなくても、自動で人物の顔を検出してサーボAFを行う顔+追尾優先AFが設定されている場合には、S304の判定を行わずに、顔を検出し、S305へ進む。被写体が既に選択されている場合には、S306に進む。
 S305では、システム制御部50は、S304において選択された被写体を追尾する書影を開始する。なお、既に追尾を開始している場合には、S304、S305の処理は行わずにS306へ進む。
 S306では、システム制御部50は、追尾している被写体に対して合焦処理を実行する。なお、上述したシャッターボタン61の半押しで行われる合焦処理よりは、簡易的に合焦処理を行う。
 S307では、システム制御部50は、S306において行われた合焦処理においてどこに合焦がされたのかを示す合焦情報を取得する。すなわち、図5A~図5Fに示すようなライブビュー画像において、被写体Aと被写体Bのうち、被写体Aが選択されたとする。被写体Aは扇風機を示しており、中心部は移動しないが羽の部分は回転により位置が移動する。図5A、図5C、図5Eにおける被写体Aと、図5B、図5D、図5Fにおける被写体Aとは撮影のタイミングが異なり、羽の位置が移動している。このとき、図5Aにおいて直前のS306の処理において合焦されたと検出された位置に合焦枠501~507、510が表示される。図5Aにおいて合焦枠が表示されていない部分(領域512~515)は合焦していない部分を示す。なお、領域512~515は領域を示すための表示であって、ライブビュー画面上に表示がされるわけではない。また、測距点aからtのうち、合焦した位置を合焦位置1~Nとして、測距点と対応づけてメモリ32に記録をする。もしくは、測距点のそれぞれに合焦フラグを立ててもよい。
 S308では、システム制御部50は、表示処理を行う。表示処理については図4A、図4Bを用いて後述する。S308の処理は、表示部28の表示フレームの更新に合わせてS306、S307の処理を行うことを実行してもよいし、S306、S307の処理が行われるたびに実行してもよい。
 S309では、システム制御部50は、撮影処理を終了するか否かを判定する。撮影処理は、電源のOFF、再生モードへの切り替え、メニュー画面の表示によって終了する。撮影処理を終了すると判定した場合は、終了し、そうでない場合はS313へ進む。
 S310からS312の処理はワンショットAFの処理である。
 S310では、システム制御部50は、AF位置選択がされたか否かを判定する。AF位置が選択されたと判定した場合は、S311へ進み、そうでない場合は、S310の処理を繰り返す。
 S311では、システム制御部50は、S310で選択された位置を示すAF枠を透過度0%でライブビュー画像に重畳して、表示部28に表示する。図5Gは、ワンショットFが設定されている場合のAF枠の表示例を示している。AF枠511はユーザに選択されたAF位置を示している。
 S312では、システム制御部50は、S310で選択されたAF位置に基づいて合焦処理を実行する。S312における合焦処理は、S306と同様に上述したシャッターボタン61の半押しで行われる合焦処理よりは、簡易的に合焦処理を行う。
 S313では、システム制御部50は、シャッターボタン61の半押しによって、撮影準備指示がされたか否かを判定する。シャッターボタン61の半押しがされたと判定した場合は、S314へ進み、そうでない場合は、S318へ進む。
 S314では、システム制御部50は、合焦処理を行う。
 S315では、システム制御部50は、S314で合焦した位置にAF枠を透過度0%でライブビュー画像に重畳して、表示部28に表示する。S315では、サーボAFの場合には図5A、図5Bのように、ワンショットAFの場合には図5GのようにAF枠が表示される。S313でYesと判定され、合焦処理が行われた場合には、S311や後述するS404、S453とは異なる色でAF枠を表示してもよい。ただし、合焦したとされた位置を示すAF枠は同じ表示形態で表示される。
 S316では、システム制御部50は、シャッターボタン61の全押しによって、撮影指示がされたか否かを判定する。シャッターボタン61の全押しがされたと判定した場合は、S317へ進み、そうでない場合は、S313に戻る。
 S317では、システム制御部50は、撮影処理を行う。
 S318では、システム制御部50は、S303と同じ判定をし、Yesの場合は、S304へ進み、Noの場合は、S310へ進む。
 次に、図4A、図4Bを用いて本実施形態における表示処理について説明をする。図4の処理は、連続的に合焦している測距点に対して合焦枠を通常の状態(透過度0%)で表示し、連続的ではないが現在合焦している測距点に対して合焦枠を通常の状態よりも目立たない表示形態(透過度30%)で表示するための処理である。図4の処理は、図3のS308に進むと開始される。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。
 S401では、システム制御部50は、合焦位置n(合焦位置1~Nに含まれる位置)は前回合焦していたか否かを判定する。つまり、前回の合焦枠を表示する処理(前回取得した合焦位置を示す情報)においても、合焦していたと判定されていたかを判定する。言い換えると、合焦位置nは2回連続合焦していると判定された合焦位置か否かを判定する。前回合焦していたか否かは、後述する前回合焦フラグがONか否かで判定をすることができる。合焦位置nが前回も合焦していたと判定した場合は、S402へ進み、そうでない場合は、S403へ進む。つまり、2回以上連続で合焦していた場合には、S403へ進み、前回は合焦していないが今回は合焦している場合にはS403へ進む。
 S402では、システム制御部50は、合焦位置nにおいてAF枠を透過度0%でライブビュー画像上に重畳して、表示部28に表示する。図5Cにおいては、AF枠503、505、507が透過度0%で表示されるAF枠を示している。また、図5Dにおいては、AF枠503、505、507が透過度0%で表示されるAF枠を示している。
 S403では、システム制御部50は、合焦位置nにおいてAF枠を透過度30%でライブビュー画像に重畳して、表示部28に表示する。図5Cにおいては、AF枠501a、502a、504a、510a、506aが透過度30%で表示されるAF枠を示している。図5Dにおいては、AF枠501a、509a、508a、504a、506aが透過度30%で表示されるAF枠を示している。
 S404では、システム制御部50は、全ての合焦位置1~Nに対してS402またはS403の表示処理をしたか否かを判定する。全ての合焦位置1~Nに対して表示処理をしたと判定した場合には、S405へ進み、そうでない場合は、S401へ戻る。
 S405では、システム制御部50は、直前の図3のS307で取得した合焦位置1~Nに対して前回合焦フラグをONにし、メモリ32に記録する。前回合焦フラグとは、前回のS307における判定において合焦していたかを示すものである。このフラグは、S401のように、次の合焦枠を表示する処理(次の表示フレーム)において、使用される。
 S406では、システム制御部50は、合焦していない非合焦位置に対して前回合焦フラグをOFFにする。
 以上、説明した実施形態によれば、AF枠が表示される際のちらつきを低減することができる。これにより、ユーザのライブビュー画像の視認性が向上する。ライブビュー画像の視認性が向上すると、AF枠の位置を把握しつつも、被写体の様子がより分かりやすくなり撮影に集中することができるようになる。図5A、図5Bのように合焦した位置の全てに透過度0%のAF枠を表示すると、AF枠502、508、509、510が表示されたり、非表示になったりする。このように、表示/非表示が頻繁に切り替わると、ユーザはちらつきを感じる。図5C、図5Dのように連続的に合焦した位置では透過度0%のAF枠を表示し、そうでないAF枠は透過度を30%で透過度0%よりも目立たないように表示をする。これにより、いくつかのAF枠が表示/非表示を繰り返しても、ちらつきを低減することができる。また、ユーザは安定的に合焦している位置がどこなのかを把握することができる。
 本実施形態を言い換えると、S307においてN回目の表示で合焦しているとされた2つの位置のうち、第1の位置は直前のN-1回目の表示の際に合焦しているとされ、第2の位置はN-1回目の表示の際に合焦していないとされた場合は以下のようになる。つまり、第1の位置ではN回目の表示で、透過度が0%の表示となり、第2の位置はN回目の表示で透過度が30%の表示になり、同じ合焦位置であってもそれぞれの表示形態が異なるようになる。
 また、同じ測距点であっても、N-2回目に合焦していないとされ、N-1回目に合焦しているとされた場合は透過度30%で表示されるが、続いてN回目にも合焦しているとされた場合には透過度0%で表示がされるようになる。
 次に図4Bを用いて図4Aの表示処理の変形例を説明する。図4Aでは2回連続で合焦したら透過度0%で表示することを説明したが、図4Bでは連続4回以上で合焦したら透過度0%で表示をする例を説明する。図4Bのフローチャートは、以下で説明すること以外は図4Aと同様である。図4の処理は、図3のS308に進むと開始される。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。
 S451では、システム制御部50は、合焦位置n(合焦位置1~Nに含まれる位置)は連続合焦回数Aが4回以上か否かを判定する。なお、S451において判定をする連続合焦回数Aの閾値は4回でなくても3回でも5回でもよい(所定回数以上とする)。合焦位置nの連続合焦回数Aが4回以上であると判定した場合は、S452へ進み、そうでない場合は、S453へ進む。連続合焦回数Aはメモリ32に記録されている。
 S452では、システム制御部50は、S402と同様の処理をする。
 S453では、システム制御部50は、S403と同様の処理をする。
 S454では、システム制御部50は、S404と同様の判定を行い、Yesの場合は、S455へ進み、Noの場合は、S451へ戻る。
 S455では、システム制御部50は、合焦位置1~Nに対して連続合焦回数A=A+1にしてメモリ32に記録する。
 S456では、システム制御部50は、非合焦位置に対してA=0としてメモリ32に記録する。
 以上、説明した変形によれば、AF枠が表示される際のちらつきを低減することができる。これにより、ユーザのライブビュー画像の視認性が向上する。また、図4Aよりも多くの回数連続的に合焦しないと透過度0%で表示がされないので、ちらつきがより目立ちにくくなる。
 なお、図4Aのように2回連続で合焦したら透過度0%のAF枠を表示するか、図4Bのように4回以上連続で合焦したら透過度0%のAF枠を表示するかは、被写体の動きに応じて変更してもよい。また、動きの多い被写体であればS451で判定する閾値を大きくしてもよい。さらに、図4Bの場合には、合焦した連続回数に応じて徐々に透過度を下げていってもよい。例えば、2回連続で透過度30%、3回連続で透過度10%、4回連続で透過度0%としてもよい。
 さらに、図4A、図4Bにおいて、被写体が以下の被写体であればS401、S451の判定を行わずに透過度0%で表示をすることも有用である。例えば所定サイズ以上(表示部28の半分以上や3分の1以上の面積で表示されている)の人物の顔、動物、瞳である。所定サイズ以上の人物の顔である場合には、その人物を中心として撮影を行っている可能性が高い。よって、多少ちらついたとしてもその人物の顔に合焦していることを確認できた方がよい。瞳の場合も同様である。また、動物の場合にはよく動き回るので、その動物のどの位置に合焦しているか、というよりも、その動物に合焦できていることを確認できた方がよい可能性がある。これらの被写体の検出は、システム制御部50において撮影された画像から被写体の種類を検出する。
 なお、AF枠の表示形態の変更の仕方は透過度を上げるだけでなく、図5E、図5Fのように、AF枠の線を細く表示するようにしてもよい。図5Eでは、AF枠501b、502b、504b、510b、506b、図5Fでは、AF枠501b、508b、509b、504b、506bが通常のAF枠(503、505、507)よりも細い線で表示されている。つまり、ライブビュー画像に重畳して表示される面積が小さくなっている。これにより、表示/非表示を繰り返してもちらつきを低減することができる。
 上述の実施形態においては、連続的に合焦していない測距点については、透過度を上げる、もしくは線を細くしてAF枠を表示することを説明したが、表示形態はこれに限らずライブビュー画像との重畳する領域が小さい、もしくはライブビュー画像の視認性がより高くなる(ライブビュー画像の見えている領域が大きくなったり、より目立たない)ようなAF枠の表示形態であればよい。つまり、連続的に合焦している測距点を実線、そうでない測距点を点線で表示したり、連続的に合焦している測距点を赤色、そうでない測距点を黄色(より視認性の低い色)で表示したりしてもよい。さらには、連続的に合焦している測距点を、そうでない測距点よりも高い輝度で表示をしてもよい。
 また、上述の実施形態は、測距点の数が所定数以上の場合に行い、そうでない場合には連続的に合焦していなくても表示形態を変えなくてもよい。測距点の数が多いほど、より細かく合焦状況を把握することができるが、一方で被写体が動いた場合には合焦状況が頻繁に変わるためちらつきがより目立つようになる。測距点が多いほど、小さなAF枠がついたり消えたりするので、ちらつきが目立つが本実施形態によればちらつきを低減することができる。
 なお、上述の実施形態は、測距点に対して連続して合焦しているか否かに応じてAF枠の表示形態を制御することを説明したが、表示形態を変える条件はこれに限らない。例えば、単位時間内において合焦する頻度(合焦頻度)に応じて、AF枠の表示形態を制御してもよい。合焦頻度が閾値よりも低い場合に、合焦頻度が閾値以上の測距点よりも、AF枠の透過度を上げる、もしくは、AF枠の線を細くするものであってもよい。合焦頻度とAF枠の表示形態との関係は、上記に限らず、複数の閾値を用いて合焦頻度に応じて段階的にAF枠の表示形態を変えるものであってもよい。また、合焦頻度に応じて連続的にAF枠の透過度やAF枠の線の細さを変更するものであってもよい。
 なお、システム制御部50が行うものとして説明した上述の各種の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
 また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
 また、上述した実施形態においては、本発明をデジタルカメラ100に適用した場合を例にして説明したが、これはこの例に限定されず、ライブビュー画像に重畳してAF枠を表示することができるような表示制御装置であれば適用可能である。すなわち、本発明は携帯電話端末や携帯型の画像ビューワ、ファインダーを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。
 (他の実施形態)
 本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2020年1月29日提出の日本国特許出願特願2020-012905を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (17)

  1.  ライブビュー画像における合焦位置に関する情報を取得する取得手段と、
     前記取得手段により取得された情報に基づき、前記合焦位置を示すアイテムを前記ライブビュー画像上に表示するように表示制御可能な表示制御手段と、を有し、
     前記表示制御手段は、現在合焦している合焦位置のうち、連続的に合焦している第1の合焦位置に表示する第1のアイテムは、少なくとも前回は合焦していない第2の合焦位置に表示する第2のアイテムよりも視認性の高い表示形態となるように制御することを特徴とする表示制御装置。
  2.  前記第1の合焦位置は、前記取得手段が前記情報を前回取得した際に、合焦していたとされた位置であり、前記第2の合焦位置は、前記取得手段が前記情報を前回取得した際に、合焦していないとされた位置であることを特徴とする請求項1に記載の表示制御装置。
  3.  連続的に合焦している位置とは、所定の回数以上、連続して合焦している位置であることを特徴とする請求項1または2に記載の表示制御装置。
  4.  前記第2のアイテムは前記第1のアイテムよりも、透過度が高い、線が細い、輝度が低い、のいずれかの表示形態で表示されることを特徴とする請求項1乃至3のいずれか1項に記載の表示制御装置。
  5.  前記表示制御手段は、連続的な合焦回数に応じて前記第1のアイテムの表示形態を変えるように制御することを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
  6.  選択された被写体を追尾して合焦処理を行うサーボAFを設定可能な設定手段をさらに有し、
     前記表示制御手段は、前記設定手段により前記サーボAFが設定されている場合に、前記第1の合焦位置に表示する前記第1のアイテムと、前記第2の合焦位置に表示する前記第2のアイテムの表示形態が異なるように制御することを特徴とする請求項1乃至5のいずれか1項に記載の表示制御装置。
  7.  選択された被写体を追尾して合焦処理を行うサーボAFを設定可能な設定手段をさらに有し、
     前記表示制御手段は、前記設定手段により前記サーボAFが設定されている場合に、連続的な合焦回数に応じて前記第1のアイテムの表示形態を変えるように制御することを特徴とする請求項1乃至6のいずれか1項に記載の表示制御装置。
  8.  第N回において前記取得手段により取得された情報に基づく合焦位置にはフラグがつけられ、
     前記表示制御手段は、前記第N回の直後の第N+1回において前記取得手段により取得された情報に基づく合焦位置のうち、前記フラグのついている合焦位置に前記第1のアイテムを表示するように制御することを特徴とする請求項1乃至7のいずれか1項に記載の表示制御装置。
  9.  第N回において前記取得手段により取得された情報に基づく合焦位置が、前記第N回の直後の第N+1回においても合焦している場合には、前記合焦位置に対する合焦回数がインクリメントされ、
     前記表示制御手段は、前記合焦回数が所定以上になったことに応じて前記合焦位置に前記第1のアイテムを表示するように制御することを特徴とする請求項1乃至7のいずれか1項に記載の表示制御装置。
  10.  合焦する被写体を選択可能な選択手段とをさらに有し、
     前記表示制御手段は、前記選択手段が、人物の顔、動物、瞳のうちいずれかを選択した場合には、前記合焦位置を示すアイテムを連続的に合焦したか否かによらない表示形態に制御することを特徴とする請求項1乃至9のいずれか1項に記載の表示制御装置。
  11.  ライブビュー画像における合焦位置に関する情報を取得する取得手段と、
     前記取得手段により取得された情報に基づき、前記合焦位置を示すアイテムを前記ライブビュー画像上に表示するように表示制御可能な表示制御手段と、を有し、
     前記表示制御手段は、前記取得手段により取得された情報より、連続的な合焦回数に応じて前記アイテムの表示形態を変えるように制御することを特徴とする表示制御装置。
  12.  ライブビュー画像における合焦位置に関する情報を取得する取得手段と、
     前記取得手段により取得された情報に基づき、前記合焦位置を示すアイテムを前記ライブビュー画像上に表示するように表示制御可能な表示制御手段と、を有し、
     前記表示制御手段は、合焦頻度に応じて前記アイテムの表示形態を変えるように制御することを特徴とする表示制御装置。
  13.  ライブビュー画像における合焦位置に関する情報を取得する取得ステップと、
     前記取得ステップにおいて取得された情報に基づき、前記合焦位置を示すアイテムを前記ライブビュー画像上に表示するように表示制御する表示制御ステップとを有し、
     前記表示制御ステップにおいては、現在合焦している合焦位置のうち、連続的に合焦している第1の合焦位置に表示する第1のアイテムは、少なくとも前回は合焦していない第2の合焦位置に表示する第2のアイテムよりも視認性の高い表示形態となるように制御することを特徴とする表示制御装置の制御方法。
  14.  ライブビュー画像における合焦位置に関する情報を取得する取得ステップと、
     前記取得手段により取得された情報に基づき、前記合焦位置を示すアイテムを前記ライブビュー画像上に表示するように表示制御可能な表示制御ステップとを有し、
     前記表示制御ステップにおいて、前記取得ステップにおいて取得された情報より、連続的な合焦回数に応じて前記アイテムの表示形態を変えるように制御することを特徴とする表示制御装置の制御方法。
  15.  ライブビュー画像における合焦位置に関する情報を取得する取得ステップと、
     前記取得手段により取得された情報に基づき、前記合焦位置を示すアイテムを前記ライブビュー画像上に表示するように表示制御可能な表示制御ステップとを有し、
     前記表示制御ステップにおいて、合焦頻度に応じて前記アイテムの表示形態を変えるように制御することを特徴とする表示制御装置の制御方法。
  16.  コンピュータを、請求項1乃至12のいずれか1項に記載された表示制御装置の各手段として機能させるためのプログラム。
  17.  コンピュータを、請求項1乃至12のいずれか1項に記載された表示制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
PCT/JP2021/000616 2020-01-29 2021-01-12 表示制御装置およびその制御方法 WO2021153205A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180011781.2A CN115039026A (zh) 2020-01-29 2021-01-12 显示控制设备和控制方法
US17/815,145 US20220368838A1 (en) 2020-01-29 2022-07-26 Display control apparatus and control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-012905 2020-01-29
JP2020012905A JP7423325B2 (ja) 2020-01-29 2020-01-29 表示制御装置およびその制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/815,145 Continuation US20220368838A1 (en) 2020-01-29 2022-07-26 Display control apparatus and control method

Publications (1)

Publication Number Publication Date
WO2021153205A1 true WO2021153205A1 (ja) 2021-08-05

Family

ID=77078793

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/000616 WO2021153205A1 (ja) 2020-01-29 2021-01-12 表示制御装置およびその制御方法

Country Status (4)

Country Link
US (1) US20220368838A1 (ja)
JP (1) JP7423325B2 (ja)
CN (1) CN115039026A (ja)
WO (1) WO2021153205A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037043A (ja) * 2007-08-02 2009-02-19 Nikon Corp 表示装置及びそれを備えたカメラ
JP2014207622A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 対象画像検出デバイス、その制御方法および制御プログラム、記録媒体、並びにデジタルカメラ
JP2016167088A (ja) * 2016-05-02 2016-09-15 キヤノン株式会社 撮像装置及びその制御方法
JP2019020508A (ja) * 2017-07-13 2019-02-07 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040036792A1 (en) * 2002-08-23 2004-02-26 Chikatsu Moriya Camera system and focus information display apparatus
JP4929630B2 (ja) * 2005-07-06 2012-05-09 ソニー株式会社 撮像装置、制御方法、およびプログラム
JP4983516B2 (ja) * 2007-09-28 2012-07-25 カシオ計算機株式会社 撮像装置、合焦状態表示方法、合焦状態表示プログラム
JP5333888B2 (ja) * 2008-02-22 2013-11-06 カシオ計算機株式会社 撮像装置及びそのプログラム
JP5827491B2 (ja) * 2011-04-28 2015-12-02 キヤノン株式会社 撮像装置、及び撮像装置の制御方法
US10491828B2 (en) * 2015-04-03 2019-11-26 Canon Kabushiki Kaisha Display control apparatus and control method of the same
JP2018054762A (ja) * 2016-09-27 2018-04-05 キヤノン株式会社 撮像制御装置及びその制御方法、プログラム、並びに記録媒体
JP6752681B2 (ja) * 2016-10-19 2020-09-09 キヤノン株式会社 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037043A (ja) * 2007-08-02 2009-02-19 Nikon Corp 表示装置及びそれを備えたカメラ
JP2014207622A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 対象画像検出デバイス、その制御方法および制御プログラム、記録媒体、並びにデジタルカメラ
JP2016167088A (ja) * 2016-05-02 2016-09-15 キヤノン株式会社 撮像装置及びその制御方法
JP2019020508A (ja) * 2017-07-13 2019-02-07 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム

Also Published As

Publication number Publication date
US20220368838A1 (en) 2022-11-17
JP7423325B2 (ja) 2024-01-29
CN115039026A (zh) 2022-09-09
JP2021117469A (ja) 2021-08-10

Similar Documents

Publication Publication Date Title
US10222903B2 (en) Display control apparatus and control method thereof
US10088987B2 (en) Movement of a menu cursor in a multi-page menu
US20130250157A1 (en) Imaging apparatus and control method thereof
JP6806572B2 (ja) 撮像制御装置、撮像装置、制御方法、プログラム、及び記憶媒体
JP6833505B2 (ja) 撮像制御装置及びその制御方法
JP2018125612A (ja) 撮像装置及びその制御方法
JP7009096B2 (ja) 電子機器およびその制御方法
WO2018021165A4 (ja) 電子機器およびその制御方法
JP2017123515A (ja) 電子機器およびその制御方法
JP6833535B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
US9992405B2 (en) Image capture control apparatus and control method of the same
CN108401103B (zh) 电子设备、电子设备的控制方法和存储介质
US9294678B2 (en) Display control apparatus and control method for display control apparatus
US20170199621A1 (en) Display control apparatus and control method thereof
JP7049179B2 (ja) 撮像制御装置およびその制御方法、プログラム並びに記憶媒体
JP7475187B2 (ja) 表示制御装置および方法、プログラム、記憶媒体
JP2018125802A (ja) 撮像装置、その制御方法及びプログラム
WO2021153205A1 (ja) 表示制御装置およびその制御方法
JP7377088B2 (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体
JP7225004B2 (ja) 電子機器及びその制御方法
JP7005261B2 (ja) 表示制御装置およびその制御方法
JP6779777B2 (ja) 撮像制御装置およびその制御方法
WO2023007904A1 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2024064713A (ja) 電子機器およびその制御方法
JP2017004343A (ja) 表示制御装置、その制御方法、および撮像装置、プログラム、並びに記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21746960

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21746960

Country of ref document: EP

Kind code of ref document: A1