WO2020059152A1 - 制御装置、撮像装置、情報処理装置、および制御方法 - Google Patents

制御装置、撮像装置、情報処理装置、および制御方法 Download PDF

Info

Publication number
WO2020059152A1
WO2020059152A1 PCT/JP2018/035228 JP2018035228W WO2020059152A1 WO 2020059152 A1 WO2020059152 A1 WO 2020059152A1 JP 2018035228 W JP2018035228 W JP 2018035228W WO 2020059152 A1 WO2020059152 A1 WO 2020059152A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
posture
optical member
imaging device
imaging
Prior art date
Application number
PCT/JP2018/035228
Other languages
English (en)
French (fr)
Inventor
一秀 横田
由樹 遠藤
晋介 戸田
和裕 西田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/056,768 priority Critical patent/US20210208474A1/en
Priority to PCT/JP2018/035228 priority patent/WO2020059152A1/ja
Publication of WO2020059152A1 publication Critical patent/WO2020059152A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles

Definitions

  • the present disclosure relates to a control device, an imaging device, an information processing device, and a control method.
  • An imaging apparatus that generates an imaging signal by imaging an object using an autofocus function has been widely used.
  • portable information processing apparatuses equipped with such imaging apparatuses have become widespread.
  • These portable information processing apparatuses are equipped with an actuator for moving an optical member (focus lens) in an optical axis direction in order to realize an autofocus function.
  • the focus lens is moved by a skip operation, a reverse scan operation, and a final adjustment operation, so that the scan target position (target point) is moved only by moving the focus lens in a direction opposite to the scan operation.
  • a technique capable of moving a focus lens has been disclosed. As a result, it is possible to reduce the time required for the focus control and improve the focusing accuracy.
  • Patent Document 1 it may be difficult to appropriately adjust the focus of the imaging device. More specifically, when the posture of the imaging device is not horizontal but is, for example, vertically upward or vertically downward, an optical member such as a focus lens is moved to a designated position under the influence of gravity. In some cases, it may be difficult to appropriately adjust the focus of the imaging device due to the shift from the vertical direction.
  • the present disclosure has been made in view of the above circumstances, and provides a new and improved control device, an imaging device, an information processing device, and a control method that can more appropriately adjust the focus of an imaging device. I will provide a.
  • an acquisition unit that acquires posture information that is information on a first posture of an imaging device, and a focus that adjusts a focus of the imaging device by controlling driving of an optical member based on the posture information.
  • a controller comprising: an adjustment unit.
  • an optical member that captures light from a subject, an imaging unit that generates an imaging signal using light incident through the optical member, and posture information that is information regarding a first posture of the imaging device. And a drive control unit that controls the drive of the optical member based on control information generated to adjust the focus based on the imaging device.
  • the control device includes an acquisition device, the control device includes: an acquisition unit configured to acquire posture information that is information on a first posture of the imaging device; A focus adjustment unit that adjusts the focus of the imaging device by generating control information for controlling the driving of the optical member by using the optical member that captures light from a subject; An information processing apparatus is provided, comprising: an imaging unit that generates an imaging signal using light incident through a member; and a drive control unit that controls driving of the optical member based on the control information.
  • the focus of the imaging device is adjusted by acquiring posture information that is information relating to the first posture of the imaging device, and controlling driving of an optical member based on the posture information.
  • a computer-implemented control method comprising:
  • FIG. 3 is a diagram illustrating a state in which the position of an optical member (such as a focus lens) changes depending on the attitude of an imaging device.
  • FIG. 9 is a diagram illustrating that contact occurs when the position of an optical member (such as a focus lens) changes according to the attitude of the imaging device.
  • FIG. 9 is a diagram illustrating that contact occurs when the position of an optical member (such as a focus lens) changes according to the attitude of the imaging device.
  • FIG. 13 is a diagram illustrating that the optical member is appropriately driven by correcting a control value according to the present disclosure.
  • FIG. 2 is a block diagram illustrating a functional configuration example of each device according to the embodiment.
  • 5 is a flowchart illustrating a flow of a process performed by each device according to the embodiment.
  • FIG. 9 is a flowchart illustrating a flow of processing by each device according to a first modification.
  • FIG. 2 is a diagram illustrating an outline of an example of a hardware configuration of the imaging apparatus 100 according to the embodiment.
  • FIG. 2 is a diagram illustrating an outline of a shape of the imaging device 100 according to the embodiment.
  • FIG. 2 is a block diagram illustrating a functional configuration example of an information processing device 300 according to the embodiment.
  • FIG. 2 is a block diagram illustrating a hardware configuration example of an information processing apparatus 300 according to the embodiment.
  • imaging devices that generate an imaging signal by capturing an image of a subject using an autofocus function have become widespread.
  • the focus of the imaging device may be appropriately adjusted. Adjustment was sometimes difficult.
  • FIG. 1 is a diagram illustrating a state in which the position of an optical member (such as a focus lens) changes depending on the attitude of the imaging apparatus.
  • FIG. 1 shows a range in which the optical member is driven to search for a focal point (a position of the optical member at which the focusing is realized) in order to realize the autofocus function (in FIG. 1, a “focusing point search range”). Notation) is shown for each of the cases where the imaging device is oriented in the horizontal direction, the vertical upward direction, and the vertical downward direction. When the imaging device is oriented in the horizontal direction, as shown in “1. Horizontal direction” in FIG. 1, the imaging device performs the position of the optical member when focused on infinity (hereinafter, “infinity alignment”).
  • a range including the focal point) and the position of the optical member when the focal point is in focus at a close distance are defined as a search range of the focal point. That is, the imaging apparatus searches for a peak that is equal to or greater than a predetermined value for the contrast value while driving the optical member (such as a focus lens) in a range including the infinity focal point to the closest in-focus point, The point where the peak is detected is treated as the focal point.
  • the imaging device can move the optical member to the lower limit of the search range of the focal point by specifying the control value “A” as the control information.
  • the control value “B” the optical member can be moved to the upper limit of the search range of the focal point.
  • the focal point when the control values “A” and “B” are designated as the control information. Is shifted toward the infinity focal point due to the weight of the optical member or the like.
  • this “shift” is referred to as “posture difference”. Due to the occurrence of the posture difference, for example, even if the contrast value peaks at the closest focal point, the imaging device may not be able to drive the optical member to the closest focal point. It may not be possible.
  • the imaging apparatus when the imaging apparatus is facing downward in the vertical direction, as shown in “3. Vertical downward direction” in FIG. 1, the focus point when the control values “A” and “B” are specified as the control information is set.
  • the search range is shifted toward the closest focal point due to the weight of the optical member or the like (in other words, a posture difference occurs). Even if the contrast value peaks at, for example, the infinity focal point due to the occurrence of the posture difference, the imaging device may not be able to drive the optical member to the infinity focal point, so the focal point is appropriately adjusted. May not be possible.
  • the range in which the optical member can be driven tends to be narrower than in the past.
  • the limit point in one direction in which the optical member can be driven (the direction toward the focal point at infinity)
  • the limit point in the opposite direction (the direction toward the closest focal point)
  • the distance between the first limit point and the infinity focal point, and the distance between the second limit point and the closest focal point may be shorter.
  • the disclosing party of the present case has created the technology according to the present disclosure.
  • the focus of the imaging device 100 is adjusted by acquiring posture information that is information relating to the first posture of the imaging device 100 and controlling the driving of the optical member 130 based on the posture information.
  • the “first posture” indicates the posture of the imaging device 100 at the time when the focus of the imaging device 100 is adjusted.
  • the function of the present disclosure will be described more specifically.
  • the position of the optical member 130 in the first posture and the imaging device 100 are oriented in the horizontal direction.
  • the difference (posture difference) from the position of the optical member 130 at that time is calculated.
  • the present disclosure controls the drive of the optical member 130 by correcting the control value based on the calculated attitude difference. For example, when the imaging device 100 is facing vertically upward, as shown in “2. Vertically upward” in FIG. 4, the present disclosure corrects the control value “A” to “A + ⁇ ”, and By correcting “B” to “B + ⁇ ”, the posture difference is eliminated.
  • the present disclosure corrects the control value “A” to “A- ⁇ ” and performs control as shown in “3. By correcting the value “B” to “B ⁇ ”, the posture difference is eliminated. Thereby, even when the attitude of the imaging device 100 changes in various ways, the present disclosure can adjust the focus more appropriately in accordance with the attitude of the imaging device 100.
  • the correction amounts “ ⁇ ” and “ ⁇ ” of the control value in FIG. 4 are merely examples, and may be changed as appropriate according to the situation. More specifically, the correction amounts of the control values corresponding to the lower limit and the upper limit of the in-focus point search range may be the same or different. Of course, the correction amount of the control value is changed in accordance with the posture difference (therefore, the correction of the control value corresponding to the lower limit and the upper limit of the in-focus point search range in the vertical upward direction and the vertical downward direction, respectively). The absolute value of the quantity need not be the same value of " ⁇ " and " ⁇ ").
  • an embodiment of the present disclosure will be described in detail.
  • FIG. 5 is a block diagram illustrating a configuration example of the imaging device 100 and the control device 200 according to the present embodiment. Note that FIG. 5 illustrates a main configuration example of the imaging device 100 and the control device 200, and a part of the configuration is omitted.
  • the imaging device 100 is a device that generates an imaging signal by imaging a subject, and is, for example, a camera mounted on a portable information processing device or the like.
  • the control device 200 is a device that controls the imaging device 100, and is, for example, an IC (Integrated Circuit) chip mounted on a portable information processing device or the like. Note that the types of the imaging device 100 and the control device 200 are not particularly limited. Further, in FIG. 5, the imaging device 100 and the control device 200 are shown as separate devices, but the imaging device 100 and the control device 200 may be realized as one device (for example, the An apparatus 200 may be provided).
  • the imaging device 100 includes a drive control unit 110, a drive unit 120, an optical member 130, an imaging unit 140, a storage unit 150, and a sensor unit 160.
  • the drive control unit 110 is configured to control the drive of the optical member 130 based on control information generated to adjust the focus based on posture information that is information on the first posture of the imaging device 100. More specifically, a focus adjustment unit 220 of the control device 200, which will be described later, generates control information for adjusting the focus of the imaging device 100 based on posture information that is information on the first posture of the imaging device 100. . Then, when the control information is provided from the focus adjustment unit 220, the drive control unit 110 controls the drive of the optical unit 130 by controlling the drive by the drive unit 120 based on the control information.
  • the drive unit 120 is configured to adjust the focus of the imaging device 100 by driving a focus lens included in the optical member 130 in the optical axis direction based on control information provided from the drive control unit 110.
  • the driving unit 120 may include an electromagnetic actuator (voice coil motor) in which a pair of magnets and a pair of coils drive a housing (lens barrel) that houses the optical member 130.
  • voice coil motor voice coil motor
  • the configuration for driving the optical member 130 (particularly, the focus lens) is not limited to the voice coil motor.
  • the optical member 130 is configured to capture light from a subject and form an image of the light on an imaging unit 140 described later.
  • the optical member 130 includes optical elements such as two or more lenses including a focus lens used for adjusting the focus of the imaging device 100.
  • the number, arrangement, shape, and the like of each optical element provided by the optical member 130 are not particularly limited.
  • the imaging unit 140 is configured to generate an imaging signal using light incident through the optical member 130. More specifically, the imaging unit 140 includes a solid-state imaging device array that detects light incident through the optical member 130 and generates an imaging signal by performing photoelectric conversion.
  • the solid-state imaging device array includes, for example, a CCD (Charge Coupled Device) sensor array and a CMOS (Complementary). Metal Oxide Semiconductor) sensor array, etc., and is not necessarily limited to these.
  • the imaging unit 140 provides the generated imaging signal to the signal processing unit 230 of the control device 200.
  • the storage unit 150 is configured to store various information.
  • the storage unit 150 stores posture difference information in advance. Details of the posture difference information will be described later.
  • the storage unit 150 may store the posture information acquired from the sensor unit 160, or may store programs and parameters used in each process of the imaging device 100 and the control device 200. Note that the information stored in the storage unit 150 is not limited to these.
  • the sensor unit 160 includes various sensors, and is configured to generate at least posture information that is information on the first posture of the imaging device 100.
  • the sensor unit 160 includes a gyro sensor, and generates posture information on the first posture of the imaging device 100 using the gyro sensor.
  • the type of sensor provided by the sensor unit 160 is not particularly limited. Further, the sensor unit 160 does not necessarily have to be provided in the imaging device 100. More specifically, the sensor unit 160 may be provided in the control device 200 or another external device (not shown) as long as the sensor 160 can sense the first attitude of the imaging device 100.
  • the sensor unit 160 may be provided in the control device 200. Can be sensed in the first attitude (in other words, the attitude of the control device 200).
  • the functional configuration example of the imaging apparatus 100 has been described. Note that the above functional configuration described with reference to FIG. 5 is merely an example, and the functional configuration of the imaging device 100 is not limited to this example.
  • the imaging device 100 may include a functional configuration other than the functional configuration illustrated in FIG. 5 or may not necessarily include all of the functional configurations illustrated in FIG.
  • the functional configuration of the imaging device 100 can be flexibly deformed according to specifications and operation.
  • control device 200 includes an acquisition unit 210, a focus adjustment unit 220, and a signal processing unit 230.
  • the acquisition unit 210 is configured to acquire posture information that is information relating to the first posture of the imaging device 100. More specifically, the acquisition unit 210 acquires the posture information generated by the sensor unit 160 of the imaging device 100. Note that “acquisition” refers to not only a process in which the acquisition unit 210 acquires posture information by wire communication or wireless communication with the sensor unit 160, but also a memory in which the posture information is stored (by the storage unit 150 of the imaging device 100). Note that this also includes a process of acquiring the posture information from (may be embodied).
  • the focus adjustment unit 220 is configured to adjust the focus of the imaging device 100 by controlling the driving of the optical member 130 based on the posture information and the posture difference information.
  • the “posture difference information” refers to a difference between the position of the optical member 130 in the reference second posture and the position of the optical member 130 in the third posture different from the second posture (posture difference).
  • Information about The “second reference position” in the present embodiment is a position in which the imaging device 100 is oriented substantially horizontally, and the “third position” is a direction in which the imaging device 100 is substantially vertically upward or substantially vertically downward. It is a posture facing.
  • the second posture (the posture oriented substantially in the horizontal direction) and the third posture (the substantially vertically upward direction or the substantially vertically downward direction) are set for the plurality of imaging devices 100 (the plurality of samples).
  • the posture difference is calculated by measuring the position of the optical member 130 in the (facing posture). Then, information relating to a representative value (for example, an average value) based on the distribution of the posture differences for the plurality of imaging devices 100 is generated as posture difference information (in other words, the posture difference information is generated for the plurality of imaging devices 100). This is information obtained based on the measurement results of the above.)
  • the posture difference information is stored in the storage unit 150 of the imaging device 100 described above in advance.
  • the posture difference information may be information measured for each individual imaging device 100. For example, in the manufacturing process of the imaging device 100, the position of the optical member 130 in the second posture (the posture oriented substantially horizontally) and the third posture (the posture oriented substantially vertically upward or substantially vertically downward) is measured. By doing so, the posture difference may be calculated for each individual imaging device 100.
  • the focus adjustment unit 220 acquires the posture difference information from the storage unit 150 of the imaging device 100, and based on the posture information and the posture difference information.
  • the position of the optical member 130 in the first posture (the posture of the imaging apparatus 100 at the time when the focus is adjusted) and the position of the optical member 130 in the second posture (the posture oriented substantially in the horizontal direction) (Posture difference) is calculated.
  • the posture difference information includes, as described above, the second posture (the posture oriented substantially horizontally) and the third posture (the posture oriented substantially vertically upward or substantially vertically downward).
  • the first posture is not substantially the same as the second posture or the third posture.
  • the posture difference between the second posture and the third posture is known, the posture between the second posture and the third posture (in other words, a substantially horizontal direction, a substantially vertically upward direction, or a substantially vertically downward direction)
  • the posture difference between the second posture and the posture facing in the direction between the directions can be calculated by a continuous function (for example, a linear function). Therefore, when the first posture is not substantially the same as the second posture or the third posture, the focus adjustment unit 220 determines whether the first posture is a posture between the second posture and the third posture, and The posture difference for the two postures is calculated by solving a continuous function. Then, the focus adjustment unit 220 corrects the control value based on the calculated posture difference.
  • the focus adjustment unit 220 does not need to correct the control value.
  • the focus adjustment unit 220 directly uses the posture difference included in the posture difference information. May be used to correct the control value.
  • the focus adjustment unit 220 continues the process of generating control information including the corrected control value and providing the control information to the drive control unit 110 of the imaging device 100 until the focus adjustment ends.
  • the present disclosure provides: Since the control value can be more appropriately corrected while the amount of information to be stored in the storage unit 150 of the imaging device 100 described later is reduced, the focus of the imaging device 100 can be more appropriately adjusted.
  • the “reference second posture” related to the posture difference information does not necessarily need to be the posture in which the imaging device 100 is oriented substantially horizontally (in other words, the posture in which the imaging device 100 is oriented in an arbitrary direction). May be).
  • the “third posture” does not necessarily mean that the imaging device 100 is oriented substantially vertically upward or substantially vertically downward (in other words, any image capturing device 100 different from the second posture is different from the second posture). Orientation may be oriented).
  • the “third posture” may include each posture when the imaging device 100 faces a plurality of directions other than the substantially vertical upward direction or the substantially vertical downward direction.
  • the posture difference information includes information on the posture difference between the second posture and the third posture including various postures. Therefore, the posture difference information to be stored by the storage unit 150 of the imaging device 100 is included. Although the amount of information increases, the focus adjustment unit 220 can calculate the posture difference more easily based on the posture difference information.
  • the focus adjustment unit 220 controls the driving of the optical member 130 by open-loop control, it is not necessarily limited to this. More specifically, the focus adjustment unit 220 drives the optical member 130 by a so-called “closed loop control” that determines whether an input has reached a predetermined target value based on feedback from a predetermined sensor or the like. May be controlled.
  • the focus adjustment unit 220 A peak that is equal to or greater than a predetermined value for the contrast value is searched.
  • the focus adjustment unit 220 moves the focus to a position where the peak is detected (in other words, drives the focus lens to the position). Accordingly, the focus adjustment unit 220 can appropriately adjust the focus of the imaging device 100.
  • the signal processing unit 230 is configured to perform various processes on the image signal generated by the imaging unit 140 of the imaging device 100. More specifically, the signal processing unit 230 performs noise removal, gain adjustment, waveform shaping, A / D conversion, white balance adjustment, luminance adjustment, contrast value adjustment, sharpness (contour emphasis) adjustment, Performs color correction or blur correction. Further, when the focus is adjusted, the signal processing unit 230 obtains a contrast value by performing predetermined signal processing using the imaging signal. Note that various processes realized by the signal processing unit 230 are not limited to these.
  • control device 200 has been described above.
  • the above-described functional configuration described with reference to FIG. 5 is merely an example, and the functional configuration of control device 200 is not limited to this example.
  • the control device 200 may include a functional configuration other than the functional configuration illustrated in FIG. 5 or may not necessarily include all of the functional configurations illustrated in FIG.
  • the functional configuration of the control device 200 can be flexibly modified according to specifications and operations.
  • FIG. 6 is a flowchart illustrating an example of the flow of processing related to autofocus by each device according to the present embodiment.
  • step S1000 the acquisition unit 210 of the control device 200 acquires the posture information from the sensor unit 160 of the imaging device 100.
  • the focus adjustment unit 220 acquires the posture difference information from the storage unit 150 of the imaging device 100, and calculates a correction amount of the control value based on the posture information and the posture difference information.
  • step S1008 the focus adjustment unit 220 determines the search range of the focal point by shifting the calculated correction amount.
  • step S1012 the drive control unit 110 of the imaging device 100 moves the focus by controlling the drive by the drive unit 120 based on the control information provided from the control device 200, and the signal processing unit 230 of the control device 200 To obtain a contrast value.
  • the focus adjustment unit 220 analyzes the contrast value provided from the signal processing unit 230, and searches for a peak of a predetermined value or more for the contrast value. When a peak equal to or more than the predetermined value for the contrast value is detected (step S1016 / Yes), in step S1020, the focus adjustment unit 220 moves the focus to the position where the peak is detected (in other words, focuses on the position). By driving the lens, a series of processes is completed.
  • step S1024 If no peak equal to or greater than the predetermined contrast value is detected (step S1016 / No), in step S1024, the focus adjustment unit 220 checks whether the search of the entire search range is completed. When the search of the entire search range is not completed (step S1024 / No), the process returns to step S1012 (that is, the processes after the movement of the focus and the acquisition of the contrast value are performed again). When the search of the entire search range is completed (step S1024 / Yes), a series of processing ends. Note that, when no peak equal to or more than the predetermined value of the contrast value is detected in the entire search range, the processing illustrated in FIG. 6 may be performed again, or another predetermined processing (for example, an error notification to the operator may be performed). Implementation).
  • the focus adjustment unit 220 of the control device 200 controls the driving of the optical member 130 based on limit point information on a limit point of a range in which the optical member 130 can be driven. More specifically, the drivable range of the optical member 130 is physically limited by a stopper or the like. As shown in FIGS. 1 to 4 described above, of the limit points in the range in which the optical member 130 can be driven, the limit point in one direction in which the optical member 130 can be driven (the direction toward the infinity focal point). Is defined as a “first limit point”, and a limit point in a direction opposite to the one direction (a direction on the closest focus side) is defined as a “second limit point”. Then, limit point information regarding the first limit point and the second limit point is stored in advance in the storage unit 150 of the imaging device 100 according to the first modification.
  • the focus adjustment unit 220 calculates the drive amount of the optical member 130 that does not exceed the range in which the optical member 130 can be driven based on the first limit point and the second limit point, The driving of the optical member 130 is controlled based on the calculated driving amount. More specifically, when the focus adjustment unit 220 corrects the control value based on the posture information and the posture difference information, the optical member 130 can use the corrected control value to limit the drivable range of the optical member 130. It is determined based on the limit point information whether or not the first limit point or the second limit point is exceeded.
  • the focus adjustment unit 220 further adjusts the correction amount of the control value. This prevents the optical member 130 from exceeding the limit of the drivable range.
  • the focus adjustment unit 220 can appropriately prevent the optical member 130 from coming into contact with the member at the first limit point or the second limit point. In this case, the contact sound is recorded, and each member can be appropriately prevented from being damaged.
  • the imaging device 100 is mounted on a small device such as a portable information processing device, the possibility of contact between members increases due to a request for miniaturization. It can be said that it is particularly useful when 100 is mounted on a small device.
  • the optical member 130 cannot move as expected in a section from a certain point located before the limit point (first limit point or second limit point) to the limit point in the search range of the focal point. There is.
  • the focus adjustment unit 220 may control the driving of the optical member 130 based on the information on the point at which the optical member 130 cannot move as expected. More specifically, the focus adjustment unit 220 may further control the correction amount of the control value to control the driving of the optical member 130 so as not to exceed a point at which the optical member 130 cannot move as expected. Good.
  • the functional configuration other than the focus adjustment unit 220 and the storage unit 150 may be the same as the functional configuration according to the above-described embodiment, and a description thereof will not be repeated.
  • FIG. 7 is a flowchart illustrating an example of a flow of a process regarding autofocus performed by each device according to the first modification.
  • step S1100 the acquisition unit 210 of the control device 200 acquires the posture information from the sensor unit 160 of the imaging device 100.
  • the focus adjustment unit 220 acquires the posture difference information from the storage unit 150 of the imaging device 100, and calculates a correction amount of the control value based on the posture information and the posture difference information.
  • step S1108 the focus adjustment unit 220 acquires the limit point information from the storage unit 150 of the imaging apparatus 100, and the optical member 130 uses the corrected control value to set the limit point of the drivable range (first limit point). Or any of the second limit points) is determined based on the limit point information.
  • the focus adjustment unit 220 further adjusts the correction amount of the control value so that the optical member 130 Do not exceed the limit of the drivable range.
  • step S1116 the focus adjustment unit 220 causes the adjusted correction amount to be By shifting the distance, the search range of the focal point is determined. Subsequent processing is the same as the processing in steps S1012 to S1024 in FIG. 6 described above, and thus the description is omitted.
  • At least one of the posture difference information and the limit point information is information measured for each individual imaging device 100. More specifically, for example, in the manufacturing process of the imaging device 100, in the second posture (the posture oriented substantially horizontally) and the third posture (the posture oriented substantially vertically upward or substantially vertically downward), By measuring the position of the optical member 130, a posture difference is output for each individual imaging device 100. Further, for example, in the manufacturing process of the imaging device 100, the first limit point and the second limit point are measured for each individual imaging device 100 by actually driving the optical member 130. Thereafter, the posture difference information and the limit point information measured for each individual (or at least one of the posture difference information and the limit point information measured for each individual) are stored in the storage unit 150 of each imaging device 100.
  • the posture difference information or the limit point information may not be information measured for each individual imaging device 100.
  • the second posture the posture oriented substantially in the horizontal direction
  • the third posture the substantially vertically upward direction or the substantially vertically downward direction
  • the posture difference is calculated by measuring the position of the optical member 130 in the (facing posture).
  • the limit points the first limit point and the second limit point
  • the limit points are measured by actually driving the optical member 130.
  • the posture difference information or the limit point information may be information obtained based on the measurement results of the plurality of imaging devices 100).
  • the second modified example can be applied to any of the above-described embodiment and the first modified example.
  • the control device 200 performs the process illustrated in FIG. 6 using the posture difference information measured for each individual imaging device 100. Do.
  • the control device 200 transmits the posture difference information and the limit point information (or the limit point information) measured for each individual imaging device 100.
  • the processing shown in FIG. 7 is performed using at least one of the posture difference information and the limit point information measured for each individual.
  • control device 200 has the posture difference information based on the individual difference, The focus can be adjusted appropriately in response to the difference in the limit point information.
  • the measurement of the posture difference information or the limit point information for each individual need not be performed in the manufacturing process of the imaging device 100.
  • the imaging device 100 or the control device 200 may be provided with a separate functional configuration that can update the posture difference information or the limit point information, so that such information may be updated as needed.
  • the characteristics of the optical member 130 and the drive unit 120 may change due to aging and the like. Therefore, the posture difference information or the limit point information may be information in which the secular change is considered. For example, by predicting the aging of the posture difference information or the limit point information by a prior experiment or the like, the focus adjustment unit 220 can perform the after-aging based on the function indicating the aging and the elapsed time from the manufacturing time.
  • FIG. 8 is a diagram illustrating an outline of a hardware configuration example of the imaging apparatus 100.
  • FIG. 8 shows a coil 121, a magnet 122, a spring 123, an optical member 130 (including a focus lens), an imaging unit 140 (including a solid-state imaging element array), and a housing provided in the imaging device 100. 170, an IR cut filter 180, and a substrate 190 are shown.
  • the coil 121, the magnet 122, and the spring 123 are provided when the driving unit 120 is a voice coil motor.
  • the magnet 122 is configured to apply a magnetic field to the coil 121 arranged so as to face.
  • the drive unit 120 applies a current to the coil 121 under the control of the drive control unit 110, so that a Lorentz force is applied to the coil 121 by a magnetic field generated by the magnet 122.
  • the direction of the Lorentz force changes depending on the direction of the current flowing through the coil 121, and the magnitude of the force changes depending on the amount of current.
  • the spring 123 is elastically deformed by the Lorentz force, so that the position of the optical member 130 is changed and the focus is adjusted.
  • the housing 170 is a member that includes the components of the imaging device 100 and has a predetermined shape.
  • the IR cut filter 180 is configured to enhance color reproducibility by removing infrared light. Note that, in addition to the IR cut filter 180, for example, a low-pass filter or the like for preventing occurrence of moiré may be provided in a stage preceding the imaging unit 140.
  • the substrate 190 is configured to include a circuit that realizes the drive control unit 110 and the like.
  • the control device 200 controls the driving of the optical member 130 based on the attitude information of the imaging device 100, thereby realizing autofocus by open-loop control and realizing miniaturization of the imaging device 100.
  • the device 100 and the control device 200 are stored in some device, the size of the device can be reduced.
  • the hardware configuration described above with reference to FIG. 8 is merely an example, and the hardware configuration of the imaging device 100 is not limited to this example.
  • the imaging device 100 may include a configuration other than the configuration illustrated in FIG. 8 or may not necessarily include all of the configurations illustrated in FIG.
  • the shape of the imaging device 100 described with reference to FIG. 9 is merely an example, and the shape of the imaging device 100 is not limited to this example.
  • the imaging device 100 and the control device 200 described above can be stored in various information processing devices 300.
  • the type of the information processing device 300 is not particularly limited.
  • the information processing device 300 may be a portable information processing device such as a smartphone, a mobile phone, or a tablet PC (Personal Computer), but is not necessarily limited thereto.
  • the information processing device 300 may be various devices that are not carried.
  • FIG. 10 is a block diagram illustrating a functional configuration example of the information processing device 300.
  • the information processing device 300 includes the imaging device 100, the control device 200, the sensor unit 310, the input unit 320, the output unit 330, the communication unit 340, and the storage unit 350. .
  • the imaging device 100 may have the functional configuration described with reference to FIG. 5, but is not necessarily limited thereto, and may not have a part of the functional configuration described with reference to FIG. 5. .
  • the sensor unit 160 is provided outside the imaging device 100.
  • the functional configuration other than the sensor unit 160 is the same as that described with reference to FIG.
  • the control device 200 may also have the functional configuration described with reference to FIG. 5, but is not necessarily limited thereto, and may not have a part of the functional configuration described with reference to FIG. 5. .
  • the control device 200 has the same functional configuration as the functional configuration described with reference to FIG. Note that the acquisition unit 210 of the control device 200 acquires the posture information from the sensor unit 310 provided outside the imaging device 100.
  • the sensor unit 310 has a function similar to that of the sensor unit 160 described with reference to FIG. More specifically, the sensor unit 310 includes various sensors, and is configured to sense at least the attitude of the information processing device 300.
  • the imaging device 100 is fixed to the information processing device 300, and the relative positional relationship between the imaging device 100 and the information processing device 300 does not change. Therefore, sensing the attitude of the information processing apparatus 300 by the sensor unit 310 means sensing the attitude of the imaging apparatus 100 (in other words, generating the attitude information that is information relating to the first attitude of the imaging apparatus 100).
  • the sensor unit 310 includes, for example, a gyro sensor, and generates posture information on the first posture of the imaging device 100 using the gyro sensor. Note that the type of sensor provided by the sensor unit 310 is not particularly limited.
  • the input unit 320 is configured to receive various inputs by the operator.
  • the input unit 320 includes input devices such as a touch panel, a button, a switch, a mouse, a keyboard, and a microphone.
  • the focus adjustment process of the imaging device 100 and the imaging device are performed.
  • 100 can perform an input operation for an imaging process or the like.
  • the input device included in the input unit 320 is not limited to these.
  • the output unit 330 is configured to output various information.
  • the output unit 330 includes a display device such as a display, and outputs an imaging signal or the like generated by the imaging device 100 based on control by the control device 200.
  • the output unit 330 may include a sound output device such as a speaker, or a tactile presentation device such as an actuator. Note that the output device included in the output unit 330 is not limited to these.
  • the communication unit 340 is configured to communicate with an external device.
  • the communication unit 340 transmits various signals including an imaging signal to an external device based on control by the control device 200, and receives a response signal corresponding to the transmission signal from the external device.
  • information to be communicated by the communication unit 340 and a case to be communicated are not particularly limited.
  • the communication method by the communication unit 340 is not particularly limited.
  • the storage unit 350 is configured to store various information.
  • the storage unit 350 stores an imaging signal or the like generated by the imaging device 100 or stores a program or a parameter used by each functional configuration of the information processing device 300. Note that the information stored in the storage unit 350 is not limited to these.
  • the example of the functional configuration of the information processing device 300 has been described above.
  • the above-described functional configuration described with reference to FIG. 10 is merely an example, and the functional configuration of the information processing device 300 is not limited to this example.
  • the information processing device 300 may not necessarily include all of the functional configurations illustrated in FIG.
  • the functional configuration of the information processing device 300 can be flexibly modified according to specifications and operations.
  • FIG. 11 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 300. It should be noted that the control device 200 alone described above may have the hardware configuration example shown in FIG. 11.
  • the information processing device 300 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, a bridge 905, an external bus 906, an interface 907, , An input device 908, an output device 909, a storage device (HDD) 910, a drive 911, and a communication device 912.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 901 functions as an arithmetic processing device, and controls overall operations in the information processing device 300 according to various programs. Further, the CPU 901 may be a microprocessor.
  • the ROM 902 stores programs used by the CPU 901 and operation parameters.
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901 and parameters that change as appropriate in the execution. These are mutually connected by a host bus 904 including a CPU bus and the like. By the cooperation of the CPU 901, the ROM 902, and the RAM 903, a part of the control device 200 included in the information processing device 300 or a part of the function of the imaging device 100 is realized.
  • the host bus 904 is connected to an external bus 906 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 905.
  • an external bus 906 such as a PCI (Peripheral Component Interconnect / Interface) bus
  • PCI Peripheral Component Interconnect / Interface
  • the host bus 904, the bridge 905, and the external bus 906 do not necessarily need to be separately configured, and these functions may be implemented on one bus.
  • the input device 908 generates input signals based on input by the operator, such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, a lever, or a camera. It is composed of an input control circuit for outputting. By operating the input device 908, an operator of the information processing device 300 can input various information to each device and instruct a processing operation.
  • the function of the sensor unit 310, the input unit 320, or the imaging device 100 is realized by the input device 908.
  • the output device 909 includes, for example, a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, and a lamp. Further, the output device 909 includes a sound output device such as a speaker and headphones. The display device displays various information such as an imaging signal. On the other hand, the audio output device converts audio information and the like into audio and outputs the audio. The function of the output unit 330 is realized by the output device 909.
  • a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, and a lamp.
  • the output device 909 includes a sound output device such as a speaker and headphones.
  • the display device displays various information such as an imaging signal.
  • the audio output device converts audio information and the like into audio and outputs the audio.
  • the storage device 910 is a device for storing data.
  • the storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 910 is constituted by, for example, an HDD (Hard ⁇ Disk ⁇ Drive).
  • the storage device 910 drives a hard disk and stores programs executed by the CPU 901 and various data.
  • the function of the storage unit 350 is realized by the storage device 910.
  • the drive 911 is a reader / writer for a storage medium, and is built in or external to the information processing apparatus 300.
  • the drive 911 reads information recorded on a removable storage medium 913 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 903.
  • the drive 911 can also write information on the removable storage medium 913.
  • the communication device 912 is a communication interface including, for example, a communication device for connecting to the communication network 914.
  • the function of the communication unit 340 is realized by the communication device 912.
  • the control device 200 acquires the posture information that is the information on the first posture of the imaging device 100 (the posture of the imaging device 100 when the focus is adjusted).
  • the focus of the imaging device 100 is adjusted by controlling the driving of the optical member 130 based on the posture information. More specifically, when adjusting the focus, the focus adjustment unit 220 of the control device 200 acquires the posture difference information from the storage unit 150, and based on the posture difference information and the posture information, the optical member in the first posture.
  • the difference (posture difference) between the position of 130 and the position of the optical member 130 in the second posture is calculated. Then, the focus adjustment unit 220 corrects the control value based on the calculated posture difference. Accordingly, even when the attitude of the imaging device 100 changes in various ways, the focus adjustment unit 220 can more appropriately adjust the focus according to the attitude of the imaging device 100.
  • the focus adjustment section 220 controls the driving of the optical member 130 based on limit point information on a limit point of a range in which the optical member 130 can be driven. Accordingly, the focus adjustment unit 220 can appropriately prevent the optical member 130 from coming into contact with the member at the first limit point or the second limit point. In this case, the contact sound is recorded, and each member can be appropriately prevented from being damaged.
  • Information measured for each individual imaging device 100 may be used for at least one of the posture difference information and the limit point information.
  • the characteristics (e.g., mass, elastic force, etc.) of the optical member 130 (e.g., a focus lens) and the drive unit 120 (e.g., an electromagnetic actuator) may vary considerably from individual to individual.
  • the focus adjustment unit 220 can appropriately adjust the focus according to the difference in the posture difference information and the limit point information due to the individual difference.
  • An acquisition unit configured to acquire posture information that is information on a first posture of the imaging device;
  • a focus adjustment unit that adjusts the focus of the imaging device by controlling driving of an optical member based on the attitude information.
  • Control device The focus adjustment unit controls the driving of the optical member by open-loop control, The control device according to (1).
  • the focus adjustment unit may be configured to convert the position of the optical member in a reference second position and the position of the optical member in a third position different from the second position into posture difference information. Controlling the driving of the optical member based on The control device according to (2).
  • the second posture is a posture in which the imaging device is oriented in a substantially horizontal direction
  • the third posture is a posture in which the imaging device faces substantially vertically upward or substantially vertically downward.
  • the focus adjustment unit calculates a difference between the position of the optical member in the first posture and the position of the optical member in the second posture based on the posture information and the posture difference information. Controlling the drive of the optical member based on the difference, The control device according to (3) or (4).
  • the attitude difference information is information measured for each individual of the imaging device, or information obtained based on measurement results for a plurality of the imaging devices, The control device according to any one of (3) to (5).
  • the focus adjusting unit controls the driving of the optical member based on limit point information that is information on a limit point of a range in which the optical member can be driven.
  • the control device according to any one of (2) to (6).
  • the limit point includes a first limit point in one direction in which the optical member can be driven, and a second limit point in a direction opposite to the one direction.
  • the control device according to (7).
  • the focus adjustment unit calculates a drive amount of the optical member that does not exceed a range in which the optical member can be driven based on the first limit point and the second limit point, and calculates a drive amount of the optical member based on the calculated drive amount. Controlling the drive of the optical member, The control device according to (8).
  • the limit point information is information measured for each individual of the imaging device, or information obtained based on measurement results for a plurality of the imaging devices, The control device according to any one of (7) to (9).
  • An optical member for capturing light from the subject An imaging unit that generates an imaging signal by light incident through the optical member; A drive control unit that controls driving of the optical member based on control information generated to adjust a focus based on posture information that is information on a first posture of the imaging device. Imaging device.
  • a control device and an imaging device includes: An acquisition unit configured to acquire posture information that is information on a first posture of the imaging device; A focus adjustment unit that adjusts the focus of the imaging device by generating control information for controlling driving of the optical member based on the posture information, The imaging device, The optical member for capturing light from a subject, An imaging unit that generates an imaging signal by light incident through the optical member; A drive control unit that controls the drive of the optical member based on the control information, Information processing device. (13) Acquiring posture information that is information relating to a first posture of the imaging device; Adjusting the focus of the imaging device by controlling the driving of the optical member based on the attitude information, A control method executed by a computer.
  • Imaging device 110 drive control unit 120 driving unit 130 optical member 140 imaging unit 150 storage unit 160 sensor unit 200 control device 210 acquisition unit 220 focus adjustment unit 230 signal processing unit 300 information processing device 310 sensor unit 320 input unit 330 output unit 340 Communication unit 350 Storage unit

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】撮像装置の焦点をより適切に調節することを可能にする。 【解決手段】撮像装置の第1の姿勢に関する情報である姿勢情報を取得する取得部と、前記姿勢情報に基づいて光学部材の駆動を制御することで前記撮像装置の焦点を調節する焦点調節部と、を備える、制御装置が提供される。

Description

制御装置、撮像装置、情報処理装置、および制御方法
 本開示は、制御装置、撮像装置、情報処理装置、および制御方法に関する。
 オートフォーカス機能を用いて被写体を撮像することで撮像信号を生成する撮像装置が普及している。また、撮像素子や光学部材などの小型化に伴い、それらの撮像装置(カメラモジュール)を搭載する携帯型情報処理装置が普及している。これらの携帯型情報処理装置には、オートフォーカス機能を実現するため、光軸方向に光学部材(フォーカスレンズ)を移動させるためのアクチュエータが搭載されている。
 例えば、以下の特許文献1には、スキップ動作、逆スキャン動作、および最終調整動作によりフォーカスレンズを移動させることで、スキャン動作と逆方向のフォーカスレンズの移動のみでスキャン目標位置(目標ポイント)にフォーカスレンズを移動させることができる技術が開示されている。これにより、フォーカス制御に要する時間を短縮すること、および合焦精度を向上させることができる。
特開2012-98510号公報
 しかし、特許文献1に開示されている技術などによっては、撮像装置の焦点を適切に調節することが困難になる場合があった。より具体的には、撮像装置の姿勢が、水平方向ではなく、例えば垂直上方向や垂直下方向などを向いた姿勢である場合、重力の影響でフォーカスレンズなどの光学部材が、指示された位置から垂直下方向にずれてしまうことで、撮像装置の焦点を適切に調節することが困難になる場合があった。
 そこで、本開示は、上記事情に鑑みてなされたものであり、撮像装置の焦点をより適切に調節することが可能な、新規かつ改良された制御装置、撮像装置、情報処理装置、および制御方法を提供する。
 本開示によれば、撮像装置の第1の姿勢に関する情報である姿勢情報を取得する取得部と、前記姿勢情報に基づいて光学部材の駆動を制御することで前記撮像装置の焦点を調節する焦点調節部と、を備える、制御装置が提供される。
 また、本開示によれば、被写体からの光を取り込む光学部材と、前記光学部材を介して入射する光により撮像信号を生成する撮像部と、撮像装置の第1の姿勢に関する情報である姿勢情報に基づいて焦点を調節するために生成された制御情報に基づいて前記光学部材の駆動を制御する駆動制御部と、を備える、撮像装置が提供される。
 また、本開示によれば、制御装置と、撮像装置と、を備え、前記制御装置は、前記撮像装置の第1の姿勢に関する情報である姿勢情報を取得する取得部と、前記姿勢情報に基づいて光学部材の駆動を制御する制御情報を生成することで、前記撮像装置の焦点を調節する焦点調節部と、を備え、前記撮像装置は、被写体からの光を取り込む前記光学部材と、前記光学部材を介して入射する光により撮像信号を生成する撮像部と、前記制御情報に基づいて前記光学部材の駆動を制御する駆動制御部と、を備える、情報処理装置が提供される。
 また、本開示によれば、撮像装置の第1の姿勢に関する情報である姿勢情報を取得することと、前記姿勢情報に基づいて光学部材の駆動を制御することで前記撮像装置の焦点を調節することと、を有する、コンピュータにより実行される制御方法が提供される。
撮像装置の姿勢によって光学部材(フォーカスレンズなど)の位置が変化する様子を示す図である。 撮像装置の姿勢によって光学部材(フォーカスレンズなど)の位置が変化することで接触が発生することを示す図である。 撮像装置の姿勢によって光学部材(フォーカスレンズなど)の位置が変化することで接触が発生することを示す図である。 本開示によってコントロール値が補正されることで、光学部材130が適切に駆動されることを示す図である。 本実施形態に係る各装置の機能構成例を示すブロック図である。 本実施形態に係る各装置による処理の流れを示すフローチャートである。 第1の変形例に係る各装置による処理の流れを示すフローチャートである。 本実施形態に係る撮像装置100のハードウェア構成例の概要を示す図である。 本実施形態に係る撮像装置100の形状の概要を示す図である。 本実施形態に係る情報処理装置300の機能構成例を示すブロック図である。 本実施形態に係る情報処理装置300のハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.概要
 2.機能構成
 3.処理の流れ
 4.第1の変形例
 5.第2の変形例
 6.ハードウェア構成
 7.情報処理装置300への適用
 8.まとめ
  <1.概要>
 まず、本開示の一実施形態に係る概要について説明する。
 上記のとおり、オートフォーカス機能を用いて被写体を撮像することで撮像信号を生成する撮像装置が普及しているところ、特許文献1に開示されている技術などによっては、撮像装置の焦点を適切に調節することが困難になる場合があった。
 図1を参照してより具体的に説明する。なお、以降では、フィードバックが行われることなく入力が所定の目標値に達したか否かを判断する、いわゆる「オープンループ制御」によってオートフォーカスが行われる場合を一例として説明する(なお、必ずしもオープンループ制御に限定されない点に留意されたい)。
 図1は、撮像装置の姿勢によって光学部材(フォーカスレンズなど)の位置が変化する様子を示す図である。図1には、オートフォーカス機能を実現するために、光学部材が駆動され合焦点(合焦が実現される光学部材の位置)が探索される範囲(図1では「合焦点の探索範囲」と表記)が、撮像装置が水平方向、垂直上方向、および垂直下方向を向いている場合のそれぞれについて示されている。撮像装置が水平方向を向いている場合、図1の「1.水平方向」に示すように、撮像装置は、無限遠に焦点が合っているときの光学部材の位置(以降、「無限遠合焦点」と呼称する)、および至近距離に焦点が合っているときの光学部材の位置(以降、「至近合焦点」と呼称する)を含む範囲を合焦点の探索範囲とする。すなわち、撮像装置は、無限遠合焦点から至近合焦点を含む範囲において光学部材(フォーカスレンズなど)を駆動させながら、コントラスト値についての所定値以上のピークを探索し、コントラスト値についての所定値以上のピークが検出された点を合焦点として扱う。このとき、図1の「1.水平方向」に示すように、撮像装置は、制御情報としてコントロール値「A」を指定することで合焦点の探索範囲の下限に光学部材を移動させることができ、コントロール値「B」を指定することで合焦点の探索範囲の上限に光学部材を移動させることができるとする。
 ここで、撮像装置が垂直上方向を向いている場合、図1の「2.垂直上方向」に示すように、制御情報としてコントロール値「A」および「B」が指定された場合における合焦点の探索範囲が、光学部材などの重みによって無限遠合焦点側にずれてしまう。本書では、この「ずれ」のことを「姿勢差」と呼称する。姿勢差が発生することによって、例えば至近合焦点でコントラスト値がピークになるとしても、撮像装置は至近合焦点まで光学部材を駆動させることができない場合があるため、焦点を適切に調節することができない場合がある。
 また、撮像装置が垂直下方向を向いている場合、図1の「3.垂直下方向」に示すように、制御情報としてコントロール値「A」および「B」が指定された場合における合焦点の探索範囲が、光学部材などの重みによって至近合焦点側にずれてしまう(換言すると、姿勢差が発生する)。姿勢差が発生することによって、例えば無限遠合焦点でコントラスト値がピークになるとしても、撮像装置は無限遠合焦点まで光学部材を駆動させることができない場合があるため、焦点を適切に調節することができない場合がある。
 また、特に近年、撮像装置の小型化の要請に伴って、光学部材が駆動可能な範囲が従来よりも狭くなる傾向にある。ここで、光学部材が駆動可能な範囲の限界点のうち、光学部材が駆動可能な一方向(無限遠合焦点側の方向)における限界点を「第1の限界点」とし、当該一方向の反対方向(至近合焦点側の方向)における限界点を「第2の限界点」とする。このとき撮像装置の小型化の要請に伴って、図2に示すように、特に、第1の限界点と無限遠合焦点との離隔距離、および第2の限界点と至近合焦点との離隔距離がより短くなる場合がある。この場合、図2の「2.垂直上方向」に示すように、合焦点の探索範囲が無限遠合焦点側にずれることで姿勢差が発生すると、光学部材が第1の限界点の部材と接触してしまう場合がある。また、図2の「3.垂直下方向」に示すように、合焦点の探索範囲が至近合焦点側にずれることで姿勢差が発生すると、光学部材が第2の限界点の部材と接触してしまう場合がある。このような接触によって、接触音が発生したり(録画が行われている場合には接触音が録音されたり)、各部材が損傷したりする可能性がある。
 仮に、第1の限界点と無限遠合焦点との離隔距離、および第2の限界点と至近合焦点との離隔距離が短くならなくても、光学部材がより重かったり光学部材を支えるばねがより弱かったりすると、図3の「2.垂直上方向」および「3.垂直下方向」に示すように、姿勢差がより大きくなるため、この場合にも部材同士の接触が発生してしまう場合がある。
 本件の開示者は上記事情に鑑みて本開示に係る技術を創作するに至った。本開示は、撮像装置100の第1の姿勢に関する情報である姿勢情報を取得し、当該姿勢情報に基づいて光学部材130の駆動を制御することで撮像装置100の焦点を調節する。ここで、「第1の姿勢」は、撮像装置100の焦点の調節が行われる時点での撮像装置100の姿勢を指す。
 図4を参照して、本開示の機能についてより具体的に説明すると、本開示は、姿勢情報に基づいて、第1の姿勢における光学部材130の位置と、撮像装置100が水平方向を向いたときの光学部材130の位置との差(姿勢差)を算出する。そして、本開示は、算出した姿勢差に基づいてコントロール値を補正することで光学部材130の駆動を制御する。例えば、撮像装置100が垂直上方向を向いている場合において、図4の「2.垂直上方向」に示すように、本開示はコントロール値「A」を「A+α」に補正し、コントロール値「B」を「B+β」に補正することで、姿勢差を解消する。また、撮像装置100が垂直下方向を向いている場合において、図4の「3.垂直下方向」に示すように、本開示はコントロール値「A」を「A-α」に補正し、コントロール値「B」を「B-β」に補正することで、姿勢差を解消する。これによって、撮像装置100の姿勢が様々に変化した場合であっても、本開示は、撮像装置100の姿勢に応じて焦点をより適切に調節することができる。
 なお、図4におけるコントロール値の補正量「α」および「β」はあくまで一例であり、状況に応じて適宜変更され得る。より具体的には、合焦点の探索範囲の下限と上限それぞれに対応するコントロール値の補正量は、同一であってもよいし異なっていてもよい。もちろん、コントロール値の補正量は姿勢差に応じて変更される(したがって、垂直上方向の場合と垂直下方向の場合とで、合焦点の探索範囲の下限と上限それぞれに対応するコントロール値の補正量の絶対値が「α」と「β」という同一の値である必要はない)。以降では、本開示の一実施形態について詳細に説明していく。
  <2.機能構成>
 上記では、本開示の一実施形態に係る概要について説明した。続いて、図5を参照して、本実施形態に係る各装置の構成(主に機能構成)について説明する。図5は、本実施形態に係る撮像装置100および制御装置200の構成例を示すブロック図である。なお、図5には、撮像装置100および制御装置200の主たる構成例が示されており、一部の構成は省略されている点に留意されたい。
 ここで、撮像装置100は、被写体を撮像することで撮像信号を生成する装置であり、例えば、携帯型情報処理装置などに搭載されるカメラなどである。また、制御装置200は、撮像装置100を制御する装置であり、例えば、携帯型情報処理装置などに搭載されるIC(Integrated Circuit)チップなどである。なお、撮像装置100および制御装置200の種類は特に限定されない。また、図5では、撮像装置100と制御装置200が別々の装置として示されているが、撮像装置100と制御装置200は一の装置として実現されてもよい(例えば、撮像装置100内に制御装置200が備えられてもよい)。
 (撮像装置100の機能構成)
 まず、撮像装置100の機能構成例について説明する。図5に示すように、撮像装置100は、駆動制御部110と、駆動部120と、光学部材130と、撮像部140と、記憶部150と、センサ部160と、を備える。
 駆動制御部110は、撮像装置100の第1の姿勢に関する情報である姿勢情報に基づいて焦点を調節するために生成された制御情報に基づいて光学部材130の駆動を制御する構成である。より具体的に説明すると、後述する制御装置200の焦点調節部220が撮像装置100の第1の姿勢に関する情報である姿勢情報に基づいて撮像装置100の焦点を調節するために制御情報を生成する。そして、当該制御情報が焦点調節部220から提供された場合、駆動制御部110は、当該制御情報に基づいて駆動部120による駆動を制御することで、光学部材130の駆動を制御する。
 駆動部120は、駆動制御部110から提供される制御情報に基づいて、光学部材130に含まれるフォーカスレンズを光軸方向に駆動させることで撮像装置100の焦点を調節する構成である。例えば、駆動部120は、一対の磁石と一対のコイルが、光学部材130を収める筐体(レンズバレル)を駆動させる電磁アクチュエータ(ボイスコイルモータ)を備えてもよい。なお、光学部材130(特にフォーカスレンズ)を駆動させる構成はボイスコイルモータに限定されない。
 光学部材130は、被写体からの光を取り込み、後述する撮像部140上に当該光を結像させる構成である。光学部材130は、撮像装置100の焦点の調節に用いられるフォーカスレンズを含む2以上のレンズなどの光学素子を備えている。なお、光学部材130によって備えられる各光学素子の数、配置、または形状などは特に限定されない。
 撮像部140は、光学部材130を介して入射する光により撮像信号を生成する構成である。より具体的には、撮像部140は、光学部材130を介して入射する光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイを備える。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary
Metal Oxide Semiconductor)センサアレイなどであり、必ずしもこれらに限定されない。撮像部140は、生成した撮像信号を制御装置200の信号処理部230に提供する。
 記憶部150は、各種情報を記憶する構成である。例えば、記憶部150は、予め姿勢差情報を記憶しておく。姿勢差情報の詳細については後述する。また、記憶部150は、センサ部160から取得された姿勢情報を記憶したり、撮像装置100や制御装置200の各処理で使用されるプログラムやパラメータなどを記憶したりしてもよい。なお、記憶部150が記憶する情報はこれらに限定されない。
 センサ部160は、各種センサを備えており、少なくとも、撮像装置100の第1の姿勢に関する情報である姿勢情報を生成する構成である。例えば、センサ部160は、ジャイロセンサを備えており、撮像装置100の第1の姿勢に関する姿勢情報を、当該ジャイロセンサを用いて生成する。なお、センサ部160によって備えられるセンサの種類は特に限定されない。また、センサ部160は、必ずしも撮像装置100に備えられなくてもよい。より具体的には、センサ部160は、撮像装置100の第1の姿勢をセンシング可能であれば制御装置200や他の外部装置(図示なし)に備えられてもよい。例えば、撮像装置100と制御装置200が互いに固定されており、撮像装置100と制御装置200の相対的な位置関係が変化しない場合、センサ部160は、制御装置200に備えられても撮像装置100の第1の姿勢(換言すると、制御装置200の姿勢)をセンシングすることができるため、制御装置200に備えられることも許容される。
 以上、撮像装置100の機能構成例について説明した。なお、図5を用いて説明した上記の機能構成はあくまで一例であり、撮像装置100の機能構成は係る例に限定されない。例えば、撮像装置100は、図5に示す機能構成以外の機能構成を備えていてもよいし、図5に示す機能構成の全てを必ずしも備えなくてもよい。また、撮像装置100の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 (制御装置200の機能構成)
 続いて、制御装置200の機能構成例について説明する。図5に示すように、制御装置200は、取得部210と、焦点調節部220と、信号処理部230と、を備える。
 取得部210は、撮像装置100の第1の姿勢に関する情報である姿勢情報を取得する構成である。より具体的には、取得部210は、撮像装置100のセンサ部160によって生成された姿勢情報を取得する。なお、「取得」とは、取得部210がセンサ部160との有線通信や無線通信によって姿勢情報を取得する処理だけでなく、姿勢情報が記憶されているメモリ(撮像装置100の記憶部150によって具現されてもよい)などから姿勢情報を取得する処理も含む点に留意されたい。
 焦点調節部220は、姿勢情報および姿勢差情報に基づいて光学部材130の駆動を制御することで撮像装置100の焦点を調節する構成である。ここで、「姿勢差情報」とは、基準となる第2の姿勢における光学部材130の位置と、第2の姿勢とは異なる第3の姿勢における光学部材130の位置との差(姿勢差)に関する情報である。本実施形態における「基準となる第2の姿勢」は、撮像装置100が略水平方向を向いた姿勢であり、「第3の姿勢」は、撮像装置100が略垂直上方向または略垂直下方向を向いた姿勢である。例えば撮像装置100の製造工程において、複数の撮像装置100(複数のサンプル)について、第2の姿勢(略水平方向を向いた姿勢)および第3の姿勢(略垂直上方向または略垂直下方向を向いた姿勢)における光学部材130の位置が計測されることで姿勢差が算出される。そして、当該複数の撮像装置100についての姿勢差の分布に基づく代表値(例えば、平均値など)に関する情報が姿勢差情報として生成される(換言すると、姿勢差情報は、複数の撮像装置100についての計測結果に基づいて得られた情報である)。姿勢差情報は、前述した撮像装置100の記憶部150に予め格納されている。なお、姿勢差情報は、撮像装置100の個体ごとに計測された情報であってもよい。例えば撮像装置100の製造工程において、第2の姿勢(略水平方向を向いた姿勢)および第3の姿勢(略垂直上方向または略垂直下方向を向いた姿勢)における光学部材130の位置が計測されることで、姿勢差が撮像装置100の個体ごとに算出されてもよい。
 撮像装置100の焦点の調節時において取得部210から姿勢情報が提供された場合、焦点調節部220は、撮像装置100の記憶部150から姿勢差情報を取得し、姿勢情報と姿勢差情報に基づいて、第1の姿勢(焦点の調節が行われる時点での撮像装置100の姿勢)における光学部材130の位置と、第2の姿勢(略水平方向を向いた姿勢)における光学部材130の位置との差(姿勢差)を算出する。より具体的に説明すると、姿勢差情報は、上記のとおり第2の姿勢(略水平方向を向いた姿勢)と第3の姿勢(略垂直上方向または略垂直下方向を向いた姿勢)についての姿勢差に関する情報であるところ、第1の姿勢は、第2の姿勢または第3の姿勢と略同一でない可能性が高い。
 ここで、第2の姿勢と第3の姿勢についての姿勢差がわかれば、第2の姿勢と第3の姿勢の間の姿勢(換言すると、略水平方向と、略垂直上方向または略垂直下方向との間の方向を向いた姿勢)と、第2の姿勢についての姿勢差は連続関数(例えば、線形関数など)によって算出可能である。そこで、第1の姿勢が第2の姿勢または第3の姿勢と略同一でない場合、焦点調節部220は、第2の姿勢と第3の姿勢の間の姿勢である第1の姿勢と、第2の姿勢についての姿勢差を、連続関数を解くことによって算出する。そして、焦点調節部220は、算出した姿勢差に基づいてコントロール値を補正する。
 なお、第1の姿勢(焦点の調節が行われる時点での撮像装置100の姿勢)が第2の姿勢(略水平方向を向いた姿勢)と略同一である場合には姿勢差がほぼ生じないため、焦点調節部220はコントロール値を補正しなくてもよい。また、第1の姿勢が第3の姿勢(略垂直上方向または略垂直下方向を向いた姿勢)と略同一である場合には、焦点調節部220は姿勢差情報に含まれる姿勢差をそのまま用いてコントロール値を補正してもよい。焦点調節部220は、補正後のコントロール値を含む制御情報を生成し、当該制御情報を撮像装置100の駆動制御部110に提供するという処理を、焦点の調節が終了するまで継続する。
 上記のように、姿勢差情報が第2の姿勢と第3の姿勢についての姿勢差に関する情報を含み、焦点調節部220が姿勢差情報に基づいて姿勢差を算出することによって、本開示は、後述する撮像装置100の記憶部150が記憶すべき情報量を低減しつつ、コントロール値をより適切に補正することができるため、撮像装置100の焦点をより適切に調節することができる。
 なお、焦点調節部220の処理、および当該処理に用いられる姿勢差情報は、必ずしも上記に限定されない。例えば、姿勢差情報に関する「基準となる第2の姿勢」は、必ずしも撮像装置100が略水平方向を向いた姿勢でなくてもよい(換言すると、撮像装置100が任意の方向を向いた姿勢であってもよい)。また、「第3の姿勢」は、必ずしも撮像装置100が略垂直上方向または略垂直下方向を向いた姿勢でなくてもよい(換言すると、撮像装置100が第2の姿勢とは異なる任意の方向を向いた姿勢であってもよい)。また、「第3の姿勢」は、撮像装置100が略垂直上方向または略垂直下方向以外の複数の方向を向いたときのそれぞれの姿勢を含んでもよい。これによって、姿勢差情報には、第2の姿勢と、様々な姿勢を含む第3の姿勢についての姿勢差に関する情報が含まれるため、撮像装置100の記憶部150が記憶すべき姿勢差情報の情報量は増えるが、焦点調節部220は姿勢差情報に基づいてより容易に姿勢差を算出することができる。また、焦点調節部220は、オープンループ制御によって光学部材130の駆動を制御することを想定しているところ、必ずしもこれに限定されない。より具体的には、焦点調節部220は、所定のセンサなどからのフィードバックに基づいて入力が所定の目標値に達したか否かを判断する、いわゆる「クローズドループ制御」によって光学部材130の駆動を制御してもよい。
 その後、焦点調節部220が生成した制御情報を用いて撮像装置100の光学部材130の駆動が行われ、信号処理部230によって撮像信号についてのコントラスト値が取得された場合、焦点調節部220は、当該コントラスト値についての所定値以上のピークを探索する。焦点調節部220は、コントラスト値についての所定値以上のピークを検出した場合、当該ピークが検出された位置へ焦点を動かす(換言すると、当該位置にフォーカスレンズを駆動させる)。これによって、焦点調節部220は、撮像装置100の焦点を適切に調節することができる。
 信号処理部230は、撮像装置100の撮像部140によって生成された撮像信号に対する各種処理を行う構成である。より具体的には、信号処理部230は、撮像信号に対して、ノイズ除去、ゲイン調節、波形整形、A/D変換、ホワイトバランス調節、輝度調節、コントラスト値調節、シャープネス(輪郭強調)調節、色補正、またはぶれ補正などを行う。また、焦点の調節が行われる際に、信号処理部230は、撮像信号を用いて所定の信号処理を行うことでコントラスト値を取得する。なお、信号処理部230によって実現される各種処理はこれらに限定されない。
 以上、制御装置200の機能構成例について説明した。なお、図5を用いて説明した上記の機能構成はあくまで一例であり、制御装置200の機能構成は係る例に限定されない。例えば、制御装置200は、図5に示す機能構成以外の機能構成を備えていてもよいし、図5に示す機能構成の全てを必ずしも備えなくてもよい。また、制御装置200の機能構成は、仕様や運用に応じて柔軟に変形可能である。
  <3.処理の流れ>
 上記では、本実施形態に係る各装置の構成(主に機能構成)について説明した。続いて、図6を参照して、本実施形態に係る各装置による処理の流れについて説明する。図6は、本実施形態に係る各装置によるオートフォーカスに関する処理の流れの例を示すフローチャートである。
 ステップS1000では、制御装置200の取得部210が、撮像装置100のセンサ部160から姿勢情報を取得する。ステップS1004では、焦点調節部220が、姿勢差情報を撮像装置100の記憶部150から取得し、姿勢情報と姿勢差情報に基づいてコントロール値の補正量を算出する。ステップS1008では、焦点調節部220が、算出した補正量分をずらすことで合焦点の探索範囲を決定する。
 ステップS1012では、撮像装置100の駆動制御部110が、制御装置200から提供された制御情報に基づいて駆動部120による駆動を制御することで焦点を動かし、制御装置200の信号処理部230が所定の信号処理を行うことでコントラスト値を取得する。ステップS1016では、焦点調節部220が、信号処理部230から提供されたコントラスト値を解析することで、コントラスト値についての所定値以上のピークを探索する。コントラスト値についての所定値以上のピークが検出された場合(ステップS1016/Yes)、ステップS1020にて、焦点調節部220は、ピークが検出された位置へ焦点を動かす(換言すると、当該位置にフォーカスレンズを駆動させる)ことで一連の処理が終了する。
 コントラスト値についての所定値以上のピークが検出されない場合(ステップS1016/No)、ステップS1024にて、焦点調節部220は、全探索範囲の探索が完了したか否かを確認する。全探索範囲の探索が完了していない場合(ステップS1024/No)、処理がステップS1012に戻る(すなわち、焦点の移動、およびコントラスト値の取得以降の処理が再び行われる)。全探索範囲の探索が完了した場合(ステップS1024/Yes)、一連の処理が終了する。なお、全探索範囲において、コントラスト値についての所定値以上のピークが検出されない場合、図6に示した処理が再び行われてもよいし、その他所定の処理(例えば、操作者へのエラー通知の実施など)が行われてもよい。
  <4.第1の変形例>
 上記では、本実施形態に係る各装置による処理の流れについて説明した。続いて、本実施形態に係る第1の変形例について説明する。
 第1の変形例において、制御装置200の焦点調節部220は、光学部材130が駆動可能な範囲の限界点に関する限界点情報にも基づいて光学部材130の駆動を制御する。より具体的に説明すると、光学部材130の駆動可能な範囲はストッパーなどにより物理的に制限される。そして、上記の図1~図4で示したように、光学部材130が駆動可能な範囲の限界点のうち、光学部材130が駆動可能な一方向(無限遠合焦点側の方向)における限界点を「第1の限界点」とし、当該一方向の反対方向(至近合焦点側の方向)における限界点を「第2の限界点」とする。そして、第1の限界点および第2の限界点に関する限界点情報が、第1の変形例に係る撮像装置100の記憶部150に予め格納されている。
 そして、第1の変形例に係る焦点調節部220は、第1の限界点および第2の限界点に基づいて光学部材130が駆動可能な範囲を超えない光学部材130の駆動量を算出し、算出した駆動量に基づいて光学部材130の駆動を制御する。より具体的に説明すると、焦点調節部220は、姿勢情報と姿勢差情報に基づいてコントロール値を補正する際、補正後のコントロール値によって光学部材130が、その駆動可能な範囲の限界点(第1の限界点または第2の限界点のいずれか)を超えるか否かを限界点情報に基づいて判断する。そして、光学部材130が、その駆動可能な範囲の限界点(第1の限界点または第2の限界点のいずれか)を超える場合、焦点調節部220は、コントロール値の補正量をさらに調節することで、光学部材130がその駆動可能な範囲の限界点を超えないようにする。
 これによって、焦点調節部220は、光学部材130が第1の限界点または第2の限界点の部材と接触することを適切に防止することができるため、接触によって接触音が発生したり(録画が行われている場合には接触音が録音されたり)、各部材が損傷したりすることを適切に防止することができる。撮像装置100が携帯型情報処理装置などの小型の装置に搭載される場合においては、小型化の要請により部材同士の接触が発生する可能性が高くなるため、第1の変形例は、撮像装置100が小型の装置に搭載される場合に特に有用であると言える。なお、合焦点の探索範囲において、限界点(第1の限界点または第2の限界点)の手前に位置するある点から限界点までの区間において、光学部材130が想定通りに移動できなくなる場合がある。例えば、駆動部120に備えられるばねの弾性力などの影響で(この影響に限定されない)、コントロール値によって指定される位置と、実際に光学部材130が移動する位置にずれが生じる場合がある。そこで、焦点調節部220は、このように光学部材130が想定通りに移動できなくなる点に関する情報にも基づいて光学部材130の駆動を制御してもよい。より具体的には、焦点調節部220は、コントロール値の補正量をさらに調節することで、光学部材130が想定通りに移動できなくなる点を超えないように光学部材130の駆動を制御してもよい。焦点調節部220および記憶部150以外の機能構成については、上記で説明した実施形態に係る機能構成と同様であり得るため、説明を省略する。
 続いて、図7を参照して、第1の変形例に係る各装置による処理の流れについて説明する。図7は、第1の変形例に係る各装置によるオートフォーカスに関する処理の流れの例を示すフローチャートである。
 ステップS1100では、制御装置200の取得部210が、撮像装置100のセンサ部160から姿勢情報を取得する。ステップS1104では、焦点調節部220が、姿勢差情報を撮像装置100の記憶部150から取得し、姿勢情報と姿勢差情報に基づいてコントロール値の補正量を算出する。
 ステップS1108では、焦点調節部220が、限界点情報を撮像装置100の記憶部150から取得し、補正後のコントロール値によって光学部材130が、その駆動可能な範囲の限界点(第1の限界点または第2の限界点のいずれか)を超えるか否かを限界点情報に基づいて判断する。光学部材130が、その駆動可能な範囲の限界点を超える場合(ステップS1108/Yes)、ステップS1112にて、焦点調節部220は、コントロール値の補正量をさらに調節することで、光学部材130がその駆動可能な範囲の限界点を超えないようにする。
 光学部材130がその駆動可能な範囲の限界点を超えないようにコントロール値の補正量が調節された場合(ステップS1108/No)、ステップS1116にて、焦点調節部220が、調節後の補正量分をずらすことで合焦点の探索範囲を決定する。その後の処理は、上記で説明した図6のステップS1012~ステップS1024の処理と同様であるため説明を省略する。
  <5.第2の変形例>
 上記では、本実施形態に係る第1の変形例について説明した。続いて、本実施形態に係る第2の変形例について説明する。
 第2の変形例において、姿勢差情報または限界点情報のうちの少なくともいずれか一方は、撮像装置100の個体ごとに計測された情報である。より具体的に説明すると、例えば撮像装置100の製造工程において、第2の姿勢(略水平方向を向いた姿勢)および第3の姿勢(略垂直上方向または略垂直下方向を向いた姿勢)における光学部材130の位置が計測されることで、姿勢差が撮像装置100の個体ごとに出力される。また、例えば撮像装置100の製造工程において、光学部材130が実際に駆動されることで、第1の限界点および第2の限界点が撮像装置100の個体ごとに計測される。その後、個体ごとに計測された姿勢差情報および限界点情報(または、個体ごとに計測された姿勢差情報もしくは限界点情報のうちの少なくともいずれか一方)が、それぞれの撮像装置100の記憶部150に格納される。なお、姿勢差情報または限界点情報は、撮像装置100の個体ごとに計測された情報でなくてもよい。例えば撮像装置100の製造工程において、複数の撮像装置100(複数のサンプル)について、第2の姿勢(略水平方向を向いた姿勢)および第3の姿勢(略垂直上方向または略垂直下方向を向いた姿勢)における光学部材130の位置が計測されることで姿勢差が算出される。また、複数の撮像装置100(複数のサンプル)について、光学部材130が実際に駆動されることで、限界点(第1の限界点および第2の限界点)が計測される。そして、当該複数の撮像装置100についての姿勢差および限界点の分布に基づくそれぞれの代表値(例えば、平均値など)に関する情報が姿勢差情報および限界点情報として記憶部150に格納されてもよい(換言すると、姿勢差情報または限界点情報は、複数の撮像装置100についての計測結果に基づいて得られた情報であってもよい)。
 ここで、第2の変形例は、上記で説明した実施形態および第1の変形例のいずれに対しても適用することができる。例えば、第2の変形例が上記で説明した実施形態に対して適用される場合、制御装置200は、撮像装置100の個体ごとに計測された姿勢差情報を用いて図6で示した処理を行う。また、第2の変形例が上記で説明した第1の変形例に対して適用される場合、制御装置200は、撮像装置100の個体ごとに計測された姿勢差情報および限界点情報(または、個体ごとに計測された姿勢差情報もしくは限界点情報のうちの少なくともいずれか一方)を用いて図7で示した処理を行う。
 光学部材130や駆動部120の特性(例えば、質量や弾性力など)は個体ごとに相当程度異なる場合があるところ、第2の変形例に係る制御装置200は、その個体差による姿勢差情報や限界点情報の違いに対して対応し、適切に焦点を調節することができる。
 なお、個体ごとの姿勢差情報または限界点情報の計測は撮像装置100の製造工程で行われなくてもよい。例えば、撮像装置100または制御装置200内に姿勢差情報または限界点情報を更新可能な機能構成が別途備えられることで、これらの情報が随時更新されてもよい。また、光学部材130や駆動部120の特性は、経年劣化などにより変化する場合がある。そこで、姿勢差情報または限界点情報は、その経年変化が考慮された情報であってもよい。例えば、事前の実験などによって姿勢差情報または限界点情報の経年変化が予測されることで、焦点調節部220は、経年変化を示す関数、および製造時からの経過時間に基づいて、経年変化後の姿勢差情報または限界点情報を再計算してもよい。また、撮像装置100または制御装置200内に姿勢差情報または限界点情報を更新可能な機能構成が別途備えられる場合には、当該機能構成によって経年的に変化した姿勢差情報または限界点情報の更新が行われてもよい。
  <6.ハードウェア構成>
 上記では、本実施形態に係る第2の変形例について説明した。続いて、図8を参照して、撮像装置100のハードウェア構成例について説明する。図8は、撮像装置100のハードウェア構成例の概要を示す図である。
 図8には、撮像装置100に備えられる、コイル121と、磁石122と、ばね123と、光学部材130(フォーカスレンズを含む)と、撮像部140(固体撮像素子アレイを含む)と、筐体170と、IRカットフィルタ180と、基板190と、が示されている。
 このうち、コイル121、磁石122、およびばね123は、駆動部120がボイスコイルモータである場合に備えられる構成である。磁石122は、対面するように配置されたコイル121に磁界を与える構成である。駆動部120が駆動制御部110による制御によってコイル121に電流を流すことで、コイル121には磁石122が発生させた磁界によってローレンツ力が加わる。このローレンツ力は、コイル121に流される電流の方向によって向きが変化し、電流量によってその力の大きさが変化する。そして、このローレンツ力によってばね123が弾性変形することで、光学部材130の位置が変化し、焦点の調節などが実現される。
 筐体170は、撮像装置100の各構成を内包する部材であり、所定の形状を有している。IRカットフィルタ180は、赤外光を除去することで色再現性を高める構成である。なお、IRカットフィルタ180以外にも、例えば、モアレの発生を防止するためのローパスフィルタなどが撮像部140の前段に備えられてもよい。基板190は、駆動制御部110などを実現する回路などを備える構成である。
 以上、撮像装置100のハードウェア構成例について説明した。本開示に係る制御装置200が、撮像装置100の姿勢情報に基づいて光学部材130の駆動を制御することによって、オープンループ制御によるオートフォーカスを実現しつつ、撮像装置100の小型化を実現することができる。より具体的に説明すると、図9に示すように、本開示により撮像装置100の背をより低くすることが可能になる。これによって、空間10aおよび空間10bがより大きくなることで、空間10aおよび空間10bに他の部材を配置することが可能になるため(空間10aおよび空間10bの有効活用が可能になるため)、撮像装置100および制御装置200が何らかの装置に格納される場合には、当該装置の小型化が可能となる。
 なお、図8を用いて説明した上記のハードウェア構成はあくまで一例であり、撮像装置100のハードウェア構成は係る例に限定されない。例えば、撮像装置100は、図8に示す構成以外の構成を備えていてもよいし、図8に示す構成の全てを必ずしも備えなくてもよい。また、図9を用いて説明した撮像装置100の形状もあくまで一例であり、撮像装置100の形状は係る例に限定されない。
  <7.情報処理装置300への適用>
 上記では、撮像装置100のハードウェア構成例について説明した。続いて、本開示が情報処理装置300へ適用された場合について説明する。より具体的に説明すると、上記で説明してきた撮像装置100および制御装置200は、各種の情報処理装置300に格納され得る。ここで、情報処理装置300の種類は特に限定されない。例えば、情報処理装置300は、スマートフォン、携帯電話、またはタブレット型PC(Personal Computer)などの携帯型情報処理装置であってもよいが、必ずしもこれらに限定されない。例えば、情報処理装置300は、携帯されない各種装置であってもよい。
 (7.1.機能構成)
 まず、図10を参照して、情報処理装置300の機能構成について説明する。図10は、情報処理装置300の機能構成例を示すブロック図である。図10に示すように、情報処理装置300は、撮像装置100と、制御装置200と、センサ部310と、入力部320と、出力部330と、通信部340と、記憶部350と、を備える。
 撮像装置100は、図5を参照して説明した機能構成を備えていてもよいが、必ずしもこれに限定されず、図5を参照して説明した機能構成の一部を備えていなくてもよい。例えば、図10に示す実施形態では、センサ部160が撮像装置100の外部に備えられている。センサ部160以外の機能構成は、図5を参照して説明したものと同様であるため、説明を省略する。
 制御装置200も、図5を参照して説明した機能構成を備えていてもよいが、必ずしもこれに限定されず、図5を参照して説明した機能構成の一部を備えていなくてもよい。例えば、図10に示す実施形態では、制御装置200は、図5を参照して説明した機能構成と同様の機能構成を備えている。なお、制御装置200の取得部210は、撮像装置100の外部に備えられたセンサ部310から姿勢情報を取得する点に留意されたい。
 センサ部310は、図5を参照して説明したセンサ部160と同様の機能を有する構成である。より具体的には、センサ部310は、各種センサを備えており、少なくとも、情報処理装置300の姿勢をセンシングする構成である。ここで、撮像装置100は情報処理装置300に対して固定されており、撮像装置100と情報処理装置300の相対的な位置関係は変化しない。したがって、センサ部310が情報処理装置300の姿勢をセンシングすることは、撮像装置100の姿勢をセンシングすること(換言すると、撮像装置100の第1の姿勢に関する情報である姿勢情報を生成すること)と等価である点に留意されたい。センサ部310は、例えばジャイロセンサを備えており、撮像装置100の第1の姿勢に関する姿勢情報を、当該ジャイロセンサを用いて生成する。なお、センサ部310によって備えられるセンサの種類は特に限定されない。
 入力部320は、操作者による各種入力を受ける構成である。例えば、入力部320はタッチパネル、ボタン、スイッチ、マウス、キーボード、またはマイクロフォンなどの入力装置を備えており、操作者がこれらの入力装置を用いることによって、撮像装置100の焦点の調節処理、撮像装置100による撮像処理などのための入力操作を行うことができる。なお、入力部320が備える入力装置はこれらに限定されない。
 出力部330は、各種情報を出力する構成である。例えば、出力部330は、ディスプレイなどの表示装置を備えており、制御装置200による制御に基づいて、撮像装置100によって生成された撮像信号などを出力する。また、出力部330は、スピーカなどの音声出力装置、またはアクチュエータなどの触覚提示装置などを備えていてもよい。なお、出力部330が備える出力装置はこれらに限定されない。
 通信部340は、外部装置と通信を行う構成である。例えば、通信部340は、制御装置200による制御に基づいて撮像信号などを含む各種信号を外部装置に対して送信したり、当該送信信号に応じる応答信号を外部装置から受信したりする。なお、通信部340が通信する情報、および通信するケースは特に限定されない。また、通信部340による通信方式も特に限定されない。
 記憶部350は、各種情報を記憶する構成である。例えば、記憶部350は、撮像装置100によって生成された撮像信号などを記憶したり、情報処理装置300の各機能構成によって使用されるプログラムやパラメータなどを記憶したりする。なお、記憶部350が記憶する情報はこれらに限定されない。
 以上、情報処理装置300の機能構成例について説明した。なお、図10を用いて説明した上記の機能構成はあくまで一例であり、情報処理装置300の機能構成は係る例に限定されない。例えば、情報処理装置300は、図10に示す機能構成の全てを必ずしも備えなくてもよい。また、情報処理装置300の機能構成は、仕様や運用に応じて柔軟に変形可能である。
 (7.2.ハードウェア構成)
 上記では、情報処理装置300の機能構成について説明した。続いて、図11を参照して、情報処理装置300のハードウェア構成について説明する。図11は、情報処理装置300のハードウェア構成例を示す図である。なお、上記で説明してきた制御装置200単体でも、図11に示すハードウェア構成例を備えていてもよい点に留意されたい。
 情報処理装置300は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置(HDD)910と、ドライブ911と、通信装置912と、を備える。
 CPU901は、演算処理装置として機能し、各種プログラムに従って情報処理装置300内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。当該CPU901、ROM902およびRAM903の協働により、情報処理装置300が備える制御装置200の一部、または撮像装置100の一部の機能が実現される。
 ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ、レバー、またはカメラなど操作者が情報を入力するための入力手段と、操作者による入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置300の操作者は、当該入力装置908を操作することにより、各装置に対して各種情報を入力したり処理動作を指示したりすることができる。当該入力装置908により、センサ部310、入力部320、または撮像装置100の機能が実現される。
 出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置909は、スピーカおよびヘッドホンなどの音声出力装置を含む。表示装置は撮像信号などの各種情報を表示する。一方、音声出力装置は、音声情報などを音声に変換して出力する。当該出力装置909により出力部330の機能が実現される。
 ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。当該ストレージ装置910により記憶部350の機能が実現される。
 ドライブ911は、記憶媒体用リーダライタであり、情報処理装置300に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記憶媒体913に記録されている情報を読み出して、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体913に情報を書き込むこともできる。
 通信装置912は、例えば、通信網914に接続するための通信デバイスなどで構成された通信インタフェースである。当該通信装置912により通信部340の機能が実現される。
  <8.まとめ>
 以上で説明してきたように、本開示に係る制御装置200は、撮像装置100の第1の姿勢(焦点の調節が行われる時点での撮像装置100の姿勢)に関する情報である姿勢情報を取得し、当該姿勢情報に基づいて光学部材130の駆動を制御することで撮像装置100の焦点を調節する。より具体的には、焦点の調節時において制御装置200の焦点調節部220は、記憶部150から姿勢差情報を取得し、当該姿勢差情報と姿勢情報に基づいて、第1の姿勢における光学部材130の位置と、第2の姿勢(略水平方向を向いた姿勢)における光学部材130の位置との差(姿勢差)を算出する。そして、焦点調節部220は、算出した姿勢差に基づいてコントロール値を補正する。これによって、撮像装置100の姿勢が様々に変化した場合であっても、焦点調節部220は、撮像装置100の姿勢に応じて焦点をより適切に調節することができる。
 また、第1の変形例について説明すると、焦点調節部220は、光学部材130が駆動可能な範囲の限界点に関する限界点情報にも基づいて光学部材130の駆動を制御する。これによって、焦点調節部220は、光学部材130が第1の限界点または第2の限界点の部材と接触することを適切に防止することができるため、接触によって接触音が発生したり(録画が行われている場合には接触音が録音されたり)、各部材が損傷したりすることを適切に防止することができる。
 さらに、第2の変形例について説明すると、姿勢差情報または限界点情報のうちの少なくともいずれか一方に、撮像装置100の個体ごとに計測された情報が用いられ得る。光学部材130(例えば、フォーカスレンズなど)や駆動部120(例えば、電磁アクチュエータなど)の特性(例えば、質量や弾性力など)は個体ごとに相当程度異なる場合があるところ、第2の変形例によって焦点調節部220は、その個体差による姿勢差情報や限界点情報の違いに対応し、適切に焦点を調節することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 撮像装置の第1の姿勢に関する情報である姿勢情報を取得する取得部と、
 前記姿勢情報に基づいて光学部材の駆動を制御することで前記撮像装置の焦点を調節する焦点調節部と、を備える、
 制御装置。
(2)
 前記焦点調節部は、オープンループ制御によって前記光学部材の駆動を制御する、
 前記(1)に記載の制御装置。
(3)
 前記焦点調節部は、基準となる第2の姿勢における前記光学部材の位置と、前記第2の姿勢とは異なる第3の姿勢における前記光学部材の位置との差に関する情報である姿勢差情報にも基づいて前記光学部材の駆動を制御する、
 前記(2)に記載の制御装置。
(4)
 前記第2の姿勢は、前記撮像装置が略水平方向を向いた姿勢であり、
 前記第3の姿勢は、前記撮像装置が略垂直上方向または略垂直下方向を向いた姿勢である、
 前記(3)に記載の制御装置。
(5)
 前記焦点調節部は、前記姿勢情報と前記姿勢差情報に基づいて、前記第1の姿勢における前記光学部材の位置と、前記第2の姿勢における前記光学部材の位置との差を算出し、算出した前記差に基づいて前記光学部材の駆動を制御する、
 前記(3)または(4)に記載の制御装置。
(6)
 前記姿勢差情報は、前記撮像装置の個体ごとに計測された情報、または複数の前記撮像装置についての計測結果に基づいて得られた情報である、
 前記(3)から(5)のいずれか1項に記載の制御装置。
(7)
 前記焦点調節部は、前記光学部材が駆動可能な範囲の限界点に関する情報である限界点情報にも基づいて前記光学部材の駆動を制御する、
 前記(2)から(6)のいずれか1項に記載の制御装置。
(8)
 前記限界点は、前記光学部材が駆動可能な一方向における第1の限界点と、前記一方向の反対方向における第2の限界点を含む、
 前記(7)に記載の制御装置。
(9)
 前記焦点調節部は、前記第1の限界点および前記第2の限界点に基づいて前記光学部材が駆動可能な範囲を超えない前記光学部材の駆動量を算出し、算出した前記駆動量に基づいて前記光学部材の駆動を制御する、
 前記(8)に記載の制御装置。
(10)
 前記限界点情報は、前記撮像装置の個体ごとに計測された情報、または複数の前記撮像装置についての計測結果に基づいて得られた情報である、
 前記(7)から(9)のいずれか1項に記載の制御装置。
(11)
 被写体からの光を取り込む光学部材と、
 前記光学部材を介して入射する光により撮像信号を生成する撮像部と、
 撮像装置の第1の姿勢に関する情報である姿勢情報に基づいて焦点を調節するために生成された制御情報に基づいて前記光学部材の駆動を制御する駆動制御部と、を備える、
 撮像装置。
(12)
 制御装置と、撮像装置と、を備え、
 前記制御装置は、
 前記撮像装置の第1の姿勢に関する情報である姿勢情報を取得する取得部と、
 前記姿勢情報に基づいて光学部材の駆動を制御する制御情報を生成することで、前記撮像装置の焦点を調節する焦点調節部と、を備え、
 前記撮像装置は、
 被写体からの光を取り込む前記光学部材と、
 前記光学部材を介して入射する光により撮像信号を生成する撮像部と、
 前記制御情報に基づいて前記光学部材の駆動を制御する駆動制御部と、を備える、
 情報処理装置。
(13)
 撮像装置の第1の姿勢に関する情報である姿勢情報を取得することと、
 前記姿勢情報に基づいて光学部材の駆動を制御することで前記撮像装置の焦点を調節することと、を有する、
 コンピュータにより実行される制御方法。
 100  撮像装置
 110  駆動制御部
 120  駆動部
 130  光学部材
 140  撮像部
 150  記憶部
 160  センサ部
 200  制御装置
 210  取得部
 220  焦点調節部
 230  信号処理部
 300  情報処理装置
 310  センサ部
 320  入力部
 330  出力部
 340  通信部
 350  記憶部

Claims (13)

  1.  撮像装置の第1の姿勢に関する情報である姿勢情報を取得する取得部と、
     前記姿勢情報に基づいて光学部材の駆動を制御することで前記撮像装置の焦点を調節する焦点調節部と、を備える、
     制御装置。
  2.  前記焦点調節部は、オープンループ制御によって前記光学部材の駆動を制御する、
     請求項1に記載の制御装置。
  3.  前記焦点調節部は、基準となる第2の姿勢における前記光学部材の位置と、前記第2の姿勢とは異なる第3の姿勢における前記光学部材の位置との差に関する情報である姿勢差情報にも基づいて前記光学部材の駆動を制御する、
     請求項2に記載の制御装置。
  4.  前記第2の姿勢は、前記撮像装置が略水平方向を向いた姿勢であり、
     前記第3の姿勢は、前記撮像装置が略垂直上方向または略垂直下方向を向いた姿勢である、
     請求項3に記載の制御装置。
  5.  前記焦点調節部は、前記姿勢情報と前記姿勢差情報に基づいて、前記第1の姿勢における前記光学部材の位置と、前記第2の姿勢における前記光学部材の位置との差を算出し、算出した前記差に基づいて前記光学部材の駆動を制御する、
     請求項3に記載の制御装置。
  6.  前記姿勢差情報は、前記撮像装置の個体ごとに計測された情報、または複数の前記撮像装置についての計測結果に基づいて得られた情報である、
     請求項3に記載の制御装置。
  7.  前記焦点調節部は、前記光学部材が駆動可能な範囲の限界点に関する情報である限界点情報にも基づいて前記光学部材の駆動を制御する、
     請求項2に記載の制御装置。
  8.  前記限界点は、前記光学部材が駆動可能な一方向における第1の限界点と、前記一方向の反対方向における第2の限界点を含む、
     請求項7に記載の制御装置。
  9.  前記焦点調節部は、前記第1の限界点および前記第2の限界点に基づいて前記光学部材が駆動可能な範囲を超えない前記光学部材の駆動量を算出し、算出した前記駆動量に基づいて前記光学部材の駆動を制御する、
     請求項8に記載の制御装置。
  10.  前記限界点情報は、前記撮像装置の個体ごとに計測された情報、または複数の前記撮像装置についての計測結果に基づいて得られた情報である、
     請求項7に記載の制御装置。
  11.  被写体からの光を取り込む光学部材と、
     前記光学部材を介して入射する光により撮像信号を生成する撮像部と、
     撮像装置の第1の姿勢に関する情報である姿勢情報に基づいて焦点を調節するために生成された制御情報に基づいて前記光学部材の駆動を制御する駆動制御部と、を備える、
     撮像装置。
  12.  制御装置と、撮像装置と、を備え、
     前記制御装置は、
     前記撮像装置の第1の姿勢に関する情報である姿勢情報を取得する取得部と、
     前記姿勢情報に基づいて光学部材の駆動を制御する制御情報を生成することで、前記撮像装置の焦点を調節する焦点調節部と、を備え、
     前記撮像装置は、
     被写体からの光を取り込む前記光学部材と、
     前記光学部材を介して入射する光により撮像信号を生成する撮像部と、
     前記制御情報に基づいて前記光学部材の駆動を制御する駆動制御部と、を備える、
     情報処理装置。
  13.  撮像装置の第1の姿勢に関する情報である姿勢情報を取得することと、
     前記姿勢情報に基づいて光学部材の駆動を制御することで前記撮像装置の焦点を調節することと、を有する、
     コンピュータにより実行される制御方法。
PCT/JP2018/035228 2018-09-21 2018-09-21 制御装置、撮像装置、情報処理装置、および制御方法 WO2020059152A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/056,768 US20210208474A1 (en) 2018-09-21 2018-09-21 Control device, imaging device, information processing device, and control method
PCT/JP2018/035228 WO2020059152A1 (ja) 2018-09-21 2018-09-21 制御装置、撮像装置、情報処理装置、および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/035228 WO2020059152A1 (ja) 2018-09-21 2018-09-21 制御装置、撮像装置、情報処理装置、および制御方法

Publications (1)

Publication Number Publication Date
WO2020059152A1 true WO2020059152A1 (ja) 2020-03-26

Family

ID=69886871

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035228 WO2020059152A1 (ja) 2018-09-21 2018-09-21 制御装置、撮像装置、情報処理装置、および制御方法

Country Status (2)

Country Link
US (1) US20210208474A1 (ja)
WO (1) WO2020059152A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220311914A1 (en) * 2019-07-01 2022-09-29 Lg Innotek Co., Ltd. Lens driving apparatus, and camera module and optical device comprising same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159796A (ja) * 2011-02-02 2012-08-23 Nikon Corp 焦点調節装置および撮像装置
JP2012215800A (ja) * 2011-03-31 2012-11-08 Nikon Corp レンズ鏡筒及びカメラシステム
JP2014174441A (ja) * 2013-03-12 2014-09-22 Canon Inc 撮像装置及びその制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4465671B2 (ja) * 1999-07-19 2010-05-19 株式会社トプコン 電子式測量機

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159796A (ja) * 2011-02-02 2012-08-23 Nikon Corp 焦点調節装置および撮像装置
JP2012215800A (ja) * 2011-03-31 2012-11-08 Nikon Corp レンズ鏡筒及びカメラシステム
JP2014174441A (ja) * 2013-03-12 2014-09-22 Canon Inc 撮像装置及びその制御方法

Also Published As

Publication number Publication date
US20210208474A1 (en) 2021-07-08

Similar Documents

Publication Publication Date Title
US11099711B2 (en) Display apparatus and method
US7623776B2 (en) Optical apparatus, lens unit, and image capturing apparatus
KR101643617B1 (ko) 디지털 촬영 장치 및 그의 슬립 모드 제어 방법
JP5553472B2 (ja) 焦点調節装置、撮像装置、及びその制御方法
US7428376B2 (en) Lens driving mechanism, lens unit and image pickup apparatus
JP5967432B2 (ja) 処理装置、処理方法、及び、プログラム
US9557576B2 (en) Image pickup apparatus and control method
JP4600754B2 (ja) 撮像装置
US9606371B2 (en) Image pickup apparatus and control method
KR102073617B1 (ko) 카메라 모듈 및 카메라 장치
EP3462222B1 (en) Camera module including magnetic fixing position of lens using magnetic force and electronic device for the same
JP2015148656A (ja) 撮像装置
JPWO2014080673A1 (ja) 撮像装置及び露出決定方法
US20160178869A1 (en) Devices and Methods for Positioning a Camera Lens with Magnetostrictive Elements
CN105629428A (zh) 光学设备以及镜头控制方法
KR102450657B1 (ko) 포커스 렌즈 어셈블리의 제어
JP5089372B2 (ja) 撮像装置及びその制御方法
US9069235B2 (en) Digital photographing apparatus and method for controlling thereof
JP2014055999A (ja) 処理装置、処理方法、及び、プログラム
JP5035964B2 (ja) 像ブレ補正装置、像ブレ補正方法および記録媒体
JP2016173496A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
WO2020059152A1 (ja) 制御装置、撮像装置、情報処理装置、および制御方法
US9628694B2 (en) Image pickup apparatus that drivingly controls lenses and control method therefor
JP2009239460A (ja) 焦点制御方法、測距装置、撮像装置
KR20230039058A (ko) 테스트장치를 이용하여 렌즈의 선형성을 보정하는 렌즈구동방법, 이를 위한 렌즈구동장치, 및 테스트장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18934066

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18934066

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP