WO2015081563A1 - 一种生成图片的方法及一种双镜头设备 - Google Patents

一种生成图片的方法及一种双镜头设备 Download PDF

Info

Publication number
WO2015081563A1
WO2015081563A1 PCT/CN2013/088783 CN2013088783W WO2015081563A1 WO 2015081563 A1 WO2015081563 A1 WO 2015081563A1 CN 2013088783 W CN2013088783 W CN 2013088783W WO 2015081563 A1 WO2015081563 A1 WO 2015081563A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processed
processing parameter
lens
dual
Prior art date
Application number
PCT/CN2013/088783
Other languages
English (en)
French (fr)
Inventor
朱聪超
李欣
罗巍
Original Assignee
华为终端有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为终端有限公司 filed Critical 华为终端有限公司
Priority to US15/102,226 priority Critical patent/US10306165B2/en
Priority to EP13898880.3A priority patent/EP3073733A4/en
Priority to JP2016536587A priority patent/JP6263623B2/ja
Priority to PCT/CN2013/088783 priority patent/WO2015081563A1/zh
Priority to CN201380077824.2A priority patent/CN105340267A/zh
Publication of WO2015081563A1 publication Critical patent/WO2015081563A1/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0018Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for preventing ghost images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Definitions

  • the present invention relates to the field of image processing technologies, and in particular, to a method for generating a picture and a dual lens device. Background technique
  • HDR High Dynamic Range
  • LDR Low Dynamic Range
  • the HDR technology needs to collect multi-frame images of different exposures, and is limited by the maximum frame rate of the camera photographing system, there is a certain photographing time interval between these multi-frame images. During this time interval, if hand shake occurs, or objects in the scene move, such as wind blowing branches, people walking, etc., the image content in these images will change and will appear when the image is synthesized. ghosting phenomenon, ghosts often appear in photos, especially when shooting in backlights.
  • the imaging optical system there is one or more images similar to the image points near the image point, and the other pixels except the image point are collectively referred to as "ghost shadows".
  • the image on the left in Figure 1 is the physical character A at the time of normal shooting, and the image on the left is the ghost image B that appears. This phenomenon is especially noticeable for scenes that shoot fast motion. So, how to eliminate "ghosting" has become one of the difficulties in HDR technology, which has a crucial impact on the quality of HDR images.
  • This scheme can solve the "ghosting" problem well, but the resolution and resolution of the image are low due to the use of interlaced/separated exposure and digital interpolation.
  • the image registration and de-ghosting algorithms are added to reduce the influence of hand shake and scene motion on image fusion.
  • the present invention provides a method for generating a picture and a dual-lens device for solving the problem of hand-held shaking when taking a picture in a prior art, and/or merging an image of a time-division multi-frame when an object motion occurs in a scene.
  • a method of generating a picture is described, the method being applied to a dual lens device, the two lens device comprising a first lens and a second lens arranged on a same plane of the dual lens device,
  • the method includes: determining a first processing parameter and a second processing parameter, where the first processing parameter is different from the second processing parameter; acquiring, according to the first processing parameter, a first corresponding to the first lens And acquiring, by the image sensor, the first image collected at the first time, acquiring, according to the second processing parameter, a second image that is collected by the second image sensor corresponding to the second lens at the first time; When the operation instruction is photographed, the acquired first image and the second image are combined to generate a picture.
  • determining the first processing parameter and the second processing parameter including: receiving a user instruction, presetting the first processing parameter and the second processing parameter; or Determining the first processing parameter as a result of the image scene recognition before acquiring the first image, and determining the result according to the result of the image scene recognition before acquiring the second image a second processing parameter, where the first processing parameter includes a first exposure amount or a first sensitivity; the second processing parameter includes a second exposure amount or a second sensitivity; wherein, the first exposure amount and The second exposure amount is different, and the first sensitivity and the second sensitivity are different.
  • the method before the processing the processed first image and the processed second image to generate a picture, the method further includes: obtaining a translation amount between the processed first image and the processed second image; selecting the processed first image as a reference image; and performing the processing according to the translation amount The subsequent second image performs a panning operation to determine a common image area of the processed first image and the processed second image.
  • the obtaining the amount of translation between the processed first image and the processed second image is specifically: based on
  • fx ( t /d ) /u obtains the translation amount; wherein, L is a translation amount between the processed first image and the processed second image, f is a focal length, t is a The distance between the first lens and the second lens, d is the pixel size of the first image, wherein the pixel size of the first image and the pixel size of the second image are the same, u is the depth of field .
  • the method further The method includes: cutting the processed first image and the processed second image region based on the common image, and obtaining the cropped first image and the cropped second image.
  • the obtained first image and the second image are combined to generate a picture, specifically: according to the processed first image and The processed common image area of the second image is combined with the processed first image and the processed second image to generate a picture.
  • a dual lens device comprising a first lens and a second lens disposed on a same plane of the dual lens device, the dual lens device further comprising: a processor, a a first image sensor corresponding to the first lens, a second image sensor corresponding to the second lens, and a processor, configured to determine a first processing parameter and a second processing parameter, where The first processing parameter is different from the second processing parameter; the first image sensor corresponding to the first lens is configured to acquire, according to the first processing parameter, a first image sensor corresponding to the first lens.
  • a first image captured at a time a second image sensor corresponding to the second lens, configured to acquire, according to the second processing parameter, a second image sensor corresponding to the second lens at the first moment
  • the second image is collected by the processor, and is configured to synthesize the acquired first image and the second image to generate a picture when receiving the photographing operation instruction.
  • the processor is specifically configured to receive a user instruction, preset the first processing parameter and the second processing parameter, or specifically for acquiring according to a result of the image scene recognition before the first image, determining the first processing parameter, and determining the second processing parameter according to a result of image scene recognition before acquiring the second image; wherein the first processing parameter The first exposure parameter or the first sensitivity; the second processing parameter includes a second exposure amount or a second sensitivity; wherein, the first exposure amount and the second exposure amount are different, the first sensitivity The degree is different from the second sensitivity.
  • the processor includes a central processing unit or an image signal processor.
  • the processor includes the central processing unit and the image signal processor.
  • the processor is further configured to obtain the foregoing a shift amount between the processed first image and the processed second image; selecting the processed first image as a reference image; performing the processed second image according to the shift amount A panning operation determines a common image area of the processed first image and the processed second image.
  • the processor is further configured to: according to the processed image, the common image area of the processed second image, Combining the processed first image and the processed second image to generate a picture.
  • the present invention utilizes a dual lens device to solve the ghosting problem, since the dual lens device includes a first lens and a second lens disposed on the same plane of the dual lens device. Therefore, when the images are simultaneously captured, the first image and the second image of the cluster are not caused by the occurrence of hand-shake and/or relative motion of objects within the scene. Therefore, the technical problem of "ghosting" generated when the time-division multi-frame synthesis algorithm synthesizes images is eliminated, which is of great significance for improving the HDR effect.
  • Figure 1 is a schematic diagram of the phenomenon of "ghosting" in the prior art
  • FIG. 2 is a schematic diagram of a defect in the prior art in solving "ghosting"
  • FIG. 3 is a flowchart of a method for generating a picture according to an embodiment of the present invention.
  • FIG. 4 is a schematic diagram of a dual lens according to an embodiment of the present invention.
  • FIG. 5A is a schematic diagram of a first image according to an embodiment of the present invention.
  • FIG. 5B is a schematic diagram of a second image according to an embodiment of the present invention.
  • FIG. 6 is a flowchart of a method for generating a picture according to another embodiment of the present invention.
  • FIG. 7 is a structural diagram of a dual lens device according to an embodiment of the present invention.
  • FIG. 8 is a structural diagram of a dual lens device according to another embodiment of the present invention.
  • FIG. 9 is a structural diagram of a dual lens device according to another embodiment of the present invention.
  • FIG. 10 is a structural diagram of a dual lens device according to another embodiment of the present invention. detailed description
  • the embodiment of the present invention provides a method for generating a picture and a dual-lens device, and the overall solution of the solution is as follows:
  • the present invention utilizes a dual lens device to solve ghosting problems, and the dual lens device includes a first lens and a second lens disposed on the same plane of the dual lens device. Due to this design of the dual lens, when the images are simultaneously captured, the first image and the second image of the image are not caused by the occurrence of hand-shake and/or relative motion of objects within the scene. Therefore, the technical problem of "ghosting" generated when the time-division multi-frame synthesis algorithm synthesizes pictures is eliminated, which is of great significance for improving the HDR effect.
  • the method for generating a picture provided by the embodiment of the present invention may be applied to various terminal devices, and the terminal device may include: a mobile terminal device such as a mobile phone or a PAD.
  • a mobile terminal device such as a mobile phone or a PAD.
  • FIG. 3 is a flowchart of a method for generating a picture according to an embodiment of the present invention, and a method for generating a picture is proposed.
  • the method of generating a picture is applied to a terminal device with a dual lens, and the two-lens terminal device includes a first lens and a second lens arranged on the same plane of the dual lens device.
  • the two lenses of the two-lens device can also have one lens as the front lens and the other lens as the rear lens. According to the user's needs, one of the lenses can be flipped to the same plane as the other lens to ensure the same shot.
  • the picture of the content is applied to a terminal device with a dual lens, and the two-lens terminal device includes a first lens and a second lens arranged on the same plane of the dual lens device.
  • the two lenses of the two-lens device can also have one lens as the front lens and the other lens as the rear lens. According to the user's needs, one of the lenses can be flipped
  • optical axes of the two lenses of the two-lens device are parallel and fixedly connected, and the optical axes are parallel to ensure that the motion between the first image and the second image of the image is a translational motion, which can be corrected and the amount of calculation is small. If the optical axes of the two are not parallel, distortion and occlusion will occur between the images, and the correction work will be complicated, resulting in "ghosting" when the multi-frame algorithm is used to synthesize the image.
  • the method of generating a picture includes:
  • the first processing parameter and the second processing parameter are different.
  • FIG. 4 is a schematic diagram of a dual lens in an embodiment of the present invention. As shown in FIG. 4, in FIG. 4, two lenses are arranged side by side, the lens on the left is the first lens 1, and the lens on the right is the second lens 2, which are fixedly connected by the connector 3, and two The optical axes of the lenses are parallel.
  • the advantages of a fixed connection are: Ensure that the relative position of the two lenses does not change, even if the user falls, squeezes, etc. during use.
  • the first processing parameter and the second processing parameter are different.
  • the first processing parameter includes a first exposure amount or a first sensitivity
  • the second processing parameter includes a second exposure amount or a second sensitivity
  • the first exposure amount and the second exposure amount are different, and the first sensitivity and the second sensitivity are different. If the exposure amount is exemplified, it is assumed that the first exposure amount is set to +2 ev; then the second exposure amount can be set to -2 ev.
  • the first processing parameter and the second processing parameter may be determined by an electronic device such as a mobile phone, a tablet computer, or a SLR camera according to the following manner:
  • the first type receives the user instruction and presets the first processing parameter and the second processing parameter. This method is to manually fix the exposure required for two lenses, such as +2ev, -2ev, etc.
  • the first processing parameter is determined based on the result of the image scene recognition before the first image is acquired, and the second processing parameter is determined based on the result of the image scene recognition before the second image is acquired.
  • the first lens captures the preview image in advance, and then based on the image scene recognition of the preview image, analyzes the exposure amount setting of the first lens when the preview image is captured. Based on the result of the image scene recognition before the analysis of the first image, the amount of exposure required to capture the first image by the dual lens is determined.
  • the arrangement of the second lens is similar, and the present invention will not be described again.
  • a preview image is taken using the first lens, and then the exposure amount of the two lenses of the dual lens device is set according to the image scene of the preview image, for example, the exposure amount of one of the lenses is set to +2 EV, for Capture details of dark areas in the scene.
  • the exposure of the other lens is set to -2EV to capture the details of the highlight area of the scene.
  • the setting of the sensitivity is similar to the setting of the exposure amount, and will not be described here.
  • step S302 is performed.
  • the first image sensor corresponding to the first lens collects the first image at the first time according to the first processing parameter; and the second lens corresponds to the second image.
  • the image sensor collects the second image at the first moment according to the second processing parameter.
  • the processor acquires the first image and the second image and performs processing.
  • the first image and the second image are LDR images, and the first image and the second image are collected for the same image collection region. That is, the binoculars of the two lenses are aligned in the same area. Due to the simultaneity of the acquired images, no hand shake and/or motion of objects in the scene occur in the first image and the second image. Therefore, the "ghost" generated when the time-division multi-frame synthesis algorithm synthesizes the picture is eliminated.
  • a character uses a two-lens device to acquire an image when waving quickly, and when the character is waving, the dual lens simultaneously aligns the region to acquire the first image and the second image.
  • the characters in the scene being shot are waving quickly, the position and shape of the hand are exactly the same due to the time synchronization of the images acquired by the left and right lenses. In this way, ghost-free problems in shooting motion scenes or complex scenes are guaranteed from the source of HDR imaging.
  • step S303 is performed.
  • the processor receives the photographing operation instruction, the processor combines the acquired first image and the second image to generate a picture.
  • the photographing operation instruction may be a photographing operation instruction generated by the user pressing a physical button; or a photographing operation instruction generated by the user long pressing the screen; or setting a time to take a photograph, at the set time When it arrives, a camera operation command is generated.
  • This application does not limit the source of the camera operation instructions.
  • the generated image is specifically a high dynamic range image.
  • the image areas of the acquired first image and second image are different due to the difference in mounting positions of the two lenses. Since one lens is on the left side and the other lens is on the right side, although the distance between the two centers is not far apart, the field of view of their photographs is still different.
  • Figure 5A is a schematic diagram of the first image acquired
  • Figure 5B Shown as a second image schematic of the acquisition, the regions in which the first image and the second image are circled in FIGS. 5A and 5B are common portions of the first image and the second image.
  • S601 Obtain a translation amount between the processed first image and the processed second image.
  • the image shift amount of the first image and the second image can be calculated according to the known relative position, that is, the image shift amount can be calculated in advance before the image is captured. .
  • the image shift amount can be calculated in advance before the image is captured.
  • L is the amount of translation between the processed first image and the processed second image
  • f is the focal length
  • t is the optical distance of the first lens and the second lens
  • d is the pixel size of the first image
  • the pixel size of the first image is the same as the pixel size of the second image
  • u is the depth of field.
  • the first image sensor corresponding to the first lens collects the first image
  • the second image sensor corresponding to the second lens collects the second image
  • the first image sensor and the second image sensor can simultaneously collect the checkerboard, and then the content displayed in the first image and the second image is a checkerboard, and then according to the first image and the second image.
  • the difference in the checkerboard is measured by the amount of translation.
  • the measured translation amount is written into the camera module configuration table (the camera module configuration table can be stored in the ROM memory), and the photo based is based on The configuration table reads the image shift amount of the first image and the second image.
  • each set of dual lens modules is calibrated before delivery, so that the accuracy high.
  • the processed first image and the processed common image area of the second image may be determined.
  • processed first image and the processed second image may be combined according to the processed first image and the processed common image region of the second image to generate a picture.
  • the image fusion may be performed using the irradiation domain method or the image domain method.
  • the image fusion includes various modes, and the present invention does not limit the specific manner of image fusion.
  • a two-lens device is used to solve the ghosting problem
  • the dual lens device includes a first lens and a second lens arranged on the same plane of the dual lens device. Due to this design of the dual lens, when the images are simultaneously captured, the first and second images of the image are not caused by hand-shake and/or relative motion of objects within the scene. Therefore, the technical problem of "ghosting" generated when synthesizing pictures by time-sharing multi-frame synthesis algorithm is eliminated, which is of great significance for improving HDR effect.
  • the following embodiment describes a dual lens device.
  • FIG. 7 is a structural diagram of a dual lens device according to an embodiment of the present invention, as shown in FIG. 7, a dual lens device
  • the first lens 1 and the second lens 2 are disposed on the same plane of the dual lens device, the processor 001, the first image sensor 11 corresponding to the first lens 1, and the second image sensor 12 corresponding to the second lens 2.
  • the processor 001 is configured to determine a first processing parameter and a second processing parameter.
  • the first processing parameter and the second processing parameter are different.
  • the processor 001 is further configured to receive a user instruction, preset a first processing parameter and a second processing parameter, and determine a first processing parameter according to a result of the image scene recognition before acquiring the first image, and according to the acquiring a second processing parameter is determined as a result of the image scene recognition before the second image; wherein the first processing parameter includes a first exposure amount or a first sensitivity; and the second processing parameter includes a second exposure amount or a second sensitivity; The first exposure amount and the second exposure amount are different, and the first sensitivity and the second sensitivity are different.
  • the first image sensor 11 corresponding to the first lens 1 is configured to collect the first image at the first time according to the first processing parameter.
  • the second image sensor 12 corresponding to the second lens 2 is configured to collect the second image at the first time according to the second processing parameter.
  • the processor 001 is further configured to perform, when receiving the photographing operation instruction, the first image acquired by the first image sensor 11 corresponding to the first lens 1 and the second image acquired by the second image sensor 12 corresponding to the second lens 2 Synthesize, generate a picture.
  • the processor 001 can be used to receive a photographing operation instruction generated by the user pressing a physical button; or can be used to receive a photographing operation instruction generated by the user long pressing the screen; and can also receive a photographing operation instruction generated when the set time arrives. .
  • the dual lens device further includes: a memory 13 configured to store a picture, a first processing parameter, and a second processing parameter.
  • FIG. 8 is a structural diagram of a dual lens device according to another embodiment of the present invention.
  • the processor 001 includes a central processing unit 15 and an image signal processor 16.
  • the central processing unit 15 is configured to: when the photographing operation instruction is received, collect the acquired first image of the first image sensor 11 corresponding to the first lens 1 and the second image sensor 12 corresponding to the second lens 2 The second image is synthesized to generate a picture.
  • the image signal processor 16 is configured to determine a first processing parameter and a second processing parameter, wherein the first processing parameter and the second processing parameter are different.
  • FIG. 9 is a structural diagram of a dual lens device according to another embodiment of the present invention. As shown in FIG. 9, the image signal processor 16 is specifically a first image processor 17 and a second image processor 18, and the first image processor 17 For determining the first processing parameter, the image signal processor 18 is configured to determine a second processing parameter, wherein the first processing parameter and the second processing parameter are different.
  • the central processing unit 15 is further configured to obtain a translation amount between the processed first image and the processed second image; and select the processed first image. As a reference image; performing a panning operation on the processed second image according to the shift amount, and determining a common image region of the processed first image and the processed second image.
  • the image signal processor 16 may include a first image processor 17 and a second image processor 18.
  • the processor 001 is specifically a central processing unit 15 or an image signal processor 16.
  • the central processing unit 15 can perform all the steps performed by the processor 001.
  • the image signal processor 16 performs all the steps performed by the processor 001.
  • the image signal processor 16 specifically includes a first image signal processor 17 and a first image signal processor 18.
  • the operation of the dual lens device is illustrated by the processor 001, specifically the central processing unit 15:
  • the central processing unit 15 is used to determine the first processing parameter and the second processing parameter.
  • the central processing unit 15 is configured to receive a user instruction, preset a first processing parameter and a second processing parameter, or to determine a first processing parameter according to a result of image scene recognition before acquiring the first image, and Determining a second processing parameter according to a result of image scene recognition before acquiring the second image; wherein the first processing parameter includes a first exposure amount or a first sensitivity; and the second processing parameter includes a second exposure amount or a second sensitivity The first exposure amount and the second exposure amount are different, and the first sensitivity and the second sensitivity are different.
  • the first image sensor 11 corresponding to the first lens 1 is configured to collect the first image at the first time according to the first processing parameter determined by the central processing unit 15.
  • the second image sensor 12 corresponding to the second lens 2 is configured to collect the second image at the first time according to the second processing parameter determined by the central processing unit 15.
  • the central processor 15 is configured to acquire a first image that is collected by the first image sensor 11 corresponding to the first lens 1 at a first time; and acquire a second image sensor 12 corresponding to the second lens 2 at a first time The second image.
  • the central processing unit 15 is configured to synthesize the first image acquired by the first image sensor 11 corresponding to the first lens 1 and the second image acquired by the second image sensor 12 corresponding to the second lens 2 when receiving the photographing operation instruction. , generate a picture.
  • the central processing unit 15 is further configured to obtain a translation amount between the processed first image and the processed second image; and select the processed first image as a reference image;
  • the processed second image performs a panning operation to determine a common image region of the processed first image and the processed second image. Then, the processed first image and the processed second image are combined according to the processed first image and the processed common image region of the second image to generate a picture.
  • display 14 is used to display a picture synthesized by central processor 15.
  • the memory 13 is for storing pictures synthesized by the central processing unit 15; in addition, the memory 13 is further configured to store first processing parameters and second processing parameters determined by the central processing unit 15.
  • the steps performed by the central processing unit 15 may be performed entirely by the image signal processor 16, or may be performed by the central processing unit 15 and the image signal processor 16, wherein the image signal processor
  • the first image signal processor 17 and the second image signal processor 18 may be included in the embodiment of the present invention.
  • the present invention utilizes a dual lens device to solve ghosting problems, and the dual lens device includes a first lens and a second lens disposed on the same plane of the dual lens device. Due to this design of the dual lens, when the images are simultaneously captured, the first image and the second image of the image are not caused by the occurrence of hand-shake and/or relative motion of objects within the scene. Therefore, the technical problem of "ghosting" generated when the time-division multi-frame synthesis algorithm synthesizes pictures is eliminated, which is of great significance for improving the HDR effect.
  • embodiments of the present invention can be provided as a method, system, or computer program product. Accordingly, the present invention may take the form of an entirely hardware embodiment, an entirely software embodiment, or a combination of software and hardware. Moreover, the invention can be applied to one or more A computer program product embodied on a computer usable storage medium (including but not limited to disk storage, CD-ROM, optical storage, etc.) containing computer usable program code.
  • a computer usable storage medium including but not limited to disk storage, CD-ROM, optical storage, etc.
  • the computer program instructions can also be stored in a computer readable memory that can direct a computer or other programmable data processing device to operate in a particular manner, such that the instructions stored in the computer readable memory produce an article of manufacture comprising the instruction device.
  • the apparatus implements the functions specified in one or more blocks of a flow or a flow and/or block diagram of the flowchart.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Exposure Control For Cameras (AREA)
  • Cameras In General (AREA)

Abstract

一种生成图片的方法及一种双镜头设备,其中,方法包括:确定第一处理参数和第二处理参数,其中,所述第一处理参数和所述第二处理参数不同;根据所述第一处理参数,获取与所述第一镜头对应的第一图像传感器在第一时刻采集的第一图像,根据所述第二处理参数,获取与所述第二镜头对应的第二图像传感器在第一时刻采集的第二图像;在接收到拍照操作指令时,对所述获取的第一图像和第二图像进行合成,生成图片。

Description

一种生成图片的方法及一种双镜头设备 技术领域
本发明涉及图像处理技术领域, 特别涉及一种生成图片的方法及一种双 镜头设备。 背景技术
目前, 与传统拍照获得的图像相比, 釆用 HDR ( High Dynamic Range, 高动态范围 )图像通过对多帧不同曝光量的 LDR ( Low Dynamic Range, 低动 态范围) 图像进行合成, 可以提供更宽的动态范围, 更多的图像细节, 以及 能够更好地反映真实环境中的视觉效果。 因此, 该技术广泛应用于智能终端 Camera (照相机)拍照领域。
而由于 HDR技术需要釆集不同曝光量的多帧图像, 而受 Camera拍照系 统的最大帧率限制, 这些多帧图像之间存在一定的拍照时间间隔。 在该时间 间隔内, 如果发生手抖, 或者场景中的物体发生运动, 如风吹动树枝, 人的 走动等等,那么这些图像中的图像内容就会改变,在图像合成时将会出现 "鬼 影" 现象, 鬼影一般经常出现在照片之中, 尤其是在逆光拍摄时最为常见。 成像光学***中, 像点附近有一个或者多个与像点相似的像的存在, 这个除 了像点之外的其它的像点统称为 "鬼影"。 例如图 1 , 图 1 中左边的图像是正 常拍摄时的实体人物 A, 而左边的图像为出现的鬼影 B。对于拍摄快速运动的 场景, 该现象将尤其明显。 那么, 如何消除 "鬼影" 成了 HDR技术中的难点 之一, 对于 HDR图片的质量有至关重要的影响。
关于消除 "鬼影", 在现有技术中, 出现了以下两类方法:
第一种,在 Camera器件上,对隔行或 /和隔列的传感单元釆用不同的曝光, 然后通过数字插值技术、 图像融合算法得到 HDR。
此方案可以很好地解决 "鬼影" 问题, 但是, 由于釆用了隔行 /隔列曝光 和数字插值, 图像的分辨率和解像力较低。 第二种, 在图像融合算法前, 增加图像配准与去鬼影算法, 降低手抖和 场景运动对图像融合的影响。
此方案在一定程度上也能改善鬼影问题, 但增加了算法复杂度, 且在某 些场景下配准和去鬼影算法会失效, 或者会引入一定的纰漏, 无法较好的消 除 HDR图像中的 "鬼影", 如图 2所示除了实体人物 A之外, 还是具有鬼影 B。
综上, 现有技术中尚无较好的消除 HDR图像中的 "鬼影" 的方法。
因此, 现有技术存在的技术问题是: 当拍照时发生手持抖动, 和 /或场景 中发生物体运动时, 通过对分时多帧的图像进行融合生成的高动态范围图片 中存在 "鬼影" 现象。 发明内容
本发明提供一种生成图片的方法及一种双镜头设备, 用以解决现有技术 中当拍照时发生手持抖动, 和 /或场景中发生物体运动时, 通过对分时多帧的 图像进行融合生成的高动态范围图片中存在 "鬼影" 现象。
第一方面, 描述了一种生成图片的方法, 所述方法应用于双镜头设备, 所述双镜头设备包括在所述双镜头设备的同一平面上布置的第一镜头和第二 镜头, 所述方法包括: 确定第一处理参数和第二处理参数, 其中, 所述第一 处理参数和所述第二处理参数不同; 根据所述第一处理参数, 获取与所述第 一镜头对应的第一图像传感器在第一时刻釆集的第一图像, 根据所述第二处 理参数, 获取与所述第二镜头对应的第二图像传感器在所述第一时刻釆集的 第二图像; 在接收到拍照操作指令时, 对所述获取的第一图像和第二图像进 行合成, 生成图片。
结合第一方面, 在第一种可能的实现方式中, 确定第一处理参数和第二 处理参数, 包括: 接收用户指令, 预先设置所述第一处理参数和所述第二处 理参数; 或根据在获取第一图像之前的图像场景识别的结果, 确定所述第一 处理参数, 以及根据在获取第二图像之前的图像场景识别的结果, 确定所述 第二处理参数; 其中, 所述第一处理参数包括第一曝光量或第一感光度; 所 述第二处理参数包括第二曝光量或第二感光度; 其中, 所述第一曝光量和所 述第二曝光量不同, 所述第一感光度和所述第二感光度不同。
结合第一方面和第一种可能的实现方式, 在第二种可能的实现方式中, 在所述对处理后的第一图像和处理后的第二图像进行合成, 生成图片之前, 所述方法还包括: 获得所述处理后的第一图像和所述处理后的第二图像之间 的平移量; 选取所述处理后的第一图像作为参考图像; 根据所述平移量, 对 所述处理后的第二图像进行平移操作, 确定所述处理后的第一图像和所述处 理后的第二图像的公共图像区域。
结合第二种可能的实现方式, 在第三种可能的实现方式中, 所述获得所 述处理后的第一图像和所述处理后的第二图像之间的平移量, 具体为: 基于
( f x ( t /d ) ) /u获得所述平移量; 其中, L为所述处理后的第一图像和所述 处理后的第二图像之间的平移量, f 为焦距, t为所述第一镜头和所述第二镜 头的光心距离, d为所述第一图像的像素尺寸, 其中, 所述第一图像的像素尺 寸和所述第二图像的像素尺寸相同, u为景深。
结合第二种可能的实现方式, 在第四种可能的实现方式中, 在所述确定 所述处理后的第一图像和所述处理后的第二图像的公共图像区域之后, 所述 方法还包括: 基于所述公共图像对所述处理后的第一图像和所述处理后的第 二图像区域进行裁剪, 获得裁剪后的第一图像和裁剪后的第二图像。
结合第二种可能的实现方式, 在第五种可能的实现方式中, 对所述获取 的第一图像和第二图像进行合成, 生成图片, 具体为: 根据所述处理后的第 一图像和所述处理后的第二图像的公共图像区域, 对所述处理后的第一图像 和所述处理后的第二图像进行合成, 生成图片。
第二方面, 描述了一种双镜头设备, 所述双镜头设备包括在所述双镜头 设备的同一平面上布置的第一镜头和第二镜头, 所述双镜头设备还包括: 处 理器, 所述第一镜头对应的第一图像传感器, 所述第二镜头对应的第二图像 传感器; 所述处理器, 用于确定第一处理参数和第二处理参数, 其中, 所述 第一处理参数和所述第二处理参数不同; 所述第一镜头对应的第一图像传感 器, 用于根据所述第一处理参数, 获取与所述第一镜头对应的第一图像传感 器在第一时刻釆集的第一图像; 所述第二镜头对应的第二图像传感器, 用于 根据所述第二处理参数, 获取与所述第二镜头对应的第二图像传感器在所述 第一时刻釆集的第二图像; 所述处理器, 还用于在接收到拍照操作指令时, 对所述获取的第一图像和第二图像进行合成, 生成图片。
结合第二方面, 在第一种可能的实现方式中, 所述处理器, 具体用于接 收用户指令, 预先设置所述第一处理参数和所述第二处理参数; 或具体用于 根据在获取第一图像之前的图像场景识别的结果, 确定所述第一处理参数, 以及根据在获取第二图像之前的图像场景识别的结果, 确定所述第二处理参 数; 其中, 所述第一处理参数包括第一曝光量或第一感光度; 所述第二处理 参数包括第二曝光量或第二感光度; 其中, 所述第一曝光量和所述第二曝光 量不同, 所述第一感光度和所述第二感光度不同。
结合第一种可能的实现方式, 在第二种可能的实现方式中, 所述处理器 包括中央处理器或图像信号处理器。
结合第一种可能的实现方式, 在第三种可能的实现方式中, 所述处理器 包括所述中央处理器和所述图像信号处理器。
结合第二方面, 第一种可能的实现方式, 第二种可能的实现方式, 第三 种可能的实现方式, 在第四种可能的实现方式中, 所述处理器, 还用于获得 所述处理后的第一图像和所述处理后的第二图像之间的平移量; 选取所述处 理后的第一图像作为参考图像; 根据所述平移量, 对所述处理后的第二图像 进行平移操作, 确定所述处理后的第一图像和所述处理后的第二图像的公共 图像区域。
结合第四种可能的实现方式, 在第五种可能的实现方式中, 所述处理器, 还用于根据所述处理后的第一图像和所述处理后的第二图像的公共图像区 域, 对所述处理后的第一图像和所述处理后的第二图像进行合成, 生成图片。
上述技术方案中的一个或多个技术方案, 具有如下技术效果或优点: 本发明运用双镜头设备来解决鬼影问题, 由于双镜头设备包括在双镜头 设备的同一平面上布置的第一镜头和第二镜头。 因此在同时釆集图像时, 使 得釆集的第一图像和第二图像没有由于发生手持抖动和 /或场景内物体的相对 运动。 因此, 消除了分时多帧合成算法合成图像时产生的 "鬼影" 的技术问 题, 对于改善 HDR效果具有重要意义。 附图说明
图 1为现有技术中 "鬼影" 现象示意图;
图 2为现有技术中在解决 "鬼影" 时出现纰漏的示意图;
图 3为本发明实施例中生成图片的方法流程图;
图 4为本发明实施例中双镜头的示意图;
图 5A为本发明实施例中第一图像的示意图;
图 5B为本发明实施例中第二图像的示意图;
图 6为本发明另一实施例中生成图片的方法流程图;
图 7为本发明实施例中双镜头设备的结构图;
图 8为本发明另一实施例中双镜头设备的结构图;
图 9为本发明另一实施例中双镜头设备的结构图;
图 10为本发明另一实施例中双镜头设备的结构图。 具体实施方式
下面将结合本发明实施例中的附图, 对本发明实施例中的技术方案进行 清楚、 完整地描述, 显然, 所描述的实施例仅仅是本发明一部分实施例, 而 不是全部的实施例。 基于本发明中的实施例, 本领域普通技术人员在没有作 出创造性劳动前提下所获得的所有其他实施例 , 都属于本发明保护的范围。
为了解决现有技术中当拍照时发生手持抖动, 和 /或场景中发生物体运动 时, 通过对分时多帧的图像进行融合生成的高动态范围图片中存在 "鬼影" 现象, 本发明实施例提出了一种生成图片的方法及一种双镜头设备, 其解决 方案总体思路如下:
本发明运用双镜头设备来解决鬼影问题, 双镜头设备包括在双镜头设备 的同一平面上布置的第一镜头和第二镜头。 由于双镜头的这种设计, 因此在 同时釆集图像时, 使得釆集的第一图像和第二图像没有由于发生手持抖动和 / 或场景内物体的相对运动。 因此, 消除了分时多帧合成算法合成图片时产生 的 "鬼影" 的技术问题, 对于改善 HDR效果具有重要意义。
本发明实施例提供的一种生成图片的方法可以应用于各种终端设备, 所 述终端设备可以包括: 手机、 PAD等移动终端设备。
图 3 为本发明实施例中生成图片的方法流程图, 提出了一种生成图片的 方法。 所述生成图片的方法应用于带有双镜头的终端设备, 所述双镜头的终 端设备包括在双镜头设备的同一平面上布置的第一镜头和第二镜头。 双镜头 设备的两个镜头也可以一个镜头为前置镜头, 另一个镜头为后置镜头, 根据 用户的需要, 可以将其中一个镜头进行翻转至与另一个镜头处于同一平面, 以保证拍出相同内容的图片。 双镜头设备的两个镜头的光轴平行且固定连接, 光轴平行是为了保证釆集的第一图像和第二图像之间的运动为平移运动, 可 以矫正, 且运算量小。 如果两者的光轴不平行, 图像之间会发生扭曲、 遮挡, 矫正工作复杂, 导致釆用多帧算法合成图片时产生 "鬼影"。
如图 3所示, 生成图片的方法包括:
5301 , 确定第一处理参数和第二处理参数。
其中, 第一处理参数和第二处理参数不同。
5302 , 根据第一处理参数, 获取与第一镜头对应的第一图像传感器在第 一时刻釆集的第一图像, 根据第二处理参数, 获取与第二镜头对应的第二图 像传感器在第一时刻釆集的第二图像。
5303 , 在接收到拍照操作指令时, 对获取的第一图像和第二图像进行合 成, 生成图片。
图 4为本发明实施例中双镜头的示意图。 如图 4所示, 图 4中, 两个镜头并列排布, 左边的镜头为第一镜头 1 , 右 边的镜头为第二镜头 2, 这两个镜头由连接器 3固定连接在一起, 并且两个镜 头的光轴平行。 固定连接的好处在于: 保证两个镜头的相对位置不发生变化, 即使用户在使用过程中发生跌落、 挤压等。
而在 S301的实施过程中, 第一处理参数和第二处理参数不同。
第一处理参数包括第一曝光量或第一感光度; 第二处理参数包括第二曝 光量或第二感光度;
其中, 第一曝光量和第二曝光量不同, 第一感光度和第二感光度不同。 若以曝光量举例, 假设第一曝光量设置为 +2ev; 那么第二曝光量可以设 置为 -2ev。
在本发明的另一个实施过程中, 第一处理参数和第二处理参数可以由手 机、 平板电脑或者单反相机等电子设备根据如下方式来进行确定:
第一种, 接收用户指令, 预先设置第一处理参数和第二处理参数。 此方 法是人工固定设置两个镜头所需要的曝光量, 如 +2ev、 -2ev等。
第二种, 根据在获取第一图像之前的图像场景识别的结果, 确定第一处 理参数, 以及根据在获取第二图像之前的图像场景识别的结果, 确定第二处 理参数。
具体的, 以第一图像举例, 在获取第一图像之前, 第一镜头会事先拍摄 出预览图像, 然后基于预览图像的图像场景识别, 分析第一镜头在拍摄预览 图像时的曝光量设置。 根据分析出的第一图像之前的图像场景识别的结果, 确定出双镜头拍摄第一图像所需要的曝光量。 第二镜头的设置类似, 本发明 不再赘述。
当然, 除此之外, 还使用其他的方式来设置双镜头设备的曝光量。 例如 使用第一镜头拍摄出一张预览图像, 然后根据这一张预览图像的图像场景识 别设置双镜头设备的两个镜头的曝光量, 例如将其中一个镜头的曝光量设置 为 +2EV, 用于捕捉场景中暗部区域的细节。 将另一个镜头的曝光量设置为 -2EV, 用于捕捉场景中亮部区域的细节。 而对于感光度的设置, 与曝光量的设置方式类似, 在此不再赘述。
当确定了第一处理参数和第二处理参数之后, 则执行步骤 S302。
在 S302的实施过程中, 在使用双镜头设备拍照时, 第一镜头对应的第一 图像传感器会根据第一处理参数, 在第一时刻釆集第一图像; 同时, 第二镜 头对应的第二图像传感器会根据第二处理参数, 在第一时刻釆集第二图像。
具体的, 当釆集到第一图像和第二图像之后, 处理器则会获取第一图像 和第二图像, 并进行处理。
在实际应用中, 第一图像和第二图像是 LDR图像, 第一图像和第二图像 是针对同一图像釆集区域进行釆集。 也就是说, 双镜头的取景框对准了同一 个区域。 而由于获取图像的同时性, 使得第一图像和第二图像中没有发生手 持抖动和 /或场景内物体的运动, 因此, 消除了分时多帧合成算法合成图片时 产生的 "鬼影"。
例如, 人物在快速挥手时使用双镜头设备获取图像, 在人物挥手的时候, 双镜头对该区域同时对准, 以获取第一图像和第二图像。 虽然所拍摄场景中 的人物在快速挥手, 但由于左右镜头获取图像的时间同步性, 手的位置和形 态是完全一致的。 这样, 就从 HDR成像的源头上保证了拍摄运动场景或者复 杂场景时的无鬼影问题。
同样, 由于左右镜头获取图像的时间同步性, 即使在拍照时发生手持终 端的不稳定抖动, 对两个镜头的抖动方向和抖动量也是完全一致的, 因此, 也就从 HDR成像的源头上保证了手持抖动时的无鬼影问题。
进一步的,在处理器对第一图像和第二图像进行处理时,执行步骤 S303。 在 S303的实施过程中, 处理器在接收到拍照操作指令时, 则会对获取的 第一图像和第二图像进行合成, 生成图片。
可选的, 拍照操作指令可以为用户按下物理按键, 产生的拍照操作指令; 也可以为用户长按屏幕, 产生的拍照操作指令; 也可以为设置了一个时间进 行拍照, 在设定的时间到达时, 产生拍照操作指令。 本申请对拍照操作指令 的来源不做限制。 可选的, 生成的图片具体是高动态范围图片。
在本发明另一实施例中, 由于两个镜头的安装位置差异, 会造成的获取 的第一图像和第二图像的图像区域有差异。 由于一个镜头在左侧, 另外一个 镜头在右侧, 虽然两者的光心距离相距不远, 但它们的拍照的视野仍然是不 同的, 如图 5A为获取的第一图像示意图, 图 5B所示为获取的第二图像示意 图, 图 5A和图 5B中第一图像和第二图像被圈定的区域为第一图像和第二图 像的公共部分。
因此在本发明的另一个实施例中, 第一图像和第二图像进行合成时, 还 可以进行下面步骤, 请参看图 6, 具体如下:
S601 , 获得处理后的第一图像和处理后的第二图像之间的平移量。
由于双镜头的光轴平行, 并且安装的相对位置固定且已知, 因此第一图 像和第二图像的图像平移量可根据已知的相对位置计算, 即可以在拍摄图像 之前预先计算图像平移量。 此处, 可以通过下面的方式获得。
第一种:
通过 L= ( f x ( t /d ) ) /u获得平移量;
其中, L为处理后的第一图像和处理后的第二图像之间的平移量, f为焦 距, t为第一镜头和第二镜头的光心距离, d为第一图像的像素尺寸, 其中, 第一图像的像素尺寸和第二图像的像素尺寸相同, u为景深。
第二种:
由于 t、 f、 d的实际值一般与理论值之间会存在误差, 还可以釆用下面的 双镜头标定法, 具体如下:
首先, 第一镜头对应的第一图像传感器釆集第一图像, 第二镜头对应的 第二图像传感器釆集第二图像。
首先, 在釆集时, 第一图像传感器和第二图像传感器可以同时釆集棋盘 格, 那么第一图像和第二图像中显示的内容就是棋盘格, 然后再根据第一图 像和第二图像中的棋盘格的差异测量出平移量。 其次, 将测量出的平移量写 入摄像模组配置表(摄像模组配置表可以存储在 ROM存储器), 拍照时基于 该配置表读取第一图像和第二图像的图像平移量。
这种方法的优势在于, 由于不同的双镜头模组之间可能存在批量生产的 不一致性, 即与理论设计之间的误差, 因此, 在出厂前对每组双镜头模组进 行标定, 从而精度高。
5602, 选取处理后的第一图像作为参考图像。
5603 , 根据平移量, 对处理后的第二图像进行平移操作, 确定处理后的 第一图像和处理后的第二图像的公共图像区域。
在进行平移操作后, 可以确定处理后的第一图像和处理后的第二图像的 公共图像区域。
进一步的, 可以根据处理后的第一图像和处理后的第二图像的公共图像 区域, 对处理后的第一图像和处理后的第二图像进行合成, 生成图片。
根据处理后的第一图像和处理后的第二图像的公共图像区域, 对处理后 的第一图像和处理后的第二图像进行合成, 具体可以为根据处理后的第一图 像和处理后的第二图像区域的公共图像区域进行裁剪, 获得裁剪后的第一图 像和裁剪后的第二图像。 然后, 将裁剪后的第一图像和裁剪后的第二图像进 行合成, 生成图片。
在合成的实施过程中, 可以使用辐照域方法或者图像域方法进行图像融 合, 而在实际情况中, 图像融合包含了多种方式, 本发明对图像融合的具体 方式不做限制。
在本发明的实施例中, 运用了双镜头设备来解决鬼影问题, 双镜头设备 包括在双镜头设备的同一平面上布置的第一镜头和第二镜头。 由于双镜头的 这种设计, 因此在同时釆集图像时, 使得釆集的第一图像和第二图像没有由 于发生手持抖动和 /或场景内物体的相对运动。 因此, 消除了分时多帧合成算 法合成图片时产生的 "鬼影"的技术问题,对于改善 HDR效果具有重要意义。
基于同一发明构思, 下面的实施例描述了一种双镜头设备。
在本发明的另一个实施例中, 描述了一种双镜头设备。
图 7为本发明实施例中双镜头设备的结构图, 如图 7所示, 双镜头设备 包括在双镜头设备的同一平面上布置的第一镜头 1和第二镜头 2,处理器 001 , 第一镜头 1对应的第一图像传感器 11 ,第二镜头 2对应的第二图像传感器 12。
处理器 001 , 用于确定第一处理参数和第二处理参数。 其中, 第一处理参 数和第二处理参数不同。 具体的, 处理器 001 还用于接收用户指令, 预先设 置第一处理参数和第二处理参数, 并根据在获取第一图像之前的图像场景识 别的结果, 确定第一处理参数, 以及根据在获取第二图像之前的图像场景识 别的结果, 确定第二处理参数; 其中, 第一处理参数包括第一曝光量或第一 感光度; 第二处理参数包括第二曝光量或第二感光度; 其中, 第一曝光量和 第二曝光量不同, 第一感光度和第二感光度不同。
第一镜头 1对应的第一图像传感器 11 , 用于根据第一处理参数, 在第一 时刻釆集第一图像。
第二镜头 2对应的第二图像传感器 12, 用于根据第二处理参数, 在第一 时刻釆集第二图像。
处理器 001 , 还用于在接收到拍照操作指令时, 对第一镜头 1对应的第一 图像传感器 11获取的第一图像和第二镜头 2对应的第二图像传感器 12获取 的第二图像进行合成, 生成图片。 具体的, 处理器 001 可以用于接收用户按 下物理按键产生的拍照操作指令; 也可以用于接收用户长按屏幕产生的拍照 操作指令; 也可以接收在设定时间到达时产生的拍照操作指令。
进一步的, 双镜头设备中还包括了: 存储器 13 , 用于存储图片、 第一处 理参数和第二处理参数。 显示器 14 , 用于显示生成的图片。
图 8为本发明另一实施例中双镜头设备的结构图, 如图 8所示, 在本发 明另一个实施例中, 处理器 001包括中央处理器 15和图像信号处理器 16。
中央处理器 15用于在接收到拍照操作指令时, 将获取的第一镜头 1对应 的第一图像传感器 11釆集的第一图像和所述第二镜头 2对应的第二图像传感 器 12釆集的第二图像进行合成, 生成图片。
图像信号处理器 16用于确定第一处理参数和第二处理参数, 其中, 所述 第一处理参数和所述第二处理参数不同。 图 9为本发明另一实施例中双镜头设备的结构图, 如图 9所述, 图像信 号处理器 16具体为第一图像处理器 17和第二图像处理器 18 , 第一图像处理 器 17用于确定第一处理参数, 图像信号处理器 18用于确定第二处理参数, 其中, 所述第一处理参数和所述第二处理参数不同。
在本发明另一实施例中, 中央处理器 15 , 还用于获得所述处理后的第一 图像和所述处理后的第二图像之间的平移量; 选取所述处理后的第一图像作 为参考图像; 根据所述平移量, 对所述处理后的第二图像进行平移操作, 确 定所述处理后的第一图像和所述处理后的第二图像的公共图像区域。
图像信号处理器 16可以包括第一图像处理器 17和第二图像处理器 18。 在本发明另一个实施例中, 如图 10所示, 处理器 001具体为中央处理器 15或图像信号处理器 16。
当处理器 001具体为中央处理器 15时, 中央处理器 15可以完成处理器 001执行的所有步骤。 当处理器 001具体为图像信号处理器 16时, 图像信号 处理器 16完成处理器 001执行的所有步骤。 图像信号处理器 16具体还包括 第一图像信号处理器 17和第一图像信号处理器 18。
以处理器 001具体为中央处理器 15举例说明双镜头设备的工作原理: 中央处理器 15用于确定第一处理参数和第二处理参数。 可选的, 中央处 理器 15用于接收用户指令, 预先设置第一处理参数和第二处理参数; 或用于 根据在获取第一图像之前的图像场景识别的结果, 确定第一处理参数, 以及 根据在获取第二图像之前的图像场景识别的结果, 确定第二处理参数; 其中, 第一处理参数包括第一曝光量或第一感光度; 第二处理参数包括第二曝光量 或第二感光度; 其中, 第一曝光量和第二曝光量不同, 第一感光度和第二感 光度不同。
第一镜头 1对应的第一图像传感器 11 ,用于根据中央处理器 15确定的第 一处理参数, 在第一时刻釆集第一图像。 同时, 第二镜头 2对应的第二图像 传感器 12, 用于根据中央处理器 15确定的第二处理参数, 在第一时刻釆集第 二图像。 中央处理器 15用于获取与第一镜头 1对应的第一图像传感器 11在第一 时刻釆集的第一图像; 以及获取与第二镜头 2对应的第二图像传感器 12在第 一时刻釆集的第二图像。
中央处理器 15用于在接收到拍照操作指令时, 对第一镜头 1对应的第一 图像传感器 11获取的第一图像和第二镜头 2对应的第二图像传感器 12获取 的第二图像进行合成, 生成图片。 在具体的实施过程中, 中央处理器 15还用 于获得处理后的第一图像和处理后的第二图像之间的平移量; 选取处理后的 第一图像作为参考图像; 根据平移量, 对处理后的第二图像进行平移操作, 确定处理后的第一图像和处理后的第二图像的公共图像区域。 然后根据处理 后的第一图像和处理后的第二图像的公共图像区域, 对处理后的第一图像和 处理后的第二图像进行合成, 生成图片。
在另一个实施例中, 显示器 14用于显示中央处理器 15合成的图片。 存 储器 13用于存储中央处理器 15合成的图片; 另外, 存储器 13还用于存储中 央处理器 15确定的第一处理参数和第二处理参数。
当处理器 001为中央处理器 15时, 中央处理器 15执行的步骤可以完全 由图像信号处理器 16执行, 也可以由中央处理器 15和图像信号处理器 16共 同执行, 其中, 图像信号处理器 16可以包括第一图像信号处理器 17和第二 图像信号处理器 18 , 本发明实施例不再赘述。 通过本发明的一个或多个实施 例, 可以实现如下技术效果:
本发明运用双镜头设备来解决鬼影问题, 双镜头设备包括在双镜头设备 的同一平面上布置的第一镜头和第二镜头。 由于双镜头的这种设计, 因此在 同时釆集图像时, 使得釆集的第一图像和第二图像没有由于发生手持抖动和 / 或场景内物体的相对运动。 因此, 消除了分时多帧合成算法合成图片时产生 的 "鬼影" 的技术问题, 对于改善 HDR效果具有重要意义。
本领域内的技术人员应明白, 本发明的实施例可提供为方法、 ***、 或 计算机程序产品。 因此, 本发明可釆用完全硬件实施例、 完全软件实施例、 或结合软件和硬件方面的实施例的形式。 而且, 本发明可釆用在一个或多个 其中包含有计算机可用程序代码的计算机可用存储介质 (包括但不限于磁盘 存储器, CD-ROM, 光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、 设备(***)、 和计算机程序产 品的流程图和 /或方框图来描述的。 应理解可由计算机程序指令实现流程图 和 /或方框图中的每一流程和 /或方框、 以及流程图和 /或方框图中的流程 和 /或方框的结合。 可提供这些计算机程序指令到通用计算机、 专用计算机、 嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器, 使得通 过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流 程图一个流程或多个流程和 /或方框图一个方框或多个方框中指定的功能的 装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设 备以特定方式工作的计算机可读存储器中, 使得存储在该计算机可读存储器 中的指令产生包括指令装置的制造品, 该指令装置实现在流程图一个流程或 多个流程和 /或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上, 使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的 处理, 从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图 一个流程或多个流程和 /或方框图一个方框或多个方框中指定的功能的步 骤。 发明的精神和范围。 这样, 倘若本发明的这些修改和变型属于本发明权利要 求及其等同技术的范围之内, 则本发明也意图包含这些改动和变型在内。

Claims

权 利 要 求
1、 一种生成图片的方法, 其特征在于, 所述方法应用于双镜头设备, 所 述双镜头设备包括在所述双镜头设备的同一平面上布置的第一镜头和第二镜 头, 所述方法包括:
确定第一处理参数和第二处理参数, 其中, 所述第一处理参数和所述第 二处理参数不同;
根据所述第一处理参数, 获取与所述第一镜头对应的第一图像传感器在 第一时刻釆集的第一图像, 根据所述第二处理参数, 获取与所述第二镜头对 应的第二图像传感器在所述第一时刻釆集的第二图像;
在接收到拍照操作指令时, 对所述获取的第一图像和第二图像进行合成, 生成图片。
2、 如权利要求 1所述的方法, 其特征在于, 确定第一处理参数和第二处 理参数, 包括:
接收用户指令, 预先设置所述第一处理参数和所述第二处理参数; 或 根据在获取第一图像之前的图像场景识别的结果, 确定所述第一处理参 数, 以及根据在获取第二图像之前的图像场景识别的结果, 确定所述第二处 理参数;
其中, 所述第一处理参数包括第一曝光量或第一感光度; 所述第二处理 参数包括第二曝光量或第二感光度;
其中, 所述第一曝光量和所述第二曝光量不同, 所述第一感光度和所述 第二感光度不同。
3、 如权利要求 1或 2所述的方法, 其特征在于, 在所述对处理后的第一 图像和处理后的第二图像进行合成, 生成图片之前, 所述方法还包括:
获得所述处理后的第一图像和所述处理后的第二图像之间的平移量; 选取所述处理后的第一图像作为参考图像;
根据所述平移量, 对所述处理后的第二图像进行平移操作, 确定所述处 理后的第一图像和所述处理后的第二图像的公共图像区域。
4、 如权利要求 3所述的方法, 其特征在于, 所述获得所述处理后的第一 图像和所述处理后的第二图像之间的平移量, 具体为:
基于 L= ( f x ( t /d ) ) /u获得所述平移量;
其中, L 为所述处理后的第一图像和所述处理后的第二图像之间的平移 量, f为焦距, t为所述第一镜头和所述第二镜头的光心距离, d为所述第一图 像的像素尺寸, 其中, 所述第一图像的像素尺寸和所述第二图像的像素尺寸 相同, u为景深。
5、 如权利要求 3所述的方法, 其特征在于, 在所述确定所述处理后的第 一图像和所述处理后的第二图像的公共图像区域之后, 所述方法还包括: 基于所述公共图像对所述处理后的第一图像和所述处理后的第二图像区 域进行裁剪, 获得裁剪后的第一图像和裁剪后的第二图像。
6、 如权利要求 3所述的方法, 其特征在于, 对所述获取的第一图像和第 二图像进行合成, 生成图片, 具体为:
根据所述处理后的第一图像和所述处理后的第二图像的公共图像区域, 对所述处理后的第一图像和所述处理后的第二图像进行合成, 生成图片。
7、 一种双镜头设备, 其特征在于, 所述双镜头设备包括在所述双镜头设 备的同一平面上布置的第一镜头和第二镜头, 所述双镜头设备还包括: 处理 器, 所述第一镜头对应的第一图像传感器, 所述第二镜头对应的第二图像传 感器;
所述处理器, 用于确定第一处理参数和第二处理参数, 其中, 所述第一 处理参数和所述第二处理参数不同;
所述第一镜头对应的第一图像传感器, 用于根据所述第一处理参数, 在 第一时刻釆集第一图像;
所述第二镜头对应的第二图像传感器, 用于根据所述第二处理参数, 在 所述第一时刻釆集第二图像;
所述处理器, 还用于在接收到拍照操作指令时, 将获取的所述第一镜头 对应的第一图像传感器釆集的第一图像和所述第二镜头对应的第二图像传感 器釆集的第二图像进行合成, 生成图片。
8、 如权利要求 7所述的双镜头设备, 其特征在于, 所述处理器, 还用于 接收用户指令, 预先设置所述第一处理参数和所述第二处理参数, 并根据在 获取第一图像之前的图像场景识别的结果, 确定所述第一处理参数, 以及根 据在获取第二图像之前的图像场景识别的结果, 确定所述第二处理参数; 其中, 所述第一处理参数包括第一曝光量或第一感光度; 所述第二处理 参数包括第二曝光量或第二感光度;
其中, 所述第一曝光量和所述第二曝光量不同, 所述第一感光度和所述 第二感光度不同。
9、 如权利要求 8所述的双镜头设备, 其特征在于, 所述处理器包括中央 处理器或图像信号处理器。
10、 如权利要求 8 所述的双镜头设备, 其特征在于, 所述处理器包括所 述中央处理器和所述图像信号处理器。
11、 如权利要求 7-10任一权项所述的双镜头设备, 其特征在于, 所述处 理器, 还用于获得所述处理后的第一图像和所述处理后的第二图像之间的平 移量; 选取所述处理后的第一图像作为参考图像; 根据所述平移量, 对所述 处理后的第二图像进行平移操作, 确定所述处理后的第一图像和所述处理后 的第二图像的公共图像区域。
12、 如权利要求 11所述的双镜头设备, 其特征在于, 所述处理器, 还用 于根据所述处理后的第一图像和所述处理后的第二图像的公共图像区域, 对 所述处理后的第一图像和所述处理后的第二图像进行合成, 生成图片。
PCT/CN2013/088783 2013-12-06 2013-12-06 一种生成图片的方法及一种双镜头设备 WO2015081563A1 (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US15/102,226 US10306165B2 (en) 2013-12-06 2013-12-06 Image generating method and dual-lens device
EP13898880.3A EP3073733A4 (en) 2013-12-06 2013-12-06 Method for generating picture and twin-lens device
JP2016536587A JP6263623B2 (ja) 2013-12-06 2013-12-06 画像生成方法及びデュアルレンズ装置
PCT/CN2013/088783 WO2015081563A1 (zh) 2013-12-06 2013-12-06 一种生成图片的方法及一种双镜头设备
CN201380077824.2A CN105340267A (zh) 2013-12-06 2013-12-06 一种生成图片的方法及一种双镜头设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/088783 WO2015081563A1 (zh) 2013-12-06 2013-12-06 一种生成图片的方法及一种双镜头设备

Publications (1)

Publication Number Publication Date
WO2015081563A1 true WO2015081563A1 (zh) 2015-06-11

Family

ID=53272782

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/088783 WO2015081563A1 (zh) 2013-12-06 2013-12-06 一种生成图片的方法及一种双镜头设备

Country Status (5)

Country Link
US (1) US10306165B2 (zh)
EP (1) EP3073733A4 (zh)
JP (1) JP6263623B2 (zh)
CN (1) CN105340267A (zh)
WO (1) WO2015081563A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10063783B2 (en) 2015-09-30 2018-08-28 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
EP3240282A3 (en) * 2016-04-28 2018-12-26 Lg Electronics Inc. Mobile terminal and controlling method thereof
US10264188B2 (en) 2015-09-30 2019-04-16 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
US10382698B2 (en) 2015-09-30 2019-08-13 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
CN110213503A (zh) * 2019-06-28 2019-09-06 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
US10516826B2 (en) 2015-02-13 2019-12-24 Apple Inc. Dual camera magnet arrangement
US11381747B2 (en) 2015-02-13 2022-07-05 Apple Inc. Dual camera magnet arrangement

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112911252B (zh) 2012-11-28 2023-07-04 核心光电有限公司 多孔径成像***
WO2014199338A2 (en) 2013-06-13 2014-12-18 Corephotonics Ltd. Dual aperture zoom digital camera
CN105359006B (zh) 2013-07-04 2018-06-22 核心光电有限公司 小型长焦透镜套件
CN108718376B (zh) 2013-08-01 2020-08-14 核心光电有限公司 具有自动聚焦的纤薄多孔径成像***及其使用方法
JP6376618B2 (ja) * 2014-05-15 2018-08-22 華為技術有限公司Huawei Technologies Co.,Ltd. マルチフレームノイズ低減方法および端末
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
WO2016108093A1 (en) 2015-01-03 2016-07-07 Corephotonics Ltd. Miniature telephoto lens module and a camera utilizing such a lens module
CN104580912B (zh) * 2015-01-19 2018-01-09 宇龙计算机通信科技(深圳)有限公司 一种拍摄方法、装置及终端
KR102160867B1 (ko) 2015-04-02 2020-09-29 코어포토닉스 리미티드 듀얼 광학 모듈 카메라의 듀얼 보이스 코일 모터 구조체
KR101866482B1 (ko) 2015-04-16 2018-06-11 코어포토닉스 리미티드 소형 접이식 카메라의 오토 포커스 및 광학 이미지 안정화
CN107533208B (zh) 2015-05-28 2019-09-13 核心光电有限公司 用于双孔径数字照相机中的光学图像稳定和自动对焦的双向刚度
KR102143309B1 (ko) 2015-08-13 2020-08-11 코어포토닉스 리미티드 비디오 지원 및 스위칭/비스위칭 동적 제어 기능이 있는 듀얼-애퍼처 줌 카메라
EP3474070B1 (en) 2015-09-06 2020-06-24 Corephotonics Ltd. Auto focus and optical image stabilization with roll compensation in a compact folded camera
CN108353118B (zh) 2015-12-29 2019-04-02 核心光电有限公司 具有自动可调节长焦视场的双孔径变焦数字摄影机
KR102063411B1 (ko) 2016-05-30 2020-01-07 코어포토닉스 리미티드 회전식 볼-가이드 음성 코일 모터
WO2017221106A1 (en) 2016-06-19 2017-12-28 Corephotonics Ltd. Frame synchronization in a dual-aperture camera system
US10706518B2 (en) 2016-07-07 2020-07-07 Corephotonics Ltd. Dual camera system with improved video smooth transition by image blending
KR102226315B1 (ko) 2016-07-07 2021-03-12 코어포토닉스 리미티드 폴디드 옵틱용 선형 볼 가이드 음성 코일 모터
CN110140078B (zh) 2016-12-28 2021-11-19 核心光电有限公司 具有延伸光折叠元件扫描范围的折叠相机结构
CN109417589B (zh) 2017-01-12 2021-10-22 核心光电有限公司 紧凑型折叠式摄影机及其组装方法
KR20240066298A (ko) 2017-02-23 2024-05-14 코어포토닉스 리미티드 폴디드 카메라 렌즈 설계
KR102493673B1 (ko) 2017-03-03 2023-01-31 니폰 제온 가부시키가이샤 디아릴아민계 화합물, 노화 방지제, 및 폴리머 조성물
EP3596543B1 (en) 2017-03-15 2024-04-10 Corephotonics Ltd. Camera with panoramic scanning range
CN108924527A (zh) * 2017-03-31 2018-11-30 深圳市易快来科技股份有限公司 一种双镜头3d拍摄以实现景深的方法、装置及移动端
US10681273B2 (en) * 2017-08-24 2020-06-09 Samsung Electronics Co., Ltd. Mobile device including multiple cameras
WO2019048904A1 (en) 2017-09-06 2019-03-14 Corephotonics Ltd. STEREOSCOPIC DEPTH CARTOGRAPHY AND COMBINED PHASE DETECTION IN A DOUBLE-OPENING CAMERA
US10951834B2 (en) 2017-10-03 2021-03-16 Corephotonics Ltd. Synthetically enlarged camera aperture
CN110140076B (zh) 2017-11-23 2021-05-21 核心光电有限公司 紧凑型折叠式摄影机结构
JP2019110471A (ja) * 2017-12-19 2019-07-04 キヤノン株式会社 撮像装置
US10976567B2 (en) 2018-02-05 2021-04-13 Corephotonics Ltd. Reduced height penalty for folded camera
WO2019155289A1 (en) 2018-02-12 2019-08-15 Corephotonics Ltd. Folded camera with optical image stabilization
CN111885294B (zh) * 2018-03-26 2022-04-22 华为技术有限公司 一种拍摄方法、装置与设备
US10694168B2 (en) 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
EP4109174A1 (en) 2018-04-23 2022-12-28 Corephotonics Ltd. An optical-path folding-element with an extended two degree of freedom rotation range
EP3652728B1 (en) 2018-08-04 2023-06-07 Corephotonics Ltd. Switchable continuous display information system above camera
US11635596B2 (en) 2018-08-22 2023-04-25 Corephotonics Ltd. Two-state zoom folded camera
WO2020144528A1 (en) 2019-01-07 2020-07-16 Corephotonics Ltd. Rotation mechanism with sliding joint
KR102268094B1 (ko) 2019-03-09 2021-06-22 코어포토닉스 리미티드 동적 입체 캘리브레이션을 위한 시스템 및 방법
JP2020167517A (ja) * 2019-03-29 2020-10-08 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび撮像装置
KR102254947B1 (ko) 2019-07-31 2021-05-24 코어포토닉스 리미티드 카메라 패닝 또는 모션에서 배경 블러링을 생성하는 시스템 및 방법
US11659135B2 (en) 2019-10-30 2023-05-23 Corephotonics Ltd. Slow or fast motion video using depth information
US11949976B2 (en) 2019-12-09 2024-04-02 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
WO2021116851A2 (en) 2019-12-09 2021-06-17 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
CN114641805A (zh) 2020-02-22 2022-06-17 核心光电有限公司 用于微距摄影的分屏特征
US11693064B2 (en) 2020-04-26 2023-07-04 Corephotonics Ltd. Temperature control for Hall bar sensor correction
CN117372249A (zh) 2020-05-17 2024-01-09 核心光电有限公司 全视场参考图像的图像拼接
CN111586305B (zh) * 2020-05-27 2021-11-02 维沃移动通信(杭州)有限公司 防抖方法、防抖装置和电子设备
CN117518313A (zh) 2020-05-30 2024-02-06 核心光电有限公司 用于获得超微距图像的***
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
KR20230004887A (ko) 2020-07-15 2023-01-06 코어포토닉스 리미티드 스캐닝 폴디드 카메라에서의 시점 수차-보정
US11946775B2 (en) 2020-07-31 2024-04-02 Corephotonics Ltd. Hall sensor—magnet geometry for large stroke linear position sensing
EP4038432A4 (en) 2020-08-12 2022-12-14 Corephotonics Ltd. OPTICAL IMAGE STABILIZATION IN A FOLDED SCANNING CAMERA
CN112634160A (zh) 2020-12-25 2021-04-09 北京小米松果电子有限公司 拍照方法及装置、终端、存储介质
EP4204885A4 (en) 2021-06-08 2024-03-06 Corephotonics Ltd SYSTEMS AND CAMERAS FOR TILTING A FOCAL PLANE OF A SUPER MACRO-IMAGE
CN117241131B (zh) * 2023-11-16 2024-04-19 荣耀终端有限公司 图像处理方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611289B1 (en) * 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
CN101808250A (zh) * 2009-02-13 2010-08-18 北京邮电大学 基于双路视觉的立体影像合成方法及***
CN102739949A (zh) * 2011-04-01 2012-10-17 张可伦 多镜头相机和多镜头装置的控制方法
CN102892008A (zh) * 2011-07-20 2013-01-23 美国博通公司 双图像捕获处理

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120527A (ja) 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd 2眼式デジタルカメラ
US7424218B2 (en) * 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
US7729602B2 (en) * 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
US20090086074A1 (en) 2007-09-27 2009-04-02 Omnivision Technologies, Inc. Dual mode camera solution apparatus, system, and method
JP5230376B2 (ja) 2008-11-28 2013-07-10 三星電子株式会社 撮像装置及び撮像方法
US8339475B2 (en) 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
KR101604068B1 (ko) 2009-09-22 2016-03-17 삼성전자주식회사 고대비 영상 생성 장치 및 방법
JP2012019392A (ja) 2010-07-08 2012-01-26 Nikon Corp 画像処理装置、電子カメラおよび画像処理プログラム
US9204026B2 (en) * 2010-11-01 2015-12-01 Lg Electronics Inc. Mobile terminal and method of controlling an image photographing therein
JP5411842B2 (ja) 2010-12-07 2014-02-12 シャープ株式会社 撮像装置
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US9210322B2 (en) 2010-12-27 2015-12-08 Dolby Laboratories Licensing Corporation 3D cameras for HDR
US8803990B2 (en) * 2011-01-25 2014-08-12 Aptina Imaging Corporation Imaging system with multiple sensors for producing high-dynamic-range images
JP5843454B2 (ja) 2011-03-15 2016-01-13 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2013078090A (ja) 2011-09-30 2013-04-25 Sharp Corp 撮影装置、撮影装置の制御方法、制御プログラム、および記録媒体
EP2850822B1 (en) 2012-05-18 2019-04-03 Thomson Licensing Native three-color images and high dynamic range images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611289B1 (en) * 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
CN101808250A (zh) * 2009-02-13 2010-08-18 北京邮电大学 基于双路视觉的立体影像合成方法及***
CN102739949A (zh) * 2011-04-01 2012-10-17 张可伦 多镜头相机和多镜头装置的控制方法
CN102892008A (zh) * 2011-07-20 2013-01-23 美国博通公司 双图像捕获处理

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3073733A4 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10516826B2 (en) 2015-02-13 2019-12-24 Apple Inc. Dual camera magnet arrangement
US10931877B2 (en) 2015-02-13 2021-02-23 Apple Inc. Dual camera magnet arrangement
US11381747B2 (en) 2015-02-13 2022-07-05 Apple Inc. Dual camera magnet arrangement
US10063783B2 (en) 2015-09-30 2018-08-28 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
US10264188B2 (en) 2015-09-30 2019-04-16 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
US10382698B2 (en) 2015-09-30 2019-08-13 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
US10750096B2 (en) 2015-09-30 2020-08-18 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
US11102416B2 (en) 2015-09-30 2021-08-24 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
US11722774B2 (en) 2015-09-30 2023-08-08 Apple Inc. Mobile zoom using multiple optical image stabilization cameras
EP3240282A3 (en) * 2016-04-28 2018-12-26 Lg Electronics Inc. Mobile terminal and controlling method thereof
US10382691B2 (en) 2016-04-28 2019-08-13 Lg Electronics Inc. Mobile terminal and controlling method thereof
CN110213503A (zh) * 2019-06-28 2019-09-06 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
EP3073733A1 (en) 2016-09-28
CN105340267A (zh) 2016-02-17
US10306165B2 (en) 2019-05-28
US20170214866A1 (en) 2017-07-27
EP3073733A4 (en) 2017-04-05
JP2017505004A (ja) 2017-02-09
JP6263623B2 (ja) 2018-01-17

Similar Documents

Publication Publication Date Title
WO2015081563A1 (zh) 一种生成图片的方法及一种双镜头设备
EP3067746B1 (en) Photographing method for dual-camera device and dual-camera device
KR101888470B1 (ko) 촬상 시스템, 촬상 장치, 컴퓨터 프로그램 및 시스템
WO2015081870A1 (zh) 一种图像处理方法、装置及终端
JP6308198B2 (ja) 撮像装置、画像処理装置、方法およびプログラム
WO2014071840A1 (zh) 一种拍摄照片和视频的方法及装置
JP5127787B2 (ja) 複眼撮影装置及びその制御方法
WO2015172366A1 (zh) 用于多帧降噪的方法和终端
WO2016184131A1 (zh) 基于双摄像头拍摄图像的方法、装置及计算机存储介质
WO2015192547A1 (zh) 一种基于移动终端的三维照片拍摄方法及移动终端
JP2009200560A (ja) 撮像装置、撮像方法及びプログラム
TW201224635A (en) Image processing device, image capture device, image processing method, and program
JP7031280B2 (ja) 画像処理装置、画像処理システムおよびプログラム
TWI520604B (zh) 攝像裝置及其影像預覽系統及影像預覽方法
TW201824178A (zh) 全景即時影像處理方法
US20130076867A1 (en) Imaging apparatus
TW201911853A (zh) 雙攝像頭影像擷取裝置及其攝像方法
CN112104796B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN110875998A (zh) 全景照相装置及其影像映射结合方法
JP2012220603A (ja) 3d映像信号撮影装置
JP2019040004A (ja) 撮影システム及び撮影方法
JP2013046343A (ja) 画像撮像装置
JP2011135374A (ja) 3次元デジタルカメラ
TWI382267B (zh) 自動景深捕捉系統及自動景深捕捉方法
JP2011259405A (ja) 撮像装置および撮像方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380077824.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13898880

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016536587

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15102226

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2013898880

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013898880

Country of ref document: EP