WO2014106381A1 - 一种图像处理方法及装置 - Google Patents

一种图像处理方法及装置 Download PDF

Info

Publication number
WO2014106381A1
WO2014106381A1 PCT/CN2013/080974 CN2013080974W WO2014106381A1 WO 2014106381 A1 WO2014106381 A1 WO 2014106381A1 CN 2013080974 W CN2013080974 W CN 2013080974W WO 2014106381 A1 WO2014106381 A1 WO 2014106381A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
display
auxiliary lens
preview
Prior art date
Application number
PCT/CN2013/080974
Other languages
English (en)
French (fr)
Inventor
贺真
刘吉林
刘扬
李腾跃
王栋
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to EP13801460.0A priority Critical patent/EP2779628B1/en
Priority to ES13801460.0T priority patent/ES2688122T3/es
Priority to EP17200508.4A priority patent/EP3346329B1/en
Priority to US14/140,782 priority patent/US8922695B2/en
Publication of WO2014106381A1 publication Critical patent/WO2014106381A1/zh
Priority to US14/560,558 priority patent/US9204039B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Definitions

  • the present invention relates to the field of image processing technologies, and in particular, to an image processing method and apparatus. Background technique
  • the shooting device on a conventional shooting device or portable device can only perform a separate foreground or rear view shooting, and it is difficult to capture the front and rear scenes at the same time and display them.
  • An embodiment of the present invention provides an image processing method and apparatus, which can simultaneously capture images of front and rear scenes.
  • an image processing method including:
  • the obtaining, by the first camera, the first image includes:
  • the obtaining the first focus parameter of the first camera includes:
  • the displaying the first image And the second image including:
  • determining the specified display area of the second image in the first image includes:
  • a non-significant area in the first image is used as a designated display area of the second image in the first image.
  • the method further includes:
  • the method further includes:
  • the method further includes:
  • the method further includes:
  • an image processing method is provided, the method being applied to a terminal having a panoramic assist lens and at least one camera, the panoramic assist lens for reflecting or refracting a surrounding image of the terminal to the The shooting area of the camera, the method includes:
  • the capturing, by the camera, the image reflected or refracted by the panoramic auxiliary lens to obtain an image includes: [39] obtaining, by the camera, a preview image of the panoramic auxiliary lens reflected or refracted image, the preview image including a plurality of sub-preview images of different angles;
  • the displaying the image obtained by the photographing comprises:
  • the image obtained by the photographing is divided into a plurality of images of different angles, and a plurality of images of the different angles are simultaneously displayed.
  • the method further includes:
  • an image processing apparatus including:
  • an information receiving unit configured to receive information that simultaneously starts the first camera and the second camera to perform shooting
  • an image acquisition unit configured to obtain a first image by the first camera, and obtain a second image by the second camera;
  • an image output unit configured to simultaneously display the first image and the second image.
  • the image acquiring unit includes: [54] a parameter acquisition subunit, configured to obtain a first focus parameter of the first camera and a second focus parameter of the second camera;
  • an image acquisition subunit configured to obtain the first image by the first camera according to the first focus parameter, and obtain the first image by the second camera according to the second focus parameter Two images.
  • the parameter obtaining subunit includes:
  • a first subunit configured to obtain a preview image of the first image by using the first camera
  • a second subunit configured to determine a first focus parameter of the first camera according to a focusing operation of the preview image of the first image.
  • the image input unit includes:
  • an area determining subunit configured to determine a designated display area of the second image in the first image
  • an output subunit configured to output the second image in the designated display area in the first image.
  • the area determining subunit includes:
  • a third subunit configured to determine an important area and a non-significant area in the first image according to a preset algorithm
  • a fourth subunit configured to use a non-significant area in the first image as a designated display area of the second image in the first image.
  • a ⁇ 661 trajectory acquiring unit configured to acquire a drag track for the second image: [67] a position determining unit, configured to determine a display position of the second image according to the drag track.
  • the method further includes:
  • an information acquiring unit configured to acquire switching operation information of a display area of the first image and the second image
  • a switching unit configured to exchange display areas of the first image and the second image according to the switching operation information.
  • the method further includes:
  • a calculating unit configured to obtain a similarity between an edge region of the second image and the first image at a location where the second image is located;
  • a synthesizing unit configured to synthesize the second image with the first image when the similarity is greater than or equal to a threshold.
  • an adjusting unit configured to adjust the first image and/or the second image to increase the similarity when the similarity is less than the threshold.
  • an image processing apparatus is provided, the apparatus being applied to a terminal having a panoramic assist lens and at least one camera, the panoramic assist lens for reflecting or refracting a surrounding image of the terminal to the The shooting area of the camera, the device includes:
  • an image receiving unit configured to receive an image reflected or refracted by the panoramic auxiliary lens
  • an image acquisition unit configured to capture an image of the panoramic auxiliary lens reflected or refracted by the camera to obtain an image
  • an image output unit configured to display the image obtained by the photographing.
  • the image acquiring unit includes: [80] a preview subunit, configured to obtain, by the camera, a preview image of the panoramic auxiliary lens reflection or refraction image, the preview image comprising a plurality of sub preview images at different angles;
  • a parameter determining subunit configured to determine a focus parameter of the camera according to a focusing operation on any one of the plurality of sub preview images
  • an acquisition subunit configured to acquire an image by capturing, by the camera, an image reflected or refracted by the panoramic auxiliary lens according to the focus parameter.
  • the image output unit is specifically configured to continuously display the photographing in a planar unfolding manner. Or; continuously displaying the image obtained by the shooting in a ring display manner; or dividing the image obtained by the shooting into a plurality of images of different angles, and simultaneously displaying the plurality of images of the different angles.
  • the method further includes:
  • a cutting unit configured to cut the image obtained by the shooting according to a set ratio
  • the fifth aspect provides a terminal, including a processor, a display, a memory, a first camera, and a second camera, where the processor is configured to control an operating state of the first camera and the second camera, where The processor is respectively connected to the display and the memory, wherein the memory stores a set of program codes, and the processor is configured to invoke program code stored in the memory, to perform the following operations:
  • the display configured to simultaneously display the first image and the second image.
  • the sixth aspect provides a terminal, including a processor, a display, a memory, a panoramic auxiliary lens, and at least one camera, wherein the processor is configured to control an operating state of the camera, and the panoramic auxiliary lens is used for The surrounding image of the terminal is reflected or refracted to the camera a processor, the processor is respectively connected to the display and the memory, wherein the memory stores a set of program codes, and the processor is configured to invoke program code stored in the memory, to perform the following operations:
  • the display is configured to display the image obtained by the photographing.
  • the panoramic auxiliary lens is located at a top of the terminal and is elastically connected to a top of the terminal, and the panoramic auxiliary lens is in operation a pop-up state for reflecting or refracting a surrounding image of the terminal to a photographing area of the camera.
  • the two cameras are simultaneously activated to perform bidirectional shooting, and the captured images of the two camera heads are simultaneously displayed, and the front and rear scene images are simultaneously captured, and the panoramic image is obtained.
  • FIG. 1 is a flowchart of an image processing method according to an embodiment of the present invention.
  • FIG. 2 is a flowchart of a method for obtaining a first image and a second image in an embodiment of the present invention
  • FIG. 3 is a flow chart of a method for obtaining a focus parameter manually input by a user in an embodiment of the present invention
  • FIG. 4 is a flow chart of a method for simultaneously displaying a first image and a second image in an embodiment of the present invention
  • Figure 5 is a schematic view showing the spatial distribution in the embodiment shown in Figure 4
  • Figure 6 is a schematic diagram showing the distribution of faces in the embodiment shown in Figure 4;
  • 105 is a flowchart of a method for determining a second image position in an embodiment of the present invention.
  • FIG. 9 is a flow chart of switching a first image and a second image display area in an embodiment of the present invention.
  • FIG. 10 is a flow chart of processing a first image and a second image in an embodiment of the present invention.
  • FIG. 11 is a flowchart of another image processing method according to an embodiment of the present invention.
  • Figure 12 is a schematic structural view of a terminal in the embodiment shown in Figure 11;
  • FIG. 13a is a schematic diagram of a first display manner for displaying a panoramic image according to an embodiment of the present invention.
  • FIG. 13b is a schematic diagram of a second display manner for displaying a panoramic image according to an embodiment of the present invention.
  • FIG. 14 is a schematic diagram of a third display manner for displaying a panoramic image according to an embodiment of the present invention.
  • FIG. 15 is a schematic diagram of processing of a non-planar image obtained by photographing according to an embodiment of the present invention.
  • FIG. 16 is a flowchart of a method for obtaining an image by capturing a image reflected by a panoramic auxiliary lens by a camera according to an embodiment of the present invention
  • FIG. 17a is a flow chart of a method for processing an image obtained by photographing according to an embodiment of the present invention.
  • FIG. 17b is a schematic diagram of cropping an image obtained by photographing in the embodiment shown in FIG. 17a;
  • 117 is a schematic structural diagram of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 19 is a schematic structural diagram of an image acquiring unit according to an embodiment of the present invention.
  • FIG. 20 is a schematic structural diagram of an image input unit according to an embodiment of the present invention.
  • FIG. 21 is a schematic structural diagram of another image processing apparatus according to an embodiment of the present invention.
  • FIG. 22 is a schematic structural diagram of a terminal according to an embodiment of the present invention
  • FIG. 23 is a schematic structural diagram of another terminal according to an embodiment of the present invention
  • FIG. 24 is a schematic structural diagram of a panoramic auxiliary lens according to an embodiment of the present invention. detailed description
  • FIG. 1 a flowchart of an image processing method according to an embodiment of the present invention is shown.
  • the method can include:
  • Step 101 Receive information that simultaneously starts the first camera and the second camera to perform shooting.
  • the terminal such as a mobile phone or a PAD, includes at least a first camera and a second camera, wherein the first camera may be one of a front camera or a rear camera in the camera, and the second camera is The other of the front camera or the rear camera, the front camera is a camera located on the same side as the operation interface of the camera, and the rear camera is a camera located on the back of the operation interface of the camera.
  • the first camera and the second camera may also be cameras in other locations, which are merely examples.
  • the terminal can automatically start the two-way shooting function when the user starts the shooting application, that is, the terminal receives the information that simultaneously starts the first camera and the second camera to shoot, or when the user starts the shooting application, the terminal Displaying various selection information to the user, for example, turning on the first camera, turning on the second camera, and turning on the bidirectional shooting, the terminal receives the simultaneous selection of the two-way shooting information by the user, and simultaneously receives the first camera and the second camera for shooting. information.
  • Step 102 Obtain a first image by taking a first camera, and obtain a second image by taking a second camera.
  • control circuit of the first camera and the control circuit of the second camera may be in an active state at the same time, and the imaging system of the first camera and the imaging system of the second camera may also be independent of each other, so as to facilitate
  • the terminal receives the information of simultaneously activating the first camera and the second camera
  • the first image can be obtained by the first camera at the same time
  • the second image is obtained by the second camera.
  • the second image is taken like a head shot.
  • Step 103 Display the first image and the second image simultaneously.
  • the first image and the second image may be simultaneously displayed on the display screen.
  • the display screen may be divided into regions, the first image is displayed in the first image display area, and the second image is displayed in the second image display area; or the first image may be displayed in full screen, and the first image is displayed in the first image.
  • the two cameras are simultaneously activated to perform bidirectional shooting, and the captured images of the two cameras are simultaneously displayed, and the front and rear scene images are simultaneously captured, and the panoramic image is obtained.
  • the process may include:
  • Step 201 Obtain a first focus parameter of the first camera and a second focus parameter of the second camera.
  • the first focus parameter may be a focus parameter obtained by the first camera according to a default auto focus mode; or may be a user manual input obtained by the terminal after the user manually inputs or manually adjusts the focus. Focus parameters.
  • the second focus parameter is similar and will not be described again.
  • the method may further include:
  • Step 301 Obtain a preview image of the first image through the first camera, and obtain a preview image of the second image through the second camera.
  • the preview image of the first image and the preview image of the second image may be displayed simultaneously in different regions, or may be displayed in full screen of the preview image of the first image, and the preview image of the second image may be in a preview image of the first image.
  • the area is displayed.
  • Step 302 Determine a first focus parameter of the first camera according to a focusing operation of the preview image of the first image by the user, and determine a second focus of the second camera according to a focusing operation of the preview image of the second image by the user. parameter.
  • the user can directly preview the preview image of the first image and the second image directly through the touch screen. View the image for focusing.
  • the preview image of the first image is displayed in full screen, and the preview image of the second image is displayed in a certain area of the preview image of the first image, in order to facilitate the user to adjust the focus image of the preview image of the second image
  • the user can perform a sliding operation on the display screen, and after the terminal recognizes the sliding operation, the terminal switches the display mode of the preview image of the first image and the preview image of the second image, that is, the second
  • the preview image of the image is displayed in full screen, and the preview image of the first image is displayed in a certain area of the preview image of the second image, and then the terminal determines the second camera according to the focusing operation of the preview image of the second image by the user.
  • Second focus parameter is the display mode of the preview image of the first image and the preview image of the second image.
  • Step 202 Obtain a first image by first camera shooting according to the first focus parameter, and obtain a second image by second camera shooting according to the second focus parameter.
  • the display process may specifically include:
  • Step 401 Determine a designated display area of the second image in the first image.
  • the process of determining the designated display area may specifically include:
  • the preset algorithm may be an existing algorithm, or a space-based distribution algorithm, or a face-based distribution algorithm, or an edge-based distribution algorithm, etc., for example:
  • the important area, the medium area and the non-important area of the first image are determined. If the first image is displayed in full screen, the important area, the medium area and the non-important area of the display screen can be determined, as shown in FIG. 5,
  • the display area of the display screen is divided into 3x3 cells, and the central area is an important area.
  • the peripheral area of the central area can be divided into medium area and non-important area according to the degree of attention of the human eye, where H represents an important area and M represents a medium area.
  • L represents a non-critical area.
  • the designated display area may be the above medium area or non-critical area.
  • the user's face image is acquired by the camera, and then the area where the face image is located is located.
  • the domain is divided into important areas (H), and other areas are divided into non-critical areas (L), as shown in Figure 6.
  • the specified display area may be a non-critical area. If the first image is a full screen display, the second image may be located in a non-significant area.
  • the salient region (H) and the edge region (L) are determined based on the edge distribution algorithm, as shown in FIG.
  • the designated display area may be an edge area. If the first image is a full screen display, the second image may be located in the edge region.
  • the designated display area may be considered to be preset.
  • the size and shape of the specified display area can be set in advance as needed, or can be adjusted when displayed.
  • Step 402 Display a second image in a designated display area in the first image.
  • the method may further include:
  • Step 801 Acquire a drag track of the second image by the user.
  • the user can touch the second image and drag the second image in the display screen, and the terminal determines the pair according to the user's touch and drag operation on the second image.
  • the drag operation information of the second image is then obtained according to the touch screen position of the user's finger, and the trajectory dragged by the user can be obtained.
  • Step 802 Determine a display position of the second image according to the drag track.
  • the terminal may display the second image according to the drag track after determining the drag track.
  • the method may further include:
  • Step 901 Acquire a switching operation letter of the user to the first image and the second image display area
  • the switching operation information may specifically be a sliding between the first image and the second image by the user.
  • the operation may also be a continuous click operation of the user on the first image and the second image, and the like.
  • Step 902 The display areas of the first image and the second image are interchanged according to the switching operation information.
  • the first image is displayed in the designated display area of the second image, and the second image can be displayed in full screen.
  • the method may further include:
  • Step 1001 Obtain a similarity between the edge region of the second image and the first image at the location where the second image is located.
  • the color, edge, texture, and the like of the first image at the edge of the second image and the location of the second image may be acquired, and then the similarity between the features is calculated.
  • Step 1002 Determine if the similarity is greater than a threshold.
  • step 1003 When the similarity is greater than the threshold, indicating that the edge of the second image is the same or similar to the color of the first image at the location of the second image, step 1003 is performed; when the similarity is less than the threshold, the first image and the first image may be directly saved. For the second image, step 1004 can also be performed.
  • Step 1003 synthesizing the second image with the first image.
  • the step may specifically be: adjusting the hue, saturation, contrast, and brightness of the edge of the second image and the first image at the position of the second image, so that the difference between the edge region of the second image and the first image is changed. Small, then hide or cancel the display border of the second image, and combine the second image with the first image into one image.
  • Step 1004 adjusting the first image and/or the second image to increase the similarity between the edge region of the second image and the first image at the location where the second image is located.
  • one or more parameters of the color, hue, saturation, contrast, brightness, curve, color scale, and the like of the first image and/or the second image may be adjusted to increase the second image.
  • the similarity between the edge region and the first image at the location of the second image makes the display of the second image more natural and consistent in the first image.
  • FIG. 11 is a flowchart of another image processing method according to an embodiment of the present invention.
  • the terminal has a panoramic assist lens 121 and at least one camera 122
  • the panoramic assist lens 121 may be a ring mirror or a refraction lens disposed on the terminal, and the panoramic assist The lens 121 can reflect or refract the surrounding image of the terminal.
  • the surrounding image can be a 360-degree circular image centered on the terminal.
  • the positional relationship between the panoramic auxiliary lens 121 and the camera 122 can satisfy the panoramic auxiliary lens 121. Reflected or refracted to the photographing area of the camera 122.
  • Methods can include:
  • Step 111 receiving an image reflected or refracted by the panoramic assist lens.
  • the terminal can automatically start the panoramic shooting function when the user starts the shooting application according to the default setting.
  • the panoramic auxiliary lens reflects or refracts the surrounding image to the camera.
  • the panoramic auxiliary lens is a circular mirror or a refraction lens, which reflects to the camera. Or a circular image that refracts a 360-degree range.
  • the terminal may also display various selection information, such as foreground mode, background mode, and 360-degree full-frame mode, to the user when the user starts the shooting application, wherein the foreground mode activates only the front image capture of the terminal.
  • the default is 3: 2, which can be customized according to the user's needs. It can be used for self-timer, video call and other scenes.
  • the background mode only activates the image capture on the back of the terminal. The default is 3: 2. It can also be customized according to user needs.
  • the user usually takes pictures, videos, etc.; 360-degree full-frame mode activates 360-degree viewfinder image capture, and uses a panoramic assist lens and a single camera to obtain a 360-degree panoramic image.
  • the terminal receives the ring image reflected by the panoramic auxiliary lens through the user's selection action of the 360-degree full-frame mode.
  • Step 112 Capture the image reflected or refracted by the panoramic assist lens by the camera to obtain an image.
  • the camera captures a circular image reflected or refracted by the panoramic assist lens to obtain a panoramic image. Specifically, it can be a 360-degree panoramic image centered on the terminal.
  • Step 113 Display the images obtained by shooting.
  • the obtained panoramic image may be continuously displayed in a planar manner, or, as shown in FIG. 13b, the obtained panoramic image may be continuously displayed in a circular manner, and the user may pass Swipe on the touch screen to continuously view the panoramic image;
  • the second mode it is also possible to divide the panoramic image into a plurality of images of different angles and simultaneously display them at different positions on the display screen.
  • the image on the left side of the middle of the display screen is the same as the image taken by the front camera of the conventional terminal, and the image on the right side of the middle of the display screen is the same as the image taken by the camera behind the conventional terminal.
  • the top of the display shows an image 180 degrees in front of the terminal, and the bottom of the display shows an image 180 degrees behind the terminal.
  • the method may further include:
  • the non-planar image is processed into a planar image.
  • the panoramic auxiliary lens 151 is a curved mirror
  • the image reflected by the lens is also an arc image
  • the image obtained after the shooting is also a curved image 152 which is distorted.
  • the curved image 152 can be processed into a planar image 153 by an existing algorithm.
  • the planar image is then displayed 153.
  • the process of obtaining an image by capturing a ring image of the panoramic auxiliary lens reflected or refracted by the camera, as shown in FIG. 16, may specifically include:
  • Step 161 Obtain the focusing parameters of the camera.
  • the focus parameter can be the focus parameter obtained by the camera according to the default auto focus mode; it can also be the focus parameter manually input by the user after the user manually inputs or manually adjusts the focus.
  • the method may further include:
  • a preview image of a panoramic auxiliary lens reflected or refracted image is obtained by a camera, the preview image including a plurality of sub-preview images of different angles.
  • a plurality of sub-preview images in the preview image may be arranged in the manner as shown in FIG.
  • the focus parameter of the camera is determined according to the user's focusing operation on any of the plurality of sub preview images.
  • the user can determine the focus parameter of the camera by manually focusing the preview image of one of the angles in the preview image displayed as shown in FIG.
  • the terminal can update the other angles after the focus adjustment in real time according to the user's focusing operation on the preview image of one angle.
  • the preferred order of the focus target on which the focus parameter is determined may be the preview image of the preferred front view in the display mode as shown in FIG. 14 (in the figure) Right position), followed by the preview image of the foreground (middle position in the figure), the preview image of the 180 degree background (upper position in the figure), and the preview image of the foreground of 180 degrees (lower position in the figure).
  • Step 162 According to the focus parameter, an image is obtained by capturing a circular image reflected or refracted by the panoramic auxiliary lens by the camera.
  • the image processing method may further include:
  • Step 171 cutting the image obtained by shooting according to a preset ratio
  • the clipped image can be automatically flattened by the algorithm for later storage.
  • Step 172 save the cropped image.
  • Embodiments of the present invention can be applied to digital cameras, digital video cameras, and even professional cameras to achieve more information capture.
  • the application scene can be in the field of TV movies and even games.
  • interactive programs and interactive movies can be recorded and opened.
  • it can be integrated into a full-frame conference beyond the current telepresence system in a telepresence conference system, presentation, conference, etc.
  • FIG. 18 is a schematic structural diagram of an image processing apparatus according to an embodiment of the present invention.
  • the device can include:
  • the information receiving unit 181 is configured to receive information that simultaneously starts shooting by the first camera and the second camera;
  • an image obtaining unit 182 configured to obtain a first image by the first camera, and obtain a second image by the second camera;
  • the image output unit 183 is configured to simultaneously display the first image and the second image.
  • the device simultaneously activates two cameras to perform bidirectional shooting through the above-mentioned unit, and simultaneously displays the captured images of the two cameras, and simultaneously captures the front and rear scene images, and obtains the panoramic image.
  • the image obtaining unit may further include:
  • a parameter acquisition subunit 191 configured to obtain a first focus parameter of the first camera and a second focus parameter of the second camera;
  • the image acquisition sub-unit 192 is configured to obtain the first image by the first camera according to the first focus parameter, and obtain the photo by the second camera according to the second focus parameter. Second image.
  • the parameter acquisition subunit 191 may further include:
  • a first subunit configured to obtain a preview image of the first image by using the first camera
  • a second subunit configured to determine a first focus parameter of the first camera according to a focusing operation of the preview image of the first image.
  • the image input unit may further include:
  • an area determining subunit 2001 configured to determine a designated display area of the second image in the first image
  • the output subunit 2002 is configured to output the second image in the specified display area in the first image.
  • the area determining subunit 2001 may further include:
  • a third subunit configured to determine an important area and a non-important area in the first image according to a preset algorithm
  • a fourth subunit configured to use a non-significant area in the first image as a designated display area in the first image of the second image.
  • the image processing apparatus may further include:
  • a trajectory acquiring unit configured to acquire a drag track for the second image
  • the position determining unit is configured to determine a display position of the second image according to the drag track.
  • the image processing apparatus may further include:
  • an information acquiring unit configured to acquire switching operation information of a display area of the first image and the second image
  • a switching unit configured to exchange display areas of the first image and the second image according to the switching operation information.
  • the image processing apparatus may further include:
  • a calculating unit configured to obtain a similarity between an edge region of the second image and the first image at a location where the second image is located;
  • a synthesizing unit configured to synthesize the second image with the first image when the similarity is greater than or equal to a threshold.
  • an adjusting unit configured to adjust the first image and/or the second image to increase the similarity when the similarity is less than the threshold.
  • FIG. 21 is a schematic structural diagram of another image processing apparatus according to an embodiment of the present invention.
  • the device is applied to a terminal having a panoramic assist lens and at least one camera, the whole The auxiliary lens for reflecting or refracting the surrounding image of the terminal to the photographing area of the camera, the device comprising:
  • the image receiving unit 211 is configured to receive an image reflected or refracted by the panoramic auxiliary lens
  • the image obtaining unit 212 is configured to obtain an image by capturing, by the camera, an image reflected or refracted by the panoramic auxiliary lens;
  • the image output unit 213 is configured to display the image obtained by the photographing.
  • the image output unit 213 is specifically configured to continuously display the image obtained by the photographing in a planar unfolding manner; or continuously display the image obtained by the photographing in a circular display manner; or The image is divided into a plurality of images at different angles, and a plurality of images of the different angles are simultaneously displayed.
  • the device can obtain the simultaneous capture of the front and rear scene images through the above unit, and obtain the panoramic image.
  • the image obtaining unit may further include:
  • a preview subunit configured to obtain, by the camera, a preview image of the panoramic auxiliary lens reflection or refracting image, the preview image comprising a plurality of sub preview images at different angles;
  • a parameter determining subunit configured to determine a focus parameter of the camera according to a focusing operation on any one of the plurality of sub preview images
  • an obtaining subunit configured to obtain an image by capturing, by the camera, an image reflected or refracted by the panoramic auxiliary lens according to the focusing parameter.
  • the apparatus may further include:
  • a cropping unit configured to crop the image obtained by the shooting according to a set ratio
  • FIG. 22 is a schematic structural diagram of a terminal according to an embodiment of the present invention.
  • the terminal may include a processor 221, a display 222, a memory 223, first cameras 22, 4 and a second camera 225, and the processor 221 is configured to control the first camera 224 and The working state of the second camera 225, the processor 221 is respectively connected to the display 222 and the ship memory 223, the ship storage 223 stores the code, and the ship processor 221 is used to call the memory.
  • the procedure ⁇ code used to do the following:
  • a first image is obtained by the first camera 224, and a second image is obtained by the second camera 225.
  • the display 222 is configured to simultaneously display the first image and the second image.
  • the terminal performs bidirectional shooting by simultaneously starting two cameras, and simultaneously displays the captured images of the two cameras, and simultaneously captures the front and rear scene images, and obtains the panoramic image.
  • FIG. 23 it is a schematic structural diagram of another terminal according to an embodiment of the present invention.
  • the terminal may include a processor 231, a display 232, a memory 233, a panoramic auxiliary lens 23, 4 and at least one camera 235, wherein the processor 231 is configured to control an operating state of the camera 235, the panoramic auxiliary lens
  • the 234 is configured to reflect or refract the surrounding image of the terminal to the shooting area of the camera 235, the processor 231 is respectively connected to the display 232 and the ship memory 233, and the ship storage 233 stores the code
  • the ship processor 231 is configured to call the program code stored in the memory 233 for performing the following operations:
  • the display 232 is configured to display the image obtained by the photographing.
  • the terminal can simultaneously capture the front and rear scene images through the panoramic assist lens and the single camera, and obtain the panoramic image.
  • the panoramic auxiliary lens 241 may be located at the top of the terminal and elastically connected to the top of the terminal, and the panoramic auxiliary lens 241 is working. The time is in a pop-up state for reflecting or refracting the surrounding image of the terminal to the photographing area of the camera 242.
  • the panoramic assist lens 241 may specifically be a ring convex mirror 243, which may also be a fisheye lens 244.
  • the fisheye lens is a lens with a very short focal length (such as 16mm or shorter focal length) and a viewing angle close to or equal to 180°. It is an extreme wide-angle lens.
  • the disclosed systems, devices, and methods may be implemented in other ways.
  • the device embodiments described above are merely illustrative.
  • the division of the unit is only a logical function division.
  • there may be another division manner for example, multiple units or components may be combined or Can be integrated into another system, or some features can be ignored, or not executed.
  • the mutual coupling or direct coupling or communication connection shown or discussed may be an indirect coupling or communication connection through some interface, device or unit, and may be in an electrical, mechanical or other form.
  • the units described as separate components may or may not be physically separated, and the components displayed as the units may or may not be physical units, that is, may be located in one place, or may be distributed to multiple networks. On the unit. Some or all of the units may be selected according to actual needs to achieve the objectives of the solution of the embodiment.
  • each functional unit in each embodiment of the present invention may be integrated into one processing unit, or each unit may exist physically separately, or two or more units may be integrated into one unit.
  • the functions may be stored in a computer readable storage medium if implemented in the form of a software functional unit and sold or used as a standalone product. Based on such understanding, the technical solution of the present invention contributes in essence or to the prior art or the technical solution
  • the portion may be embodied in the form of a software product stored in a storage medium, including instructions for causing a computer device (which may be a personal computer, a server, or a network device, etc.) or a processor (processor) Performing all or part of the steps of the method of the various embodiments of the present invention.
  • the foregoing storage medium includes: a U disk, a removable hard disk, a read-only memory (ROM), a random access memory (RAM), a disk or an optical disk, and the like, which can store program codes. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

本发明实施例公开了一种图像处理方法及装置。该图像处理方法包括:接收同时启动第一摄像头和第二摄像头进行拍摄的信息;通过所述第一摄像头拍摄获得第一图像,并通过所述第二摄像头拍摄获得第二图像;同时显示所述第一图像及所述第二图像。本发明实施例通过同时启动两摄像头进行双向拍摄,并同时显示两摄像头的拍摄图像,实现了前后场景图像的同时捕捉,获得了全景图像。

Description

一种图像处理方法及装置
技术领域
[01] 本发明涉及图像处理技术领域, 特别是涉及一种图像处理方法及 装置。 背景技术
[02] 随着数码相机、数码摄像机等拍摄设备的普及, 以及拍摄装置与便 携设备的结合, 例如设置有摄像头的手机或 PAD等, 人们越来越多的开 始使用拍摄设备或上述便携设备进行图像拍摄和视频录制。
[03] 然而传统的拍摄设备或便携设备上的拍摄装置只能进行单独的前 景或后景拍摄, 很难同时捕捉前后场景并显示。
[04] 现有技术中, 设备上的前、 后双摄像头可以进行快速切换, 通过及 时的切换来实现前后场景的拍摄,从而达到前后 180度场景的快速捕捉。 然而该方法仍然无法实现前后场景图像的同时捕捉。 发明内容
[05]本发明实施例中提供了一种图像处理方法及装置, 能够实现前后场景 图像的同时捕捉。
[06]为了解决上述技术问题, 本发明实施例公开了如下技术方案:
[07]第一方面, 提供一种图像处理方法, 包括:
[08]接收同时启动第一摄像头和第二摄像头进行拍摄的信息;
[09]通过所述第一摄像头拍摄获得第一图像, 并通过所述第二摄像头拍摄 获得第二图像;
[10]同时显示所述第一图像及所述第二图像。
[11]结合上述第一方面, 在第一种可能的实现方式中, 所述通过所述第一 摄像头拍摄获得第一图像, 包括:
[12]获得所述第一摄像头的第一对焦参数; [13]根据所述第一对焦参数通过所述第一摄像头拍摄获得所述第一图像。
[14]结合上述第一方面,和 /或第一种可能的实现方式,在第二种可能的实 现方式中, 所述获得所述第一摄像头的第一对焦参数, 包括:
[15]通过所述第一摄像头获得所述第一图像的预览图像;
[16]根据对所述第一图像的预览图像的调焦操作确定所述第一摄像头的第 一对焦参数。
[17]结合上述第一方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式, 在第三种可能的实现方式中, 所述同时显示所述第一图像及 所述第二图像, 包括:
[18]确定所述第二图像在所述第一图像中的指定显示区域;
[19]在所述第一图像中的所述指定显示区域显示所述第二图像。
[20]结合上述第一方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式, 和 /或第三种可能的实现方式, 在第四种可能的实现方式中, 所述确定所述第二图像在所述第一图像中的指定显示区域, 包括:
[21]根据预置算法确定所述第一图像中的重要区域和非重要区域;
[22]将所述第一图像中的非重要区域作为所述第二图像在所述第一图像中 的指定显示区域。
[23]结合上述第一方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式,和 /或第三种可能的实现方式,和 /或第四种可能的实现方式, 在第五种可能的实现方式中, 在所述同时显示所述第一图像及所述第二图 像之后, 所述方法还包括:
[24]获取对所述第二图像的拖动轨迹;
[25]根据所述拖动轨迹确定所述第二图像的显示位置。
[26]结合上述第一方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式,和 /或第三种可能的实现方式,和 /或第四种可能的实现方式, 和 /或第五种可能的实现方式,在第六种可能的实现方式中,在所述同时显 示所述第一图像及所述第二图像之后, 所述方法还包括:
[27]获取对所述第一图像和所述第二图像的显示区域的切换操作信息;
[28]根据所述切换操作信息, 互换所述第一图像与所述第二图像的显示区 域。
[29]结合上述第一方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式,和 /或第三种可能的实现方式,和 /或第四种可能的实现方式, 和 /或第五种可能的实现方式, 和 /或第六种可能的实现方式, 在第七种可 能的实现方式中, 在所述同时显示所述第一图像及所述第二图像之后, 所 述方法还包括:
[30]获得所述第二图像的边缘区域与所述第二图像所在位置处的所述第一 图像的相似度;
[31]当所述相似度大于等于阈值时,将所述第二图像与所述第一图像合成。
[32]结合上述第一方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式,和 /或第三种可能的实现方式,和 /或第四种可能的实现方式, 和 /或第五种可能的实现方式,和 /或第六种可能的实现方式,和 /或第七种 可能的实现方式, 在第八种可能的实现方式中, 还包括:
[33]当所述相似度小于所述阈值时, 调整所述第一图像和 /或所述第二图 像, 以增大所述相似度。
[34]第二方面, 提供一种图像处理方法, 所述方法应用于具有全景辅助镜 头和至少一个摄像头的终端, 所述全景辅助镜头用于将所述终端的周围影 像反射或折射至所述摄像头的拍摄区域, 所述方法包括:
[35]接收所述全景辅助镜头反射或折射的影像;
[36]通过所述摄像头对所述全景辅助镜头反射或折射的影像进行拍摄获得
[37]显示所述拍摄获得的图像。
[38]结合上述第二方面, 在第一种可能的实现方式中, 所述通过所述摄像 头对所述全景辅助镜头反射或折射的影像进行拍摄获得图像, 包括: [39]通过所述摄像头获得所述全景辅助镜头反射或折射影像的预览图像, 所述预览图像包括不同角度的多个子预览图像;
[40]根据对所述多个子预览图像中任一子预览图像的调焦操作确定所述摄 像头的对焦参数;
[41]根据所述对焦参数通过所述摄像头对所述全景辅助镜头反射或折射的 影像进行拍摄获得图像。
[42]结合上述第二方面,和 /或第一种可能的实现方式,在第二种可能的实 现方式中, 所述显示所述拍摄获得的图像, 包括:
[43]以平面展开的方式连续显示所述拍摄获得的图像; 或者,
[44]以环形显示方式连续显示所述拍摄获得的图像; 或者,
[45]将所述拍摄获得的图像划分为不同角度的多个图像, 并同时显示所述 不同角度的多个图像。
[46]结合上述第二方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式, 在第三种可能的实现方式中, 在所述显示所述拍摄获得的图 像之后, 所述方法还包括:
[47]按照设定的比例对所述拍摄获得的图像进行裁剪;
[48]对裁剪后的图像进行保存。
[49]第三方面, 提供一种图像处理装置, 包括:
[50]信息接收单元, 用于接收同时启动第一摄像头和第二摄像头进行拍摄 的信息;
[51]图像获取单元, 用于通过所述第一摄像头拍摄获得第一图像, 并通过 所述第二摄像头拍摄获得第二图像;
[52]图像输出单元, 用于同时显示所述第一图像及所述第二图像。
[53]结合上述第三方面, 在第一种可能的实现方式中, 所述图像获取单元 包括: [54]参数获取子单元, 用于获得所述第一摄像头的第一对焦参数及所述第 二摄像头的第二对焦参数;
[55]图像获取子单元, 用于根据所述第一对焦参数通过所述第一摄像头拍 摄获得所述第一图像, 并根据所述第二对焦参数通过所述第二摄像头拍摄 获得所述第二图像。
[56]结合上述第三方面,和 /或第一种可能的实现方式,在第二种可能的实 现方式中, 所述参数获取子单元包括:
[57]第一子单元,用于通过所述第一摄像头获得所述第一图像的预览图像;
[58]第二子单元, 用于根据对所述第一图像的预览图像的调焦操作确定所 述第一摄像头的第一对焦参数。
[59]结合上述第三方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式, 在第三种可能的实现方式中, 所述图像输入单元包括:
[60]区域确定子单元, 用于确定所述第二图像在所述第一图像中的指定显 示区域;
[61]输出子单元, 用于输出在所述第一图像中的所述指定显示区域显示所 述第二图像。
[62]结合上述第三方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式, 和 /或第三种可能的实现方式, 在第四种可能的实现方式中, 所述区域确定子单元包括:
[63]第三子单元, 用于根据预置算法确定所述第一图像中的重要区域和非 重要区域;
[64]第四子单元, 用于将所述第一图像中的非重要区域作为所述第二图像 在所述第一图像中的指定显示区域。
[65]结合上述第三方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式,和 /或第三种可能的实现方式,和 /或第四种可能的实现方式, 在第五种可能的实现方式中, 还包括:
Γ661轨迹获取单元, 用于获取对所述第二图像的拖动轨迹: [67]位置确定单元,用于根据所述拖动轨迹确定所述第二图像的显示位置。
[68]结合上述第三方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式,和 /或第三种可能的实现方式,和 /或第四种可能的实现方式, 和 /或第五种可能的实现方式, 在第六种可能的实现方式中, 还包括:
[69]信息获取单元, 用于获取对所述第一图像和所述第二图像的显示区域 的切换操作信息;
[70]切换单元, 用于根据所述切换操作信息, 互换所述第一图像与所述第 二图像的显示区域。
[71]结合上述第三方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式,和 /或第三种可能的实现方式,和 /或第四种可能的实现方式, 和 /或第五种可能的实现方式, 和 /或第六种可能的实现方式, 在第七种可 能的实现方式中, 还包括:
[72]计算单元, 用于获得所述第二图像的边缘区域与所述第二图像所在位 置处的所述第一图像的相似度;
[73]合成单元, 用于当所述相似度大于等于阈值时, 将所述第二图像与所 述第一图像合成。
[74]调整单元,用于当所述相似度小于所述阈值时,调整所述第一图像和 / 或所述第二图像, 以增大所述相似度。
[75]第四方面, 提供一种图像处理装置, 所述装置应用于具有全景辅助镜 头和至少一个摄像头的终端, 所述全景辅助镜头用于将所述终端的周围影 像反射或折射至所述摄像头的拍摄区域, 所述装置包括:
[76]影像接收单元, 用于接收所述全景辅助镜头反射或折射的影像;
[77]图像获取单元, 用于通过所述摄像头对所述全景辅助镜头反射或折射 的影像进行拍摄获得图像;
[78]图像输出单元, 用于显示所述拍摄获得的图像。
[79]结合上述第四方面, 在第一种可能的实现方式中, 所述图像获取单元 包括: [80]预览子单元, 用于通过所述摄像头获得所述全景辅助镜头反射或折射 影像的预览图像, 所述预览图像包括不同角度的多个子预览图像;
[81]参数确定子单元, 用于根据对所述多个子预览图像中任一子预览图像 的调焦操作确定所述摄像头的对焦参数;
[82]获取子单元, 用于根据所述对焦参数通过所述摄像头对所述全景辅助 镜头反射或折射的影像进行拍摄获得图像。
[83]结合上述第四方面,和 /或第一种可能的实现方式,在第二种可能的实 现方式中, 所述图像输出单元, 具体用于以平面展开的方式连续显示所述 拍摄获得的图像; 或者, 以环形显示方式连续显示所述拍摄获得的图像; 或者, 将所述拍摄获得的图像划分为不同角度的多个图像, 并同时显示所 述不同角度的多个图像。
[84]结合上述第四方面, 和 /或第一种可能的实现方式, 和 /或第二种可能 的实现方式, 在第三种可能的实现方式中, 还包括:
[85]裁剪单元, 用于按照设定的比例对所述拍摄获得的图像进行裁剪;
[86]保存单元, 用于对裁剪后的图像进行保存。
[87]第五方面, 提供一种终端, 包括处理器, 显示器, 存储器, 第一摄像 头和第二摄像头, 所述处理器用于控制所述第一摄像头和所述第二摄像头 的工作状态, 所述处理器分别与所述显示器及所述存储器相连, 所述存储 器中存储一组程序代码, 且所述处理器用于调用所述存储器中存储的程序 代码, 用于执行以下操作:
[88]接收同时启动第一摄像头和第二摄像头进行拍摄的信息;
[89]通过所述第一摄像头拍摄获得第一图像, 并通过所述第二摄像头拍摄 获得第二图像;
[90]所述显示器, 用于同时显示所述第一图像及所述第二图像。
[91]第六方面, 提供一种终端, 包括处理器, 显示器, 存储器, 全景辅助 镜头和至少一个摄像头, 所述处理器用于控制所述摄像头的工作状态, 所 述全景辅助镜头用于将所述终端的周围影像反射或折射至所述摄像头的拍 摄区域, 所述处理器分别与所述显示器及所述存储器相连, 所述存储器中 存储一组程序代码,且所述处理器用于调用所述存储器中存储的程序代码, 用于执行以下操作:
[92]接收所述全景辅助镜头反射或折射的影像;
[93]通过所述摄像头对所述全景辅助镜头反射或折射的影像进行拍摄获得
[94]所述显示器, 用于显示所述拍摄获得的图像。
[95]结合上述第六方面, 在第一种可能的实现方式中, 所述全景辅助镜头 位于所述终端的顶部,并与所述终端的顶部弹性连接,所述全景辅助镜头 在工作时处于弹起状态,以用于将所述终端的周围影像反射或折射至所述 摄像头的拍摄区域。
[96]本发明实施例通过同时启动两摄像头进行双向拍摄,并同时显示两摄 像头的拍摄图像, 实现了前后场景图像的同时捕捉, 获得了全景图像。
附图说明
[97]为了更清楚地说明本发明实施例或现有技术中的技术方案, 下面将对 实施例或现有技术描述中所需要使用的附图作简单地介绍, 显而易见地, 对于本领域普通技术人员而言, 在不付出创造性劳动性的前提下, 还可以 根据这些附图获得其他的附图。
[98]图 1为本发明实施例一种图像处理方法的流程图;
[99]图 2为本发明实施例中获得第一图像和第二图像的方法流程图;
[100] 图 3 为本发明实施例中获得用户手动输入的对焦参数的方法流程 图;
[101] 图 4 为本发明实施例中同时显示第一图像及第二图像的方法流程 图;
[102] 图 5为图 4所示实施例中空间分布的示意图; 103] 图 6为图 4所示实施例中人脸分布的示意图;
104] 7为图 4所示实施例中边缘分布的示意
105] 图 8为本发明实施例中确定第二图像位置的方法流程图;
106] 图 9为本发明实施例中切换第一图像和第二图像显示区域的方法流
107] 图 10 为本发明实施例中对第一图像和第二图像进行处理的方法流
108] 图 11为本发明实施例另一种图像处理方法流程图;
109] 图 12为图 11所示实施例中终端的结构示意图;
110] 图 13a为本发明实施例中显示全景图像的第一显示方式示意图;
111] 图 13b为本发明实施例中显示全景图像的第二显示方式示意图;
112] 图 14为本发明实施例中显示全景图像的第三显示方式示意图;
113] 图 15为本发明实施例中对拍摄获得的非平面图像的处理示意图;
114] 图 16 为本发明实施例中通过摄像头对全景辅助镜头反射的影像进 行拍摄获得图像的方法流程图;
115] 图 17a 为本发明实施例中对拍摄获得的图像进行处理的方法流程 图;
116] 图 17b为图 17a所示实施例中对拍摄获得的图像进行裁剪的示意图;
117] 图 18为本发明实施例一种图像处理装置的结构示意图;
118] 图 19为本发明实施例中图像获取单元的结构示意图;
119] 图 20为本发明实施例中图像输入单元的结构示意图;
120] 图 21为本发明实施例另一种图像处理装置的结构示意图;
121] 图 22为本发明实施例一种终端的结构示意图; [122] 图 23为本发明实施例另一种终端的结构示意图; [123] 图 24为本发明实施例中全景辅助镜头的结构示意图。 具体实施方式
[124] 为了使本技术领域的人员更好地理解本发明实施例中的技术方案, 并使本发明实施例的上述目的、 特征和优点能够更加明显易懂, 下面结合 附图对本发明实施例中技术方案作进一步详细的说明。
[125] 参见图 1, 为本发明实施例一种图像处理方法的流程图。
[126] 该方法可以包括:
[127] 步骤 101,接收同时启动第一摄像头和第二摄像头进行拍摄的信息。
[128] 本实施例中, 终端, 例如手机或 PAD等, 至少包括第一摄像头和第 二摄像头, 其中, 第一摄像头可以是拍摄装置中的前摄像头或后摄像头中 的一个, 第二摄像头是前摄像头或后摄像头中的另一个, 前摄像头为位于 与拍摄装置操作界面同侧的摄像头, 后摄像头为位于拍摄装置操作界面背 面的摄像头。 当然, 该第一摄像头和第二摄像头还可以是其它位置的摄像 头, 此处仅为举例。
[129] 该终端可以根据默认设置, 在用户开启拍摄应用时自动启动双向拍 摄功能, 即终端接收同时启动第一摄像头和第二摄像头进行拍摄的信息; 也可以是在用户启动拍摄应用时, 终端向用户显示多种选择信息, 例如开 启第一摄像头、 开启第二摄像头及开启双向拍摄等信息, 终端通过用户对 开启双向拍摄信息的选择动作, 接收同时启动第一摄像头和第二摄像头进 行拍摄的信息。
[130] 步骤 102, 通过第一摄像头拍摄获得第一图像, 并通过第二摄像头 拍摄获得第二图像。
[131] 本发明实施例中, 第一摄像头的控制电路与第二摄像头的控制电路 可以同时处于工作状态, 第一摄像头的成像***和第二摄像头的成像*** 也可以是相互独立的, 以便于在终端接收到同时激活第一摄像头和第二摄 像头的信息后, 可以同时通过第一摄像头拍摄获得第一图像, 通过第二摄 像头拍摄获得第二图像。
[132] 步骤 103, 同时显示第一图像及第二图像。
[133] 在终端同时获得第一图像和第二图像后, 可以在显示屏幕上同时显 示第一图像及第二图像。 具体可以是对显示屏幕进行区域划分, 在第一图 像显示区域显示第一图像, 在第二图像显示区域显示第二图像; 也可以是 对第一图像进行全屏显示, 并在第一图像的某一区域同时显示第二图像, 即实现画中画显示, 显示方式有多中, 此处不再一一列举。
[134] 本发明实施例通过同时启动两摄像头进行双向拍摄, 并同时显示两 摄像头的拍摄图像, 实现了前后场景图像的同时捕捉, 获得了全景图像。
[135] 在本发明的另一实施例中, 在通过第一摄像头拍摄获得第一图像, 并通过第二摄像头拍摄获得第二图像时, 如图 2所示, 该过程可以包括:
[136] 步骤 201, 获得第一摄像头的第一对焦参数和第二摄像头的第二对 焦参数。
[137] 以第一对焦参数为例, 该第一对焦参数可以是第一摄像头按照默认 的自动对焦方式获得的对焦参数; 也可以是用户手动输入或手动调整对焦 后,终端获得的用户手动输入的对焦参数。第二对焦参数类似,不再赘述。
[138] 其中,如图 3所示,在终端获得用户手动输入的对焦参数的方式中, 又可以包括:
[139] 步骤 301, 通过第一摄像头获得第一图像的预览图像, 通过第二摄 像头获得第二图像的预览图像。
[140] 第一图像的预览图像和第二图像的预览图像可以分区域同时显示, 也可以是第一图像的预览图像全屏显示, 第二图像的预览图像在第一图像 的预览图像的某一区域进行显示。
[141] 步骤 302, 根据用户对第一图像的预览图像的调焦操作确定第一摄 像头的第一对焦参数, 根据用户对第二图像的预览图像的调焦操作确定第 二摄像头的第二对焦参数。
[142] 用户可以直接通过触屏分别对第一图像的预览图像及第二图像的预 览图像进行调焦。 当第一图像的预览图像全屏显示, 第二图像的预览图像 在第一图像的预览图像的某一区域进行显示时, 为了便于用户对第二图像 的预览图像的调焦操作, 在用户对第一图像的预览图像调焦后, 用户可以 在显示屏上进行滑动操作, 终端在对该滑动操作识别后, 切换第一图像的 预览图像和第二图像的预览图像的显示方式, 也即第二图像的预览图像进 行全屏显示, 第一图像的预览图像在第二图像的预览图像的某一区域进行 显示, 然后, 终端再根据用户对第二图像的预览图像的调焦操作确定第二 摄像头的第二对焦参数。
[143] 步骤 202, 根据第一对焦参数通过第一摄像头拍摄获得第一图像, 并根据第二对焦参数通过第二摄像头拍摄获得第二图像。
[144] 在本发明的另一实施例中, 在同时显示第一图像及第二图像时, 其 一具体实现方式即显示第一图像, 并在第一图像的指定显示区域显示第二 图像, 如图 4所示, 该显示过程具体可以包括:
[145] 步骤 401, 确定第二图像在第一图像中的指定显示区域。
[146] 该指定显示区域的确定过程具体可以包括:
[147] 1 )根据预置算法确定第一图像中的重要区域和非重要区域。
[148] 该预置算法可以是现有的算法, 或基于空间的分布算法, 或基于人 脸的分布算法, 或基于边缘的分布算法等, 例如:
[149] 方式一: 基于空间分布
[150] 首先确定第一图像的重要区域、 中等区域和非重要区域, 若该第一 图像为全屏显示, 可以确定显示屏的重要区域、 中等区域和非重要区域, 如图 5所示, 可以将显示屏的显示区域划分为 3x3个格, 中心区域为重要 区域, 中心区域的***区域可以根据人眼关注程度划分为中等区域和非重 要区域, 其中, H代表重要区域, M代表中等区域, L代表非重要区域。 该 指定显示区域可以是上述中等区域或非重要区域。 在显示第二图像时, 可 以在 M区域或 L区域进行显示。
[151] 方式二: 基于人脸分布
[152] 首先通过摄像头获取用户的人脸图像, 然后将该人脸图像所在的区 域划分为重要区域(H), 其他区域划分为非重要区域(L), 如图 6所示。 该指定显示区域可以是非重要区域。 若该第一图像为全屏显示, 第二图像 可以位于非重要区域。
[153] 方式三: 基于边缘分布
[154] 首先基于边缘分布算法确定出显著区域(H)和边缘区域(L), 如图 7所示。 该指定显示区域可以是边缘区域。 若该第一图像为全屏显示, 第 二图像可以位于边缘区域。
[155] 方式四, 该指定显示区域可以是认为预先设定的。 该指定显示区域 的大小和形状可以根据需要预先设定, 也可以在显示时再进行调整。
[156] 2)将第一图像中的非重要区域作为第二图像在第一图像中的指定显 示区域。
[157] 步骤 402, 在第一图像中的指定显示区域显示第二图像。
[158] 在本发明的另一实施例中, 在第一图像中的指定显示区域显示第二 图像后, 如图 8所示, 该方法还可以包括:
[159] 步骤 801 , 获取用户对第二图像的拖动轨迹。
[160] 若用户需要调整第二图像的显示位置, 用户可以点触该第二图像, 并在显示屏中拖动该第二图像, 终端根据用户对第二图像的点触及拖动操 作确定对第二图像的拖动操作信息, 然后根据用户手指的触屏位置, 可以 获得用户拖动的轨迹。
[161] 步骤 802, 根据该拖动轨迹确定第二图像的显示位置。
[162] 终端可以在确定拖动轨迹后, 根据该拖动轨迹显示第二图像。
[163] 在本发明的另一实施例中, 在第一图像中的指定显示区域显示第二 图像后, 如图 9所示, 该方法还可以包括:
[164] 步骤 901 , 获取用户对第一图像和第二图像显示区域的切换操作信
[165] 该切换操作信息具体可以是用户在第一图像和第二图像之间的滑动 操作, 也可以是用户在第一图像上和第二图像上的连续点击操作等。
[166] 步骤 902, 根据该切换操作信息, 互换第一图像与第二图像的显示 区域。
[167] 互换后即在第二图像的指定显示区域显示第一图像, 第二图像可以 全屏显示。
[168] 在本发明的另一实施例中, 在第一图像中的指定显示区域显示第二 图像之后, 如图 10所示, 还可以包括:
[169] 步骤 1001,获得第二图像的边缘区域与第二图像所在位置处的第一 图像的相似度。
[170] 具体的, 可以获取第二图像边缘区域及第二图像所在位置处的第一 图像的颜色、 边缘、 紋理、 等特征, 然后计算特征之间的相似度。
[171] 步骤 1002, 判断相似度是否大于阈值。
[172] 当相似度大于阈值时, 表明第二图像边缘与其所在位置处的第一图 像的颜色等相同或相近, 此时执行步骤 1003; 当相似度小于阈值时, 可以 直接保存第一图像和第二图像, 也可以执行步骤 1004。
[173] 步骤 1003, 将第二图像与第一图像合成。
[174] 该步骤具体可以是调整第二图像的边缘以及第二图像所在位置处的 第一图像的色相、 饱和度、 对比度、 亮度, 使得第二图像边缘区域与第一 图像之间的差异变小, 然后将第二图像的显示边框隐藏或取消, 将第二图 像与第一图像合成一张图像。
[175] 步骤 1004, 调整第一图像和 /或第二图像, 以增大第二图像的边缘 区域与第二图像所在位置处的第一图像的相似度。
[176] 具体的, 可以调整第一图像和 /或第二图像的颜色、 色相、 饱和度、 对比度、 亮度、 曲线、 色阶等参数中的一个或多个参数, 以增大第二图像 的边缘区域与第二图像所在位置处的第一图像的相似度, 使得第二图像在 第一图像中的显示更加自然, 风格一致。
Π771 本发明实施例还提供了另外一种图像处理方法。 [178] 参见图 11, 为本发明实施例另一种图像处理方法流程图。
[179] 本发明实施例中,如图 12所示,该终端具有全景辅助镜头 121和至 少一个摄像头 122, 该全景辅助镜头 121可以是设置在终端上的环形反射 镜或折射镜头, 该全景辅助镜头 121可以反射或折射该终端的周围影像, 该周围影像可以是以终端为中心的 360度环形影像, 该全景辅助镜头 121 与摄像头 122的位置关系满足该全景辅助镜头 121可以将该终端周围影像 反射或折射至摄像头 122的拍摄区域。 方法可以包括:
[180] 步骤 111, 接收全景辅助镜头反射或折射的影像。
[181] 终端可以根据默认设置, 在用户开启拍摄应用时自动启动全景拍摄 功能, 此时, 全景辅助镜头向摄像头反射或折射周围影像, 该全景辅助镜 头为环形反射镜或折射镜头,向摄像头反射或折射 360度范围的环形影像。
[182] 终端也可以是在用户启动拍摄应用时, 向用户显示多种选择信息, 例如前景模式、 后景模式、 360度全画幅模式等信息, 其中, 前景模式即 只激活终端正面影像捕捉, 默认为 3 : 2, 可以根据用户需要进行自定义调 整, 用于自拍, 视频通话等场景; 后景模式即只激活终端背面影像捕捉, 默认为 3 : 2, 亦可根据用户需要进行自定义调整, 用户普通拍照, 摄录等 场景; 360度全画幅模式即激活 360度取景影像捕捉, 利用全景辅助镜头 及单摄像头获得 360度全景图像。 终端通过用户对 360度全画幅模式的选 择动作, 接收全景辅助镜头反射的环形影像。
[183] 步骤 112, 通过摄像头对全景辅助镜头反射或折射的影像进行拍摄 获得图像。
[184] 摄像头对全景辅助镜头反射或折射的环形影像进行拍摄, 即可获得 全景图像, 具体的, 可以是以终端为中心的 360度的全景图像。
[185] 步骤 113, 显示拍摄获得的图像。
[186] 在显示全景图像时可以有多种显示方式, 例如:
[187] 方式一, 如图 13a所示, 可以是将所获得的全景图像以平面展开的 方式连续显示, 或者, 如 13b所示, 将所获得的全景图像以环形方式连续 显示, 用户可以通过在触摸屏上滑动, 连续浏览全景图像; [188] 方式二, 也可以是将全景图像划分为不同角度的多个图像, 在显示 屏上的不同位置同时显示。例如,如图 14所示,显示屏中部左方显示终端 前方的图像与传统的终端前摄像头拍摄的图像相同, 显示屏中部右方显示 终端后方的图像与传统的终端后摄像头拍摄的图像相同, 显示屏上方显示 终端前方 180度的图像, 显示屏下方显示终端后方 180度的图像。 当然也 还可以是显示其他不同角度的多个图像。
[189] 在本发明的另一实施例中, 在显示拍摄获得的图像之前, 还可以包 括:
[190] 若通过摄像头对全景辅助镜头反射或折射的环形影像进行拍摄获得 的图像为非平面图像, 则将该非平面图像处理为平面图像。
[191] 如图 15所示,若全景辅助镜头 151为弧形反射镜,则其反射的影像 也为弧形影像, 拍摄后获得的图像也为扭曲变形的弧形图像 152。 在本步 骤中, 通过现有算法, 可以将该弧形图像 152处理为平面图像 153。 然后 再显示该平面图像 153.
[192] 在本发明的另一实施例中, 通过摄像头对全景辅助镜头反射或折射 的环形影像进行拍摄获得图像的过程, 如图 16所示, 具体可以包括:
[193] 步骤 161, 获得摄像头的对焦参数。
[194] 该对焦参数可以是摄像头按照默认的自动对焦方式获得的对焦参 数; 也可以是用户手动输入或手动调整对焦后, 终端获得的用户手动输入 的对焦参数。
[195] 在终端获得用户手动输入的对焦参数的方式中, 又可以包括:
[196] 首先, 通过摄像头获得全景辅助镜头反射或折射影像的预览图像, 该 预览图像包括不同角度的多个子预览图像。
[197] 该预览图像中的多个子预览图像可以按照如图 14所示的方式进行 排布。
[198] 然后, 根据用户对多个子预览图像中任一子预览图像的调焦操作确 定摄像头的对焦参数。 [199] 用户可以在如图 14所示的方式显示的预览图像中,通过手动对其中 一个角度的预览图像进行调焦, 来确定摄像头的对焦参数。 终端可以根据 用户对一个角度的预览图像的调焦操作, 实时更新调焦后的其他角度的预
[200] 无论是上述哪种获得对焦参数的方式, 在确定对焦参数时所基于的 对焦目标的优选顺序可以是如图 14所示的显示方式中,首选正后景的预览 图像 (图中中右位置), 其次是正前景的预览图像 (图中中左位置), 再次 是 180度后景的预览图像(图中上方位置),最后是 180度前景的预览图像 (图中下方位置)。
[201] 步骤 162, 根据该对焦参数, 通过摄像头对全景辅助镜头反射或折 射的环形影像进行拍摄获得图像。
[202] 在本发明的另一实施例中, 在显示拍摄获得的图像后, 如图 17a所 示, 该图像处理方法还可以进一步包括:
[203] 步骤 171, 按照预设比例对拍摄获得的图像进行裁剪;
[204] 具体的, 可以是按任意比例 (如用户拖曳裁剪框所确定的尺寸)或 模板比例(如 3 : 2横竖, 4: 3横竖, 16 :9横竖, 1: 1等)对 360度影像进 行剪裁, 如图 17b所示, 剪裁后的影像可以自动通过算法进行平板化进行 后期保存。
[205] 步骤 172, 对裁剪后的图像进行保存。
[206] 当然也可以无需裁剪, 而直接对 360度影像进行保存。
[207] 本发明实施例可以应用于数码相机、 数码摄像机、 以至于专业相机 等, 以实现更多信息的捕捉。 其应用场景可以是电视电影甚至游戏领域, 例如可以录制并开放交互式节目、 交互式电影, 在观看时可以选择旋转看 其他不同的角落, 并配合头戴式设备, 实现真实 4D的感受; 在商务领域, 可以集成在智真会议***, 演示, 会议等场景下可以实现超越当前智真系 统的全画幅会议。
[208] 以上是对本发明方法实施例的描述, 下面对实现上述方法的装置进 行介绍。 [209] 参见图 18, 为本发明实施例一种图像处理装置的结构示意图。 [210] 该装置可以包括:
[211] 信息接收单元 181, 用于接收同时启动第一摄像头和第二摄像头进 行拍摄的信息;
[212] 图像获取单元 182, 用于通过所述第一摄像头拍摄获得第一图像, 并通过所述第二摄像头拍摄获得第二图像;
[213] 图像输出单元 183, 用于同时显示所述第一图像及所述第二图像。
[214] 本发明实施例中, 该装置通过上述单元同时启动两摄像头进行双向 拍摄,并同时显示两摄像头的拍摄图像,实现了前后场景图像的同时捕捉, 获得了全景图像。
[215] 在另一实施例中, 如图 19所示, 图像获取单元可以进一步包括:
[216] 参数获取子单元 191, 用于获得所述第一摄像头的第一对焦参数及 所述第二摄像头的第二对焦参数;
[217] 图像获取子单元 192, 用于根据所述第一对焦参数通过所述第一摄 像头拍摄获得所述第一图像, 并根据所述第二对焦参数通过所述第二摄像 头拍摄获得所述第二图像。
[218] 在另一实施例中, 参数获取子单元 191可以进一步包括:
[219] 第一子单元, 用于通过所述第一摄像头获得所述第一图像的预览图
[220] 第二子单元, 用于根据对所述第一图像的预览图像的调焦操作确定 所述第一摄像头的第一对焦参数。
[221] 在本发明的另一实施例中,如图 20所示, 图像输入单元可以进一步 包括:
[222] 区域确定子单元 2001,用于确定所述第二图像在所述第一图像中的 指定显示区域; [223] 输出子单元 2002,用于输出在所述第一图像中的所述指定显示区域 显示所述第二图像。
[224] 其中, 区域确定子单元 2001又可以包括:
[225] 第三子单元, 用于根据预置算法确定所述第一图像中的重要区域和 非重要区域;
[226] 第四子单元, 用于将所述第一图像中的非重要区域作为所述第二图 像在所述第一图像中的指定显示区域。
[227] 在本发明的另一实施例中, 该图像处理装置也还可以进一步包括:
[228] 轨迹获取单元, 用于获取对所述第二图像的拖动轨迹;
[229] 位置确定单元, 用于根据所述拖动轨迹确定所述第二图像的显示位 置。
[230] 在本发明的另一实施例中, 该图像处理装置也还可以进一步包括:
[231] 信息获取单元, 用于获取对所述第一图像和所述第二图像的显示区 域的切换操作信息;
[232] 切换单元, 用于根据所述切换操作信息, 互换所述第一图像与所述 第二图像的显示区域。
[233] 在本发明的另一实施例中, 该图像处理装置也还可以进一步包括:
[234] 计算单元, 用于获得所述第二图像的边缘区域与所述第二图像所在 位置处的所述第一图像的相似度;
[235] 合成单元, 用于当所述相似度大于等于阈值时, 将所述第二图像与 所述第一图像合成。
[236] 调整单元, 用于当所述相似度小于所述阈值时, 调整所述第一图像 和 /或所述第二图像, 以增大所述相似度。
[237] 参见图 21, 为本发明实施例另一种图像处理装置的结构示意图。 [238] 该装置应用于具有全景辅助镜头和至少一个摄像头的终端, 所述全 景辅助镜头用于将所述终端的周围影像反射或折射至所述摄像头的拍摄区 域, 所述装置包括:
[239] 影像接收单元 211,用于接收所述全景辅助镜头反射或折射的影像;
[240] 图像获取单元 212, 用于通过所述摄像头对所述全景辅助镜头反射 或折射的影像进行拍摄获得图像;
[241] 图像输出单元 213, 用于显示所述拍摄获得的图像。
[242] 所述图像输出单元 213, 具体可以用于以平面展开的方式连续显示 所述拍摄获得的图像; 或者, 以环形显示方式连续显示所述拍摄获得的图 像; 或者, 将所述拍摄获得的图像划分为不同角度的多个图像, 并同时显 示所述不同角度的多个图像。
[243] 本发明实施例中, 该装置通过上述单元即可获得前后场景图像的同 时捕捉, 获得了全景图像。
[244] 在本发明的另一实施例中, 该图像获取单元可以进一步包括:
[245] 预览子单元, 用于通过所述摄像头获得所述全景辅助镜头反射或折 射影像的预览图像, 所述预览图像包括不同角度的多个子预览图像;
[246] 参数确定子单元, 用于根据对所述多个子预览图像中任一子预览图 像的调焦操作确定所述摄像头的对焦参数;
[247] 获取子单元, 用于根据所述对焦参数通过所述摄像头对所述全景辅 助镜头反射或折射的影像进行拍摄获得图像。
[248] 在本发明的另一实施例中, 该装置还可以包括:
[249] 裁剪单元, 用于按照设定的比例对所述拍摄获得的图像进行裁剪;
[250] 保存单元, 用于对裁剪后的图像进行保存。
[251] 参见图 22, 为本发明实施例一种终端的结构示意图。
[252] 该终端可以包括处理器 221 , 显示器 222, 存储器 223, 第一摄像头 22, 4和第二摄像头 225, 所述处理器 221用于控制所述第一摄像头 224和 所述第二摄像头 225的工作状态, 所述处理器 221分别与所述显示器 222 及舰存储器 223相连, 舰存觸 223中存 组辦代码, 且舰处理 器 221用于调用所述存储器中存储的程^ ^码, 用于执行以下操作:
[253] 接收同时启动第一摄像头 224和第二摄像头 225进行拍摄的信息;
[254] 通过所述第一摄像头 224拍摄获得第一图像, 并通过所述第二摄像 头 225拍摄获得第二图像。
[255] 所述显示器 222, 用于同时显示所述第一图像及所述第二图像。
[256] 本发明实施例中, 该终端通过同时启动两摄像头进行双向拍摄, 并 同时显示两摄像头的拍摄图像, 实现了前后场景图像的同时捕捉, 获得了 全景图像。
[257] 参见图 23, 为本发明实施例另一种终端的结构示意图。
[258] 该终端可以包括处理器 231 , 显示器 232, 存储器 233, 全景辅助镜 头 23, 4和至少一个摄像头 235, 所述处理器 231用于控制所述摄像头 235 的工作状态, 所述全景辅助镜头 234用于将所述终端的周围影像反射或折 射至所述摄像头 235的拍摄区域, 所述处理器 231分别与所述显示器 232 及舰存储器 233相连, 舰存觸 233中存 组辦代码, 且舰处理 器 231用于调用所述存储器 233中存储的程序代码, 用于执行以下操作:
[259] 接收所述全景辅助镜头 234反射或折射的影像;
[260] 通过所述摄像头 235对所述全景辅助镜头 233反射或折射的影像进 行拍摄获得图像。
[261] 所述显示器 232, 用于显示所述拍摄获得的图像。
[262] 本发明实施例中, 该终端通过全景辅助镜头和单个摄像头即可获得 前后场景图像的同时捕捉, 获得了全景图像。
[263] 在本发明的另一实施例中,如图 24所示,该全景辅助镜头 241可以 位于所述终端的顶部, 并与所述终端的顶部弹性连接, 所述全景辅助镜头 241 在工作时处于弹起状态, 以用于将所述终端的周围影像反射或折射至 所述摄像头 242的拍摄区域。 该全景辅助镜头 241具体可以是环形凸面镜 243, 也可以是鱼眼镜头 244。 其中, 鱼眼镜头是一种焦距极短(如 16mm 或焦距更短)并且视角接近或等于 180° 的镜头, 它是一种极端的广角镜 头。
[264] 本领域普通技术人员可以意识到, 结合本文中所公开的实施例描述 的各示例的单元及算法步骤, 能够以电子硬件、 或者计算机软件和电子硬 件的结合来实现。 这些功能究竟以硬件还是软件方式来执行, 取决于技术 方案的特定应用和设计约束条件。 专业技术人员可以对每个特定的应用来 使用不同方法来实现所描述的功能, 但是这种实现不应认为超出本发明的 范围。
[265] 所属领域的技术人员可以清楚地了解到, 为描述的方便和简洁, 上 述描述的***、 装置和单元的具体工作过程, 可以参考前述方法实施例中 的对应过程, 在此不再赘述。
[266] 在本申请所提供的几个实施例中, 应该理解到, 所揭露的***、 装 置和方法, 可以通过其它的方式实现。 例如, 以上所描述的装置实施例仅 仅是示意性的, 例如, 所述单元的划分, 仅仅为一种逻辑功能划分, 实际 实现时可以有另外的划分方式, 例如多个单元或组件可以结合或者可以集 成到另一个***, 或一些特征可以忽略, 或不执行。 另一点, 所显示或讨 论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口, 装置或 单元的间接耦合或通信连接, 可以是电性, 机械或其它的形式。
[267] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开 的, 作为单元显示的部件可以是或者也可以不是物理单元, 即可以位于一 个地方, 或者也可以分布到多个网络单元上。 可以根据实际的需要选择其 中的部分或者全部单元来实现本实施例方案的目的。
[268] 另外, 在本发明各个实施例中的各功能单元可以集成在一个处理单 元中, 也可以是各个单元单独物理存在, 也可以两个或两个以上单元集成 在一个单元中。
[269] 所述功能如果以软件功能单元的形式实现并作为独立的产品销售或 使用时, 可以存储在一个计算机可读取存储介质中。 基于这样的理解, 本 发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案 的部分可以以软件产品的形式体现出来, 该计算机软件产品存储在一个存 储介质中, 包括若干指令用以使得一台计算机设备 (可以是个人计算机, 服务器, 或者网络设备等)或处理器(processor)执行本发明各个实施例 所述方法的全部或部分步骤。 而前述的存储介质包括: U盘、 移动硬盘、 只读存储器 (ROM, Read-Only Memory )^ 随机存取存储器 (RAM, Random Access Memory), 磁碟或者光盘等各种可以存储程序代码的介质。
[270] 以上所述, 仅为本发明的具体实施方式, 但本发明的保护范围并不 局限于此, 任何熟悉本技术领域的技术人员在本发明揭露的技术范围内, 可轻易想到变化或替换, 都应涵盖在本发明的保护范围之内。 因此, 本发 明的保护范围应所述以权利要求的保护范围为。

Claims

权 利 要 求 书
1、 一种图像处理方法, 其特征在于, 包括:
接收同时启动第一摄像头和第二摄像头进行拍摄的信息;
通过所述第一摄像头拍摄获得第一图像, 并通过所述第二摄像头拍摄获 得第二图像;
同时显示所述第一图像及所述第二图像。
2、根据权利要求 1所述的方法,其特征在于, 通过所述第一摄像头拍 摄获得第一图像, 包括:
获得所述第一摄像头的第一对焦参数;
根据所述第一对焦参数通过所述第一摄像头拍摄获得所述第一图像。
3、根据权利要求 2所述的方法,其特征在于,所述获得所述第一摄像头 的第一对焦参数, 包括:
通过所述第一摄像头获得所述第一图像的预览图像;
根据对所述第一图像的预览图像的调焦操作确定所述第一摄像头的第一 对焦参数。
4、根据权利要求 1至 3中任意一项所述的方法,其特征在于, 所述同时 显示 第一图像及 第二图像, 包括:
确定所述第二图像在所述第一图像中的指定显示区域;
在所述第一图像中的所述指定显示区域显示所述第二图像。
5、根据权利要求 4所述的方法,其特征在于,所述确定所述第二图像在 所述第一图像中的指定显示区域, 包括:
根据预置算法确定所述第一图像中的重要区域和非重要区域;
将所述第一图像中的非重要区域作为所述第二图像在所述第一图像中的 指定显示区域。
6、根据权利要求 4 的 其特征在于, 在所述同时显示 第一图 像及 第二图像之后, 方法还包括:
获取对所述第二图像的拖动轨迹;
根据所述拖动轨迹确定所述第二图像的显示位置。
7、根据权利要求 4 的;^, 其特征在于, 在所述同时显示 第一图 像及 第二图像之后, 方法还包括:
获取对所述第一图像和所述第二图像的显示区域的切换操作信息; 根据所述切换操作信息,互换所述第一图像与所述第二图像的显示区域。
8、 根据权利要求 4所述的方法, 其特征在于, 在所述同时显示所述第一 图像及 第二图像之后, rn^^^ :
获得所述第二图像的边缘区域与所述第二图像所在位置处的所述第一图 像的相似度;
当雌相似度大 ^于阈值时, 将纖第二图像与纖第一图像合成。
9、 根据权利要求 8舰的施 其特征在于, 还包括:
当舰相似度小于舰阈值时, 调整所述第一图像和 /或所述第二图像, 以增大所述相似度。
10、 一种图像处理方法, 其特征在于, 所述方法应用于具有全景辅助镜 头和至少一个摄像头的终端, 所述全景辅助镜头用于将所述终端的周围影像 反射或折射至所述摄像头的拍摄区域, 所述方法包括:
接收所述全景辅助镜头反射或折射的影像;
通过所述摄像头对所述全景辅助镜头反射或折射的影像进行拍摄获得图 显示所述拍摄获得的图像。
11、根据权利要求 10所述的方法,其特征在于, 通过所述摄像头对所 述全景辅助镜头反射或折射的影像进行拍摄获得图像, 包括:
通过所述摄像头获得所述全景辅助镜头反射或折射影像的预览图像, 所述 预览图像包括不同角度的多个子预览图像;
根据对所述多个子预览图像中任一子预览图像的调焦操作确定所述摄像 头的对焦参数;
根据所述对焦参数通过所述摄像头对所述全景辅助镜头反射或折射的影 像进行拍摄获得图像。
12、根据权利要求 10所述的方法,其特征在于, 显示所述拍摄获得的 图像, 包括:
以平面展开的方式连续显示所述拍摄获得的图像; 或者,
以环形显示方式连续显示所述拍摄获得的图像; 或者,
将所述拍摄获得的图像划分为不同角度的多个图像, 并同时显示所述不 同角度的多个图像。
13、 根据权利要求 10至 12中任意一项舰的方法, 其特征在于, 在舰 显示 拍摄获得的图像之后, ^^ :
按照设定的比例对所述拍摄获得的图像进行裁剪;
剪后的图像进行保存。
14、 一种图像处理装置, 其特征在于, 包括:
信息接收单元, 用于接收同时启动第一摄像头和第二摄像头进行拍摄的 信息;
图像获取单元, 用于通过所述第一摄像头拍摄获得第一图像, 并通过所 述第二摄像头拍摄获得第二图像;
图像输出单元, 用于同时显示所述第一图像及所述第二图像。
15、 根据权利要求 14 的装置, 其特征在于, 图像获取单元包括: 参数获取子单元, 用于获得所述第一摄像头的第一对焦参数及所述第二 摄像头的第二对焦参数;
图像获取子单元, 用于根据所述第一对焦参数通过所述第一摄像头拍摄 获得所述第一图像, 并根据所述第二对焦参数通过所述第二摄像头拍摄获得 所述第二图像。
16、根据权利要求 15所述的装置,其特征在于,所述参数获取子单元包 括:
第一子单元, 用于通过所述第一摄像头获得所述第一图像的预览图像; 第二子单元, 用于根据对所述第一图像的预览图像的调焦操作确定所述 第一摄像头的第一对焦参数。
17、 根据权利要求 14至 16中任意一项所述的装置, 其特征在于, 所述 图像输入单元包括:
区域确定子单元, 用于确定所述第二图像在所述第一图像中的指定显示 区域;
输出子单元, 用于输出在所述第一图像中的所述指定显示区域显示所述
18、根据权利要求 17所述的装置,其特征在于,所述区域确定子单元包 括:
第三子单元, 用于根据预置算法确定所述第一图像中的重要区域和非重 要区域;
第四子单元, 用于将所述第一图像中的非重要区域作为所述第二图像在 所述第一图像中的指定显示区域。
19、 根据权利要求 17所述的装置, 其特征在于, 还包括:
轨迹获取单元, 用于获取对所述第二图像的拖动轨迹;
位置确定单元, 用于根据所述拖动轨迹确定所述第二图像的显示位置。
20、 根据权利要求 17所述的装置, 其特征在于, 还包括:
信息获取单元, 用于获取对所述第一图像和所述第二图像的显示区域的 切换操作信息;
切换单元, 用于根据所述切换操作信息, 互换所述第一图像与所述第二 图像的显示区域。
21、 根据权利要求 17所述的装置, 其特征在于, 还包括:
计算单元, 用于获得所述第二图像的边缘区域与所述第二图像所在位置 处的所述第一图像的相似度;
合成单元, 用于当所述相似度大于等于阈值时, 将所述第二图像与所述第 调整单元, 用于当所述相似度小于所述阈值时, 调整所述第一图像和 /或 所述第二图像, 以增大所述相似度。
22、 一种图像处理装置, 其特征在于, 所述装置应用于具有全景辅助镜 头和至少一个摄像头的终端, 所述全景辅助镜头用于将所述终端的周围影像 反射或折射至所述摄像头的拍摄区域, 所述装置包括:
影像接收单元, 用于接收所述全景辅助镜头反射或折射的影像; 图像获取单元, 用于通过所述摄像头对所述全景辅助镜头反射或折射的 影像进行拍摄获得图像;
图像输出单元, 用于显示所述拍摄获得的图像。
23、 根据权利要求 22纖的装置, 其特征在于, 腿图像获取单元包括: 预览子单元, 用于通过 摄像头获得 全景辅助镜头反射或折射影像 的预览图像, 所述预览图像包括不同角度的多个子预览图像;
参数确定子单元, 用于根据对所述多个子预览图像中任一子预览图像的 调焦操作确定所述摄像头的对焦参数;
获取子单元, 用于根据所述对焦参数通过所述摄像头对所述全景辅助镜 头反射或折射的影像进行拍摄获得图像。
24、 根据权利要求 22 的装置, 其特征在于,
所述图像输出单元, 具体用于以平面展开的方式连续显示所述拍摄获得 的图像; 或者, 以环形显示方式连续显示所述拍摄获得的图像; 或者, 将所 述拍摄获得的图像划分为不同角度的多个图像, 并同时显示所述不同角度的 多个图像。
25、根据权利要求 22至 24中任意一项 的装置, 其特征在于, 还包括: 裁剪单元, 用于按照设定的比例对所述拍摄获得的图像进行裁剪; 保存单元, 用于 ^剪后的图像进行保存。
26、 一种终端, 其特征在于, 包括处理器, 显示器, 存储器, 第一摄像头 和第二摄像头, 所述处理器用于控制所述第一摄像头和所述第二摄像头的工作 状态, 处理器分别与 显示器及 存储器相连, 存储器中存 组程序代码, 且 处理器用于调用 存储器中存储的程序代码, 用于执行 以下操作:
接收同时启动第一摄像头和第二摄像头进行拍摄的信息;
通过所述第一摄像头拍摄获得第一图像, 并通过所述第二摄像头拍摄获 得第二图像;
所述显示器, 用于同时显示所述第一图像及所述第二图像。
27、 一种终端, 其特征在于, 包括处理器, 显示器, 存储器, 全景辅助镜 头和至少一个摄像头, 所述处理器用于控制所述摄像头的工作状态, 所述全 景辅助镜头用于将所述终端的周围影像反射或折射至所述摄像头的拍摄区 域, 纖处理器分别与纖显示器及雌存储器相连, 雌存储器中存 组 程序代码, 且雌处理器用于调用舰存储器中存储的程序代码, 用于执行以 下操作:
接收所述全景辅助镜头反射或折射的影像;
通过所述摄像头对所述全景辅助镜头反射或折射的影像进行拍摄获得图 所述显示器, 用于显示所述拍摄获得的图像。
28、 根据权利要求 27所述的终端, 其特征在于, 所述全景辅助镜头位 于所述终端的顶部, 并与所述终端的顶部弹性连接, 所述全景辅助镜头在工 作时处于弹起状态, 以用于将所述终端的周围影像反射或折射至所述摄像头 的拍摄区域。
PCT/CN2013/080974 2013-01-07 2013-08-07 一种图像处理方法及装置 WO2014106381A1 (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP13801460.0A EP2779628B1 (en) 2013-01-07 2013-08-07 Image processing method and device
ES13801460.0T ES2688122T3 (es) 2013-01-07 2013-08-07 Método y dispositivo de procesamiento de imagen
EP17200508.4A EP3346329B1 (en) 2013-01-07 2013-08-07 Image processing method and apparatus
US14/140,782 US8922695B2 (en) 2013-01-07 2013-12-26 Image processing method and apparatus
US14/560,558 US9204039B2 (en) 2013-01-07 2014-12-04 Image processing method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310004832.6 2013-01-07
CN201310004832.6A CN103916582B (zh) 2013-01-07 2013-01-07 一种图像处理方法及装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/140,782 Continuation US8922695B2 (en) 2013-01-07 2013-12-26 Image processing method and apparatus

Publications (1)

Publication Number Publication Date
WO2014106381A1 true WO2014106381A1 (zh) 2014-07-10

Family

ID=50877222

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/080974 WO2014106381A1 (zh) 2013-01-07 2013-08-07 一种图像处理方法及装置

Country Status (5)

Country Link
US (2) US8922695B2 (zh)
EP (2) EP2779628B1 (zh)
CN (4) CN107509029A (zh)
ES (1) ES2688122T3 (zh)
WO (1) WO2014106381A1 (zh)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013023063A1 (en) 2011-08-09 2013-02-14 Path 36 Llc Digital media editing
KR102076773B1 (ko) * 2013-01-04 2020-02-12 삼성전자주식회사 영상 데이터 획득 방법 및 그 방법을 처리하는 전자 장치
CN107509029A (zh) * 2013-01-07 2017-12-22 华为技术有限公司 一种图像处理方法及装置
US9760768B2 (en) 2014-03-04 2017-09-12 Gopro, Inc. Generation of video from spherical content using edit maps
US20150288880A1 (en) * 2014-04-07 2015-10-08 Wu-Hsiung Chen Image capturing method and image capturing apparatus
US9685194B2 (en) 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
US9984293B2 (en) 2014-07-23 2018-05-29 Gopro, Inc. Video scene classification by activity
CN105338238B (zh) * 2014-08-08 2019-04-23 联想(北京)有限公司 一种拍照方法及电子设备
JP6101661B2 (ja) * 2014-08-27 2017-03-22 富士フイルム株式会社 画像合成装置および画像合成方法ならびに画像合成プログラムおよび画像合成プログラムを格納した記録媒体
CN104349063B (zh) * 2014-10-27 2018-05-15 东莞宇龙通信科技有限公司 一种控制摄像头拍摄的方法、装置及终端
CN104333701B (zh) * 2014-11-28 2017-04-26 广东欧珀移动通信有限公司 一种相机预览画面的显示方法、装置及终端
US9734870B2 (en) 2015-01-05 2017-08-15 Gopro, Inc. Media identifier generation for camera-captured media
CN104580910B (zh) * 2015-01-09 2018-07-24 宇龙计算机通信科技(深圳)有限公司 基于前、后摄像头的图像合成方法及***
US9729785B2 (en) 2015-01-19 2017-08-08 Microsoft Technology Licensing, Llc Profiles identifying camera capabilities that are usable concurrently
US9679605B2 (en) 2015-01-29 2017-06-13 Gopro, Inc. Variable playback speed template for video editing application
CN104660909A (zh) * 2015-03-11 2015-05-27 酷派软件技术(深圳)有限公司 图像获取方法、图像获取装置和终端
EP3286915B1 (en) 2015-04-23 2021-12-08 Apple Inc. Digital viewfinder user interface for multiple cameras
US10186012B2 (en) 2015-05-20 2019-01-22 Gopro, Inc. Virtual lens simulation for video and photo cropping
CN105812650B (zh) * 2015-06-29 2017-08-15 维沃移动通信有限公司 一种图像获取方法及电子设备
CN104994294B (zh) * 2015-06-30 2018-01-23 广东欧珀移动通信有限公司 一种多广角镜头的拍摄方法及移动终端
CN106973204B (zh) 2015-06-30 2019-09-24 Oppo广东移动通信有限公司 一种摄像装置及具有该摄像装置的终端
CN105657299A (zh) * 2015-07-14 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种基于双摄像头的拍摄数据的处理方法及***
KR102384175B1 (ko) * 2015-07-29 2022-04-08 주식회사 만도모빌리티솔루션즈 차량의 카메라 장치
TWI547177B (zh) * 2015-08-11 2016-08-21 晶睿通訊股份有限公司 視角切換方法及其攝影機
CN106488108A (zh) * 2015-08-31 2017-03-08 中兴通讯股份有限公司 成像的方法及装置
KR20170032761A (ko) * 2015-09-15 2017-03-23 엘지전자 주식회사 이동 단말기
US10204273B2 (en) 2015-10-20 2019-02-12 Gopro, Inc. System and method of providing recommendations of moments of interest within video clips post capture
US9721611B2 (en) 2015-10-20 2017-08-01 Gopro, Inc. System and method of generating video from video clips based on moments of interest within the video clips
CN105391866A (zh) * 2015-11-30 2016-03-09 东莞酷派软件技术有限公司 一种拍照方法、装置及终端
CN109660738B (zh) * 2015-12-22 2021-01-12 北京奇虎科技有限公司 基于双摄像头的曝光控制方法及***
US10109319B2 (en) 2016-01-08 2018-10-23 Gopro, Inc. Digital media editing
US10083537B1 (en) 2016-02-04 2018-09-25 Gopro, Inc. Systems and methods for adding a moving visual element to a video
CN105791688A (zh) * 2016-03-04 2016-07-20 海信电子科技(深圳)有限公司 移动终端及成像方法
US9794632B1 (en) 2016-04-07 2017-10-17 Gopro, Inc. Systems and methods for synchronization based on audio track changes in video editing
US9838731B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing with audio mixing option
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
CN105957045A (zh) * 2016-04-29 2016-09-21 珠海市魅族科技有限公司 一种图像合成的方法及装置
CN106101525A (zh) * 2016-05-31 2016-11-09 北京奇虎科技有限公司 应用程序调用双摄像头进行拍摄的方法及装置
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
CN106101627A (zh) * 2016-06-30 2016-11-09 乐视控股(北京)有限公司 一种虚拟现实***中的视频处理方法和装置
CN106060526A (zh) * 2016-07-04 2016-10-26 天脉聚源(北京)传媒科技有限公司 一种基于双摄像头的直播方法及装置
US10185891B1 (en) 2016-07-08 2019-01-22 Gopro, Inc. Systems and methods for compact convolutional neural networks
KR102542515B1 (ko) * 2016-07-28 2023-06-12 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
KR102525575B1 (ko) * 2016-08-12 2023-04-25 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
KR102567002B1 (ko) 2016-08-16 2023-08-14 삼성전자주식회사 영상 표시 장치 및 그 동작방법
CN106331494A (zh) * 2016-08-31 2017-01-11 郭裴哲 一种手机双摄像头拍照***及方法
CN106254780A (zh) * 2016-08-31 2016-12-21 宇龙计算机通信科技(深圳)有限公司 一种双摄像头拍照控制方法、拍照控制装置及终端
US9836853B1 (en) 2016-09-06 2017-12-05 Gopro, Inc. Three-dimensional convolutional neural networks for video highlight detection
US10284809B1 (en) 2016-11-07 2019-05-07 Gopro, Inc. Systems and methods for intelligently synchronizing events in visual content with musical features in audio content
US10262639B1 (en) 2016-11-08 2019-04-16 Gopro, Inc. Systems and methods for detecting musical features in audio content
CN106534689A (zh) * 2016-11-22 2017-03-22 珠海格力电器股份有限公司 基于多个摄像头合成图像的方法和装置
CN106709882A (zh) * 2016-12-16 2017-05-24 努比亚技术有限公司 一种图像融合的方法及装置
KR102650189B1 (ko) * 2016-12-26 2024-03-22 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
CN106657788A (zh) * 2016-12-28 2017-05-10 深圳众思科技有限公司 电子设备的图像处理方法及电子设备
CN106791674A (zh) * 2016-12-29 2017-05-31 上海喆视智能科技有限公司 Vr拍摄方法、***及移动终端
KR102672599B1 (ko) 2016-12-30 2024-06-07 삼성전자주식회사 Af 방법 및 이를 수행하는 전자 장치
CN106686311A (zh) * 2017-01-16 2017-05-17 宇龙计算机通信科技(深圳)有限公司 终端和使用该终端进行图像拍摄的方法
CN106713716B (zh) * 2017-01-23 2020-03-31 努比亚技术有限公司 一种双摄像头的拍摄控制方法和装置
US10534966B1 (en) 2017-02-02 2020-01-14 Gopro, Inc. Systems and methods for identifying activities and/or events represented in a video
US10127943B1 (en) 2017-03-02 2018-11-13 Gopro, Inc. Systems and methods for modifying videos based on music
KR101810671B1 (ko) * 2017-03-07 2018-01-25 링크플로우 주식회사 전방향 영상의 방향 정보를 생성하는 방법 및 이러한 방법을 수행하는 장치
US10185895B1 (en) 2017-03-23 2019-01-22 Gopro, Inc. Systems and methods for classifying activities captured within images
US10083718B1 (en) 2017-03-24 2018-09-25 Gopro, Inc. Systems and methods for editing videos based on motion
CN106851228B (zh) * 2017-03-30 2023-05-05 百度在线网络技术(北京)有限公司 全景图像采集***、控制方法、设备及存储介质
CN106791455B (zh) * 2017-03-31 2019-11-15 努比亚技术有限公司 全景拍摄方法及装置
CN107273402A (zh) * 2017-04-24 2017-10-20 广东小天才科技有限公司 一种用双摄像头搜索试题的方法及装置
US10187690B1 (en) 2017-04-24 2019-01-22 Gopro, Inc. Systems and methods to detect and correlate user responses to media content
CN106973237B (zh) * 2017-05-25 2019-03-01 维沃移动通信有限公司 一种拍摄方法及移动终端
CN107807772A (zh) * 2017-10-17 2018-03-16 广东欧珀移动通信有限公司 图像数据处理方法、装置及移动终端
KR101967819B1 (ko) * 2017-11-02 2019-04-10 주식회사 코난테크놀로지 타일 영상 기반 다중 재생을 위한 영상 처리장치 및 그 타일 영상 구성방법
CN107820014B (zh) * 2017-11-27 2020-07-21 努比亚技术有限公司 一种拍摄方法、移动终端及计算机存储介质
CN108200332A (zh) * 2017-12-27 2018-06-22 努比亚技术有限公司 一种拼图方法、移动终端及计算机可读存储介质
CN108540641A (zh) * 2018-02-28 2018-09-14 努比亚技术有限公司 复合图像获取方法、柔性屏终端及计算机可读存储介质
CN108495033B (zh) * 2018-03-28 2021-09-07 努比亚技术有限公司 一种拍照调控方法、设备及计算机可读存储介质
CN108419016B (zh) * 2018-04-17 2022-03-11 北京小米移动软件有限公司 拍摄方法、装置及终端
CN108683847B (zh) * 2018-05-14 2022-01-04 Oppo广东移动通信有限公司 拍照方法、装置、终端及存储介质
US11212439B2 (en) * 2018-07-24 2021-12-28 Ricoh Company, Ltd. Communication terminal, display method, and non-transitory computer-readable medium for displaying images and controller
CN108632536B (zh) * 2018-07-31 2020-10-30 Oppo广东移动通信有限公司 一种相机控制方法及装置、终端、存储介质
CN109040596B (zh) * 2018-08-27 2020-08-28 Oppo广东移动通信有限公司 一种调整摄像头的方法、移动终端及存储介质
CN109040597B (zh) * 2018-08-28 2021-02-23 Oppo广东移动通信有限公司 一种基于多摄像头的图像处理方法、移动终端及存储介质
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN110072070B (zh) * 2019-03-18 2021-03-23 华为技术有限公司 一种多路录像方法及设备、介质
CN111860533B (zh) * 2019-04-30 2023-12-12 深圳数字生命研究院 图像的识别方法及装置、存储介质和电子装置
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN110072056B (zh) * 2019-05-10 2022-02-01 北京迈格威科技有限公司 基于多个摄像头模组的数据处理方法及装置
JP2020202503A (ja) * 2019-06-11 2020-12-17 キヤノン株式会社 撮像装置、コンピュータプログラムおよび記憶媒体
CN110798615A (zh) * 2019-10-14 2020-02-14 深圳酷派技术有限公司 一种拍摄方法、装置、存储介质以及终端
CN112800805A (zh) * 2019-10-28 2021-05-14 上海哔哩哔哩科技有限公司 视频剪辑方法、***、计算机设备及计算机存储介质
CN110740261A (zh) * 2019-10-30 2020-01-31 北京字节跳动网络技术有限公司 视频录制方法、装置、终端及存储介质
WO2021083146A1 (zh) * 2019-10-30 2021-05-06 北京字节跳动网络技术有限公司 视频处理方法、装置、终端及存储介质
CN111010512A (zh) * 2019-12-13 2020-04-14 维沃移动通信有限公司 显示控制方法及电子设备
CN113542581A (zh) 2020-04-22 2021-10-22 华为技术有限公司 多路录像的取景方法、图形用户界面及电子设备
CN112333389B (zh) * 2020-10-30 2023-04-07 维沃移动通信(杭州)有限公司 图像显示控制方法、装置及电子设备
CN112383709A (zh) * 2020-11-06 2021-02-19 维沃移动通信(杭州)有限公司 图片显示方法、装置及设备
CN112714255B (zh) * 2020-12-30 2023-02-21 维沃移动通信(杭州)有限公司 拍摄方法、装置、电子设备及可读存储介质
CN112911196A (zh) * 2021-01-15 2021-06-04 随锐科技集团股份有限公司 多镜头采集的视频图像处理方法及***
CN112887609B (zh) * 2021-01-27 2023-04-07 维沃移动通信有限公司 拍摄方法、装置和电子设备、存储介质
JP2022162409A (ja) * 2021-04-12 2022-10-24 キヤノン株式会社 電子機器及びその制御方法
CN113873135A (zh) * 2021-11-03 2021-12-31 乐美科技股份私人有限公司 一种图像获得方法、装置、电子设备及存储介质
CN117714851A (zh) * 2022-05-25 2024-03-15 荣耀终端有限公司 录像方法、装置及存储介质
CN117425057A (zh) 2022-07-07 2024-01-19 抖音视界(北京)有限公司 用于影像拍摄的方法、装置、设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1878241A (zh) * 2005-06-07 2006-12-13 浙江工业大学 具有全景摄像功能的手机
CN101841662A (zh) * 2010-04-16 2010-09-22 华为终端有限公司 移动终端获得相框合成图像的方法及移动终端
US20110058053A1 (en) * 2009-09-08 2011-03-10 Pantech Co., Ltd. Mobile terminal with multiple cameras and method for image processing using the same
CN102055834A (zh) * 2009-10-30 2011-05-11 Tcl集团股份有限公司 一种移动终端的双摄像头拍照方法
CN102185965A (zh) * 2011-03-18 2011-09-14 惠州Tcl移动通信有限公司 一种双摄像头手机及其实现方法
CN102495460A (zh) * 2011-12-13 2012-06-13 复旦大学 一种全景成像镜头
US20120162393A1 (en) * 2010-12-22 2012-06-28 Sony Corporation Imaging apparatus, controlling method thereof, and program

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69937298T2 (de) * 1998-06-22 2008-02-07 Fujifilm Corp. Bilderzeugungsgerät und verfahren
US7064783B2 (en) * 1999-12-31 2006-06-20 Stmicroelectronics, Inc. Still picture format for subsequent picture stitching for forming a panoramic image
US7206029B2 (en) * 2000-12-15 2007-04-17 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on video content analysis
US7495694B2 (en) * 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP4118231B2 (ja) * 2003-12-17 2008-07-16 シャープ株式会社 携帯通信端末
US7051938B2 (en) * 2003-12-29 2006-05-30 Motorola, Inc. System and method for a multi-directional imaging system
FI116749B (fi) * 2004-09-14 2006-02-15 Nokia Corp Kameraelementtejä käsittävä laite
JP2006345039A (ja) * 2005-06-07 2006-12-21 Opt Kk 撮影装置
US7424218B2 (en) * 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
US7460730B2 (en) * 2005-08-04 2008-12-02 Microsoft Corporation Video registration and image sequence stitching
US20100045773A1 (en) * 2007-11-06 2010-02-25 Ritchey Kurtis J Panoramic adapter system and method with spherical field-of-view coverage
CN101004538B (zh) * 2007-01-18 2010-11-10 汤一平 无死角的全方位视觉传感器
US7834894B2 (en) * 2007-04-03 2010-11-16 Lifetouch Inc. Method and apparatus for background replacement in still photographs
CN100531373C (zh) * 2007-06-05 2009-08-19 西安理工大学 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
CN101378559A (zh) * 2007-08-30 2009-03-04 联想移动通信科技有限公司 采用摄像头组合全景拍的手机
KR101404527B1 (ko) * 2007-12-26 2014-06-09 다이니폰 인사츠 가부시키가이샤 화상 변환 장치 및 화상 변환 방법
JP5114235B2 (ja) * 2008-02-07 2013-01-09 富士フイルム株式会社 画像表示装置,画像表示方法及び撮像装置
CN101510138B (zh) * 2008-02-16 2012-07-11 旭丽电子(广州)有限公司 显示装置及应用其处理或操作影像对象的方法
EP2316054A1 (en) * 2008-08-14 2011-05-04 Remotereality Corporation Three-mirror panoramic camera
CN101547333A (zh) * 2009-04-20 2009-09-30 中兴通讯股份有限公司 在可视通话过程中用户前后场景切换的方法及终端
JP5235798B2 (ja) * 2009-06-22 2013-07-10 富士フイルム株式会社 撮影装置及びその制御方法
GB201002248D0 (en) * 2010-02-10 2010-03-31 Lawton Thomas A An attachment for a personal communication device
JP5544993B2 (ja) * 2010-04-06 2014-07-09 富士通株式会社 ライブラリ装置およびインベントリ制御方法
CN101872113B (zh) * 2010-06-07 2014-03-19 中兴通讯股份有限公司 一种全景照片的拍摄方法及设备
DE102010026572B4 (de) * 2010-07-08 2013-10-31 Michael Kanna Verfahren zur Aufnahme und Wiedergabe von Panoramadarstellungen
TW201215126A (en) * 2010-09-27 2012-04-01 Hon Hai Prec Ind Co Ltd Image dividing system for cameras and using method of the same
KR101680684B1 (ko) * 2010-10-19 2016-11-29 삼성전자주식회사 영상 처리 방법 및 이를 적용한 영상 촬영 장치
US9204026B2 (en) 2010-11-01 2015-12-01 Lg Electronics Inc. Mobile terminal and method of controlling an image photographing therein
JP5778931B2 (ja) * 2011-01-25 2015-09-16 キヤノン株式会社 撮像装置及びその制御方法
US8520080B2 (en) * 2011-01-31 2013-08-27 Hand Held Products, Inc. Apparatus, system, and method of use of imaging assembly on mobile terminal
US8988558B2 (en) * 2011-04-26 2015-03-24 Omnivision Technologies, Inc. Image overlay in a mobile device
US8830356B2 (en) * 2012-05-22 2014-09-09 Blackberry Limited Method and device for composite image creation
US9094540B2 (en) * 2012-12-13 2015-07-28 Microsoft Technology Licensing, Llc Displacing image on imager in multi-lens cameras
CN107509029A (zh) * 2013-01-07 2017-12-22 华为技术有限公司 一种图像处理方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1878241A (zh) * 2005-06-07 2006-12-13 浙江工业大学 具有全景摄像功能的手机
US20110058053A1 (en) * 2009-09-08 2011-03-10 Pantech Co., Ltd. Mobile terminal with multiple cameras and method for image processing using the same
CN102055834A (zh) * 2009-10-30 2011-05-11 Tcl集团股份有限公司 一种移动终端的双摄像头拍照方法
CN101841662A (zh) * 2010-04-16 2010-09-22 华为终端有限公司 移动终端获得相框合成图像的方法及移动终端
US20120162393A1 (en) * 2010-12-22 2012-06-28 Sony Corporation Imaging apparatus, controlling method thereof, and program
CN102185965A (zh) * 2011-03-18 2011-09-14 惠州Tcl移动通信有限公司 一种双摄像头手机及其实现方法
CN102495460A (zh) * 2011-12-13 2012-06-13 复旦大学 一种全景成像镜头

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2779628A4 *

Also Published As

Publication number Publication date
CN103916582A (zh) 2014-07-09
EP3346329B1 (en) 2023-12-20
US9204039B2 (en) 2015-12-01
EP2779628B1 (en) 2018-07-18
US20140192212A1 (en) 2014-07-10
CN107580178B (zh) 2022-04-05
EP2779628A4 (en) 2016-05-11
CN107509029A (zh) 2017-12-22
CN103916582B (zh) 2017-09-29
CN107580178A (zh) 2018-01-12
ES2688122T3 (es) 2018-10-31
CN107395975A (zh) 2017-11-24
EP3346329A1 (en) 2018-07-11
US8922695B2 (en) 2014-12-30
US20150085167A1 (en) 2015-03-26
EP2779628A1 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
WO2014106381A1 (zh) 一种图像处理方法及装置
WO2021175269A1 (zh) 一种图像处理的方法及移动终端
CN109120840A (zh) 用于数字拍摄设备中两个相机的图像之间的差异补偿的应用处理器
CN109218606B (zh) 摄像控制设备、其控制方法及计算机可读介质
WO2014071840A1 (zh) 一种拍摄照片和视频的方法及装置
WO2013155804A1 (zh) 一种照片拍摄方法及电子设备
CN113840070B (zh) 拍摄方法、装置、电子设备及介质
JP2009086703A (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
WO2020047745A1 (zh) 拍摄控制方法、装置、设备及存储介质
CN112887617B (zh) 一种拍摄方法、装置和电子设备
CN106791390B (zh) 广角自拍实时预览方法及用户终端
CN113329172B (zh) 拍摄方法、装置及电子设备
WO2019006762A1 (zh) 一种图像捕捉装置及方法
WO2021185374A1 (zh) 一种拍摄图像的方法及电子设备
KR20090083108A (ko) 특정 영역이 확대된 영상을 촬영된 영상에 부가하는촬영방법 및 이를 적용한 촬영장치
KR20150080343A (ko) 렌즈 특성 기반의 촬영 모드 제시 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 디지털 촬영 장치.
JP7128347B2 (ja) 画像処理装置、画像処理方法及びプログラム、撮影装置
CN116582748A (zh) 电子设备、处理图像数据的方法和装置
TWI704408B (zh) 全景照相裝置及其影像映射結合方法
JP2013081136A (ja) 画像処理装置および制御プログラム
WO2019061051A1 (zh) 一种拍照方法和拍照装置
CN110875998A (zh) 全景照相装置及其影像映射结合方法
RU2792413C1 (ru) Способ обработки изображений и мобильный терминал
JP6631607B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN116489504A (zh) 一种摄像头模组的控制方法、摄像头模组及电子设备

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2013801460

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13801460

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE