KR20140106221A - Photographing method and apparatus using multiple image sensors - Google Patents
Photographing method and apparatus using multiple image sensors Download PDFInfo
- Publication number
- KR20140106221A KR20140106221A KR1020130020492A KR20130020492A KR20140106221A KR 20140106221 A KR20140106221 A KR 20140106221A KR 1020130020492 A KR1020130020492 A KR 1020130020492A KR 20130020492 A KR20130020492 A KR 20130020492A KR 20140106221 A KR20140106221 A KR 20140106221A
- Authority
- KR
- South Korea
- Prior art keywords
- raw data
- image
- data
- function
- raw
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 76
- 238000012545 processing Methods 0.000 claims description 52
- 230000015654 memory Effects 0.000 claims description 38
- 238000012937 correction Methods 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 abstract description 7
- 238000003672 processing method Methods 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 7
- 239000002131 composite material Substances 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/45—Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명의 다양한 실시 예들은 이미지 촬영 방법 및 전자장치에 관한 것으로, 특히 전자장치(예컨대 스마트폰 또는 태블릿 컴퓨터 등)와 기능적으로 연결된 적어도 하나 이상의 이미지 센서를 이용한 이미지 촬영방법 및 장치에 관한 것이다.
Various embodiments of the present invention are directed to an image capturing method and an electronic device, and more particularly, to a method and apparatus for capturing an image using at least one or more image sensors functionally connected to an electronic device (e.g., a smart phone or a tablet computer).
휴대용 전자장치(예컨대, 휴대폰 또는 태블릿 컴퓨터 등의 단말기)는 디지털 카메라 기능을 제공하여 메가 픽셀 이상의 영상을 촬영할 수도 있으며, 고해상도의 화면을 통해 촬영한 영상을 디스플레이할 수도 있고, 상기 디지털 카메라 기능을 위한 다수개의 이미지 센서들을 구비하여 입체 영상을 제공하거나 파노라마 기능을 제공하기도 한다.A portable electronic device (e.g., a terminal such as a mobile phone or a tablet computer) may provide a digital camera function to capture a megapixel image or more, display an image taken through a high-resolution screen, A plurality of image sensors may be provided to provide a stereoscopic image or provide a panoramic function.
한편, 휴대용 단말기는 전면부 및 후면부에 카메라를 배치하고 있으며, 셀카목적으로 전면부에 배치된 카메라를 이용하여 사용자(사용자의 얼굴)를 촬영하고 후면부에 배치된 카메라를 이용하여 배경을 촬영할 수 있다. 더하여, 이러한 휴대용 단말기는 카메라 스위칭 메뉴를 통해서 저장하고자 하는 영상 데이터를 선택할 수 있다. 즉, 휴대용 단말기는 전면부 또는 후면부에 배치된 카메라 가운데 하나의 카메라를 통해 획득되는 영상 데이터 또는 이미지 데이터를 저장할 수 있다.Meanwhile, a camera is disposed on the front and back sides of the portable terminal, and a user (a user's face) is photographed using a camera disposed on the front face for the purpose of self-care and a background can be photographed using a camera disposed on the rear face . In addition, the portable terminal can select image data to be stored through a camera switching menu. That is, the portable terminal may store image data or image data obtained through one of the cameras disposed on the front or back side.
종래에, 촬영방법은 각각의 이미지센서를 통해 획득된 이미지 데이터를 ISP(Image Signal Processor)에서 YUV형식으로 변환하고 변환된 이미지데이터를 디스플레이하고 촬영제어 명령에 따라 획득된 이미지데이터를 ISP에서 (Joint Photography Experts Group) 압축형식으로 메모리에 저장할 수 있다.Conventionally, the imaging method converts image data acquired through each image sensor from an ISP (Image Signal Processor) to a YUV format, displays the converted image data, and transmits image data acquired in accordance with the imaging control command to the ISP Photography Experts Group) compression format.
일반적으로 복수의 카메라로 촬영을 하는 방법은 복수의 카메라를 동시에 켜놓고 촬영명령에 따라 PIP(Picture In Picture) 기능을 이용하여 제1 영상이미지 내에 제2 영상이미지를 동시에 디스플레이할 수 있다.Generally, in a method of photographing with a plurality of cameras, a plurality of cameras are simultaneously turned on and a second image can be simultaneously displayed in the first image by using a PIP (Picture In Picture) function according to a photographing command.
종래의 PIP 기술은 JPEG로 압축된 두 개의 이미지를 합성하기 때문에 합성한 이후 이미지 재처리가 어려우며, 동시에 두 개의 카메라를 이용하여 촬영할 경우 하나의 이미지 처리 흐름에 두 개의 이미지가 포함되기 때문에 ISP에 부담이 커진다.Since the conventional PIP technology synthesizes two JPEG compressed images, it is difficult to reprocess the image after synthesis. When two cameras are used simultaneously, two images are included in one image processing flow. Lt; / RTI >
상술한 바와 같이, 종래의 기술은 각각의 이미지처리(Image Processing)를 하나의 ISP에서 수행할 경우 이미지 처리시간이 오래 걸릴 수 있다.
As described above, the conventional technique may take a long time for image processing when each image processing is performed by one ISP.
본 발명의 한 실시 예들은 다수 이미지 센서를 이용한 촬영방법 및 장치를 제공한다.One embodiment of the present invention provides a method and apparatus for imaging using multiple image sensors.
본 발명의 다양한 실시 예들은 복수의 카메라가 장착된 전자장치에서 카메라의 이미지 센서로부터 획득되는 복수의 이미지를 촬영할 경우, 가공되지 않은 원시(raw) 이미지 데이터를 합성하여 추후 이미지 재처리를 용이하게 하는 촬영방법 및 장치를 제공한다.Various embodiments of the present invention provide a method and system for compositing raw raw image data to facilitate subsequent image reprocessing when photographing multiple images obtained from an image sensor of a camera in an electronic device equipped with a plurality of cameras. A photographing method and an apparatus are provided.
본 발명의 다양한 실시 예들은 복수의 카메라가 장착된 전자장치에서 카메라의 이미지 센서로부터 획득되는 복수의 이미지를 촬영할 경우, 이미지 처리시간을 줄이기 위한 방법 및 장치를 제공한다.
Various embodiments of the present invention provide a method and apparatus for reducing image processing time when photographing a plurality of images obtained from an image sensor of a camera in an electronic device equipped with a plurality of cameras.
상기한 다양한 실시 예들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 복수의 이미지 센서를 포함한 전자장치에서 이미지 촬영방법에 있어서, 제1 및 제2 이미지 센서로부터 각각 제1 및 제2 원시데이터를 획득하는 과정과, 상기 제1 및 상기 제2 원시데이터를 합성하여, 제3 원시데이터를 생성하는 과정과, 상기 제3 원시데이터를 이미지 처리하여 해당 포맷의 영상이미지 파일로 변환하는 과정과, 상기 해당 포맷의 영상이미지를 디스플레이하는 과정을 포함한다.According to a first aspect of the present invention for achieving the above-described various embodiments, there is provided an image capturing method in an electronic device including a plurality of image sensors, comprising the steps of: receiving first and second raw data from first and second image sensors, Generating third raw data by combining the first and second raw data, image processing the third raw data, and converting the third raw data into a video image file of a corresponding format, And displaying a video image in the format.
한 실시 예에서, 상기 제1 및 상기 제2 원시데이터를 합성하여, 제3 원시데이터를 생성하는 과정은, PIP(Picture in Picture) 영역을 확인하는 과정과, 상기 PIP 영역에 대응하는 상기 제1 원시데이터의 적어도 일부를 결정하는 과정과, 상기 PIP 영역에 표시될 상기 제2 원시데이터의 적어도 일부를 결정하는 과정과, 상기 제2 원시데이터의 적어도 일부를 상기 제1 원시데이터의 일부로 대체하는 과정을 포함한다.In one embodiment, the step of generating the third raw data by combining the first and second raw data comprises the steps of: checking a PIP (Picture in Picture) region; Determining at least a portion of the original data; determining at least a portion of the second raw data to be displayed in the PIP region; replacing at least a portion of the second raw data with a portion of the first raw data; .
한 실시 예에서, 상기 이미지 처리는, 보간(INTERPOLATION) 기능, 색조정(Color Correction) 기능, 감마보정(Gamma Correction) 기능, 색상 공간적 변환(Color Space Conversion) 기능,에지강조(Edge Enhancements) 기능, 자동 화이트밸런스(Auto White Balance) 기능, 또는 자동노출(Auto Exposure) 기능 중 적어도 하나 이상의 기능을 수행한다.In one embodiment, the image processing may include an INTERPOLATION function, a Color Correction function, a Gamma Correction function, a Color Space Conversion function, an Edge Enhancement function, An Auto White Balance function, or an Auto Exposure function.
한 실시 예에서, 상기 원시데이터는 상기 이미지 센서로부터의 가공되지 않은 데이터로써, 이미지 처리할 수 있다.In one embodiment, the raw data may be image processed with raw data from the image sensor.
한 실시 예에서, 상기 제1 및 제2 이미지 센서로부터 각각 제1 및 제2 원시데이터를 획득하는 과정은, 외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생하는 과정과, 상기 발생된 전기적 신호는 디지털신호로 변환하는 과정을 포함하되, 상기 디지털신호는 단위 화소별로 입력된 빛의 양에 상응하는 원시 데이터에 해당한다.In one embodiment, the step of acquiring the first and second raw data from the first and second image sensors may include the steps of generating an electrical signal corresponding to an optical signal incident from an external subject, And converting the signal into a digital signal, wherein the digital signal corresponds to raw data corresponding to the amount of light input for each unit pixel.
한 실시 예에서, 상기 제1 이미지 센서는 상기 전자장치의 제1 면에 위치하고, 상기 제2 이미지 센서는 상기 전자장치의 제2 면에 위치한다.In one embodiment, the first image sensor is located on a first side of the electronic device, and the second image sensor is located on a second side of the electronic device.
상기한 다양한 실시 예들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 다수 이미지 센서를 이용한 촬영방법에 있어서, 적어도 둘 이상의 이미지 센서로부터 각각 원시데이터를 획득하는 과정과, 상기 적어도 둘 이상의 원시데이터를 합성하여, 제3 원시데이터를 생성하는 과정과, 상기 제3 원시데이터를 이미지 처리하여 해당 포맷의 영상이미지 파일로 변환하는 과정과, 상기 해당 포맷의 영상이미지를 디스플레이하는 과정을 포함한다.According to a first aspect of the present invention, there is provided a method of photographing using a plurality of image sensors, comprising the steps of: acquiring raw data from at least two image sensors, Generating third raw data by performing image processing on the third raw data and converting the third raw data into a video image file of a corresponding format; and displaying the video image of the corresponding format.
한 실시 예에서, 상기 적어도 둘 이상의 원시데이터를 합성하여, 제3 원시데이터를 생성하는 과정은, PIP(Picture in Picture) 영역을 확인하는 과정과, 상기 PIP 영역에 대응하는 상기 적어도 둘 이상의 원시데이터 중 제1 원시데이터의 적어도 일부들을 결정하는 과정과, 상기 PIP 영역에 표시될 상기 제1 원시데이터를 제외한 나머지 원시데이터들 각각의 적어도 일부를 결정하는 과정과, 상기 제1 원시데이터의 적어도 일부들에 대응하는 제1 데이터들과 상기 나머지 원시데이터들 각각의 적어도 일부에 대응하는 제2 데이터들을 대체하는 과정을 포함한다.In one embodiment, the step of synthesizing the at least two primitive data and generating the third primitive data includes the steps of: identifying a PIP (Picture in Picture) region; Determining at least a portion of each of the primitive data except for the first primitive data to be displayed in the PIP region; determining at least a portion of the first primitive data, And replacing the second data corresponding to at least a part of each of the remaining raw data.
한 실시 예에서, 상기 이미지 처리는, 보간(INTERPOLATION) 기능, 색조정(Color Correction) 기능, 감마보정(Gamma Correction) 기능, 색상 공간적 변환(Color Space Conversion) 기능,에지강조(Edge Enhancements) 기능, 자동 화이트밸런스(Auto White Balance) 기능, 또는 자동노출(Auto Exposure) 기능 중 적어도 하나 이상의 기능을 수행한다.In one embodiment, the image processing may include an INTERPOLATION function, a Color Correction function, a Gamma Correction function, a Color Space Conversion function, an Edge Enhancement function, An Auto White Balance function, or an Auto Exposure function.
한 실시 예에서, 상기 원시데이터는 상기 이미지 센서로부터의 가공되지 않은 데이터로써, 이미지 처리할 수 있다.In one embodiment, the raw data may be image processed with raw data from the image sensor.
한 실시 예에서, 적어도 둘 이상의 이미지 센서로부터 각각 원시데이터를 획득하는 과정은, 외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생하는 과정과, 상기 발생된 전기적 신호는 디지털신호로 변환하는 과정을 포함하되, 상기 디지털신호는 단위 화소별로 입력된 빛의 양에 상응하는 원시 데이터에 해당한다.In one embodiment, the step of acquiring the raw data from at least two image sensors includes the steps of generating an electrical signal corresponding to an optical signal incident from an external subject, and converting the generated electrical signal into a digital signal The digital signal corresponds to the raw data corresponding to the amount of light input per unit pixel.
상기한 다양한 실시 예들을 달성하기 위한 본 발명의 제3 견지에 따르면, 전자 장치에 있어서, 적어도 하나의 메모리; 및 이미지 처리 모듈을 실행시키기 위한 적어도 하나의 프로세서를 포함하되, 상기 이미지 처리 모듈은, 제1 및 제2 이미지 센서로부터 각각 제1 및 제2 원시데이터를 획득하고, 상기 제1 및 상기 제2 원시데이터를 합성하여, 제3 원시데이터를 생성하고, 상기 제3 원시데이터를 이미지 처리하여 해당 포맷의 영상이미지 파일로 변환하고, 상기 해당 포맷의 영상이미지를 디스플레이하도록 설정된다.According to a third aspect of the present invention, there is provided an electronic device comprising: at least one memory; And at least one processor for executing an image processing module, wherein the image processing module obtains first and second raw data, respectively, from the first and second image sensors, and wherein the first and second raw Generates third raw data, converts the third raw data into an image image file of a corresponding format, and displays the image of the corresponding format.
한 실시 예에서, 상기 이미지 처리 모듈은, PIP(Picture in Picture) 영역을 확인하고, 상기 PIP 영역에 대응하는 상기 제1 원시데이터의 적어도 일부를 결정하고, 상기 PIP 영역에 표시될 상기 제2 원시데이터의 적어도 일부를 결정하고, 상기 제2 원시데이터의 적어도 일부를 상기 제1 원시데이터의 일부로 대체하도록 설정된다.In one embodiment, the image processing module is configured to identify a Picture in Picture (PIP) area, determine at least a portion of the first raw data corresponding to the PIP area, And to replace at least a portion of the second source data with a portion of the first source data.
한 실시 예에서, 상기 이미지 처리는, 보간(INTERPOLATION) 기능, 색조정(Color Correction) 기능, 감마보정(Gamma Correction) 기능, 색상 공간적 변환(Color Space Conversion) 기능,에지강조(Edge Enhancements) 기능, 자동 화이트밸런스(Auto White Balance) 기능, 또는 자동노출(Auto Exposure) 기능 중 적어도 하나 이상의 기능을 수행한다.In one embodiment, the image processing may include an INTERPOLATION function, a Color Correction function, a Gamma Correction function, a Color Space Conversion function, an Edge Enhancement function, An Auto White Balance function, or an Auto Exposure function.
한 실시 예에서, 상기 원시데이터는 상기 이미지 센서로부터의 가공되지 않은 데이터로써, 이미지 처리할 수 있다.In one embodiment, the raw data may be image processed with raw data from the image sensor.
한 실시 예에서, 상기 이미지 처리 모듈은, 외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생하고, 상기 발생된 전기적 신호는 디지털신호로 변환하도록 설정되며, 상기 디지털신호는 단위 화소별로 입력된 빛의 양에 상응하는 원시 데이터에 해당한다.In one embodiment, the image processing module is configured to generate an electrical signal corresponding to an optical signal incident from an external subject, and convert the generated electrical signal into a digital signal, Corresponds to the raw data corresponding to the amount of light.
한 실시 예에서, 상기 제1 이미지 센서는 상기 전자장치의 제1 면에 위치하고, 상기 제2 이미지 센서는 상기 전자장치의 제2 면에 위치한다.In one embodiment, the first image sensor is located on a first side of the electronic device, and the second image sensor is located on a second side of the electronic device.
상기한 다양한 실시 예들을 달성하기 위한 본 발명의 제4 견지에 따르면, 전자 장치에 있어서, 적어도 하나의 메모리; 및 이미지 처리 모듈을 실행시키기 위한 적어도 하나의 프로세서를 포함하되, 상기 이미지 처리 모듈은 적어도 둘 이상의 이미지 센서로부터 각각 원시데이터를 획득하고, 상기 적어도 둘 이상의 원시데이터를 합성하여, 제3 원시데이터를 생성하고, 상기 제3 원시데이터를 이미지 처리하여 해당 포맷의 영상이미지 파일로 변환하고, 상기 해당 포맷의 영상이미지를 디스플레이하도록 설정된다.According to a fourth aspect of the present invention, there is provided an electronic device comprising: at least one memory; And at least one processor for executing an image processing module, wherein the image processing module obtains raw data from each of at least two image sensors, composites the at least two raw data, and generates third raw data Converts the third raw data into a video image file of a corresponding format, and displays the video image of the corresponding format.
한 실시 예에서, 상기 이미지 처리 모듈은, PIP(Picture in Picture) 영역을 확인하고, 상기 PIP 영역에 대응하는 상기 적어도 둘 이상의 원시데이터 중 제1 원시데이터의 적어도 일부들을 결정하고, 상기 PIP 영역에 표시될 상기 제1 원시데이터를 제외한 나머지 원시데이터들 각각의 적어도 일부를 결정하고,상기 제1 원시데이터의 적어도 일부들에 대응하는 제1 데이터들과 상기 나머지 원시데이터들 각각의 적어도 일부에 대응하는 제2 데이터들을 대체하도록 설정된 전자장치.In one embodiment, the image processing module identifies a PIP (Picture in Picture) area, determines at least some of the first of the at least two primitive data corresponding to the PIP area, Determining at least a portion of each of the remaining raw data except for the first raw data to be displayed and determining at least some of the first data corresponding to at least a portion of each of the remaining raw data and the first data corresponding to at least portions of the first source data And to replace the second data.
한 실시 예에서, 상기 이미지 처리는, 보간(INTERPOLATION) 기능, 색조정(Color Correction) 기능, 감마보정(Gamma Correction) 기능, 색상 공간적 변환(Color Space Conversion) 기능,에지강조(Edge Enhancements) 기능, 자동 화이트밸런스(Auto White Balance) 기능, 또는 자동노출(Auto Exposure) 기능 중 적어도 하나 이상의 기능을 수행한다.In one embodiment, the image processing may include an INTERPOLATION function, a Color Correction function, a Gamma Correction function, a Color Space Conversion function, an Edge Enhancement function, An Auto White Balance function, or an Auto Exposure function.
한 실시 예에서, 상기 원시데이터는 상기 이미지 센서로부터의 가공되지 않은 데이터로써, 이미지 처리할 수 있다.In one embodiment, the raw data may be image processed with raw data from the image sensor.
한 실시 예에서, 상기 이미지 처리 모듈은, 외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생하고, 상기 발생된 전기적 신호는 디지털신호로 변환하도록 설정되며, 상기 디지털신호는 단위 화소별로 입력된 빛의 양에 상응하는 원시 데이터에 해당한다.
In one embodiment, the image processing module is configured to generate an electrical signal corresponding to an optical signal incident from an external subject, and convert the generated electrical signal into a digital signal, Corresponds to the raw data corresponding to the amount of light.
상술한 바와 같이, 이미지 처리 이전에 원시 이미지 데이터를 합성함으로써 추후 이미지 화질 성능, 처리 시간 측면에서 이점을 가질 수 있다.
As described above, by combining raw image data before image processing, it can have an advantage in terms of image quality performance and processing time in the future.
도 1은 본 발명의 실시 예에 따른 다수 이미지 센서를 이용한 촬영방법을 위한 흐름도;
도 2는 본 발명의 실시 예에 따른 원시 이미지 데이터를 합성하기 위한 흐름도;
도 3은 본 발명의 제1 실시 예에 따른 두 개의 원시 이미지 데이터를 합성하는 예를 도시한 도면;
도 4는 본 발명의 제2 실시 예에 따른 두 개의 원시 이미지 데이터를 합성하는 예를 도시한 도면;
도 5는 본 발명의 실시 예에 따른 다수 이미지 센서를 이용한 촬영장치의 구성도;
도 6은 본 발명의 실시 예에 따른 이미지 신호 처리 장치의 구성도; 및
도 7은 본 발명의 실시 예에 따른 전자장치의 구성도.FIG. 1 is a flow chart for a photographing method using multiple image sensors according to an embodiment of the present invention; FIG.
2 is a flow chart for compositing raw image data according to an embodiment of the present invention;
3 is a diagram illustrating an example of compositing two original image data according to the first embodiment of the present invention;
FIG. 4 illustrates an example of combining two pieces of raw image data according to a second embodiment of the present invention; FIG.
5 is a configuration diagram of a photographing apparatus using a plurality of image sensors according to an embodiment of the present invention;
6 is a configuration diagram of an image signal processing apparatus according to an embodiment of the present invention; And
7 is a configuration diagram of an electronic device according to an embodiment of the present invention;
이하 본 발명의 바람직한 실시 예를 첨부된 도면의 참조와 함께 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intentions or customs of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.
이하, 본 발명의 한 실시 예는 다수 이미지 센서를 이용한 촬영방법 및 장치에 관해 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described with respect to a photographing method and apparatus using a plurality of image sensors.
특히, 한 실시 예들은, 다수의 원시(raw) 이미지 데이터를 합성하여 이미지처리를 하고, 다수 이미지를 동시에 디스플레이할 수 있다.In particular, one embodiment may combine multiple raw image data to perform image processing and display multiple images simultaneously.
상기 원시 이미지 데이터는 이미지 파일 포맷 중 하나로 디지털 카메라나 이미지 스캐너의 이미지 센서로부터의 가공되지 않은 데이터를 의미하며, 다시 말해, 이미지 처리를 위한 화이트밸런스, 파라미터, 색공간 등이 정해져 있지 않고 촬영매체에 감지된 빛의 세기에 대한 정보만을 포함하는 데이터를 의미할 수 있다.The raw image data is unprocessed data from an image sensor of a digital camera or an image scanner in one of image file formats. In other words, white balance, parameters, color space, etc. for image processing are not fixed, And may include data including only information on the intensity of the sensed light.
원시 이미지 데이터의 장점은 디지털카메라에서 이미지 센서로부터 이미지를 해당 포맷의 파일(예: JEPG(Joint Photography Experts Group) 포맷)로 변환할 때, 이미지 촬영 전 기설정된 화이트밸런스, 파라미터, 색공간 등의 설정 값을 적용하여 이미지 처리를 수행할 수 있다. 원시 이미지 데이터를 지원하는 카메라들은 파일에 이러한 설정 값들을 저장해 두고 있지만 이미지 처리 시간을 지연시킨다. 원시 이미지 데이터는 별도의 이미지 처리가 수행될 경우에만 이용되는 것이 보통이지만, 원시 이미지 데이터는 JPEG 포맷 데이터보다 많은 이점이 있다.The advantage of the raw image data is that when the digital camera converts an image from the image sensor to a file of the corresponding format (eg Joint Photographic Experts Group (JEPG) format), the settings of preset white balance, parameters, Value can be applied to perform image processing. Cameras that support raw image data store these settings in the file, but delay image processing time. Although raw image data is typically only used when separate image processing is performed, raw image data has many advantages over JPEG format data.
즉, 원시 이미지 데이터는 JPEG 포맷 데이터보다 화질이 더 높고, 그리고 JPEG 포맷 데이터는 손실 압축 포맷이며 반면 원시 이미지 데이터 포맷은 압축되지 않거나 무손실 압축을 사용할 수 있다. 더하여, 원시 이미지 데이터는 원시 데이터 변환 소프트웨어를 사용하여 더 많은 변수(밝기, 화이트 밸런스, 색조, 채도 등)를 이용함으로써, 더 섬세하게 제어될 수 있다.That is, raw image data has higher image quality than JPEG format data, and JPEG format data is lossy compression format, while raw image data format can use uncompressed or lossless compression. In addition, raw image data can be more finely controlled by using more variables (brightness, white balance, hue, saturation, etc.) using raw data conversion software.
더하여, 카메라의 원시 이미지 데이터는 12비트 또는 14비트의 명암 정보를 가지고 있으며, 가공된 TIFF 데이터나 JPEG 데이터에 저장되어 있는 감마 압축 8비트를 사용하지 않는다. 그러므로, 원시 이미지 데이터는 그림자, 밝은 부분, 채도가 깊은 색에 더 정확성을 제공하고, 또한 색공간을 사용자가 원하는 대로 설정할 수 있다. 상기 색공간은 색의 속성을 나타내기 위해 사용되는 입체적 공간을 의미할 수 있다.
In addition, the raw image data of the camera has 12-bit or 14-bit contrast information and does not use 8-bit gamma compression stored in the processed TIFF data or JPEG data. Thus, raw image data provides more accuracy for shadows, shadows, deep color saturation, and also allows the user to customize the color space. The color space may refer to a three-dimensional space used to represent the attribute of the color.
이하, 한 실시 예들에서, 두 개의 카메라를 이용하여 영상 이미지를 촬영하는 실시 예를 들어 설명하지만, 한 실시 예들은 두 개의 카메라의 영상이미지 촬영에 제한되지 않으며, 둘 이상의 카메라의 영상이미지 촬영에 적용될 수 있음은 자명하다.Hereinafter, in one embodiment, although an embodiment of photographing an image by using two cameras is described, one embodiment is not limited to photographing two images of the camera, and may be applied to photographing two or more cameras It is self-evident.
도 1은 본 발명의 실시 예에 따른 다수 이미지 센서를 이용한 촬영방법을 위한 흐름도를 도시하고 있다.FIG. 1 is a flowchart illustrating a photographing method using a plurality of image sensors according to an embodiment of the present invention.
상기 도 1을 참조하면, 전자장치는 100단계에서 듀얼 카메라 촬영 모드를 선택할 수 있다. 상기 듀얼 카메라 촬영 모드는 적어도 둘 이상의 카메라를 통해 영상을 출력하는 모드를 의미할 수 있다. 상기 듀얼 카메라 촬영 모드에서, 각각의 카메라를 통해 출력되는 영상 이미지를 스위칭하여 출력할 수 있거나 또는 다수의 영상이미지를 합성하여 동시에 출력할 수도 있다.Referring to FIG. 1, in
이후, 상기 전자장치는 102단계에서 제1 및 제2 카메라의 이미지센서로부터 각각 제1 및 제2 원시 이미지 데이터를 획득할 수 있다. 여기서, 제1 및 제2 카메라는 전자장치의 전면부 및 후면부에 배치될 수 있으며, 셀카목적으로 전면부에 배치된 카메라를 이용하여 사용자(사용자의 얼굴)를 촬영하고 후면부에 배치된 카메라를 이용하여 배경화면을 촬영할 수 있다. 하지만, 제1 및 제2 카메라의 위치는 전자장치의 전면부 및 후면부에 제한되지 않으며, 다양하게 배치될 수 있다. 예를 들어, 제1 및 제2 카메라는 전자장치와 별도로 존재할 수 있으며 이때 전자장치와 카메라는 NFC(Near Field Communication) 통신 또는 WiFi 다이렉트(direct) 통신을 통해 연결될 수 있다. The electronic device may then obtain first and second raw image data from the image sensors of the first and second cameras, respectively, Here, the first and second cameras may be disposed on the front and back sides of the electronic device, and the user (the user's face) may be photographed using a camera disposed on the front face for the purpose of self-care, and a camera So that the background screen can be photographed. However, the positions of the first and second cameras are not limited to the front and rear portions of the electronic device, and can be variously arranged. For example, the first and second cameras may be separate from the electronic device, and the electronic device and the camera may be connected through Near Field Communication (NFC) communication or WiFi direct communication.
이후, 상기 전자장치는 104단계에서 제1 및 제2 원시 이미지 데이터를 합성하여 또는 겹쳐서, 제3 원시 이미지 데이터를 생성할 수 있다. 제1 및 제2 원시 이미지 데이터를 합성하는 상세한 설명은 하기 도 3에서 설명하기로 한다.Thereafter, the electronic device may synthesize or overlay the first and second raw image data in
이후, 상기 전자장치는 106단계에서 ISP(Image Signal Processor)를 통해 제3 원시 이미지 데이터를 JPEG 같은 해당 포맷의 영상이미지로 변환한다.In
이후, 상기 전자장치는 108단계에서 영상이미지를 디스플레이한다.
Then, the electronic device displays a video image in
도 2는 본 발명의 실시 예에 따른 원시 이미지 데이터를 합성하기 위한 흐름도를 도시하고 있다.2 is a flow chart for compositing raw image data according to an embodiment of the present invention.
상기 도 2를 참조하면, 상기 전자장치는 200단계에서 PIP(Picture in Picture) 영역을 설정할 수 있다. 상기 PIP 영역은 제1 원시 이미지 데이터에 대응하는 제1 영상이미지의 적어도 일부 영역에 제2 원시 이미지 데이터 전체 또는 일부에 대응하는 제2 영상이미지 전체 또는 일부를 디스플레이하기 위한 영역일 수 있다. 또 다른 실시 예에서, 상기 PIP 영역은 제2 원시 이미지 데이터에 대응하는 제2 영상이미지의 적어도 일부 영역에 제1 원시 이미지 데이터 전체 또는 일부에 대응하는 제1 영상이미지 전체 또는 일부를 디스플레이하기 위한 영역일 수 있다.Referring to FIG. 2, the electronic device may set a PIP (Picture in Picture) area in
이후, 상기 전자장치는 202단계에서 PIP 영역에 대응하는 제1 메모리 영역에 있는 제1 원시 이미지 데이터의 일부를 결정하고, 204단계에서 PIP 영역에 표시될 제2 메모리 영역에 있는 제2 원시 이미지 데이터의 일부 또는 전체를 결정할 수 있다.Then, the electronic device determines a part of the first raw image data in the first memory area corresponding to the PIP area in
이후, 상기 전자장치는 206단계에서 제1 원시 이미지 데이터의 일부를 제2 원시 이미지 데이터의 전체 또는 일부로 대체할 수 있다.
Thereafter, the electronic device may replace a portion of the first raw image data with all or a portion of the second raw image data in step 206. [
도 3은 본 발명의 제1 실시 예에 따른 두 개의 원시 이미지 데이터를 합성하는 예를 도시하고 있다.FIG. 3 shows an example of combining two raw image data according to the first embodiment of the present invention.
상기 도 3의 (a)는 제1 이미지 센서로부터 획득된 영상이미지(d)에 대응하는 제1 원시 이미지 데이터(300)이고, 상기 도 3의 (b)는 제2 이미지 센서로부터 획득된 영상이미지(e)에 대응하는 제2 원시 이미지 데이터(310)이다. 여기서, 제1 및 제2 이미지 센서는 베이어 패턴(Bayer Pattern)을 가지는 센서로서, 단위 화소별로 렌즈를 통해 입력된 빛의 양에 상응하는 원시 데이터(raw data)를 출력할 수 있다.3 (a) is the first
제1 원시 이미지 데이터(300) 및 제2 원시 이미지 데이터(310)가 각각 메모리 영역에 저장되며, 제1 원시 이미지 데이터(300) 및 제2 원시 이미지 데이터(310)를 합성하기 위해, PIP 영역에 대응하는 제1 원시 이미지 데이터(300)의 일부를 제2 원시 이미지 데이터(310)로 대체하여, 제3 원시 이미지 데이터(320)가 생성된다. 다시 말해, 제2 메모리 영역에 있는 제2 원시 이미지 데이터(310)가 제1 메모리 영역의 일부 영역(PIP 영역에 대응함)으로 복사되거나 대체된다.The first
상기 도 3의 (f)는 제3 원시 이미지 데이터(320)에 대응하는 합성 영상이미지(350)이다. 다시 말해, 상기 합성 영상이미지(350)는 제1 영상이미지(d)의 일부 영역(즉, PIP 영역(355))에, 제2 영상이미지(e)가 겹친 이미지를 의미할 수 있다. PIP 영역(355)에 해당하는 위치는 영상이미지(d) 내에 다양하게 설정될 수 있다.
FIG. 3F is a
도 4는 본 발명의 제2 실시 예에 따른 두 개의 원시 이미지 데이터를 합성하는 예를 도시하고 있다.FIG. 4 shows an example of combining two pieces of raw image data according to the second embodiment of the present invention.
상기 도 4의 (a)는 제1 이미지 센서로부터 획득된 영상이미지(d)에 대응하는 제1 원시 이미지 데이터(400)이고, 상기 도 4의 (b)는 제2 이미지 센서로부터 획득된 영상이미지(e)에 대응하는 제2 원시 이미지 데이터(410)이다. 여기서, 제1 및 제2 이미지 센서는 베이어 패턴(Bayer Pattern)을 가지는 센서로서, 단위 화소별로 렌즈를 통해 입력된 빛의 양에 상응하는 원시 데이터(raw data)를 출력할 수 있다.4 (a) is the first
제1 원시 이미지 데이터(400) 및 제2 원시 이미지 데이터(410)가 각각 메모리 영역에 저장되며, 제1 원시 이미지 데이터(400) 일부와 제2 원시 이미지 데이터(410)의 일부(405)를 합성하기 위해, PIP 영역에 대응하는 제1 원시 이미지 데이터(400)의 일부를 제2 원시 이미지 데이터(410)의 일부(405)로 대체하여, 제3 원시 이미지 데이터(420)가 생성된다. 다시 말해, 제2 메모리 영역에 있는 제2 원시 이미지 데이터(410)의 일부(405)가 제1 메모리 영역의 일부 영역(PIP 영역에 대응함)으로 복사되거나 대체된다(425). The first
상기 도 4의 (f)는 제3 원시 이미지 데이터(420)에 대응하는 합성 영상이미지(450)이다. 다시 말해, 상기 합성 영상이미지(450)는 제1 영상이미지(d)의 일부 영역(즉, PIP 영역(455))에, 제2 영상이미지(e)의 일부가 겹친 이미지를 의미할 수 있다. PIP 영역(455)에 해당하는 위치는 영상이미지(d) 내에 다양하게 설정될 수 있다.
FIG. 4F is a
도 5는 본 발명의 실시 예에 따른 다수 이미지 센서를 이용한 촬영장치의 구성도를 도시하고 있다.5 is a block diagram of a photographing apparatus using a plurality of image sensors according to an embodiment of the present invention.
상기 도 5를 참조하면, 촬영장치는 제1 이미지 센서(500), 제2 이미지 센서(502), 원시 데이터 합성부(510), ISP(520)를 포함하여 구성될 수 있다.5, the photographing apparatus may include a
제1 이미지 센서(500) 및 제2 이미지 센서(502)는 베이어 패턴(Bayer Pattern)을 가지는 센서로서, 외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생할 수 있다. 발생된 전기적 신호는 디지털화된다. 또한, 발생된 전기적 신호는 해당하는 픽셀에서 증폭되고, 별도의 회로를 통해 디지털화될 수도 있다. 도시되지 아니하였으나, 제1 이미지 센서(500) 및 제2 이미지 센서(502)에 의해 획득된 외부 영상에 상응하는 전기적 신호를 디지털화하기 위한 별도의 회로가 더 구비될 수 있다. 다시 말해, 제1 이미지 센서(500) 및 제2 이미지 센서(502)는 단위 화소별로 렌즈를 통해 입력된 빛의 양에 상응하는 원시 데이터(raw data)를 출력할 수 있다. 이미지 센서(500, 502)에 노출된 이미지의 색상을 검출하기 위해, 이미지 센서(500, 502)의 화소(pixel)는 컬러 필터의 색상을 제외한 모든 색상의 광 파장(light wavelength)을 흡수하는 각각의 컬러 필터로 덮여(cover)진다. 이미지 센서(500, 502)로부터 컬러 정보를 획득하는 일반적인 방법은 이미지 센서(500, 502)의 화소들 위에 컬러 필터 어레이(CFA, Color Filter Array)를 배치하는 것이다. 컬러 필터 어레이의 가장 일반적인 형태가 도 2에 도시된 베이어 모자이크(Bayer Mosaic) 필터이다. 베이어 모자이크 필터는 체커보드 형식(checkerboard like) 구조를 가지고, 교호하는 로우(row)의 적색(R), 녹색(G) 및 청색(B), 녹색 필터로 구성된다. 적색과 녹색 필터는 2개의 녹색 필터가 인접 로우와 컬럼(column) 사이의 가장자리를 공유하지 못하도록 서로 오프셋(offset)되어 있다. 각 화소의 완전한 색상 정보를 얻기 위해서는 주변 화소의 색상 세기를 기반한 보간(interpolation)이 요구된다.The
원시 데이터 합성부(510)는 제1 이미지 센서(500)로부터의 제1 원시데이터를 제1 메모리블록(512)에 저장하고, 제2 이미지 센서(502)로부터의 제2 원시 데이터를 저장한 후, PIP 영역에 대응하는 제1 메모리블록(512)에 있는 제1 원시 데이터의 일부를 결정하고, PIP 영역에 표시될 제2 메모리 영역에 있는 제2 원시 이미지 데이터의 일부 또는 전체를 결정하여, 제1 원시 데이터의 일부를 제2 원시 데이터의 전체 또는 일부로 대체할 수 있다. 제1 원시 데이터의 일부가 제2 원시 데이터의 전체 또는 일부로 대체되어 생성된 원시데이터를 제3 원시데이터로 칭한다. The raw
ISP(520)는 원시 데이터 합성부(510)로부터의 제3 원시데이터를 YUV값으로 변환한다. YUV방식은 사람의 눈이 색상보다는 밝기에 민감하다는 사실에 착안한 방식으로, 색을 밝기(Luminance)인 Y성분과 색상(Chrominance)인 U와 V 성분으로 구분한다. Y성분은 오차에 민감하므로 색상 성분인 U와 V보다 많은 비트를 코딩할 수 있다. 전형적인 Y:U:V의 비율은 4:2:2이다.The
ISP(520)는 감마교정, 컬러 인터폴레이션, 컬러정정, 컬러공간적 변환, 자동노출 제어, 화이트밸런스를 조절하는 AWB(Automatic White Balance), 초점을 조절하는 AF(Automatic Focus) 기능을 통해, 의 제3 원시데이터를 YUV값으로 변환할 수 있다.
The
도 6은 본 발명의 실시 예에 따른 이미지 신호 처리 장치의 구성도를 도시하고 있다.6 shows a configuration diagram of an image signal processing apparatus according to an embodiment of the present invention.
상기 도 6을 참조하면, ISP(520)는 보간부(602), 색조정부(604), 감마보정부(606), 색상공간변환부(608), 엣지강조부(610), 색조절부(612), 자동노출부(614)를 포함하여 구성될 수 있다.6, the
상기 보간부(INTERPOLATION)(602)는 8비트 베이어 원시데이터만으로 컬러정보를 표현하기 곤란하기 때문에, 8비트 베이어 원시 데이터를 24비트 RGB 데이터로 변환할 수 있다. 상기 색조정부(Color Correction)(604)는 컬러필터의 왜곡 및 오차를 보정하고, 상기 감마보정부(Gamma Correction)(606)는 비선형 전달 함수(non-linear transfer function)를 사용하여 빛의 강도(intensity) 신호를 비선형적으로 변형함으로써, 디스플레이 장치의 고유의 왜곡 값을 미리 보정한다. 상기 색상 공간 변환부(Color Space Conversion)(608)는 RGB를 각각 명암과 색 정보를 갖는 YCbCr로 변환시킨다. 포맷은 YCbCr 4:4:4 YCbCr 4:2:2, YCbCr 4:2:0 등이 있으며, 이렇게 변환된 영상데이터에서 휘도를 조정하고자 할 때는 Y 데이터를 제어하고, 컬러를 조정하고자 할 때는 CbCr 데이터를 제어할 수 있다. 이에 반하여, RGB 영상데이터는 휘도+컬러 성분을 모두 갖고 있기 때문에 휘도 혹은 컬러만을 제어하기가 어렵다.Since the
상기 에지강조부(Edge Enhancements)(610)는 영상에서 고주파수(high frequency) 성분의 윤곽선 부분을 더욱 예리하게(sharp) 처리할 수 있다.The
상기 색조절부(Auto White Balance)(612)는 사물에서 반사되는 영상은 색온도(Color temperature)에 따라 스펙트럼이 시프트되기 때문에, 광원에 따라 달라보이는 흰색을 자동으로 흰색에 맞추는 기능을 수행할 수 있다. 기본적으로 Cb,Cr 값을 확인하여 시프트된 값만큼 제어하여 원래의 값으로 환원될 수 있도록 한다.Since the spectrum of an image reflected by an object is shifted according to a color temperature, the
상기 자동노출부(Auto Exposure)(614)는 원하는 타깃 영상 데이터 레벨이 나올 때까지 자동으로 노출시간을 조정해 주는 역할을 수행할 수 있다. 이는 현재상태의 영상을 기준으로, 주로 Y 값을 측정하여 노출 값이 부족한지, 혹은 과도한지를 판단하여 적정 노출 값을 세팅해주는 기능이다.The
도 7은 본 발명의 실시 예에 따른 전자장치의 구성도를 도시하고 있다.7 shows a configuration diagram of an electronic device according to an embodiment of the present invention.
전자장치는, 휴대용 전자 장치(portable electronic device)일 수 있으며, 휴대용 단말기(portable terminal), 이동 단말기(mobile terminal), 이동 패드(mobile pad), 미디어 플레이어(media player), 태블릿 컴퓨터(tablet computer), 핸드헬드 컴퓨터(handheld computer) 또는 PDA(Personal Digital Assistant)와 같은 장치일 수 있다. 또한, 이러한 장치들 중 두 가지 이상의 기능을 결합한 장치를 포함하는 임의의 휴대용 전자 장치일 수도 있다.The electronic device may be a portable electronic device and may be a portable terminal, a mobile terminal, a mobile pad, a media player, a tablet computer, , A handheld computer, or a PDA (Personal Digital Assistant). It may also be any portable electronic device, including devices combining two or more of these devices.
상기 도 7을 참조하면, 전자장치는 제어기(700), 스피커/마이크로폰(710), 제1 카메라(720), 제2 카메라(725), GPS 수신기(730), RF 처리기(740), 센서모듈(750), 터치스크린(760), 터치스크린 제어기(765), 확장 메모리(770)를 포함하여 구성된다.7, the electronic device includes a controller 700, a speaker /
제어기(700)는, 인터페이스(701), 하나 이상의 프로세서(702, 703) 그리고 내부 메모리(704)를 포함할 수 있다. 경우에 따라서는, 제어기(700) 전체를 프로세서로 칭하기도 한다. 인터페이스(701), 애플리케이션 프로세서(702), 통신 프로세서(703), 영상처리부(705), 내부 메모리(704)는 별개의 구성요소일 수 있거나 하나 이상의 집적화된 회로에 집적화될 수 있다.The controller 700 may include an
영상처리부(705)는 이미지 신호 처리 프로세서(Image Signal Processor : ISP)로써, 제1 카메라(720) 그리고 제2 카메라(725)로부터의 출력데이터(예: 미가공 데이터(raw data)를 미리 정해진 규약의 포맷을 가지는 화상 프레임(RGB/YUV) 데이터로 변환하여 애플리케이션 프로세서(702)로 제공할 수 있다.The image processing unit 705 is an image signal processor (ISP) that processes output data (e.g., raw data) from the
애플리케이션 프로세서(702)는 여러 가지의 소프트웨어 프로그램을 실행하여 전자장치를 위한 여러 기능을 수행하고 통신 프로세서(703)는 음성 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 또한, 이러한 통상적인 기능에 더하여, 프로세서(702, 703)는 확장 메모리(770) 혹은 내부 메모리(704)에 저장되어 있는 특정한 소프트웨어 모듈(명령어 세트)을 실행하여 그 모듈에 대응하는 특정한 여러 가지의 기능을 수행하는 역할도 한다. 즉, 프로세서(702, 703, 705)는 확장 메모리(770) 혹은 내부 메모리(704)에 저장된 소프트웨어 모듈들과 연동하여 다수 이미지 센서를 이용한 촬영방법을 수행할 수 있다.The
예를 들어, 애플리케이션 프로세서(702)가, 복수의 카메라 촬영 모드를 선택하고, 제1 및 제2 카메라의 이미지센서로부터 각각 제1 및 제2 원시 이미지 데이터를 획득하고, 제1 및 제2 원시 이미지 데이터를 합성하여, 제3 원시 이미지 데이터를 생성하고, 이미지신호처리(Image Signal Processing: ISP)에 따라 제3 원시 이미지 데이터를 JPEG 데이터 같은 해당 포맷의 영상이미지로 변환하고, 영상이미지를 디스플레이할 수 있다.For example, the
더하여, 애플리케이션 프로세서(702)가, PIP(Picture in Picture) 영역을 설정하고, PIP 영역에 대응하는 제1 메모리 영역에 있는 제1 원시 이미지 데이터의 일부 원시 이미지 데이터를 결정하고, PIP 영역에 표시될 제2 메모리 영역에 있는 제2 원시 이미지 데이터의 일부 또는 전체 원시 이미지 데이터를 결정하고, 제1 원시 이미지 데이터의 일부를 제2 원시 이미지 데이터의 전체 또는 일부로 대체할 수 있다. 상기 PIP 영역은 제1 원시 이미지 데이터에 대응하는 제1 영상이미지의 적어도 일부 영역에 제2 원시 이미지 데이터 전체 또는 일부에 대응하는 제2 영상이미지 전체 또는 일부를 디스플레이하기 위한 영역일 수 있다. 또 다른 실시 예에서, 상기 PIP 영역은 제2 원시 이미지 데이터에 대응하는 제2 영상이미지의 적어도 일부 영역에 제1 원시 이미지 데이터 전체 또는 일부에 대응하는 제1 영상이미지 전체 또는 일부를 디스플레이하기 위한 영역일 수 있다.
In addition, the
한편, 다른 프로세서(도시하지 않음)는 하나 이상의 데이터 프로세서, 이미지 프로세서, 또는 코덱을 포함할 수 있다. 데이터 프로세서, 이미지 프로세서 또는 코덱은 별도로 구성할 수도 있다. 또한, 서로 다른 기능을 수행하는 여러 개의 프로세서로 구성될 수도 있다. 인터페이스(701)는 전자장치의 터치 스크린 제어기(765) 및 확장 메모리(770)에 연결시킨다.On the other hand, another processor (not shown) may include one or more data processors, image processors, or codecs. The data processor, image processor, or codec may be configured separately. Also, it may be composed of a plurality of processors performing different functions. The
센서모듈(750)은 인터페이스(701)에 결합되어 여러 가지 기능을 가능하게 할 수 있다. 예를 들어, 움직임 센서 및 광센서가 인터페이스(701)에 결합되어 각각 전자 장치의 움직임 감지 및 외부로부터의 빛 감지를 가능하게 할 수 있다. 이외에도, 위치측정 시스템, 온도센서 또는 생체 센서 등과 같은 기타 센서들이 인터페이스(750)에 연결되어 관련 기능들을 수행할 수 있다.The sensor module 750 may be coupled to the
제1, 제2 카메라(720, 725)는 인터페이스(701)를 통해 센서모듈(750)과 결합하여, 사진 및 비디오 클립 레코딩과 같은 카메라 기능을 수행할 수 있다. 또한, 다른 실시 예에서, 제1, 제2 카메라(720, 725)는 전자장치와 별도로 분리되어 NFC(Near Field Communication]) 또는 WiFi Direct 등 무선연결을 이용하여 전자장치와 연결될 수도 있다.The first and
더 자세하게는, 제1 카메라(720)는 전자장치의 후면에 위치하고 제2 카메라(725)는 전자장치의 전면에 위치할 수 있다. 또한, 제1, 제2 카메라(720, 725)는 광학부, 이미지 센서 및 신호처리부(도시하지 않음) 등을 포함하여 구성될 수 있다. 상기 광학부는 메커 셔터(mecha-shutter), 모터 및 액추에이터에 의해 구동될 수도 있으며, 상기 액추에이터에 의해 주밍(zooming) 및 포커싱(focusing) 등의 동작을 수행할 수도 있다. 상기 광학부는 주변의 이미지를 촬상하며, 이미지센서는 상기 광학부에 의해 촬영되는 이미지를 감지하여 전기적인 신호로 변환할 수 있다. 여기서 상기 이미지 센서는 CMOS(Complemen-tary Metal Oxide Semiconductor) 또는 CCD(Charged Coupled Device) 센서가 될 수 있으며, 고해상도의 이미지 센서가 될 수 있다. 카메라의 이미지 센서는 글로벌 셔터(global shutter)를 내장할 수도 있다. 상기 글로벌 셔터는 센서에 내장된 메카셔터와 유사한 기능을 수행할 수 있다.More specifically, the
본 발명의 실시 예에서 상기 이미지 센서는 UHD(Ultra High Definition)급 이상의 이미지를 감지할 수 있는 센서가 될 수 있다. 그리고 상기 이미지 센서에서 감지되는 이미지는 신호처리부에서 통해 디지털 이미지로 변환되어 출력된다. 상기 복수의 카메라에서 출력데이터는 미가공 데이터(raw data)가 될 수 있다.In the embodiment of the present invention, the image sensor may be a sensor capable of detecting an image of UHD (Ultra High Definition) or higher. An image sensed by the image sensor is converted into a digital image through a signal processing unit and output. The output data from the plurality of cameras may be raw data.
RF 처리기(740)는 통신 기능이 수행된다. 예를 들어, 통신 프로세서(703)의 제어하에 RF 신호를 기저대역 신호로 변환하여 통신 프로세서(703)로 제공하거나 통신 프로세서(703)로부터의 기저대역 신호를 RF 신호로 변환하여 송신할 수 있다. 여기서, 통신 프로세서(703)는 다양한 통신방식에 기저대역신호를 처리할 수 있다. 예를 들어, 통신방식은, 이들에 한정하지는 않지만, GSM(Global System for Mobile Communication) 통신방식, EDGE(Enhanced Data GSM Environment) 통신방식, CDMA(Code Division Multiple Access) 통신방식, W-CDMA(W-Code Division Multiple Access) 통신방식, LTE(Long Term Evolution) 통신방식, OFDMA(Orthogonal Frequency Division Multiple Access) 통신방식, Wi-Fi(Wireless Fidelity) 통신방식, WiMax 통신방식 또는/및 Bluetooth 통신방식을 포함할 수 있다.The
스피커/마이크로폰(710)은 음성 인식, 음성 복제, 디지털 레코딩(recording) 및 전화 기능과 같은 오디오 스트림의 입력과 출력을 담당할 수 있다. 즉, 스피커/마이크로폰(710)은 음성신호를 전기신호로 변환하거나 전기신호를 음성신호로 변환할 수 있다. 도시하지 않았지만, 탈부착 가능한(attachable and detachable) 이어폰(ear phone), 헤드폰(head phone) 또는 헤드셋(head set)이 외부포트를 통해 전자장치에 연결될 수 있다.The speaker /
터치스크린 제어기(765)는 터치스크린(760)에 결합될 수 있다. 제스처 스크린(760) 및 터치 스크린 제어기(765)는, 이하에 한정되지는 않지만, 터치스크린(760)과의 하나 이상의 접촉점을 결정하기 위한 용량성, 저항성, 적외선 및 표면 음향파 기술들뿐만 아니라 기타 근접 센서 배열 또는 기타 요소들을 포함하는 임의의 멀티 터치 감지 기술을 이용하여 접촉 및 움직임 또는 이들의 중단을 검출할 수 있다.The touch screen controller 765 may be coupled to the
터치스크린(760)은 전자장치와 사용자 사이에 입력/출력 인터페이스를 제공할 수 있다. 즉, 터치스크린(760)은 사용자의 터치입력을 전자 장치에 전달할 수 있다. 또한 전자 장치로부터의 출력을 사용자에게 보여주는 매개체이다. 즉, 터치스크린은 사용자에게 시각적인 출력을 보여준다. 이러한 시각적 출력(visual output)은 텍스트(text), 그래픽(graphic), 비디오(video)와 이들의 조합의 형태로 나타난다. 본 발명의 다양한 실시 예에서, 터치스크린(760)은 제1, 제2 카메라(720, 725)에서 촬영되는 이미지들 및 촬영 중의 정보들을 표시할 수 있다.The
터치스크린(760)은 여러 가지 디스플레이가 사용될 수 있다. 예를 들면, 이에 한정하지는 않지만, LCD(liquid crystal display), LED(Light Emitting Diode), LPD(light emitting polymer display), OLED(Organic Light Emitting Diode), AMOLED(Active Matrix Organic Light Emitting Diode) 또는 FLED(Flexible LED)를 사용할 수 있다.The
GPS 수신기(730)는 인공위성으로부터 받은 신호를 위치, 속도, 시간 등의 정보로 변환할 수 있다. 예를 들어, 위성과 GPS 수신기간 거리는 빛의 속도와 신호도달 시간을 곱하면 계산되며, 3개 위성의 정확한 위치와 거리를 구하여 공지된 삼각측량의 원리로 전자장치의 위치가 측정된다.The
확장 메모리(770) 혹은 내부 메모리(704)는 하나 이상의 자기 디스크 저장 장치와 같은 고속 랜덤 액세스 메모리 및/또는 비휘발성 메모리, 하나 이상의 광 저장 장치 및/또는 플래시 메모리(예컨대, NAND, NOR)를 포함할 수 있다.
확장 메모리(770) 혹은 내부 메모리(704)는 소프트웨어를 저장할 수 있다. 소프트웨어 구성요소는 운영 체제(operating system) 소프트웨어 모듈, 통신 소프트웨어 모듈, 그래픽 소프트웨어 모듈, 사용자 인터페이스 소프트웨어 모듈 및 MPEG 모듈, 카메라 소프트웨어 모듈, 하나 이상의 애플리케이션 소프트웨어 모듈 등을 포함할 수 있다. 또한, 소프트웨어 구성요소인 모듈은 명령어들의 집합으로 표현할 수 있으므로, 모듈을 명령어 세트(instruction set)라고 표현하기도 한다. 모듈은 또한 프로그램으로 표현하기도 한다.
본 발명의 다양한 실시 예에 더하여, 확장 메모리(770)는 제1 카메라(720) 및 제2 카메라(725)로부터 촬영되는 이미지 또는 촬영되는 동영상을 저장할 수 있다.In addition to the various embodiments of the present invention, the
운영 체제 소프트웨어는 일반적인 시스템 동작(system operation)을 제어하는 여러 가지의 소프트웨어 구성요소를 포함할 수 있다. 이러한 일반적인 시스템 작동의 제어는, 예를 들면, 메모리 관리 및 제어, 저장 하드웨어(장치) 제어 및 관리, 전력 제어 및 관리 등을 의미할 수 있다. 이러한 운영 체제 소프트웨어는 여러 가지의 하드웨어(장치)와 소프트웨어 구성요소(모듈) 사이의 통신을 원활하게 하는 기능도 수행할 수 있다.The operating system software may include various software components that control general system operations. Control of these general system operations may mean, for example, memory management and control, storage hardware (device) control and management, power control and management, and the like. Such operating system software may also facilitate the communication between various hardware (devices) and software components (modules).
통신 소프트웨어 모듈은, RF 처리기(740)를 통해 컴퓨터, 서버 및/또는 휴대용 단말기 등 다른 전자 장치와 통신을 가능하게 할 수 있다. 그리고, 통신 소프트웨어 모듈은, 해당 통신방식에 해당하는 프로토콜 구조로 구성된다.The communication software module may enable communication with other electronic devices, such as a computer, a server, and / or a portable terminal, via the
그래픽 소프트웨어 모듈은 터치스크린(760) 상에 그래픽을 제공하고 표시하기 위한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 그래픽(graphics)이란 용어는 텍스트(text), 웹 페이지(web page), 아이콘(icon), 디지털 이미지(digital image), 비디오(video), 애니메이션(animation) 등을 포함하는 의미로 사용된다.The graphics software module may include various software components for providing and displaying graphics on the
사용자 인터페이스 소프트웨어 모듈은 사용자 인터페이스에 관련한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 사용자 인터페이스의 상태가 어떻게 변경되는지 또는 사용자 인터페이스 상태의 변경이 어떤 조건에서 이루어지는지 등에 대한 내용을 포함할 수 있다.The user interface software module may include various software components related to the user interface. How the state of the user interface is changed, and under what conditions the change of the user interface state is made.
카메라 소프트웨어 모듈은 카메라 관련 프로세스 및 기능들을 가능하게 하는 카메라 관련 소프트웨어 구성요소를 포함할 수 있다. 애플리케이션 모듈은 렌더링 엔진을 포함하는 웹브라우저(browser), 이메일(email), 즉석 메시지(instant message), 워드 프로세싱(word processing), 키보드 에뮬레이션(keyboard emulation), 어드레스 북(address book), 접촉 리스트(touch list), 위젯(widget), 디지털 저작권 관리(DRM, Digital Right Management), 음성 인식(voice recognition), 음성 복제, 위치 결정 기능(position determining function), 위치기반 서비스(location based service) 등을 포함할 수 있다. 메모리(770, 704)는 위에서 기술한 모듈 이외에 추가적인 모듈(명령어들)을 포함할 수 있다. 또는, 필요에 따라, 일부의 모듈(명령어들)을 사용하지 않을 수 있다. 본 발명의 다양한 실시 예에서, 상기 웹브라우저는 웹페이지 내 동적으로 변하는 객체들의 디스플레이를 제어하는 실행버튼 및 선택메뉴를 포함하고 있다(도 3(a) 내지 3(d)).The camera software module may include camera-related software components that enable camera-related processes and functions. The application module may be a web browser including a rendering engine, an email, an instant message, word processing, keyboard emulation, an address book, a contact list touch list, widget, digital rights management (DRM), voice recognition, voice duplication, position determining function, location based service, etc. can do. The
본 발명의 다양한 실시 예와 관련하여, 애플리케이션 모듈은 다수 이미지 센서를 이용한 촬영 명령어들(상기 도 1 내지 도 2 참조)을 포함할 수 있다.In connection with various embodiments of the present invention, the application module may include imaging commands (see FIGS. 1 and 2 above) using multiple image sensors.
예를 들어, 애플리케이션 모듈은, 복수의 카메라 촬영 모드를 선택하고, 제1 및 제2 카메라의 이미지센서로부터 각각 제1 및 제2 원시 이미지 데이터를 획득하고, 제1 및 제2 원시 이미지 데이터를 합성하여, 제3 원시 이미지 데이터를 생성하고, 이미지신호처리(Image Signal Processing: ISP)에 따라 제3 원시 이미지 데이터를 JPEG 데이터 같은 해당 포맷의 영상이미지로 변환하고, 영상이미지를 디스플레이할 수 있다.For example, the application module may select a plurality of camera capture modes, obtain first and second raw image data, respectively, from the image sensors of the first and second cameras, and combine the first and second raw image data And the third raw image data may be converted into a video image of a corresponding format such as JPEG data according to an image signal processing (ISP), and the video image may be displayed.
더하여, 애플리케이션 모듈은, PIP(Picture in Picture) 영역을 설정하고, PIP 영역에 대응하는 제1 메모리 영역에 있는 제1 원시 이미지 데이터의 일부 원시 이미지 데이터를 결정하고, PIP 영역에 표시될 제2 메모리 영역에 있는 제2 원시 이미지 데이터의 일부 또는 전체 원시 이미지 데이터를 결정하고, 제1 원시 이미지 데이터의 일부를 제2 원시 이미지 데이터의 전체 또는 일부로 대체할 수 있다. 상기 PIP 영역은 제1 원시 이미지 데이터에 대응하는 제1 영상이미지의 적어도 일부 영역에 제2 원시 이미지 데이터 전체 또는 일부에 대응하는 제2 영상이미지 전체 또는 일부를 디스플레이하기 위한 영역일 수 있다. 또 다른 실시 예에서, 상기 PIP 영역은 제2 원시 이미지 데이터에 대응하는 제2 영상이미지의 적어도 일부 영역에 제1 원시 이미지 데이터 전체 또는 일부에 대응하는 제1 영상이미지 전체 또는 일부를 디스플레이하기 위한 영역일 수 있다.
In addition, the application module may set a PIP (Picture in Picture) area, determine some raw image data of the first raw image data in the first memory area corresponding to the PIP area, May determine some or all of the raw image data of the second raw image data in the region and replace a portion of the first raw image data with all or a portion of the second raw image data. The PIP area may be an area for displaying all or a part of the second image image corresponding to all or a part of the second raw image data in at least a part of the first image image corresponding to the first raw image data. In yet another embodiment, the PIP region may include an area for displaying all or a portion of the first video image corresponding to all or a portion of the first raw image data in at least a portion of the second video image corresponding to the second raw image data Lt; / RTI >
또한, 위에서 언급한, 그리고 이하에서 언급할, 본 발명에 따른 전자장치의 다양한 기능들은 하나 이상의 프로세싱(processing) 및/또는 애플리케이션 특정 집적 회로(ASIC, Application Specific Integrated circuit)를 포함하는 하드웨어 및/또는 소프트웨어 및/또는 이들의 결합으로 실행될 수 있다.
It should also be noted that the various functions of the electronic device according to the present invention, as mentioned above and below, may be implemented in hardware comprising one or more processing and / or application specific integrated circuits (ASICs) and / Software and / or a combination thereof.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments, but is capable of various modifications within the scope of the invention. Therefore, the scope of the present invention should not be limited by the illustrated embodiments, but should be determined by the scope of the appended claims and equivalents thereof.
500: 제1 이미지 센서 502: 제2 이미지 센서
510: 원시데이터 합성부 512: 제1 메모리블록
514: 제2 메모리블록 520: ISP500: first image sensor 502: second image sensor
510: primitive data composer 512: first memory block
514: second memory block 520: ISP
Claims (22)
제1 및 제2 이미지 센서로부터 각각 제1 및 제2 원시데이터를 획득하는 과정과,
상기 제1 및 상기 제2 원시데이터를 합성하여, 제3 원시데이터를 생성하는 과정과,
상기 제3 원시데이터를 이미지 처리하여 해당 포맷의 영상이미지 파일로 변환하는 과정과,
상기 해당 포맷의 영상이미지를 디스플레이하는 과정을 포함하는 방법.
A method of image capturing in an electronic device including a plurality of image sensors,
Obtaining first and second raw data from the first and second image sensors, respectively,
Synthesizing the first and second raw data to generate third raw data;
Converting the third raw data into a video image file of a corresponding format,
And displaying a video image of the corresponding format.
상기 제1 및 상기 제2 원시데이터를 합성하여, 제3 원시데이터를 생성하는 과정은,
PIP(Picture in Picture) 영역을 확인하는 과정과,
상기 PIP 영역에 대응하는 상기 제1 원시데이터의 적어도 일부를 결정하는 과정과,
상기 PIP 영역에 표시될 상기 제2 원시데이터의 적어도 일부를 결정하는 과정과,
상기 제2 원시데이터의 적어도 일부를 상기 제1 원시데이터의 일부로 대체하는 과정을 포함하는 방법.
The method according to claim 1,
Wherein the step of synthesizing the first and second raw data to generate third raw data comprises:
Checking a PIP (Picture in Picture) area,
Determining at least a portion of the first raw data corresponding to the PIP region;
Determining at least a portion of the second raw data to be displayed in the PIP area;
And replacing at least a portion of the second raw data with a portion of the first raw data.
상기 이미지 처리는,
보간(INTERPOLATION) 기능, 색조정(Color Correction) 기능, 감마보정(Gamma Correction) 기능, 색상 공간적 변환(Color Space Conversion) 기능,에지강조(Edge Enhancements) 기능, 자동 화이트밸런스(Auto White Balance) 기능, 또는 자동노출(Auto Exposure) 기능 중 적어도 하나 이상의 기능을 수행하는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the image processing comprises:
It is equipped with INTERPOLATION function, Color Correction function, Gamma Correction function, Color Space Conversion function, Edge Enhancements function, Auto White Balance function, Or an Auto Exposure function. The method according to claim 1,
상기 원시데이터는 상기 이미지 센서로부터의 가공되지 않은 데이터로써, 이미지 처리할 수 있는 것을 포함하는 방법.
The method according to claim 1,
Wherein the raw data comprises image processing, with raw data from the image sensor.
상기 제1 및 제2 이미지 센서로부터 각각 제1 및 제2 원시데이터를 획득하는 과정은,
외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생하는 과정과,
상기 발생된 전기적 신호는 디지털신호로 변환하는 과정을 포함하되,
상기 디지털신호는 단위 화소별로 입력된 빛의 양에 상응하는 원시 데이터에 해당하는 것을 포함하는 방법.
The method according to claim 1,
And acquiring first and second raw data from the first and second image sensors, respectively,
Generating an electrical signal corresponding to an optical signal incident from an external subject;
Converting the generated electrical signal into a digital signal,
Wherein the digital signal corresponds to raw data corresponding to an amount of light input per unit pixel.
상기 제3 원시데이터를 저장하는 과정을 더 포함하는 방법.
The method according to claim 1,
And storing the third raw data.
적어도 둘 이상의 이미지 센서로부터 각각 원시데이터를 획득하는 과정과,
상기 적어도 둘 이상의 원시데이터를 합성하여, 제3 원시데이터를 생성하는 과정과,
상기 제3 원시데이터를 이미지 처리하여 해당 포맷의 영상이미지 파일로 변환하는 과정과,
상기 해당 포맷의 영상이미지를 디스플레이하는 과정을 포함하는 방법.
A method of photographing using a plurality of image sensors,
Obtaining raw data from at least two image sensors, respectively,
Synthesizing the at least two raw data to generate third raw data;
Converting the third raw data into a video image file of a corresponding format,
And displaying a video image of the corresponding format.
상기 적어도 둘 이상의 원시데이터를 합성하여, 제3 원시데이터를 생성하는 과정은,
PIP(Picture in Picture) 영역을 확인하는 과정과,
상기 PIP 영역에 대응하는 상기 적어도 둘 이상의 원시데이터 중 제1 원시데이터의 적어도 일부들을 결정하는 과정과,
상기 PIP 영역에 표시될 상기 제1 원시데이터를 제외한 나머지 원시데이터들 각각의 적어도 일부를 결정하는 과정과,
상기 제1 원시데이터의 적어도 일부들에 대응하는 제1 데이터들과 상기 나머지 원시데이터들 각각의 적어도 일부에 대응하는 제2 데이터들을 대체하는 과정을 포함하는 방법.
8. The method of claim 7,
Wherein the step of synthesizing the at least two raw data and generating the third raw data comprises:
Checking a PIP (Picture in Picture) area,
Determining at least portions of the first raw data among the at least two pieces of raw data corresponding to the PIP region;
Determining at least a part of each of the remaining raw data except for the first raw data to be displayed in the PIP area;
Replacing first data corresponding to at least portions of the first raw data with second data corresponding to at least a portion of each of the remaining raw data.
상기 이미지 처리는,
보간(INTERPOLATION) 기능, 색조정(Color Correction) 기능, 감마보정(Gamma Correction) 기능, 색상 공간적 변환(Color Space Conversion) 기능,에지강조(Edge Enhancements) 기능, 자동 화이트밸런스(Auto White Balance) 기능, 또는 자동노출(Auto Exposure) 기능 중 적어도 하나 이상의 기능을 수행하는 것을 특징으로 하는 방법.
8. The method of claim 7,
Wherein the image processing comprises:
It is equipped with INTERPOLATION function, Color Correction function, Gamma Correction function, Color Space Conversion function, Edge Enhancements function, Auto White Balance function, Or an Auto Exposure function. The method according to claim 1,
상기 원시데이터는 상기 이미지 센서로부터의 가공되지 않은 데이터로써, 이미지 처리할 수 있는 것을 포함하는 방법.
8. The method of claim 7,
Wherein the raw data comprises image processing, with raw data from the image sensor.
적어도 둘 이상의 이미지 센서로부터 각각 원시데이터를 획득하는 과정은,
외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생하는 과정과,
상기 발생된 전기적 신호는 디지털신호로 변환하는 과정을 포함하되,
상기 디지털신호는 단위 화소별로 입력된 빛의 양에 상응하는 원시 데이터에 해당하는 것을 포함하는 방법.
8. The method of claim 7,
Acquiring raw data from at least two image sensors, respectively,
Generating an electrical signal corresponding to an optical signal incident from an external subject;
Converting the generated electrical signal into a digital signal,
Wherein the digital signal corresponds to raw data corresponding to an amount of light input per unit pixel.
적어도 하나의 메모리; 및
이미지 처리 모듈을 실행시키기 위한 적어도 하나의 프로세서를 포함하되, 상기 이미지 처리 모듈은
제1 및 제2 이미지 센서로부터 각각 제1 및 제2 원시데이터를 획득하고,
상기 제1 및 상기 제2 원시데이터를 합성하여, 제3 원시데이터를 생성하고,
상기 제3 원시데이터를 이미지 처리하여 해당 포맷의 영상이미지 파일로 변환하고,
상기 해당 포맷의 영상이미지를 디스플레이하도록 설정된 전자장치.
In an electronic device,
At least one memory; And
At least one processor for executing an image processing module, the image processing module
Acquiring first and second raw data from the first and second image sensors, respectively,
Synthesizing the first and second raw data to generate third raw data,
The third raw data is subjected to image processing and converted into a video image file of a corresponding format,
And display the video image of the corresponding format.
상기 이미지 처리 모듈은,
PIP(Picture in Picture) 영역을 확인하고,
상기 PIP 영역에 대응하는 상기 제1 원시데이터의 적어도 일부를 결정하고,
상기 PIP 영역에 표시될 상기 제2 원시데이터의 적어도 일부를 결정하고,
상기 제2 원시데이터의 적어도 일부를 상기 제1 원시데이터의 일부로 대체하도록 설정된 전자장치.
13. The method of claim 12,
The image processing module comprising:
Check the PIP (Picture in Picture) area,
Determining at least a portion of the first raw data corresponding to the PIP region,
Determining at least a portion of the second raw data to be displayed in the PIP region,
And replace at least a portion of the second raw data with a portion of the first raw data.
상기 이미지 처리는,
보간(INTERPOLATION) 기능, 색조정(Color Correction) 기능, 감마보정(Gamma Correction) 기능, 색상 공간적 변환(Color Space Conversion) 기능,에지강조(Edge Enhancements) 기능, 자동 화이트밸런스(Auto White Balance) 기능, 또는 자동노출(Auto Exposure) 기능 중 적어도 하나 이상의 기능을 수행하는 것을 특징으로 하는 전자장치.
13. The method of claim 12,
Wherein the image processing comprises:
It is equipped with INTERPOLATION function, Color Correction function, Gamma Correction function, Color Space Conversion function, Edge Enhancements function, Auto White Balance function, Or Auto Exposure function of the electronic device.
상기 원시데이터는 상기 이미지 센서로부터의 가공되지 않은 데이터로써, 이미지 처리할 수 있는 것을 포함하는 전자장치.
13. The method of claim 12,
Wherein the raw data comprises image data that can be processed with raw data from the image sensor.
상기 이미지 처리 모듈은,
외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생하고,
상기 발생된 전기적 신호는 디지털신호로 변환하도록 설정되며,
상기 디지털신호는 단위 화소별로 입력된 빛의 양에 상응하는 원시 데이터에 해당하는 것을 포함하는 전자장치.
13. The method of claim 12,
The image processing module comprising:
An electric signal corresponding to an optical signal incident from an external subject is generated,
The generated electrical signal is set to be converted into a digital signal,
Wherein the digital signal corresponds to raw data corresponding to an amount of light input per unit pixel.
상기 이미지 처리 모듈은 상기 제3 원시데이터를 저장하도록 설정된 전자장치.
13. The method of claim 12,
And the image processing module is configured to store the third raw data.
적어도 하나의 메모리; 및
이미지 처리 모듈을 실행시키기 위한 적어도 하나의 프로세서를 포함하되, 상기 이미지 처리 모듈은
적어도 둘 이상의 이미지 센서로부터 각각 원시데이터를 획득하고,
상기 적어도 둘 이상의 원시데이터를 합성하여, 제3 원시데이터를 생성하고,
상기 제3 원시데이터를 이미지 처리하여 해당 포맷의 영상이미지 파일로 변환하고,
상기 해당 포맷의 영상이미지를 디스플레이하도록 설정된 전자장치.
In an electronic device,
At least one memory; And
At least one processor for executing an image processing module, the image processing module
Acquiring raw data from at least two image sensors, respectively,
Synthesizing the at least two raw data to generate third raw data,
The third raw data is subjected to image processing and converted into a video image file of a corresponding format,
And display the video image of the corresponding format.
상기 이미지 처리 모듈은,
PIP(Picture in Picture) 영역을 확인하고,
상기 PIP 영역에 대응하는 상기 적어도 둘 이상의 원시데이터 중 제1 원시데이터의 적어도 일부들을 결정하고,
상기 PIP 영역에 표시될 상기 제1 원시데이터를 제외한 나머지 원시데이터들 각각의 적어도 일부를 결정하고,
상기 제1 원시데이터의 적어도 일부들에 대응하는 제1 데이터들과 상기 나머지 원시데이터들 각각의 적어도 일부에 대응하는 제2 데이터들을 대체하도록 설정된 전자장치.
19. The method of claim 18,
The image processing module comprising:
Check the PIP (Picture in Picture) area,
Determining at least some of the first of the at least two primitive data corresponding to the PIP region,
Determining at least a part of each of the remaining raw data except for the first raw data to be displayed in the PIP area,
And to replace the first data corresponding to at least portions of the first source data with the second data corresponding to at least a portion of each of the remaining source data.
상기 이미지 처리는,
보간(INTERPOLATION) 기능, 색조정(Color Correction) 기능, 감마보정(Gamma Correction) 기능, 색상 공간적 변환(Color Space Conversion) 기능,에지강조(Edge Enhancements) 기능, 자동 화이트밸런스(Auto White Balance) 기능, 또는 자동노출(Auto Exposure) 기능 중 적어도 하나 이상의 기능을 수행하는 것을 특징으로 하는 전자장치.
19. The method of claim 18,
Wherein the image processing comprises:
It is equipped with INTERPOLATION function, Color Correction function, Gamma Correction function, Color Space Conversion function, Edge Enhancements function, Auto White Balance function, Or Auto Exposure function of the electronic device.
상기 원시데이터는 상기 이미지 센서로부터의 가공되지 않은 데이터로써, 이미지 처리할 수 있는 것을 포함하는 전자장치.
19. The method of claim 18,
Wherein the raw data comprises image data that can be processed with raw data from the image sensor.
상기 이미지 처리 모듈은,
외부 피사체로부터 입사되는 광신호에 상응하는 전기적 신호를 발생하고,
상기 발생된 전기적 신호는 디지털신호로 변환하도록 설정되며,
상기 디지털신호는 단위 화소별로 입력된 빛의 양에 상응하는 원시 데이터에 해당하는 것을 포함하는 전자장치.19. The method of claim 18,
The image processing module comprising:
An electric signal corresponding to an optical signal incident from an external subject is generated,
The generated electrical signal is set to be converted into a digital signal,
Wherein the digital signal corresponds to raw data corresponding to an amount of light input per unit pixel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130020492A KR20140106221A (en) | 2013-02-26 | 2013-02-26 | Photographing method and apparatus using multiple image sensors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130020492A KR20140106221A (en) | 2013-02-26 | 2013-02-26 | Photographing method and apparatus using multiple image sensors |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140106221A true KR20140106221A (en) | 2014-09-03 |
Family
ID=51754746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130020492A KR20140106221A (en) | 2013-02-26 | 2013-02-26 | Photographing method and apparatus using multiple image sensors |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20140106221A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9998716B2 (en) | 2015-08-24 | 2018-06-12 | Samsung Electronics Co., Ltd. | Image sensing device and image processing system using heterogeneous image sensor |
WO2018191648A1 (en) * | 2017-04-14 | 2018-10-18 | Yang Liu | System and apparatus for co-registration and correlation between multi-modal imagery and method for same |
KR20210039343A (en) * | 2019-10-01 | 2021-04-09 | 에스케이텔레콤 주식회사 | Method and apparatus for image processing |
KR20210039180A (en) * | 2019-10-01 | 2021-04-09 | 에스케이텔레콤 주식회사 | Method and apparatus for image processing |
WO2024085673A1 (en) * | 2022-10-21 | 2024-04-25 | 삼성전자 주식회사 | Electronic device for obtaining multiple exposure images and method for operating same |
-
2013
- 2013-02-26 KR KR1020130020492A patent/KR20140106221A/en not_active Application Discontinuation
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9998716B2 (en) | 2015-08-24 | 2018-06-12 | Samsung Electronics Co., Ltd. | Image sensing device and image processing system using heterogeneous image sensor |
WO2018191648A1 (en) * | 2017-04-14 | 2018-10-18 | Yang Liu | System and apparatus for co-registration and correlation between multi-modal imagery and method for same |
US10924670B2 (en) | 2017-04-14 | 2021-02-16 | Yang Liu | System and apparatus for co-registration and correlation between multi-modal imagery and method for same |
US11265467B2 (en) | 2017-04-14 | 2022-03-01 | Unify Medical, Inc. | System and apparatus for co-registration and correlation between multi-modal imagery and method for same |
US11671703B2 (en) | 2017-04-14 | 2023-06-06 | Unify Medical, Inc. | System and apparatus for co-registration and correlation between multi-modal imagery and method for same |
KR20210039343A (en) * | 2019-10-01 | 2021-04-09 | 에스케이텔레콤 주식회사 | Method and apparatus for image processing |
KR20210039180A (en) * | 2019-10-01 | 2021-04-09 | 에스케이텔레콤 주식회사 | Method and apparatus for image processing |
WO2024085673A1 (en) * | 2022-10-21 | 2024-04-25 | 삼성전자 주식회사 | Electronic device for obtaining multiple exposure images and method for operating same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102156597B1 (en) | Optical imaging method and apparatus | |
JP5775977B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
WO2017008377A1 (en) | Image processing method and terminal | |
US20150332636A1 (en) | Image display device and method | |
JP6302555B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
KR20160012743A (en) | Image photographing apparatus and methods for photographing image thereof | |
US9684988B2 (en) | Imaging device, image processing method, and recording medium | |
WO2013106266A1 (en) | Super-resolution image using selected edge pixels | |
JPWO2013187132A1 (en) | Image processing apparatus, imaging apparatus, computer, image processing method and program | |
KR20150081153A (en) | Apparatus and method for processing image, and computer-readable recording medium | |
KR20140106221A (en) | Photographing method and apparatus using multiple image sensors | |
JP5768193B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
US8934042B2 (en) | Candidate image presenting method using thumbnail image and image signal processing device and imaging device performing the same | |
US9363435B2 (en) | Apparatus and method of determining how to perform low-pass filter processing as a reduction association processing when moire is suppressed in a captured image represented by image capture data according to an array of color filters and when the moire appears in the reduced image after processing the reduction processing on the image pickup data, on the basis of an acquisition result of the shooting condition data | |
JP2010028452A (en) | Image processor and electronic camera | |
US11501412B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP5798696B2 (en) | Image processing apparatus, method, recording medium, program, and imaging apparatus | |
JP2012050121A (en) | Imaging device, imaging method and imaging program | |
CN115516494A (en) | Method for generating image and electronic device thereof | |
JP2007228233A (en) | Photographic device | |
JP6025555B2 (en) | Image processing apparatus, image processing method, and program | |
CN116051368B (en) | Image processing method and related device | |
US11165956B2 (en) | Imaging apparatus | |
US20230017498A1 (en) | Flexible region of interest color processing for cameras | |
US20240114251A1 (en) | Server device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |