WO2021167116A1 - Camera device and electronic device comprising same - Google Patents

Camera device and electronic device comprising same Download PDF

Info

Publication number
WO2021167116A1
WO2021167116A1 PCT/KR2020/002280 KR2020002280W WO2021167116A1 WO 2021167116 A1 WO2021167116 A1 WO 2021167116A1 KR 2020002280 W KR2020002280 W KR 2020002280W WO 2021167116 A1 WO2021167116 A1 WO 2021167116A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
actuator
color filter
array
filter array
Prior art date
Application number
PCT/KR2020/002280
Other languages
French (fr)
Korean (ko)
Inventor
권성두
이자용
김수인
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2020/002280 priority Critical patent/WO2021167116A1/en
Publication of WO2021167116A1 publication Critical patent/WO2021167116A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only

Definitions

  • the present invention relates to a camera device and an electronic device having the same, and more particularly, to a camera device capable of acquiring a high-resolution image, and an electronic device having the same.
  • the present invention relates to a camera device, and an electronic device having the same, and more particularly, to a camera device capable of acquiring a high-resolution image with low power using a MEMS-based actuator, and an electronic device having the same .
  • a camera device is a device for photographing an image.
  • a color filter and an image sensor are used in a camera device.
  • a Bayer type filter array is usually used, and according to this, data of R, G, B, and G can be obtained from each of the 4 pixels, respectively, so that in contrast to the incident light, a low-resolution image rather than a high-resolution image
  • An object of the present invention is to provide a camera device capable of acquiring a high-resolution image, and an electronic device having the same.
  • Another object of the present invention relates to a camera device capable of acquiring a high-resolution image with low power using a MEMS-based actuator, and an electronic device having the same.
  • a camera device and an electronic device having the same for achieving the above object include a lens device, a color filter array disposed under the lens device, and filtering light passing through the lens device; , a sensor array that converts light passing through the color filter array into an electrical signal, and a MEMS disposed between the color filter array and the sensor array and attached to the color filter array to move the color filter array in any one of four directions (MEMS) based actuators.
  • MEMS four directions
  • a camera device and an electronic device having the same include a lens device, a color filter array disposed under the lens device and filtering light passing through the lens device, and a color filter array It includes a sensor array that converts the light passing through it into an electrical signal, and a MEMS-based actuator attached to the lower part of the sensor array and moving the sensor array in any one of four directions.
  • a camera device and an electronic device having the same include a lens device, a color filter array disposed below the lens device, and filtering light passing through the lens device, and the color filter array
  • a sensor array that converts one light into an electrical signal, and a MEMS-based actuator disposed between the color filter array and the sensor array and attached to the color filter array to move the color filter array in any one of four directions includes Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power by using a MEMS-based actuator.
  • the color filter array includes a 4-pixel-based array
  • the actuator may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after sequential movement of the actuator, it is possible to obtain a high-resolution image.
  • the actuator may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after sequential movement of the actuator, it is possible to obtain a high-resolution image.
  • the color filter array may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
  • the color filter array includes a plurality of pixel-based arrays
  • the actuator moves sequentially according to the plurality of pixel-based arrays
  • the sensor array sequentially, for each pixel R signal, G signal, and B signal can be printed out. Accordingly, after sequential movement of the actuator, it is possible to obtain a high-resolution image.
  • the actuator may include a substrate and a plurality of combs formed on the substrate and supplying a moving force. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
  • the actuator may further include a support member formed on the substrate, and a spring formed on the substrate and connected to the support member. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
  • an electric signal is applied to at least one of the plurality of combs to shift the actuator in a first direction
  • an electric signal is applied to at least one of the plurality of combs so that the actuator is shifted in the second direction
  • an electric signal is applied to at least one of the plurality of combs to shift the actuator in the third direction
  • a fourth period after the third period an electrical signal may be applied to at least one of the plurality of combs to shift the actuator in the fourth direction. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
  • the camera device may further include an image processor that generates an RGB-based image by using an electrical signal obtained from the sensor array according to the sequential movement of the color filter array and the actuator. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
  • the color filter array includes a 4-pixel-based array
  • the image processor sequentially acquires R, G, and B data of one pixel, and uses the sequentially acquired R, G, and B data to perform RGB based images can be created. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
  • a camera device and an electronic device having the same include a lens device, a color filter array disposed under the lens device and filtering light passing through the lens device, and a color filter array It includes a sensor array that converts the light passing through it into an electrical signal, and a MEMS-based actuator attached to the lower part of the sensor array and moving the sensor array in any one of four directions. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power by using a MEMS-based actuator.
  • the camera device may further include an image processor that generates an RGB-based image by using an electrical signal obtained from the image sensor according to the sequential movement of the sensor array and the actuator. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
  • FIG. 1A is a perspective view of a mobile terminal, which is an example of an electronic device, viewed from the front according to an embodiment of the present invention.
  • FIG. 1B is a rear perspective view of the mobile terminal shown in FIG. 1A.
  • FIG. 2 is a block diagram of the mobile terminal of FIG. 1 .
  • FIG. 3A is an internal cross-sectional view of the camera device of FIG. 2 .
  • 3B is an example of an example of an internal block diagram of the camera device of FIG. 2 .
  • FIG. 3C is another example of an internal block diagram of the camera device of FIG. 2 .
  • FIG. 4 is a diagram illustrating a method of obtaining color data using a conventional color filter.
  • FIG. 5 is a diagram for explaining high-resolution image acquisition in the camera device of the present invention.
  • 6A to 6E are diagrams for explaining a method of operating a camera device according to an embodiment of the present invention.
  • FIGS. 7A to 7E are diagrams for explaining a method of operating a camera device according to another embodiment of the present invention.
  • FIGS. 6A to 7E are views illustrating the actuator of FIGS. 6A to 7E .
  • 9A to 9D are diagrams for explaining the operation of the actuator.
  • module and “part” for the components used in the following description are given simply in consideration of the ease of writing the present specification, and do not give a particularly important meaning or role by themselves. Accordingly, the terms “module” and “unit” may be used interchangeably.
  • FIG. 1A is a perspective view of a mobile terminal as an example of an electronic device according to an embodiment of the present invention, viewed from the front, and FIG. 1B is a rear perspective view of the mobile terminal shown in FIG. 1A.
  • the case constituting the exterior of the mobile terminal 100 is formed by a front case 100 - 1 and a rear case 100 - 2 .
  • Various electronic components may be embedded in the space formed by the front case 100-1 and the rear case 100-2.
  • the front case 100-1 includes a display 180, a first sound output module 153a, a first camera device 195a, a second camera device 195o, and first to third user input units 130a. , 130b, 130c) may be disposed.
  • a fourth user input unit 130d, a fifth user input unit 130e, and first to third microphones 123a, 123b, and 123c may be disposed on a side surface of the rear case 100-2.
  • the display 180 may operate as a touch screen by overlapping touch pads in a layered structure.
  • the first sound output module 153a may be implemented in the form of a receiver or a speaker.
  • the first camera device 195a may be implemented in a form suitable for capturing an image or a moving picture of a user or the like.
  • the microphone 123 may be implemented in a form suitable for receiving a user's voice, other sounds, and the like.
  • the first to fifth user input units 130a, 130b, 130c, 130d, and 130e and the sixth and seventh user input units 130f and 130g to be described later may be collectively referred to as a user input unit 130 .
  • the first to second microphones 123a and 123b are disposed on the upper side of the rear case 100-2, that is, on the upper side of the mobile terminal 100, for audio signal collection, and the third microphone 123c,
  • the lower side of the rear case 100-2 that is, the lower side of the mobile terminal 100, may be disposed to collect audio signals.
  • a third camera device 195b may be additionally mounted on the rear side of the rear case 100 - 2 , and the rear case Sixth and seventh user input units 130f and 130g and an interface unit 175 may be disposed on a side surface of 100 - 2 .
  • the third camera device 195b may have a photographing direction substantially opposite to that of the first camera device 195a, and may have different pixels from the first camera device 195a.
  • a flash (not shown) and a mirror (not shown) may be additionally disposed adjacent to the third camera device 195b.
  • another camera device may be further installed adjacent to the third camera device 195b and used for capturing a 3D stereoscopic image.
  • a second sound output module (not shown) may be additionally disposed in the rear case 100 - 2 .
  • the second sound output module may implement a stereo function together with the first sound output module 153a, and may be used for a call in a speakerphone mode.
  • a power supply unit 190 for supplying power to the mobile terminal 100 may be mounted on the rear case 100 - 2 side.
  • the power supply unit 190 is, for example, a rechargeable battery, and may be detachably coupled to the rear case 100 - 2 for charging or the like.
  • the fourth microphone 123d may be disposed on the front side of the rear case 100 - 2 , that is, on the back side of the mobile terminal 100 for audio signal collection.
  • FIG. 2 is a block diagram of the mobile terminal of FIG. 1 .
  • the mobile terminal 100 includes a wireless communication unit 110 , an A/V (Audio/Video) input unit 120 , a user input unit 130 , a sensing unit 140 , an output unit 150 , and a memory. 160 , an interface unit 175 , a control unit 170 , and a power supply unit 190 may be included.
  • A/V Audio/Video
  • the mobile terminal 100 includes a wireless communication unit 110 , an A/V (Audio/Video) input unit 120 , a user input unit 130 , a sensing unit 140 , an output unit 150 , and a memory. 160 , an interface unit 175 , a control unit 170 , and a power supply unit 190 may be included.
  • A/V Audio/Video
  • the wireless communication unit 110 may include a broadcast reception module 111 , a mobile communication module 113 , a wireless Internet module 115 , a short-range communication module 117 , and a GPS module 119 .
  • the broadcast reception module 111 may receive at least one of a broadcast signal and broadcast-related information from an external broadcast management server through a broadcast channel.
  • a broadcast signal and/or broadcast-related information received through the broadcast reception module 111 may be stored in the memory 160 .
  • the mobile communication module 113 may transmit/receive a wireless signal to/from at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include a voice call signal, a video call call signal, or various types of data according to text/multimedia message transmission/reception.
  • the wireless Internet module 115 refers to a module for wireless Internet access, and the wireless Internet module 115 may be built-in or external to the mobile terminal 100 .
  • the short-range communication module 117 refers to a module for short-range communication.
  • Bluetooth, RFID (Radio Frequency Identification), infrared data association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), etc. may be used as short-range communication technologies.
  • the Global Position System (GPS) module 119 receives location information from a plurality of GPS satellites.
  • the A/V (Audio/Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera device 195 , a microphone 123 , and the like.
  • the camera device 195 may process an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a photographing mode. Then, the processed image frame may be displayed on the display 180 .
  • the image frame processed by the camera device 195 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110 .
  • Two or more camera devices 195 may be provided according to the configuration of the electronic device.
  • the microphone 123 may receive an external audio signal by a microphone in a display off mode, for example, a call mode, a recording mode, or a voice recognition mode, and process it as electrical voice data.
  • a display off mode for example, a call mode, a recording mode, or a voice recognition mode
  • the microphones 123 may be disposed as a plurality of microphones 123 at different positions.
  • the audio signal received from each microphone may be processed by the controller 170 or the like.
  • the user input unit 130 generates key input data input by the user to control the operation of the electronic device.
  • the user input unit 130 may include a keypad, a dome switch, a touch pad (static pressure/capacitance), and the like, through which a command or information can be input by a user's pressing or touch manipulation.
  • a touch pad static pressure/capacitance
  • the touch pad forms a layer structure with the display 180 to be described later, it may be referred to as a touch screen.
  • the sensing unit 140 is configured to control the operation of the mobile terminal 100 by sensing the current state of the mobile terminal 100 such as an open/closed state of the mobile terminal 100 , a location of the mobile terminal 100 , and whether or not there is a user's contact. A sensing signal can be generated.
  • the sensing unit 140 may include a proximity sensor 141 , a pressure sensor 143 , a motion sensor 145 , a touch sensor 146 , and the like.
  • the proximity sensor 141 may detect the presence or absence of an object approaching the mobile terminal 100 or an object existing in the vicinity of the mobile terminal 100 without mechanical contact.
  • the proximity sensor 141 may detect a proximity object by using a change in an alternating current or static magnetic field, or a change in capacitance, or the like.
  • the pressure sensor 143 may detect whether pressure is applied to the mobile terminal 100 and the magnitude of the pressure.
  • the motion sensor 145 may detect a position or movement of the mobile terminal 100 using an acceleration sensor, a gyro sensor, or the like.
  • the touch sensor 146 may detect a touch input by a user's finger or a touch input by a specific pen.
  • the touch screen panel may include a touch sensor 146 for detecting location information and intensity information of a touch input.
  • the sensing signal sensed by the touch sensor 146 may be transmitted to the controller 170 .
  • the output unit 150 is for outputting an audio signal, a video signal, or an alarm signal.
  • the output unit 150 may include a display 180 , a sound output module 153 , an alarm unit 155 , and a haptic module 157 .
  • the display 180 displays and outputs information processed by the mobile terminal 100 .
  • a user interface (UI) or graphic user interface (GUI) related to a call is displayed.
  • the captured or received images may be displayed individually or simultaneously, and a UI and a GUI may be displayed.
  • the display 180 and the touchpad form a mutually layered structure and are configured as a touch screen
  • the display 180 may also be used as an input device capable of inputting information by a user's touch in addition to an output device.
  • the sound output module 153 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 153 outputs an audio signal related to a function performed in the mobile terminal 100, for example, a call signal reception sound, a message reception sound, and the like.
  • the sound output module 153 may include a speaker, a buzzer, and the like.
  • the alarm unit 155 outputs a signal for notifying the occurrence of an event in the mobile terminal 100 .
  • the alarm unit 155 outputs a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal.
  • the signal may be output in the form of vibration.
  • the haptic module 157 generates various tactile effects that the user can feel.
  • a representative example of the tactile effect generated by the haptic module 157 is a vibration effect.
  • the haptic module 157 When the haptic module 157 generates vibration as a tactile effect, the intensity and pattern of the vibration generated by the haptic module 157 may be converted, and different vibrations may be synthesized and outputted or output sequentially.
  • the memory 160 may store a program for processing and control of the controller 170, and has a function for temporary storage of input or output data (eg, phone book, message, still image, video, etc.). can also be done
  • the interface unit 175 functions as an interface with all external devices connected to the mobile terminal 100 .
  • the interface unit 175 may receive data or receive power from an external device and transmit it to each component inside the mobile terminal 100 , and may allow data inside the mobile terminal 100 to be transmitted to an external device.
  • the controller 170 generally controls the overall operation of the mobile terminal 100 by controlling the operation of each unit. For example, it may perform related control and processing for voice calls, data communications, video calls, and the like. Also, the controller 170 may include a multimedia playback module 181 for playing multimedia. The multimedia playback module 181 may be configured as hardware in the control unit 170 , or may be configured as software separately from the control unit 170 . Meanwhile, the controller 170 may include an application processor (not shown) for driving an application. Alternatively, the application processor (not shown) may be provided separately from the controller 170 .
  • the power supply unit 190 may receive external power and internal power under the control of the control unit 170 to supply power necessary for the operation of each component.
  • FIG. 3A is an internal cross-sectional view of the camera device of FIG. 2 .
  • FIG. 3A is an example of a cross-sectional view of a camera device 195 .
  • the camera device 195 may include an aperture 194 , a lens device 193 , and an image sensor 820 .
  • the diaphragm 194 may open and close the light incident to the lens device 193 .
  • the image sensor 820 may include an RGB filter 915 and a sensor array 911 that converts an optical signal into an electrical signal to sense RGB colors.
  • the image sensor 820 may sense and output each RGB image.
  • FIG. 3B is an example of an internal block diagram of the camera device of FIG. 2 .
  • FIG. 3B is an example of a block diagram of a camera device 195m according to an embodiment of the present invention.
  • the camera device 195m may include an aperture 194 , a lens device 193 , an image sensor 820 , and an image processor 830 .
  • the diaphragm 194 may open and close the light incident to the lens device 193 .
  • the lens device 193 receives the incident light from the diaphragm 194 and may include a plurality of lenses that are adjusted for variable focus.
  • the image sensor 820 is disposed under the lens device 193 , and includes a color filter array 915 that filters light passing through the lens device 193 , and a color filter array ( A sensor array 911 that converts light passing through 915 into an electrical signal, is disposed between the color filter array 915 and the sensor array 911, is attached to the color filter array 915, and the color filter array ( It may include a MEMS-based actuator 912 for moving the 915 in any one of four directions.
  • the color filter array 915 includes a 4-pixel-based array
  • the actuator 912 may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the actuator 912 may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the color filter array 915 may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
  • the color filter array 915 includes a plurality of pixel-based arrays, the actuator 912 sequentially moves according to the plurality of pixel-based arrays, and the sensor array 911 sequentially moves each pixel Star R signal, G signal, and B signal can be output. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the color filter array 915 includes a 4-pixel-based array
  • the image processor 830 sequentially acquires R, G, and B data of one pixel, and sequentially acquires R, G, and B data. Using the data, an RGB-based image can be created. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
  • the image processor 830 may generate an RGB image based on an electrical signal from the image sensor 820 .
  • the image processor 830 may generate an RGB-based image by using an electrical signal obtained from the sensor array 911 according to the sequential movement of the color filter array 915 and the actuator 912 . . Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
  • the RGB image from the image processor 830 may be transmitted to the controller 170 of the mobile terminal 100 .
  • the controller 170 of the mobile terminal 100 may output a control signal to the lens device 193 for movement of a lens in the lens device 193 .
  • a control signal for auto-focusing may be output to the lens device 193 .
  • the controller 170 of the mobile terminal 100 may output an iris control signal for controlling the opening/closing of the diaphragm 194 to the diaphragm 194 .
  • FIG. 3C is another example of an internal block diagram of the camera device of FIG. 2 .
  • the camera device 195n of FIG. 3C may include an aperture 194 , a lens device 193 , an image sensor 820 , and an image processor 830 .
  • the diaphragm 194 may open and close the light incident to the lens device 193 .
  • the lens device 193 receives the incident light from the diaphragm 194 and may include a plurality of lenses that are adjusted for variable focus.
  • the image sensor 820 includes a color filter array 915 for filtering light passing through the lens device 193 and light passing through the color filter array 915 . It includes a sensor array 911 that converts an electrical signal, and a MEMS-based actuator 912 attached to the lower portion of the sensor array 911 and moving the sensor array 911 in any one of four directions. do. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator 912 .
  • the color filter array 915 includes a 4-pixel-based array
  • the actuator 912 may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the actuator 912 may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the color filter array 915 may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
  • the color filter array 915 includes a plurality of pixel-based arrays, the actuator 912 sequentially moves according to the plurality of pixel-based arrays, and the sensor array 911 sequentially moves each pixel Star R signal, G signal, and B signal can be output. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the color filter array 915 includes a 4-pixel-based array
  • the image processor 830 sequentially acquires R, G, and B data of one pixel, and sequentially acquires R, G, and B data. Using the data, an RGB-based image can be created. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
  • the image processor 830 may generate an RGB image based on an electrical signal from the image sensor 820 .
  • the image processor 830 may generate an RGB-based image by using an electrical signal obtained from the image sensor 911 according to the sequential movement of the sensor array 911 and the actuator 912 . Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
  • FIG. 4 is a diagram illustrating a method of obtaining color data using a conventional color filter.
  • a color filter array (BAF) is used for a color image of a sensor array.
  • color filter array BAF a Bayer type filter array is exemplified.
  • the Bayer type filter array can obtain R, G, B, and G data from 4 pixels, respectively, there is a disadvantage in that only a low-resolution image is obtained, not a high-resolution image, in contrast to the incident light.
  • G data (BAFb) for , B data (BAFc) for a third pixel positioned below the fourth pixel, and G data (BAFd) for a second pixel positioned under the first pixel After correction using data of adjacent pixels, corresponding color data must be secured. Accordingly, there is a disadvantage of acquiring the image 410 of low resolution.
  • the present invention proposes a method for obtaining all R, G, B, and G data of 4 pixels without correction using data of adjacent pixels.
  • an embodiment of the present invention proposes a method of sequentially securing R, G, B, and G data of 4 pixels by sequentially moving the color filter array.
  • FIG. 5 is a diagram for explaining high-resolution image acquisition in the camera device of the present invention.
  • the color filter array PXF is a Bayer type filter array, and can obtain R, G, B, and G data from 4 pixels, respectively.
  • the first pixel is red
  • the second pixel that is below the first pixel is red. It is exemplified that data of green color, blue color in the third pixel to the right of the second pixel, and green data in the fourth pixel above the third pixel are secured.
  • the color filter array PXF moves by one pixel in the downward direction, and then the color filter array PXF and the sensor array (not shown) are used.
  • the color filter array PXF and the sensor array (not shown) are used.
  • the color filter array PXF moves by one pixel in the right direction, and then the color filter array PXF and the sensor array (not shown) are used.
  • the color filter array PXF and the sensor array (not shown) are used.
  • the color filter array PXF moves by one pixel in the upper direction, and then the color filter array PXF and the sensor array (not shown) are used.
  • the color filter array PXF and the sensor array (not shown) are used.
  • R, G, B, and G data are all secured in the first pixel, and R, G, B, G data is stored in the second pixel. All R, G, B, and G data are secured in the third pixel, and all R, G, B, and G data are secured in the fourth pixel.
  • the image processor 830 adds up the electrical signals from the image sensor 820 during the first to fourth time points, and produces a high-resolution image 510 without separate color correction or color interpolation. be able to create
  • the movement of the color filter array PXF at the first to fourth time points T1 to T4 illustrated in FIG. 5 is downward, rightward, upward, and leftward with respect to the first pixel. As one cycle, it may be performed periodically.
  • the color filter array PXF selects a downward direction, a right direction, an upward direction, and a left direction with respect to the first pixel. In one cycle, it can move periodically.
  • the color filter array PXF is fixed, and the image sensor 820 moves downward and rightward with respect to the first pixel at first to fourth time points T1 to T4. It is also possible to periodically move by using the upward and leftward directions as one cycle.
  • the controller 170 of the mobile terminal 100 senses the motion from the motion sensor 145 to detect the movement of the camera device 195 in the mobile terminal 100, and when the movement is greater than a predetermined value, The periodic movement of the color filter array PXF or the periodic movement of the image sensor 820 may be controlled to be performed.
  • the controller 170 of the mobile terminal 100 senses the motion from the motion sensor 145 to detect the movement of the camera device 195 in the mobile terminal 100, and when the movement is less than a predetermined value, For example, when the mobile terminal 100 is in a fixed state for photographing, the periodic movement of the color filter array PXF or the periodic movement of the image sensor 820 is performed only for a predetermined frame period or period, and , you can also control it not to be performed after that. Accordingly, it is also possible to reduce power consumption.
  • 6A to 6E are diagrams for explaining a method of operating a camera device according to an embodiment of the present invention.
  • a camera device 195m includes a lens device 193 and a lower portion of the lens device 193 and filters light passing through the lens device 193 .
  • the color filter array 915 includes a 4-pixel-based array
  • the actuator 912 may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the actuator 912 may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the color filter array 915 may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
  • the color filter array 915 includes a plurality of pixel-based arrays, the actuator 912 sequentially moves according to the plurality of pixel-based arrays, and the sensor array 911 sequentially moves each pixel Star R signal, G signal, and B signal can be output. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the color filter array 915 includes a 4-pixel-based array
  • the image processor 830 sequentially acquires R, G, and B data of one pixel, and sequentially acquires R, G, and B data. Using the data, an RGB-based image can be created. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
  • FIG. 6A illustrates a state in which the color filter array 915 and the actuator 912 are fixed at the first time point T1 .
  • the sensor array 911 has red in the first pixel, green in the second pixel below the first pixel, blue in the third pixel on the right of the second pixel, Green data may be obtained from the fourth pixel that is above the third pixel.
  • FIG. 6B illustrates that the color filter array 915 and the actuator 912 move by one pixel in the downward direction at a second time point T2 after the first time point T1 .
  • the sensor array 911 is green in the first pixel, red in the second pixel below the first pixel, green in the third pixel to the right of the second pixel, Blue data may be obtained from the fourth pixel that is above the third pixel.
  • FIG. 6C illustrates that the color filter array 915 and the actuator 912 move by one pixel in the right direction at a third time point T3 after the second time point T2 .
  • the sensor array 911 has blue in the first pixel, green in the second pixel below the first pixel, red in the third pixel to the right of the second pixel, Green data may be obtained from the fourth pixel that is above the third pixel.
  • FIG. 6D illustrates that the color filter array 915 and the actuator 912 move by one pixel in the upper direction at a fourth time point T4 after the third time point T3 .
  • the sensor array 911 is green in the first pixel, blue in the second pixel below the first pixel, green in the third pixel right of the second pixel, Red data may be obtained from the fourth pixel that is above the third pixel.
  • FIG. 6E illustrates that the color filter array 915 and the actuator 912 move by one pixel in the left direction at a fifth time point T5 after the fourth time point T4 .
  • the fifth time point T5 is the same as the first time point T1 , and the sensor array 911 is red in the first pixel, green in the second pixel below the first pixel, and the third time in the right side of the second pixel. It is possible to secure blue data in the pixel and green data in the fourth pixel that is above the third pixel.
  • R, G, B, and G data are all secured in the first pixel, and R, G, B, G data is stored in the second pixel. All R, G, B, and G data are secured in the third pixel, and all R, G, B, and G data are secured in the fourth pixel.
  • the image processor 830 adds up the electrical signals from the image sensor 820 during the first to fourth time points, and produces a high-resolution image 510 without separate color correction or color interpolation. be able to create
  • the movement of the color filter array 915 at the first to fourth time points T1 to T4 shown in FIG. 5 is downward, rightward, upward, and leftward with respect to the first pixel. As one cycle, it may be performed periodically.
  • the color filter array 915 selects a downward direction, a right direction, an upward direction, and a left direction with respect to the first pixel. In one cycle, it can move periodically.
  • FIGS. 7A to 7E are diagrams for explaining a method of operating a camera device according to another embodiment of the present invention.
  • a camera device 195n includes a lens device 193 and a lower portion of the lens device 193 and filters light passing through the lens device 193 .
  • a color filter array 915 that uses a color filter array 915 to It includes a MEMS-based actuator 912 that moves in any one of the directions. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator 912 .
  • the color filter array 915 includes a 4-pixel-based array
  • the actuator 912 may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the actuator 912 may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the color filter array 915 may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
  • the color filter array 915 includes a plurality of pixel-based arrays, the actuator 912 sequentially moves according to the plurality of pixel-based arrays, and the sensor array 911 sequentially moves each pixel Star R signal, G signal, and B signal can be output. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
  • the color filter array 915 includes a 4-pixel-based array
  • the image processor 830 sequentially acquires R, G, and B data of one pixel, and sequentially acquires R, G, and B data. Using the data, an RGB-based image can be created. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
  • FIG. 7A illustrates a state in which the color filter array 915 and the actuator 912 are fixed at the first time point T1 .
  • the sensor array 911 has red in the first pixel, green in the second pixel below the first pixel, blue in the third pixel on the right of the second pixel, Green data may be obtained from the fourth pixel that is above the third pixel.
  • FIG. 7B illustrates that the sensor array 911 and the actuator 912 move by one pixel in the downward direction at a second time point T2 after the first time point T1 .
  • the sensor array 911 is green in the first pixel, red in the second pixel below the first pixel, green in the third pixel to the right of the second pixel, Blue data may be obtained from the fourth pixel that is above the third pixel.
  • FIG. 7C illustrates that the sensor array 911 and the actuator 912 move by one pixel in the right direction at a third time point T3 after the second time point T2.
  • the sensor array 911 has blue in the first pixel, green in the second pixel below the first pixel, red in the third pixel to the right of the second pixel, Green data may be obtained from the fourth pixel that is above the third pixel.
  • FIG. 7D illustrates that the sensor array 911 and the actuator 912 move by one pixel in the upper direction at a fourth time point T4 after the third time point T3 .
  • the sensor array 911 is green in the first pixel, blue in the second pixel below the first pixel, green in the third pixel right of the second pixel, Red data may be obtained from the fourth pixel that is above the third pixel.
  • FIG. 7E illustrates that the sensor array 911 and the actuator 912 move by one pixel in the left direction at a fifth time point T5 after the fourth time point T4 .
  • the fifth time point T5 is the same as the first time point T1 , and the sensor array 911 is red in the first pixel, green in the second pixel below the first pixel, and the third time in the right side of the second pixel. It is possible to secure blue data in the pixel and green data in the fourth pixel that is above the third pixel.
  • R, G, B, and G data are all secured in the first pixel, and R, G, B, G data is stored in the second pixel. All R, G, B, and G data are secured in the third pixel, and all R, G, B, and G data are secured in the fourth pixel.
  • the image processor 830 adds up the electrical signals from the image sensor 820 during the first to fourth time points, and produces a high-resolution image 510 without separate color correction or color interpolation. be able to create
  • the movement of the sensor array 911 and the actuator 912 at the first to fourth time points T1 to T4 shown in FIG. 5 is downward, rightward, upward, and one cycle in the left direction, and may be performed periodically.
  • the color filter array 915 selects a downward direction, a right direction, an upward direction, and a left direction with respect to the first pixel. In one cycle, it can move periodically.
  • FIGS. 6A to 7E are diagrams for explaining the operation of the actuator.
  • the actuator 912 is preferably a MEMS-based actuator that can be implemented in a limited space.
  • the actuator 912 may include a substrate SLC including a plurality of regions BKa to BKd and frames FRa to FRd surrounding the substrate SLC.
  • the color filter array 915 of FIGS. 6A to 6E may be attached on the substrate SLC and the frames FRa to FRd surrounding the substrate SLC. Accordingly, the color filter array 915 and the actuator 912 can be shifted in any one of four directions.
  • the sensor array 911 of FIGS. 7A to 7E may be attached on the substrate SLC and the frames FRa to FRd surrounding the substrate SLC. Accordingly, the sensor array 911 and the actuator 912 can be shifted in any one of four directions.
  • the plurality of regions BKa to BKd formed on the substrate SLC may include a plurality of combs extending in a vertical direction or a plurality of combs extending in a horizontal direction, respectively.
  • the actuator 912 may include a plurality of combs for supplying moving force based on electrostatic or electromagnetic force formed on the substrate SLC.
  • a first comb (CMBMa) among the plurality of combs, as a movable comb, may provide a moving force based on an electrostatic force or an electromagnetic force.
  • the second comb CMBNa among the plurality of combs is disposed to correspond to the first comb CMBMa, and may be a fixed comb.
  • the actuator 912 may further include a support member SPa formed on the substrate SLC and a spring MSa formed on the substrate SLC and connected to the support member.
  • an electric signal is applied to at least one of the plurality of combs CMBNa, CMBMa to shift the actuator 912 in the first direction
  • the plurality of combs An electric signal is applied to at least one of (CMBNa, CMBMa) to shift the actuator 912 in the second direction
  • electricity is applied to at least one of the plurality of combs (CMBNa, CMBMa)
  • a signal is applied to shift the actuator 912 in a third direction
  • an electric signal is applied to at least one of the plurality of combs CMBNa and CMBMa to cause the actuator 912 to be shifted in the fourth direction 912 may be shifted. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
  • the moving force generated by the plurality of combs is transmitted to the entire substrate SLC through the spring MSa, and accordingly, the frames FRa to FRd and the substrate SLC are separated. You can move in either direction.
  • the camera device described with reference to FIGS. 3A to 9D may be employed in the mobile terminal 100, vehicle, TV, drone, robot, robot cleaner, door, etc. of FIG. 2 , and may eventually be employed in various electronic devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

The present invention relates to a camera device and an electronic device comprising same. The camera device according to an embodiment of the present invention comprises: a lens device; a color filter array which is disposed below the lens device to filter light passed through the lens device; a sensor array which converts light passed through the color filter array into an electrical signal; and a MEMS-based actuator which is disposed between the color filter array and the sensor array and is attached to the color filter array to move the color filter array in any one of four directions. Therefore, an image with high resolution can be acquired.

Description

카메라 장치, 및 이를 구비하는 전자 기기Camera device and electronic device having same
본 발명은 카메라 장치, 및 이를 구비하는 전자 기기에 관한 것이며, 더욱 상세하게는 고해상도의 이미지를 획득할 수 있는 카메라 장치, 및 이를 구비하는 전자 기기에 관한 것이다.The present invention relates to a camera device and an electronic device having the same, and more particularly, to a camera device capable of acquiring a high-resolution image, and an electronic device having the same.
한편, 본 발명은 카메라 장치, 및 이를 구비하는 전자 기기에 관한 것이며, 더욱 상세하게는 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있는 카메라 장치, 및 이를 구비하는 전자 기기에 관한 것이다.Meanwhile, the present invention relates to a camera device, and an electronic device having the same, and more particularly, to a camera device capable of acquiring a high-resolution image with low power using a MEMS-based actuator, and an electronic device having the same .
카메라 장치는, 이미지를 촬영하기 위한 장치이다. 이미지 촬영을 위해, 카메라 장치 내에 컬러 필터와 이미지 센서가 활용되고 있다.A camera device is a device for photographing an image. In order to take an image, a color filter and an image sensor are used in a camera device.
한편, 컬러 필터로, 통상 베이어 타입 필터 어레이를 사용하며, 이에 의하면, 4 픽셀에서 각각 R, G, B, G의 데이터를 각각 얻을 수 있게 되므로, 입사되는 광 대비하여, 고해상도의 이미지가 아닌 저해상도의 이미지만을 획득하는 단점이 있다.On the other hand, as a color filter, a Bayer type filter array is usually used, and according to this, data of R, G, B, and G can be obtained from each of the 4 pixels, respectively, so that in contrast to the incident light, a low-resolution image rather than a high-resolution image There is a disadvantage of acquiring only an image of
즉, 1 픽셀에서의 R, G, B 데이터를 얻을 수 없으므로, 인접 픽셀의 데이터를 이용하여 보정 후, 해당하는 컬러 데이터를 확보하여야 하므로, 저해상도의 이미지를 획득한다는 단점이 있다.That is, since R, G, and B data of one pixel cannot be obtained, corresponding color data must be obtained after correction using data of adjacent pixels, so that a low-resolution image is obtained.
본 발명의 목적은, 고해상도의 이미지를 획득할 수 있는 카메라 장치, 및 이를 구비하는 전자 기기를 제공함에 있다.An object of the present invention is to provide a camera device capable of acquiring a high-resolution image, and an electronic device having the same.
본 발명의 다른 목적은, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있는 카메라 장치, 및 이를 구비하는 전자 기기에 관한 것이다.Another object of the present invention relates to a camera device capable of acquiring a high-resolution image with low power using a MEMS-based actuator, and an electronic device having the same.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 카메라 장치, 및 이를 구비하는 전자 기기는, 렌즈 장치와, 렌즈 장치의 하부에 배치되며, 렌즈 장치를 통과한 광을 필터링하는 컬러 필터 어레이와, 컬러 필터 어레이를 통과한 광을 전기 신호로 변환하는 센서 어레이와, 컬러 필터 어레이와 센서 어레이 사이에 배치되며, 컬러 필터 어레이에 부착되어, 컬러 필터 어레이를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터를 포함한다.A camera device and an electronic device having the same according to an embodiment of the present invention for achieving the above object include a lens device, a color filter array disposed under the lens device, and filtering light passing through the lens device; , a sensor array that converts light passing through the color filter array into an electrical signal, and a MEMS disposed between the color filter array and the sensor array and attached to the color filter array to move the color filter array in any one of four directions (MEMS) based actuators.
한편, 본 발명의 다른 실시예에 따른 카메라 장치, 및 이를 구비하는 전자 기기는, 렌즈 장치와, 렌즈 장치의 하부에 배치되며, 렌즈 장치를 통과한 광을 필터링하는 컬러 필터 어레이와, 컬러 필터 어레이를 통과한 광을 전기 신호로 변환하는 센서 어레이와, 센서 어레이의 하부에 부착되며, 센서 어레이를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터를 포함한다.Meanwhile, a camera device and an electronic device having the same according to another embodiment of the present invention include a lens device, a color filter array disposed under the lens device and filtering light passing through the lens device, and a color filter array It includes a sensor array that converts the light passing through it into an electrical signal, and a MEMS-based actuator attached to the lower part of the sensor array and moving the sensor array in any one of four directions.
본 발명의 일 실시예에 따른 카메라 장치, 및 이를 구비하는 전자 기기는, 렌즈 장치와, 렌즈 장치의 하부에 배치되며, 렌즈 장치를 통과한 광을 필터링하는 컬러 필터 어레이와, 컬러 필터 어레이를 통과한 광을 전기 신호로 변환하는 센서 어레이와, 컬러 필터 어레이와 센서 어레이 사이에 배치되며, 컬러 필터 어레이에 부착되어, 컬러 필터 어레이를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터를 포함한다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다. 특히, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. A camera device and an electronic device having the same according to an embodiment of the present invention include a lens device, a color filter array disposed below the lens device, and filtering light passing through the lens device, and the color filter array A sensor array that converts one light into an electrical signal, and a MEMS-based actuator disposed between the color filter array and the sensor array and attached to the color filter array to move the color filter array in any one of four directions includes Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power by using a MEMS-based actuator.
한편, 컬러 필터 어레이는, 4 픽셀 기반의 어레이를 포함하며, 액츄에이터는, 4 픽셀 기반의 어레이에 따라, 순차적으로 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array includes a 4-pixel-based array, and the actuator may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after sequential movement of the actuator, it is possible to obtain a high-resolution image.
한편, 액츄에이터는, 4 픽셀 기반의 어레이에 따라, 순차적으로 1 픽셀씩 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the actuator may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after sequential movement of the actuator, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이는, RGGB 기반의 4 픽셀 기반의 어레이를 포함할 수 있다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이는, 복수 픽셀 기반의 어레이를 포함하며, 액츄에이터는, 복수 픽셀 기반의 어레이에 따라, 순차적으로 이동하며, 센서 어레이는, 순차적으로, 각 픽셀 별 R 신호, G 신호, B 신호를 출력할 수 있다. 이에 따라, 액츄에이터의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.On the other hand, the color filter array includes a plurality of pixel-based arrays, the actuator moves sequentially according to the plurality of pixel-based arrays, and the sensor array, sequentially, for each pixel R signal, G signal, and B signal can be printed out. Accordingly, after sequential movement of the actuator, it is possible to obtain a high-resolution image.
한편, 액츄에이터는, 기판과, 기판 상에 형성되며, 이동력을 공급하는 복수의 콤(comb)을 포함할 수 있다. 이에 따라, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the actuator may include a substrate and a plurality of combs formed on the substrate and supplying a moving force. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
한편, 액츄에이터는, 기판 상에 형성되는 지지 부재와, 기판 상에 형성되며 지지부재에 연결되는 스프링을 더 포함할 수 있다. 이에 따라, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the actuator may further include a support member formed on the substrate, and a spring formed on the substrate and connected to the support member. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
한편, 제1 기간에, 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제1 방향으로 액츄에이터가 시프트되며, 제1 기간 이후의 제2 기간에, 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제2 방향으로 액츄에이터가 시프트되며, 제2 기간 이후의 제3 기간에, 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제3 방향으로 액츄에이터가 시프트되며, 제3 기간 이후의 제4 기간에, 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제4 방향으로 액츄에이터가 시프트될 수 있다. 이에 따라, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, in a first period, an electric signal is applied to at least one of the plurality of combs to shift the actuator in a first direction, and in a second period after the first period, an electric signal is applied to at least one of the plurality of combs so that the actuator is shifted in the second direction, and in a third period after the second period, an electric signal is applied to at least one of the plurality of combs to shift the actuator in the third direction, and a fourth period after the third period In the period, an electrical signal may be applied to at least one of the plurality of combs to shift the actuator in the fourth direction. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
한편, 카메라 장치는, 컬러 필터 어레이와 액츄에이터의 순차적인 이동에 따라, 센서 어레이에서 획득되는 전기 신호를 이용하여, RGB 기반의 이미지를 생성하는 이미지 프로세서를 더 포함할 수 있다. 이에 따라, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the camera device may further include an image processor that generates an RGB-based image by using an electrical signal obtained from the sensor array according to the sequential movement of the color filter array and the actuator. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
한편, 컬러 필터 어레이는, 4 픽셀 기반의 어레이를 포함하며, 이미지 프로세서는, 1 픽셀의 R, G, B 데이터를 순차적으로 획득하고, 순차적으로 획득되는 R, G, B 데이터를 이용하여, RGB 기반의 이미지를 생성할 수 있다. 이에 따라, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the color filter array includes a 4-pixel-based array, and the image processor sequentially acquires R, G, and B data of one pixel, and uses the sequentially acquired R, G, and B data to perform RGB based images can be created. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
한편, 본 발명의 다른 실시예에 따른 카메라 장치, 및 이를 구비하는 전자 기기는, 렌즈 장치와, 렌즈 장치의 하부에 배치되며, 렌즈 장치를 통과한 광을 필터링하는 컬러 필터 어레이와, 컬러 필터 어레이를 통과한 광을 전기 신호로 변환하는 센서 어레이와, 센서 어레이의 하부에 부착되며, 센서 어레이를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터를 포함한다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다. 특히, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, a camera device and an electronic device having the same according to another embodiment of the present invention include a lens device, a color filter array disposed under the lens device and filtering light passing through the lens device, and a color filter array It includes a sensor array that converts the light passing through it into an electrical signal, and a MEMS-based actuator attached to the lower part of the sensor array and moving the sensor array in any one of four directions. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power by using a MEMS-based actuator.
한편, 카메라 장치는, 센서 어레이와 액츄에이터의 순차적인 이동에 따라, 이미지 센서에서 획득되는 전기 신호를 이용하여, RGB 기반의 이미지를 생성하는 이미지 프로세서를 더 포함할 수 있다. 이에 따라, 멤스 기반 액츄에이터를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the camera device may further include an image processor that generates an RGB-based image by using an electrical signal obtained from the image sensor according to the sequential movement of the sensor array and the actuator. Accordingly, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator.
도 1a은 본 발명의 일 실시예에 따른 전자 기기의 일예인 이동 단말기를 전면에서 바라본 사시도이다.1A is a perspective view of a mobile terminal, which is an example of an electronic device, viewed from the front according to an embodiment of the present invention.
도 1b는 도 1a에 도시한 이동 단말기의 후면 사시도이다. 1B is a rear perspective view of the mobile terminal shown in FIG. 1A.
도 2는 도 1의 이동 단말기의 블럭도이다.FIG. 2 is a block diagram of the mobile terminal of FIG. 1 .
도 3a는 도 2의 카메라 장치의 내부 단면도이다.FIG. 3A is an internal cross-sectional view of the camera device of FIG. 2 .
도 3b는 도 2의 카메라 장치의 내부 블록도의 일예의 일예이다.3B is an example of an example of an internal block diagram of the camera device of FIG. 2 .
도 3c는 도 2의 카메라 장치의 내부 블록도의 다른 예이다.FIG. 3C is another example of an internal block diagram of the camera device of FIG. 2 .
도 4는 종래의 컬러 필터에 의한 색상 데이터 획득 방법을 도시하는 도면이다.4 is a diagram illustrating a method of obtaining color data using a conventional color filter.
도 5는 본 발명의 카메라 장치에서의 고해상도 이미지 획득을 설명하는 도면이다.5 is a diagram for explaining high-resolution image acquisition in the camera device of the present invention.
도 6a 내지 도 6e는 본 발명의 일 실시예에 따른 카메라 장치의 동작 방법을 설명하는 도면이다.6A to 6E are diagrams for explaining a method of operating a camera device according to an embodiment of the present invention.
도 7a 내지 도 7e는 본 발명의 다른 실시예에 따른 카메라 장치의 동작 방법을 설명하는 도면이다.7A to 7E are diagrams for explaining a method of operating a camera device according to another embodiment of the present invention.
도 8은 도 6a 내지 도 7e의 액츄에이터를 도시한 도면이다.8 is a view illustrating the actuator of FIGS. 6A to 7E .
도 9a 내지 도 9d는 액츄에이터의 동작을 설명하는 도면이다.9A to 9D are diagrams for explaining the operation of the actuator.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "module" and "part" for the components used in the following description are given simply in consideration of the ease of writing the present specification, and do not give a particularly important meaning or role by themselves. Accordingly, the terms “module” and “unit” may be used interchangeably.
도 1a은 본 발명의 일 실시예에 따른 전자 기기의 일예인 이동 단말기를 전면에서 바라본 사시도이고, 도 1b는 도 1a에 도시한 이동 단말기의 후면 사시도이다. 1A is a perspective view of a mobile terminal as an example of an electronic device according to an embodiment of the present invention, viewed from the front, and FIG. 1B is a rear perspective view of the mobile terminal shown in FIG. 1A.
도 1a을 참조하면, 이동 단말기(100)의 외관을 이루는 케이스는, 프론트 케이스(100-1)와 리어 케이스(100-2)에 의해 형성된다. 프론트 케이스(100-1)와 리어 케이스(100-2)에 의해 형성된 공간에는 각종 전자부품들이 내장될 수 있다.Referring to FIG. 1A , the case constituting the exterior of the mobile terminal 100 is formed by a front case 100 - 1 and a rear case 100 - 2 . Various electronic components may be embedded in the space formed by the front case 100-1 and the rear case 100-2.
구체적으로 프론트 케이스(100-1)에는 디스플레이(180), 제1 음향출력모듈(153a), 제1 카메라 장치(195a), 제2 카메라 장치(195o), 및 제1 내지 제3 사용자 입력부(130a, 130b, 130c)가 배치될 수 있다. 그리고, 리어 케이스(100-2)의 측면에는 제4 사용자 입력부(130d), 제5 사용자 입력부(130e), 및 제1 내지 제3 마이크(123a, 123b, 123c)가 배치될 수 있다.Specifically, the front case 100-1 includes a display 180, a first sound output module 153a, a first camera device 195a, a second camera device 195o, and first to third user input units 130a. , 130b, 130c) may be disposed. In addition, a fourth user input unit 130d, a fifth user input unit 130e, and first to third microphones 123a, 123b, and 123c may be disposed on a side surface of the rear case 100-2.
디스플레이(180)는 터치패드가 레이어 구조로 중첩됨으로써, 디스플레이(180)가 터치스크린으로 동작할 수 있다.The display 180 may operate as a touch screen by overlapping touch pads in a layered structure.
제1 음향출력 모듈(153a)은 리시버 또는 스피커의 형태로 구현될 수 있다. 제1 카메라 장치(195a)는 사용자 등에 대한 이미지 또는 동영상을 촬영하기에 적절한 형태로 구현될 수 있다. 그리고, 마이크(123)는 사용자의 음성, 기타 소리 등을 입력받기 적절한 형태로 구현될 수 있다.The first sound output module 153a may be implemented in the form of a receiver or a speaker. The first camera device 195a may be implemented in a form suitable for capturing an image or a moving picture of a user or the like. In addition, the microphone 123 may be implemented in a form suitable for receiving a user's voice, other sounds, and the like.
제1 내지 제5 사용자 입력부(130a, 130b, 130c, 130d, 130e)와 후술하는 제6 및 제7 사용자 입력부(130f, 130g)는 사용자 입력부(130)라 통칭할 수 있다.The first to fifth user input units 130a, 130b, 130c, 130d, and 130e and the sixth and seventh user input units 130f and 130g to be described later may be collectively referred to as a user input unit 130 .
제1 내지 제2 마이크(123a, 123b)는, 리어 케이스(100-2)의 상측, 즉, 이동 단말기(100)의 상측에, 오디오 신호 수집을 위해 배치되며, 제3 마이크(123c)는, 리어 케이스(100-2)의 하측, 즉, 이동 단말기(100)의 하측에, 오디오 신호 수집을 위해 배치될 수 있다. The first to second microphones 123a and 123b are disposed on the upper side of the rear case 100-2, that is, on the upper side of the mobile terminal 100, for audio signal collection, and the third microphone 123c, The lower side of the rear case 100-2, that is, the lower side of the mobile terminal 100, may be disposed to collect audio signals.
도 1b를 참조하면, 리어 케이스(100-2)의 후면에는 제3 카메라 장치(195b), 제4 카메라 장치(195c), 및 제4 마이크(미도시)가 추가로 장착될 수 있으며, 리어 케이스(100-2)의 측면에는 제6 및 제7 사용자 입력부(130f, 130g)와, 인터페이스부(175)가 배치될 수 있다.Referring to FIG. 1B , a third camera device 195b , a fourth camera device 195c , and a fourth microphone (not shown) may be additionally mounted on the rear side of the rear case 100 - 2 , and the rear case Sixth and seventh user input units 130f and 130g and an interface unit 175 may be disposed on a side surface of 100 - 2 .
제3 카메라 장치(195b)는 제1 카메라 장치(195a)와 실질적으로 반대되는 촬영 방향을 가지며, 제1 카메라 장치(195a)와 서로 다른 화소를 가질 수 있다. 제3 카메라 장치(195b)에 인접하게는 플래쉬(미도시)와 거울(미도시)이 추가로 배치될 수도 있다. 또한, 제3 카메라 장치(195b) 인접하게 다른 카메라 장치를 더 설치하여 3차원 입체 영상의 촬영을 위해 사용할 수도 있다.The third camera device 195b may have a photographing direction substantially opposite to that of the first camera device 195a, and may have different pixels from the first camera device 195a. A flash (not shown) and a mirror (not shown) may be additionally disposed adjacent to the third camera device 195b. In addition, another camera device may be further installed adjacent to the third camera device 195b and used for capturing a 3D stereoscopic image.
리어 케이스(100-2)에는 제2 음향출력 모듈(미도시)가 추가로 배치될 수도 있다. 제2 음향출력 모듈은 제1 음향출력 모듈(153a)와 함께 스테레오 기능을 구현할 수 있으며, 스피커폰 모드로 통화를 위해 사용될 수도 있다.A second sound output module (not shown) may be additionally disposed in the rear case 100 - 2 . The second sound output module may implement a stereo function together with the first sound output module 153a, and may be used for a call in a speakerphone mode.
리어 케이스(100-2) 측에는 이동 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착될 수 있다. 전원공급부(190)는, 예를 들어 충전 가능한 배터리로서, 충전 등을 위하여 리어 케이스(100-2)에 착탈 가능하게 결합될 수 있다.A power supply unit 190 for supplying power to the mobile terminal 100 may be mounted on the rear case 100 - 2 side. The power supply unit 190 is, for example, a rechargeable battery, and may be detachably coupled to the rear case 100 - 2 for charging or the like.
제4 마이크(123d)는, 리어 케이스(100-2)의 전면, 즉, 이동 단말기(100)의 뒷면에, 오디오 신호 수집을 위해 배치될 수 있다. The fourth microphone 123d may be disposed on the front side of the rear case 100 - 2 , that is, on the back side of the mobile terminal 100 for audio signal collection.
도 2는 도 1의 이동 단말기의 블럭도이다. FIG. 2 is a block diagram of the mobile terminal of FIG. 1 .
도 2를 참조하면, 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(175), 제어부(170), 및 전원 공급부(190)를 포함할 수 있다. 이와 같은 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다.Referring to FIG. 2 , the mobile terminal 100 includes a wireless communication unit 110 , an A/V (Audio/Video) input unit 120 , a user input unit 130 , a sensing unit 140 , an output unit 150 , and a memory. 160 , an interface unit 175 , a control unit 170 , and a power supply unit 190 may be included. When these components are implemented in actual applications, two or more components may be combined into one component, or one component may be subdivided into two or more components as needed.
무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(113), 무선 인터넷 모듈(115), 근거리 통신 모듈(117), 및 GPS 모듈(119) 등을 포함할 수 있다.The wireless communication unit 110 may include a broadcast reception module 111 , a mobile communication module 113 , a wireless Internet module 115 , a short-range communication module 117 , and a GPS module 119 .
방송수신 모듈(111)은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신할 수 있다. 방송수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast reception module 111 may receive at least one of a broadcast signal and broadcast-related information from an external broadcast management server through a broadcast channel. A broadcast signal and/or broadcast-related information received through the broadcast reception module 111 may be stored in the memory 160 .
이동통신 모듈(113)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신할 수 있다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 113 may transmit/receive a wireless signal to/from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include a voice call signal, a video call call signal, or various types of data according to text/multimedia message transmission/reception.
무선 인터넷 모듈(115)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(115)은 이동 단말기(100)에 내장되거나 외장될 수 있다. The wireless Internet module 115 refers to a module for wireless Internet access, and the wireless Internet module 115 may be built-in or external to the mobile terminal 100 .
근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), NFC(Near Field Communication) 등이 이용될 수 있다.The short-range communication module 117 refers to a module for short-range communication. Bluetooth, RFID (Radio Frequency Identification), infrared data association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), etc. may be used as short-range communication technologies.
GPS(Global Position System) 모듈(119)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다.The Global Position System (GPS) module 119 receives location information from a plurality of GPS satellites.
A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라 장치(195)와 마이크(123) 등이 포함될 수 있다. The A/V (Audio/Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera device 195 , a microphone 123 , and the like.
카메라 장치(195)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다. 그리고, 처리된 화상 프레임은 디스플레이(180)에 표시될 수 있다.The camera device 195 may process an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a photographing mode. Then, the processed image frame may be displayed on the display 180 .
카메라 장치(195)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라 장치(195)는 전자 기기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera device 195 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110 . Two or more camera devices 195 may be provided according to the configuration of the electronic device.
마이크(123)는, 디스플레이 오프 모드, 예를 들어, 통화모드, 녹음모드, 또는 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 오디오 신호를 입력받아 전기적인 음성 데이터로 처리할 수 있다. The microphone 123 may receive an external audio signal by a microphone in a display off mode, for example, a call mode, a recording mode, or a voice recognition mode, and process it as electrical voice data.
한편, 마이크(123)는, 서로 다른 위치에, 복수개로서 배치될 수 있다. 각 마이크에서 수신되는 오디오 신호는 제어부(170) 등에서 오디오 신호 처리될 수 있다.Meanwhile, the microphones 123 may be disposed as a plurality of microphones 123 at different positions. The audio signal received from each microphone may be processed by the controller 170 or the like.
사용자 입력부(130)는 사용자가 전자 기기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자 입력부(130)는 사용자의 누름 또는 터치 조작에 의해 명령 또는 정보를 입력받을 수 있는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전) 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이(180)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.The user input unit 130 generates key input data input by the user to control the operation of the electronic device. The user input unit 130 may include a keypad, a dome switch, a touch pad (static pressure/capacitance), and the like, through which a command or information can be input by a user's pressing or touch manipulation. In particular, when the touch pad forms a layer structure with the display 180 to be described later, it may be referred to as a touch screen.
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킬 수 있다.The sensing unit 140 is configured to control the operation of the mobile terminal 100 by sensing the current state of the mobile terminal 100 such as an open/closed state of the mobile terminal 100 , a location of the mobile terminal 100 , and whether or not there is a user's contact. A sensing signal can be generated.
센싱부(140)는 근접센서(141), 압력센서(143), 및 모션 센서(145), 터치 센서(146) 등을 포함할 수 있다.The sensing unit 140 may include a proximity sensor 141 , a pressure sensor 143 , a motion sensor 145 , a touch sensor 146 , and the like.
근접센서(141)는 이동 단말기(100)로 접근하는 물체나, 이동 단말기(100)의 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있다. 특히, 근접센서(141)는, 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. The proximity sensor 141 may detect the presence or absence of an object approaching the mobile terminal 100 or an object existing in the vicinity of the mobile terminal 100 without mechanical contact. In particular, the proximity sensor 141 may detect a proximity object by using a change in an alternating current or static magnetic field, or a change in capacitance, or the like.
압력센서(143)는 이동 단말기(100)에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. The pressure sensor 143 may detect whether pressure is applied to the mobile terminal 100 and the magnitude of the pressure.
모션 센서(145)는 가속도 센서, 자이로 센서 등을 이용하여 이동 단말기(100)의 위치나 움직임 등을 감지할 수 있다. The motion sensor 145 may detect a position or movement of the mobile terminal 100 using an acceleration sensor, a gyro sensor, or the like.
터치 센서(146)는, 사용자의 손가락에 의한 터치 입력 또는 특정 펜에 의한 터치 입력을 감지할 수 있다. 예를 들어, 디스플레이(180) 상에 터치 스크린 패널이 배치되는 경우, 터치 스크린 패널은, 터치 입력의 위치 정보, 세기 정보 등을 감지하기 위한 터치 센서(146)를 구비할 수 있다. 터치 센서(146)에서 감지된 센싱 신호는, 제어부(170)로 전달될 수 있다.The touch sensor 146 may detect a touch input by a user's finger or a touch input by a specific pen. For example, when a touch screen panel is disposed on the display 180 , the touch screen panel may include a touch sensor 146 for detecting location information and intensity information of a touch input. The sensing signal sensed by the touch sensor 146 may be transmitted to the controller 170 .
출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것이다. 출력부(150)에는 디스플레이(180), 음향출력 모듈(153), 알람부(155), 및 햅틱 모듈(157) 등이 포함될 수 있다.The output unit 150 is for outputting an audio signal, a video signal, or an alarm signal. The output unit 150 may include a display 180 , a sound output module 153 , an alarm unit 155 , and a haptic module 157 .
디스플레이(180)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어 이동 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다. The display 180 displays and outputs information processed by the mobile terminal 100 . For example, when the mobile terminal 100 is in a call mode, a user interface (UI) or graphic user interface (GUI) related to a call is displayed. In addition, when the mobile terminal 100 is in the video call mode or the shooting mode, the captured or received images may be displayed individually or simultaneously, and a UI and a GUI may be displayed.
한편, 전술한 바와 같이, 디스플레이(180)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이(180)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다. Meanwhile, as described above, when the display 180 and the touchpad form a mutually layered structure and are configured as a touch screen, the display 180 may also be used as an input device capable of inputting information by a user's touch in addition to an output device. can
음향출력 모듈(153)은 호 신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 또한, 음향출력 모듈(153)은 이동 단말기(100)에서 수행되는 기능, 예를 들어, 호 신호 수신음, 메시지 수신음 등과 관련된 오디오 신호를 출력한다. 이러한 음향출력 모듈(153)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 153 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 153 outputs an audio signal related to a function performed in the mobile terminal 100, for example, a call signal reception sound, a message reception sound, and the like. The sound output module 153 may include a speaker, a buzzer, and the like.
알람부(155)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 알람부(155)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. The alarm unit 155 outputs a signal for notifying the occurrence of an event in the mobile terminal 100 . The alarm unit 155 outputs a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal. For example, the signal may be output in the form of vibration.
햅틱 모듈(haptic module)(157)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(157)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. 햅틱 모듈(157)이 촉각 효과로 진동을 발생시키는 경우, 햅택 모듈(157)이 발생하는 진동의 세기와 패턴 등은 변환가능하며, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 157 generates various tactile effects that the user can feel. A representative example of the tactile effect generated by the haptic module 157 is a vibration effect. When the haptic module 157 generates vibration as a tactile effect, the intensity and pattern of the vibration generated by the haptic module 157 may be converted, and different vibrations may be synthesized and outputted or output sequentially.
메모리(160)는 제어부(170)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 160 may store a program for processing and control of the controller 170, and has a function for temporary storage of input or output data (eg, phone book, message, still image, video, etc.). can also be done
인터페이스부(175)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 인터페이스부(175)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달할 수 있고, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The interface unit 175 functions as an interface with all external devices connected to the mobile terminal 100 . The interface unit 175 may receive data or receive power from an external device and transmit it to each component inside the mobile terminal 100 , and may allow data inside the mobile terminal 100 to be transmitted to an external device.
제어부(170)는 통상적으로 상기 각부의 동작을 제어하여 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행할 수 있다. 또한, 제어부(170)는 멀티 미디어 재생을 위한 멀티미디어 재생 모듈(181)을 구비할 수도 있다. 멀티미디어 재생 모듈(181)은 제어부(170) 내에 하드웨어로 구성될 수도 있고, 제어부(170)와 별도로 소프트웨어로 구성될 수도 있다. 한편, 제어부(170)는, 애플리케이션 구동을 위한 애플리케이션 프로세서(미도시)를 구비할 수 있다. 또는 애플리케이션 프로세서(미도시)는 제어부(170)와 별도로 마련되는 것도 가능하다. The controller 170 generally controls the overall operation of the mobile terminal 100 by controlling the operation of each unit. For example, it may perform related control and processing for voice calls, data communications, video calls, and the like. Also, the controller 170 may include a multimedia playback module 181 for playing multimedia. The multimedia playback module 181 may be configured as hardware in the control unit 170 , or may be configured as software separately from the control unit 170 . Meanwhile, the controller 170 may include an application processor (not shown) for driving an application. Alternatively, the application processor (not shown) may be provided separately from the controller 170 .
그리고, 전원 공급부(190)는 제어부(170)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.In addition, the power supply unit 190 may receive external power and internal power under the control of the control unit 170 to supply power necessary for the operation of each component.
도 3a는 도 2의 카메라 장치의 내부 단면도이다.FIG. 3A is an internal cross-sectional view of the camera device of FIG. 2 .
도면을 참조하면, 도 3a는, 카메라 장치(195)에 대한 단면도의 일예이다.Referring to the drawings, FIG. 3A is an example of a cross-sectional view of a camera device 195 .
카메라 장치(195)는, 조리개(194), 렌즈 장치(193), 이미지 센서(820)를 구비할 수 있다.The camera device 195 may include an aperture 194 , a lens device 193 , and an image sensor 820 .
조리개(194)는, 렌즈 장치(193)로 입사되는 광을 개폐할 수 있다.The diaphragm 194 may open and close the light incident to the lens device 193 .
이미지 센서(820)는, RGB 색상을 센싱하기 위해, RGB 필터(915)와, 광 신호를 전기 신호로 변환하는 센서 어레이(911)를 구비할 수 있다.The image sensor 820 may include an RGB filter 915 and a sensor array 911 that converts an optical signal into an electrical signal to sense RGB colors.
이에 따라, 이미지 센서(820)는, 각각 RGB 이미지를 센싱하여, 출력할 수 있다.Accordingly, the image sensor 820 may sense and output each RGB image.
도 3b는 도 2의 카메라 장치의 내부 블록도의 일예이다.FIG. 3B is an example of an internal block diagram of the camera device of FIG. 2 .
도면을 참조하면, 도 3b는, 본 발명의 일 실시예에 따른 카메라 장치(195m)에 대한 블록도의 일예이다.Referring to the drawings, FIG. 3B is an example of a block diagram of a camera device 195m according to an embodiment of the present invention.
카메라 장치(195m)는, 조리개(194), 렌즈 장치(193), 이미지 센서(820), 이미지 프로세서(830)를 구비할 수 있다.The camera device 195m may include an aperture 194 , a lens device 193 , an image sensor 820 , and an image processor 830 .
조리개(194)는, 렌즈 장치(193)로 입사되는 광을 개폐할 수 있다.The diaphragm 194 may open and close the light incident to the lens device 193 .
렌즈 장치(193)는, 조리개(194)로부터의 입사광을 수신하며, 가변 초점을 위해 조정되는 복수의 렌즈를 구비할 수 있다.The lens device 193 receives the incident light from the diaphragm 194 and may include a plurality of lenses that are adjusted for variable focus.
본 발명의 일 실시예에 따른 이미지 센서(820)는, 렌즈 장치(193)의 하부에 배치되며, 렌즈 장치(193)를 통과한 광을 필터링하는 컬러 필터 어레이(915)와, 컬러 필터 어레이(915)를 통과한 광을 전기 신호로 변환하는 센서 어레이(911)와, 컬러 필터 어레이(915)와 센서 어레이(911) 사이에 배치되며, 컬러 필터 어레이(915)에 부착되어, 컬러 필터 어레이(915)를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터(912)를 포함할 수 있다.The image sensor 820 according to an embodiment of the present invention is disposed under the lens device 193 , and includes a color filter array 915 that filters light passing through the lens device 193 , and a color filter array ( A sensor array 911 that converts light passing through 915 into an electrical signal, is disposed between the color filter array 915 and the sensor array 911, is attached to the color filter array 915, and the color filter array ( It may include a MEMS-based actuator 912 for moving the 915 in any one of four directions.
이에 따라, 고해상도의 이미지를 획득할 수 있게 된다. 특히, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator 912 .
한편, 컬러 필터 어레이(915)는, 4 픽셀 기반의 어레이를 포함하며, 액츄에이터(912)는, 4 픽셀 기반의 어레이에 따라, 순차적으로 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 includes a 4-pixel-based array, and the actuator 912 may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 액츄에이터(912)는, 4 픽셀 기반의 어레이에 따라, 순차적으로 1 픽셀씩 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the actuator 912 may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, RGGB 기반의 4 픽셀 기반의 어레이를 포함할 수 있다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, 복수 픽셀 기반의 어레이를 포함하며, 액츄에이터(912)는, 복수 픽셀 기반의 어레이에 따라, 순차적으로 이동하며, 센서 어레이(911)는, 순차적으로, 각 픽셀 별 R 신호, G 신호, B 신호를 출력할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 includes a plurality of pixel-based arrays, the actuator 912 sequentially moves according to the plurality of pixel-based arrays, and the sensor array 911 sequentially moves each pixel Star R signal, G signal, and B signal can be output. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, 4 픽셀 기반의 어레이를 포함하며, 이미지 프로세서(830)는, 1 픽셀의 R, G, B 데이터를 순차적으로 획득하고, 순차적으로 획득되는 R, G, B 데이터를 이용하여, RGB 기반의 이미지를 생성할 수 있다. 이에 따라, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the color filter array 915 includes a 4-pixel-based array, and the image processor 830 sequentially acquires R, G, and B data of one pixel, and sequentially acquires R, G, and B data. Using the data, an RGB-based image can be created. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
이미지 프로세서(830)는, 이미지 센서(820)로부터의, 전기 신호에 기초하여, RGB 이미지를 생성할 수 있다. The image processor 830 may generate an RGB image based on an electrical signal from the image sensor 820 .
특히, 이미지 프로세서(830)는, 컬러 필터 어레이(915)와 액츄에이터(912)의 순차적인 이동에 따라, 센서 어레이(911)에서 획득되는 전기 신호를 이용하여, RGB 기반의 이미지를 생성할 수 있다. 이에 따라, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. In particular, the image processor 830 may generate an RGB-based image by using an electrical signal obtained from the sensor array 911 according to the sequential movement of the color filter array 915 and the actuator 912 . . Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
한편, 이미지 프로세서(830)로부터의 RGB 이미지는 이동 단말기(100)의 제어부(170)로 전달될 수 있다.Meanwhile, the RGB image from the image processor 830 may be transmitted to the controller 170 of the mobile terminal 100 .
한편, 이동 단말기(100)의 제어부(170)는, 렌즈 장치(193) 내의 렌즈의 이동 등을 위해, 제어 신호를, 렌즈 장치(193)로 출력할 수 있다. 예를 들어, 오토 포커싱을 위한 제어 신호를 렌즈 장치(193)로 출력할 수 있다. Meanwhile, the controller 170 of the mobile terminal 100 may output a control signal to the lens device 193 for movement of a lens in the lens device 193 . For example, a control signal for auto-focusing may be output to the lens device 193 .
한편, 이동 단말기(100)의 제어부(170)는, 조리개(194)의 걔폐 등의 제어를 위한 조리개 제어 신호를, 조리개(194)로 출력할 수도 있다.Meanwhile, the controller 170 of the mobile terminal 100 may output an iris control signal for controlling the opening/closing of the diaphragm 194 to the diaphragm 194 .
도 3c는 도 2의 카메라 장치의 내부 블록도의 다른 예이다.FIG. 3C is another example of an internal block diagram of the camera device of FIG. 2 .
도면을 참조하면, 도 3c의 카메라 장치(195n)는, 조리개(194), 렌즈 장치(193), 이미지 센서(820), 이미지 프로세서(830)를 구비할 수 있다.Referring to the drawings, the camera device 195n of FIG. 3C may include an aperture 194 , a lens device 193 , an image sensor 820 , and an image processor 830 .
조리개(194)는, 렌즈 장치(193)로 입사되는 광을 개폐할 수 있다.The diaphragm 194 may open and close the light incident to the lens device 193 .
렌즈 장치(193)는, 조리개(194)로부터의 입사광을 수신하며, 가변 초점을 위해 조정되는 복수의 렌즈를 구비할 수 있다.The lens device 193 receives the incident light from the diaphragm 194 and may include a plurality of lenses that are adjusted for variable focus.
한편, 한편, 본 발명의 다른 실시예에 따른 이미지 센서(820)는, 렌즈 장치(193)를 통과한 광을 필터링하는 컬러 필터 어레이(915)와, 컬러 필터 어레이(915)를 통과한 광을 전기 신호로 변환하는 센서 어레이(911)와, 센서 어레이(911)의 하부에 부착되며, 센서 어레이(911)를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터(912)를 포함한다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다. 특히, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. On the other hand, the image sensor 820 according to another embodiment of the present invention includes a color filter array 915 for filtering light passing through the lens device 193 and light passing through the color filter array 915 . It includes a sensor array 911 that converts an electrical signal, and a MEMS-based actuator 912 attached to the lower portion of the sensor array 911 and moving the sensor array 911 in any one of four directions. do. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator 912 .
이에 따라, 고해상도의 이미지를 획득할 수 있게 된다. 특히, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator 912 .
한편, 컬러 필터 어레이(915)는, 4 픽셀 기반의 어레이를 포함하며, 액츄에이터(912)는, 4 픽셀 기반의 어레이에 따라, 순차적으로 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 includes a 4-pixel-based array, and the actuator 912 may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 액츄에이터(912)는, 4 픽셀 기반의 어레이에 따라, 순차적으로 1 픽셀씩 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the actuator 912 may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, RGGB 기반의 4 픽셀 기반의 어레이를 포함할 수 있다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, 복수 픽셀 기반의 어레이를 포함하며, 액츄에이터(912)는, 복수 픽셀 기반의 어레이에 따라, 순차적으로 이동하며, 센서 어레이(911)는, 순차적으로, 각 픽셀 별 R 신호, G 신호, B 신호를 출력할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 includes a plurality of pixel-based arrays, the actuator 912 sequentially moves according to the plurality of pixel-based arrays, and the sensor array 911 sequentially moves each pixel Star R signal, G signal, and B signal can be output. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, 4 픽셀 기반의 어레이를 포함하며, 이미지 프로세서(830)는, 1 픽셀의 R, G, B 데이터를 순차적으로 획득하고, 순차적으로 획득되는 R, G, B 데이터를 이용하여, RGB 기반의 이미지를 생성할 수 있다. 이에 따라, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the color filter array 915 includes a 4-pixel-based array, and the image processor 830 sequentially acquires R, G, and B data of one pixel, and sequentially acquires R, G, and B data. Using the data, an RGB-based image can be created. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
이미지 프로세서(830)는, 이미지 센서(820)로부터의, 전기 신호에 기초하여, RGB 이미지를 생성할 수 있다. The image processor 830 may generate an RGB image based on an electrical signal from the image sensor 820 .
특히, 이미지 프로세서(830)는, 센서 어레이(911)와 액츄에이터(912)의 순차적인 이동에 따라, 이미지 센서(911)에서 획득되는 전기 신호를 이용하여, RGB 기반의 이미지를 생성할 수 있다. 이에 따라, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다.In particular, the image processor 830 may generate an RGB-based image by using an electrical signal obtained from the image sensor 911 according to the sequential movement of the sensor array 911 and the actuator 912 . Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
도 4는 종래의 컬러 필터에 의한 색상 데이터 획득 방법을 도시하는 도면이다.4 is a diagram illustrating a method of obtaining color data using a conventional color filter.
도면을 참조하면, 컬러 필터 어레이(BAF)는, 센서 어레이의 색상 이미지를 위해 사용된다.Referring to the drawing, a color filter array (BAF) is used for a color image of a sensor array.
도면에서는, 컬러 필터 어레이(BAF)로, 베이어(Bayer) 타입 필터 어레이를 예시한다.In the drawing, as the color filter array BAF, a Bayer type filter array is exemplified.
베이어(Bayer) 타입 필터 어레이는, 4 픽셀에서 각각 R, G, B, G의 데이터를 각각 얻을 수 있게 되므로, 입사되는 광 대비하여, 고해상도의 이미지가 아닌 저해상도의 이미지만을 획득하는 단점이 있다.Since the Bayer type filter array can obtain R, G, B, and G data from 4 pixels, respectively, there is a disadvantage in that only a low-resolution image is obtained, not a high-resolution image, in contrast to the incident light.
특히, 4 픽셀에서 각각 R, G, B, G의 데이터를 각각 얻을 수 있게 되므로, 도면과 같이, 제1 픽셀을 위한, R 데이터(BAFa), 상기 제1 픽셀의 좌측에 위치하는 제4 픽셀을 위한 G 데이터(BAFb), 제4 픽셀의 하부에 위치하는 제3 픽셀을 위한, B 데이터(BAFc), 제1 픽셀의 하부에 위치하는 제2 픽셀을 위한 G 데이터(BAFd)을 이용하여, 인접 픽셀의 데이터를 이용하여 보정 후, 해당하는 컬러 데이터를 확보하여야 한다. 이에 따라, 저해상도의 이미지(410)를 획득한다는 단점이 있다.In particular, since data of R, G, B, and G can be obtained from each of the 4 pixels, R data (BAFa) for the first pixel, and the fourth pixel located to the left of the first pixel, as shown in the figure Using G data (BAFb) for , B data (BAFc) for a third pixel positioned below the fourth pixel, and G data (BAFd) for a second pixel positioned under the first pixel, After correction using data of adjacent pixels, corresponding color data must be secured. Accordingly, there is a disadvantage of acquiring the image 410 of low resolution.
이에 본 발명에서는, 인접 픽셀의 데이터를 이용하여 보정하지 않고, 4 픽셀의 R, G, B, G의 데이터를 모두 얻을 수 있는 방안을 제시한다.Accordingly, the present invention proposes a method for obtaining all R, G, B, and G data of 4 pixels without correction using data of adjacent pixels.
이에 본 발명의 일 실시예에서는, 컬러 필터 어레이를 순차적으로 이동시켜, 4 픽셀의 R, G, B, G의 데이터를 순차적으로 확보하는 방안을 제시한다.Accordingly, an embodiment of the present invention proposes a method of sequentially securing R, G, B, and G data of 4 pixels by sequentially moving the color filter array.
또는, 본 발명의 다른 실시예에서는, 컬러 필터 어레이는 고정하고, 센서 어레이를 순차적으로 이동시켜, 4 픽셀의 R, G, B, G의 데이터를 순차적으로 확보하는 방안을 제시한다.Alternatively, in another embodiment of the present invention, a method of sequentially securing R, G, B, and G data of 4 pixels by fixing the color filter array and sequentially moving the sensor array is proposed.
도 5는 본 발명의 카메라 장치에서의 고해상도 이미지 획득을 설명하는 도면이다.5 is a diagram for explaining high-resolution image acquisition in the camera device of the present invention.
도면을 참조하면, 컬러 필터 어레이(PXF)는, 베이어(Bayer) 타입 필터 어레이로서, 4 픽셀에서 각각 R, G, B, G의 데이터를 각각 얻을 수 있다.Referring to the drawing, the color filter array PXF is a Bayer type filter array, and can obtain R, G, B, and G data from 4 pixels, respectively.
한편, 본 발명의 일 실시예에서는, 제1 시점(T1)에, 컬러 필터 어레이(PXF)와 센서 어레이(미도시)를 이용하여, 제1 픽셀은 적색, 제1 픽셀의 하부인 제2 픽셀에서 녹색, 제2 픽셀의 우측인 제3 픽셀에서 청색, 제3 픽셀의 상부인 제4 픽셀에서 녹색의 데이터를 확보하는 것을 예시한다.Meanwhile, in an embodiment of the present invention, at a first time point T1 , using the color filter array PXF and the sensor array (not shown), the first pixel is red, and the second pixel that is below the first pixel is red. It is exemplified that data of green color, blue color in the third pixel to the right of the second pixel, and green data in the fourth pixel above the third pixel are secured.
다음, 제1 시점(T1) 이후의 제2 시점(T2)에, 컬러 필터 어레이(PXF)가 하부 방향의 1 픽셀 만큼 이동한 후, 컬러 필터 어레이(PXF)와 센서 어레이(미도시)를 이용하여, 제1 픽셀은 녹색, 제1 픽셀의 하부인 제2 픽셀에서 적색, 제2 픽셀의 우측인 제3 픽셀에서 녹색, 제3 픽셀의 상부인 제4 픽셀에서 청색의 데이터를 확보하는 것을 예시한다.Next, at a second time point T2 after the first time point T1, the color filter array PXF moves by one pixel in the downward direction, and then the color filter array PXF and the sensor array (not shown) are used. Thus, securing data of green in the first pixel, red in the second pixel below the first pixel, green in the third pixel on the right side of the second pixel, and blue in the fourth pixel above the third pixel do.
다음, 제2 시점(T2) 이후의 제3 시점(T3)에, 컬러 필터 어레이(PXF)가 우측 방향의 1 픽셀 만큼 이동한 후, 컬러 필터 어레이(PXF)와 센서 어레이(미도시)를 이용하여, 제1 픽셀은 청색, 제1 픽셀의 하부인 제2 픽셀에서 녹색, 제2 픽셀의 우측인 제3 픽셀에서 적색, 제3 픽셀의 상부인 제4 픽셀에서 녹색의 데이터를 확보하는 것을 예시한다.Next, at a third time point T3 after the second time point T2, the color filter array PXF moves by one pixel in the right direction, and then the color filter array PXF and the sensor array (not shown) are used. Thus, it is an example of securing data of blue color for the first pixel, green data in the second pixel below the first pixel, red data in the third pixel right of the second pixel, and green data in the fourth pixel above the third pixel. do.
다음, 제3 시점(T3) 이후의 제4 시점(T4)에, 컬러 필터 어레이(PXF)가 상부 방향의 1 픽셀 만큼 이동한 후, 컬러 필터 어레이(PXF)와 센서 어레이(미도시)를 이용하여, 제1 픽셀은 녹색, 제1 픽셀의 하부인 제2 픽셀에서 청색, 제2 픽셀의 우측인 제3 픽셀에서 녹색, 제3 픽셀의 상부인 제4 픽셀에서 적색의 데이터를 확보하는 것을 예시한다.Next, at a fourth time point T4 after the third time point T3, the color filter array PXF moves by one pixel in the upper direction, and then the color filter array PXF and the sensor array (not shown) are used. Thus, it is an example of securing data of green in the first pixel, blue in the second pixel below the first pixel, green in the third pixel on the right side of the second pixel, and red in the fourth pixel above the third pixel. do.
이에 따라, 제1 시점 내지 제4 시점(T1~T4)을 통해, 제1 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제2 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제3 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제4 픽셀에, R, G, B, G 데이터를 모두 확보하게 된다.Accordingly, through the first to fourth time points T1 to T4, R, G, B, and G data are all secured in the first pixel, and R, G, B, G data is stored in the second pixel. All R, G, B, and G data are secured in the third pixel, and all R, G, B, and G data are secured in the fourth pixel.
따라서, 이미지 프로세서(830)는, 제1 시점 내지 제4 시점 동안의 이미지 센서(820)로부터의 전기 신호를 합산하여, 별도의 색상 보정 또는 색상 보간 등의 작업 없이, 고해상도의 이미지(510)를 생성할 수 있게 된다.Accordingly, the image processor 830 adds up the electrical signals from the image sensor 820 during the first to fourth time points, and produces a high-resolution image 510 without separate color correction or color interpolation. be able to create
한편, 도 5에서 도시한 제1 시점 내지 제4 시점(T1~T4)에서의 컬러 필터 어레이(PXF)의 이동은, 제1 픽셀을 기준으로 하방향, 우측 방향, 상방향, 및 좌측 방향을 하나의 사이클(cycle)로하여, 주기적으로 수행될 수 있다.Meanwhile, the movement of the color filter array PXF at the first to fourth time points T1 to T4 illustrated in FIG. 5 is downward, rightward, upward, and leftward with respect to the first pixel. As one cycle, it may be performed periodically.
특히, 이미지 프로세서(830)에서 한 프레임의 이미지 생성을 위해, 4개의 서브 프레임 기간 동안, 컬러 필터 어레이(PXF)가, 제1 픽셀을 기준으로 하방향, 우측 방향, 상방향, 및 좌측 방향을 하나의 사이클(cycle)로하여, 주기적으로 이동할 수 있다.In particular, in order for the image processor 830 to generate an image of one frame, during four sub-frame periods, the color filter array PXF selects a downward direction, a right direction, an upward direction, and a left direction with respect to the first pixel. In one cycle, it can move periodically.
한편, 도 5와 달리, 컬러 필터 어레이(PXF)는 고정이고, 이미지 센서(820)가, 제1 시점 내지 제4 시점(T1~T4)에서, 제1 픽셀을 기준으로 하방향, 우측 방향, 상방향, 및 좌측 방향을 하나의 사이클(cycle)로하여, 주기적으로 이동되는 것도 가능하다. On the other hand, unlike FIG. 5 , the color filter array PXF is fixed, and the image sensor 820 moves downward and rightward with respect to the first pixel at first to fourth time points T1 to T4. It is also possible to periodically move by using the upward and leftward directions as one cycle.
한편, 이동 단말기(100)의 제어부(170)는, 모션 센서(145)로부터의 모션을 센싱하여, 이동 단말기(100) 내의 카메라 장치(195)의 움직임을 감지하고, 움직임이 소정치 이상인 경우, 상기의 컬러 필터 어레이(PXF)의 주기적인 이동 또는 이미지 센서(820)의 주기적인 이동이 수행되도록 제어할 수 있다.On the other hand, the controller 170 of the mobile terminal 100 senses the motion from the motion sensor 145 to detect the movement of the camera device 195 in the mobile terminal 100, and when the movement is greater than a predetermined value, The periodic movement of the color filter array PXF or the periodic movement of the image sensor 820 may be controlled to be performed.
한편, 이동 단말기(100)의 제어부(170)는, 모션 센서(145)로부터의 모션을 센싱하여, 이동 단말기(100) 내의 카메라 장치(195)의 움직임을 감지하고, 움직임이 소정치 미만인 경우, 예를 들어, 이동 단말기(100)가 촬영을 위해 고정된 상태인 경우, 상기의 컬러 필터 어레이(PXF)의 주기적인 이동 또는 이미지 센서(820)의 주기적인 이동을 소정 프레임 기간 또는 동안만 수행하고, 그 이후에는 수행되지 않도록 제어할 수도 있다. 이에 따라, 소비 전력을 저감할 수도 있게 된다.On the other hand, the controller 170 of the mobile terminal 100 senses the motion from the motion sensor 145 to detect the movement of the camera device 195 in the mobile terminal 100, and when the movement is less than a predetermined value, For example, when the mobile terminal 100 is in a fixed state for photographing, the periodic movement of the color filter array PXF or the periodic movement of the image sensor 820 is performed only for a predetermined frame period or period, and , you can also control it not to be performed after that. Accordingly, it is also possible to reduce power consumption.
도 6a 내지 도 6e는 본 발명의 일 실시예에 따른 카메라 장치의 동작 방법을 설명하는 도면이다.6A to 6E are diagrams for explaining a method of operating a camera device according to an embodiment of the present invention.
도 6a를 참조하면, 본 발명의 일 실시예에 따른 카메라 장치(195m)는, 렌즈 장치(193)와, 렌즈 장치(193)의 하부에 배치되며, 렌즈 장치(193)를 통과한 광을 필터링하는 컬러 필터 어레이(915)와, 컬러 필터 어레이(915)를 통과한 광을 전기 신호로 변환하는 센서 어레이(911)와, 컬러 필터 어레이(915)와 센서 어레이(911) 사이에 배치되며, 컬러 필터 어레이(915)에 부착되어, 컬러 필터 어레이(915)를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터(912)를 포함한다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다. 특히, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Referring to FIG. 6A , a camera device 195m according to an embodiment of the present invention includes a lens device 193 and a lower portion of the lens device 193 and filters light passing through the lens device 193 . is disposed between the color filter array 915 and the sensor array 911 for converting the light passing through the color filter array 915 into electrical signals, and the color filter array 915 and the sensor array 911 , It is attached to the filter array 915 and includes a MEMS-based actuator 912 that moves the color filter array 915 in any one of four directions. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator 912 .
한편, 컬러 필터 어레이(915)는, 4 픽셀 기반의 어레이를 포함하며, 액츄에이터(912)는, 4 픽셀 기반의 어레이에 따라, 순차적으로 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 includes a 4-pixel-based array, and the actuator 912 may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 액츄에이터(912)는, 4 픽셀 기반의 어레이에 따라, 순차적으로 1 픽셀씩 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the actuator 912 may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, RGGB 기반의 4 픽셀 기반의 어레이를 포함할 수 있다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, 복수 픽셀 기반의 어레이를 포함하며, 액츄에이터(912)는, 복수 픽셀 기반의 어레이에 따라, 순차적으로 이동하며, 센서 어레이(911)는, 순차적으로, 각 픽셀 별 R 신호, G 신호, B 신호를 출력할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 includes a plurality of pixel-based arrays, the actuator 912 sequentially moves according to the plurality of pixel-based arrays, and the sensor array 911 sequentially moves each pixel Star R signal, G signal, and B signal can be output. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, 4 픽셀 기반의 어레이를 포함하며, 이미지 프로세서(830)는, 1 픽셀의 R, G, B 데이터를 순차적으로 획득하고, 순차적으로 획득되는 R, G, B 데이터를 이용하여, RGB 기반의 이미지를 생성할 수 있다. 이에 따라, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the color filter array 915 includes a 4-pixel-based array, and the image processor 830 sequentially acquires R, G, and B data of one pixel, and sequentially acquires R, G, and B data. Using the data, an RGB-based image can be created. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
한편, 도 6a는, 제1 시점(T1)에, 컬러 필터 어레이(915)와 액츄에이터(912)가 고정인 상태를 예시한다.Meanwhile, FIG. 6A illustrates a state in which the color filter array 915 and the actuator 912 are fixed at the first time point T1 .
도 5와 같이, 제1 시점(T1)에서, 센서 어레이(911)는, 제1 픽셀에서 적색, 제1 픽셀의 하부인 제2 픽셀에서 녹색, 제2 픽셀의 우측인 제3 픽셀에서 청색, 제3 픽셀의 상부인 제4 픽셀에서 녹색의 데이터를 확보할 수 있다.As shown in FIG. 5 , at a first time point T1 , the sensor array 911 has red in the first pixel, green in the second pixel below the first pixel, blue in the third pixel on the right of the second pixel, Green data may be obtained from the fourth pixel that is above the third pixel.
다음, 도 6b는, 제1 시점(T1) 이후의 제2 시점(T2)에, 컬러 필터 어레이(915)와 액츄에이터(912)가, 하부 방향의 1 픽셀 만큼 이동하는 것을 예시한다.Next, FIG. 6B illustrates that the color filter array 915 and the actuator 912 move by one pixel in the downward direction at a second time point T2 after the first time point T1 .
도 5와 같이, 제2 시점(T2)에서, 센서 어레이(911)는, 제1 픽셀에서 녹색, 제1 픽셀의 하부인 제2 픽셀에서 적색, 제2 픽셀의 우측인 제3 픽셀에서 녹색, 제3 픽셀의 상부인 제4 픽셀에서 청색의 데이터를 확보할 수 있다.As shown in FIG. 5 , at a second time point T2 , the sensor array 911 is green in the first pixel, red in the second pixel below the first pixel, green in the third pixel to the right of the second pixel, Blue data may be obtained from the fourth pixel that is above the third pixel.
다음, 도 6c는, 제2 시점(T2) 이후의 제3 시점(T3)에, 컬러 필터 어레이(915)와 액츄에이터(912)가, 우측 방향의 1 픽셀 만큼 이동하는 것을 예시한다.Next, FIG. 6C illustrates that the color filter array 915 and the actuator 912 move by one pixel in the right direction at a third time point T3 after the second time point T2 .
도 5와 같이, 제3 시점(T3)에서, 센서 어레이(911)는, 제1 픽셀에서 청색, 제1 픽셀의 하부인 제2 픽셀에서 녹색, 제2 픽셀의 우측인 제3 픽셀에서 적색, 제3 픽셀의 상부인 제4 픽셀에서 녹색의 데이터를 확보할 수 있다.As shown in FIG. 5 , at a third time point T3 , the sensor array 911 has blue in the first pixel, green in the second pixel below the first pixel, red in the third pixel to the right of the second pixel, Green data may be obtained from the fourth pixel that is above the third pixel.
다음, 도 6d는, 제3 시점(T3) 이후의 제4 시점(T4)에, 컬러 필터 어레이(915)와 액츄에이터(912)가, 상측 방향의 1 픽셀 만큼 이동하는 것을 예시한다.Next, FIG. 6D illustrates that the color filter array 915 and the actuator 912 move by one pixel in the upper direction at a fourth time point T4 after the third time point T3 .
도 5와 같이, 제4 시점(T4)에서, 센서 어레이(911)는, 제1 픽셀에서 녹색, 제1 픽셀의 하부인 제2 픽셀에서 청색, 제2 픽셀의 우측인 제3 픽셀에서 녹색, 제3 픽셀의 상부인 제4 픽셀에서 적색의 데이터를 확보할 수 있다.As shown in FIG. 5 , at the fourth time point T4 , the sensor array 911 is green in the first pixel, blue in the second pixel below the first pixel, green in the third pixel right of the second pixel, Red data may be obtained from the fourth pixel that is above the third pixel.
다음, 도 6e는, 제4 시점(T4) 이후의 제5 시점(T5)에, 컬러 필터 어레이(915)와 액츄에이터(912)가, 좌측 방향의 1 픽셀 만큼 이동하는 것을 예시한다.Next, FIG. 6E illustrates that the color filter array 915 and the actuator 912 move by one pixel in the left direction at a fifth time point T5 after the fourth time point T4 .
제5 시점(T5)은 제1 시점(T1)과 동일하게, 센서 어레이(911)는, 제1 픽셀에서 적색, 제1 픽셀의 하부인 제2 픽셀에서 녹색, 제2 픽셀의 우측인 제3 픽셀에서 청색, 제3 픽셀의 상부인 제4 픽셀에서 녹색의 데이터를 확보할 수 있다.The fifth time point T5 is the same as the first time point T1 , and the sensor array 911 is red in the first pixel, green in the second pixel below the first pixel, and the third time in the right side of the second pixel. It is possible to secure blue data in the pixel and green data in the fourth pixel that is above the third pixel.
이에 따라, 제1 시점 내지 제4 시점(T1~T4)을 통해, 제1 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제2 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제3 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제4 픽셀에, R, G, B, G 데이터를 모두 확보하게 된다.Accordingly, through the first to fourth time points T1 to T4, R, G, B, and G data are all secured in the first pixel, and R, G, B, G data is stored in the second pixel. All R, G, B, and G data are secured in the third pixel, and all R, G, B, and G data are secured in the fourth pixel.
따라서, 이미지 프로세서(830)는, 제1 시점 내지 제4 시점 동안의 이미지 센서(820)로부터의 전기 신호를 합산하여, 별도의 색상 보정 또는 색상 보간 등의 작업 없이, 고해상도의 이미지(510)를 생성할 수 있게 된다.Accordingly, the image processor 830 adds up the electrical signals from the image sensor 820 during the first to fourth time points, and produces a high-resolution image 510 without separate color correction or color interpolation. be able to create
한편, 도 5에서 도시한 제1 시점 내지 제4 시점(T1~T4)에서의 컬러 필터 어레이(915)의 이동은, 제1 픽셀을 기준으로 하방향, 우측 방향, 상방향, 및 좌측 방향을 하나의 사이클(cycle)로하여, 주기적으로 수행될 수 있다.Meanwhile, the movement of the color filter array 915 at the first to fourth time points T1 to T4 shown in FIG. 5 is downward, rightward, upward, and leftward with respect to the first pixel. As one cycle, it may be performed periodically.
특히, 이미지 프로세서(830)에서 한 프레임의 이미지 생성을 위해, 4개의 서브 프레임 기간 동안, 컬러 필터 어레이(915)가, 제1 픽셀을 기준으로 하방향, 우측 방향, 상방향, 및 좌측 방향을 하나의 사이클(cycle)로하여, 주기적으로 이동할 수 있다.In particular, in order for the image processor 830 to generate an image of one frame, during four sub-frame periods, the color filter array 915 selects a downward direction, a right direction, an upward direction, and a left direction with respect to the first pixel. In one cycle, it can move periodically.
도 7a 내지 도 7e는 본 발명의 다른 실시예에 따른 카메라 장치의 동작 방법을 설명하는 도면이다.7A to 7E are diagrams for explaining a method of operating a camera device according to another embodiment of the present invention.
도 7a를 참조하면, 본 발명의 다른 실시예에 따른 카메라 장치(195n)는, 렌즈 장치(193)와, 렌즈 장치(193)의 하부에 배치되며, 렌즈 장치(193)를 통과한 광을 필터링하는 컬러 필터 어레이(915)와, 컬러 필터 어레이(915)를 통과한 광을 전기 신호로 변환하는 센서 어레이(911)와, 센서 어레이(911)의 하부에 부착되며, 센서 어레이(911)를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터(912)를 포함한다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다. 특히, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Referring to FIG. 7A , a camera device 195n according to another embodiment of the present invention includes a lens device 193 and a lower portion of the lens device 193 and filters light passing through the lens device 193 . a color filter array 915 that uses a color filter array 915 to It includes a MEMS-based actuator 912 that moves in any one of the directions. Accordingly, it is possible to obtain a high-resolution image. In particular, it is possible to acquire a high-resolution image with low power using the MEMS-based actuator 912 .
한편, 컬러 필터 어레이(915)는, 4 픽셀 기반의 어레이를 포함하며, 액츄에이터(912)는, 4 픽셀 기반의 어레이에 따라, 순차적으로 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 includes a 4-pixel-based array, and the actuator 912 may sequentially move in four directions according to the 4-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 액츄에이터(912)는, 4 픽셀 기반의 어레이에 따라, 순차적으로 1 픽셀씩 사방향으로 이동할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the actuator 912 may sequentially move in four directions by one pixel according to a four-pixel-based array. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, RGGB 기반의 4 픽셀 기반의 어레이를 포함할 수 있다. 이에 따라, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 may include an RGB-based 4-pixel-based array. Accordingly, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, 복수 픽셀 기반의 어레이를 포함하며, 액츄에이터(912)는, 복수 픽셀 기반의 어레이에 따라, 순차적으로 이동하며, 센서 어레이(911)는, 순차적으로, 각 픽셀 별 R 신호, G 신호, B 신호를 출력할 수 있다. 이에 따라, 액츄에이터(912)의 순차 이동 이후, 고해상도의 이미지를 획득할 수 있게 된다.Meanwhile, the color filter array 915 includes a plurality of pixel-based arrays, the actuator 912 sequentially moves according to the plurality of pixel-based arrays, and the sensor array 911 sequentially moves each pixel Star R signal, G signal, and B signal can be output. Accordingly, after the sequential movement of the actuator 912, it is possible to obtain a high-resolution image.
한편, 컬러 필터 어레이(915)는, 4 픽셀 기반의 어레이를 포함하며, 이미지 프로세서(830)는, 1 픽셀의 R, G, B 데이터를 순차적으로 획득하고, 순차적으로 획득되는 R, G, B 데이터를 이용하여, RGB 기반의 이미지를 생성할 수 있다. 이에 따라, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, the color filter array 915 includes a 4-pixel-based array, and the image processor 830 sequentially acquires R, G, and B data of one pixel, and sequentially acquires R, G, and B data. Using the data, an RGB-based image can be created. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
한편, 도 7a는, 제1 시점(T1)에, 컬러 필터 어레이(915)와 액츄에이터(912)가 고정인 상태를 예시한다.Meanwhile, FIG. 7A illustrates a state in which the color filter array 915 and the actuator 912 are fixed at the first time point T1 .
도 5와 같이, 제1 시점(T1)에서, 센서 어레이(911)는, 제1 픽셀에서 적색, 제1 픽셀의 하부인 제2 픽셀에서 녹색, 제2 픽셀의 우측인 제3 픽셀에서 청색, 제3 픽셀의 상부인 제4 픽셀에서 녹색의 데이터를 확보할 수 있다.As shown in FIG. 5 , at a first time point T1 , the sensor array 911 has red in the first pixel, green in the second pixel below the first pixel, blue in the third pixel on the right of the second pixel, Green data may be obtained from the fourth pixel that is above the third pixel.
다음, 도 7b는, 제1 시점(T1) 이후의 제2 시점(T2)에, 센서 어레이(911)와 액츄에이터(912)가, 하부 방향의 1 픽셀 만큼 이동하는 것을 예시한다.Next, FIG. 7B illustrates that the sensor array 911 and the actuator 912 move by one pixel in the downward direction at a second time point T2 after the first time point T1 .
도 5와 같이, 제2 시점(T2)에서, 센서 어레이(911)는, 제1 픽셀에서 녹색, 제1 픽셀의 하부인 제2 픽셀에서 적색, 제2 픽셀의 우측인 제3 픽셀에서 녹색, 제3 픽셀의 상부인 제4 픽셀에서 청색의 데이터를 확보할 수 있다.As shown in FIG. 5 , at a second time point T2 , the sensor array 911 is green in the first pixel, red in the second pixel below the first pixel, green in the third pixel to the right of the second pixel, Blue data may be obtained from the fourth pixel that is above the third pixel.
다음, 도 7c는, 제2 시점(T2) 이후의 제3 시점(T3)에, 센서 어레이(911)와 액츄에이터(912)가, 우측 방향의 1 픽셀 만큼 이동하는 것을 예시한다.Next, FIG. 7C illustrates that the sensor array 911 and the actuator 912 move by one pixel in the right direction at a third time point T3 after the second time point T2.
도 5와 같이, 제3 시점(T3)에서, 센서 어레이(911)는, 제1 픽셀에서 청색, 제1 픽셀의 하부인 제2 픽셀에서 녹색, 제2 픽셀의 우측인 제3 픽셀에서 적색, 제3 픽셀의 상부인 제4 픽셀에서 녹색의 데이터를 확보할 수 있다.As shown in FIG. 5 , at a third time point T3 , the sensor array 911 has blue in the first pixel, green in the second pixel below the first pixel, red in the third pixel to the right of the second pixel, Green data may be obtained from the fourth pixel that is above the third pixel.
다음, 도 7d는, 제3 시점(T3) 이후의 제4 시점(T4)에, 센서 어레이(911)와 액츄에이터(912)가, 상측 방향의 1 픽셀 만큼 이동하는 것을 예시한다.Next, FIG. 7D illustrates that the sensor array 911 and the actuator 912 move by one pixel in the upper direction at a fourth time point T4 after the third time point T3 .
도 5와 같이, 제4 시점(T4)에서, 센서 어레이(911)는, 제1 픽셀에서 녹색, 제1 픽셀의 하부인 제2 픽셀에서 청색, 제2 픽셀의 우측인 제3 픽셀에서 녹색, 제3 픽셀의 상부인 제4 픽셀에서 적색의 데이터를 확보할 수 있다.As shown in FIG. 5 , at the fourth time point T4 , the sensor array 911 is green in the first pixel, blue in the second pixel below the first pixel, green in the third pixel right of the second pixel, Red data may be obtained from the fourth pixel that is above the third pixel.
다음, 도 7e는, 제4 시점(T4) 이후의 제5 시점(T5)에, 센서 어레이(911)와 액츄에이터(912)가, 좌측 방향의 1 픽셀 만큼 이동하는 것을 예시한다.Next, FIG. 7E illustrates that the sensor array 911 and the actuator 912 move by one pixel in the left direction at a fifth time point T5 after the fourth time point T4 .
제5 시점(T5)은 제1 시점(T1)과 동일하게, 센서 어레이(911)는, 제1 픽셀에서 적색, 제1 픽셀의 하부인 제2 픽셀에서 녹색, 제2 픽셀의 우측인 제3 픽셀에서 청색, 제3 픽셀의 상부인 제4 픽셀에서 녹색의 데이터를 확보할 수 있다.The fifth time point T5 is the same as the first time point T1 , and the sensor array 911 is red in the first pixel, green in the second pixel below the first pixel, and the third time in the right side of the second pixel. It is possible to secure blue data in the pixel and green data in the fourth pixel that is above the third pixel.
이에 따라, 제1 시점 내지 제4 시점(T1~T4)을 통해, 제1 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제2 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제3 픽셀에, R, G, B, G 데이터를 모두 확보하게 되며, 제4 픽셀에, R, G, B, G 데이터를 모두 확보하게 된다.Accordingly, through the first to fourth time points T1 to T4, R, G, B, and G data are all secured in the first pixel, and R, G, B, G data is stored in the second pixel. All R, G, B, and G data are secured in the third pixel, and all R, G, B, and G data are secured in the fourth pixel.
따라서, 이미지 프로세서(830)는, 제1 시점 내지 제4 시점 동안의 이미지 센서(820)로부터의 전기 신호를 합산하여, 별도의 색상 보정 또는 색상 보간 등의 작업 없이, 고해상도의 이미지(510)를 생성할 수 있게 된다.Accordingly, the image processor 830 adds up the electrical signals from the image sensor 820 during the first to fourth time points, and produces a high-resolution image 510 without separate color correction or color interpolation. be able to create
한편, 도 5에서 도시한 제1 시점 내지 제4 시점(T1~T4)에서의 센서 어레이(911)와 액츄에이터(912)의 이동은, 제1 픽셀을 기준으로 하방향, 우측 방향, 상방향, 및 좌측 방향을 하나의 사이클(cycle)로하여, 주기적으로 수행될 수 있다.On the other hand, the movement of the sensor array 911 and the actuator 912 at the first to fourth time points T1 to T4 shown in FIG. 5 is downward, rightward, upward, and one cycle in the left direction, and may be performed periodically.
특히, 이미지 프로세서(830)에서 한 프레임의 이미지 생성을 위해, 4개의 서브 프레임 기간 동안, 컬러 필터 어레이(915)가, 제1 픽셀을 기준으로 하방향, 우측 방향, 상방향, 및 좌측 방향을 하나의 사이클(cycle)로하여, 주기적으로 이동할 수 있다.In particular, in order for the image processor 830 to generate an image of one frame, during four sub-frame periods, the color filter array 915 selects a downward direction, a right direction, an upward direction, and a left direction with respect to the first pixel. In one cycle, it can move periodically.
도 8은 도 6a 내지 도 7e의 액츄에이터를 도시한 도면이고, 도 9a 내지 도 9d는 액츄에이터의 동작을 설명하는 도면이다.8 is a diagram illustrating the actuator of FIGS. 6A to 7E , and FIGS. 9A to 9D are diagrams for explaining the operation of the actuator.
도면을 참조하면, 본 발명의 실시예에 따른 액츄에이터(912)는, 한정된 공간에서 구현 가능한 MEMS 기반의 액츄에이터인 것이 바람직하다.Referring to the drawings, the actuator 912 according to the embodiment of the present invention is preferably a MEMS-based actuator that can be implemented in a limited space.
한편, 액츄에이터(912)는, 복수의 영역(BKa~BKd)을 포함하는 기판(SLC)과, 기판(SLC)을 둘러싸는 프레임들(FRa~FRd)을 구비할 수 있다.Meanwhile, the actuator 912 may include a substrate SLC including a plurality of regions BKa to BKd and frames FRa to FRd surrounding the substrate SLC.
한편, 기판(SLC)과, 기판(SLC)을 둘러싸는 프레임들(FRa~FRd) 상에, 도 6a 내지 도 6e의 컬러 필터 어레이(915)가 부착될 수 있다. 이에 따라, 컬러 필터 어레이(915)와 액츄에이터(912)가 사방향 중 어느 한 방향으로 시프트될 수 있게 된다.Meanwhile, the color filter array 915 of FIGS. 6A to 6E may be attached on the substrate SLC and the frames FRa to FRd surrounding the substrate SLC. Accordingly, the color filter array 915 and the actuator 912 can be shifted in any one of four directions.
또는, 기판(SLC)과, 기판(SLC)을 둘러싸는 프레임들(FRa~FRd) 상에, 도 7a 내지 도 7e의 센서 어레이(911)가 부착될 수 있다. 이에 따라, 센서 어레이(911)와 액츄에이터(912)가 사방향 중 어느 한 방향으로 시프트될 수 있게 된다.Alternatively, the sensor array 911 of FIGS. 7A to 7E may be attached on the substrate SLC and the frames FRa to FRd surrounding the substrate SLC. Accordingly, the sensor array 911 and the actuator 912 can be shifted in any one of four directions.
한편, 기판(SLC) 상에 형성된 복수의 영역(BKa~BKd)은, 각각 세로 방향으로 연장된 복수의 콤(comb) 또는 가로 방향으로 연장된 복수의 콤을 구비할 수 있다.Meanwhile, the plurality of regions BKa to BKd formed on the substrate SLC may include a plurality of combs extending in a vertical direction or a plurality of combs extending in a horizontal direction, respectively.
한편, 액츄에이터(912)는, 기판(SLC) 상에 형성되는 정전력 또는 전자기력 기반의 이동력을 공급하는 복수의 콤(comb)을 포함할 수 있다. Meanwhile, the actuator 912 may include a plurality of combs for supplying moving force based on electrostatic or electromagnetic force formed on the substrate SLC.
복수의 콤(comb) 중 제1 콤(CMBMa)은, 움직임 가능한(movable) 콤으로서, 정전력 또는 전자기력 기반의 이동력을 제공할 수 있다.A first comb (CMBMa) among the plurality of combs, as a movable comb, may provide a moving force based on an electrostatic force or an electromagnetic force.
한편, 복수의 콤(comb) 중 제2 콤(CMBNa)은, 제1 콤(CMBMa)과 대응하여 배치되며, 고정형 콤일 수 있다.Meanwhile, the second comb CMBNa among the plurality of combs is disposed to correspond to the first comb CMBMa, and may be a fixed comb.
한편, 액츄에이터(912)는, 기판(SLC) 상에 형성되는 지지 부재(SPa)와, 기판(SLC) 상에 형성되며 지지부재에 연결되는 스프링(MSa)을 더 포함할 수 있다. Meanwhile, the actuator 912 may further include a support member SPa formed on the substrate SLC and a spring MSa formed on the substrate SLC and connected to the support member.
한편, 제1 기간에, 복수의 콤(CMBNa,CMBMa) 중 적어도 하나에 전기 신호가 인가되어, 제1 방향으로 액츄에이터(912)가 시프트되며, 제1 기간 이후의 제2 기간에, 복수의 콤(CMBNa,CMBMa) 중 적어도 하나에 전기 신호가 인가되어, 제2 방향으로 액츄에이터(912)가 시프트되며, 제2 기간 이후의 제3 기간에, 복수의 콤(CMBNa,CMBMa) 중 적어도 하나에 전기 신호가 인가되어, 제3 방향으로 액츄에이터(912)가 시프트되며, 제3 기간 이후의 제4 기간에, 복수의 콤(CMBNa,CMBMa) 중 적어도 하나에 전기 신호가 인가되어, 제4 방향으로 액츄에이터(912)가 시프트될 수 있다. 이에 따라, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 고해상도의 이미지를 획득할 수 있게 된다. Meanwhile, in the first period, an electric signal is applied to at least one of the plurality of combs CMBNa, CMBMa to shift the actuator 912 in the first direction, and in a second period after the first period, the plurality of combs An electric signal is applied to at least one of (CMBNa, CMBMa) to shift the actuator 912 in the second direction, and in a third period after the second period, electricity is applied to at least one of the plurality of combs (CMBNa, CMBMa) A signal is applied to shift the actuator 912 in a third direction, and in a fourth period after the third period, an electric signal is applied to at least one of the plurality of combs CMBNa and CMBMa to cause the actuator 912 to be shifted in the fourth direction 912 may be shifted. Accordingly, it is possible to obtain a high-resolution image with low power using the MEMS-based actuator 912 .
예를 들어, 복수의 콤(comb)에서 발생되는 이동력은, 스프링(MSa)을 통해, 기판(SLC) 전체로 전달되고, 이에 따라, 프레임들(FRa~FRd)과 기판(SLC)이 사 방향 중 어느 하나로 이동할 수 있게 된다.For example, the moving force generated by the plurality of combs is transmitted to the entire substrate SLC through the spring MSa, and accordingly, the frames FRa to FRd and the substrate SLC are separated. You can move in either direction.
구체적으로, 기판(SLC)에 형성된 제2 영역(BLkb)의 복수의 콤에 전기 신호가 인가되는 경우, 제1 콤과 제2 콤에 의해, 이동력이 발생하여, 도 9a와 같이, 하방향으로 액츄에이터(912)가 이동하게 된다.Specifically, when an electric signal is applied to the plurality of combs of the second region BLkb formed on the substrate SLC, a moving force is generated by the first comb and the second comb, as shown in FIG. 9A , in a downward direction. As a result, the actuator 912 moves.
한편, 기판(SLC)에 형성된 제3 영역(BLkc)의 복수의 콤에 전기 신호가 인가되는 경우, 제1 콤과 제2 콤에 의해, 이동력이 발생하여, 도 9b와 같이, 우측 방향으로 액츄에이터(912)가 이동하게 된다.On the other hand, when an electric signal is applied to the plurality of combs of the third region BLkc formed on the substrate SLC, a moving force is generated by the first and second combs, and as shown in FIG. 9B , in the right direction. The actuator 912 is moved.
한편, 기판(SLC)에 형성된 제4 영역(BLkd)의 복수의 콤에 전기 신호가 인가되는 경우, 제1 콤과 제2 콤에 의해, 이동력이 발생하여, 도 9c와 같이, 상 방향으로 액츄에이터(912)가 이동하게 된다.On the other hand, when an electric signal is applied to the plurality of combs of the fourth region BLkd formed on the substrate SLC, a moving force is generated by the first and second combs and moves upward as shown in FIG. 9C . The actuator 912 is moved.
한편, 기판(SLC)에 형성된 제1 영역(BLka)의 복수의 콤에 전기 신호가 인가되는 경우, 제1 콤과 제2 콤에 의해, 이동력이 발생하여, 도 9d와 같이, 좌측 방향으로 액츄에이터(912)가 이동하게 된다.On the other hand, when an electric signal is applied to the plurality of combs of the first region BLka formed on the substrate SLC, a moving force is generated by the first comb and the second comb, and as shown in FIG. 9D , in the left direction. The actuator 912 is moved.
이에 따라, 멤스 기반 액츄에이터(912)를 사용하여 저전력으로 액츄에이터의 이동이 가능하며, 따라서, 센서 어레이를 통해, 순차적으로 색상 데이터를 획득하고, 획득된 색상 데이터를 이용하여, 고해상도의 이미지를 획득할 수 있게 된다. Accordingly, it is possible to move the actuator with low power using the MEMS-based actuator 912, and thus, sequentially acquire color data through the sensor array, and use the acquired color data to obtain a high-resolution image. be able to
한편, 도 3a 내지 도 9d에서 설명한 카메라 장치는, 도 2의 이동 단말기(100), 차량, TV, 드론, 로봇, 로봇 청소기, 출입문 등에 채용 가능하며, 결국 다양한 전자 기기에 채용 가능하다. On the other hand, the camera device described with reference to FIGS. 3A to 9D may be employed in the mobile terminal 100, vehicle, TV, drone, robot, robot cleaner, door, etc. of FIG. 2 , and may eventually be employed in various electronic devices.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims Various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

Claims (19)

  1. 렌즈 장치;lens device;
    상기 렌즈 장치의 하부에 배치되며, 상기 렌즈 장치를 통과한 광을 필터링하는 컬러 필터 어레이;a color filter array disposed under the lens device and filtering light passing through the lens device;
    상기 컬러 필터 어레이를 통과한 광을 전기 신호로 변환하는 센서 어레이;a sensor array that converts the light passing through the color filter array into an electrical signal;
    상기 컬러 필터 어레이와 상기 센서 어레이 사이에 배치되며, 상기 컬러 필터 어레이에 부착되어, 상기 컬러 필터 어레이를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터;를 포함하는 것을 특징으로 하는 카메라 장치.and a MEMS-based actuator disposed between the color filter array and the sensor array and attached to the color filter array to move the color filter array in any one of four directions. camera device.
  2. 제1항에 있어서,According to claim 1,
    상기 컬러 필터 어레이는, 4 픽셀 기반의 어레이를 포함하며,The color filter array includes a 4-pixel-based array,
    상기 액츄에이터는,The actuator is
    상기 4 픽셀 기반의 어레이에 따라, 순차적으로 사방향으로 이동하는 것을 특징으로 하는 카메라 장치.The camera device, characterized in that it sequentially moves in four directions according to the 4-pixel-based array.
  3. 제2항에 있어서,3. The method of claim 2,
    상기 액츄에이터는,The actuator is
    상기 4 픽셀 기반의 어레이에 따라, 순차적으로 1 픽셀씩 사방향으로 이동하는 것을 특징으로 하는 카메라 장치.According to the 4-pixel-based array, the camera device, characterized in that sequentially moved one pixel at a time in four directions.
  4. 제1항에 있어서,According to claim 1,
    상기 컬러 필터 어레이는, RGGB 기반의 4 픽셀 기반의 어레이를 포함하는 것을 특징으로 하는 카메라 장치.The color filter array is a camera device, characterized in that it comprises an RGB-based 4-pixel-based array.
  5. 제1항에 있어서,According to claim 1,
    상기 컬러 필터 어레이는, 복수 픽셀 기반의 어레이를 포함하며,The color filter array includes a plurality of pixel-based arrays,
    상기 액츄에이터는,The actuator is
    상기 복수 픽셀 기반의 어레이에 따라, 순차적으로 이동하며,It moves sequentially according to the plurality of pixel-based arrays,
    상기 센서 어레이는,The sensor array is
    순차적으로, 각 픽셀 별 R 신호, G 신호, B 신호를 출력하는 것을 특징으로 하는 카메라 장치.A camera device, characterized in that sequentially output the R signal, the G signal, and the B signal for each pixel.
  6. 제1항에 있어서,According to claim 1,
    상기 액츄에이터는,The actuator is
    기판;Board;
    상기 기판 상에 형성되며, 이동력을 공급하는 복수의 콤(comb);을 포함하는 것을 특징으로 하는 카메라 장치.and a plurality of combs formed on the substrate and supplying a moving force.
  7. 제6항에 있어서,7. The method of claim 6,
    상기 액츄에이터는,The actuator is
    상기 기판 상에 형성되는 지지 부재;a support member formed on the substrate;
    상기 기판 상에 형성되며 상기 지지부재에 연결되는 스프링;을 더 포함하는 것을 특징으로 하는 카메라 장치.and a spring formed on the substrate and connected to the support member.
  8. 제6항에 있어서,7. The method of claim 6,
    제1 기간에, 상기 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제1 방향으로 상기 액츄에이터가 시프트되며,In a first period, an electrical signal is applied to at least one of the plurality of combs to shift the actuator in a first direction,
    상기 제1 기간 이후의 제2 기간에, 상기 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제2 방향으로 상기 액츄에이터가 시프트되며,In a second period after the first period, an electrical signal is applied to at least one of the plurality of combs to shift the actuator in a second direction;
    상기 제2 기간 이후의 제3 기간에, 상기 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제3 방향으로 상기 액츄에이터가 시프트되며,In a third period after the second period, an electrical signal is applied to at least one of the plurality of combs to shift the actuator in a third direction,
    상기 제3 기간 이후의 제4 기간에, 상기 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제4 방향으로 상기 액츄에이터가 시프트되는 것을 특징으로 하는 카메라 장치.In a fourth period after the third period, an electric signal is applied to at least one of the plurality of combs to shift the actuator in a fourth direction.
  9. 제1항에 있어서,According to claim 1,
    상기 컬러 필터 어레이와 상기 액츄에이터의 순차적인 이동에 따라, 상기 센서 어레이에서 획득되는 전기 신호를 이용하여, RGB 기반의 이미지를 생성하는 이미지 프로세서;를 더 포함하는 것을 특징으로 하는 카메라 장치.and an image processor configured to generate an RGB-based image by using an electrical signal obtained from the sensor array according to the sequential movement of the color filter array and the actuator.
  10. 제9항에 있어서,10. The method of claim 9,
    상기 컬러 필터 어레이는, 4 픽셀 기반의 어레이를 포함하며, The color filter array includes a 4-pixel-based array,
    상기 이미지 프로세서는, The image processor,
    1 픽셀의 R, G, B 데이터를 순차적으로 획득하고, 순차적으로 획득되는 R, G, B 데이터를 이용하여, RGB 기반의 이미지를 생성하는 것을 특징으로 하는 카메라 장치.A camera device, comprising sequentially acquiring R, G, and B data of one pixel, and generating an RGB-based image by using the sequentially acquired R, G, and B data.
  11. 렌즈 장치;lens device;
    상기 렌즈 장치의 하부에 배치되며, 상기 렌즈 장치를 통과한 광을 필터링하는 컬러 필터 어레이;a color filter array disposed under the lens device and filtering light passing through the lens device;
    상기 컬러 필터 어레이를 통과한 광을 전기 신호로 변환하는 센서 어레이;a sensor array that converts the light passing through the color filter array into an electrical signal;
    상기 센서 어레이의 하부에 부착되며, 상기 센서 어레이를 사 방향 중 어느 한 방향으로 이동시키는 멤스(MEMS) 기반의 액츄에이터;를 포함하는 것을 특징으로 하는 카메라 장치.and a MEMS-based actuator attached to a lower portion of the sensor array and moving the sensor array in any one of four directions.
  12. 제11항에 있어서,12. The method of claim 11,
    상기 컬러 필터 어레이는, RGGB 기반의 4 픽셀 기반의 어레이를 포함하는 것을 특징으로 하는 카메라 장치.The color filter array is a camera device, characterized in that it comprises an RGB-based 4-pixel-based array.
  13. 제11항에 있어서,12. The method of claim 11,
    상기 컬러 필터 어레이는, 복수 픽셀 기반의 어레이를 포함하며,The color filter array includes a plurality of pixel-based arrays,
    상기 액츄에이터는,The actuator is
    상기 복수 픽셀 기반의 어레이에 따라, 순차적으로 이동하며,It moves sequentially according to the plurality of pixel-based arrays,
    상기 센서 어레이는,The sensor array is
    순차적으로, 각 픽셀 별 R 신호, G 신호, B 신호를 출력하는 것을 특징으로 하는 카메라 장치.A camera device, characterized in that sequentially output the R signal, the G signal, and the B signal for each pixel.
  14. 제11항에 있어서,12. The method of claim 11,
    상기 액츄에이터는,The actuator is
    기판;Board;
    상기 기판 상에 형성되며, 이동력을 공급하는 복수의 콤(comb);을 포함하는 것을 특징으로 하는 카메라 장치.and a plurality of combs formed on the substrate and supplying a moving force.
  15. 제14항에 있어서,15. The method of claim 14,
    상기 액츄에이터는,The actuator is
    상기 기판 상에 형성되는 지지 부재;a support member formed on the substrate;
    상기 기판 상에 형성되며 상기 지지부재에 연결되는 스프링;을 더 포함하는 것을 특징으로 하는 카메라 장치.and a spring formed on the substrate and connected to the support member.
  16. 제14항에 있어서,15. The method of claim 14,
    제1 기간에, 상기 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제1 방향으로 상기 액츄에이터가 시프트되며,In a first period, an electrical signal is applied to at least one of the plurality of combs to shift the actuator in a first direction,
    상기 제1 기간 이후의 제2 기간에, 상기 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제2 방향으로 상기 액츄에이터가 시프트되며,In a second period after the first period, an electrical signal is applied to at least one of the plurality of combs to shift the actuator in a second direction;
    상기 제2 기간 이후의 제3 기간에, 상기 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제3 방향으로 상기 액츄에이터가 시프트되며,In a third period after the second period, an electrical signal is applied to at least one of the plurality of combs to shift the actuator in a third direction,
    상기 제3 기간 이후의 제4 기간에, 상기 복수의 콤 중 적어도 하나에 전기 신호가 인가되어, 제4 방향으로 상기 액츄에이터가 시프트되는 것을 특징으로 하는 카메라 장치.In a fourth period after the third period, an electric signal is applied to at least one of the plurality of combs to shift the actuator in a fourth direction.
  17. 제11항에 있어서,12. The method of claim 11,
    상기 센서 어레이와 상기 액츄에이터의 순차적인 이동에 따라, 상기 이미지 센서에서 획득되는 전기 신호를 이용하여, RGB 기반의 이미지를 생성하는 이미지 프로세서;를 더 포함하는 것을 특징으로 하는 카메라 장치.and an image processor configured to generate an RGB-based image by using an electrical signal obtained from the image sensor according to sequential movement of the sensor array and the actuator.
  18. 제17항에 있어서,18. The method of claim 17,
    상기 컬러 필터 어레이는, 4 픽셀 기반의 어레이를 포함하며, The color filter array includes a 4-pixel-based array,
    상기 이미지 센서는, The image sensor is
    1 픽셀의 R, G, B 데이터를 순차적으로 획득하고, 순차적으로 획득되는 R, G, B 데이터를 이용하여, RGB 기반의 이미지를 생성하는 것을 특징으로 하는 카메라 장치.A camera device, comprising sequentially acquiring R, G, and B data of one pixel, and generating an RGB-based image by using the sequentially acquired R, G, and B data.
  19. 제1항 내지 제18항 중 어느 한 항의 이미지 센서를 구비하는 전자 기기.An electronic device comprising the image sensor of any one of claims 1 to 18.
PCT/KR2020/002280 2020-02-18 2020-02-18 Camera device and electronic device comprising same WO2021167116A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/002280 WO2021167116A1 (en) 2020-02-18 2020-02-18 Camera device and electronic device comprising same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/002280 WO2021167116A1 (en) 2020-02-18 2020-02-18 Camera device and electronic device comprising same

Publications (1)

Publication Number Publication Date
WO2021167116A1 true WO2021167116A1 (en) 2021-08-26

Family

ID=77390857

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/002280 WO2021167116A1 (en) 2020-02-18 2020-02-18 Camera device and electronic device comprising same

Country Status (1)

Country Link
WO (1) WO2021167116A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010010958A (en) * 2008-06-25 2010-01-14 Olympus Corp Multi-band image pickup method and apparatus
KR20150002220A (en) * 2013-06-28 2015-01-07 엘지이노텍 주식회사 MICRO ELECTRO MECHANICAL SYSTEMS DEVICE and CAMERA MODULE HAVING THE SAME
US20150334357A1 (en) * 2014-05-16 2015-11-19 Omnivision Technologies, Inc. Wafer level camera having movable color filter grouping
US20170111566A1 (en) * 2015-10-20 2017-04-20 Olympus Corporation Image acquisition apparatus, image obtaining method, image obtaining program, and storage medium
KR20190101763A (en) * 2018-02-23 2019-09-02 엘지이노텍 주식회사 Camera module

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010010958A (en) * 2008-06-25 2010-01-14 Olympus Corp Multi-band image pickup method and apparatus
KR20150002220A (en) * 2013-06-28 2015-01-07 엘지이노텍 주식회사 MICRO ELECTRO MECHANICAL SYSTEMS DEVICE and CAMERA MODULE HAVING THE SAME
US20150334357A1 (en) * 2014-05-16 2015-11-19 Omnivision Technologies, Inc. Wafer level camera having movable color filter grouping
US20170111566A1 (en) * 2015-10-20 2017-04-20 Olympus Corporation Image acquisition apparatus, image obtaining method, image obtaining program, and storage medium
KR20190101763A (en) * 2018-02-23 2019-09-02 엘지이노텍 주식회사 Camera module

Similar Documents

Publication Publication Date Title
WO2018159864A1 (en) Mobile terminal and control method for mobile terminal
WO2016024746A1 (en) Mobile terminal
WO2016171334A1 (en) Camera module
WO2021006366A1 (en) Artificial intelligence device for adjusting color of display panel, and method therefor
WO2018169135A1 (en) Terminal and method of controlling therefor
WO2019225978A1 (en) Camera and terminal including the same
WO2021251549A1 (en) Display device
WO2021085658A1 (en) Electronic device including display changing in size and control method therefor
WO2018124334A1 (en) Electronic device
WO2015174611A1 (en) Mobile terminal and control method therefor
WO2022114801A1 (en) Electronic device comprising plurality of cameras, and control method for electronic device
WO2020059925A1 (en) Mobile terminal
WO2021070982A1 (en) Electronic device for sharing content and control method therefor
WO2016190498A1 (en) Mobile terminal
WO2015152443A1 (en) Stylus and mobile terminal having same
WO2022158622A1 (en) Mobile terminal
WO2022054991A1 (en) Mobile terminal and method for controlling same
WO2019022492A1 (en) Camera, and image display apparatus including the same
WO2021167116A1 (en) Camera device and electronic device comprising same
WO2019225980A1 (en) Diaphragm device, camera and terminal having same
WO2022054986A1 (en) Mobile terminal
WO2018026055A2 (en) Mobile terminal and control method thereof
WO2021085694A1 (en) Image sensor, and camera and electronic device including same
WO2020091156A1 (en) Terminal
WO2021246555A1 (en) Camera device and electronic device having same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20919997

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20919997

Country of ref document: EP

Kind code of ref document: A1