KR101630302B1 - 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법 - Google Patents

입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법 Download PDF

Info

Publication number
KR101630302B1
KR101630302B1 KR1020100009669A KR20100009669A KR101630302B1 KR 101630302 B1 KR101630302 B1 KR 101630302B1 KR 1020100009669 A KR1020100009669 A KR 1020100009669A KR 20100009669 A KR20100009669 A KR 20100009669A KR 101630302 B1 KR101630302 B1 KR 101630302B1
Authority
KR
South Korea
Prior art keywords
depth information
touch panel
plane coordinate
coordinate information
touch
Prior art date
Application number
KR1020100009669A
Other languages
English (en)
Other versions
KR20110090085A (ko
Inventor
신리 다카하시
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100009669A priority Critical patent/KR101630302B1/ko
Priority to US13/014,787 priority patent/US8872955B2/en
Publication of KR20110090085A publication Critical patent/KR20110090085A/ko
Application granted granted Critical
Publication of KR101630302B1 publication Critical patent/KR101630302B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2622Signal amplitude transition in the zone between image portions, e.g. soft edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 다양한 촬영자의 조작 신호를 입력할 수 있는 입체 터치 패널을 구비하는 디지털 촬영 장치의 제어 방법 및 상기 장치에 관한 것이다. 본 발명에 따르면 객체의 평면 좌표 정보뿐만 아니라 상기 디지털 촬영 장치로부터 이격 된 거리를 깊이 정보로서 인식하고 상기 깊이 정보에 따라 특정 동작의 실행을 제어할 수 있다. 특히, 영상의 캡쳐 전 AE, AF, AWB 등의 동작을 제어하고, 촬영자가 원하는 시점에 원하는 영상에 대해 터치함으로써 상기 영상을 캡쳐 하여 촬영자의 조작 신호 입력 후 실제 촬영이 이루어지는 시점까지의 타임 러그를 줄일 수 있다.

Description

입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법{Digital photographing apparatus and method for controlling the same}
본 발명은 디지털 촬영 장치 및 이의 제어 방법에 관한 것이다.
최근 촬영자의 영상 확인의 편의 등을 위하여 디지털 카메라에 장착된 표시부의 크기는 점점 커지고 있다. 상대적으로 조작 부재 등의 배치 면적이 줄어들게 된다. 가장 효과적으로는 촬영자의 조작 신호를 표시부를 통해 입력할 수 있는 터치 스크린의 채용이다.
반면, 디지털 카메라는 촬영 중 AF, AE, AWB 등의 다양한 작동들을 필요로 하며, 이러한 작동 완료 후 촬영을 유도하는 것이 바람직하다. 라이브뷰 모드에서 표시부에 라이브뷰 영상을 디스플레이하며, 이와 함께 상기 작동들을 제어하기 위하여 촬영자의 조작 신호 입력하는 아이콘도 디스플레이한다. 그러나 상기 동작들 각각을 실행하는 아이콘들을 모두 디스플레이하려면 라이브뷰 영상이 일부 가려지는 등의 문제가 있다. 즉, 라이브뷰 영상을 디스플레이하는 표시부의 크기가 줄어드는 것과 같은 문제가 발생한다.
본 발명은 터치 패널에서 다양한 촬영자의 조작 신호들을 입력할 수 있는 디지털 촬영 장치 및 방법을 제공하고자 한다.
본 발명은 입체 터치 패널을 구비하는 디지털 촬영 장치의 제어 방법을 제공한다.
본 발명에 관한 입체 터치 패널을 구비하는 디지털 촬영 장치의 제어 방법의 일 실시 예로서, 상기 입체 터치 패널에서 객체의 평면 좌표 정보를 도출하는 단계와, 상기 디지털 촬영 장치에 입력된 영상 중에서, 상기 객체의 평면 좌표 정보에 대응하는 피사체 영역을 지정하는 단계와, 상기 입체 터치 패널에서 상기 객체의 깊이 정보를 도출하는 단계와, 상기 객체의 깊이 정보에 따라 상기 피사체 영역의 제1 영상에 대하여 촬영 준비 처리를 행하는 단계와, 상기 촬영 준비 처리가 행해진 상기 피사체 영역의 제2 영상을 촬영하는 단계를 구비하는 디지털 촬영 장치의 제어 방법을 제공한다.
본 발명에 관한 입체 터치 패널을 구비하는 디지털 촬영 장치의 제어 방법의 다른 실시 예로서, 상기 입체 터치 패널에서 객체의 평면 좌표 정보를 도출하는 단계와, 상기 객체의 평면 좌표 정보에 대응하는 제1 동작을 실행하는 단계와, 상기 입체 터치 패널에서 상기 객체의 깊이 정보를 도출하는 단계와, 상기 객체의 깊이 정보에 따라 제2 동작을 실행하는 단계를 포함하는 디지털 촬영 장치의 제어 방법을 제공한다.
본 발명에 관한 입체 터치 패널을 구비하는 디지털 촬영 장치의 제어 방법의 또 다른 실시 예로서, 상기 입체 터치 패널에서 객체의 깊이 정보를 도출하는 단계와, 상기 객체의 깊이 정보에 따라 제1 동작을 실행하는 단계와, 상기 입체 터치 패널에서 상기 객체의 터치를 감지하는 단계와, 상기 객체의 터치 감지에 대응하여 제2 동작을 실행하는 단계를 포함하는 디지털 촬영 장치의 제어 방법을 제공한다.
또한 본 발명은 입체 터치 패널을 구비하는 디지털 촬영 장치를 제공한다.
본 발명의 일 실시 예에 관한 디지털 촬영 장치는 객체의 평면 좌표 정보 및 깊이 정보를 도출하는 입체 터치 패널과, 상기 디지털 촬영 장치에 입력된 영상 중에서 상기 객체의 평면 좌표 정보에 대응하는 피사체 영역을 지정하는 피사체 영역 설정부와, 상기 객체의 깊이 정보에 따라 상기 피사체 영역의 제1 영상에 대하여 촬영 준비 처리를 행하는 전처리 제어부와, 상기 촬영 준비 처리가 행해진 상기 피사체 영역의 제2 영상을 촬영하는 촬영 신호 제어부를 구비한다.
본 발명의 다른 실시 예에 관한 디지털 촬영 장치는 객체의 평면 좌표 정보를 도출하고, 상기 객체의 깊이 정보를 도출하는 입체 터치 패널과, 상기 객체의 평면 좌표 정보에 대응하는 제1 동작을 실행하는 제1 동작 실행부와, 상기 객체의 깊이 정보에 따라 제2 동작을 실행하는 제2 동작 실행부를 포함할 수 있다.
본 발명의 또 다른 실시 예에 관한 디지털 촬영 장치는 객체의 깊이 정보를 도출하고 상기 객체의 터치를 감지하는 입체 터치 패널과, 상기 객체의 깊이 정보에 따라 제1 동작을 실행하는 제1 동작 실행부와, 상기 객체의 터치 감지에 대응하여 제2 동작을 실행하는 제2 동작 실행부를 포함할 수 있다.
본 발명에 따르면 객체의 평면상의 터치 위치뿐만 아니라 객체의 공간 상의 터치 위치까지 인식함으로써 촬영자의 다양한 조작 신호 입력이 가능하다.
또한, 본 발명에 따르면 상기 공간 상의 터치 위치 변화로부터 영상 캡쳐 젼 전처리 동작으로서 AF, AE, AWB 등의 동작을 제어한 후, 촬영자가 원하는 시간에 터치하여 촬영하도록 함으로써, 촬영자의 의도대로 촬영 시점을 용이하게 조정할 수 있다. 촬영자가 터치하는 경우 AE, AF, AWB 등의 전처리 후 영상을 캡쳐하는 경우 상기 전처리로 인한 영상이 촬영자가 원하는 영상이 아닐 수도 있으며, 촬영자의 조작 신호 입력과 영상 캡쳐 까지의 시간 간격이 너무 길어 촬영자가 원하는 영상을 촬영할 수 없을 수 있는 문제를 해소할 수도 있다.
도 1은 본 발명의 일 실시 예에 관한 디지털 촬영 장치를 설명하기 위한 블럭도이다.
도 2는 도 1에 도시된 디지털 촬영 장치의 일 구성 요소들인 입체 터치 패널과 DSP/CPU의 일 실시 예를 설명하기 위한 블럭도이다.
도 3은 도 1에 도시된 디지털 촬영 장치의 일 구성 요소들인 입체 터치 패널과 DSP/CPU의 다른 실시 예를 설명하기 위한 블럭도이다.
도 4는 본 발명에 관한 디지털 촬영 장치에서 터치를 인식하는 모습을 설명하기 위한 도면이다.
도 5는 본 발명에 관한 디지털 촬영 장치에서 객체의 깊이 정보를 인식함을 설명하기 위한 도면이다.
도 6은 본 발명에 관한 디지털 촬영 장치의 제어 방법의 일 실시 예를 설명하기 위한 순서도이다.
도 7은 본 발명에 관한 디지털 촬영 장치에서 객체의 깊이 정보를 인식함으로써 촬영 모드에서 주밍 동작을 실행함을 설명하기 위한 도면이다.
도 8은 본 발명에 관한 디지털 촬영 장치에서 객체의 깊이 정보를 인식함으로써 재생 모드에서 주밍 동작을 실행함을 설명하기 위한 도면이다.
도 9는 본 발명에 관한 디지털 촬영 장치의 제어 방법의 다른 실시 예를 설명하기 위한 순서도이다.
도 10은 본 발명에 관한 디지털 촬영 장치에서 객체의 깊이 정보를 인식함으로써 오토포커싱 동작을 실행함을 설명하기 위한 도면이다.
도 11은 본 발명에 관한 디지털 촬영 장치의 제어 방법의 또 다른 실시 예를 설명하기 위한 순서도이다.
도 12와 도 13은 본 발명에 관한 디지털 촬영 장치에서 객체의 깊이 정보를 인식함으로서 사용자 설정 모드를 실행함을 설명하기 위한 도면들이다.
본 발명에 관한 디지털 촬영 장치 및 이의 제어 방법을 첨부한 도면을 참조하여 설명한다. 본 발명에 관한 디지털 촬영 장치는 디지털 카메라, 비디오 카메라, PDA(personal digital assistant), TV, 디지털 액자, 휴대폰, PMP(portable multimedia player) 등의 디지털 기기에 적용가능하다.
도 1은 본 발명에 관한 디지털 촬영 장치의 일 실시 예를 설명하기 위한 블럭도이다.
도 1을 참조하면, 상기 디지털 촬영 장치는 광학부(11), 광학 구동부(12), 촬상 소자(13), CDS/AMP(14), AD컨버터(15), 화상 입력 제어부(20), 메모리(30), 프로그램 저장부(40), 기록 제어부(51)와 기록부(52), 입체 터치 패널(60), DSP/CPU(70) 등을 구비한다.
상기 광학부(11)는 광학 신호를 집광하는 렌즈, 상기 광학 신호의 양(광량)을 조절하는 조리개, 광학 신호의 입력을 제어하는 셔터 등을 포함할 수 있다. 상기 렌즈는 초점 거리(focal length)에 따라 화각이 좁아지거나 또는 넓어지도록 제어하는 줌 렌즈 및 피사체의 초점을 맞추는 포커스 렌즈 등을 포함하며, 이들 렌즈들은 각각 하나의 렌즈로 구성될 수도 있지만, 복수 렌즈들의 군집으로 이루어질 수도 있다. 셔터로 가리개가 위아래로 움직이는 기계식 셔터를 구비할 수 있다. 또는 별도의 셔터 장치 대신 촬상부(20)에 전기 신호의 공급을 제어하여 셔터 역할을 행할 수도 있다.
상기 광학부(11)를 구동하는 광학 구동부(12)는 오토 포커스, 자동 노출 조정, 조리개 조정, 줌, 초점 변경 등의 동작을 실행하기 위하여 렌즈의 위치, 조리개의 개폐, 셔터의 동작 등을 구동할 수 있다. 상기 광학 구동부(12)는 DSP/CPU(70)로부터의 제어 신호를 제공받아, 이에 따라 상기 광학부(11)의 구동할 수 있다.
촬상 소자(13)는 광학부(11)를 통해 입력된 광학 신호를 수광하여 전기 신호로 변환하는 광전 변환 소자를 구비한다. 상기 광전 변환 소자로 CCD(Charge coupled device) 센서 어레이, CMOS(Complementary Metal Oxide Semiconductor) 센서 어레이 등을 사용할 수 있다.
CDS/AMP(상관 이중 샘플링 회로(correlated double sampling)/증폭기(amplifier); 14)는 촬상 소자(13)에서 출력된 전기 신호에 포함된 저주파 노이즈를 제거함과 동시에 전기 신호를 임의의 레벨까지 증폭시킨다.
AD컨버터(15)는 CDS/AMP(14)에서 출력된 전기 신호를 디지털 변환하여 디지털 신호를 생성한다. AD컨버터(15)는 생성한 디지털 신호를 화상 입력 제어부(20)에 출력한다.
촬상 소자(13), CDS/AMD(14), AD 컨버터(15)는 DSP/CPU(70)의 타이밍 제너레이터(TG)로부터 공급되는 타이밍 신호에 따라 제어될 수 있다. TG는 촬상 소자(13)에 타이밍 신호를 출력하여 광전 변환 소자 각 화소의 노광 기간을 제어하거나 전하의 독출을 제어한다. 따라서 촬상 소자(13)는 TG로부터 제공되는 타이밍 신호에 따라 일 프레임의 영상에 대응하는 영상 데이터를 제공할 수 있다.
메모리(30)는 촬영한 영상의 영상 데이터를 일시적으로 저장한다. 여러 개 영상들의 영상 데이터를 기억할 수 있으며, 포커스 제어시의 영상 신호를 차례대로 유지하여 영상 신호를 출력한다. 화상 입출력 제어부(20)에 영상을 읽고 쓰는 것이 제어될 수 있다. 또한, 상기 메모리(30)는 적어도 하나의 채널을 갖는 이미지표시용 메모리를 구비할 수 있다. 상기 메모리(30)에서 입체 터치 패널(60)의 표시부로 영상 데이터의 입력과 출력을 동시에 실행할 수 있다. 상기 표시부의 해상도나 최대 발색수는 표시용 메모리의 용량에 의존한다.
프로그램 저장부(40)는 상기 디지털 촬영 장치를 작동하는 필요한 OS, 응용 프로그램 등을 저장할 수 있다. 상기 프로그램 저장부(40)로서 E2PROM, 플래쉬 메모리, ROM 등을 사용할 수 있다.
기록 제어부(51)는 기록부(52)로의 영상 데이터의 기입 또는 기록부(52)에 기록된 영상 데이터나 설정 정보 등의 독출을 제어한다. 기록부(52)는, 예를 들면 광디스크(CD, DVD, 블루레이디스크 등), 광자기 디스크, 자기 디스크, 반도체 기억매체 등으로서, 촬영된 영상 데이터를 기록한다. 기록 제어부(51), 기록부(52)는 상기 디지털 촬영 장치에 착탈 가능한 것일 수 있다.
입체 터치 패널(60)은 촬영자의 입력으로서 객체의 터치를 감지하는 터치부와 소정 영상을 디스플레이하는 표시부를 구비한다. 또한 각 터치부로부터의 감지 신호에 의해 터치 위치를 도출하는 구성 및 상기 표시부에서 각종 설정 화면 또는 촬영으로 생성된 영상 데이터에 대응하는 영상을 디스플레이하도록 구동하는 표시 구동부를 구비한다. 구체적으로 상기 입체 터치 패널(60)에 대하여 이후 도 2 및 도 3을 참조하여 설명한다.
DSP/CPU(70)는 프로그램에 의해 연산 처리 장치 및 제어 장치로서, 상기 디지털 촬영 장치 안에 설치된 각 구성 요소의 처리를 제어한다. DSP/CPU(70)는, 예를 들면 포커스 제어나 노출 제어에 기초하여 광학 구동부(12)에 제어 신호를 출력하고 광학부(11)를 구동시킨다. 또한, DSP/CPU(70)는 촬영자의 입력 신호에 기초하여 디지털 촬영 장치의 각 구성 요소를 제어한다. 본 실시 예에서는 DSP/CPU(70)가 하나로만 이루어진 구성이지만, 신호계의 명령과 조작계의 명령을 각각 CPU에서 수행하는 등 여러 개의 CPU로 구성하는 것도 가능하다.
또한, 상기 DSP/CPU(70)는 입력된 영상 데이터에 대해 노이즈를 저감하고, 감마 컬렉션(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 영상 신호 처리를 수행할 수 있다. 또한, 압축 처리 전의 영상 신호를 받아 예를 들면 JPEG압축 형식 또는 LZW압축 형식 등의 압축 형식으로 화상 신호를 압축 처리한다.
상기 입체 터치 패널(60)에 의해 입력된 제어 신호와 이에 따른 DSP/CPU(70)의 동작을 구체적으로 도 2와 3을 참조하여 설명한다.
도 2는 도 1에 도시된 디지털 촬영 장치의 일 구성 요소들인 입체 터치 패널과 DSP/CPU의 일 실시 예를 설명하기 위한 블럭도이다.
도 2를 참조하면, 상기 입체 터치 패널(60)은 터치부(61)와 표시부(64)를 구비한다.
상기 터치부(61)는 정전용량박식의 터치 스크린, 적외선 터치 스크린, EMR 터치 스크린 중 적어도 어느 하나를 포함할 수 있다. 또는 상기 터치부(61)는 상기 표시부(64)에 매립되어 있는 구조의 광 센서 터치 스크린일 수도 있다.
상기 정전용량 방식의 터치 스크린은 손가락 혹은 전도체와 같은 객체와 터치 스크린 센서 간의 정전용량을 측정하여 특정치와 특정값을 비교하여 접촉 여부를 판단하고, 상기 객체가 터치 스크린의 평면과 얼마나 떨어져 있는지를 산출한다. 정전용량 방식의 터치 스크린은 전하를 저장하는 재료로 코팅된 센서부와 상기 센서부로부터 감지된 센싱 신호를 수집하는 구동부를 구비한다. 상기 센서부는 상기 표시부의 일면 상에 배치될 수 있다. 상기 객체가 상기 센서부에 접촉 또는 접근하면 소정의 전하의 상기 센서부의 상기 객체가 접촉 또는 접근하는 평면의 일 지점으로 집중한다. 그리고 상기 구동부에서 이러한 전하의 변화량을 측정하며, 위치 도출부에서 측정한 전화변화량에 기초하여 객체의 접촉 또는 접근 여부 또는/및 접촉 또는 접근 위치를 도출할 수 있다.
상기 적외선 터치 스크린은 적외선 펜과 같은 객체에서 발생하는 적외선이 상기 적외선 터치 스크린의 표면에서 산란되어 상기 적외선 터치 스크린의 외곽에 위치한 적외선 수신기에서 적외선 산란 신호를 감지한다. 위치 도출부에서 감지한 상기 산란 신호를 특정값과 비교하여 상기 객체의 접촉 및 접근 여부 또는/및 상기 객체의 접촉 및 접근 위치를 도출할 수 있다.
상기 EMR 터치 스크린은 EMR 센서부와 전용펜 간의 EMR(Electro-Magnetic Resonance, 전자기공명)을 센싱하고, 센싱한 신호에 근거하여 위치 도출부에서 전용펜의 근접 정도(거리)를 측정할 수 있다.
또는 광 센서 터치 스크린으로서 LCD 또는 OLED 등의 표시부(64)에 광 센서를 내장한 터치부(61)를 구비하고, 상기 광 센서에서 손가락 또는 터치 펜 등의 객체의 영상을 촬상하고, 위치 도출부에서 촬상한 영상을 분석하여 상기 객체의 접촉 및 접근 여부 또는 이의 위치를 도출할 수 있는 방법도 있다. 상기 영상이 점점 커지면 상기 객체가 접근하는 것으로, 상기 영상이 점점 작아지면 상기 객체가 멀어지는 것으로 판단할 수 있다.
상술한 바와 같이 터치부(61) 각각은 객체의 접촉 또는/및 접근 여부를 감지에 대응하여 센싱 신호를 위치 도출부에 제공한다. 그리고 위치 도출부에서 상기 센싱 신호에 근거하여 객체의 접촉 또는/및 접근 여부 및 이의 터치 위치를 도출할 수 있다 .
본 실시 예에서는 상기 위치 도출부로서 평면 좌표 정보 도출부(62)와 깊이 정보 도출부(63)를 구비한다.
평면 좌표 정보 도출부(62)는 터치부(61)의 터치 면에 대하여 객체의 위치 정보를 도출한다. 깊이 정보 도출부(63)는 상기 터치 면으로부터 상기 객체가 얼마나 근접한지에 관한 깊이 정보를 도출한다. 본 발명에서는 상기 객체가 터치 스크린면에 접촉했을 때 뿐만 아니라, 상기 객체가 상기 터치 스크린으로부터 얼마나 이격되어 있는지에 관한 깊이 정보까지 도출하는 것으로서, 특정 조건 하에서 평면 좌표 정보 및 깊이 정보를 도출하도록 설정할 수 있다. 일 예로서, 상기 평면 좌표 정보 도출부(62)는 상기 객체가 소정 시간 유지하는 경우 상기 객체의 평면 좌표 정보를 도출할 수 있다. 또한, 상기 깊이 정보 도출부(63)도 상기 객체가 소정 시간 유지하는 경우에 상기 객체의 깊이 정보를 도출할 수 있다. 상기 깊이 정보는 상기 객체의 평면 좌표 정보를 감지한 때의 깊이 정보를 기준으로 상기 객체와 상기 입체 터치 패널(60)과의 상대적인 거리에 대응하는 것일 수 있다.
그리고 상기 입체 터치 패널(60)은 소정 영상을 표시하도록 영상 데이터 및 동기 신호들을 표시부(64)에 제공하는 표시 구동부(65)를 구비한다. 표시부(64)로 LCD, OLED, LED, PDP 등의 다양한 디스플레이 패널을 사용할 수 있다. 표시 구동부(65)는 각 디스플레이 패널에 적합한 드라이버 IC를 구비할 수 있다.
일 실시 예로서, 상기 입체 터치 패널(60)과 연동하여 시스템을 제어하는 ESP/CPU(70a)는 제1 동작 실행부(71a), 제2 동작 실행부(72a), 카운팅부(74a), 기준 깊이 설정부(75a), 판단부(76a)를 구비할 수 있다.
상기 제1 동작 실행부(71a)는 상기 평면 좌표 정보 도출부(62)에서 도출한 평면 좌표 정보에 대응하는 제1 동작을 실행할 수 있다. 일 예로서, 상기 표시부(64)에 상기 평면 좌표 정보에 대응하여 UI(User interface)가 디스플레이되어 있으며, 터치 객체가 상기 UI 상부에 위치하는 경우, 상기 UI의 선택을 인식하고, 상기 UI에 관련된 디지털 촬영 장치가 특정 제1 동작을 실행할 수 있다.
상기 제2 동작 실행부(72a)는 상기 깊이 정보 도출부(63)에서 도출한 깊이 정보에 대응하는 제2 동작을 실행할 수 있다. 상기 일 예에서, 상기 평면 좌표 정보를 갖는 상기 표시부(61)의 일 영역에 터치 객체가 접근하거나 또는 멀어지거나 또는 접촉하는 것에 따른 제2 동작을 실행할 수 있다. 즉, 상기 객체의 깊이 정보에 따라 제2 동작을 실행할 수 있다. 상기 제1 동작이 특정 모드를 실행하는 것이라면, 상기 제2 동작은 상기 특정 모드에서의 변수를 선택하는 동작일 수 있다. 따라서, 인식한 상기 평면 좌표 정보에 대응하여 상기 디지털 촬영 장치에서 특정 모드를 선택하는 동작을 행하고, 인식한 상기 깊이 정보에 대응하여 상기 특정 모드에서 변수를 설정하는 동작을 행할 수 있다.
상기 깊이 정보에 대응하는 영상, 소리, 진동 등을 피드백으로 제공할 수 있다. 예를 들어, 상기 터치 객체가 터치부(61)로 접근하는 경우 상기 UI를 제1 색으로 디스플레이하고, 멀어지는 경우 제2 색으로, 접촉하는 경우 제3 색으로 표시부(64)에 디스플레이할 수 있다. 또는 상기 깊이 정보에 따라 소리를 크게 또는 작게 출력하거나, 진동의 강도를 그게 또는 작게 할 수 있다.
카운팅부(74a)는 평면 좌표 정보 도출부(62)로부터 실시간으로 제공하는 평면 좌표 정보가 소정 시간 유지하는지 판단한다.
기준 깊이 설정부(75a)는 상기 평면 좌표 정보가 소정 시간 유지되는 때, 터치 객체의 깊이 정보를 기준 깊이 정보로 설정한다.
그리고 판단부(76a)는 깊이 정보 도출부(63)에서 도출한 깊이 정보와 설정한 기준 깊이 정보를 비교한다.
비교 판단 결과에 따라 제2 동작 실행부(72a)는 해당 변수를 설정할 수 있다.
일 예로서, 상기 제1 동작 실행부(71a)는 상기 객체의 평면 좌표 정보에 대응하여 라이브뷰(Live-view)에서 주밍 모드를 선택 및 시작하는 제1 동작을 실행하고, 상기 제2 동작 실행부(72a)는 상기 주밍 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 줌(Zoom) 배율을 설정하는 동작을 실행할 수 있다. 터치 객체가 주밍 모드를 선택하는 UI 상부에 배치하는 경우 주밍 모드를 선택하는 제1 동작을 실행하고, 상기 주밍 모드를 선택하는 때의 깊이 정보를 기준으로 상기 터치 객체가 접근하는 경우 tele move 동작을, 상기 터치 객체가 멀어지는 경우 wide move 동작을 실행할 수 있다.
다른 예로서, 상기 제1 동작 실행부(71a)는 상기 객체의 평면 좌표 정보에 대응하여 재생시에 주밍 영역을 선택하는 제1 동작을 실행하고, 상기 제2 동작 실행부(72a)는 상기 주밍 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 상기 변수로서 상기 주밍 영역에 대한 줌 배율을 설정하는 제2 동작을 실행할 수 있다.
또한, 상기 DSP/CPU(70a)는 제3 동작 실행부(73a)를 더 구비할 수 있다. 상기 판단부(76a)에서 상기 깊이 정보로부터 객체의 터치를 판단하고, 상기 객체의 터치에 대응하여 제3 동작을 실행할 수 있다.
일 예로서, 상기 제1 동작 실행부(71a)는 상기 객체의 평면 좌표 정보에 대응하여 라이브뷰에서 주밍 모드를 시작하는 동작을 실행하고, 상기 제2 동작 실행부(72a)는 상기 주밍 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 줌 배율을 설정하는 동작을 실행하며, 상기 제3 동작 실행부(73a)는 상기 객체의 터치 감지에 대응하여 설정한 줌 배율에 따라 입력된 영상을 캡쳐하는 동작을 실행할 수 있다. 캡쳐한 상기 영상을 압축 처리하여 기록 매체에 저장할 수 있다.
다른 실시 예로서, 상기 입체 터치 패널(60)과 연동하여 시스템을 제어하는 ESP/CPU(70a)는 제1 동작 실행부(71a), 제2 동작 실행부(72a), 카운팅부(74a), 기준 깊이 설정부(75a), 판단부(76a)를 구비할 수 있다.
상기 제1 동작 실행부(71a)는 상기 객체의 깊이 정보에 따라 제1 동작을 실행할 수 있다. 이전에 카운팅부(74a)는 평면 좌표 정보 도출부(62)로부터 실시간으로 제공하는 평면 좌표 정보가 소정 시간 유지하는지 판단한다. 기준 깊이 설정부(75a)는 상기 평면 좌표 정보가 소정 시간 유지되는 때, 터치 객체의 깊이 정보를 기준 깊이 정보로 설정한다. 그리고 판단부(76a)는 깊이 정보 도출부(63)에서 도출한 깊이 정보와 설정한 기준 깊이 정보를 비교한다. 도출한 상기 깊이 정보와 상기 기준 깊이 정보의 비교판단 결과에 따라 상기 제1 동작 실행부(71a)에서 제1 동작을 실행할 수 있다.
그리고 제2 동작 실행부(72a)에서 객체의 터치 감지에 대응하여 제2 동작을 실행할 수 있다. 상기 객체의 터치 감지는 깊이 정보 도출부(63)로부터 제공한 깊이 정보에 따라 판단부(76a)에서 더 판단할 수 있다.
일 예로서, 상기 제1 동작 실행부(71a)는 사용자 설정 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 상기 객체의 깊이 정보에 따라 복수의 메뉴들 중 설정하고자 하는 메뉴를 선택하는 제1 동작을 실행하고, 상기 제2 동작 실행부(72a)는 상기 객체의 터치에 대응하여 선택한 상기 메뉴에 포함된 항목들 중 상기 객체의 터치 위치에 대응하는 항목을 설정하는 제2 동작을 실행할 수 있다.
상기 ESP/CPU(70a)는 상기 기준 깊이 설정시의 객체의 평면 좌표 정보에 대응하여 제3 동작 실행부(73a)를 더 구비할 수 있다.
일 예로서, 상기 제3 동작 실행부(73a)는 상기 객체의 평면 좌표 정보에 대응하여 사용자 설정 모드를 시작하는 제3 동작을 실행할 수 있다.
도 3은 도 1에 도시된 디지털 촬영 장치의 일 구성 요소들인 입체 터치 패널과 DSP/CPU의 다른 실시 예를 설명하기 위한 블럭도이다.
도 3을 참조하면, 상기 입체 터치 패널(60)은 터치부(61), 평면 좌표 정보 도출부(62), 깊이 정보 도출부(63), 표시부(64) 및 표시 구동부(65)를 구비할 수 있다. 상기 입체 터치 패널(60)은 도 2의 그것과 동일하므로 구체적인 설명은 생략한다.
본 실시 예에 따른 DSP/CPU(70b)는 상기 평면 좌표 정보 도출부(62)로부터 제공한 평면 좌표 정보에 대응하는 피사체 영역을 지정하는 피사체 영역 설정부(71b), 상기 객체의 깊이 정보에 따라 상기 피사체 영역의 제1 영상에 대하여 촬영 전 전처리로서 촬영 준비 처리를 행하는 전처리 제어부(72b), 상기 촬영 준비 처리가 행해진 상기 피사체 영역의 제2 영상을 촬영하는 촬영 신호 제어부(74b)를 구비한다.
상기 촬영 준비 처리로 자동오토포커싱 처리, 자동 노출조정 처리, 자동화이트밸런스 조정 처리 중 적어도 어느 하나일 수 있다.
또한 상기 DSP/CPU(70b)는 평면 좌표 정보 도출부(62)에서 실시간으로 제공한 평면 좌표 정보가 소정 시간 유지되는지 판단하는 카운팅부(75b), 상기 평면 좌표 정보가 소정 시간 유지되는 때의 객체의 깊이 정보를 기준 깊이 정보로 설정하는 기준 깊이 설정부(76b)를 구비할 수 있다. 그리고 상기 깊이 정보를 기준 깊이 정보와 비교판단하는 제1 판단부(77b), 상기 깊이 정보에 따라 제2 동작을 실행하는 경우 상기 제2 동작의 실행 완료를 판단하는 제2 판단부(78b), 상기 객체의 터치 여부를 판단하는 제3 판단부(79b)를 구비할 수 있다.
상기 제1 판단부(77b)의 판단 결과에 따라, 제2 동작을 실행할 수 있다. 그리고 상기 제2 판단부(78b) 및 상기 제3 판단부(79b)의 판단 결과에 따라 제2 동작이 완료된 경우 상기 객체의 터치가 감지되면 제3 동작을 실행하고, 상기 제2 동작이 완료되지 않았음에도 상기 객체의 터치가 감지되면 상기 제2 동작을 완료한 후 상기 제3 동작을 실행할 수 있다.
더욱 구체적으로, 표시부(64)에 실시간으로 입력되는 라이브뷰 영상이 디스플레이된다. 객체가 상기 터치부(61)의 일 영역의 상부에 위치하는 경우, 평면 좌표 정보 도출부(62)에서 상기 객체의 평면 좌표를 도출한다. 상기 터치부(61)에서 터치 스크린은 상기 표시부(64) 상에 형성되므로, 객체가 상기 터치부(61)의 상부에 위치함은 상기 표시부(64) 상부에 위치하는 것에 대응하며, 나아가 상기 표시부(64)에 디스플레이하는 라이브뷰 영상의 상부에 위치하는 것일 수 있다. 도출한 평면 좌표는 카운팅부(75b)에서 소정 시간 유지하는지 판단한다. 상기 라이브뷰 영상 중에서 소정 시간 유지한 평면 좌표에 대응하는 피사체 영역을 지정할 수 있다. 상기 기준 깊이 설정부(76b)는 피사체 영역을 지정할 때의 깊이 정보를 기준 깊이 정보로 설정할 수 있다. 이후 객체가 이동함으로써 이에 따라 실시간으로 깊이 정보가 제공된다. 상기 판단부(77b)에서 상기 깊이 정보와 상기 기준 깊이 정보를 비교하며, 상기 비교 결과에 따라 전처리 제어부(72b)는 상기 라이브뷰 영상에 대하여 촬영 전 전처리로서 촬영 준비 처리를 행할 수 있다. 일 예로서, 상기 라이브 뷰 영상의 상기 피사체 영역을 오토포커싱 영역으로 설정하고, 상기 오토포커싱 영역의 영상에 대하여 전처리로서 오토포커싱을 실행할 수 있다. 더욱 구체적으로 상기 객체가 상기 터치부(61)로 접근하는 경우, 즉 상기 깊이 정보가 상기 기준 깊이 정보보다 작은 경우 상기 오토포커싱을 실행할 수 있다. 그리고 상기 제2 판단부(77b) 및 상기 제3 판단부(77c)의 판단 결과, 오토포커싱을 완료한 후 상기 객체의 터치를 감지한 경우, 상기 촬영 신호 제어부(74b)는 오토포커싱 실행을 완료하여 입력한 제2 영상을 촬영하도록 제어할 수 있다. 그러나 오토포커싱을 완료하지 않았음에도 상기 객체의 터치를 감지한 경우라면, 이에 따라 상기 촬영 신호 제어부(74b)는 오토포커싱 완료 후 상기 제2 영상을 촬영하도록 제어할 수 있다.
상기 DSP/CPU(70b)는 상기 촬영 준비 처리 완료시부터 상기 객체의 터치 감지시까지의 기간 동안 상기 객체의 깊이 정보에 따라 완료한 상기 촬영 준비 처리의 결과에 따라 상기 디지털 영상 촬영 장치의 설정을 잠그거나 또는 상기 디지털 영상 촬영 장치의 설명을 해제하는 전처리 설정 잠금/해제부(73b)를 구비할 수 있다.
도 4는 본 발명에 관한 디지털 촬영 장치에서 터치를 인식하는 모습을 설명하기 위한 도면이다.
도 4를 참조하면 객체인 손가락을 상기 디지털 촬영 장치(100)의 터치부 상부에 배치하고, 소정 시간 유지하는 경우 이 때의 좌표 정보(x,y)를 도출할 수 있다. 그리고 상기 좌표 정보(x, y)를 도출할 때의 깊이 정보를 기준 깊이 정보로 설정하고, 상기 터치부로 접근하거나(Z1) 또는 멀어지는 것(Z2)으로 디지털 촬영 장치에 다양한 입력 신호들을 생성할 수 있다.
도 5는 본 발명에 관한 디지털 촬영 장치에서 객체의 깊이 정보를 인식함을 설명하기 위한 도면이다.
도 5를 참조하면, 디지털 촬영 장치의 터치부 상부의 공간들에서 최초로 객체가 배치하는 제1 위치를 A0(X0, Y0, Z0)이라 하고, 이로부터 상기 객체가 표시부에 디스플레이하고 있는 원하는 UI의 상부로 이동 배치한다. 일 예로서, X 방향으로만 X1 만큼 이동하여 제2 위치 A1(X1, Y0, Zo)에 배치될 수 있다. 상기 제2 위치에서 상기 객체가 소정 시간 유지하는 경우, Z축의 좌표 0을 기준 깊이 정보로 설정할 수 있다. 이로부터 상기 객체가 터치부로 접근하여 제3 위치 A2(X1, Y0, Z1)에 배치함으로써 이에 대응하는 동작을 실행하거나 또는 Z0으로부터 상기 객체가 터치부로부터 멀어져 제4 위치 A3(X1, Y0, Z2)에 배치함으로써 이에 대응하는 동작을 실행할 수 있다.
예를 들어, 상기 객체가 A1에 위치하는 경우 A1의 위치에 대응하는 피사체 영역을 오토포커싱 영역으로 설정하고, 상기 A1으로부터 터치부로 접근하면 상기 오토포커싱 영역에 대하여 오토포커싱을 실행하며, 오토포커싱 실행에 따라 포커스 렌즈의 위치를 이동시킨 후 객체가 터치부에 접촉하면 영상을 캡쳐한다. 포커스 렌즈의 위치를 이동시킨 후 객체의 터치가 감지되지 않으면, 오토포커싱 실행에 따른 설정, 즉 이동시킨 포커스 렌즈의 위치를 잠근다. 만약 촬영을 원하지 않고 새롭게 오토포커싱을 수행하고자 하는 경우, 객체를 기준 깊이 정보로부터 이격하여 A3으로 배치함으로써 상기 포커스 렌즈의 위치 잠금을 해제할 수 있다.
도 6은 본 발명에 관한 디지털 촬영 장치의 제어 방법의 일 실시 예를 설명하기 위한 순서도이다.
도 6을 참조하면, 객체가 터치부의 상부에 배치하는 경우 실시간으로 객체의 평면 좌표 정보들을 도출한다(S11).
도출한 평면 좌표 정보들이 소정 시간 유지되는지 판단한다(S12).
유지하는 경우, 깊이 정보를 기준 깊이 정보로 설정한다(S13). 유지하지 않는 경우 계속하여 평면 좌표 정보를 도출한다(S11).
소정 시간 유지하는 평면 좌표 정보에 대응하는 제1 동작을 실행한다(S14). 상기 S14 단계와 상기 S13 단계는 동시에 실행할 수 있으며, 또는 그 선후가 변경될 수도 있다.
그리고 실시간으로 입력하는 깊이 정보를 도출한다(S15).
도출한 깊이 정보와 상기 기준 깊이 정보를 비교한다(S16).
상기 깊이 정보가 상기 기준 깊이 정보보다 작으면 제2-1 동작을 실행하고(S17), 상기 깊이 정보가 상기 기준 깊이 정보보다 크면 제2-2 동작을 실행할 수 있다(S18).
도 6에서 설명한 순서도에 따른 구체적인 예들을 도 7과 8을 참조하여 설명한다.
우선, 도 7을 참조하면, 디지털 촬영 장치(100)의 라이브뷰 모드에서 실시간으로 입력되는 라이브뷰 영상을 표시부에 디스플레이한다. 촬영자는 상기 라이브뷰 영상을 확인하고, 원하는 경우 확대 또는 축소의 주밍(zooming)모드를 선택할 수 있다. 이때 상기 주밍 모드를 실행에 대응하는 UI인 ZOOM의 상부에 객체를 배치한다. 상기 객체의 평면 좌표 정보는 표시부의 평면 좌표 정보에 해당한다. 객체의 평면 좌표 정보를 소정 시간 유지하는 경우 주밍 모드를 선택 및 시작한다. 상기 평면 좌표 정보를 소정 시간 유지하는 때의 객체의 깊이 정보를 도출한다. 상기 깊이 정보를 기준 깊이 정보(R)로 설정한다. 그리고 상기 객체를 상기 평면 좌표 정보를 가지면서 터치부로 접근하면, 즉 상기 기준 깊이 정보보다 작은 깊이 정보를 갖도록 객체를 이동하면 상기 주밍 모드에서 렌즈를 구동하여 망원줌(T)을 실행하고, 상기 객체를 상기 평면 좌표 정보를 가지면서 터치부로부터 멀어지면, 상기 기준 깊이 정보보다 큰 깊이 정보를 갖도록 객체를 이동하면 상기 주밍 모드에서 광각줌 (W)을 실행한다.
다른 실시 예로서, 도 8을 참조하면 디지털 촬영 장치(100)의 재생 모드에서 기 저장된 영상을 표시부에 디스플레이한다. 촬영자는 디스플레이하는 영상 중 확대 또는 축소하고자 하는 일 영역(ZA)의 영상을 선택할 수 있다. 이때, 상기 일 영역의 영상 상부에 객체를 배치하고 소정 시간 유지한다. 상기 객체를 배치한 위치의 평면 좌표 정보를 도출하고, 상기 평면 좌표 정보를 소정 시간 유지하는 경우, 상기 평면 좌표 정보를 갖는 상기 일 영역(ZA)의 영상을 확대 또는 축소의 대상 영역으로 결정할 수 있다. 상기 객체를 상기 평면 좌표 정보를 가지면서 기준 깊이 정보 보다 작은 깊이 정보를 갖도록 객체를 터치부로 접근하면 상기 일 영역(ZA)의 영상을 확대할 수 있다.
도 9는 본 발명에 관한 디지털 촬영 장치의 제어 방법의 다른 실시 예를 설명하기 위한 순서도이다.
도 9를 참조하면, 객체가 터치부의 상부에 배치하는 경우 실시간으로 객체의 평면 좌표 정보들을 도출한다(S21).
도출한 상기 평면 좌표 정보를 소정 시간 유지하는지 판단한다(S22). 소정 시간 유지하는 경우 이때의 깊이 정보를 기준 깊이 정보로 설정한다(S23). 상기 평면 좌표 정보를 소정 시간 유지하지 않는 경우, 객체가 이동하는 것으로서 계속하여 평면 좌표 정보를 도출한다(S21).
소정 시간 유지한 평면 좌표 정보에 대응하여 제1 동작을 실행한다(S24).
객체의 깊이 정보를 실시간으로 도출한다(S25).
도출한 깊이 정보를 상기 기준 깊이 정보와 비교한다(S26).
상기 깊이 정보가 상기 기준 깊이 정보 보다 작은 경우, 제2 동작을 실행한다(S27).
상기 제2 동작이 완료하였는지 판단한다(S28). 상기 제2 동작이 완료한 경우 객체의 터치 여부를 판단한다(S29). 상기 객체의 터치가 감지되면 제3 동작을 실행한다(S30). 상기 객체의 터치가 감지되지 않으면 상기 제2 동작에 따른 설정을 잠근다(S31). 그리고 이후 객체의 깊이 정보를 실시간으로 도출한다(S25).
상기 제2 동작이 완료하지 않은 경우 상기 제2 동작 완료 후 상기 객체의 터치 여부를 감지한다(S33). 상기 객체의 터치 여부가 감지되지 않으면 상기 제2 동작 완료 여부를 계속하여 판단한다(S28). 상기 객체의 터치 여부를 감지한 경우, 상기 제2 동작 완료 후 상기 제3 동작을 실행한다(S34).
도 10은 도 9에서 설명하는 디지털 촬영 장치의 제어 방법의 일 예를 설명하기 위한 도면이다. 구체적으로 본 발명에 관한 디지털 촬영 장치에서 객체의 깊이 정보를 인식함으로써 오토포커싱 동작을 실행함을 설명하기 위한 도면이다.
도 10을 참조하면, 상기 디지털 촬영 장치(100)의 라이브뷰 모드에서 객체를 X,Y의 평면을 이동하여(O1) 오토포커싱 영역(Af zone)을 설정한다. 객체를 원하는 피사체 영역의 상부에 위치하고, 소정 시간 유지한다. 따라서 오토포커싱 영역(Af zone)을 설정할 수 있다. 오토포커싱 영역(Af zone)을 설정할 때의 깊이 정보를 기준 깊이 정보로 설정한다. 그리고 상기 오토포커싱 영역(Af zone)의 평면 좌표 정보를 가지면서 깊이 정보를 조절하여 오토포커싱을 실행하도록 제어한다. 객체를 터치부로 접근시키면(O2) 상기 깊이 정보가 상기 기준 깊이 정보보다 작게 되어 오포토커싱을 실행할 수 있다. 그리고 오토포커싱을 실행 한 후, 상기 객체를 디지털 촬영 장치(100)에 접촉하면 오토포커싱을 실행한 영상을 곧바로 캡쳐하도록 제어할 수 있다. 오토포커싱 완료 후 상기 객체가 디지털 촬영 장치(100)에 접촉하지 않으면, 오토포커싱에 따른 설정(포커스 렌즈의 위치 이동)을 잠글 수 있다. 그러나 상기 객체가 상기 기준 깊이 정보 이상으로 디지털 촬영 장치로부터 멀어지는 경우 상기 잠금을 해제할 수 있다. 그리고 상기 객체의 평면 좌표 정보를 실시간으로 감지할 수 있다.
본 실시 예에 따르면 촬영자의 촬영 신호 입력으로부터 캡쳐까지의 타임 러그를 짧게 해, 촬영자의 촬영 동작에 대한 스트레스를 완화할 수 있다.
도 11은 본 발명에 관한 디지털 촬영 장치의 제어 방법의 또 다른 실시 예를 설명하기 위한 순서도이다.
도 11을 참조하면, 객체의 평면 좌표 정보를 도출한다(S41).
상기 평면 좌표 정보를 소정 시간 유지하는지 판단한다(S42).
상기 평면 좌표 정보를 소정 시간 유지하지 않는 경우 상기 객체의 평면 좌표 정보를 계속하여 도출한다.
상기 평면 좌표 정보를 소정 시간 유지하는 경우, 이때의 깊이 정보를 기준 깊이 정보로 설정한다(S44).
도출한 상기 깊이 정보를 상기 기준 깊이 정보와 비교한다(S45).
상기 깊이 정보가 상기 기준 깊이 정보보다 작다면 제1-1 동작을 실행한다.
그리고 상기 객체의 터치를 감지한다(S47).
상기 터치가 감지된 경우 제2 동작을 실행한다(S48). 상기 객체의 터치가 감지되지 않은 경우 평면 좌표 정보를 계속하여 도출한다(S41).
상기 깊이 정보가 상기 기준 깊이 정보보다 크다면 제1-2 동작을 실행한다(S49).
그리고 상기 객체의 터치를 감지한다(S50).
상기 객체의 터치를 감지하는 경우, 제2 동작을 실행한다(S51). 상기 객체의 터치를 감지하지 않은 경우 평면 좌표 정보를 계속하여 도출한다(S41).
도 12와 도 13은 도 11에서 설명한 방법에 관한 실시 예들을 설명하기 위한 도면들이다.
우선 도 12를 참조하면, 사용자 설정 모드를 실행한다. 일 예로서 MODE를 설정하고자 하는 경우 MODE 설정을 위한 아이콘 "MODE" 상부에 객체를 배치한다. 이때 객체의 평면 좌표 정보를 도출하고, 상기 평면 좌표 정보가 소정 시간 유지하는지 판단한다. 상기 평면 좌표 정보가 소정 시간 유지되는 경우, 즉 상기 객체를 아이콘 "MODE" 상부에 배치함을 소정 시간 유지하는 경우, 기준 깊이 정보를 설정한다. 그리고 상기 기준 깊이 정보로부터 상기 객체를 상기 디지털 촬영 장치로 접근하는 경우(O2), MODE 설정 다음의 설정 메뉴로 이동할 수 있다(도 11에서 제1-1 동작에 대응).
도 13에서와 같이 MODE 설정 다음의 설정 메뉴인 FLASH 설정을 행하도록 할 수 있다. 도 12에서 상기 객체를 상기 디지털 촬영 장치로부터 멀어지는 경우, 상기 MODE 설정 이전의 설정 메뉴로 이동할 수 있다(도 11에서 제1-2 동작에 대응).
다시 도 13을 참조하면, FLASH 모드에서 복수의 변수들 중 촬영자가 원하는 변수를 설정하고자 하는 경우, 해당 변수의 설정을 실행하도록 촬영자 제어 신호를 입력할 수 있는 아이콘을 터치한다(O3). 촬영자가 FLASH를 선택하지 않는 경우 이에 대응하는 아이콘인 "NON"을 터치한다. 따라서 플래시 OFF를 실행할 수 있다(도 11에서 제2 동작에 대응).
한편, 본 발명은 상술한 디지털 촬영 장치의 제어 방법을 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.

Claims (34)

  1. 입체 터치 패널을 구비하는 디지털 촬영 장치의 제어 방법으로서,
    상기 입체 터치 패널에서 객체의 평면 좌표 정보를 도출하는 단계;
    상기 디지털 촬영 장치에 입력된 영상 중에서, 상기 객체의 평면 좌표 정보에 대응하는 피사체 영역을 지정하는 단계;
    상기 입체 터치 패널에서 상기 객체의 깊이 정보를 도출하는 단계;
    상기 객체의 깊이 정보에 따라 상기 피사체 영역의 제1 영상에 대하여 촬영 준비 처리를 행하는 단계;
    상기 촬영 준비 처리가 행해진 상기 피사체 영역의 제2 영상을 촬영하는 단계;를 구비하는 디지털 촬영 장치의 제어 방법.
  2. 제1항에 있어서, 상기 촬영 준비 처리는 자동오토포커싱 처리, 자동노출조정 처리, 자동화이트밸런스조정 처리 중 적어도 어느 하나인 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  3. 제1항에 있어서, 상기 입체 터치 패널에 상기 객체의 터치를 감지하는 단계;
    상기 터치를 감지한 우 상기 촬영 준비 처리가 행해진 상기 피사체 영역의 제2 영상을 촬영하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  4. 제1항에 있어서, 상기 촬영 준비 처리가 행해지는 중에 상기 객체의 터치를 감지한 경우, 상기 촬영 준비 처리 완료 후 상기 피사체 영역의 제2 영상을 촬영하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  5. 제1항에 있어서, 상기 촬영 준비 처리 완료시 부터 상기 객체의 터치 감지시까지의 기간 동안 상기 객체의 깊이 정보에 따라 완료한 상기 촬영 준비 처리의 결과에 따라 상기 디지털 촬영 장치의 설정을 잠그거나 또는 상기 디지털 촬영 장치의 설정을 해제하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  6. 제5항에 있어서, 상기 디지털 촬영 장치의 설정을 해제하는 경우, 상기 디지털 촬영 장치에 입력된 영상 중에서 상기 객체의 평면 좌표 정보에 대응하는 피사체 영역을 재지정하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  7. 제1항에 있어서, 상기 객체의 깊이 정보는 상기 피사체 영역을 지정한 때의 깊이 정보를 기준으로 상기 객체와 상기 입체 터치 패널과의 상대적인 거리에 대응하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  8. 입체 터치 패널을 구비하는 디지털 촬영 장치의 제어 방법에 있어서,
    상기 입체 터치 패널에서 객체의 평면 좌표 정보를 도출하는 단계;
    상기 객체의 평면 좌표 정보에 대응하는 제1 동작을 실행하는 단계;
    상기 입체 터치 패널에서 상기 객체의 깊이 정보를 도출하는 단계;
    상기 객체의 깊이 정보에 따라 제2 동작을 실행하는 단계; 포함하고,
    상기 객체의 깊이 정보는 상기 객체의 평면 좌표 정보를 감지한 때의 깊이 정보를 기준으로 상기 객체와 상기 입체 터치 패널과의 상대적인 거리에 대응하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  9. 삭제
  10. 제8항에 있어서, 상기 입체 터치 패널에서 상기 객체의 깊이 정보를 나타내는 사용자 인터페이스를 디스플레이하는 단계를 더 구비하는 디지털 촬영 장치의 제어 방법.
  11. 제8항에 있어서, 상기 입체 터치 패널에서 상기 객체의 터치를 감지하는 단계;
    상기 객체의 터치 감지에 대응하여 제3 동작을 실행하는 단계;를 포함하는 디지털 촬영 장치의 제어 방법.
  12. 제8항에 있어서, 상기 객체의 평면 좌표 정보에 대응하여 라이브뷰에서 주밍(zooming) 모드를 시작하고,
    상기 주밍(zooming) 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 줌(zoom) 배율을 설정하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  13. 제8항에 있어서, 상기 객체의 평면 좌표 정보에 대응하여 재생시에 주밍(zooming) 영역을 선택하고,
    상기 주밍(zooming) 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 상기 주밍(zooming) 영역에 대한 줌(zoom) 배율을 설정하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  14. 제11항에 있어서, 상기 객체의 평면 좌표 정보에 대응하여 라이브뷰에서 주밍(zooming) 모드를 시작하고,
    상기 주밍(zooming) 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 줌(zoom) 배율을 설정하며,
    상기 객체의 터치 감지에 대응하여 설정한 줌 배율에 따라 입력된 영상을 캡쳐하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  15. 입체 터치 패널을 구비하는 디지털 촬영 장치의 제어 방법에 있어서,
    상기 입체 터치 패널에서 객체의 깊이 정보를 도출하는 단계;
    상기 객체의 깊이 정보에 따라 제1 동작을 실행하는 단계;
    상기 입체 터치 패널에서 상기 객체의 터치를 감지하는 단계;
    상기 객체의 터치 감지에 대응하여 제2 동작을 실행하는 단계;를 포함하고,
    상기 객체의 깊이 정보는 상기 객체의 평면 좌표 정보를 감지한 때의 깊이 정보를 기준으로 상기 객체와 상기 입체 터치 패널과의 상대적인 거리에 대응하는 것을 특징으로 하는 디지털 촬영 장치의 제어 방법.
  16. 제15항에 있어서, 사용자 설정 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 상기 객체의 깊이 정보에 따라 복수의 메뉴들 중 설정하고자하는 메뉴를 선택하고,
    상기 객체의 터치에 대응하여 선택한 상기 메뉴에 포함된 항목들 중 상기 객체의 터치 위치에 대응하는 항목을 설정하는 것을 특징으로 디지털 촬영 장치의 제어 방법.
  17. 제16항에 있어서, 상기 입체 터치 패널에서 객체의 평면 좌표 정보를 도출하는 단계;
    상기 객체의 평면 좌표 정보에 대응하여 사용자 설정 모드를 시작하는 단계를 더 포함하는 디지털 촬영 장치의 제어 방법.
  18. 객체의 평면 좌표 정보 및 깊이 정보를 도출하는 입체 터치 패널;
    디지털 촬영 장치에 입력된 영상 중에서 상기 객체의 평면 좌표 정보에 대응하는 피사체 영역을 지정하는 피사체 영역 설정부;
    상기 객체의 깊이 정보에 따라 상기 피사체 영역의 제1 영상에 대하여 촬영 준비 처리를 행하는 전처리 제어부; 및
    상기 촬영 준비 처리가 행해진 상기 피사체 영역의 제2 영상을 촬영하는 촬영 신호 제어부;를 구비하고,
    상기 객체의 깊이 정보는 상기 객체의 평면 좌표 정보를 감지한 때의 깊이 정보를 기준으로 상기 객체와 상기 입체 터치 패널과의 상대적인 거리에 대응하는 것을 특징으로 하는 디지털 촬영 장치.
  19. 제18항에 있어서, 상기 촬영 준비 처리는 자동오토포커싱 처리, 자동노출조정 처리, 자동화이트밸런스조정 처리 중 적어도 어느 하나인 것을 특징으로 하는 디지털 촬영 장치.
  20. 제18항에 있어서, 상기 입체 터치 패널은 상기 객체의 터치를 감지하고,
    상기 터치를 감지한 우 상기 촬영 신호 제어부는 상기 촬영 준비 처리가 행해진 상기 피사체 영역의 제2 영상을 촬영하는 것을 특징으로 하는 디지털 촬영 장치.
  21. 제18항에 있어서, 상기 입체 터치 패널이 상기 촬영 준비 처리가 행해지는 중에 상기 객체의 터치를 감지한 경우, 상기 촬영 신호 제어부는 상기 촬영 준비 처리 완료 후 상기 피사체 영역의 제2 영상을 촬영하는 것을 특징으로 하는 디지털 촬영 장치.
  22. 제18항에 있어서, 상기 촬영 준비 처리 완료시 부터 상기 객체의 터치 감지시까지의 기간 동안 상기 객체의 깊이 정보에 따라 완료한 상기 촬영 준비 처리의 결과에 따라 상기 디지털 촬영 장치의 설정을 잠그거나 또는 상기 디지털 촬영 장치의 설정을 해제하는 전처리 설정 잠금/해제부를 더 포함하는 디지털 촬영 장치.
  23. 제22항에 있어서, 상기 디지털 촬영 장치의 설정을 해제하는 경우, 상기 피사체 영역 설정부는 상기 디지털 촬영 장치에 입력된 영상 중에서 상기 객체의 평면 좌표 정보에 대응하는 피사체 영역을 재지정하는 것을 특징으로 하는 디지털 촬영 장치.
  24. 제18항에 있어서, 상기 객체의 깊이 정보는 상기 피사체 영역을 지정한 때의 깊이 정보를 기준으로 상기 객체와 상기 입체 터치 패널과의 상대적인 거리에 대응하는 것을 특징으로 하는 디지털 촬영 장치.
  25. 객체의 평면 좌표 정보를 도출하고, 상기 객체의 깊이 정보를 도출하는 입체 터치 패널;
    상기 객체의 평면 좌표 정보에 대응하는 제1 동작을 실행하는 제1 동작 실행부;
    상기 객체의 깊이 정보에 따라 제2 동작을 실행하는 제2 동작 실행부; 포함하고,
    상기 객체의 깊이 정보는 상기 객체의 평면 좌표 정보를 감지한 때의 깊이 정보를 기준으로 상기 객체와 상기 입체 터치 패널과의 상대적인 거리에 대응하는 것을 특징으로 하는 디지털 촬영 장치.
  26. 삭제
  27. 제25항에 있어서, 상기 입체 터치 패널은 상기 객체의 깊이 정보를 나타내는 사용자 인터페이스를 디스플레이하는 표시부를 구비하는 것을 특징으로 하는 디지털 촬영 장치.
  28. 제25항에 있어서, 상기 입체 터치 패널은 상기 객체의 터치를 감지하고,
    상기 객체의 터치 감지에 대응하여 제3 동작을 실행하는 제3 동작 실행부를 포함하는 디지털 촬영 장치.
  29. 제25항에 있어서, 상기 제1 동작 실행부는 상기 객체의 평면 좌표 정보에 대응하여 라이브뷰에서 주밍(zooming) 모드를 시작하는 동작을 실행하고,
    상기 제2 동작 실행부는 상기 주밍(zooming) 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 줌(zoom) 배율을 설정하는 동작을 실행하는 것을 특징으로 하는 디지털 촬영 장치.
  30. 제25항에 있어서, 상기 제1 동작 실행부는 상기 객체의 평면 좌표 정보에 대응하여 재생시에 주밍(zooming) 영역을 선택하는 동작을 실행하고,
    상기 제2 동작 실행부는 상기 주밍(zooming) 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 상기 주밍(zooming) 영역에 대한 줌(zoom) 배율을 설정하는 동작을 실행하는 것을 특징으로 하는 디지털 촬영 장치.
  31. 제28항에 있어서, 상기 제1 동작 실행부는 상기 객체의 평면 좌표 정보에 대응하여 라이브뷰에서 주밍(zooming) 모드를 시작하는 동작을 실행하고,
    상기 제2 동작 실행부는 상기 주밍(zooming) 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 감지한 상기 객체의 깊이 정보에 따라 줌(zoom) 배율을 설정하는 동작을 실행하며,
    상기 제3 동작 실행부는 상기 객체의 터치 감지에 대응하여 설정한 줌 배율에 따라 입력된 영상을 캡쳐하는 동작을 실행하는 것을 특징으로 하는 디지털 촬영 장치.
  32. 객체의 깊이 정보를 도출하고 상기 객체의 터치를 감지하는 입체 터치 패널;
    상기 객체의 깊이 정보에 따라 제1 동작을 실행하는 제1 동작 실행부;
    상기 객체의 터치 감지에 대응하여 제2 동작을 실행하는 제2 동작 실행부;를 포함하고,
    상기 객체의 깊이 정보는 상기 객체의 평면 좌표 정보를 감지한 때의 깊이 정보를 기준으로 상기 객체와 상기 입체 터치 패널과의 상대적인 거리에 대응하는 것을 특징으로 하는 디지털 촬영 장치.
  33. 제32항에 있어서, 상기 제1 동작 실행부는 사용자 설정 모드를 시작하는 때의 상기 객체의 깊이 정보를 기준으로 상기 객체의 깊이 정보에 따라 복수의 메뉴들 중 설정하고자하는 메뉴를 선택하는 동작을 실행하고,
    상기 제2 동작 실행부는 상기 객체의 터치에 대응하여 선택한 상기 메뉴에 포함된 항목들 중 상기 객체의 터치 위치에 대응하는 항목을 설정하는 동작을 실행하는 것을 특징으로 디지털 촬영 장치.
  34. 제32항에 있어서, 상기 입체 터치 패널은 객체의 평면 좌표 정보를 더 도출하고;
    상기 객체의 평면 좌표 정보에 대응하여 사용자 설정 모드를 시작하는 제3 동작 실행부를 더 포함하는 디지털 촬영 장치.
KR1020100009669A 2010-02-02 2010-02-02 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법 KR101630302B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100009669A KR101630302B1 (ko) 2010-02-02 2010-02-02 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법
US13/014,787 US8872955B2 (en) 2010-02-02 2011-01-27 Digital photographing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100009669A KR101630302B1 (ko) 2010-02-02 2010-02-02 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법

Publications (2)

Publication Number Publication Date
KR20110090085A KR20110090085A (ko) 2011-08-10
KR101630302B1 true KR101630302B1 (ko) 2016-06-14

Family

ID=44341339

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100009669A KR101630302B1 (ko) 2010-02-02 2010-02-02 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법

Country Status (2)

Country Link
US (1) US8872955B2 (ko)
KR (1) KR101630302B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101630302B1 (ko) * 2010-02-02 2016-06-14 삼성전자주식회사 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법
WO2013175787A1 (ja) * 2012-05-24 2013-11-28 パナソニック株式会社 撮影装置
TWI482067B (zh) * 2012-11-13 2015-04-21 Wistron Corp 光學觸控系統及其物件位置之判斷方法
CN107257430B (zh) * 2017-04-26 2019-10-15 努比亚技术有限公司 一种拍照控制方法、终端及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004004118A (ja) 1998-05-25 2004-01-08 Matsushita Electric Ind Co Ltd カメラ
JP2007026129A (ja) 2005-07-19 2007-02-01 Nintendo Co Ltd オブジェクト移動制御プログラムおよび情報処理装置
JP2009015828A (ja) * 2007-06-06 2009-01-22 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
JPH10133818A (ja) 1996-10-29 1998-05-22 Toshiba Corp タッチパネル入力方法及び装置
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US20080024454A1 (en) * 2006-07-31 2008-01-31 Paul Everest Three-dimensional touch pad input device
US8354997B2 (en) * 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
US20080180399A1 (en) * 2007-01-31 2008-07-31 Tung Wan Cheng Flexible Multi-touch Screen
KR101373333B1 (ko) * 2007-07-11 2014-03-10 엘지전자 주식회사 터치인식을 통한 영상촬영 기능을 구비한 휴대 단말기 및그 촬영방법
KR20100075460A (ko) * 2007-08-30 2010-07-02 넥스트 홀딩스 인코포레이티드 저 프로파일 터치 패널 시스템
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
US8477139B2 (en) * 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
KR101504201B1 (ko) * 2008-07-02 2015-03-19 엘지전자 주식회사 이동단말기 및 그의 키패드 표시방법
KR101602363B1 (ko) * 2008-09-11 2016-03-10 엘지전자 주식회사 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
US8462148B1 (en) * 2009-04-01 2013-06-11 Perceptive Pixel Inc. Addressing rotational exhaustion in 3D manipulation
US8294560B2 (en) * 2009-07-20 2012-10-23 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for identifying threats using multiple sensors in a graphical user interface
TW201112045A (en) * 2009-09-28 2011-04-01 Wistron Corp Viewing direction determination method, viewing direction determination apparatus, image processing method, image processing apparatus and display device
EP2966638B1 (en) * 2009-11-26 2018-06-06 LG Electronics Inc. Mobile terminal and control method thereof
US8539386B2 (en) * 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
KR101630302B1 (ko) * 2010-02-02 2016-06-14 삼성전자주식회사 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
US8378985B2 (en) * 2010-05-26 2013-02-19 Sony Mobile Communications Ab Touch interface for three-dimensional display control
JP5622447B2 (ja) * 2010-06-11 2014-11-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5067450B2 (ja) * 2010-06-29 2012-11-07 カシオ計算機株式会社 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法
US20120019528A1 (en) * 2010-07-26 2012-01-26 Olympus Imaging Corp. Display apparatus, display method, and computer-readable recording medium
JP2012104994A (ja) * 2010-11-09 2012-05-31 Sony Corp 入力装置、入力方法、プログラム及び記録媒体
US20120120277A1 (en) * 2010-11-16 2012-05-17 Apple Inc. Multi-point Touch Focus
EP2680594A4 (en) * 2011-02-24 2014-07-09 Kyocera Corp ELECTRONIC APPARATUS, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
US20120221960A1 (en) * 2011-02-28 2012-08-30 Robinson Ian N Collaborative workspace viewing for portable electronic devices
JP5967473B2 (ja) * 2011-06-03 2016-08-10 パナソニックIpマネジメント株式会社 撮像装置及び撮像システム
JP5864144B2 (ja) * 2011-06-28 2016-02-17 京セラ株式会社 表示機器
US20130222363A1 (en) * 2012-02-23 2013-08-29 Htc Corporation Stereoscopic imaging system and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004004118A (ja) 1998-05-25 2004-01-08 Matsushita Electric Ind Co Ltd カメラ
JP2007026129A (ja) 2005-07-19 2007-02-01 Nintendo Co Ltd オブジェクト移動制御プログラムおよび情報処理装置
JP2009015828A (ja) * 2007-06-06 2009-01-22 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
US8872955B2 (en) 2014-10-28
US20110187913A1 (en) 2011-08-04
KR20110090085A (ko) 2011-08-10

Similar Documents

Publication Publication Date Title
CN102541354B (zh) 图像显示装置和图像显示方法
JP6083987B2 (ja) 撮像装置、その制御方法及びプログラム
CN101465972B (zh) 在数字图像处理装置中使图像背景模糊的设备和方法
KR101720776B1 (ko) 디지털 영상 촬영 장치 및 이의 제어 방법
JP5834410B2 (ja) 撮像装置および撮像方法
US8823864B2 (en) Image capturing apparatus and associated methodology for auto-focus and facial detection
US20110032432A1 (en) Digital image signal processing method, medium for recording the method, and digital image signal processing apparatus
KR101605771B1 (ko) 디지털 촬영 장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
US20120098946A1 (en) Image processing apparatus and methods of associating audio data with image data therein
US8648960B2 (en) Digital photographing apparatus and control method thereof
KR20110055244A (ko) 디지털 촬영 장치 및 그 제어 방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
US8797445B2 (en) Digital photographing device and method of controlling the same
CN103813094A (zh) 捕捉图像的方法、电子装置与机器可读存储介质
US8654204B2 (en) Digtal photographing apparatus and method of controlling the same
CN101998060B (zh) 通过使用自动聚焦确定抖动图像的方法和设备
KR101630302B1 (ko) 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법
US8717491B2 (en) Auto focusing method, recording medium for recording the method, and auto focusing apparatus
US20120026381A1 (en) Digital image signal processing method, digital image signal processing apparatus and recording medium having recorded thereon the method
KR100987773B1 (ko) 디지털 카메라의 파일관리방법 및 이를 수행하는 디지털카메라
JP5870533B2 (ja) 撮像装置および撮像方法
JP5984887B2 (ja) ズーム制御装置およびその制御方法
KR101477535B1 (ko) 이미지 검색 방법 및 장치, 이를 이용한 디지털 촬영 장치
WO2020044844A1 (ja) 信号処理装置、信号処理方法、信号処理プログラムおよび撮像装置
KR101643611B1 (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터로 읽을 수 있는 저장매체
KR101477540B1 (ko) 자동 패닝샷 기능을 구비한 촬상 장치와 패닝샷 촬영 방법

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant