KR102235231B1 - 촬상 제어장치 및 그 제어 방법 - Google Patents

촬상 제어장치 및 그 제어 방법 Download PDF

Info

Publication number
KR102235231B1
KR102235231B1 KR1020180074421A KR20180074421A KR102235231B1 KR 102235231 B1 KR102235231 B1 KR 102235231B1 KR 1020180074421 A KR1020180074421 A KR 1020180074421A KR 20180074421 A KR20180074421 A KR 20180074421A KR 102235231 B1 KR102235231 B1 KR 102235231B1
Authority
KR
South Korea
Prior art keywords
image
live
user operation
unit
control
Prior art date
Application number
KR1020180074421A
Other languages
English (en)
Other versions
KR20190002346A (ko
Inventor
신고 이소베
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20190002346A publication Critical patent/KR20190002346A/ko
Application granted granted Critical
Publication of KR102235231B1 publication Critical patent/KR102235231B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • H04N5/23216
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • H04N5/217
    • H04N5/23245
    • H04N5/23293
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

촬상 제어장치는, 제1의 유저 조작을 접수하도록 구성되고, 상기 제1의 유저 조작을 접수하지 않은 경우에, 라이브VR화상의 제1의 범위에 대응하는 제1화상과, 상기 라이브VR화상의 제2의 범위에 대응하는 제2화상 중 한쪽인, 표시부에 표시하는 화상신호를 출력하도록 제어하고; 상기 제1의 유저 조작을 접수했을 경우에, 상기 제1화상과 상기 제2화상의 한쪽으로부터, 상기 제1화상과 상기 제2화상의 다른 쪽, 또는, 상기 제1화상과 상기 제2화상의 양쪽에, 상기 표시부에 표시된 상기 화상을 변경하게 하는 화상신호를 출력하도록 제어하고; 촬영 준비 처리를 실행하기 위한 준비 지시를 내리도록 구성되는, 제어부를 구비한다.

Description

촬상 제어장치 및 그 제어 방법{IMAGING CONTROL APPARATUS AND CONTROL METHOD THEREFOR}
본 발명은, 촬상 제어장치, 전자기기의 제어 방법, 프로그램, 및, 기억 매체에 관한 것으로, 보다 구체적으로는, 광범위한 영상범위를 갖는 화상을 표시하는 제어 방법에 관한 것이다.
최근, 피시 아이(fish-eye) 렌즈 등의 광각렌즈를 전후 2개 구비한 일체형의 전방위 촬영가능한 카메라나, 이 카메라들에서 촬영된 화상을 바탕으로 작성된 가상현실(VR) 콘텐츠가 보급되어 왔다. 또한, 광각렌즈를 갖고 스마트 폰의 확장 커넥터에 접속가능한 카메라 모듈도 이용 가능하고, 이 카메라 모듈을 스마트 폰상에서 동작하는 애플리케이션과 조합해서 사용 함으로써, 전방위 화상을 촬영할 수 있다.
상기 촬상 장치의 촬영중 또는 촬영후에 있어서의 화상의 확인에는 카메라나 스마트 폰에 갖춰진 2차원 디스플레이가 일반적으로 사용되고 있다. 디스플레이에의 화상 표시 형식으로서, 전방위 화상의 전체를 디스플레이에 표시하는 전방위 화상형식이나, 전방위 화상으로부터 일부 영역을 추출하여 디스플레이에 표시하는 형식이 사용되어도 된다.
상기 전방위 화상형식으로서는, 360도 화상을 구형의 영역에 맵핑하는 돔(dome) 마스터 형식이나, 등장방형 도법을 사용한 전방위 화상형식, 소위 파노라마 형식등이 사용되어도 된다. 또한, 상술한 것처럼, 전방위 촬영가능한 카메라가 구비하는 전후 2개의 광학계에 의해 각각 촬영된 피시 아이 화상을 그대로 2개 표시하는 형식(이하, 피시 아이 화상형식이라고 한다)이 사용되어도 된다.
한편, 전방위 화상으로부터 일부 영역을 추출해서 디스플레이에 표시하는 형식에서는, 일반적으로, 디스플레이를 보유하는 방위에 근거하여 추출된 일부영역이 표시된다.
일본 특허공개 2014-222825호 공보에는, 광각영상을 촬영하고, 촬영한 영상으로부터 동체가 존재하는 영역을 우선적으로 추출하고, 우선도가 높은 화상의 애스펙트비를 표시용 애스펙트비로 변환하는 기술이 개시되어 있다. 일본 특허공개 2014-222825호 공보에 의하면, 감시 대상으로 삼는 피사체가 동체일 경우에, 감시 대상을 자동으로 선택해서 촬영할 수 있다.
그렇지만, 전방위 화상으로부터 추출된 일부 영역을 표시하는 형식으로는, 전체 화상 및 촬영자의 사각방위의 화상의 확인이 곤란하다. 전체 화상 및 촬영자의 사각방위의 화상을 확인하기 위해서는, 촬영자는, 몇몇의 방향들의 각각에서의 그 카메라를 배향하거나 터치패널을 조작하거나 해서 표시 범위를 변경해야 하고, 확인처리를 힘들게 한다. 한편, 전방위 화상의 전체를 표시하는 형식으로는, 화상의 상세를 확인하는 것이 곤란하고, 그 결과, 촬영기회를 놓쳐버릴 수도 있다. 또한, 일본 특허공개 2014-222825호 공보에는, 피사체가 정지하고 있을 경우에 있어서의 영역추출에 대해서 개시되지 않고 있고, 피사체가 반드시 이동하고 있지 않다.
따라서, 본 발명은, 촬영자가 보다 적합하게 화상을 확인할 수 있고, 촬영기회를 놓치지 않고 적합한 타이밍에서의 촬영을 실행할 수 있는 기술을 제공한다.
본 발명에 따른 촬상 제어장치는, 제1의 유저 조작을 접수하고, 상기 제1의 유저 조작을 접수하지 않은 경우에, 촬상부로부터 수신한 라이브 뷰 화상인 라이브 가상현실(VR) 화상의 제1의 범위에 대응하는 제1화상과, 상기 라이브VR화상에 상대적으로 확대한 상기 라이브VR화상의, 상기 제1의 범위보다 작은 제2의 범위에 대응하는 제2화상 중 한쪽인, 표시부에 표시하는 화상신호를 출력하도록 제어하고, 상기 제1의 유저 조작을 접수했을 경우에, 상기 제1화상과 상기 제2화상의 한쪽으로부터, 상기 제1화상과 상기 제2화상의 다른 쪽, 또는, 상기 제1화상과 상기 제2화상의 양쪽에, 상기 표시부에 표시된 상기 화상을 변경하게 하는 화상신호를 출력하도록 제어하고, 촬영 준비 처리를 실행하기 위한 준비 지시를 내리는 제어부를 구비한다.
본 발명에 의하면, 촬영자가 보다 적합하게 화상을 확인할 수 있고, 그 결과, 촬영기회를 놓치지 않고 적합한 타이밍에서의 촬영을 실행할 수 있다.
본 발명의 또 다른 특징들은, 첨부도면을 참조하여 이하의 실시예들의 설명으로부터 명백해질 것이다.
도 1a∼1d는, 카메라(100)의 외관도를 도시하는 도면이다.
도 2는, 카메라(100)의 내부구성을 도시하는 도면이다.
도 3은, 카메라 제어부(120)가 실행하는 흐름도다.
도 4는, 카메라 제어부(120)가 실행하는 표시/기록 처리의 흐름도다.
도 5a∼5d는, 표시부(141)의 표시 예를 도시한 것이다.
도 6a∼6c는, 표시부(141)의 다른 표시 예를 도시한 것이다.
도 7은, 표시부(141)의 다른 표시 예를 도시한 것이다.
도 1a∼1d에, 본 발명을 적용가능한 촬상 제어장치의 일례인 카메라(100)의 외관을 도시한 것이다. 카메라(100)는, 렌즈 일체형의 디지탈 카메라다. 또한, 카메라(100)는, 일안 레플렉스(single-lens reflex) 카메라나 미러리스 SLR카메라등이여도 좋다. 본 발명은, 광각렌즈를 부착한 각종 촬상 장치에 적용가능하다.
도 1a는, 카메라(100)의 전방면의 외관을 도시한 것이다. 표시부(141)는, 촬영 화상과 각종 정보를 표시한다. 표시부(141)에 표시된 화상은 촬영 준비 지시에 응답해서 바꿀 수 있다. 표시부(141)의 표시면 위에 설치된 터치패널(13)은, 촬영자에 의해 실행된 터치 조작을 접수한다. 릴리즈 버튼(11)은 반가압 및 완전 가압이 가능한 스위치다. 릴리즈 버튼(11)의 반가압에 의해, 카메라(100)에의 촬영 준비 지시가 내려지고, 릴리즈 버튼(11)의 완전 가압에 의해 카메라(100)에의 촬영 지시가 내려진다. 렌즈(111)는 광각렌즈이며, 렌즈(111)에 입사한 광속을 촬상 소자(112)(도 1a에는 미도시됨)에 결상시킨다.
도 1b는, 카메라(100)의 배면의 외관을 도시한 것이다. 버튼(12)의 가압에 의해 카메라(100)에의 촬영 준비 지시가 내려지고, 버튼(12)을 가압하고 있던 손가락등을 버튼(12)으로부터 떼어 놓는 조작에 의해 카메라(100)에의 촬영 지시가 내려진다. 렌즈(101)는 렌즈(111)와 같은 광각렌즈이며, 렌즈(101)에 입사한 광속을 촬상 소자(102)(도 1b에는 미도시됨)에 결상시킨다.
촬상 소자(102, 112)에 의해, VR화상이 촬상된다. VR화상은, VR표시에 사용될 수 있는 화상이다. VR화상에는, 전방위 카메라에서 촬상한 전방위 화상이나, 표시부에 한 번에 표시할 수 있는 표시 범위보다 넓은 영상범위(유효영상범위)를 갖는 파노라마 화상등이 포함되어 있다. VR화상에는, 정지 화상뿐만 아니라, 동화상과 라이브 뷰 화상(카메라로부터 거의 실시간으로 취득한 화상)도 포함된다. VR화상은, 최대로 상하 방향(수직각도, 천정으로부터의 각도, 앙각, 부각, 고도) 360도, 좌우 방향(수평각도, 방위각도) 360도의 시야분의 영상범위(유효영상범위)를 가진다. 또한, VR화상은, 상하 방향 360도미만, 좌우 360도미만이여도, 통상의 카메라에서 촬영 가능한 화각보다도 넓은 광범한 화각(시야범위), 혹은, 표시부에 의해 한번에 표시할 수 있는 표시 범위보다 넓은 영상범위(유효영상범위)를 갖는 화상도 포함한다. 예를 들면, 좌우 방향(수평각도, 방위각도) 360도, 천정(zenith)을 중심으로 한 수직각도 210도의 시야분(화각분)의 피사체를 촬영가능한 전방위 카메라에서 촬영된 화상은 VR화상의 일종이다. 또한, 예를 들면, 좌우 방향(수평각도, 방위각도) 180도, 천정을 중심으로 한 수직각도 180도의 시야분(화각분)의 피사체를 촬영가능한 카메라에서 촬영된 화상은 VR화상의 일종이다. 다시 말해, 상하 방향과 좌우 방향에 160도(±80도)이상의 시야분의 영상범위를 갖고, 인간이 한번에 시인할 수 있는 범위보다도 넓은 영상범위를 갖는, 화상은, VR화상의 일종이다. VR화상을 VR표시에서 사용하면, 좌우 회전 방향에 표시부의 자세를 변화시키는 것으로, 좌우 방향(수평회전 방향)으로는 이음매가 없는 전방위의 영상을 시청할 수 있다. 상하 방향(수직회전 방향)에는, 바로 위(천정)로부터 보아서 ±105도의 범위내에서는 이음매가 없는 전방위의 영상을 시청할 수 있지만, 바로 위에서 105도를 초과하는 범위는 영상이 존재하지 않는 공백 영역이다. VR화상은, "영상범위가 가상 공간(VR공간)의 적어도 일부인 화상"이라고도 말할 수 있다.
VR표시는, 표시부의 자세에 대응한 시야범위의 영상을 표시하도록, VR화상의 표시 범위를 변경가능한 표시 방법이다. 유저가 표시부인 헤드 마운트 디스플레이(HMD)를 장착해서 영상을 시청할 경우에는, 유저의 얼굴의 방향에 대응한 시야범위의 영상을 표시하게 된다. 예를 들면, 어떤 시점에서, 좌우 방향에 0도(특정한 방위, 예를 들면 북쪽), 상하 방향에 90도(천정으로부터 90도, 즉 수평)를 중심으로 한 시야각(화각)의 VR화상의 일부의 영상을 표시한다. 이 상태로부터 표시부의 자세를 반전시키면(예를 들면, 표시면을 남향으로부터 북향으로 변경하면), 좌우 방향에 180도(반대의 방위, 예를 들면 남쪽), 상하 방향에 90도(수평)를 중심으로 한 시야각의 같은 VR화상의 일부의 영상에, 표시 범위가 변경된다. 따라서, 유저가 HMD를 시청하면서 유저가 얼굴을 북향에서 남향으로 이동하면(즉, 뒤를 향하면), HMD에 표시된 영상은, 북쪽의 영상으로부터 남쪽의 영상으로 변한다고 하는 것이다. VR표시에 의해, 유저에, VR화상의 장소(VR공간)내에 있는 시각적 감각을 제공할 수 있다. VR고글(헤드 마운트 어댑터)에 장착된 스마트 폰은, HMD의 일종이라고 생각할 수도 있다. 자세의 변화가 아니고, 터치패널이나 방향 버튼등에 대해 행해진 유저 조작에 응답해서, 표시 범위를 이동(스크롤)시켜도 좋다.
도 1c는 카메라(100)의 측면의 외관을 도시한 것이다. 렌즈(101)와 렌즈(111)는 카메라(100)의 전후에 쌍으로 배치되어 있고, 렌즈(101)와 렌즈(111)의 각각의 화각은 180도다. 다시 말해, 렌즈(101)와 렌즈(111)에 의해 360도의 화각이 만족시켜진다. 따라서, 촬상 소자(102)와 촬상 소자(112)의 각각에 있어서, 180도의 화각에 대응하는 화상이 촬상된다. 2개의 촬상 소자(102, 112)로 촬상된 2개의 화상에 의해, 360도의 화각에 대응하는 VR화상이 구성된다.
도 1d는, 표시부(141)에 표시된 화면의 예를 도시한 것이다. 여기에서는, 촬상 소자(102) 또는 촬상 소자(112)로 촬상된 피시 아이 화상이 표시되어 있다. 또한, 터치패널 버튼(14)이 표시되어 있다. 터치패널 버튼(14)은, 촬영 준비 지시 및 촬영 지시를 내리는데 사용된 아이템이다. 터치패널 버튼(14), 구체적으로는 터치패널 버튼(14)에 대응하는 터치패널(13)상의 위치에 터치하는 터치 조작을 행하여서, 카메라(100)에의 촬영 준비 지시가 내려진다. 그리고, 터치패널 버튼(14)에 터치하고 있었던 손가락이나 펜을 터치패널 버튼(14)(터치패널(13))으로부터 떼어 놓는 조작을 행하여서, 카메라(100)에의 촬영 지시가 내려진다. 또한, 표시된 피시 아이 화상내의 위치, 보다 구체적으로는 해당 위치에 대응하는 터치패널상의 위치에 터치하는 터치 조작을 행하여서, 촬영 준비 지시가 내려지는 동안에 표시 범위의 선택 지시가 내려진다.
또한, 표시부(141)는, 카메라(100)와는 별도의 장치이여도 좋다. 예를 들면, 표시부(141)는, 카메라(100)와는 별도로 설치된 스마트 폰등에 설치되어도 좋다. 또한, 촬영 준비 지시와 촬영 지시를 내리기 위한 유저 조작은, 카메라(100)와는 별도의 장치에 대하여 행해져도 좋다. 예를 들면, 카메라(100)와는 별도로 설치된 스마트 폰에 대하여 유저 조작이 행해지고, 해당 유저 조작에 대응한 지시를 스마트 폰이 카메라(100)에 내려도 좋다.
도 2는 카메라(100)의 내부구성을 도시한 것이다. 또한, 도 2는 각 기능을 별도의 구성 요소로서 도시하고 있지만, 각 기능은 1개 또는 복수의 ASIC이나 프로그래머블 로직 어레이(PLA)등의 하드웨어에 의해 실현되어도 좋다. 또한, CPU나 MPU등의 프로그래머블 프로세서가 소프트웨어를 실행 함으로써 각 기능이 실현되어도 좋다.
렌즈(101)는 조리개 기구를 갖는 단초점 렌즈이며, 딥(deep) 포커스는 렌즈(101)의 초점위치로서 사용된다.
촬상 소자(102)는, 광전변환 소자를 포함하는 복수의 화소의 2차원 어레이로 구성된다. 촬상 소자(102)는, 렌즈(101)를 포함하는 촬영 광학계에 의해 형성된 피사체상(광학상)을 화소마다 광전변환, 또는 다시 말하면 촬상해서 아날로그 신호를 생성하고, 이 아날로그 신호를 A/D변환 회로에 의해 디지털 신호로 변환해서 화소단위의 RAW화상 데이터를 출력한다.
메모리I/F부(106)는, 촬상 소자(102)로부터 출력된 전체 화소분의 RAW화상 데이터를 메모리(107)에 기록한다. 또한, 메모리I/F부(106)는, 메모리(107)에 보유된 RAW화상 데이터를 판독하여 화상처리부(108)에 출력한다. 메모리(107)는, 수 프레임분의 전체 화소RAW화상 데이터를 기억하는 휘발성의 기억 매체다.
화상처리부(108)는, 메모리I/F부(106)로부터의 전체 화소분의 RAW화상 데이터에 대하여 감마 보정, 색분리, 색차이 매트릭스 등의 처리를 실시하고, 이에 동기 신호를 더하여, 기록용 또는 표시용의 영상 데이터를 출력한다. 또한, 화상처리부(108)는, 화상처리부(108)에 입력된 RAW화상 데이터의 각 화소의 휘도값으로부터 측광값을 얻어, 버스(121)를 경유해서 카메라 제어부(120)에 제공한다.
렌즈(111), 촬상 소자(112), 메모리I/F부(116), 메모리(117) 및 화상처리부(118)는, 렌즈(101), 촬상 소자(102), 메모리I/F부(106), 메모리(107) 및 화상처리부(108)와 같은 기능을 가진다. 렌즈(111), 촬상 소자(112), 메모리I/F부(116), 메모리(117) 및 화상처리부(118)는, 각각, 렌즈(101), 촬상 소자(102), 메모리I/F부(106), 메모리(107) 및 화상처리부(108)와 같은 처리를 실행한다.
카메라 제어부(120)는, CPU등으로 구성되어, 카메라(100)의 동작 전체를 제어한다. RAM(160)은, 카메라 제어부(120)의 작업 영역(워크 메모리)로서 사용된다. RAM(160)에는, 카메라 제어부(120)의 동작용의 정수와 변수가 기록되거나, 프로그램 등이 전개되거나 한다. ROM(180)은, 카메라 제어부(120)를 동작하기 위한 컴퓨터 프로그램 등을 기억한다. 예를 들면, 카메라 제어부(120)는, ROM(180)에 기억된 컴퓨터 프로그램을 RAM(160)에 전개해서 실행 함에 의해, 카메라(100)의 동작 전체를 제어한다.
게인 제어부(103), 셔터 제어부(104) 및 조리개 제어부(105)는, 노출 제어에 사용된다. 카메라 제어부(120)는, 화상처리부(108) 및 화상처리부(118)에 의해 제공된 측광값, 혹은 유저가 수동으로 설정한 동작 파라미터에 근거하여, 상기 제어부(103∼105)를 제어한다. 게인 제어부(103)는, 촬상 소자(102) 및 촬상 소자(112)의 게인을 제어한다. 셔터 제어부(104)는, 촬상 소자(102) 및 촬상 소자(112)의 각각의 셔터 스피드를 제어한다. 조리개 제어부(105)는, 렌즈(101)의 조리개 기구와 렌즈(111)의 조리개 기구를 제어한다.
기억 매체I/F부(130)는, 기억 매체(131)를 카메라(100)에 접속하기 위한 인터페이스다. 기억 매체I/F부(130)는, 화상처리부(108), 화상처리부(118) 및 GPU(142)로부터 입력된 영상 데이터를 기억 매체(131)에 기록하고, 그 기록된 영상 데이터를 기억 매체(131)로부터 판독한다. 기억 매체(131)는, 반도체 메모리 등으로 구성되어 있다.
표시용 I/F부(140)는, 화상처리부(108) 및 화상처리부(118)로부터의 영상 데이터와, GPU(142)에 의해 비디오 RAM(VRAM)(143)에 묘화된 화상 데이터를 표시부(141)에 출력한다. 표시부(141)에 표시된 화상은, 주로 촬영자에 의한 촬영 화상 확인에 사용된다.
GPU(142)는, 카메라 제어부(120)로부터의 지시에 의거하여, 화상처리부(108) 및 화상처리부(118)로부터 출력된 영상 데이터를 화상변환 처리, 화상 추출 처리, 확대 처리, 왜곡 보정등을 실행하여, VRAM(143)에 묘화하는 렌더링 엔진이다. 또한, GPU(142)는, 카메라(100)에 관한 각종 표시된 정보와 메뉴 화면을 VRAM(143)에 중첩해서 묘화하는 처리도 실행한다. 전술한 터치패널 버튼(14)은 그래픽 유저 인터페이스(GUI)로서 GPU(142)에 의해 묘화되어 표시용 I/F부(140)를 경유해서 표시부(141)에 표시된다.
통신용 I/F부(150)는, 통신부(151)를 경유해서 카메라(100)의 외부에 있는 도시되지 않은 스마트 폰이나, PC등과 접속하고, 표시부(141)로 표시된 화상 데이터를 그것들에 전송한다. 또한, 통신용 I/F부(150)는, 스마트 폰이나 PC등으로부터 카메라(100)와 관련하여 내려진 제어 지령 등을 수신하고, 카메라 제어부(120)에 통지한다. 통신부(151)는 무선통신을 행하는 무선LAN인터페이스이며, 통신용 I/F부(150)가 행하는 통신과 관련하여 하드웨어 처리를 실행한다.
릴리즈 버튼(11), 버튼(12) 및 터치패널(13)은 전술의 기능을 갖추고, 조작에 대응한 조작 정보(촬영 준비 지시, 촬영 지시, 표시 범위의 선택 지시 등)을 I/O콘트롤러(170)에 출력한다. I/O콘트롤러(170)는, 각 조작부로부터의 조작 정보를 카메라 제어부(120)에 출력하고, 카메라 제어부(120)는, I/O콘트롤러(170)로부터의 조작 정보에 대응한 처리를 실행한다. 예를 들면, 터치패널(13)은, 표시부(141)에 적층되어, 터치 조작의 위치나 영역을 나타내는 좌표정보 등을 포함하는 조작 정보를 출력한다.
도 3은, 카메라(100)로 실행된 전체 처리를 도시하는 흐름도다. 이 흐름도에 있어서의 처리는, 카메라 제어부(120)가 ROM(180)에 기록된 프로그램을 RAM(160)에 전개해서 실행하는 것에 의하여 실현된다. 도 3에 도시된 흐름도는, 예를 들면, 카메라(100)에 전원이 투입될 때 개시되어, S302로부터 S307까지의 처리는 소정의 프레임 레이트(소정 주기)로 반복적으로 실행된다.
S301에서는, 카메라 제어부(120)는, 표시부(141)와 터치패널(13)의 좌표 캘리브레이션(calibration)을 실행한다(터치패널 초기화). 이에 따라, 터치패널(13) 위의 좌표와 표시부(141)에 표시된 화상 위의 좌표와의 상호변환이 가능해지고, 그 결과, 터치패널 버튼(14)에 행해진 터치 조작, 촬영 화상에 행해진 터치 조작 등이 검출될 수 있다.
S302에서는, 카메라 제어부(120)는, 조리개 제어부(105)에 대하여 조리개 값을 설정한다(조리개 설정). 1회째의 조리개 설정 조작에서는, 카메라 제어부(120)는, 조리개 값의 초기값인 개방 조리개 값을, 조리개 제어부(105)에 대하여 설정한다. 2회째이후의 조리개 설정 조작으로부터는, 카메라 제어부(120)는, S306의 노출 설정 처리 동안에 결정된 조리개 값을, 조리개 제어부(105)에 대하여 설정한다.
S303에서는, 카메라 제어부(120)는, 게인 제어부(103)에 대하여 게인을 설정한다(게인 설정). 1회째의 게인 설정 조작에서는, 카메라 제어부(120)는, 게인의 초기값인 0dB을, 게인 제어부(103)에 대하여 설정한다. 2회째이후의 게인 설정 조작으로부터는, 카메라 제어부(120)는, S306의 노출 설정 처리 동안에 결정된 게인을, 게인 제어부(103)에 대하여 설정한다.
S304에서는, 카메라 제어부(120)는, 셔터 제어부(104)에 대하여 셔터 속도를 설정한다(셔터 설정). 1회째의 셔터 설정 조작에서는, 카메라 제어부(120)는, 셔터 속도의 초기값인 1/60초를, 셔터 제어부(104)에 대하여 설정한다. 2회째이후의 셔터 설정 조작에서는, 카메라 제어부(120)는, S306의 노출 설정 처리 동안에 결정된 셔터 속도를, 셔터 제어부(104)에 대하여 설정한다.
S305에서는, 카메라 제어부(120)는, 라이브 뷰 촬영을 위해 촬상/판독 처리를 실행한다. 보다 구체적으로는, 조리개 제어부(105)는, S302에서 설정된 조리개 값에 근거하여 렌즈(101,111)의 각각의 조리개 기구를 제어하는 처리를, 카메라 제어부(120)로부터의 지시에 응답하여 실행한다. 게인 제어부(103)는, S303에서 설정된 게인에 근거해서 촬상 소자(102, 112)의 각각의 게인을 제어하는 처리를, 카메라 제어부(120)로부터의 지시에 응답하여 실행한다. 셔터 제어부(104)는, S304에서 설정된 셔터 속도에 근거해서 촬상 소자(102, 112)의 각각의 셔터 속도를 제어하는 처리를, 카메라 제어부(120)로부터의 지시에 응답해서 실행한다. 그리고, 촬상 소자(102, 112)는, 카메라 제어부(120)로부터의 지시에 응답하여, S302∼S304의 설정 값에 근거한 촬상을 실행한다. 다음에, 메모리I/F부(106)는, 촬상 소자(102)에 의해 촬상된 화상(RAW화상)을 메모리(107)에 기록함과 아울러 화상처리부(108)에 출력하는 처리를, 카메라 제어부(120)로부터의 지시에 응답해서 실행한다. 마찬가지로, 메모리I/F부(116)는, 촬상 소자(112)에 의해 촬상된 화상(RAW화상)을 메모리(117)에 기록함과 아울러 화상처리부(118)에 출력하는 처리를, 카메라 제어부(120)로부터의 지시에 응답해서 실행한다.
S306에서는, 카메라 제어부(120)는, S305에서 촬상된 화상의 노출이 적정 노출인지 아닌지를 판정하고, 다음 촬상 조작을 위한 노출 값(조리개 값, 게인 및 셔터 속도)을 결정한다(노출 설정 처리). 보다 구체적으로는, 카메라 제어부(120)는, S305에서 촬상된 화상에 근거해서 취득된 측광값을 화상처리부(108, 118)로부터 얻고, 그 얻어진 측광값에 근거해서 노출 평가 값을 산출한다. 그리고, 카메라 제어부(120)는, 산출된 노출 평가 값과 미리 결정된 노출 목표값을 비교하고, 촬상된 화상의 노출이 적정한지 아닌지를 판정한다. 적정 노출이 아닐 경우는, 카메라 제어부(120)는, 최적 노출에 보다 가까운 화상이 촬상되도록, 다음 촬상 조작의 노출 값을 결정한다.
S307에서는, 카메라 제어부(120)는, 표시/기록 처리를 실행한다. 도 4는, 표시/기록 처리를 도시하는 흐름도다.
S401에서는, 카메라 제어부(120)는, 릴리즈 버튼(11)의 조작 상태를 취득하여 RAM(160)에 기록한다. RAM(160)은, 최저 2주기분의 릴리즈 버튼(11)의 조작 상태를 배열 데이터의 형태로 기억한다. 이에 따라, 릴리즈 버튼(11)의 조작 상태 변화가 검지될 수 있다. 릴리즈 버튼(11)의 조작 상태에는, 릴리즈 버튼(11)이 가압되지 않은 비가압 상태, 릴리즈 버튼(11)이 반가압되어 있는 반가압 상태, 릴리즈 버튼(11)이 완전히 가압된 완전 가압 상태의 3상태가 있다. S401이 실행될 때마다, 카메라 제어부(120)는, 릴리즈 버튼(11)에 관한 상기 배열 데이터를 갱신한다.
S402에서는, 카메라 제어부(120)는, 터치패널 버튼(14)의 조작 상태를 취득하여 RAM(160)에 기록한다. RAM(160)은, 최저 2주기분의 터치패널 버튼(14)의 조작 상태를 배열 데이터로서 기억한다. 이에 따라, 터치패널 버튼(14)의 조작 상태 변화가 검지될 수 있다. 터치패널 버튼(14)의 조작 상태에는, 터치패널 버튼(14)이 터치되어 있는 터치 상태와, 터치패널 버튼(14)이 터치되지 않고 있는 비터치 상태와의 2상태가 있다. S402가 실행될 때마다, 카메라 제어부(120)는, 터치패널 버튼(14)에 관한 상기 배열 데이터를 갱신한다.
S403에서는, 카메라 제어부(120)는, 버튼(12)의 조작 상태를 취득하여 RAM(160)에 기록한다. RAM(160)은, 최저 2주기분의 버튼(12)의 조작 상태를 배열 데이터로서 기억한다. 이에 따라, 버튼(12)의 조작 상태 변화가 검지될 수 있다. 버튼(12)의 조작 상태에는, 버튼(12)이 가압된 가압 상태와, 버튼(12)이 가압되지 않은 비가압 상태와의 2상태가 있다. S403이 실행될 때마다, 카메라 제어부(120)는, 버튼(12)에 관한 상기 배열 데이터를 갱신한다.
S404에서는, 카메라 제어부(120)는, S401∼S403에서 취득한 조작 상태에 근거하여, 촬영 준비 지시가 내려졌는가 아닌가를 판정한다. 보다 구체적으로는, 릴리즈 버튼(11)의 조작 상태가 반가압 상태일 경우에, 카메라 제어부(120)는, 촬영 준비 지시가 내려지고 있다고 판정하고, S406에 처리를 진행시킨다. 마찬가지로, 터치패널 버튼(14)의 조작 상태가 터치 상태일 경우, 또는, 버튼(12)의 조작 상태가 가압 상태일 경우에도, 카메라 제어부(120)는, 촬영 준비 지시가 내려졌다고 판정하고, S406에 처리를 진행시킨다. 촬영 준비 지시를 위한 상기 방법은 일례일 뿐이고, 1개의 조작 부재만으로 촬영 준비 지시가 내려져도 좋거나, 다른 조작 부재로 촬영 준비 지시가 내려져도 좋다. 그 밖의 모든 경우에는, 카메라 제어부(120)는, 촬영 준비 지시가 내려지지 않고 있다고 판정하고, S405에 처리를 진행시킨다.
S405에서는, 카메라 제어부(120)는, S401∼S403에서 취득한 조작 상태에 근거하여, 촬영 지시가 내려졌는가 아닌가를 판정한다. 보다 구체적으로는, 릴리즈 버튼(11)의 조작 상태가 반가압 상태로부터 완전 가압 상태에 변화되었을 경우에는, 카메라 제어부(120)는, 촬영 지시가 내려졌다고 판정하고, S407에 처리를 진행시킨다. 마찬가지로, 터치패널 버튼(14)의 조작 상태가 터치 상태로부터 비터치 상태로 변화되었을 경우, 또는, 버튼(12)의 조작 상태가 가압 상태로부터 비가압 상태로 변화되었을 경우에도, 카메라 제어부(120)는, 촬영 지시가 내려졌다고 판정하고, S407에 처리를 진행시킨다. 촬영 지시를 위한 상기 방법은 일례일 뿐이며, 1개의 조작 부재만으로 촬영 지시가 내려져도 좋거나, 다른 조작 부재로 촬영 지시가 내려져도 좋다. 그 밖의 모든 경우에는, 카메라 제어부(120)는, 촬영 지시도 촬영 준비 지시도 내려지지 않았다고 판정하고, S408에 처리를 진행시킨다.
S406에서는, 카메라 제어부(120)는, 줌 뷰 처리를 행하고, 촬영 준비 지시(촬영 준비 처리의 실행 지시)를 실행한다. 그 촬영 준비 지시에 응답하여, 이하의 처리 중 적어도 1개의 처리가 행해진다: 오토포커스(AF) 처리; 노출 설정(자동노출 설정)에 해당하는 조리개 제어부(105)에 의한 조리개의 조정; S407에서 촬영동안에 실행되는 상기 셔터 제어부에 의한 노광 시간(셔터 속도)의 설정; 화이트 밸런스의 조정; 및 게인 제어부(103)에 의한 게인 조정. 다시 말해, 촬영 준비 지시는, 상술의 처리 중 적어도 1개를 실행시키기 위한 지시다. 그리고, 카메라 제어부(120)는, 표시/기록 처리를 종료한다. 줌 뷰 처리 동안에, 카메라 제어부(120)는, 촬상 소자(102, 112)에 의해 촬상된 VR화상의 일부의 범위를 변형해서 확대한 줌 뷰 화상이 VRAM(143)에서 묘화되어서 표시부(141)에 표시되도록, GPU(142)등의 처리를 제어한다. 줌 뷰 화상은 순차로 갱신되는 라이브 뷰 화상의 일종이다. 줌 뷰의 표시 예는 도 5d를 사용하여 후술한다.
S407에서는, 카메라 제어부(120)는, 기록 처리를 실행한다. 그리고, 카메라 제어부(120)는, 도 4에 도시된 처리를 종료한다. 기록 처리에서는, 카메라 제어부(120)는, 촬상된 VR화상을 기억 매체(131)에 기록하도록 제어한다. 기록 처리는, 촬영이라고도 말할 수 있다. 동화상 기록 모드가 설정되어 있을 경우에는, 카메라 제어부(120)는, 동화상(VR동화상등)의 기록을 시작하는 기록 처리를 실행한다. 라이브 뷰 화상을 촬상할 때, 1회의 촬상 조작에 소비될 수 있는 시간이 한정되어 있기 때문에, 노출 설정 처리시에 설정된 노출 값보다도 노출 값이 작을 수도 있다. 또한, 라이브 뷰 화상을 촬상할 때, 비교적 낮은 해상도(화소수)에서의 촬상이 행해질 수도 있다. 상기 기록 처리 동안에, 노출 설정 처리시에 설정된 노출 값에서 촬상이 행해지고, 라이브 뷰 화상의 촬상에 사용된 해상도보다 높은 해상도에서의 촬상이 행해진다. 보다 구체적으로, S406에서 표시된 줌 뷰 화상의 확인후에, 촬영 지시가 내려져서, S407의 기록 처리가 실행된다.
S408에서는, 카메라 제어부(120)는, 광각 뷰 처리를 실행한다. 광각 뷰 처리 동안에, 카메라 제어부(120)는, 촬상된 VR화상의 적어도 일부의 범위인 광각 뷰 화상이 VRAM(143)에서 묘화되어서 표시부(141)에 표시되도록, GPU(142)등의 처리를 제어한다. 광각 뷰 화상은 라이브 뷰 화상의 일종이다. 광각 뷰의 표시 예는 도 5a, 5b를 사용해서 후술한다. 줌 뷰 화상의 범위는, 광각 뷰 화상의 범위보다 좁거나 또는 작다. 바꿔 말하면, 줌 뷰 화상은, 확대되어 왜곡 보정 또는 변형된 광각 뷰 화상의 일부를 표시한다. S409에서는, 카메라 제어부(120)는, 터치패널(13)에 의해 지시가능한 표시 범위 선택 지시에 응답하여, 줌 뷰 화상의 범위를 설정한다. 그리고, 카메라 제어부(120)는, 표시/기록 처리를 종료한다.
도 5a∼5d는, 본 실시예에 따른 표시 예를 도시한 것이다. 촬영 준비 지시나 촬영 지시를 내리기 위한 유저 조작이 행해지지 않고 있을 경우에는, 촬영자의 주위의 넓은 범위를 확인할 수 있게 광각의 화상을 표시하는 것이 바람직하다. 본 실시예에서는, 이 경우에, S408의 광각 뷰 처리에 응답하여, 촬상 소자(102)에 의해 촬상된 도 5a에 도시된 피시 아이 화상(501), 또는, 촬상 소자(112)에 의해 촬상된 도 5b에 도시된 피시 아이 화상(503)이, 광각 뷰 화상으로서 표시된다.
도 5a의 피시 아이 화상(501)에서는, 피사체(502)가 촬상된다. 촬영자가 피사체(502) 부근을 터치하면, 터치패널(13)은, 터치된 위치에 대응하는 좌표정보를 카메라 제어부(120)에 출력한다. 카메라 제어부(120)는, 터치패널(13)로부터의 좌표정보에 근거하여, 터치된 위치를 포함하는 범위(504)(도 5c)를, 줌 뷰 화상의 범위로서 인식한다. 도 5c에 도시한 바와 같이, 범위(504)는, 렌즈(101)의 광축에 대응하는 VR화상내의 위치, 즉 피시 아이 화상(501)의 중심위치로부터 방사상으로 펼쳐진 범위다.
도 5c에 도시된 상태로부터, 촬영 준비 지시를 내리기 위한 유저 조작이 행해지면, S406의 줌 처리에 의해, 피시 아이 화상(501)의 표시로부터, 범위(504)를 변형해서 확대한 줌 뷰 화상(505)의 표시로, 표시부(141)의 표시를 바꿀 수 있다. 보다 구체적으로는, GPU(142)는, 카메라 제어부(120)로부터의 지시에 응답하여, 피시 아이 화상(501)으로부터 범위(504)를 추출하고, 범위(504)의 화상에 확대 처리와 왜곡 보정을 실시함으로써 줌 뷰 화상(505)을 생성하여, VRAM(143)에서 묘화한다. 그 결과, VRAM(143)에서 묘화된 화상이 피시 아이 화상(501)로부터 줌 뷰 화상(505)으로 갱신되어, 피시 아이 화상(501)의 표시로부터 줌 뷰 화상(505)의 표시로, 표시부(141)의 표시를 바꿀 수 있다.
카메라 제어부(120)는, 줌 뷰 화상(505)을 얻는데 사용된 확대 처리와 왜곡 보정의 강도를, 피시 아이 화상(501)의 중심위치와 범위(504)의 위치와의 사이의 거리에 근거해서 결정한다. 그리고, GPU(142)는, 카메라 제어부(120)에 의해 결정된 강도에서, 확대 처리와 왜곡 보정을 실행한다. 예를 들면, 카메라 제어부(120)는, 상기 거리가 짧은 만큼 약하고, 상기 거리가 긴 만큼 강한 강도를, 왜곡 보정의 강도로서 결정한다. 상기 거리가 임계치이하일 경우에는, 카메라 제어부(120)는, 왜곡 보정이 생략되거나, 또는, VR화상의 왜곡을 가변하지 않는 강도에서 왜곡 보정이 실시되도록 제어한다. 상기 강도로 VR화상의 왜곡을 가변하는 왜곡 보정을 실시할 때, 중심부에서 왜곡이 실질적으로 없는 줌 뷰 화상(505)이 얻어진다. 여기에서, 왜곡은, 피사체의 실상에 대한 왜곡이다.
촬영 준비 지시를 내리기 위한 유저 조작이 행해지는 동안은, 줌 뷰 화상(505)의 표시가 계속된다. 그리고, 촬영 준비 지시를 내리기 위한 유저 조작이 종료하면, 카메라 제어부(120)는, 줌 뷰 화상(505)의 표시로부터 피시 아이 화상(501)이나 피시 아이 화상(503)의 표시로 표시부(141)의 표시가 되돌아가도록 제어한다.
이상 서술한 것 같이, 본 실시예에 의하면, 촬영 준비 지시를 내리기 위한 유저 조작이 행해지기 전에, 피시 아이 화상과 같은 광각화상을 표시함으로써, 카메라(100)의 주위의 넓은 범위가 확인 가능해진다. 그리고, 촬영 준비 지시를 내리기 위한 유저 조작에 응답하여 줌 뷰 표시에의 전환을 행하는 것으로, 피시 아이 화상의 일부를 상세하게 확인하는 것이 가능해 진다. 보다 구체적으로는, 광각화상이 표시되는 동안에, 촬영자는, 터치 조작을 행하여서 주목 피사체를 지정할 수 있고, 촬영 준비 지시를 내리기 위한 유저 조작에 응답하여, 주목 피사체의 줌 뷰 표시에의 전환이 행해진다. 이에 따라, 주목 피사체의 상세가 확인 가능해진다. 따라서, 예를 들면, 촬영 준비 지시를 내리기 전에 광각 뷰 표시로부터 카메라(100)의 주위의 상태를 대략적으로 확인하고, 촬영 준비 지시를 내려서 줌 뷰 표시로부터 확대된 주목 피사체의 얼굴의 표정을 확인할 수 있다. 그리고, 그 주목 피사체가 웃는 순간에, 그 주목 피사체의 화상을 촬영할 수 있다. 이 때문에, 본 실시예에 의하면, 촬영자가 보다 적합하게 화상을 확인할 수 있고, 그 결과, 촬영자는, 촬영기회를 놓치지 않고 적합한 타이밍에서의 촬영을 실행할 수 있다.
또한, 본 발명의 바람직한 실시예에 대해서 설명했지만, 본 발명은 이 실시예에 한정되지 않는 것은 말할 필요도 없고, 그 요지의 범위내에서 여러 가지의 변형 및 수정이 실시되어도 된다. 이하에 서술하는 각종 변형 예를 상술한 실시예와 적절하게 조합하여도 된다.
예를 들면, 상술한 예에서는, 카메라(100)가 2개의 촬상계를 구비하도록 구성되지만, 하나의 촬상계나 3개이상의 촬상계를 구비하는 카메라에 대하여도 본 발명을 적용하여도 된다.
또한, 상술한 예에서는, 광각 뷰 표시 동안에 VR화상의 일부(즉, 1개의 피시 아이 화상)가 변형되지 않고 표시되지만, 본 발명은 이것에 한정되지 않고, 대신에, 카메라 제어부(120)의 제어하에, 변형된 화상이나 VR화상의 전범위가, 광각 뷰 표시로서 표시되어도 좋다. 예를 들면, 도 6a에 도시한 바와 같이, 2개의 촬상 소자(102, 112)로 각각 촬상된 2개의 피시 아이 화상(601, 602)의 양쪽의 표시가, 광각 뷰 표시로서 행해져도 좋다. 도 6b에 도시한 바와 같이, VR화상의 전범위에 대응하는 파노라마 화상(603)의 표시가, 광각 뷰 표시로서 행해져도 좋다. 도 6c에 도시한 바와 같이, VR화상의 전범위에 대응하는 돔 마스터 화상(604)의 표시가, 광각 뷰 표시로서 행해져도 좋다. 다른 형식의 화상의 표시도, 광각 뷰 표시로서 행해져도 좋다.
파노라마 화상(603)은, 피시 아이 화상(601, 602)의 각 부분을 주변부나 중심부로 기하학적으로 변환해서 전개, 합성 함에 의해 얻어진다. 도 6b로부터 알 수 있는 바와 같이, 파노라마 화상(603)은, 피시 아이 화상(601, 602)을 기하학적으로 변환해서 합성 함에 의해 얻어진 직사각형 화상이다. 마찬가지로, 돔 마스터 화상(604)도, 피시 아이 화상(601, 602)을 기하학적으로 변환해서 합성 함에 의해 얻어진다. 돔 마스터 화상(604)은, 마치 피사체 상공으로부터 본 것처럼 피사체를 나타낸다. 돔 마스터 화상(604)의 상반부는 피시 아이 화상(601)에 대응하고, 돔 마스터 화상(604)의 하반부는 피시 아이 화상(602)에 대응한다. 이것들의 기하학 변환은, 변환전의 화상 좌표와 변환후의 화상 좌표간의 대응관계를 의미하는 소정의 정보(테이블이나 함수)를 사용하여 실현될 수 있다.
또한, 기록 처리(촬영)로 기록된 VR화상은, 피시 아이 화상, 파노라마 화상, 돔 마스터 화상, 또는 다른 형식의 화상이여도 좋다.
또한, 상술한 예에서는, 줌 뷰 화상의 범위가 터치 조작에 따라 결정되지만, 줌 뷰 화상의 범위는 다른 방법으로 결정되어도 좋다. 예를 들면, 카메라 제어부(120)는, VR화상(전방위 화상)으로부터 소정의 피사체(인물, 얼굴, 차량, 건물, 식물 등)를 자동으로 검출하고, 소정의 피사체가 존재하는 부분을 줌 뷰 화상의 범위로서 자동으로 설정해도 좋다. 소정의 피사체는, 공지의 화상인식 기능을 사용하여 검출될 수 있다. 또한, 복수의 피사체가 검출되었을 경우, 자동적으로 주 피사체가 되는 피사체를 선택하고, 선택된 주 피사체가 포함되도록 줌 뷰 화상의 범위를 결정해도 좋다. 주 피사체의 결정의 방법으로서는 예를 들면, 콘트라스트가 높은 부분, 얼굴, 촬영 화상에 있어서의 사이즈가 큰 부분, 카메라(100)에 가까운 부분, 카메라(100)에 등록된 인물의 얼굴(개인인증으로 검출된 얼굴) 등이 우선화하도록, 가중해서 결정된다. 복수의 화상을 합성해서 얻어진 VR화상(파노라마 화상이나 돔 마스터 화상)에서는, 복수의 화상의 사이의 경계가 존재한다. 도 6c의 점선(605)은, 피시 아이 화상(601)과 피시 아이 화상(602) 사이의 경계를 의미한다. 카메라 제어부(120)는, VR화상으로부터 상기 경계를 자동으로 검출하고, 해당 경계의 적어도 일부를 포함하는 부분(예를 들면, 도 6c의 범위(606))을 줌 뷰 화상의 범위로서 자동으로 결정해도 좋다. 줌 뷰 화상의 범위의 결정 방법(줌 뷰 화상의 취득 방법)이 상이한 복수의 동작 모드를 카메라(100)가 구비하고 있어도 좋다.
여기에서, 복수의 소정의 피사체가 VR화상에 존재하여도 된다. 소정의 피사체가 존재하는 부분에 대해 줌 뷰 표시를 행하는 구성에서, 카메라 제어부(120)는, 복수의 소정의 피사체 중 하나에 대응하는 1개의 줌 뷰 화상을 줌 뷰 표시로서 표시하도록 제어해도 되지만, 이 제어를 실행할 필요는 없다. 카메라 제어부(120)는, 복수의 소정의 피사체에 각각 대응하는 복수의 줌 뷰 화상을 순서대로 표시부(141)에 표시하기 위한 제어를, 줌 뷰 표시의 제어로서 실행해도 좋다. 이 제어 동안에, 카메라 제어부(120)는, 표시된 줌 뷰 화상을 복수의 줌 뷰 화상의 사이에서 자동으로 바꾸어도 좋거나, 유저 조작에 응답하여 바꾸어도 좋다.
또한, 상술한 예에서는, 촬영 준비 지시를 내리기 위한 유저 조작에 응답해서 광각 뷰 표시로부터 줌 뷰 표시에의 전환이 행해지지만, 본 발명은 이것에 한정되지 않는다. 대신에, 카메라 제어부(120)의 제어하에, 촬영 준비 지시를 내리기 위한 유저 조작이 행해질 때까지 줌 뷰 표시가 행해지고, 촬영 준비 지시를 내리기 위한 유저 조작에 응답해서 줌 뷰 표시로부터 광각 뷰 표시에의 전환이 행해져도 좋다. 따라서, 예를 들면, 촬영 준비 지시 전에, 줌 뷰 표시로 확대되지만 왜곡되지 않고 위화감이 없는 카메라(100)로부터 특정한 방향으로 본 영상을, 확인할 수 있다. 그리고, 촬영 준비 지시가 내려지면, 광각 뷰 표시로 전환되기 때문에, 카메라(100)의 주위에서 일어난 촬영에 적합한 이벤트의 순간(예를 들면, 쏘아 올리는 불꽃이 수많이 열린 순간)에 촬영 조작을 행할 수 있다.
또한, 줌 뷰 표시와 광각 뷰 표시는 전환될 필요가 없다. 도 7에 도시한 바와 같이, 촬영 준비 지시가 내리기 전(촬영 대기 상태)에, 줌 뷰 화상과 광각 뷰 화상의 한쪽을 표시한다. 그리고, 카메라 제어부(120)의 제어하에, 촬영 준비 지시를 내리기 위한 유저 조작에 응답하여, 줌 뷰 화상과 광각 뷰 화상의 한쪽의 표시로부터, 양쪽 화상의 표시에의 전환이 행해진다. 줌 뷰 화상과 광각 뷰 화상의 양쪽을 표시하면, 촬영자는, 광각 뷰 화상을 보아서 카메라(100)의 주위에서 일어난 촬영에 적합한 이벤트의 순간을 놓치지 않고 촬영을 실행할 수 있다. 또한, 줌 뷰 화상을 봄으로써, 촬영자는, 얼굴 표정 변화등의 좁은 범위내에서 일어나는 촬영기회도 놓치지 않고 촬영을 행할 수 있다. 또한, 촬영 대기 상태(촬영 준비 지시가 내려지는 동안)에서는, 줌 뷰 화상과 광각 뷰 화상의 양쪽이 아니고 한쪽을 표시한다. 이것은, 촬영 대기 상태에서 양쪽 화상을 표시하면, 화상처리의 부하가 높아지고, 소비 전력이 커져버리기 때문이다(즉, 절전 때문이다).
더욱, 촬영 대기 상태에서와 촬영 준비 지시가 내려지는 기간 동안에, 줌 뷰 화상과 광각 뷰 화상의 표시를, 동작 모드에 따라 자동적으로 전환하여도 좋다. 예를 들면, 복수의 촬영 모드 중 하나인 인물촬영 모드(제1의 동작 모드)로 설정되어 있을 경우, 촬영 대기 상태에서는 광각 뷰 화상이 표시되고, 촬영 준비 지시에 응답하여 줌 뷰 화상 표시 또는 양쪽의 화상의 표시로 바꿔진다. 이에 따라, 전술과 같이, 촬영자는, 인물의 표정변화 등의 좁은 범위내에서 일어나는 작은 촬영기회를 놓치지 않고 촬영을 실행할 수 있다. 한편, 복수의 촬영 모드 중 하나인 쏘아 올리는 불꽃촬영 모드나, 스포츠 촬영 모드, 또는 풍경촬영 모드(제2의 동작 모드)에서는, 촬영 대기상태에서는 줌 뷰 화상이 표시되고, 촬영 준비 지시에 응답하여 광각 뷰 화상 표시 또는 양쪽의 화상의 표시로 바꿔진다. 이에 따라, 전술과 같이, 촬영자는, 카메라의 주위의 넓은 범위에서 발생하는 이벤트, 혹은, 예측 불가능한 위치에서 발생하는 이벤트도 놓치지 않고, 촬영을 실행할 수 있다.
또한, 카메라 제어부(120)가 실행하는 것으로서 설명한 상술의 각종 제어는 1개의 하드웨어를 사용하여 구현되어도 좋거나, 복수의 하드웨어에 그 처리를 분담함으로써 장치 전체의 제어가 실현되어도 좋다.
또한, 상술한 실시예에 있어서는, 본 발명을 카메라(100)에 적용했을 경우를 예로서 설명했지만, 본 발명은 이 예에 한정되지 않고 VR화상의 적어도 일부분을 표시하도록 제어할 수 있는 어떠한 전자기기에도 적용될 수도 있다. 보다 구체적으로, 본 발명은, 퍼스널 컴퓨터, PDA, 휴대전화단말, 휴대형의 화상 뷰어, 디스플레이를 구비하는 프린터 장치, 디지털 포토 프레임 등에 적용하여도 된다. 또한, 본 발명은 음악 플레이어, 게임기, 전자 북 리더, 타블렛 단말, 스마트 폰, 투영 장치, 디스플레이를 구비하는 가전장치나 차재장치등에 적용하여도 된다.
또한, 본 발명은, 촬상 장치 본체에 한정하지 않고, 유선 또는 무선통신으로 촬상 장치(네트워크 카메라를 포함한다)와 통신하여서, 그 촬상 장치를 원격으로 제어하는 제어장치에도 적용하여도 된다. 촬상 장치를 원격으로 제어하는 장치의 예로서는, 스마트 폰, 타블렛PC, 데스크탑PC등의 장치가 있다. 제어장치측에서 행해진 조작과 제어장치측에서 행해진 처리에 근거하여, 제어장치측에서 촬상 장치에 각종 동작이나 설정을 행하게 하는 커맨드를 송신 함에 의해, 촬상 장치를 원격으로 제어가능하다. 또한, 촬상 장치로 촬영한 라이브 뷰 화상을 유선 또는 무선통신으로 수신해서 제어장치측에서 표시할 수 있다.
(기타의 실시예)
본 발명은, 상기 실시예의 1개 이상의 기능을 실현하는 프로그램을, 네트워크 또는 기억매체를 개입하여 시스템 혹은 장치에 공급하고, 그 시스템 혹은 장치의 컴퓨터에 있어서 1개 이상의 프로세서가 프로그램을 읽어 실행하는 처리에서도 실현 가능하다.
또한, 1개 이상의 기능을 실현하는 회로(예를 들어, ASIC)에 의해서도 실행 가능하다.
본 발명을 실시예들을 참조하여 기재하였지만, 본 발명은 상기 개시된 실시예들에 한정되지 않는다는 것을 알 것이다. 아래의 청구항의 범위는, 모든 변형예와, 동등한 구조 및 기능을 포함하도록 폭 넓게 해석해야 한다.

Claims (25)

  1. 촬상 제어장치로서,
    제1의 유저 조작을 접수하도록 구성되고,
    상기 제1의 유저 조작을 접수하지 않은 경우에,
    촬상부로부터 수신한 라이브 뷰 화상인 라이브 가상현실(VR) 화상의 제1의 범위에 대응하는 제1화상; 및
    상기 라이브VR화상에 상대적으로 확대한 상기 라이브VR화상의, 상기 제1의 범위보다 작은 제2의 범위에 대응하는 제2화상 중 한쪽인, 표시부에 표시하는 화상신호를 출력하도록 제어하고,
    상기 제1의 유저 조작을 접수했을 경우에,
    상기 제1화상과 상기 제2화상의 한쪽으로부터, 상기 제1화상과 상기 제2화상의 다른 쪽, 또는, 상기 제1화상과 상기 제2화상의 양쪽에, 상기 표시부에 표시된 상기 화상을 변경하게 하는 화상신호를 출력하도록 제어하고,
    촬영 준비 처리를 실행하기 위한 준비 지시를 내리도록 구성되는 제어부를 구비하고,
    상기 라이브VR화상은 피사체의 실상에 대하여 왜곡을 포함하고,
    상기 제1화상은 상기 라이브VR화상상의 왜곡을 보정하기 위한 특정한 보정 처리를 수행하지 않고 취득된 화상이며,
    상기 제2화상은 상기 라이브VR화상에 대하여 상기 특정한 보정 처리를 수행해서 취득된 화상인, 촬상 제어장치.
  2. 제 1 항에 있어서,
    상기 제어부는, 상기 제1의 유저 조작을 접수하지 않은 경우에, 상기 표시부에 표시하는 상기 제1화상으로서의 상기 화상신호를 출력하게 제어하도록 더 구성되는, 촬상 제어장치.
  3. 제 1 항에 있어서,
    상기 제어부는, 상기 제1의 유저 조작을 접수하지 않은 경우에, 상기 표시부에 표시하는 상기 제2화상으로서의 상기 화상신호를 출력하게 제어하도록 더 구성되는, 촬상 제어장치.
  4. 제 1 항에 있어서,
    상기 제어부는,
    제1의 동작 모드로 설정되어 있고 상기 제1의 유저 조작을 접수하지 않은 경우에, 상기 표시부에 표시하는 상기 제1화상으로서의 상기 화상신호를 출력하게 제어하고,
    제2의 동작 모드로 설정되어 있고 상기 제1의 유저 조작을 접수하지 않은 경우에, 상기 표시부에 표시하는 상기 제2화상으로서의 상기 화상신호를 출력하게 제어하도록 더 구성되는, 촬상 제어장치.
  5. 제 1 항에 있어서,
    상기 제어부는, 상기 제1의 유저 조작의 접수에 응답하여, 상기 제1화상과 상기 제2화상의 상기 다른쪽에 상기 표시부의 표시를 위해 출력하는 상기 화상신호를 바꾸게 제어하도록 더 구성되는, 촬상 제어장치.
  6. 제 1 항에 있어서,
    상기 제어부는, 상기 제1의 유저 조작의 접수에 응답하여, 상기 제1화상과 상기 제2화상의 양쪽에 상기 표시부의 표시를 위해 출력하는 상기 화상신호를 바꾸게 제어하도록 더 구성되는, 촬상 제어장치.
  7. 제 1 항에 있어서,
    상기 제어부는, 상기 제1의 유저 조작의 접수의 종료에 응답하여, 상기 제1화상과 상기 제2화상의 한쪽에 상기 표시부의 표시를 위해 출력하는 상기 화상신호를 되돌아가게 제어하도록 더 구성되는, 촬상 제어장치.
  8. 제 1 항에 있어서,
    상기 제1의 범위는, 상기 라이브VR화상의 전범위인, 촬상 제어장치.
  9. 제 1 항에 있어서,
    상기 제1의 유저 조작은, 유저가 조작부에 대하여 제1의 조작을 행한 경우에 상기 조작부로부터 접수되고,
    상기 제어부는, 유저에 의해 상기 조작부에 대하여 행해진 제2의 유저 조작의 접수에 응답하여, VR화상을 촬영하도록 상기 촬상부에 지시하는 지시를 내리도록 더 구성되는, 촬상 제어장치.
  10. 제 9 항에 있어서,
    상기 제1의 유저 조작은 셔터 버튼을 반가압하는 조작이며, 상기 제2의 유저 조작은 셔터 버튼을 완전히 가압하는 조작인, 촬상 제어장치.
  11. 제 9 항에 있어서,
    터치패널에 대해 행해진 터치 조작을 검지하는 상기 조작부로서의 상기 터치패널을 더 구비하고,
    상기 제1의 유저 조작은 표시면에 표시된 특정한 표시 아이템에 대해 행해진 제1의 터치 조작이며, 상기 제2의 유저 조작은 상기 특정의 표시 아이템에 대해 행해진 제2의 터치 조작인, 촬상 제어장치.
  12. 제 11 항에 있어서,
    상기 제1의 터치 조작은 상기 터치패널에 접촉을 시작하는 조작이며, 상기 제2의 터치 조작은 상기 제1의 터치 조작 후에 상기 터치패널로부터 접촉을 떼어 놓는 조작인, 촬상 제어장치.
  13. 삭제
  14. 제 1 항에 있어서,
    상기 특정한 보정처리를 실행하도록 구성된 화상처리부를 더 구비하는, 촬상 제어장치.
  15. 제 14 항에 있어서,
    상기 특정한 보정처리는, 촬상시에 사용된 렌즈의 광축에 대응하는 상기 라이브VR화상상의 위치와, 상기 제2화상에 대응하는 상기 라이브VR화상상의 위치와의 사이의 거리에 근거한 강도에서의 보정처리인, 촬상 제어장치.
  16. 제 15 항에 있어서,
    상기 화상처리부는, 상기 거리가 임계치이하일 경우에, 상기 특정한 보정처리를 생략하거나, 또는, 상기 라이브VR화상의 왜곡을 가변하지 않는 것을 보장하는 강도에서 상기 특정한 보정처리를 실행하는, 촬상 제어장치.
  17. 제 1 항에 있어서,
    상기 라이브VR화상을 구성하는 복수의 화상을 각각 촬상하는 복수의 촬상 소자를 갖는 촬상부를 더 구비하는, 촬상 제어장치.
  18. 제 17 항에 있어서,
    상기 라이브VR화상은, 상기 복수의 화상을 합성한 1개의 화상이며,
    상기 제어부는, 상기 제1의 유저 조작이 행해진 경우에, 상기 복수의 화상의 사이의 경계를 포함하는 상기 제2화상을, 상기 표시부에 표시하는 화상신호를 출력하도록 제어하는, 촬상 제어장치.
  19. 제 1 항에 있어서,
    터치패널에 대해 행해진 터치 조작을 검지하는 상기 터치패널을 더 구비하고,
    상기 표시부에 표시된 상기 제1화상에 터치가 행해지고 나서 상기 제1의 유저 조작이 행해지는 경우에, 상기 제어부는, 상기 제1화상의 터치 위치에 대응하는 상기 제2화상을 상기 표시부에 표시하는 화상신호를 출력하게 제어하도록 구성되는, 촬상 제어장치.
  20. 제 1 항에 있어서,
    상기 제어부는, 상기 제1의 유저 조작이 행해지는 경우에, 소정의 피사체가 존재하는 상기 제1화상의 일부에 대응하는 상기 제2화상을 상기 표시부에 표시하는 화상신호를 출력하게 제어하도록 구성되는, 촬상 제어장치.
  21. 제 20 항에 있어서,
    상기 라이브VR화상에 복수의 소정의 피사체가 존재하고, 또한 상기 제1의 유저 조작이 행해지는 경우에, 상기 제어부는, 상기 복수의 소정의 피사체에 각각 대응하는 복수의 제2화상이 순서대로 상기 표시부에 표시되도록 화상신호를 출력하게 제어하도록 구성되는, 촬상 제어장치.
  22. 제 21 항에 있어서,
    상기 제어부는, 상기 복수의 제2화상을 순서대로 상기 표시부에 표시하기 위한 제어시에, 제2의 유저 조작에 응답하여, 상기 표시부에 표시되는 상기 제2화상이, 상기 복수의 제2화상의 사이에서 변경하도록 출력되는 상기 화상신호를 변경하는, 촬상 제어장치.
  23. 제 1 항에 있어서,
    상기 준비 지시는, 상기 제1의 유저 조작의 접수에 응답하여, 촬상 준비 처리로서, 오토포커스, 노출 설정, 조리개의 조정, 셔터 속도의 설정, 화이트 밸런스의 조정, 및 게인 조정 중 적어도 하나를 실행시키기 위한 지시인, 촬상 제어장치.
  24. 제1의 유저 조작을 접수하는 단계;
    상기 제1의 유저 조작을 접수하지 않은 경우에,
    촬상부에 의해 촬상된 라이브 뷰 화상인 라이브 가상현실(VR) 화상의 제1의 범위에 대응하는 제1화상; 및
    상기 라이브VR화상에 상대적으로 확대한 상기 라이브VR화상의, 상기 제1의 범위보다 작은 제2의 범위에 대응하는 제2화상 중 한쪽인, 표시부에 표시하는 화상신호를 출력하도록 제어하는 단계; 및
    상기 제1의 유저 조작을 접수했을 경우에,
    상기 제1화상과 상기 제2화상의 한쪽으로부터, 상기 제1화상과 상기 제2화상의 다른 쪽, 또는, 상기 제1화상과 상기 제2화상의 양쪽에, 상기 표시부에 표시된 상기 화상을 변경하게 하는 화상신호를 출력하도록 제어하고;
    촬영 준비 처리를 실행하기 위한 준비 지시를 내리는 단계를 포함하고,
    상기 라이브VR화상은 피사체의 실상에 대하여 왜곡을 포함하고,
    상기 제1화상은 상기 라이브VR화상상의 왜곡을 보정하기 위한 특정한 보정 처리를 수행하지 않고 취득된 화상이며,
    상기 제2화상은 상기 라이브VR화상에 대하여 상기 특정한 보정 처리를 수행해서 취득된 화상인, 촬상 제어장치의 제어 방법.
  25. 컴퓨터에,
    제1의 유저 조작을 접수하는 단계;
    상기 제1의 유저 조작을 접수하지 않은 경우에,
    촬상부에 의해 촬상된 라이브 뷰 화상인 라이브 가상현실(VR) 화상의 제1의 범위에 대응하는 제1화상; 및
    상기 라이브VR화상에 상대적으로 확대한 상기 라이브VR화상의, 상기 제1의 범위보다 작은 제2의 범위에 대응하는 제2화상 중 한쪽인, 표시부에 표시하는 화상신호를 출력하도록 제어하는 단계; 및
    상기 제1의 유저 조작을 접수했을 경우에,
    상기 제1화상과 상기 제2화상의 한쪽으로부터, 상기 제1화상과 상기 제2화상의 다른 쪽, 또는, 상기 제1화상과 상기 제2화상의 양쪽에, 상기 표시부에 표시된 상기 화상을 변경하게 하는 화상신호를 출력하도록 제어하고;
    촬영 준비 처리를 실행하기 위한 준비 지시를 내리는 단계를 포함하고,
    상기 라이브VR화상은 피사체의 실상에 대하여 왜곡을 포함하고,
    상기 제1화상은 상기 라이브VR화상상의 왜곡을 보정하기 위한 특정한 보정 처리를 수행하지 않고 취득된 화상이며,
    상기 제2화상은 상기 라이브VR화상에 대하여 상기 특정한 보정 처리를 수행해서 취득된 화상인, 촬상 제어장치의 제어 방법을, 실행시키기 위한 프로그램을 기억하는, 컴퓨터 판독 가능한 매체.
KR1020180074421A 2017-06-29 2018-06-28 촬상 제어장치 및 그 제어 방법 KR102235231B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2017-127166 2017-06-29
JP2017127166A JP7000050B2 (ja) 2017-06-29 2017-06-29 撮像制御装置及びその制御方法

Publications (2)

Publication Number Publication Date
KR20190002346A KR20190002346A (ko) 2019-01-08
KR102235231B1 true KR102235231B1 (ko) 2021-04-02

Family

ID=63042829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180074421A KR102235231B1 (ko) 2017-06-29 2018-06-28 촬상 제어장치 및 그 제어 방법

Country Status (6)

Country Link
US (1) US10645278B2 (ko)
JP (1) JP7000050B2 (ko)
KR (1) KR102235231B1 (ko)
CN (1) CN109218606B (ko)
DE (1) DE102018115437A1 (ko)
GB (1) GB2565634B (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10593014B2 (en) * 2018-03-26 2020-03-17 Ricoh Company, Ltd. Image processing apparatus, image processing system, image capturing system, image processing method
US11128764B2 (en) * 2018-05-17 2021-09-21 Canon Kabushiki Kaisha Imaging apparatus, control method, and non-transitory computer readable medium
JP7267764B2 (ja) * 2019-02-08 2023-05-02 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP7204511B2 (ja) * 2019-02-12 2023-01-16 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム
JP7350511B2 (ja) 2019-05-14 2023-09-26 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
CN110602401A (zh) * 2019-09-17 2019-12-20 维沃移动通信有限公司 一种拍照方法及终端
CN113038117B (zh) * 2021-03-08 2022-09-09 烽火通信科技股份有限公司 一种基于多视角的全景播放方法与装置
JP2022183843A (ja) 2021-05-31 2022-12-13 キヤノン株式会社 電子機器及びその制御方法及びプログラム及び記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130010084A1 (en) 2010-04-19 2013-01-10 Panasonic Corporation Three-dimensional imaging device and three-dmensional imaging method
WO2016056004A1 (en) 2014-10-07 2016-04-14 Elbit Systems Ltd. Head-mounted displaying of magnified images locked on an object of interest

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084598A (en) * 1998-04-23 2000-07-04 Chekerylla; James Apparatus for modifying graphic images
US7353086B2 (en) * 2002-11-19 2008-04-01 Timothy James Ennis Methods and systems for providing a rearward field of view for use with motorcycles
US7229226B2 (en) * 2003-03-20 2007-06-12 Silverbrook Research Pty Ltd Display device having pagewidth printhead adjacent lower edge of housing
US7599255B2 (en) * 2003-09-05 2009-10-06 Kent Dennis C Device for displaying time in selectable display patterns and method of using the same
US7774712B2 (en) * 2004-12-31 2010-08-10 A Far Site Better, Llc Methods and systems for displaying an enlarged image
US7230523B2 (en) * 2005-01-07 2007-06-12 Delphi Technologies, Inc. Vehicular rear view mirror/video display
JP2007116610A (ja) * 2005-10-24 2007-05-10 Olympus Imaging Corp 撮影装置及び撮影方法
JP5126668B2 (ja) * 2008-01-22 2013-01-23 株式会社ニコン 撮影レンズ、これを搭載する光学装置および像ブレ補正方法
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
WO2010071053A1 (ja) * 2008-12-18 2010-06-24 アイシン精機株式会社 表示装置
JP5306266B2 (ja) * 2010-03-15 2013-10-02 キヤノン株式会社 撮像装置及びその制御方法
WO2012071466A2 (en) * 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for acquiring virtual and augmented reality scenes by a user
JP5625887B2 (ja) * 2010-12-22 2014-11-19 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5742210B2 (ja) * 2010-12-22 2015-07-01 ソニー株式会社 撮像装置、画像処理装置、画像処理方法およびプログラム
US20180032997A1 (en) * 2012-10-09 2018-02-01 George A. Gordon System, method, and computer program product for determining whether to prompt an action by a platform in connection with a mobile device
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
JP6039328B2 (ja) * 2012-09-14 2016-12-07 キヤノン株式会社 撮影制御装置および撮像装置の制御方法
JP2014222825A (ja) 2013-05-13 2014-11-27 キヤノン株式会社 映像処理装置および映像処理方法
JP6291748B2 (ja) * 2013-08-29 2018-03-14 株式会社リコー 撮像装置、撮像方法、及びプログラム
CN104331860A (zh) * 2014-11-24 2015-02-04 小米科技有限责任公司 图片查看方法和装置
FR3028767B1 (fr) * 2014-11-26 2017-02-10 Parrot Systeme video pour le pilotage d'un drone en mode immersif
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法
CN104537616A (zh) * 2014-12-20 2015-04-22 中国科学院西安光学精密机械研究所 鱼眼图像畸变的校正方法
CN105872349A (zh) * 2015-01-23 2016-08-17 中兴通讯股份有限公司 拍摄方法、拍摄装置及移动终端
JP6476041B2 (ja) * 2015-03-31 2019-02-27 株式会社Aze 医用画像診断装置、その制御方法、及びプログラム
US10300362B2 (en) * 2015-04-23 2019-05-28 Win Reality, Llc Virtual reality sports training systems and methods
US10222619B2 (en) * 2015-07-12 2019-03-05 Steven Sounyoung Yu Head-worn image display apparatus for stereoscopic microsurgery
JP6627352B2 (ja) * 2015-09-15 2020-01-08 カシオ計算機株式会社 画像表示装置、画像表示方法及びプログラム
JP2017085466A (ja) * 2015-10-30 2017-05-18 キヤノン株式会社 撮像装置、及びその制御方法
CN105455285B (zh) * 2015-12-31 2019-02-12 北京小鸟看看科技有限公司 一种虚拟现实头盔适配方法
US10176726B2 (en) * 2016-02-25 2019-01-08 Freedom Scientific, Inc. Handheld, portable vision aid device and vision aid system
CN106101687B (zh) * 2016-07-25 2018-05-15 深圳市同盛绿色科技有限公司 Vr图像拍摄装置及其基于移动终端的vr图像拍摄***
JP6278575B1 (ja) * 2016-11-21 2018-02-14 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
EP3545675A4 (en) * 2016-11-24 2020-07-01 The University of Washington CAPTURE AND RESTITUTION OF LIGHT FIELD FOR HEADSETS
CN106791377B (zh) * 2016-11-29 2019-09-27 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
KR20180073327A (ko) * 2016-12-22 2018-07-02 삼성전자주식회사 영상 표시 방법, 저장 매체 및 전자 장치
KR102623391B1 (ko) * 2017-01-10 2024-01-11 삼성전자주식회사 영상 출력 방법 및 이를 지원하는 전자 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130010084A1 (en) 2010-04-19 2013-01-10 Panasonic Corporation Three-dimensional imaging device and three-dmensional imaging method
WO2016056004A1 (en) 2014-10-07 2016-04-14 Elbit Systems Ltd. Head-mounted displaying of magnified images locked on an object of interest

Also Published As

Publication number Publication date
CN109218606B (zh) 2021-11-19
GB201810400D0 (en) 2018-08-08
JP2019012881A (ja) 2019-01-24
US10645278B2 (en) 2020-05-05
GB2565634B (en) 2020-12-02
CN109218606A (zh) 2019-01-15
DE102018115437A1 (de) 2019-01-03
US20190007609A1 (en) 2019-01-03
KR20190002346A (ko) 2019-01-08
JP7000050B2 (ja) 2022-01-19
GB2565634A (en) 2019-02-20

Similar Documents

Publication Publication Date Title
KR102235231B1 (ko) 촬상 제어장치 및 그 제어 방법
EP3818688B1 (en) Apparatus and method for operating multiple cameras for digital photography
JP7185434B2 (ja) 複数のカメラを用いて映像を取得するための電子装置及びこれを用いた映像処理方法
US8212895B2 (en) Digital camera system with portrait effect
CN110740260B (zh) 一种拍摄方法、装置以及计算机可读存储介质
KR20180129667A (ko) 표시 제어 장치, 표시 제어 방법 및 저장 매체
CN114982213B (zh) 用于提供相机预览的电子装置及其方法
WO2015194084A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP7049163B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP2018152787A (ja) 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム
CN114846608A (zh) 包括图像传感器的电子设备及其操作方法
JP2009171428A (ja) デジタルカメラ装置および電子ズームの制御方法およびプログラム
CN111953871B (zh) 电子设备、电子设备的控制方法和计算机可读介质
US11917295B2 (en) Method for correcting shaking at high magnification and electronic device therefor
CN108476290B (zh) 用于提供全景图像的电子装置及其控制方法
CN111953870B (zh) 电子设备、电子设备的控制方法和计算机可读介质
CN107580157B (zh) 图像处理装置、图像处理方法
WO2017159014A1 (ja) 画像処理装置、画像処理方法及び画像処理システム
WO2017145483A1 (ja) 画像処理装置、画像処理システム及びプログラム
JP2019068261A (ja) 配信システムおよび配信方法、配信装置および配信プログラム、ならびに、受信装置および受信プログラム
JP7176277B2 (ja) 配信装置、カメラ装置、配信システム、配信方法及び配信プログラム
CN109842740A (zh) 全景摄像机、图像处理***及图像处理方法
JP2020095070A (ja) 撮像装置
JP6811935B2 (ja) 撮像装置、画像処理方法及びプログラム
CN116782014A (zh) 摄像设备及其控制方法和计算机可读介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant