KR20210101790A - 전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법 - Google Patents

전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법 Download PDF

Info

Publication number
KR20210101790A
KR20210101790A KR1020200016179A KR20200016179A KR20210101790A KR 20210101790 A KR20210101790 A KR 20210101790A KR 1020200016179 A KR1020200016179 A KR 1020200016179A KR 20200016179 A KR20200016179 A KR 20200016179A KR 20210101790 A KR20210101790 A KR 20210101790A
Authority
KR
South Korea
Prior art keywords
time
lapse image
source
speed
electronic device
Prior art date
Application number
KR1020200016179A
Other languages
English (en)
Inventor
김승훈
원종훈
이해선
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200016179A priority Critical patent/KR20210101790A/ko
Priority to PCT/KR2021/001201 priority patent/WO2021162301A1/ko
Publication of KR20210101790A publication Critical patent/KR20210101790A/ko
Priority to US17/886,224 priority patent/US11930277B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/915Television signal processing therefor for field- or frame-skip recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • H04N5/2353
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

본 문서에 개시되는 일 실시예에 따른 전자 장치는, 디스플레이, 카메라, 메모리 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가 지정된 최대 노출 시간에 따라서 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수를 결정하고, 상기 카메라를 이용하여, 외부 오브젝트로부터 반사되는 빛을, 지정된 노출값에 따라 결정되는 노출 시간 동안 입력 받고, 상기 빛을 전기적인 신호로 변환하여 상기 적어도 하나의 소스 프레임들을 생성하고, 상기 적어도 하나의 소스 프레임들을 이용하여, 시간에 따른 상기 외부 오브젝트의 움직임을 나타내는 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상을 생성하도록 하는 인스트럭션들(instructions)을 저장하고, 상기 적어도 하나의 소스 프레임들은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 속도로 생성될 수 있다.
이 외에도 명세서를 통해 파악되는 다양한 실시예가 가능하다.

Description

전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법{Electronic device and method for generating time-lapse image thereof}
본 문서에서 개시되는 다양한 실시예들은, 타임 랩스 영상을 생성하는 전자 장치 및 전자 장치를 제어하는 기술과 관련된다.
타임 랩스(또는 하이퍼 랩스)는 외부 오브젝트를 촬영한 프레임(Frame)에 대해서, 상대적으로 큰 샘플링 속도(예: 30Fps)를 갖는 샘플링(Sampling)을 수행하여, 외부 오브젝트를 촬영할 때의 속도와 완성된 영상을 재생할 때의 속도가 서로 다르게 되도록 하는 촬영 방법을 의미할 수 있다. 예를 들어, 초당 1 프레임(frame)으로 획득된 영상을 재생 시에 초당 30 프레임의 속도로 재생하면, 사용자는 영상의 속도가 30배 증가된 것으로 인식할 수 있다. 타임 랩스 방법을 이용하여 촬영된 영상을 타임 랩스 영상(또는 하이퍼 랩스 영상)으로 명명할 수 있다.
타임 랩스 영상은 동영상에 비해서 상대적으로 짧은 시간 동안에 촬영된 영상들을 표시할 수 있으므로, 보다 적은 저장 공간이 필요로 되며, 스마트폰과 같은 다수의 전자 장치들은 타임 랩스 영상을 생성하는 기능을 제공하고 있다.
본 문서에 개시되는 다양한 실시예들은, 최대 노출 시간을 설정하고, 카메라를 이용하여 최대 노출 시간에 대응하는 제1 속도로 외부 오브젝트를 나타내는 소스 프레임을 획득하고, 획득된 소스 프레임을 이용하여 제1 속도와 다른 제2 속도로 재생될 타겟 프레임을 포함하는 타임 랩스 영상을 생성하는 전자 장치 및 전자 장치의 제어 방법을 제공하고자 한다.
본 문서에 개시되는 다양한 실시예들은, 카메라를 이용하여 외부 오브젝트를 나타내는 소스 프레임을 획득하고, 획득된 소스 프레임에 대한 샘플링 여부 또는 샘플링 주기를 제어하고, 획득된 소스 프레임을 이용하여 타겟 프레임을 포함하는 타임 랩스 영상을 생성하는 전자 장치 및 전자 장치의 제어 방법을 제공하고자 한다.
본 문서에 개시되는 일 실시예에 따른 전자 장치는, 디스플레이, 카메라, 메모리 및 상기 디스플레이, 상기 카메라, 및 상기 메모리와 작동적으로(operatively) 연결되는 프로세서를 포함할 수 있다. 일 실시예에 따르면, 상기 메모리는 실행 시, 상기 프로세서가, 지정된 최대 노출 시간에 따라서 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수를 결정하고, 상기 카메라를 이용하여, 외부 오브젝트로부터 반사되는 빛을, 지정된 노출값에 따라 결정되는 노출 시간 동안 입력 받고, 상기 빛을 전기적인 신호로 변환하여 상기 적어도 하나의 소스 프레임들을 생성하고, 상기 적어도 하나의 소스 프레임들을 이용하여, 시간에 따른 상기 외부 오브젝트의 움직임을 나타내는 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상을 생성하도록 하는 인스트럭션들(instructions)을 저장하고, 상기 적어도 하나의 소스 프레임들은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 속도로 생성될 수 있다.
또한, 본 문서에 개시되는 일 실시예에 따른 전자 장치의 제어 방법은, 최대 노출 시간을 설정하는 동작, 상기 최대 노출 시간에 기초하여 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수를 결정하는 동작, 외부 오브젝트로부터 반사되는 빛을, 지정된 노출값에 따라 결정되는 노출 시간 동안 입력 받고, 상기 빛을 전기적인 신호로 변환하여 상기 적어도 하나의 소스 프레임들을 생성하는 동작 및 상기 적어도 하나의 소스 프레임들을 이용하여, 시간에 따른 상기 외부 오브젝트의 움직임을 나타내는 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상을 생성하는 동작을 포함하고, 상기 적어도 하나의 소스 프레임들을 생성하는 동작은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 속도로 상기 적어도 하나의 소스 프레임들을 생성하는 동작을 더 포함할 수 있다.
본 문서에 개시되는 실시예들에 따르면, 지정된 최대 노출 시간에 대응하는 프레임의 획득 속도에 따라서, 외부 오브젝트를 표시하는 프레임을 획득 할 수 있다.
본 문서에 개시되는 실시예들에 따르면, 최대 노출 시간을 설정하고, 외부 오브젝트를 표시하는 프레임에 대한 샘플링을 생략함으로써 끊김 없는 타임 랩스 영상을 획득할 수 있다.
본 문서에 개시되는 실시예들에 따르면, 카메라가 외부 오브젝트를 촬영할 때의 프레임의 획득 속도와, 완성된 타임 랩스 영상이 재생될 때의 재생 속도가 서로 다른 타임 랩스 영상을 획득할 수 있다.
본 문서에 개시되는 실시예들에 따르면, 낮은 조도를 갖는 환경에서, 카메라를 장 노출(Long exposure)로 설정하고, 빛의 늘어짐 효과를 나타내는 고성능의 타임 랩스 영상을 획득할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 다양한 실시예에 따른 네트워크 환경 내의 전자 장치를 나타낸다.
도 2는 다양한 실시예에 따른, 전자 장치의 블록도이다.
도 3은 다양한 실시예에 따른, 타임 랩스 영상이 생성되는 것을 설명하기 위한 도면이다.
도 4는 다양한 실시예에 따른, 타임 랩스 영상이 생성되는 것을 설명하기 위한 도면이다.
도 5는 다양한 실시예에 따른, 지정된 최대 노출 시간이 1.5초인 경우에, 노출값에 따른 셔터 스피드 및 필름 감도의 관계를 나타내는 그래프이다.
도 6은 다양한 실시예에 따른, 전자 장치의 제어 방법의 순서도이다.
도 7은 다양한 실시예에 따른, 전자 장치의 제어 방법의 순서도이다.
도 8은, 도 7에 도시된 소스 프레임들이 생성되는 속도를 가변하는 내용을 설명하기 위한 도면이다.
도 9는 다양한 실시예에 따른, 전자 장치의 제어 방법의 순서도이다.
도 10은, 도 9에 도시된 소스 프레임에 대한 샘플링을 설명하기 위한 도면이다.
도 11은 다양한 실시예에 따른, 타임 랩스 영상을 예시적으로 나타내는 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
일 실시예에 따르면, 카메라 모듈(180)은 타임 랩스 영상을 생성할 수 있다. 예를 들어, 카메라 모듈(180)은 프로세서(120)의 제어에 따라서 외부 오브젝트를 촬영하여 제1 속도로 하나 이상의 소스 프레임을 획득할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제1 속도로 생성된 하나 이상의 소스 프레임을 이용하여 타임 랩스 영상을 생성할 수 있다. 일 실시예에 따르면, 타임 랩스 영상은 하나 이상의 타겟 프레임을 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제1 속도와 다른 제2 속도로 재생되도록 타임 랩스 영상에 포함되는 타겟 프레임을 처리할 수 있다. 예를 들어, 카메라 모듈(180)이 1Fps의 속도로 소스 프레임을 획득할 수 있다. 예를 들어, 프로세서(120)는 소스 프레임을 이용하여 30Fps의 속도로 재생될 타임 랩스 영상을 생성할 수 있다. 예를 들어, 타임 랩스 영상에 포함되는 하나 이상의 타겟 프레임의 재생 속도는, 소스 프레임이 획득되는 속도와는 상이할 수 있다.
다른 실시 예에 따르면, 프로세서(120)는 하나의 타임 랩스 영상이 생성되는 동안에 서로 다른 둘 이상의 속도로 하나 이상의 소스 프레임을 획득하도록 카메라 모듈(180)을 제어할 수 있다. 일 실시예에 따르면, 전자장치(or 프로세서(120))는 하나의 타임 랩스 영상이 생성되는 동안에 표시 장치(160)를 통하여 미리 보기 영상을 표시할 수 있다. 미리 보기 영상은 타임 랩스 영상이 메모리(130)에 저장이 완료되기 전에 실시간으로 표시되는 영상일 수 있다. 사용자는 타임 랩스 영상이 생성되는 동안 미리 보기 영상을 실시간으로 확인할 수 있다. 일 실시예에 따르면, 전자 장치는 서로 다른 둘 이상의 속도로 소스 프레임을 획득할 수 있다. 일 실시예에 따르면, 전자 장치는 획득하는 소스 프레임의 속도에 기반하여 실시간으로 표시하는 미리 보기 영상의 재생 속도를 변경(조정)할 수 있다.
일 실시예에 따르면, 전자 장치(또는 프로세서))는 소스 프레임들에 대한 샘플링(Sampling)을 생략(스킵, skip)할 수 있다. 타임 랩스 영상에 소스 프레임들이 전부 포함될 수 있으므로, 매끄러운 타임 랩스 영상이 얻어질 수 있다. 다른 실시예에 따르면, 전자 장치(또는 프로세서))는 소스 프레임들에 대한 샘플링 주기를 변경(조정)할 수 있다.
일 실시예에 따른 프로세서(120)는 외부 오브젝트를 촬영하여 소스 프레임을 얻는 속도와 소스 프레임을 이용하여 생성되는 타임 랩스 영상의 재생 속도를 서로 다르게 제어할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)에 포함된 센서의 감도(예: ISO 감도)를 낮게 유지한 상태에서, 타임 랩스 영상이 얻어질 수 있다. 센서의 감도가 낮게 유지되고, 광량이 부족한 환경(예: 야간)에서, 상대적으로 긴 최대 노출 시간을 이용하여 소스 프레임들의 획득 속도가 느리게 제어될 수 있다. 프로세서(120)는 획득한 소스 프레임들을 이용하여 상대적으로 빠른 재생 속도를 갖는 타임 랩스 영상을 생성할 수 있다. 타임 랩스 영상은 타겟 프레임들을 포함할 수 있고, 타겟 프레임들의 재생 속도는 소스 프레임들의 획득 속도와는 다를 수 있다.
도 2는 다양한 실시예에 따른, 전자 장치의 블록도이다.
일 실시예에 따르면, 전자 장치(200)(예: 도 1의 전자 장치(101))는 카메라(210)(예: 도 1의 카메라 모듈(180)), 메모리(220)(예: 도 1의 메모리(130)), 프로세서(230)(예: 도 1의 프로세서(120)) 및 디스플레이(240)(예: 도 1의 표시 장치(160))를 포함할 수 있다.
일 실시예에 따르면, 카메라(210)는 정지 영상 및 동영상을 촬영할 수 있다. 카메라(210)는 외부 오브젝트로부터 반사된 빛을 이용하여, 시간의 흐름에 따른 외부 오브젝트의 움직임 또는 형태를 나타내는 타임 랩스(또는 하이퍼 랩스) 영상을 촬영할 수 있다. 예를 들어, 타임 랩스 영상은 외부 오브젝트를 촬영할 때의 속도와 완성된 영상을 재생할 때의 속도가 서로 다른 완성된 영상을 의미할 수 있다. 예를 들어, 타임 랩스 영상을 촬영할 때에 타임 랩스 영상에 포함된 프레임 사이의 촬영 시간 차이는, 타임 랩스 영상을 재생할 때에 타임 랩스 영상에 포함된 프레임 사이의 재생 시간 차이보다 더 클 수 있다. 일 실시예에 따르면, 타임 랩스 영상은 적어도 하나의 프레임들을 포함하는 파일의 형태로 저장될 수 있다. 예를 들어, 타임 랩스 영상은 MPEG4, H.264/AVC, WMV 등의 표준에 따라서 압축되고, 동영상 파일로 저장될 수 있다. 타임 랩스 영상은 MPG, MP4, 3gpp, avi, asf, mov 등의 다양한 형태의 동영상 파일 형식으로 저장될 수 있다. 일 실시예에 따르면, 프로세서(230)의 제어에 따라서, 카메라(210)는 최대 노출 시간 및 노출값에 의해 결정되는 노출 시간에 대응하는 외부 오브젝트로부터 반사된 빛을 입력 받을 수 있다. 카메라(210)는 입력된 빛을 전기적인 신호로 변환하여 타임 랩스 영상을 생성할 수 있다. 최대 노출 시간은 사용자의 입력에 의해서 설정될 수 있다. 다른 실시예에서, 최대 노출 시간은 프로세서(230)의 동작에 의해서 설정되거나 지정될 수 도 있다.
일 실시예에 따르면, 카메라(210)는 도 1에 도시된 카메라 모듈(180)의 적어도 일부를 포함할 수 있다.
일 실시 예에 따르면, 메모리(220)는 적어도 하나의 프로그램, 어플리케이션, 데이터 또는 프로세서(230)에 의해 실행되는 인스트럭션들을 저장할 수 있다. 일 실시예에 따르면, 메모리(220)는 도 1에 도시된 메모리(130)의 적어도 일부를 포함할 수 있다.
일 실시예에 따르면, 프로세서(230)는 설정된 최대 노출 시간에 따라서 카메라(210)가 타임 랩스 영상을 생성하도록 하고, 생성된 타임 랩스 영상을 메모리(220)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(230)는 최대 노출 시간을 설정할 수 있다. 예를 들어, 최대 노출 시간은 사용자의 입력에 의해서 설정될 수 있다. 다른 예에서, 최대 노출 시간은 도 1의 프로그램(140)에 의해서 지정될 수 있다.
일 실시예에 따르면, 디스플레이(240)는 프로세서(230)의 제어에 따라서, 카메라(210)가 외부 오브젝트를 촬영하는 동안에 미리 보기 영상을 표시할 수 있다. 디스플레이(240)는 프로세서(230)의 제어에 따라서, 카메라(210)가 외부 오브젝트를 이용하여 타임 랩스 영상을 생성하는 동안에 미리 보기 영상을 표시할 수 있다. 디스플레이(240)는 프로세서(230)의 타임 랩스 영상을 재생하라는 인스트럭션에 따라서 타임 랩스 영상을 표시할 수 있다. 일 실시예에 따르면, 디스플레이(240)는 도 1에 도시된 표시 장치(160)의 적어도 일부를 포함할 수 있다.
일 실시예에 따르면, 프로세서(230)는 사용자로부터 타임 랩스 영상을 생성할 것을 지시하는 입력을 수신할 수 있다. 프로세서(230)는 사용자의 입력 또는 메모리(220)에 저장된 프로그램에 따라서 카메라(210)의 최대 노출 시간을 설정할 수 있다. 설정된 최대 노출 시간 및 미리 정해진 리드 아웃 시간을 포함하는 재설정 시간을 이용하여 카메라(210)의 영상 획득 속도가 결정될 수 있다. 카메라의 영상 획득 속도는 다음의 수학식 1에 의해서 결정될 수 있다.
Figure pat00001
일 실시예에 따르면, 최대 노출 시간은 전자 장치(200)의 내부(예: 메모리(220)에 저장된 프로그램) 또는 외부(예: 사용자의 입력)의 조건에 따라서 변할 수 있다. 그러므로, 상기 수학식 1에 따르면, 영상 획득 속도는 최대 노출 시간에 따라 변할 수 있다. 즉, 카메라(210)가 타임 랩스 영상을 생성하기 위해 외부 오브젝트에 대한 영상을 획득하는 속도는 전자 장치(200)의 내부 또는 외부의 조건에 따라서 가변될 수 있다.
일 실시예에 따르면, 프로세서(230)는 카메라(210)가 획득한 영상을 이용하여, 타임 랩스 영상을 생성할 수 있다. 구체적으로 카메라(210)는 외부 오브젝트로부터 반사된 빛을 이용하여 영상을 획득할 수 있다. 카메라(210)가 타임 랩스 영상을 생성하기 위해 획득한 영상은 적어도 하나의 소스 프레임을 포함할 수 있다. 일 실시예에서, 카메라(210)는 타임 랩스 영상을 생성하기 위해서 소스 프레임을 획득할 수 있다. 프로세서(230)는 소스 프레임을 이용하여 적어도 하나의 타겟 프레임을 포함하는 타임 랩스 영상을 생성할 수 있다. 즉, 타임 랩스 영상은 적어도 하나의 타겟 프레임을 포함할 수 있다. 프로세서(230)는 카메라(210)가 소스 프레임의 영상을 획득하는 속도와 상이한 속도를 갖는 타임 랩스 영상을 생성할 수 있다. 일 실시예에 따르면, 카메라(210)가 외부 오브젝트를 촬영하여 소스 프레임을 획득하는 속도(단위: Fps)와 프로세서(210)가 최종적으로 생성하는 타임 랩스 영상의 재생되는 속도(단위: Fps)가 서로 다를 수 있다. 예를 들어, 카메라(210)는 1Fps의 속도로 외부 오브젝트를 촬영하고, 프로세서(210)는 30Fps의 속도로 재생될 타임 랩스 영상을 생성할 수 있다. 그리고 생성된 타임 랩스 영상은 메모리(220)에 저장될 수 있다.
다른 실시예에서, 프로세서(210)는 타임 랩스 영상이 생성되는 동작이 완료 되기 전에 디스플레이(240)가 타임 랩스 영상에 대한 미리 보기 영상을 표시하도록 할 수 있다. 미리 보기 영상은 카메라(210)가 외부 오브젝트를 촬영하는 동안에 디스플레이(240)에 표시되는 영상 또는 이미지 일 수 있다. 사용자는 타임 랩스 영상이 생성되는 동안에 디스플레이(240)를 통해서 미리 보기 영상을 인식할 수 있다.
일 실시예에 따르면, 카메라(210)가 외부 오브젝트를 촬영할 때, 프로세서(210)는 카메라(210)가 소스 프레임을 획득하는 속도를 가변 시킬 수 있다. 예를 들어, 프로세서(210)는 하나의 영상에서 외부 오브젝트를 촬영하는 카메라(210)가 서로 다른 제1 속도 또는 제2 속도 중에서 선택된 어느 하나의 속도로 소스 프레임을 획득하도록 제어할 수 있다. 일 실시 예에 따르면, 하나의 영상에서, 소스 프레임의 획득 속도는 제1 속도에서 제2 속도로 변경될 수 있다. 예를 들어, 프로세서(210)의 제어의 의해서, 카메라(210)는 제1 속도로 소스 프레임을 획득하다가, 제1 속도와 다른 제2 속도로 소스 프레임을 획득 할 수 있다. 하나의 영상은, 사용자가 타임 랩스 영상을 생성할 것을 지시하는 입력이 전자 장치(200)에 입력된 후부터, 사용자가 타임 랩스 영상을 생성하는 것을 종료하도록 하는 입력이 전자 장치(200)에 입력되기까지의 영상을 의미할 수 있다. 구체적으로, 프로세서(210)가 동일한 영상에서 소스 프레임을 획득하는 속도를 가변 시킴으로써, 디스플레이(240)를 통해서 표시되는 미리 보기 영상의 재생 속도가 달라질 수 있다. 예를 들어, 카메라(210)가 외부 오브젝트를 촬영하여 1Fps의 속도로 소스 프레임을 획득하는 도중에, 속도를 가변하여 20Fps의 속도로 소스 프레임을 획득할 수 있다. 디스플레이(240)는 미리 보기 영상을 실시간으로 표시하므로, 1Fps보다 빠른 20Fps의 속도를 갖는 미리 보기 영상이 디스플레이(240)에 표시될 수 있다. 최종적으로 프로세서(210)는 미리 정해진 속도(예: 30Fps)로 재생될 타임 랩스 영상을 생성할 수 있다. 프로세서(210)는 미리 정해진 속도(예: 30Fps)에 대응하도록 타겟 프레임들을 처리하여 타임 랩스 영상을 생성할 수 있다.
도 3은 다양한 실시예에 따른, 타임 랩스 영상이 생성되는 것을 설명하기 위한 도면이다.
일 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101) 또는 도 2의 전자 장치(200))는 외부 오브젝트를 촬영할 때 획득하는 프레임의 획득 속도와 완성된 영상을 재생할 때 재생되는 프레임의 재생 속도가 다른 타임 랩스 영상을 생성할 수 있다. 전자 장치 또는 영상 획득 장치에서 타임 랩스 기능을 실행하면, 전자 장치 내부의 카메라(특히 센서)는 미리 정해진 속도로 영상을 획득할 수 있다. 예시적으로, 전자 장치 내부의 카메라는 30Fps(Frame per second; 이하 ‘Fps’)의 속도로 영상을 획득할 수 있다. 그리고, 카메라는 획득된 영상들의 일부를 샘플링(Sampling)하여 타임 랩스 영상을 생성하고, 이를 내부의 메모리에 저장할 수 있다. 예시적으로, 카메라는 30프레임 마다 1프레임을 샘플링하여 타임 랩스 영상을 생성할 수 있다. 저장된 타임 랩스 영상은 샘플링된 프레임이 재생되므로, 기존보다 30배 더 빨라진 속도로 재생될 수 있다.
일 실시예에 따르면, 전자 장치의 타임 랩스 기능은 미리 정해진 최대 노출 시간(예를 들어, 1/30초)동안 카메라의 센서로부터 영상을 획득할 수 있다. 따라서 광량이 부족한 야간에 타임 랩스 기능을 이용하여 촬영하는 경우, 밝기를 조정하기 위해서 센서의 감도(ISO Speed, ISO Sensitivity)를 높일 수 있다. 높아진 센서의 감도에 의하여, 최종 저장된 영상은 노이즈(Noise)를 더 많이 포함할 수 있다. 또한, 획득된 영상을 샘플링함으로써, 최종 저장된 영상은 획득된 영상의 일부를 포함하고, 나머지 버려진 영상에 포함된 움직임들은 최종 저장된 영상에 표현될 수 없다. 다양한 환경에서 전자 장치의 카메라 기능이 사용되는 현실에서, 고성능의 매끄러운 타임 랩스 영상을 얻기 위한 요구가 증가된다. 이하에서는, 외부 오브젝트를 촬영할 때 획득되는 프레임을 소스 프레임으로 명명하고, 완성된 타임 랩스 영상에 포함되는 프레임을 타겟 프레임으로 명명한다. 설명의 편의를 위해 도 3의 (a) 및 (b)는 소스 프레임의 생성되는(또는 획득되는) 속도와 타겟 프레임의 생성되는(또는 재생되는) 속도를 모두 30Fps로 가정한다.
도 3의 (a)를 참조하면, 하나의 소스 프레임(311 또는 312)는 각각 노출 시간(T1) 및 재설정 시간(T2)를 포함할 수 있다. 노출 시간(T1)은 전자 장치에 포함된 카메라의 센서를 통해서 외부 오브젝트로부터 반사된 빛을 입력 받는 시간을 의미할 수 있다. 일 실시예에 따르면, 재설정 시간(T2)은 빛을 수신한 센서가 빛을 전기 신호로 변환하거나, 변환된 전기 신호를 출력하는 리드 아웃 시간을 포함할 수 있다. 재설정 시간(T2)은 다음 프레임을 읽기 위해 센서를 재설정하는 대기 시간을 더 포함할 수 있다. 예를 들어, 대기 시간은, 카메라에 포함된 센서가, 제1 소스 프레임(311)의 획득을 완료한 뒤부터 후속하는 제2 소스 프레임(312)을 획득하는 것을 시작하기까지의 대기하는 시간을 포함할 수 있다. 예를 들어, 하나의 프레임에 대한 노출 시간(T1)은 30ms일 수 있다. 재설정 시간(T2)은 3.33ms일 수 있다. 이 경우, 재설정 시간(T2)은 3ms의 리드 아웃 시간 및 0.33ms의 대기 시간을 포함할 수 있다. 다른 실시 예에서, 재설정 시간(T2)은 3.33ms의 리드 아웃 시간만을 포함할 수 있다.
일 실시예에 따르면, 재설정 시간(T2) 동안에 센서는 수신한 빛을 전기 신호로 변환한 뒤, 변환된 전기 신호를 출력하고, 다음 프레임에서 빛을 수신하기까지 대기하는 시간을 포함할 수 있다. 다른 실시예에 따르면, 재설정 시간(T2) 동안에 센서는 수신한 빛을 전기 신호로 변환한 뒤, 변환된 전기 신호를 출력할 수 있다. 센서는 대기하는 시간을 제외하고, 다음 프레임에 대응하는 빛을 수신할 수 있다.
도 3의 (a)를 참조하면, 소스 프레임은 카메라가 외부 오브젝트를 촬영하는 경우에 획득되는 제1 소스 프레임(311) 및 제1 소스 프레임(311)에 후속하는 제2 소스 프레임(312)을 포함할 수 있다. 일 실시예에 따르면, 카메라는 센서를 통해서 노출 시간(T1) 동안에, 제1 소스 프레임(312)에 대응하는 빛을 입력 받을 수 있다. 카메라는 제1 소스 프레임(311)의 재설정 시간(T2) 동안에, 입력된 빛을 전기 신호로 변환하고, 후속하는 제2 소스 프레임(312)에 대응하는 빛을 입력 받기 전까지 대기할 수 있다. 다른 실시 예에서, 카메라는 제1 소스 프레임(311)의 재설정 시간(T2) 동안에 입력된 빛을 전기 신호로 변환하고, 대기 시간 없이 후속하는 제2 소스 프레임(312)에 대응하는 빛을 입력 받을 수 있다.
도 3의 (b)를 참조하면, 전자 장치에 포함된 카메라(예: 도 1의 카메라 모듈(180) 또는 도 2의 카메라(210))는 1초 동안에 N개의 소스 프레임들(311 내지 31N)을 생성하거나 또는 획득할 수 있다. 다음 1초 동안에, 카메라는 이어지는 N개의 소스 프레임들(321 내지 32N)을 생성하거나 획득할 수 있다. 소스 프레임의 생성 속도를 30Fps로 가정하면, 카메라는 1초 동안에 30개의 소스 프레임들을 생성할 수 있다. 소스 프레임들 각각은 노출 시간 및 재설정 시간을 포함할 수 있다. 예를 들어, 소스 프레임들 각각에 대응하는 시간은 1/30초, 대략 33.333밀리초일 수 있다. 전자 장치에 포함된 프로세서(예: 도 1의 프로세서(120) 또는 도 2의 프로세서(230))는 소스 프레임들을 이용하여 타겟 프레임들을 선택하고, 선택된 타겟 프레임들을 포함하는 타임 랩스 영상을 생성할 수 있다. 타겟 프레임들은 샘플링을 통해서 N개의 소스 프레임마다 1개씩 선택될 수 있다. 예시적으로, 제3 소스 프레임(311), 제4 소스 프레임(321), 제5 소스 프레임(331) 등이 타겟 프레임으로 선택될 수 있다. 선택된 타겟 프레임을 연속적으로 포함하는 타임 랩스 영상이 생성될 수 있다. 타임 랩스 영상에 포함된, 하나의 타겟 프레임이 재생되는 시간은 하나의 소스 프레임이 생성되는 시간과 동일하게 33.333밀리초일 수 있다. 일 실시 예에 따르면, 센서가 외부 오브젝트로부터 영상을 획득하는 속도와 완성되어 저장된 타임 랩스가 재생되는 속도가 동일할 수 있다.
도 4는 다양한 실시예에 따른, 타임 랩스 영상이 생성되는 것을 설명하기 위한 도면이다.
도 4의 (a)를 참조하면, 낮은 노출값(Exposure Value, EV)에서 생성되는 타임 랩스 영상이 설명되고, 도 4의 (b)를 참조하면 높은 노출값에서 생성되는 타임 랩스 영상이 설명된다. 도 4의 (a) 및 (b)를 참조하면, 카메라가 빛을 수신하는 노출 시간(T1)이 도시될 수 있다. 도 4의 (a) 및 (b)를 참조하면, 카메라가 다음 프레임을 읽기 위해 센서를 재설정하는 재설정 시간(T2)이 도시될 수 있다.
일 실시예에 따르면, 재설정 시간(T2)은, 카메라에 포함된 센서가 수신된 빛을 전기 신호로 변환하고, 변환된 전기 신호를 출력하는 리드 아웃 시간을 포함할 수 있다. 다른 실시 예에 따르면, 재설정 시간(T2)은, 카메라에 포함된 센서가 현재 소스 프레임에 대응하는 빛을 전기 신호로 변환하고 변환된 전기 신호를 출력하는 리드 아웃 시간 및 후속하는 소스 프레임을 획득하는 것을 시작하기까지 대기하는 대기 시간을 더 포함할 수 있다.
일 실시예에 따르면, 도 4의 (a)에 도시된 재설정 시간(T2)에 포함되는 리드 아웃 시간과 도 4의 (b)에 도시된 재설정 시간(T2)에 포함되는 리드 아웃 시간은 서로 동일할 수 있다.
도 4의 (a) 및 (b)에서 T3은 최대 노출 시간을 의미할 수 있다. 노출 시간(T1)은 아래의 수학식 2와 도 5의 그래프를 통해서 결정될 수 있다. 수학식 2를 참조하면, 노출값은 셔터 스피드, 필름 감도, 및 조리개 값(Fnumber)의 조합으로 규정되는 값으로, 카메라를 통해서 촬영된 결과물의 밝기를 나타낼 수 있다. 수학식 2는 Additive System of Photographic Exposure에 관한 표준으로, 상세한 설명은 생략한다.
Figure pat00002
수학식 2를 이용하여 일 실시예에 따른 노출 시간(T1)을 결정하는 방법은 후술하는 도 5를 참조하여 설명된다.
도 4의 (a)는 상대적으로 낮은 노출값을 갖는 타임 랩스 영상을 생성하는 것을 설명하기 위한 도면이다. 도 4의 (b)는 상대적으로 높은 노출값을 갖는 타임 랩스 영상을 생성하는 것을 설명하기 위한 도면이다.
도 4의 (a)를 참조하면, 고정된 영상 획득 속도를 가지는 경우, 외부 오브젝트를 촬영하여 획득되는 소스 프레임이 도시된다. 일 실시예에 따르면, 하나의 소스 프레임은 최대 노출 시간(T3)을 포함할 수 있다. 일 실시 예에 따르면, 하나의 소스 프레임은 노출 시간(T1) 및 재설정 시간(T2)을 포함할 수 있다. 일 실시 예에 따르면, 노출 시간(T1)은 최대 노출 시간(T3)보다 같거나 작을 수 있다. 노출 시간(T1) 및 재설정 시간(T2)를 더한 값은 프레임 단위 시간(T4)으로 고정될 수 있다. 노출 시간(T1)은 후술하는 도 5에 의해서 결정될 수 있다. 설명의 편의를 위해서, 도 4의 (a)에 도시된 하나의 소스 프레임의 최대 노출 시간(T3)과 도 4에 도시된 하나의 소스 프레임의 최대 노출 시간(T3)은 서로 동일한 것으로 가정한다.
일 실시예에 따르면, 노출 시간(T1)동안에 카메라에 포함된 센서는 빛을 입력 받을 수 있다. 일 실시예에 따르면, 재설정 시간(T2)은 카메라에 입력된 빛이 전기 신호로 변환되고, 전기 신호가 출력되는 리드 아웃 시간을 포함할 수 있다. 일 실시예에 따르면, 재설정 시간(T2)은 후속하는 소스 프레임에 대응하는 빛을 입력 받을 때까지 대기하는 대기 시간을 더 포함할 수 있다.
일 실시예에 따르면, 카메라는 연속적으로 소스 프레임을 획득할 수 있다. 획득된 소스 프레임은 타겟 프레임으로 변환되어 타임 랩스 영상에 포함될 수 있다. 일 실시예에서, 획득된 소스 프레임이 전부 타겟 프레임으로 변환될 수 있다. 즉, 샘플링이 생략(스킵, skip)되어 모든 소스 프레임이 타임 랩스 영상에 포함될 수 있다. 소스 프레임이 획득되는 속도는 노출 시간(T1) 및 재설정 시간(T2)을 더한 값에 의해서 결정될 수 있다. 타임 랩스 영상에 포함된 타겟 프레임이 재생되는 속도는 소스 프레임이 획득되는 속도와 다를 수 있다. 예를 들어, 타겟 프레임이 재생되는 속도는 30Fps일 수 있다. 즉, 타임 랩스 영상을 촬영할 때 프레임(예: 소스 프레임)이 획득 되는 속도와 타임 랩스 영상을 재생할 때 프레임(예: 타겟 프레임)이 재생되는 속도가 서로 다를 수 있다. 따라서, 기존보다 샘플링이 감소되거나, 도 4의 (a) 및 (b)에 도시된 것처럼 샘플링이 생략(스킵, skip)될 수 있다. 샘플링 횟수가 감소되거나 생략(스킵, skip)되면, 버려지는 소스 프레임의 수가 감소될 수 있다. 소스 프레임이 타겟 프레임에 전부 포함될수록, 즉, 소스 프레임이 완성된 타임 랩스 영상에 포함되는 수가 증가될수록, 완성된 타임 랩스 영상은 고성능의 매끄러운 품질을 가질 수 있다.
도 4의 (b)를 참조하면, 고정된 영상 획득 속도를 가지는 경우, 외부 오브젝트를 촬영하여 획득되는 소스 프레임이 도시된다. 도 4의 (b)에 도시된 소스 프레임은 도 4의 (a)에 도시된 소스 프레임과 거의 동일하거나 상응하므로 차이점을 위주로 설명한다. 일 실시예에 따르면, 도 4의 (a)는 타임 랩스 영상을 촬영하는 환경의 조도가 낮은 경우에 상대적으로 낮은 노출값을 가지는 경우를 도시할 수 있다. 도 4의 (b)는 타임 랩스 영상을 촬영하는 환경의 조도가 높은 경우에 상대적으로 높은 노출값을 가지는 경우를 도시할 수 있다. 일 실시예에 따르면, 카메라는 적절한 밝기를 갖는 타임 랩스 영상을 획득할 수 있다. 적절한 밝기를 갖는 타임 랩스 영상은 과도한 빛으로 인한 포화 동영상이 아닐 수 있다.
도 4의 (a) 및 (b)를 참조하면, 도 4의 (b)의 노출 시간(T1)은 도 4의 (a)의 노출 시간(T1)보다 상대적으로 짧을 수 있다. 도 4의 (a) 및 (b)에 도시된 프레임 단위 시간(T4)이 서로 동일하므로, 도 4의 (b)의 재설정 시간(T2)은 도 4의 (a)의 재설정 시간(T2)보다 클 수 있다. 일 실시예에서, 도 4의 (a) 및 (b)의 재설정 시간(T2)에 포함된 리드 아웃 시간은 동일한 값을 가질 수 있고, 재설정 시간(T2)에 포함된 대기 시간은 서로 다른 값을 가질 수 있다. 도 4를 참조하면, 일 실시예에 따른 카메라는 재설정 시간(T2)에 포함된 대기 시간을 조정함으로써, 프레임 단위 시간(T4)을 서로 동일하게 제어할 수 있다.
도 4의 (a) 및 (b)를 참조하면, 획득된 소스 프레임이 전부 타겟 프레임으로 변환될 수 있다. 즉, 획득된 소스 프레임에 대한 샘플링이 생략(스킵, skip)되어 모든 소스 프레임이 타임 랩스 영상에 포함될 수 있다. 소스 프레임이 획득되는 속도는 노출 시간(T1) 및 재설정 시간(T2)를 더한 값에 의해서 결정될 수 있다. 앞서 설명한 것처럼, 일 실시예에 따른 타임 랩스 영상이 재생되는 속도는 소스 프레임이 획득되는 속도와 다를 수 있다. 즉, 타임 랩스 영상을 촬영할 때 프레임(예: 소스 프레임)이 획득 되는 속도와 타임 랩스 영상을 재생할 때 프레임(예: 타겟 프레임)이 재생되는 속도가 서로 다를 수 있다. 일 실시예에 따르면, 샘플링 횟수가 감소되거나, 도 4의 (b)에 도시된 것처럼 샘플링이 생략(스킵, skip)될 수 있다. 샘플링 횟수가 감소되거나 생략(스킵, skip)되면, 버려지는 소스 프레임의 수가 감소될 수 있다. 소스 프레임이 타겟 프레임에 전부 포함될수록, 즉, 소스 프레임이 완성된 타임 랩스 영상에 포함되는 수가 증가될수록, 완성된 타임 랩스 영상은 고성능의 매끄러운 품질을 가질 수 있다.
도 5는 다양한 실시예에 따른, 지정된 최대 노출 시간이 1.5초인 경우에, 노출값에 따른 셔터 스피드 및 필름 감도의 관계를 나타내는 그래프이다.
일 실시예에 따르면, 도 4의 (a) 및 (b) 의 노출 시간(T1)은 도 5에 도시된 선도에 따라서 결정될 수 있다. 예를 들어, 도 5를 참조하면, 노출값(Ev)에 따른 셔터 스피드(Tv)가 도시된다. 노출값(Ev)이 지정됨에 따라서, 이에 대응하는 셔터 스피드(Tv)값이 결정되면, 수학식 2에 의해서 대응하는 노출 시간(T1)이 결정될 수 있다. 일 실시예에 따르면, 노출값에 대한 셔터 스피드(Tv)는 제1 선도(511) 및 제2 선도(512)를 따른다. 이때, 노출값이 임계값보다 이하인 경우, 셔터 스피드(Tv)는 제3 선도(513)를 따를 수 있다.
일 실시예에 따르면, 노출값에 대한 필름 감도(Sv)는 제4 선도(521) 및 제 5선도(522)를 따른다. 이때, 노출값이 임계값보다 이하인 경우, 노출값에 대한 필름 감도(Sv)는 제 6선도(523)를 따를 수 있다.
일 실시예에 따르면, 필름 감도를 증가시키지 않은 상태에서 원하는 노출값에 대응하는 타임 랩스 영상이 생성될 수 있다. 예를 들어, 필름 감도는 ISO100으로 가정할 수 있고, 노출 시간(T1)을 구하는 방법이 이하에서 설명된다. 도 5를 참조하면, 노출값이 임계값 이하인 경우, 노출값에 따른 셔터 스피드(Tv)는 제3 선도(513)에 의해서 결정될 수 있고, 노출값에 따른 필름 감도(Sv)는 제 6선도(523)에 의해서 결정될 수 있다.
도 5의 (a)는 노출값이 5인 경우, 제3 선도(513)에 따라서 셔터 스피드가 2인 것을 나타낼 수 있다. 도 5의 (a)는 셔터 스피드가 2이므로, 수학식 2의 셔터 스피드와 노출 시간(T1)의 관계에 따르면, (a)에 대응하는 노출 시간(T1)은 1/4 초 임을 알 수 있다.
도 5의 (b)는 노출값이 7인 경우, 제3 선도(513)에 따라서 셔터 스피드가 4인 것을 나타낼 수 있다. 도 5의 (b)는 셔터 스피드가 4이므로, 수학식 2의 셔터 스피드와 노출 시간(T1)의 관계에 따르면, (b)에 대응하는 노출 시간(T1)은 1/16 초 임을 알 수 있다. 도 5를 참조하면, 일 실시 예에 따를 경우, 노출값이 클수록 노출 시간(T1)이 감소되는 것이 (a)와 (b)를 비교함으로써 확인된다.
본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 2의 전자 장치(200))는, 디스플레이(예: 도 1의 표시 장치(160) 또는 도 2의 디스플레이(240)), 카메라(예: 도 1의 카메라 모듈(180) 또는 도 2의 카메라(210)), 메모리(예: 도 1의 메모리(130) 또는 도 2의 메모리(220)) 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 연결된 프로세서(예: 도 1의 프로세서(120) 또는 도 2의 프로세서(230))를 포함할 수 있다. 일 실시예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가 지정된 최대 노출 시간에 따라서 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수를 결정하고, 상기 카메라를 이용하여, 외부 오브젝트로부터 반사되는 빛을, 지정된 노출값에 따라 결정되는 노출 시간 동안 입력 받고, 상기 빛을 전기적인 신호로 변환하여 상기 적어도 하나의 소스 프레임들을 생성하고, 상기 적어도 하나의 소스 프레임들을 이용하여, 시간에 따른 상기 외부 오브젝트의 움직임을 나타내는 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상을 생성하도록 하는 인스트럭션들(instructions)을 저장하고, 상기 적어도 하나의 소스 프레임들은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 속도로 생성될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 소스 프레임들 각각은, 상기 노출 시간에 대응하는 제1 구간 및 미리 정해진 리드 아웃 시간에 대응하는 제2 구간을 포함하고, 상기 제1 구간의 크기는 상기 지정된 노출값이 클수록 감소할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 소스 프레임들은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도보다 작은 속도로 생성될 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서가, 상기 타임 랩스 영상에 상기 적어도 하나의 소스 프레임들 전부가 포함되도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서가, 상기 타임 랩스 영상에 상기 적어도 하나의 소스 프레임들 중에서 일부가 포함되도록 할 수 있다.
일 실시예에 따르면, 상기 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수는 N개 이상이고, 상기 인스트럭션들은, 상기 프로세서가, 상기 적어도 하나의 소스 프레임들 중에서 N개마다 선택된 소스 프레임들을 샘플링하고, 상기 선택된 소스 프레임들을 포함하는 상기 타임 랩스 영상을 생성하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서가, 상기 외부 오브젝트에 대한 초점을 자동으로 조정하는 상기 카메라의 오토 포커싱(auto focusing, AF) 기능을 잠금 상태로 유지하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서가, 상기 단위 초당 상기 적어도 하나의 소스 프레임들을 생성하는 개수와, 상기 디스플레이를 통하여 상기 타임 랩스 영상을 재생하는 경우에, 상기 타임 랩스 영상에 포함된 단위 초당 재생되는 상기 적어도 하나의 타겟 프레임들의 개수가 서로 다르게 되도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서가, 상기 타임 랩스 영상이 생성되는 동안에 상기 디스플레이를 통하여 미리 보기 영상이 표시되도록 할 수 있다.
일 실시예에 따르면, 상기 다른 속도는, 제1 속도 및 상기 제1 속도와 다른 크기에 대응하는 제2 속도를 포함할 수 있다.
도 6은 다양한 실시예에 따른, 전자 장치의 제어 방법의 순서도이다.
일 실시예에 따르면, 610 동작에서, 전자 장치(예: 도 1의 전자 장치(101) 또는 도 2의 전자 장치(200))는 외부 오브젝트를 촬영할 카메라(예: 도 1의 카메라 모듈(180) 또는 도 2의 카메라(210)의 최대 노출 시간을 설정할 수 있다. 또는 전자 장치는 카메라의 최대 노출 시간을 지정할 수 있다. 예를 들어, 타임 랩스 영상을 촬영하는 것을 시작하기 전에, 최대 노출 시간(도 4의 (a)의 T3 및 도 4의 (b)의 T3)이 설정될 수 있다. 최대 노출 시간은 사용자의 입력에 의해서 결정될 수 있다. 다른 실시 예에서 최대 노출 시간은 전자 장치의 내부 알고리즘에 따라서 결정될 수도 있다.
일 실시예에 따르면, 620 동작에서, 전자 장치(예: 프로세서)는 610 동작에서 지정된 최대 노출 시간에 기초하여, 단위 초당 포함되는 소스 프레임의 개수를 결정할 수 있다. 예를 들어, 지정된 최대 노출 시간과 하나의 소스 프레임을 리드 아웃하는데 소요되는 재설정 시간을 더하면, 하나의 소스 프레임을 획득하는데 소요되는 프레임 단위 시간이 결정될 수 있다. 또는 수학식 1에 따르면, 최대 노출 시간 및 재설정 시간을 이용하여 소스 프레임이 획득되는 영상 획득 속도가 결정될 수 있다.
일 실시예에 따르면, 630 동작에서, 전자 장치는 전자 장치에 포함된 카메라를 이용하여 620 동작에서 결정된 단위 초당 포함되는 소스 프레임의 개수에 대응하는 속도로, 소스 프레임을 획득할 수 있다. 또는 프로세서는 610 동작에서 설정된 최대 노출 시간에 따라서 고정된 속도로 소스 프레임을 생성하도록 카메라를 제어할 수 있다. 예를 들어, 620 동작에서, 프로세서가 최대 노출 시간에 기초하여 단위 초당 포함되는 소스 프레임들의 개수를 2(2Fps)로 결정하면, 630 동작에서, 카메라는 2Fps로 외부 오브젝트를 촬영하여 소스 프레임을 획득할 수 있다. 다른 예에서, 620 동작에서, 프로세서가 최대 노출 시간에 기초하여 단위 초당 포함되는 소스 프레임의 개수를 1(1Fps)로 결정할 수 있다. 630 동작에서, 카메라는 1Fps로 외부 오브젝트를 촬영하여 초당 1개의 소스 프레임을 획득할 수 있다. 일 실시예에 따르면, 630 동작에서 카메라의 CAF(continuous Auto Focusing) 또는 AF(Auto Focusing) 기능이 비활성화될 수 있다. 즉, CAF 또는 AF 기능이 잠금(Lock) 상태에 있을 수 있다. CAF 또는 AF 기능은 프레임의 생성 속도가 상대적으로 빠른 경우에 고품질의 이미지 또는 영상을 얻기 위한 기능이므로, 일 실시예에 따른 카메라는 CAF 또는 AF 기능을 잠금(Lock) 상태로 설정할 수 있다. 다른 실시예에서, Touch AF와 같은 촬영 도중에 AF를 변경하는 기능이 비활성화될 수 있다. 일 실시 예에 따르면, 디스플레이(예: 도 1의 표시 장치(160) 또는 도 2의 디스플레이(240))를 통해서 표시되는 미리 보기 영상이 통상적인 속도보다 느리게 보일 수 있다. 630 동작을 수행하는 동안에, 디스플레이는, 장 노출(Long Exposure)로 촬영 중임을 나타내는 메시지를 팝업(pop-up)등의 방식으로 표시할 수 있다.
일 실시예에 따르면, 640 동작에서, 프로세서는 타겟 프레임들을 포함하는 타임 랩스 영상을 생성할 수 있다. 예를 들어, 프로세서는 630 동작에서 생성된 소스 프레임을 이용하여 타임 랩스 영상을 생성할 수 있다. 타임 랩스 영상은 타겟 프레임들을 포함할 수 있다. 타겟 프레임은 630 동작에서 생성된 소스 프레임을 포함하고, 미리 정해진 속도로 재생될 수 있다. 예를 들어, 630 동작에서, 프로세서는 미리 정해진 속도(예: 30Fps)로 재생되도록 타임 랩스 영상을 생성할 수 있다. 일 실시예에 따르면, 620 동작에서 설정된 최대 노출 시간에 따라서, 카메라는, 630 동작에서, 소스 프레임들을 생성할 수 있다. 630 동작에서 소스 프레임들이 생성되는 속도는 640 동작에서, 생성된 타임 랩스 영상이 재생되는 속도와 다를 수 있다. 예를 들어, 630 동작에서, 1Fps의 속도로 소스 프레임들이 생성되는 것을 가정할 수 있다. 640 동작에서, 프로세서는 타임 랩스 영상이 30Fps의 속도로 재생될 수 있도록 타겟 프레임들을 처리할 수 있다.
일 실시예에 따르면, 640 동작에서 도시된 타겟 프레임들은 630 동작에서 생성된 소스 프레임들을 전부 포함할 수 있다. 일 실시예에 따르면, 전자 장치는 630 동작에서 생성된 소스 프레임들에 대해서 샘플링을 생략(스킵, skip)하고, 모든 소스 프레임들을 타임 랩스 영상에 포함할 수 있다. 630 동작에서 생성된 소스 프레임들 중에서 타겟 프레임에 포함되지 않는 프레임이 없으므로, 타임 랩스 영상은 끊김이 없이 고성능의 매끄러운 품질을 가질 수 있다.
도 7은 다양한 실시예에 따른, 전자 장치의 제어 방법의 순서도이다.
일 실시예에 따르면, 710 동작에서, 전자 장치(예: 도 1의 전자 장치(101) 또는 도 2의 전자 장치(200))는 외부 오브젝트를 촬영할 카메라(예: 도 1의 카메라 모듈(180) 또는 도 2의 카메라(210)의 최대 노출 시간을 설정할 수 있다. 또는 전자 장치는 카메라의 최대 노출 시간을 지정할 수 있다. 710 동작은 도 6의 610 동작과 동일하거나 상응하므로 중복되는 설명은 생략한다.
일 실시예에 따르면, 720 동작에서, 전자 장치는 카메라의 AF(Auto Focusing) 기능을 잠금(lock) 설정할 수 있다. 다른 실시예에 따르면, 프로세서는 카메라의 CAF(continuous Auto Focusing) 또는 Touch AF 기능을 잠금(lock) 상태로 설정할 수 있다. 잠금(lock) 상태로 설정 하는 것은 비활성화하는 것과 동일하거나 상응하는 의미일 수 있다.
일 실시예에 따르면, 730 동작에서, 전자 장치는 710 동작에서 설정된 최대 노출 시간에 기초하여, 단위 초당 포함되는 소스 프레임의 개수를 결정할 수 있다. 730 동작은 도 6의 620 동작과 동일하거나 상응하는 동작이므로 중복되는 설명은 생략한다.
일 실시예에 따르면, 740 동작에서, 전자 장치는 카메라를 이용하여 730 동작에서 결정된 단위 초당 포함되는 소스 프레임의 개수에 대응하는 속도로, 소스 프레임을 획득할 수 있다. 다른 실시예에 따르면, 740 동작에서, 전자 장치는 카메라에 의해서 소스 프레임이 획득되는 속도를 가변할 수 있다. 예를 들어, 전자 장치는 710 동작에서 설정된, 최대 노출 시간에 따라서 결정되는 속도 및 이와 다른 속도에 따라서 소스 프레임을 생성하도록 카메라를 제어할 수 있다.
일 실시예에 따르면, 750 동작에서, 전자 장치는 디스플레이(예: 도 1의 표시 장치(160) 또는 도 2의 디스플레이(240))를 이용하여 실시간으로 프리뷰를 표시할 수 있다. 프리뷰는 생성될 타임 랩스 영상을 미리 보여주는 미리 보기 영상일 수 있다. 일 실시예에 따르면, 740 동작에서, 전자 장치는 타임 랩스 영상을 촬영하는 것을 종료하기 전에, 소스 프레임들이 생성되는 속도를 가변할 수 있다. 이는, 750 동작에서 디스플레이에 출력되는 프리뷰의 재생 속도를 가변하기 위함이다. 예를 들어, 740 동작에서 1Fps의 속도로 소스 프레임들이 생성되고, 2Fps의 속도로 가변되어 소스 프레임들이 생성될 수 있다. 이에 대응하여, 750 동작에서, 1Fps의 속도로 프리뷰가 출력되고, 이어서 2Fps의 속도로 출력될 수 있다. 사용자는 디스플레이에 출력되는 프리뷰를 볼 수 있다. 출력되는 프리뷰의 재생 속도가 가변되므로 사용자도 재생 속도가 가변되는 프리뷰를 인식할 수 있다.
일 실시예에 따르면, 760 동작에서, 전자 장치는 단위 초당 포함되는 타겟 프레임들의 개수를 결정할 수 있다. 타겟 프레임은 완성된 타임 랩스 영상에 포함되는 프레임일 수 있다. 예를 들어, 단위 초당 포함되는 타겟 프레임들의 개수가 30으로 결정될 수 있다. 즉, 완성된 타임 랩스 영상은 단위 초당 30 프레임의 속도로(30Fps)로 재생될 것을 의미할 수 있다.
일 실시예에 따르면, 770 동작에서, 전자 장치는 타겟 프레임들을 포함하는 타임 랩스 영상을 생성할 수 있다. 770 동작에서, 프로세서는, 760 동작에서 결정된 단위 초당 포함되는 타겟 프레임들의 개수에 대응하도록 타임 랩스 영상을 생성할 수 있다. 예를 들어, 760 동작에서 단위 초당 포함되는 타겟 프레임들의 개수를 30으로 가정할 수 있다. 이에 대응하여, 770 동작에서, 프로세서는, 30Fps의 속도로 재생되도록 타겟 프레임들을 포함하는 타임 랩스 영상을 생성할 수 있다. 일 실시예에 따르면, 770 동작에서 도시된 타겟 프레임들은 740 동작에서 생성된 소스 프레임들을 전부 포함할 수 있다. 예를 들어, 전자 장치는 740 동작에서 생성된 소스 프레임들에 대해서 샘플링을 생략(스킵, skip)할 수 있고, 모든 소스 프레임들이 타임 랩스 영상에 포함될 수 있다. 740 동작에서 생성된 소스 프레임들 중에서 타겟 프레임에 포함되지 않는 프레임이 없으므로, 타임 랩스 영상은 끊김이 없이 고성능의 매끄러운 품질을 가질 수 있다.
도 8은 소스 프레임들이 생성되는 속도가 가변되는 내용을 설명하기 위한 도면이다.
일 실시예에 따르면, 도 8의 (a)는 카메라의 최대 노출 시간이 T3으로 설정된 것을 도시한다. 최대 노출 시간(T3)은 사용자의 입력 또는 전자 장치에 저장된 프로그램에 의해서 설정될 수 있다. 일 실시예에 따르면, 카메라는 노출 시간(T1)을 가질 수 있다. 일 실시예에 따르면 카메라는 재설정 시간(T2)을 가질 수 있다. 재설정 시간(T2)은 노출 시간(T1)동안 입력된 빛을 전기 신호로 변환하고, 전기 신호를 출력하는 리드 아웃 시간을 포함할 수 있다. 일 실시예에 따른 재설정 시간(T2)은 대기 시간을 포함하지 않을 수 있다. 노출 시간(T1)은 최대 노출 시간(T3)보다 같거나 또는 작을 수 있다. 최대 노출 시간이 T3으로 설정되었으므로, 소스 프레임이 획득되는 속도는 수학식 1에 따라서 1/(T3+T2) Fps일 수 있다. 만약 노출 시간(T1)이 최대 노출 시간(T3)과 동일한 경우, 소스 프레임이 획득되는 속도는 1/(T1+T2) Fps 일 수 있다.
일 실시예에 따르면, 도 8의 (b)는 카메라의 최대 노출 시간이 가변된 것을 도시한다. 최대 노출 시간(T4)은 사용자의 입력 또는 전자 장치에 저장된 프로그램에 의해서 지정될 수 있다. 일 실시예에 따르면, 노출 시간(T5)은 최대 노출 시간(T4)보다 작거나 같을 수 있다. 수학식 1을 참조하면, 소스 프레임이 획득되는 속도는 1/(T4+T2) Fps일 수 있다. 만약 노출 시간(T5)의 크기가 최대 노출 시간(T4)의 크기와 동일한 경우, 소스 프레임이 획득되는 속도는 1/(T5+T2) Fps 일 수 있다.
도 8의 (a) 와 (b)를 참조하면, 각각의 소스 프레임에 대한 재설정 시간(T2)은 동일한 값을 가질 수 있다.
일 실시예에 따르면, 서로 다른 속도로 획득된 소스 프레임들을 중에서 적어도 일부를 포함하는 타임 랩스 영상이 생성될 수 있다. 최종적으로 생성되는 타임 랩스 영상은 적어도 하나의 타겟 프레임을 포함할 수 있다. 타겟 프레임의 일부는 제1 속도로 획득된 소스 프레임일 수 있고, 나머지 일부는 제2 속도로 획득된 소스 프레임일 수 있다. 예를 들어, 소스 프레임의 획득 속도는 1/(T1+T2) Fps 에서 1/(T5+T2) Fps 로 변할 수 있다. 일 실시예에 따르면, 소스 프레임들에 대한 샘플링이 생략(스킵, skip)될 수 있다. 소스 프레임들에 대한 샘플링이 없으므로, 타임 랩스 영상은 끊김이 없이 고성능의 매끄러운 품질을 가질 수 있다.
일 실시예에 따르면, 가변되는 속도로 획득된 소스 프레임들을 이용하여, 타겟 프레임들을 포함하는 타임 랩스 영상이 생성되는 동안에, 디스플레이는 타임 랩스 영상의 프리뷰(또는 미리 보기 영상)를 표시할 수 있다. 사용자는 디스플레이를 통해서 프리뷰를 인식할 수 있다.
도 9는 다양한 실시예에 따른, 전자 장치의 제어 방법의 순서도이다.
일 실시예에 따르면, 910 동작에서, 전자 장치(예: 도 1의 전자 장치(101) 또는 도 2의 전자 장치(200))는 외부 오브젝트를 촬영할 카메라(예: 도 1의 카메라 모듈(180) 또는 도 2의 카메라(210))의 최대 노출 시간을 설정할 수 있다. 세부적인 내용은 도 7의 710 동작과 동일하거나 상응하므로 중복되는 설명은 생략한다.
일 실시예에 따르면, 920 동작에서, 전자 장치는 카메라의 AF(Auto Focusing), CAF(continuous Auto Focusing) 또는 Touch AF 기능 중에서 적어도 하나를 잠금(lock) 설정할 수 있다.
일 실시예에 따르면, 930 동작에서, 전자 장치는 910 동작에서 설정된 최대 노출 시간에 기초하여, 단위 초당 포함되는 소스 프레임의 개수를 결정할 수 있다. 930 동작은 도 7의 730 동작과 동일하거나 상응하는 동작이므로 중복되는 설명은 생략한다.
일 실시예에 따르면, 940 동작에서, 전자 장치는 카메라를 이용하여 930 동작에서 결정된 단위 초당 포함되는 소스 프레임의 개수에 대응하는 속도로, 소스 프레임을 획득할 수 있다. 일 실시예에 따르면, 940 동작에서, 카메라는 소스 프레임을 획득하는 속도를 가변할 수도 있다.
일 실시예에 따르면, 950 동작에서, 전자 장치는 디스플레이(예: 도 1의 표시 장치(160) 또는 도 2의 디스플레이(240))를 이용하여 실시간으로 프리뷰를 표시할 수 있다. 프리뷰는 생성될 타임 랩스 영상을 미리 보여주는 미리 보기 영상일 수 있다. 950 동작은 도 7의 750 동작과 동일하거나 상응하는 동작이므로 중복되는 설명은 생략한다.
일 실시예에 따르면, 960 동작에서, 전자 장치는 샘플링 주기(N)를 결정할 수 있다. 일 실시예에 따르면, 카메라가 소스 프레임을 획득하는 속도가 가변될 수 있다. 예를 들어, 카메라는, 제1 영상 획득 속도로 소스 프레임을 획득하다가, 제2 영상 획득 속도로 소스 프레임을 획득할 수 있다. 샘플링 주기(N)는 수학식 3으로 결정될 수 있다.
Figure pat00003
일 실시예에 따르면, 샘플링 주기(N)는, 940 동작에서 생성된 소스 프레임들 중에서, N개의 소스 프레임들 마다 하나의 소스 프레임을 선택하는 것을 의미할 수 있다. 선택된 소스 프레임들을 이용하여 980 동작에서 타임 랩스 영상이 생성될 수 있다. 최대 노출 시간(T3)은 910 동작에서 설정되거나 또는 지정된 값일 수 있다. 재설정 시간(T2)에 포함되는 리드 아웃 시간은 카메라가 입력된 빛을 전기적인 신호로 변환하는 시간에 대응할 수 있다. 노출 시간(T1)은 노출값에 따라서 도출 되는 값으로, 전술한 도 5에 관한 설명에서 예시적으로 설명하였으므로, 중복되는 내용은 생략한다. 수학식 3에 의해서 결정되는 샘플링 주기(N)가 양의 정수인 경우에, 일 실시예에 따른 전자 장치는 샘플링을 수행할 수 있다. 예를 들어, 전자 장치는 샘플링 주기(N)가 1인 경우에 소스 프레임에 대한 샘플링을 생략(스킵, skip)할 수 있다. 다른 예에서, 샘플링 주기(N)이 2인 경우에, 전자 장치는 2개의 소스 프레임마다 한 개의 소스 프레임을 선택하는 샘플링을 할 수 있다. 샘플링을 통해서 선택되는 소스 프레임은 타겟 프레임이 될 수 있다. 도 3의 (b)와 비교하면, 970 동작에서, 샘플링 주기(N)가 상대적으로 작을 수 있다. 따라서, 970 동작에서 수행된 샘플링에 따르면, 상대적으로 많은 소스 프레임들이 타임 랩스 영상에 포함될 수 있다. 또는 타임 랩스 영상에 제외되는 소스 프레임들이 감소될 수 있다. 일 실시예에 따른 타임 랩스 영상은 끊김이 적은, 고성능의 매끄러운 품질을 가질 수 있다.
일 실시예에 따르면, 940 동작에서, 전자 장치는 소스 프레임을 획득하는 속도를 가변할 수 있다. 일 실시 예에 따르면, 최종적으로 생성될 타임 랩스 영상의 재생 속도가 미리 정해질 수 있다. 예를 들어, 타임 랩스 영상은 타겟 프레임을 포함하고, 타겟 프레임의 재생 속도는 30Fps 일 수 있다. 일 실시 예에 따르면, 전자 장치는 1Fps에 대응하는 제1 영상 획득 속도로 제1 소스 프레임을 획득할 수 있다. 그 후, 전자 장치는 2Fps에 대응하는 제2 영상 획득 속도로 제2 소스 프레임을 획득할 수 있다. 그리고, 타겟 프레임의 재생 속도에 대응하도록 재생 속도를 30Fps로 변환하면, 사용자는 30배속을 갖는 제1 소스 프레임 및 60배속을 갖는 제2 소스 프레임을 인식할 수 있다. 전자 장치는 사용자로 하여금 균일한 배속을 갖는 타임 랩스 영상으로 인식될 수 있도록, 970 동작에서, 제2 소스 프레임에 대해서 샘플링 주기(N)가 2인 샘플링을 수행할 수 있다.
일 실시예에 따르면, 980 동작에서 전자 장치는 타겟 프레임들을 포함하는 타임 랩스 영상을 생성할 수 있다. 980 동작에서, 프로세서는, 960 동작에서 결정된 단위 초당 포함되는 타겟 프레임들의 개수에 대응하도록 타임 랩스 영상을 생성할 수 있다. 전자 장치는 970 동작에서 결정된 샘플링 주기(N)에 따라서, 소스 프레임을 샘플링하거나, 샘플링을 생략(스킵, skip)할 수 있다. 일 실시예에 따르면, 타겟 프레임들은 서로 다른 영상 획득 속도를 갖는 둘 이상의 소스 프레임을 획득할 수 있다.
도 10은, 도 9에 도시된 소스 프레임에 대한 샘플링을 설명하기 위한 도면이다.
일 실시예에 따르면, 샘플링 주기(N)가 2인 것을 가정한다. 도 9의 940 동작에서 소스 프레임이 생성될 수 있다. 도 10은 복수의 소스 프레임들(1010 내지 1070)이 생성된 것을 도시한다. 각각의 소스 프레임은 최대 노출 시간이 T3으로 설정되고, 노출 시간이 T1으로 설정되고, 재설정 시간이 T2로 설정된 것을 가정한다. 일 실시예에 따르면, 전자 장치는 제1 영상 획득 속도로 제1010 소스 프레임(1010)을 획득할 수 있다. 전자 장치는 제1 영상 획득 속도로 제1030 소스 프레임(1030)을 획득할 수 있다. 다른 실시예에 따르면, 전자 장치는 제1 영상 획득 속도로 제1010 소스 프레임(1010)을 획득할 수 있다. 전자 장치는 제2 영상 획득 속도로 제1030 소스 프레임(1030)을 획득할 수 있다. 수학식 3에 의해서 결정된 샘플링 주기(N)을 2로 가정한다. 샘플링 주기(N)가 2이므로, 제1010 소스 프레임(1010), 제1030 소스 프레임(1030), 제1050 소스 프레임(1050), 제1070 소스 프레임(1070) 등이 선택될 수 있다. 선택된 소스 프레임들은 타겟 프레임들이 될 수 있다. 타겟 프레임들은 최종적으로 생성되는 타임 랩스 영상에 포함될 수 있다. 최종적으로 생성되는 타임 랩스 영상의 재생 속도는, 소스 프레임이 생성되는(획득되는) 속도와 다를 수 있다. 예를 들어, 소스 프레임이 생성되는 속도는 1Fps 및 2Fps 일 수 있다. 최종적으로 생성된 타임 랩스 영상의 재생 속도는 30Fps 일 수 있다.
도 11은 다양한 실시예에 따른, 타임 랩스 영상을 예시적으로 나타내는 도면이다.
일 실시예에 따르면, 타임 랩스 영상은 움직이는 동영상일 수 있다. 도 11의 (a) 및 (b)는 동일한 조도 환경에서 생성된 타임 랩스 영상의 어느 한 시점을 나타낼 수 있다. 예를 들어, 도 11의 (a) 및 (b)는 야간의 낮은 조도 환경에서 생성된 타임 랩스 영상의 어느 한 타겟 프레임일 수 있다.
도 11의 (a)는 주변 환경의 조도가 낮은 경우에 생성된 노이즈(Noise)를 많이 포함하는 타임 랩스 영상을 도시한다. 도 11의 (a)를 참조하면, 움직이는 외부 오브젝트의 순간적인 모습이 표시될 뿐, 움직이는 외부 오브젝트의 궤적은 표시되지 않을 수 있다.
일 실시예에 따르면, 도 11의 (b)에서의 주변 환경의 조도는, 도 11의 (a)에서의 주변 환경의 조도와 동일하거나 비슷할 수 있다. 예를 들어, 도 11의 (b)는 주변 환경의 조도가 낮은 경우에 생성된 타임 랩스 영상을 도시한다. 도 11의 (a)에 비해서, 도 11의 (b)는 상대적으로 적은 노이즈(Noise)를 포함할 수 있고, 움직이는 외부 오브젝트의 궤적을 분명하게 표시할 수 있다. 일 실시예에 따른 타임 랩스 영상은, 상대적으로 장 노출(long exposure)를 이용할 수 있다. 일 실시예에 따른 타임 랩스 영상은 샘플링을 생략(스킵, skip)하거나 상대적으로 작은 크기의 샘플링 주기(N)를 가질 수 있다. 일 실시 예에 따른 타임 랩스 영상은 움직이는 외부 오브젝트의 궤적이 뚜렷하게 표시될 수 있다.
본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200))의 제어 방법은, 최대 노출 시간을 설정하는 동작, 상기 최대 노출 시간에 기초하여 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수를 결정하는 동작, 외부 오브젝트로부터 반사되는 빛을, 지정된 노출값에 따라 결정되는 노출 시간 동안 입력 받고, 상기 빛을 전기적인 신호로 변환하여 상기 적어도 하나의 소스 프레임들을 생성하는 동작 및 상기 적어도 하나의 소스 프레임들을 이용하여, 시간에 따른 상기 외부 오브젝트의 움직임을 나타내는 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상을 생성하는 동작을 포함하고, 상기 적어도 하나의 소스 프레임들을 생성하는 동작은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 속도로 상기 적어도 하나의 소스 프레임들을 생성하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 소스 프레임들 각각은, 상기 노출 시간에 대응하는 제1 구간 및 미리 정해진 리드 아웃 시간에 대응하는 제2 구간을 포함하고, 상기 제1 구간의 크기는 상기 지정된 노출값이 클수록 감소할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 소스 프레임들을 생성하는 동작은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도보다 작은 속도로 생성하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 타임 랩스 영상을 생성하는 동작은, 상기 타임 랩스 영상에 상기 적어도 하나의 소스 프레임들 전부가 포함되도록 제어하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 타임 랩스 영상을 생성하는 동작은, 상기 타임 랩스 영상에 상기 적어도 하나의 소스 프레임들 중에서 일부가 포함되도록 제어하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수는 N개 이상이고, 상기 타임 랩스 영상을 생성하는 동작은, 상기 적어도 하나의 소스 프레임들 중에서 N개마다 선택된 소스 프레임들을 샘플링하고, 상기 타겟 프레임들은 상기 선택된 소스 프레임들을 포함하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 소스 프레임들을 생성하는 동작은, 상기 외부 오브젝트에 대한 초점을 자동으로 조정하는 상기 카메라의 오토 포커싱(auto focusing, AF) 기능을 잠금 상태로 유지하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 타임 랩스 영상을 생성하는 동작은, 상기 단위 초당 상기 적어도 하나의 소스 프레임들을 생성하는 개수와, 상기 디스플레이를 통하여 상기 타임 랩스 영상을 재생하는 경우에 상기 타임 랩스 영상에 포함된 단위 초당 재생되는 상기 적어도 하나의 타겟 프레임들의 개수가 서로 다르게 되도록 처리하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 타임 랩스 영상이 생성되는 동안에 디스플레이를 통하여 미리 보기 영상이 표시되도록 하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 소스 프레임들을 생성하는 동작은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 제1 속도로 상기 적어도 하나의 소스 프레임들을 생성하는 동작 및 상기 제1 속도와 다른 제2 속도로 상기 적어도 하나의 소스 프레임들을 생성하는 동작을 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나”, "A, B 또는 C", "A, B 및 C 중 적어도 하나” 및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
카메라 : 210
메모리 : 220
프로세서 : 230
디스플레이 : 240

Claims (20)

  1. 전자 장치에 있어서,
    디스플레이;
    카메라;
    메모리; 및
    상기 디스플레이, 상기 카메라, 및 상기 메모리와 작동적으로(operatively) 연결되는 프로세서를 포함하고,
    상기 메모리는, 실행 시, 상기 프로세서가,
    지정된 최대 노출 시간에 따라서 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수를 결정하고,
    상기 카메라를 이용하여, 외부 오브젝트로부터 반사되는 빛을, 지정된 노출값에 따라 결정되는 노출 시간 동안 입력 받고,
    상기 빛을 전기적인 신호로 변환하여 상기 적어도 하나의 소스 프레임들을 생성하고,
    상기 적어도 하나의 소스 프레임들을 이용하여, 시간에 따른 상기 외부 오브젝트의 움직임을 나타내는 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상을 생성하도록 하는 인스트럭션들(instructions)을 저장하고,
    상기 적어도 하나의 소스 프레임들은, 상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 속도로 생성되는, 전자 장치.
  2. 제 1항에 있어서,
    상기 적어도 하나의 소스 프레임들 각각은,
    상기 노출 시간에 대응하는 제1 구간 및 미리 정해진 리드 아웃 시간에 대응하는 제2 구간을 포함하고,
    상기 제1 구간의 크기는 상기 지정된 노출값이 클수록 감소하는, 전자 장치.
  3. 제 1항에 있어서, 상기 적어도 하나의 소스 프레임들은,
    상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도보다 작은 속도로 생성되는, 전자 장치.
  4. 제 1항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 타임 랩스 영상에 상기 적어도 하나의 소스 프레임들 전부가 포함되도록 하는, 전자 장치.
  5. 제 1항에 있어서, 상기 인스트럭션들은, 상기 프로세서가,
    상기 타임 랩스 영상에 상기 적어도 하나의 소스 프레임들 중에서 일부가 포함되도록 하는, 전자 장치.
  6. 제 2항에 있어서,
    상기 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수는 N개 이상이고,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 적어도 하나의 소스 프레임들 중에서 N개마다 선택된 소스 프레임들을 샘플링하고,
    상기 선택된 소스 프레임들을 포함하는 상기 타임 랩스 영상을 생성하도록 하는, 전자 장치.
  7. 제 1항에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 외부 오브젝트에 대한 초점을 자동으로 조정하는 상기 카메라의 오토 포커싱(auto focusing, AF) 기능을 잠금 상태로 유지하도록 하는, 전자 장치.
  8. 제 1항에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 단위 초당 상기 적어도 하나의 소스 프레임들을 생성하는 개수와, 상기 디스플레이를 통하여 상기 타임 랩스 영상을 재생하는 경우에, 상기 타임 랩스 영상에 포함된 단위 초당 재생되는 상기 적어도 하나의 타겟 프레임들의 개수가 서로 다르게 되도록 하는, 전자 장치.
  9. 제 1항에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 타임 랩스 영상이 생성되는 동안에 상기 디스플레이를 통하여 미리 보기 영상이 표시되도록 하는, 전자 장치.
  10. 제 1항에 있어서, 상기 다른 속도는,
    제1 속도 및
    상기 제1 속도와 다른 크기에 대응하는 제2 속도를 포함하는, 전자 장치.
  11. 전자 장치의 제어 방법에 있어서,
    최대 노출 시간을 설정하는 동작;
    상기 최대 노출 시간에 기초하여 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수를 결정하는 동작;
    외부 오브젝트로부터 반사되는 빛을, 지정된 노출값에 따라 결정되는 노출 시간 동안 입력 받고, 상기 빛을 전기적인 신호로 변환하여 상기 적어도 하나의 소스 프레임들을 생성하는 동작; 및
    상기 적어도 하나의 소스 프레임들을 이용하여, 시간에 따른 상기 외부 오브젝트의 움직임을 나타내는 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상을 생성하는 동작;을 포함하고,
    상기 적어도 하나의 소스 프레임들을 생성하는 동작은,
    상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 속도로 상기 적어도 하나의 소스 프레임들을 생성하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  12. 제 11항에 있어서,
    상기 적어도 하나의 소스 프레임들 각각은,
    상기 노출 시간에 대응하는 제1 구간 및 미리 정해진 리드 아웃 시간에 대응하는 제2 구간을 포함하고,
    상기 제1 구간의 크기는 상기 지정된 노출값이 클수록 감소하는, 전자 장치의 제어 방법.
  13. 제 11항에 있어서, 상기 적어도 하나의 소스 프레임들을 생성하는 동작은,
    상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도보다 작은 속도로 생성하는 동작을 포함하는, 전자 장치의 제어 방법.
  14. 제 11항에 있어서, 상기 타임 랩스 영상을 생성하는 동작은,
    상기 타임 랩스 영상에 상기 적어도 하나의 소스 프레임들 전부가 포함되도록 제어하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  15. 제 11항에 있어서, 상기 타임 랩스 영상을 생성하는 동작은,
    상기 타임 랩스 영상에 상기 적어도 하나의 소스 프레임들 중에서 일부가 포함되도록 제어하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  16. 제 12항에 있어서,
    상기 단위 초당 포함되는 적어도 하나의 소스 프레임들의 개수는 N개 이상이고,
    상기 타임 랩스 영상을 생성하는 동작은,
    상기 적어도 하나의 소스 프레임들 중에서 N개마다 선택된 소스 프레임들을 샘플링하고, 상기 타겟 프레임들은 상기 선택된 소스 프레임들을 포함하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  17. 제 11항에 있어서,
    상기 적어도 하나의 소스 프레임들을 생성하는 동작은,
    상기 외부 오브젝트에 대한 초점을 자동으로 조정하는 오토 포커싱(auto focusing, AF) 기능을 잠금 상태로 유지하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  18. 제 11항에 있어서,
    상기 타임 랩스 영상을 생성하는 동작은,
    상기 단위 초당 상기 적어도 하나의 소스 프레임들을 생성하는 개수와, 디스플레이를 통하여 상기 타임 랩스 영상을 재생하는 경우에 상기 타임 랩스 영상에 포함된 단위 초당 재생되는 상기 적어도 하나의 타겟 프레임들의 개수가 서로 다르게 되도록 처리하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  19. 제 11항에 있어서,
    상기 타임 랩스 영상이 생성되는 동안에 디스플레이를 통하여 미리 보기 영상이 표시되도록 하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  20. 제 11항에 있어서,
    상기 적어도 하나의 소스 프레임들을 생성하는 동작은,
    상기 적어도 하나의 타겟 프레임들을 포함하는 타임 랩스 영상이 재생되는 속도와 다른 제1 속도로 상기 적어도 하나의 소스 프레임들을 생성하는 동작 및
    상기 제1 속도와 다른 제2 속도로 상기 적어도 하나의 소스 프레임들을 생성하는 동작을 포함하는, 전자 장치의 제어 방법.
KR1020200016179A 2020-02-11 2020-02-11 전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법 KR20210101790A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200016179A KR20210101790A (ko) 2020-02-11 2020-02-11 전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법
PCT/KR2021/001201 WO2021162301A1 (ko) 2020-02-11 2021-01-29 전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법
US17/886,224 US11930277B2 (en) 2020-02-11 2022-08-11 Electronic device and time-lapse image generation method of electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200016179A KR20210101790A (ko) 2020-02-11 2020-02-11 전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법

Publications (1)

Publication Number Publication Date
KR20210101790A true KR20210101790A (ko) 2021-08-19

Family

ID=77292491

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200016179A KR20210101790A (ko) 2020-02-11 2020-02-11 전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법

Country Status (3)

Country Link
US (1) US11930277B2 (ko)
KR (1) KR20210101790A (ko)
WO (1) WO2021162301A1 (ko)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9414038B2 (en) 2012-10-16 2016-08-09 Amanjyot Singh JOHAR Creating time lapse video in real-time
US9489979B2 (en) * 2013-08-06 2016-11-08 Casio Computer Co., Ltd. Image processing apparatus for time-lapse moving image, image processing method, and storage medium
US9277123B2 (en) * 2014-05-30 2016-03-01 Apple Inc. Systems and methods for exposure metering for timelapse video
US9992443B2 (en) 2014-05-30 2018-06-05 Apple Inc. System and methods for time lapse video acquisition and compression
US9324376B2 (en) 2014-09-30 2016-04-26 Apple Inc. Time-lapse video capture with temporal points of interest
US9426409B2 (en) * 2014-09-30 2016-08-23 Apple Inc. Time-lapse video capture with optimal image stabilization
US9524575B2 (en) 2014-12-17 2016-12-20 Facebook, Inc. Systems and methods for combining multiple frames to produce media content with simulated exposure effects
US10192582B2 (en) 2015-05-21 2019-01-29 Adobe Inc. Automatic generation of time-lapse videos
KR102669656B1 (ko) * 2017-02-14 2024-05-28 삼성전자주식회사 카메라를 이용한 객체 인식 방법 및 이를 지원하는 전자 장치
US10771712B2 (en) 2017-09-25 2020-09-08 Gopro, Inc. Optimized exposure temporal smoothing for time-lapse mode
CN107566737A (zh) * 2017-10-10 2018-01-09 上海小蚁科技有限公司 延时拍照控制方法及装置、可读存储介质、相机

Also Published As

Publication number Publication date
WO2021162301A1 (ko) 2021-08-19
US20220394166A1 (en) 2022-12-08
US11930277B2 (en) 2024-03-12

Similar Documents

Publication Publication Date Title
US10924677B2 (en) Electronic device and method for providing notification related to image displayed through display and image stored in memory based on image analysis
US11558553B2 (en) Electronic device for stabilizing image and method for operating same
KR102488410B1 (ko) 복수의 카메라들을 이용하여 영상을 촬영하는 전자 장치와 이의 동작 방법
KR102495763B1 (ko) 제1 이미지 처리 방식으로 보정된 이미지를 제2 이미지 처리 방식을 이용하여 외부 전자 장치에서 보정하기 위한 전자 장치 및 방법
US11102409B2 (en) Electronic device and method for obtaining images
EP3609175B1 (en) Apparatus and method for generating moving image data including multiple section images in electronic device
KR20210090476A (ko) 단일 카메라로 줌 시나리오에서 화질 향상 방법과 이를 포함하는 전자장치
EP4096218A1 (en) Video recording method using plurality of cameras, and device therefor
US11416974B2 (en) Image processing method and electronic device supporting the same
KR102330264B1 (ko) 움직임 정보에 기반하여 동영상을 재생하기 위한 장치 및 그의 동작 방법
KR102512839B1 (ko) 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법
KR20200027276A (ko) 관심 영역을 통해 움직이는 외부 객체에 대해 프레임 레이트를 제어하여 이미지들을 획득하는 전자 장치 및 그의 동작 방법
KR20200134804A (ko) 시선 전환이 가능한 카메라 모듈을 포함하는 전자 장치 및 그의 동영상을 기록하는 방법
KR20200009922A (ko) 전자 장치 및 이미지의 전송 상태에 기반하여 이미지를 보정하는 방법
KR20200087401A (ko) 이미지 센서의 프레임 레이트를 제어하기 위한 전자 장치 및 그에 관한 방법
KR20200101226A (ko) 촬영된 이미지를 처리하기 위한 방법 및 그 전자 장치
KR20200101048A (ko) 영상을 처리하는 전자 장치 및 그 영상 처리 방법
KR20200110906A (ko) 자동 초점 조절 기능을 제공하기 위한 전자 장치 및 그 동작 방법
KR20210101790A (ko) 전자 장치 및 전자 장치의 타임 랩스 영상 생성 방법
KR20210142312A (ko) 카메라 및 마이크를 포함하는 전자 장치 및 그 운용 방법
KR20210101697A (ko) 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치
KR102677285B1 (ko) 슬로 모션 영상 생성 방법 및 장치
US20230085017A1 (en) Electronic device and method for improving quality of image by using multiple cameras
KR102490789B1 (ko) 움직임 변화량에 기반하여 영상 제공 방식을 변경하는 전자 장치 및 방법
KR20200092631A (ko) 슬로 모션 영상 생성 방법 및 장치