KR102512298B1 - 영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법 - Google Patents

영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR102512298B1
KR102512298B1 KR1020180022000A KR20180022000A KR102512298B1 KR 102512298 B1 KR102512298 B1 KR 102512298B1 KR 1020180022000 A KR1020180022000 A KR 1020180022000A KR 20180022000 A KR20180022000 A KR 20180022000A KR 102512298 B1 KR102512298 B1 KR 102512298B1
Authority
KR
South Korea
Prior art keywords
image
image data
video
electronic device
processor
Prior art date
Application number
KR1020180022000A
Other languages
English (en)
Other versions
KR20190101693A (ko
Inventor
박선영
박천형
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180022000A priority Critical patent/KR102512298B1/ko
Priority to EP19158956.3A priority patent/EP3531418B1/en
Priority to US16/282,902 priority patent/US11169680B2/en
Publication of KR20190101693A publication Critical patent/KR20190101693A/ko
Priority to US17/520,208 priority patent/US11803296B2/en
Application granted granted Critical
Publication of KR102512298B1 publication Critical patent/KR102512298B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)

Abstract

다양한 실시예에 따르면, 전자 장치는 터치스크린; 제1 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제1 영상 데이터 및 상기 제1 프레임 레이트 보다 높은 제2 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제2 영상 데이터를 포함하는 영상 데이터를 저장하는 적어도 하나의 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 영상 데이터의 재생 화면의 제공 요청을 수신하는 경우, 상기 터치스크린의 일 영역에 상기 영상 데이터의 재생 화면을 표시하고, 상기 영상 데이터의 재생 화면이 표시되는 중에 프로그레스 바의 제공 요청을 수신하는 경우, 상기 적어도 하나 이상의 제1 영상 데이터에 대응하는 제1 영상 구간 및 상기 제2 영상 데이터에 대응하는 제2 영상 구간을 포함하는 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하고, 상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부를 상기 터치스크린 상에 표시하도록 설정된다. 그 밖의 다양한 실시예가 가능하다.

Description

영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법{ELECTRONIC DEVICE DISPLAYING A INTERFACE FOR EDITING VIDEO DATA AND METHOD FOR CONTROLLING THEREOF}
본 개시는, 영상 데이터의 제어 인터페이스를 표시하는 전자 장치 및 그 작동 방법에 관한 것으로, 영상 데이터의 일부 영상 데이터를 재생 속도를 설정하거나, 편집하기 위한 인터페이스를 표시하는 전자 장치 및 그 작동 방법에 관한 것이다.
영상은 전자 장치에 의해 객체가 촬상됨으로써 생성될 수 있다. 특히 고속 영상이 전자 장치에 의해 촬상될 수 있는데, 외부 객체가 동적으로 움직이거나 변형되는 시간 동안 전자 장치에 의해 높은 프레임 레이트에 따라 외부 객체가 촬상됨으로써 고속 영상은 높은 프레임 레이트에 따라 촬상된 영상 구간을 포함할 수 있다. 전자 장치는 높은 프레임 레이트로 촬상된 영상 구간을 상대적으로 느린 재생 속도의 프레임 레이트에 따라 재생함으로써, 사용자로 하여금 객체의 움직임 또는 변형 과정을 용이하게 포착할 수 있게 하였다.
한편 상기 고속 영상의 높은 프레임 레이트로 촬상된 영상 구간을 편집하기 위해서는 다양한 전자 장치 및 그 동작 방법이 필요하지만, 고속 영상의 높은 프레임 레이트로 촬상된 영상 구간을 편집하기 위한 간이한 인터페이스를 제공하는 기술이 제공되지 못하고 있는 실정이다. 따라서, 최근 상기 고속 영상의 높은 프레임 레이트로 촬상된 영상 구간의 편집을 위한 간이한 인터페이스를 제공하는 전자 장치 및 그 동작 방법에 대한 수요가 증대 되고 있다.
예를 들어, 전자 장치가 촬영된 고속 영상을 재생하는 경우, 전자 장치는 촬영된 고속 영상의 적어도 일부 영상의 재생 속도를 고속 영상의 다른 일부 영상의 재생 속도 보다 낮은 재생 속도로 설정하여 재생할 수 있다. 이 때, 사용자가 낮은 재생 속도로 재생되는 고속 영상의 적어도 일부 영상을 편집하기를 원하는 경우, 사용자는 고속 영상의 적어도 일부 영상을 편집하기 위해 전자 장치를 다양한 방법으로 제어하여야만 한다. 예를 들어, 사용자는 느린 재생 속도로 재생되는 영상의 재생 시점과 재생 종료 시점을 결정하고, 재생 시점과 재생 종료 시점 사이의 영상을 편집하기 위한 기능을 호출하여야 할 수 있다. 상술한 바와 같은 전자 장치를 제어하는 다양한 방법은 많은 시간이 소비될 수 있기 때문에, 사용자로 하여금 고속 영상의 편집의 신속성과 용이성을 저하시키는 문제점을 유발하게 된다.
다양한 실시예에 따르면, 상술한 문제점을 해결할 수 있는 영상 데이터의 제어 인터페이스를 표시하는 전자 장치 및 그 작동 방법이 제공될 수 있다.
다양한 실시예에 따르면, 전자 장치에 있어서, 터치스크린; 제1 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제1 영상 데이터 및 상기 제1 프레임 레이트 보다 높은 제2 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제2 영상 데이터를 포함하는 영상 데이터를 저장하는 적어도 하나의 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 영상 데이터의 재생 화면의 제공 요청을 수신하는 경우, 상기 터치스크린의 일 영역에 상기 영상 데이터의 재생 화면을 표시하고, 상기 영상 데이터의 재생 화면이 표시되는 중에 프로그레스 바의 제공 요청을 수신하는 경우, 상기 적어도 하나 이상의 제1 영상 데이터에 대응하는 제1 영상 구간 및 상기 제2 영상 데이터에 대응하는 제2 영상 구간을 포함하는 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하고, 상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부를 상기 터치스크린 상에 표시하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 전자 장치의 동작 방법에 있어서, 제1 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제1 영상 데이터 및 상기 제1 프레임 레이트 보다 높은 제2 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제2 영상 데이터를 포함하는 영상 데이터를 저장하는 동작; 상기 영상 데이터의 재생 화면의 제공 요청을 수신하는 경우, 상기 터치스크린의 일 영역에 상기 영상 데이터의 재생 화면을 표시하는 동작; 상기 영상 데이터의 재생 화면이 표시되는 중에 프로그레스 바의 제공 요청을 수신하는 경우, 상기 적어도 하나 이상의 제1 영상 데이터에 대응하는 제1 영상 구간 및 상기 제2 영상 데이터에 대응하는 제2 영상 구간을 포함하는 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하는 동작; 및 상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부를 상기 터치스크린 상에 표시하는 동작;을 포함하는 동작 방법이 제공될 수 있다.
다양한 실시예에 따른, 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예에 따르면, 사용자로 하여금 고속 영상의 편집의 신속성과 용이성을 향상시킬 수 있는 영상 데이터의 제어 인터페이스를 표시하는 전자 장치 및 그 작동 방법이 제공될 수 있다. 예를 들어, 전자 장치가 촬영된 고속 영상을 재생하는 경우, 전자 장치는 촬영된 고속 영상의 적어도 일부 영상의 재생 속도를 고속 영상의 다른 일부 영상의 재생 속도 보다 낮은 재생 속도로 설정하여 재생할 수 있다. 이 때, 사용자가 낮은 재생 속도로 재생되는 고속 영상의 적어도 일부 영상을 편집하기를 원하는 경우, 영상 데이터의 제어 인터페이스를 제공하는 전자 장치와 그 작동 방법에 따라 낮은 재생 속도로 재생되는 영상을 편집할 수 있게 된다. 이에 따라, 고속 영상의 적어도 일부 영상을 편집하기 위해 전자 장치를 번거롭게 제어할 필요가 없어져, 상술한 바와 같이 고속 영상의 편집의 신속성과 용이성을 향상될 수 있다.
도 1은, 다양한 실시예에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는, 다양한 실시예에 따른, 카메라 모듈(예: 도 1의 카메라 모듈)을 예시하는 블럭도이다.
도 3은 다양한 실시 예에 따른 이미지 센서의 구조를 설명하기 위한 블록도이다.
도 4는 다양한 실시 예에 따른 이미지 센서를 통해 이미지 프레임을 획득하는 과정을 나타낸 블록도이다.
도 5는 다양한 실시 예에 따른, 전자 장치를 예시하는 블록도이다.
도 6은 다양한 실시 예에 따른 고속 영상에 대한 소정의 제어 기능을 제공하는 전자 장치의 동작을 설명하기 위한 흐름도이다.
도 7은 다양한 실시 예에 따른 고속 영상에 대한 소정의 제어 기능을 제공하는 전자 장치의 동작을 나타내는 도면이다.
도 8은 고속 영상의 촬영과 재생을 설명하기 위한 흐름도이다.
도 9는 고속 영상의 촬영과 재생을 나타내는 도면이다.
도 10은 다양한 실시예에 따른 영상 데이터의 편집을 위한 소정의 인터페이스를 제공하는 동작을 설명하기 위한 흐름도이다.
도 11은 다양한 실시예에 따른 전자 장치의 터치 스크린 상에 표시되는 프로그레스 바와 대표 이미지 중 적어도 일부를 나타내는 도면이다.
도 12는 다양한 실시예에 따른 전자 장치의 터치 스크린 상에 표시되는 프로그레스 바와 대표 이미지 중 적어도 일부를 구체적으로 도시하는 도면이다.
도 13은 다양한 실시예에 따른 영상 데이터의 재생에 따라 변화되는 프로그레스 바의 인디케이터와 대표 이미지 중 적어도 일부를 나타내는 도면이다.
도 14는 다양한 실시예에 따른 대표 이미지의 터치에 따라 변경되는 영상 데이터의 재생 화면과 프로그레스 바의 인디케이터를 나타내는 도면이다.
도 15는 다 도 24는 다양한 실시예에 따른 고속 영상의 공유 및 저장 동작을 설명하기 위한 흐름도이다.
도 16과 도 17은 다양한 실시예에 따른 대표 이미지 중 적어도 일부에 포함된 토글과 토글을 통한 슈퍼 슬로우 구간의 제어를 나타내는 도면이다.
도 18은 다양한 실시예에 따른 대표 이미지 중 적어도 일부를 통한 제2 영상 데이터에 대한 효과의 부가를 설명하기 위한 흐름도이다.
도 19와 도 20은 다양한 실시예에 따른 대표 이미지 중 적어도 일부를 통한 제2 영 데이터에 효과를 부가하기 위한 인터페이스의 제공을 나타내는 도면이다.
도 21은 다양한 실시예에 따른 고속 영상의 트림 동작을 설명하기 위한 흐름도이다.
도 22와 도 23은 다양한 실시예에따른 고속 영상의 트림 동작을 나타내는 도면이다.
도 24는 다양한 실시예에 따른 고속 영상의 공유 및 저장 동작을 설명하기 위한 흐름도이다.
도 25는 다양한 실시예에 따른 고속 영상의 공유 및 저장 동작을 나타내는 도면이다.
도 26은 다양한 실시예에 따른 고속 영상의 슬로우 구간의 사용자 지정을 설명하기 위한 흐름도이다.
도 27은 다양한 실시예에 따른 고속 영상의 촬영과 재생을 나타내는 도면이다.
도 28은 다양한 실시예에 따른 고속 영상의 슬로우 구간의 사용자 지정을 나타내는 도면이다.
도 29는 다양한 실시예에 따른 고속 영상의 슬로우 구간의 속도 조절을 설명하기 위한 흐름도이다.
도 30은 다양한 실시예에 따른 고속 영상의 슬로우 구간의 속도 조절을 위한 토글이 토글 버튼의 위치를 나타내는 도면이다.
도 31은 다양한 실시예에 따른 고속 영상의 슬로우 구간의 속도 조절에 따른 영상 데이터의 이미지 프레임을 나타내는 도면이다.
도 1은, 다양한 실시예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 다양한 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 다양한 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 다양한 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 다양한 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 다양한 실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. 상기 터치 회로 또는 상기 터치에 의해 발생 되는 힘의 세기를 측정하도록 설정된 센서회로를 포함하는 표시 장치(160)은 터치 스크린으로 명명될 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 다양한 실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(101)(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 다양한 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(101)(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 다양한 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(101)(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 다양한 실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 다양한 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 다양한 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 다양한 실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 다양한 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(101)(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 다양한 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 다양한 실시예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크 198 또는 제 2 네트워크 199와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
다양한 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는, 다양한 실시예에 따른, 카메라 모듈(280)(예: 도 1의 카메라 모듈(180))을 예시하는 블럭도(200)이다. 도 2를 참조하면, 카메라 모듈(280)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 다양한 실시예에 따르면, 카메라 모듈(280)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(280)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다.
플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 다양한 실시예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210) 를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 다양한 실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.
이미지 스태빌라이저(240)는 카메라 모듈(280) 또는 이를 포함하는 전자 장치(201)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 다양한 실시예에 따르면, 이미지 스태빌라이저(240)는, 다양한 실시예에 따르면, 이미지 스태빌라이저(240)은 카메라 모듈(280)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(280) 또는 전자 장치(201)의 그런 움직임을 감지할 수 있다. 다양한 실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(260)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 다양한 실시예에 따르면, 메모리(250)는 메모리(230)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.
이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(280)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(280)의 외부 구성 요소(예: 메모리(230), 표시 장치(260), 전자 장치(202), 전자 장치(204), 또는 서버(208))로 제공될 수 있다. 다양한 실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)이 프로세서(120)과 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(260)를 통해 표시될 수 있다.
다양한 실시예에 따르면, 전자 장치(201)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(280)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(280)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(280)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.
도 3은 다양한 실시 예에 따른 이미지 센서의 구조를 설명하기 위한 블록도이다.
일 실시 예에 따르면, 이미지 센서(300)는 전자 장치(101)(예: 101)에 구비된 카메라 모듈(예: 180, 280)의 구성 요소일 수 있다.
도 3을 참고하면, 다양한 실시예에 따른 이미지 센서(300)는 픽셀 어레이(pixel array)(310), 로-드라이버(row-driver)(320), 컬럼-리드 아웃 회로(column-readout circuit)(330), 컨트롤러(340), 메모리(350) 또는 인터페이스(360) 중 적어도 하나를 포함할 수 있다.
픽셀 어레이(310)는 복수의 픽셀들(311 내지 319)로 구성될 수 있다. 예컨대, 픽셀 어레이(310)는 복수의 픽셀들(311 내지 319)이 M*N 매트릭스(matrix) 형태(M, N은 자연수)로 배열된 구조를 가질 수 있다. 복수의 픽셀들(311 내지 319)이 M*N의 2차원 형태로 배열된 픽셀 어레이(310)는 M개의 행(row)과 N개의 열(column)을 가질 수 있다. 픽셀 어레이(310)는 복수의 광 감지 소자, 예컨대 포토 다이오드(photo diode) 또는 핀드 포토 다이오드(pinned photo diode) 등의 광 감지 소자를 포함할 수 있다. 픽셀 어레이(310)는 복수의 광 감지 소자를 이용하여 빛을 감지하고, 이를 아날로그의 전기적 신호로 변환하여 영상 신호를 생성할 수 있다.
로-드라이버(320)는 픽셀 어레이(310)를 행(row) 단위로 구동할 수 있다. 예컨대, 로-드라이버(320)는 픽셀 어레이(310)에 포함된 복수의 픽셀들(311 내지 319)의 전송 트랜지스터를 제어하는 전송 제어 신호, 리셋 트랜지스터를 제어하는 리셋 제어 신호, 또는 선택 트랜지스터를 제어하는 선택 제어 신호를 픽셀 어레이(310)로 출력할 수 있다. 로-드라이버(320)는 리드 아웃할 행(row)을 결정할 수 있다.
컬럼-리드 아웃 회로(330)는 픽셀 어레이(310)에서 생성된 아날로그의 전기적 신호를 수신할 수 있다. 예컨대, 컬럼-리드 아웃 회로(330)는 픽셀 어레이(310)를 구성하는 복수의 열(column)들 중 선택된 컬럼 라인으로부터 아날로그의 전기적 신호를 수신할 수 있다. 컬럼-리드아웃 회로(330)는 선택된 컬럼 라인으로부터 수신된 아날로그의 전기적 신호를 픽셀 데이터(또는 디지털의 신호)로 변환하여 출력할 수 있는 아날로그-디지털 컨버터(analog digital converter, 이하 ADC)(331)를 포함할 수 있다. 한편, 컬럼-리드 아웃 회로(330)가 픽셀 어레이(310)로부터 아날로그의 전기적인 신호를 수신하고, 수신된 아날로그의 전기적 신호를 ADC(331)를 이용하여 픽셀 데이터로 변환하여 출력하는 동작을 리드 아웃(read out)이라 명명할 수 있다. 컬럼-리드 아웃 회로(330) 및 ADC(331)는 리드 아웃할 열(column)을 결정할 수 있다.
일 실시 예에 따르면, 고속 촬영 기능을 지원하는 이미지 센서(300)의 컬럼-리드 아웃 회로(330)는 복수의 ADC(331)들을 포함할 수 있다. 복수의 ADC(331)들 각각은 픽셀 어레이(310)에 포함된 복수의 포토 다이오드들과 병렬적으로 연결될 수 있으며, 복수의 포토 다이오드들로부터 동시에 수신되는 아날로그의 전기적 신호들을 병렬 구조에 기반하여 픽셀 데이터로 빠르게 변환할 수 있다. 고속 촬영 기능을 지원하는 이미지 센서(300)의 컬럼-리드 아웃 회로(330)는 고속의 프레임 레이트(예: 960 fps (frame per second))로 리드 아웃을 수행할 수 있다. 예를 들어, 960 fps 로 리드 아웃을 수행하는 것의 의미는, 픽셀 어레이(310)로부터 아날로그의 전기적인 신호를 수신하고, 수신된 아날로그의 전기적 신호를 ADC(331)를 이용하여 픽셀 데이터로 변환하여 출력하는 동작을 1/960 초 당 1회씩 수행하는 것을 의미한다. 다시 말해, 960 fps 로 리드 아웃을 수행하는 것의 의미는 1초에 960 개의 이미지 프레임을 출력하는 것을 의미할 수 있다.
컨트롤러(340)는 컬럼-리드 아웃 회로(330)로부터 수신된 픽셀 데이터를 기초로 이미지 프레임을 획득할 수 있다. 컨트롤러(340)는 인터페이스(360)를 통해 이미지 프레임을 외부 회로(370)로 출력할 수 있다. 일 실시 예에 따르면, 컨트롤러(340)는 복수의 픽셀들(311 내지 319)의 전송 트랜지스터를 제어하는 전송 제어 신호, 리셋 트랜지스터를 제어하는 리셋 제어 신호, 또는 선택 트랜지스터를 제어하는 선택 제어 신호를 생성할 수 있으며, 생성된 신호를 로-드라이버(320)에 제공할 수 있다. 또한, 컨트롤러(340)는 픽셀 어레이(310)를 구성하는 복수의 컬럼 라인들 중 적어도 하나의 컬럼 라인을 선택하기 위한 선택 제어 신호를 생성할 수 있으며, 생성된 신호를 컬럼-리드 아웃 회로(330)에 제공할 수 있다. 예컨대, 컬럼-리드 아웃 회로(330)는 컨트롤러(340)로부터 제공된 선택 제어 신호에 기초하여, 복수의 컬럼 라인들 중 일부의 컬럼 라인들을 인에이블(enable)시키고 나머지 컬럼 라인들을 디스에이블(disable)시킬 수 있다. 또한, 컨트롤러(340)는 중앙 처리 장치(CPU) 또는 어플리케이션 프로세서(AP) 등을 포함하는 프로세서(예: 120)나 일종의 블록 또는 모듈로 구현될 수도 있다. 블록으로 구현되는 경우에는, 컨트롤러(340)는, 예를 들어 이미지 사이의 차이를 검출하는 차분기(substractor) 또는 이미지들을 서로 비교할 수 있는 비교기(comparator) 등을 포함할 수 있다. 다양한 실시 예에서, 컨트롤러(340)는, 리드 아웃된 이미지의 크기를 다운사이즈(downsize) 할 수도 있으며, 다운사이즈 된 복수의 이미지를 서로 비교함으로써 이미지들 간의 차이를 감지할 수 있다.
메모리(350)는 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(350)는 이미지 센서(300)의 내부에 구비된 저장 장치로서, 버퍼 메모리(buffer memory)를 포함할 수 있다. 일 실시 예에 따르면, 메모리(350)는 컬럼-리드 아웃 회로(330) 또는 컨트롤러(340)로부터 출력된 디지털 신호를 임시로 저장할 수 있다. 예컨대, 메모리(350)는 픽셀 어레이(310)에 수광된 빛을 기초로 하여 획득된 적어도 하나의 이미지 프레임을 포함할 수 있다. 또한, 메모리(350)는 인터페이스(360)를 통해 외부 회로(370)로부터 수신된 적어도 하나의 디지털 신호를 저장할 수도 있다.
일 실시 예에 따르면, 메모리(350)는 컬럼-리드 아웃 회로(330)로부터 제 N 프레임 레이트(예: 960 fps) 또는 제 M 프레임 레이트(예: 120 fps)로 리드 아웃된 적어도 하나의 이미지 프레임을 저장할 수 있으며, 저장된 적어도 하나의 이미지 프레임을 인터페이스(360)를 통하여 외부 회로(370)(예: IPS, 프로세서, 통신 회로, 또는 외부 서버)에 전달할 수 있다. 다시 말해, 메모리(350)는 컬럼-리드 아웃 회로(330)로부터 1/960 초 당 1회씩 또는 1/120초 당 1회씩 리드 아웃된 적어도 하나의 이미지 프레임을 저장할 수 있으며, 저장된 적어도 하나의 이미지 프레임을 인터페이스(360)를 통하여 외부 회로(370)에 전달할 수 있다. 외부 회로(370)로 이미지 프레임을 전달하는 속도는 제한이 없다. 다양한 실시예에서, 전자 장치(101)는 리드 아웃한 이미지 프레임을 메모리(350)에 저장하지 않고 인터페이스(360)를 통하여 외부 회로(370)로 곧바로 전달할 수도 있다.
한편, 컨트롤러(340)는 컬럼-리드 아웃 회로(330)를 통해 제 N 프레임 레이트(예: 960 fps)로 리드 아웃되는 제 N 복수의 이미지 프레임들 중 일부의 이미지 프레임들만 메모리(350)에 저장함으로써, 실질적으로 제 M 프레임 레이트(예: 120 fps)로 리드 아웃되는 제 M 복수의 이미지 프레임들을 획득하는 것과 동일한 효과를 얻을 수도 있다. 예를 들어, 컨트롤러(340)는 960 fps 로 8/960 초 동안 리드 아웃되는 8개의 이미지 프레임들 중 1개의 이미지 프레임만 메모리(350)에 저장할 수 있다. 만약, 960 fps 로 리드 아웃된 복수의 이미지 프레임들 중 1:8의 비율로 선택된 이미지 프레임들만 메모리(350)에 저장되는 경우, 메모리(350)에 저장된 이미지 프레임들은 컬럼-리드 아웃 회로(330)를 통해 120 fps 로 리드 아웃된 이미지 프레임들과 실질적으로 동일한 이미지 프레임들일 수 있다. 예컨대, 1/120 초의 주기로 획득된 이미지 프레임들로만 구성된 동영상을 '120 fps 동영상'으로 정의할 경우, 960 fps 로 리드 아웃된 복수의 이미지 프레임들 중 1:8의 비율로 선택된 이미지 프레임들로만 구성된 동영상은 120 fps 동영상으로 정의될 수 있다. 또한, 컬럼-리드 아웃 회로(330)를 통해 120 fps 로 리드 아웃된 이미지 프레임들로만 구성된 동영상도 120 fps 동영상으로 정의될 수 있다.
인터페이스(360)는, 예컨대 인터페이스(177) 또는 통신 모듈(190)를 포함할 수 있다. 인터페이스(360)는 이미지 센서(300)의 구성 요소, 예컨대 컨트롤러(340) 또는 메모리(350)를 외부 회로(370)와 유선 또는 무선의 방식으로 연결할 수 있다. 예를 들어, 인터페이스(360)는 이미지 센서(300)의 메모리(350)에 저장된 적어도 하나의 이미지 프레임을 외부 회로(370), 예컨대 전자 장치(101)(예: 101)의 메모리(예: 130)로 전달할 수 있다. 또한, 외부 회로(370), 예컨대 전자 장치(101)(예: 101)의 프로세서(예: 120)의 제어 신호를 이미지 센서(300)의 컨트롤러(340)로 전달할 수 있다.
일 실시 예에 따르면, 이미지 센서(300)는 인터페이스(360)를 통해, 예컨대 직렬 통신 방식으로 외부 회로(370)와 통신할 수 있다. 예를 들어, 이미지 센서(300)의 메모리(350)는 I2C(Inter-Integrated Circuit) 방식으로 전자 장치(101)(예: 101)의 프로세서(예: 120)와 통신할 수 있다.
또 다른 실시 예에 따르면, 이미지 센서(300)는 인터페이스(360)를 통해, 예컨대 MIPI(Mobile Industry Processor Interface) 규약에 따라 정의된 인터페이스를 통해 외부 회로(370)와 연결될 수 있다. 예를 들어, 이미지 센서(300)의 메모리(350)는 MIPI 규약에 따라 정의된 인터페이스에 따라 전자 장치(101)(예: 101)의 프로세서(예: 120)와 통신할 수 있다. 인터페이스(360), 예컨대 MIPI 규약에 따라 정의된 인터페이스는 메모리(350)에 저장된 이미지 프레임에 대응하는 픽셀 데이터를 1/120 초의 주기로 외부 회로(370)에 전달할 수 있다.
한편, 메모리(350)에 저장된 이미지 프레임들이 240 fps 의 출력 속도를 갖는 인터페이스(360)를 통해 1/120 초 당 1회씩 외부 회로(370)로 전달되는 동안, 컬럼-리드 아웃 회로(330)를 통해 실시간으로 리드 아웃되는 이미지 프레임들 중 적어도 일부는 프리뷰 이미지로서 1/120 초 당 1회씩 외부 회로(370)로 전달될 수 있다. 외부 회로(370)에 포함된 프로세서(120)는 이미지 센서(300)에서 프리뷰 이미지로서 출력된 이미지 프레임들의 전부 혹은 일부를 디스플레이를 통해 30 fps 또는 60fps 로 표시할 수 있다.
상술한 구성 요소들(310 내지 360)의 일부 또는 전부는 필요에 따라 이미지 센서(300)에 포함될 수 있으며, 각 구성 요소들은 단수 또는 복수로 구성될 수 있다. 또한, 상기 실시 예에서 사용된 프레임 레이트들(120 fps, 240 fps 또는 960 fps 등)은 전자 장치의 설정이나 인터페이스의 성능에 따라 달라질 수 있다.
도 4는 다양한 실시 예에 따른 이미지 센서를 통해 이미지 프레임을 획득하는 과정을 나타낸 블록도이다. 이미지 센서(400)는 전자 장치(101)(예: 101)에 구비된 카메라 모듈(예: 180, 280)의 구성 요소일 수 있다.
도 4를 참조하면, 이미지 센서(400)는 픽셀 어레이(410), 메모리(450) 및 인터페이스(460) 중 적어도 하나를 포함할 수 있다. 여기서, 이미지 센서(400)는 도 3에 도시된 이미지 센서(300)의 전부 또는 일부를 포함할 수 있다.
이미지 센서(400)의 픽셀 어레이(410)는 외부로부터 수신된 빛에 대응하는 전기적 신호를 출력할 수 있다. 예를 들어, 픽셀 어레이(410)는 포토 다이오드로 구성된 복수의 픽셀들을 포함할 수 있다. 포토 다이오드는 빛을 수신할 수 있으며, 수신된 빛에 대응하는 아날로그의 전기적 신호를 생성할 수 있다. 복수의 픽셀들을 구성하는 복수의 포토 다이오드들 각각으로부터 생성된 아날로그의 전기적 신호들은 컬럼-리드 아웃 회로(예: 330)를 통해 복수의 픽셀 데이터들로 변환될 수 있다. 이 때 변환된 복수의 픽셀 데이터들은 복수의 픽셀들 각각에 대응하는 픽셀값을 의미할 수 있다. 특정 시점에 획득된 복수의 픽셀 데이터들의 집합은 적어도 하나의 이미지 프레임을 구성할 수 있다.
일 실시 예에 따르면, 이미지 센서(400)의 픽셀 어레이(410)는 미리 설정된 리드 아웃 속도에 따라 복수의 이미지 프레임들(421 내지 424)을 출력할 수 있다. 예를 들어, 리드 아웃 속도가 960 fps 로 설정된 경우, 이미지 센서(400)는 픽셀 어레이(410)에 수신된 빛에 기초하여 1초 당 960 개의 이미지 프레임들을 리드 아웃할 수 있다. 다양한 실시예에 따른 전자 장치(101)는, 일반 모드로 촬영을 수행하는 도중에 고속 촬영의 이벤트를 검출할 수도 있으며, 이 경우에는 120 fps로 이미지를 리드 아웃 하다 960 fps로 이미지를 리드 아웃 할 수도 있다.
리드 아웃된 복수의 이미지 프레임들(421 내지 424)은 이미지 센서(400)의 내부에 구비된 메모리(450)에 저장될 수 있다. 일 실시 예에 따른 이미지 센서(400)의 메모리(450)는 버퍼 메모리(451)를 포함할 수 있다. 예컨대 960 fps 로 리드 아웃되는 복수의 이미지 프레임들(421 내지 424) 중 일부는 버퍼 메모리(451)에 저장될 수 있다. 연속하여 리드 아웃되는 복수의 이미지 프레임들 중 지정된 개수의 이미지 프레임들은 버퍼 메모리(451)에 저장될 수 있다. 프로세서(예: 120 또는 컨트롤러(340))는 버퍼 메모리(451)에 저장된 이미지 프레임들 중 가장 오래 전에 저장된 이미지 프레임을 삭제하고, 가장 최근에 획득된 이미지 프레임을 저장하는 동작을 반복해서 수행할 수 있다.
이미지 센서(400)의 메모리(450)에 저장된 적어도 하나의 이미지 프레임은 인터페이스(460)(예: 360)를 통해 외부 회로(470)로 전달될 수 있다. 예를 들어, 프로세서(예: 120 또는 컨트롤러(340))는 메모리(450)에 저장된 적어도 하나의 이미지 프레임이 외부 회로(470)로 전달될 수 있도록 인터페이스(460)를 제어할 수 있다.
다양한 실시예에서, 이미지 센서(400)는 버퍼(451)를 포함하지 않을 수도 있으며, 픽셀 어레이(410)로부터의 이미지 프레임들(421, 422, 423, 424)가 곧바로 인터페이스(460)를 통하여 외부 회로(470)로 전달될 수도 있다.
도 5는 다양한 실시 예에 따른, 전자 장치(101)를 예시하는 블록도이다. 전자 장치(101)는 프로세서(510), 디스플레이(520), 센서 회로(530), 카메라 모듈(540), 및 메모리(550)을 포함할 수 있다.
다양한 실시예에 따라서, 프로세서(510)(예: 도 1 의 프로세서(120))는, 프로세서(510)에 연결된 디스플레이(520), 센서 회로(530), 카메라 모듈(540), 및 메모리(550)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 예를 들어, 프로세서(510)는 센서 회로(530)로부터 센서 데이터를 획득할 수 있고, 상기 센서 데이터를 이용하여 고속 영상을 촬영하기 위한 기준 임계값을 설정할 수 있다. 프로세서(510)는 카메라 모듈(540)을 이용하여 임계값으로 움직이는 피사체(이미지 내의 오브젝트)에 반응하여, 고속 영상을 획득할 수 있다. 프로세서(510)는, 고속 영상을 구성하는 복수의 이미지 프레임들을 디스플레이(520)를 통하여 표시하거나 메모리(550)에 저장할 수 있다.
다양한 실시예에 따라서, 디스플레이(520)(예: 도 1 의 표시 장치(160))는, 이미지 센서(541)(예: 도 2의 이미지 센서(240)를 통해 획득된 적어도 하나의 이미지 프레임을 표시할 수 있다. 예컨대, 이미지 프로세서(542)를 통해 생성된 프리뷰 이미지를 표시하거나, 메모리(550)에 저장된 적어도 하나의 동영상을 표시할 수 있다.
다양한 실시예에 따라서, 센서 회로(530)(예: 도 1 의 센서 모듈(176))는, 적어도 하나의 센서(예: 자이로 센서, 가속도 센서)를 이용하여 전자 장치(101)의 움직임을 감지할 수 있다. 센서 회로(530)는 전자 장치(101)의 움직임에 관한 데이터를 프로세서(510) 또는 카메라 모듈(540)에 전달할 수 있다.
다양한 실시예에 따라서, 카메라 모듈(540)(예: 도 1 의 카메라 모듈(180), 도 2 의 카메라 모듈(280))은, 다양한 실시예에 따라, 이미지 센서(541), 이미지 프로세서(542), 및 인코더(543)를 포함할 수 있다. 한편 카메라 모듈(540)에 포함된 구성 요소들(541, 542, 543) 중 적어도 어느 하나는, 하드웨어, 소프트웨어 또는 펌웨어 등으로 다양하게 설계될 수 있으며, 상기 각 구성 요소들은 임의의 다른 명칭으로 일컬어질 수 있다.
다양한 실시예에 따라서, 이미지 프로세서(542)는 이미지 센서(541)로부터 출력된 적어도 하나의 픽셀 데이터를 수신하고, 수신된 픽셀 데이터를 전자 장치의 적어도 하나의 구성 요소에 전달하기 위해 가공 또는 편집할 수 있다. 이미지 프로세서(542)는 이미지 센서(541)로부터 수신된 픽셀 데이터에 대응하는 이미지 프레임을 디스플레이(520)를 통해 표시하기 위해 리사이징(resizing) 할 수 있다. 프리뷰 이미지는 사용자가 전자 장치(101)의 카메라 모듈(540)을 이용하여 적어도 하나의 오브젝트를 촬영할 때, 디스플레이(520)에 실시간으로 표시되는 이미지를 의미한다. 이미지 센서(541)를 통해 획득된 적어도 하나의 이미지 프레임은 프리뷰 이미지로서 디스플레이(520)에 실시간으로 표시될 수 있으며, 전자 장치의 사용자는 프리뷰 이미지를 통해 외부 객체를 쉽게 촬영할 수 있다.
다양한 실시예에 따라서, 인코더(543)는 이미지 프로세서(542)에서 가공된 픽셀 데이터에 기반하여 적어도 하나의 동영상을 생성할 수 있다. 예를 들어, 인코더(543)는 이미지 센서(541)로부터 수신된 픽셀 데이터에 대응하는 이미지 프레임을 메모리(550)에 저장하기 위해 압축할 수 있다. 또한, 인코더(543)는 이미지 센서(541)로부터 수신된 복수의 픽셀 데이터들에 대응하는 이미지 프레임들을 인코딩할 수 있다. 또한, 인코더(543)는 이미지 센서(541)로부터 수신된 복수의 픽셀 데이터들에 기반하여, 복수의 이미지 프레임들 각각을 이미지 센서(541)를 통해 획득된 순서에 따라 배열할 수 있다. 프로세서(510)는 인코더(543)를 통해 인코딩된 동영상을 메모리(550)에 저장될 수 있다.
다양한 실시예에 따라서, 이미지 프로세서(542) 또는 인코더(543) 중 적어도 하나는 카메라 모듈(540)이 아닌 프로세서(510)에 포함될 수도 있다.
다양한 실시예에 따라서, 메모리(550)는 이미지 센서(541)를 통해 획득된 적어도 하나의 이미지 프레임 또는 인코더(543)를 통해 인코딩된 적어도 하나의 동영상을 저장할 수 있다. 한편, 이미지 센서(541)는 내부에 적어도 하나의 메모리(예: 350)를 포함할 수 있는데, 이 경우, 메모리(550)는 메모리(350)와 분리된 곳에 위치한 다른 저장 공간을 의미할 수 있다.
이하에서는, 고속 영상에 대한 소정의 제어 기능을 제공하는 전자 장치 및 그 동작 방법에 대해서 구체적으로 설명한다.
도 6은 다양한 실시 예에 따른 고속 영상에 대한 소정의 제어 기능을 제공하는 전자 장치의 동작을 설명하기 위한 흐름도이다.
도 7은 다양한 실시 예에 따른 고속 영상에 대한 소정의 제어 기능을 제공하는 전자 장치의 동작을 나타내는 도면이다.
도 6과 도 7을 참조하면, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 고속 영상을 제어하기 위한 소정의 인터페이스를 터치스크린 상에 표시할 수 있다. 상기 고속 영상은 전자적인 의미에서, 영상 데이터와 혼용될 수 있다. 따라서 이하의 설명에 기재된, 고속 영상은 영상 데이터를 해석될 수 있으며, 마찬가지로 영상 데이터는 고속 영상으로 해석될 수 있다. 고속 영상은, 상대적으로 높은 프레임 레이트로 촬영된 이미지 프레임을 포함하는 영상을 의미할 수 있다. 또한, 이하의 설명에서 전자 장치가 영상 데이터를 재생한다는 의미는 전자 장치가 영상 데이터의 재생 화면(701)을 터치스크린 상에 표시하는 것으로 해석될 수 있다. 그러나, 상기 전자 장치가 영상 데이터를 재생 한다는 의미는 상기 기재에 국한되는 것은 아니다.
601 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260)) 영상 데이터의 재생 화면(701)의 제공 요청을 수신하는 경우, 터치 스크린의 일 영역에 영상 데이터의 재생 화면(701)을 표시할 수 있다. 상기 영상 데이터는 적어도 하나 이상의 제1 영상 데이터와 적어도 하나 이상의 제2 영상 데이터를 포함할 수 있다. 상기 제1 영상 데이터와 상기 제2 영상 데이터에 대해서는 구체적으로 후술하도록 한다. 상기 터치스크린 상에 표시되는 영상 데이터의 재생 화면(701)은, 재생 상태이거나 또는 일시 정지 상태일 수 있다.
602 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260)) 영상 데이터의 재생 화면(701)이 표시되는 중에 고속 영상을 제어하기 위한 소정의 인터페이스의 제공 요청을 수신할 수 있다. 도 7에 도시된 바와 같이, 예를 들어 상기 인터페이스의 제공 요청의 수신은, 영상 데이터의 재생 화면(701)이 표시되는 터치 스크린 상의 적어도 일 지점 상의 터치를 감지하여 수행될 수 있다. 인터페이스 제공 요청의 종류에는 제한이 없다.
603 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260)) 상기 인터페이스의 제공 요청의 수신에 대한 응답으로, 제1 영상 데이터에 대응하는 제1 영상 구간 및 제2 영상 데이터에 대응하는 제2 영상 구간을 포함하는 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바(702)를 터치스크린 상에 표시할 수 있다. 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는, 상기 프로그레스 바(702)를 통해 소정의 제어 기능을 제공할 수 있다. 예를 들어, 상기 프로그레스 바(702)를 통한 영상 데이터의 재생 화면(701)의 시점에 대한 요청을 수신하면, 상기 요청에 대한 응답으로 전자 장치(101)는, 시점에 대응하는 영상 데이터의 재생 화면(701)을 터치스크린 상에 표시할 수 있다. 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 영상 구간과 제2 영상 구간이 사용자에 의해 시각적으로 구별되도록 프로그레스 바(702)를 표시할 수 있는데, 이에 대해서는 구체적으로 후술한다.
604 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 인터페이스의 제공 요청의 수신에 대한 응답으로, 적어도 하나 이상의 제1 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부를 표시할 수 있다. 대표 이미지는, 해당 제1 영상 구간에 포함된 이미지 프레임 중 하나의 섬네일 이미지(thumbnail image)일 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 터치스크린 상에 표시된 프로그레스 바(702)의 인접한 위치에 상기 제1 영상 데이터에 대응하는 대표 이미지 중 적어도 일부를 표시할 수 있다. 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 터치스크린 상에 표시되는 대표 이미지 중 적어도 일부를 통해 고속 영상의 소정의 제어 기능을 제공할 수 있다. 예를 들어, 상기 제어 기능은 고속 영상의 재생 화면(701)의 시점, 고속 영상의 재생 속도, 고속 영상의 편집, 고속 영상의 저장 또는 공유 중 적어도 하나를 포함할 수 있다. 상기 제어 기능은 이하의 명세서에서 구체적으로 후술하도록 한다.
한편, 상술한 601 내지 604 동작들은, 상술한 바에 국한되지 않고 다양한 순서로 수행될 수 있다. 예를 들어, 상기 기재에 따르면 604 동작의 순서가 603 동작의 순서 보다 늦은 순서로 기재되어 있으나 이에 국한되지 않고, 604 동작이 603 동작 보다 더 먼저 수행될 수도 있다.
한편, 영상 데이터의 재생 화면(701)이 표시되는 중에, 프로그레스 바(702)와 대표 이미지 중 적어도 일부가 터치스크린 상에 표시되는 것으로 상술하였으나, 상술한 바에 국한되지 않고 프로그레스 바(702)와 대표 이미지 중 적어도 일부는 영상 데이터의 재생 화면(701)이 표시되지 않는 상태에서도 터치스크린 상에 표시될 수 있다.
위와 같이, 전자 장치가 인터페이스의 제공 요청의 수신에 대한 응답으로, 프로그레스 바(702)와 대표 이미지 중 저어도 일부(703)를 터치스크린 상에 표시하고, 상기 표시된 프로그레스 바(702)와 대표 이미지를 통해 고속 영상의 제어 기능을 제공함으로써, 사용자의 고속 영상의 활용도가 향상될 수 있다. 즉, 상기 프로그레스 바(702)와 대표 이미지에 기반하여, 사용자가 고속 영상을 제어할 수 있게 됨으로써, 고속 영상의 제어를 위한 사용자의 번거로운 조작 없이도 고속 영상이 제어될 수 있기 때문에, 사용자의 고속 영상의 활용도가 향상될 수 있다.
이하에서는, 상기 전자 장치가 표시하는 프로그레스 바(702)와 대표 이미지에 기초하여 제공되는 고속 영상의 제어 기능에 대해서 구체적으로 설명한다. 프로그레스 바(702)와 대표 이미지에 기초하여 제공되는 고속 영상의 제어 기능에 대한 설명에 앞서, 먼저 고속 영상의 촬영과 재생에 대해서 설명한다.
도 8은 고속 영상의 촬영과 재생을 설명하기 위한 흐름도이다.
도 9는 고속 영상의 촬영과 재생을 나타내는 도면이다.
도 8과 도 9를 참조하면, 다양한 실시예에 따른, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 고속 영상을 촬영하고, 재생할 수 있다. 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 고속 영상을 소정의 프레임 레이트(911)에 따라 획득하고, 획득된 고속 영상을 소정의 프레임 레이트(911)보다 상대적으로 낮은 프레임 레이트(912)에 따라 재생할 수 있다. 프레임 레이트(911)는, 상대적으로 저속으로 촬영되는 제1 프레임 레이트 및 상대적으로 고속으로 촬영되는 제2 프레임 레이트를 포함할 수 있다.
설명을 용이하게 하기 위하여, 상기 영상 데이터(900)가 재생되는 프레임 레이트는 재생 대상 프레임 레이트(912)로 명명하기로 한다. 달리 말해, 상기 재생 대생 프레임 레이트(912)는 터치스크린 상에 표시되는 영상 데이터(900)의 재생 화면(701)의 프레임 레이트로 정의될 수 있다. 그러나, 상기 재생 대상 프레임 레이트(912)는 명세서 상에서 정의된 기재에 국한되지 않고, 당업계에서 이용되는 프레임 레이트로 해석될 수 있다.
이하에서는, 상기 전자 장치가 소정의 프레임 레이트(911)에 따라 영상 데이터(900)를 획득하고, 재생하는 동작에 대해서 구체적으로 설명한다.
먼저, 전자 장치의 영상 데이터(900)의 획득에 대해서 설명한다.
다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 프레임 레이트에 따라 획득 되는 적어도 하나 이상의 제1 영상 데이터(901)와 상기 제1 프레임 레이트 보다 높은 제2 프레임 레이트에 따라 획득 되는 적어도 하나 이상의 영상 데이터(900)를 포함하는 영상 데이터(900)를 획득할 수 있다.
도 9를 참조하면, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 시점(t1)부터 제2 시점(t2)까지 제1 프레임 레이트에 따라 제1 영상 데이터(901)를 획득할 수 있고, 제3 시점(t3)부터 제4 시점(t4)까지 제2 프레임 레이트에 따라 제2 영상 데이터(902)를 획득할 수 있고, 제3 시점(t3)부터 제4 시점(t4)까지 제1 프레임 레이트에 따라 제1 영상 데이터(901)를 획득 할 수 있다. 상기 제1 시점(t1)은 상기 슈퍼 슬로우 모드 요청(또는, 동영상 저장 요청)이 감지되는 시점으로 정의될 수 있다. 상기 제2 시점(t2)은 제2 프레임 레이트에 따라 제2 영상 데이터(902)가 획득되는 시점으로 정의될 수 있다. 예를 들어, 제2 시점(t2)는 관심 영역 내의 픽셀 값의 변경 값이 임계치를 초과하는 시점, 또는 사용자에 의한 수동으로 초고속 촬영 요청이 검출되는 시점일 수 있다. 상기 제3 시점(t3)은 상기 제2 영상 데이터(902)의 획득이 종료되는 시점으로 정의될 수 있다. 상기 제4 시점(t4)은 상기 영상 촬영이 종료 되는 시점으로 정의될 수 있다. 상기 각 시점들에 대해서는 구체적으로 설명한다.
한편 다양한 실시예에 따르면, 상기 제1 프레임 레이트는 30fps일 수 있으나, 이에 국한되지 않는 다양한 프레임 레이트(911)로 결정될 수 있다. 예를 들면, 상기 다양한 프레임 레이트(911)는 60fps, 90fps, 120fps 등의 30fps의 n배수의 프레임 레이트(911)일 수 있다.
802 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 ROI 내 픽셀의 변화값이 임계값 보다 큰 값인지 판단할 수 있다. 달리 말해 도 9에 도시된 바와 같이, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 시점에서 동적으로 변경되는 외부 객체(OB)를 포착할 수 있다.
구체적으로, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 리드 아웃되는 복수의 이미지 프레임들 중 적어도 두 개의 이미지 프레임들을 이용하여, 이미지 프레임 내의 ROI의 픽셀 변화량을 임계값과 비교할 수 있다.
예를 들어, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 시점의 근처의 시점에서 리드 아웃 되는 복수의 이미지 프레임들 중 적어도 두 개의 이미지 프레임들에 기반하여 ROI(예를 들어, 관심 영역 또는 배경 영역 중 적어도 하나) 내의 픽셀 값의 변화를 감지할 수 있다. 구체적인 예를 들어, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제 2 시점의 전 시점에서 컬럼-리드 아웃 회로(330)를 통해 리드 아웃되는 복수의 이미지 프레임들 중 적어도 하나의 이미지 프레임의 ROI와 제 2 시점에서 컬럼-리드 아웃 회로를 통해 리드 아웃 되는 복수의 이미지 프레임들 중 적어도 하나의 이미지 프레임의 ROI을 비교하여, ROI 내의 픽셀 값의 변화를 감지할 수 있다. 이에 따라, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 ROI 내의 픽셀 값의 변화량을 획득할 수 있다.
이 때, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 감지된 ROI 내 픽셀 값의 변화량과 임계값을 비교할 수 있다. 예를 들어, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는, 감지된 픽셀 값의 변화에 기반하여 고속 촬영의 개시를 위한 임계값을 설정할 수 있다. 상기 임계값은 전자 장치(101)의 움직임, 전자 장치(101) 외부의 조도, 관심 영역의 크기 중 적어도 하나에 기반하여 설정될 수 있다.
상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 ROI 내 픽셀 값의 변화량과 임계값을 비교하여, 변화량이 임계값 보다 큰 경우, 제 2 시점이 외부 객체(OB)가 동적으로 변경되는 시점인 것으로 판단할 수 있다. 달리 말해, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 제 2 시점을 후술할 전자 장치의 고속 촬영이 개시되는 시점으로 결정할 수 있다.
803 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 ROI 내 픽셀 변화량이 임계값 보다 큰 경우, 제2 프레임 레이트에 따라 제2 영상 데이터(902)를 획득할 수 있다. 도 9에 도시된 바와 같이, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제 2 시점에서 제 3 시점까지 제2 프레임 레이트에 따라 제2 영상 데이터(902)를 획득하여 고속 촬영을 개시할 수 있다. 결과적으로, 상기 제2 영상 데이터(902)는 동적으로 변경되는 외부 객체(OB)에 대한 이미지 프레임 이미지로 구성될 수 있다. 위와 같은, 803 동작에 따라 사용자의 소정의 제어 없이도 동적으로 변경되는 외부 객체(OB)가 전자 장치에 의해 고 프레임 레이트(911)로 촬상되게 되며, 결과적으로 사용자의 고속 촬영 편의성이 향상될 수 있다.
구체적인 예를 들어, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 시점에서 상기 컬럼-리드 아웃 회로의 출력 속도인 리드 아웃 속도를 제2 프레임 레이트로 설정하여, 제2 프레임 레이트에 따라 제2 영상 데이터(902)를 획득할 수 있다. 달리 말해, 상기 전자 장치가 컬럼-리드 아웃 회로의 출력 속도인 리드 아웃 속도를 제2 프레임 레이트로 설정하는 경우, 이미지 센서를 통해 획득된 이미지 프레임들은 제2 프레임 레이트에 따라 출력되고, 제2 프레임 레이트에 따라 출력된 이미지 프레임들은 제2 영상 데이터(902)를 구성할 수 있다. 즉, 상기 제2 영상 데이터(902)는 이미지 센서를 통해 획득된 이미지 프레임이 제2 프레임 레이트로 구성된 영상 데이터(900)일 수 있다.
또 구체적인 예를 들어 다양한 실시예에 따른, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제 2 프레임레이트에 따른 제2 영상 데이터(902)의 획득을 종료하는 제 3 시점을 결정할 수 있다. 예를 들어, 상기 제 3 시점은 연속되는 이미지 프레임들내의 ROI의 상기 픽셀 변화량이 임계값 보다 작거나 같아지는 것으로 결정된 시점일 수 있다. 또는, 예를 들어 상기 제 3 시점은 제 2 시점으로부터 기설정된 제 1 시간 이후의 시점으로 결정된 시점일 수 있다. 상기 제 3 시점 이후에서, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제 4 시점 까지 상기 컬럼-리드 아웃 회로의 출력 속도인 리드 아웃 속도를 제1 프레임 레이트로 설정하여, 제1 프레임 레이트에 따라 제1 영상 데이터(901)를 다시 획득할 수 있다. 이때, 상기 제 4 시점은 슈퍼 슬로우 모드 촬영의 종료 시점일 수 있다. 예를 들어 상기 제4 시점은 슈퍼 슬로우 모드 촬영 종료 요청이 감지되는 시점일 수 있다. 상기, 슈퍼 슬로우 모드 촬영 종료 요청은 전자 장치의 터치스크린 상에 구현된 전자적인 키를 통해 사용자에 의해 터치되는 것일 수 있다. 또는, 상기 기재에 국한되지 않고 상기 슈퍼 슬로우 모드 촬영 종료 요청은 전자 장치에 구현된 물리적인 키의 터치, 또는 상기 전자 장치로의 음성적인 입력이 될 수 있다.
한편 다양한 실시예에 따르면, 상기 제2 프레임 레이트는 960fps일 수 있으나, 상기 제2 프레임 레이트는 이에 국한되지 않고 상기 제1 프레임 레이트보다 높은 다양한 프레임 레이트(911)로 결정될 수 있다. 예를 들면, 상기 다양한 프레임 레이트(911)는 60fps, 90fps, 120fps 등의 960fps의 1/n배수의 프레임 레이트(911)일 수 있다.
한편, 상기 ROI 내 픽셀 변화량이 임계값 보다 큰 값인 경우를 예를 들어 설명하였으나, 상술한 동작들은 다양한 실시예에 따른 ROI 내 픽셀 변화량이 임계값과 같은 값인 경우에 따라 수행될 수도 있다.
상술한 801 동작 내지 803 동작에 따라 다양한 실시 예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 결과적으로 획득된 제1 영상 데이터(901)와 제2 영상 데이터(902)로 구성되는 영상 데이터(900)를 획득할 수 있다.
이하에서는, 전자 장치의 영상 데이터(900)의 재생에 대해서 설명한다.
804 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 영상 데이터(900)의 재생 요청에 대한 응답으로, 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)와 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)를 설정하여 영상 데이터(900)의 재생 화면(701)을 표시할 수 있다.
예를 들어 상기 재생 요청은 전자 장치의 터치스크린 상에 구현된 전자적인 키가 사용자에 의해 터치되는 것일 수 있다. 또는, 상기 기재에 국한되지 않고 상기 재생 요청은 전자 장치에 구현된 물리적인 키의 터치, 또는 상기 전자 장치로의 음성적인 입력이 될 수 있다.
예를 들어 도 9에 도시된 바와 같이, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)와 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)를 서로 대응되게 설정할 수 있다. 구체적인 예를 들어, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)와 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)를 소정의 프레임 레이트로 서로 동일하게 설정할 수 있다. 이 때, 상기 소정의 프레임는 제1 프레임 레이트와 같은 프레임 레이트일 수 있다. 그러나 상기 소정의 프레임 레이트는 상기 기재에 국한되지 않고 제1 프레임 레이트 보다 크고, 제2 프레임 레이트 보다 같거나 작은 프레임 레이트일 수 있다. 이에 따라, 상기 제1 프레임 레이트에 따라 획득된 제1 영상 데이터(901)는 제2 영상 데이터(902) 보다 시각적으로 빠르게 변화될 수 있다. 달리 말해, 상기 제2 영상 데이터(902)의 재생 화면(701)은 제1 영상 데이터(901)의 재생 화면(701) 보다 시각적으로 느리게 재생될 수 있다.
구체적인 예를 들어, 도 9에 도시된 바와 같이 제1 영상 데이터(901)와 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)를 제1 프레임 레이트로 설정할 수 있다. 이에 따라, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 시점부터 제2 시점까지 제1 프레임 레이트로 상기 제1 영상 데이터(901)를 재생하고, 제2 시점부터 제5 시점까지 제2 영상 데이터(902)를 제1 프레임 레이트로 재생하고, 제5 시점부터 제6 시점 까지 제1 영상 데이터(901)를 제1 프레임 레이트로 재생할 수 있다. 즉, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 데이터(902)를 구성하는 이미지 프레임들 사이의 시간을 제2 영상 데이터(902)를 획득하는 시간보다 상대적으로 길게 재생할 수 있다. 이에 따라, 제2 영상 데이터(902)의 재생 시간은 제2 영상 데이터(902)의 촬영 시간 보다 제2 시간 간격 만큼 길 수 있다. 즉, 영상 데이터(900)의 재생 시간은 영상 데이터(900)의 촬영 시간 보다 제3 시간 간격만큼 길 수 있다. 상기 제2 시간 간격과 상기 제3 시간 간격은 상기 제2 프레임 레이트와 재생 대상 프레임 레이트(912)의 차이에 의해 결정될 수 있으며, 구체적으로 상기 제2 프레임 레이트와 재생 대상 프레임 레이트(912)의 차이가 클 수록 상기 제2 시간 간격과 상기 제3 시간 간격은 커질 수 있다.
이에 따라, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 영상 데이터(901)의 재생 속도와 제2 영상 데이터(902)의 재생 속도를 달리하여 영상 데이터(900)를 재생할 수 있다. 상기 재생 속도는 상기 영상 데이터(900)를 구성하는 이미지 프레임들이 모두 재생되는 시간에 반비례 하는 값으로서, 영상 데이터(900)를 구성하는 이미지 프레임들이 모두 재생되는 시간이 단축될 수록 상기 재생 속도는 증가될 수 있다. 한편, 영상 데이터(900)의 재생 속도는 프레임 레이트(911)와 재생 대상 프레임 레이트(912)의 차이에 따라 결정될 수 있다. 예를 들어, 상기 영상 데이터(900)의 프레임 레이트(911)가 제2 프레임 레이트고 재생 대상 프레임 레이트(912)가 제1 프레임 레이트인 경우, 상기 영상 데이터(900)의 재생 속도는
Figure 112018019206102-pat00001
(여기서, n은 상수)로 결정될 수 있다. 한편, 상기 제2 영상 데이터(902)의 재생 속도는 상기 제1 영상 데이터(901)의 재생 속도의 배수로 표현될 수 있다. 예를 들어, 상기 제2 영상 데이터(902)의 재생 속도는
Figure 112018019206102-pat00002
로 결정될 수 있다. 구체적인 예를 들어, 상기 제1 영상 데이터(901)의 프레임 레이트(911)는 30fps이고, 제2 영상 데이터(902)의 프레임 레이트(911)는 960fps이며, 재생 대상 프레임 레이트(912)는 30fps인 경우, 제2 영상 데이터(902)의 재생 속도는 제1 영상 데이터(901)의 재생 속도의 1/12배의 재생 속도일 수 있다. 상술한 제1 영상 데이터(901)의 재생 속도는 노말 재생 속도로 정의되며, 상기 제2 영상 데이터(902)의 재생 속도는 슬로우 모션 재생 속도로 정의될 수 있다. 한편, 상술한 바와 같이 제2 영상 데이터(902)의 재생 속도가 제1 영상 데이터(901)의 재생 속도의 1/12배의 재생 속도로 결정되는 경우, 제1 영상 데이터(901)와 시각적으로 현저하게 차이나는 재생 속도에 기인하여 상기 제2 영상 데이터(902)의 재생 속도는 슈퍼 슬로우 모션 재생 속도로 정의될 수 있다.
상술한 바와 같이, 제2 영상 데이터(902)의 재생 화면(701)이 제1 영상 데이터(901)의 재생 화면(701) 보다 느린 재생 속도로 재생 됨에 따라, 시각적으로 동적인 영상 데이터(900)의 재생 화면(701)이 사용자에게 제공될 수 있다.
한편, 상술한 601 내지 604 동작은, 상술한 바에 국한되지 않는 순서로 수행될 수 있다. 예를 들어, 603 동작의 순서가 604 동작의 순서 보다 빠른 순서로 기재되어 있으나 이에 국한되지 않고, 604 동작이 603 동작 보다 더 먼저 수행될 수도 있다. 또는, 상술한 바에 국한되지 않고, 상술한 601 동작 내지 604 동작 보다 많은 동작이 수행되거나 더 적은 동작이 수행될 수도 있다.
한편, 위의 기재에서 제1 프레임 레이트와 제2 프레임 레이트는 서로 다른 프레임 레이트인 것으로 설명하였으나, 상기 제1 프레임 레이트와 상기 제2 프레임 레이트는 서로 같은 프레임 레이트로 결정될 수도 있다. 이 경우, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 영상 데이터(901)의 재생 대상 프레임 레이트를 제2 영상 데이터(902)의 재생 대상 프레임 레이트 보다 높게 설정 하여, 제1 영상 데이터(901)의 재생 화면(701)이 제2 영상 데이터(902)의 재생 화면(701) 보다 시각적으로 빠르게 변화되도록 할 수 있다. 달리 말해, 상기 전자 장치는 제2 영상 데이터(902)의 재생 화면(701)을 제1 영상 데이터(901)의 재생 화면(701) 보다 느린 재생 속도로 재생하기 위하여, 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)를 상기 제2 영상 데이터(902)의 재생 프레임 레이트(911) 보다 높게 설정할 수 있다. 이는 상술한 재생 대상 프레임 레이트(912)와 재생 속도의 관계에 기인할 수 있다.
한편, 위의 기재에서 제1 영상 데이터(901)와 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)가 서로 대응되게 설정되는 것으로 설명하였으나, 상기 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)와 상기 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)는 서로 다르게 설정될 수 있다. 이 경우, 상기 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)는 제1 재생 대상 프레임 레이트(912)로 설정되고, 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)는 제2 재생 대상 프레임 레이트(912)로 설정되며, 프레임 레이트(911)들 간의 대소 관계는 아래의 대소 관계와 같이 설정될 수 있다.
Figure 112018019206102-pat00003
이에 따라, 제1 영상 데이터(901)의 재생 화면(701)이 제2 영상 데이터(902)의 재생 화면(701) 보다 시각적으로 빠르게 변화되도록 할 수 있다. 달리 말해, 제2 영상 데이터(902)의 재생 화면(701)은 제1 영상 데이터(901)의 재생 화면(701) 보다 느리게 재생될 수 있다.
이하에서는, 설명을 용이하게 하기 위하여 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)와 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)는 제1 프레임 레이트로 설정되는 것으로 설명한다. 그러나, 상술한 바와 같이 이하의 설명은 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)와 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)가 제1 프레임 레이트로 설정되는 것에 국한되지 않을 수 있다.
이하에서는, 상기 영상 데이터(900)의 재생 화면(701)의 표시 중에, 상기 전자 장치가 영상 데이터(900)의 편집을 위한 소정의 인터페이스를 제공하는 동작에 대해서 설명한다.
도 10은 다양한 실시예에 따른 영상 데이터(900)의 편집을 위한 소정의 인터페이스를 제공하는 동작을 설명하기 위한 흐름도이다.
도 11은 다양한 실시예에 따른 전자 장치의 터치 스크린 상에 표시되는 프로그레스 바(702)와 대표 이미지 중 적어도 일부를 나타내는 도면이다.
도 12는 다양한 실시예에 따른 전자 장치의 터치 스크린 상에 표시되는 프로그레스 바(702)와 대표 이미지 중 적어도 일부를 구체적으로 도시하는 도면이다.
도 13은 다양한 실시예에 따른 영상 데이터(900)의 재생에 따라 변화되는 프로그레스 바(702)의 인디케이터(1240)와 대표 이미지(703) 중 적어도 일부를 나타내는 도면이다.
도 10 내지 도 13을 참조하면, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 소정의 영상 데이터(900)의 재생 화면(701)의 표시 중에, 영상 데이터(900)의 제어를 위한 소정의 인터페이스를 터치스크린 상에 표시할 수 있다.
1001 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 획득된 영상 데이터(900)의 재생 요청에 대한 응답으로, 영상 데이터(900)의 재생 화면(701)을 터치 스크린 상에 표시할 수 있다.
1002 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)의 제어를 위한 인터페이스의 요청에 대한 응답으로, 영상 데이터(900)의 제어를 위한 인터페이스를 터치스크린 상에 표시할 수 있다. 상기 영상 데이터(900)의 제어를 위한 인터페이스는 적어도 하나 이상의 아이콘, 프로그레스 바(702), 및 적어도 하나 이상의 대표 이미지(703)를 포함할 수 있다.
에를 들어, 상기 영상 데이터(900)의 제어를 위한 인터페이스의 요청은 도 11에 도시된 바와 같이 상기 전자 장치가 영상 데이터(900)의 재생 화면(701)이 표시되는 터치 스크린 상의 일부 영역에 대한 터치를 감지하는 것일 수 있다. 구체적인 예를 들어, 상기 일부 영역은 터치 스크린 중 상기 전자 장치의 가장 자리에 인접한 영역일 수 있다.
예를 들어, 상기 적어도 하나 이상의 아이콘은 도 11에 도시된 바와 같이 제1 아이콘 내지 제6 아이콘을 포함할 수 있다. 상기 제1 아이콘(1101)은 재생 화면(701)이 표시되는 영상 데이터(900)의 공유 기능을 제공하는 아이콘일 수 있다. 상기 제2 아이콘(1102)은 재생 화면(701)이 편집된 영상 데이터(900)의 저장 기능을 제공하는 아이콘일 수 있다. 상기 제3 아이콘(1103)은 영상 데이터(900)의 재생과 재생 정지 기능을 제공하는 아이콘일 수 있다. 상기 제4 아이콘(1104)은 영상 데이터(900)의 슈퍼 슬로우 모드 재생 요청 기능을 제공하는 아이콘 일 수 있다. 상기 제5 아이콘(1105)은 영상 데이터(900)의 트림(trim) 기능을 제공하는 아이콘 일 수 있다. 상기 제6 아이콘(1106)은 영상 데이터(900)의 음원 부가 기능을 제공하는 아이콘 일 수 있다. 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상술한 각각의 아이콘을 통한 기능의 요청에 대한 응답으로, 해당 기능을 제공할 수 있다.
이하에서는, 상기 1002 동작에서 터치 스크린 상에 표시되는 프로그레스 바(702)와 대표 이미지(703)에 대해서 도 12를 참조하여 구체적으로 설명한다.
먼저, 프로그레스 바(702)에 대해서 설명한다.
도 12에 도시된 바와 같이 다양한 실시예에 따른 상기 프로그레스 바(702)는 영상 데이터(900)의 전체 영상 구간을 나타낼 수 있다. 구체적으로, 상기 프로그레스 바(702)는 영상 데이터(900)의 전체 영상 구간을 나타낼 수 있다. 상기 영상 데이터(900)의 전체 영상 구간은 적어도 하나 이상의 제1 영상 데이터(901)에 대응하는 제1 영상 구간(701)과 적어도 하나 이상의 제2 영상 데이터(902)에 대응하는 제2 영상 구간(702)을 포함할 수 있다.
구체적으로 상기 각각의 영상 구간들은 상기 각각의 영상 구간들에 대응되는 재생 영상 데이터(900)의 재생 시간에 대응될 수 있다. 예를 들어 도 12에 도시된 바와 같이 상기 영상 데이터(900)의 전체 영상 구간은 영상 데이터(900)가 재생되는 시간 구간에 대응되고, 상기 제1 영상 구간(701)은 상기 제1 영상 데이터(901)가 재생되는 시간 구간에 대응되고, 상기 제2 영상 구간(702)은 상기 제2 영상 데이터(902)가 재생되는 시간 구간에 대응될 수 있다. 달리 말해, 상기 전체 영상 구간은, 상기 영상 데이터(900)의 재생 화면(701)이 표시되는 전체 시간에 대응되고, 상기 제1 영상 구간(701)은 상기 제1 영상 데이터(901)의 재생 화면(701)이 표시되는 시간에 대응되고, 상기 제2 영상 구간(702)은 상기 제2 영상 데이터(902)의 재생 화면(701)이 표시되는 시간에 대응될 수 있다. 한편, 상기 제2 영상 구간(702)은 제2 영상 데이터(902)를 구성하는 이미지 프레임들 사이의 시간이 연장되어 재생되는 구간이기 때문에, 슈퍼 슬로우 구간으로 명명될 수도 있다.
한편, 상기 프로그레스 바(702)의 인접한 영역에는 영상 데이터의 총 재생 시간과 재생 시점이 기록될 수 있다. 상기 총 재생 시간은 제1 영상 데이터의 재생 시간과 제2 영상 데이터의 재생 시간의 총합으로 계산될 수 있다. 한편, 상기 재생 시간은 제2 영상 데이터의 재생 모드의 결정에 따라 변경될 수 있는데 이에 대해서는 구체적으로 후술한다.
도 12에 도시된 바와 같이 다양한 실시 예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 프로그레스 바(702)의 제1 영상 구간(701)의 형태와 제2 영상 구간(702)의 형태를 서로 다르게 표시할 수 있다. 예를 들어, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 영상 구간(701)의 형태는 실선 형태로 표시하고, 제2 영상 구간(702)의 형태는 점선 형태로 표시할 수 있다. 상기 기재에 국한되지 않고, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 영상 구간(701)의 형태와 제2 영상 구간(702)의 형태가 다르게 표시된다면, 시각적으로 어떠한 형태로든 제1 영상 구간(701)의 형태와 제2 영상 구간(702)의 형태를 표시할 수 있다. 예를 들어, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 영상 구간(701)의 색상과 과 제2 영상 구간(702)의 색상을 다르게 표시할 수도 있다.
위와 같이, 제1 영상 구간(701)과 제2 영상 구간(702)을 시각적으로 다르게 표시함으로써, 사용자의 고속 영상의 활용도를 향상시킬 수 있다. 상기 전자 장치에 의해 획득되는 제2 영상 데이터(902)가 사용자에게 시각적으로 표시되기 때문에, 사용자는 상기 전자 장치에 의해 획득되는 제2 영상 데이터(902)가 재생되는 구간을 확인할 수 있게 되고, 확인된 제2 영상 데이터(902)를 제어할 수 있게 되어, 사용자의 고속 영상의 활용도가 향상될 수 있다.
또한, 도 12에 도시된 바와 같이 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 프로그레스 바(702) 상에 영상 데이터(900)의 재생 시점(1301)을 지시하는 인디케이터(1240)를 터치스크린 상에 표시할 수 있다.
이하에서는, 대표 이미지(703)에 대해서 설명한다.
도 12에 도시된 바와 같이, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 적어도 하나 이상의 제2 영상 데이터(902)의 각각에 대응하는 대표 이미지 중 적어도 일부를 터치스크린 상에 표시할 수 있다. 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 이미지 데이터를 구성하는 이미지 프레임들 중 적어도 하나(1230)를 대표 이미지(703)로 생성할 수 있다. 상기 전자 장치(101)는 선택된 이미지 프레임(1230)의 시각적 데이터를 가공하거나, 또는 변경하여 대표 이미지를 생성할 수 있다. 상기 시각적 데이터는 사이즈, 해상도, 및 픽셀값 중 적어도 하나를 포함할 수 있다. 다시 말해서, 상기 대표 이미지는 상기 제2 영상 데이터에 포함된 이미지 프레임(1230)의 사이즈, 해상도, 및 픽셀값 중 적어도 하나가 변경 되어 생성된 이미지일 수 있다. 구체적인 예를 들어, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 이미지 프레임들 중 적어도 하나를 섬네일로 생성하여, 상기 섬네일을 터치스크린 상에 표시할 수 있다. 즉, 상기 제2 영상 데이터(902)에 대표 이미지(703)가 대응한다는 의미는, 제2 영상 데이터가 가공된다는 의미로 해석될 수도 있다. 예를 들어, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 대표 이미지(703)에 기초하여, 상기 대표 이미지(703)의 해상도와 다른 해상도를 가지는 이미지를 생성하고, 생성된 이미지를 터치스크린 상에 표시하는 것일 수 있다.
또한, 전자 장치(101)는 대표 이미지(703) 중 적어도 일부를 표시할 수 있다. 상기 전자 장치에는 대표 이미지(703) 중 터치 스크린 상에 표시될 수 있는 최대 갯수가 기설정되어 있을 수 있다. 상기 기설정된 갯수는 20개일 수 있으나, 개수에는 제한이 없다. 달리 말해서, 전자 장치(101)는 생성된 대표 이미지(703) 모두를 터치 스크린 상에 표시할 수 있으나, 또는 대표 이미지(703) 중 일부를 터치 스크린 상에 표시할 수도 있다. 이는, 전자 장치가 대표 이미지(703) 중 적어도 일부를 터치스크린 상에 표시하는 것을 의미할 수 있다.
이에 따라, 영상 데이터(900)의 재생 화면(701)이 재1 영상 데이터(900)의 재생 화면(701)인 경우에도, 상기 터치 스크린 상에 표시되는 대표 이미지(703) 중 적어도 일부를 통해 상기 대표 이미지(703) 중 적어도 일부에 대응되는 제2 영상 데이터(902)의 재생 화면(701)이 터치스크린 상에 표시될 수 있다.
한편, 상기 전자 장치에 표시되는 대표 이미지(703) 중 적어도 일부는 사용자에 의해 슬라이딩 될 수 있다. 상기 대표 이미지(703) 중 적어도 일부가 슬라이딩 됨에 따라, 터치스크린 상에 표시될 수 있으나, 슬라이딩 이전에 터치 스크린 상에 미표시되던 대표 이미지(703) 중 적어도 일부가 슬라이딩에 따라 상기 터치스크린 상에 표시될 수 있다.
다양한 실시예에 따르면, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 프로그레스 바(702)가 표시되는 위치에 인접하게 상기 대표 이미지(703) 중 적어도 일부를 표시할 수 있다. 예를 들어, 도 12에 도시된 바와 같이 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 프로그레스가 표시되는 위치와 전자 장치의 가장 자리의 사이의 위치에 상기 대표 이미지(703) 중 적어도 일부를 표시할 수 있다.
다양한 실시예에 따르면, 상기 터치스크린 상에 표시되는 대표 이미지(703) 중 적어도 일부는 토글과 표시문자를 포함할 수 있다. 상기 토글에 기초하여 상기 대표 이미지(703)에 대응되는 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)가 변경될 수 있는데 이에 대해서는 구체적으로 후술한다. 상기 표시 문자는 상기 대표 이미지(703) 중 적어도 일부에 대응되는 제2 영상 구간(702)의 시작 시점을 나타내는 시각을 나타낼 수 있다.
1003 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)의 재생 시점(1301)에 따라, 프로그레스 바(702) 상의 인디케이터(1240)를 표시할 수 있다. 도 13에 도시된 바와 같이, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)가 재생됨에 따라 변경되는 영상 데이터(900)의 재생 시점(1301)에 대응 하여, 프로그레스 바(702)상의 인디케이터(1240)를 이동시켜 표시할 수 있다.
1004 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)의 재생 시점(1301)이 제2 영상 구간(702)에 포함되는 경우, 상기 제2 영상 구간(702)에 대응 되는 대표 이미지(703) 중 적어도 일부를 하이라이트하여 표시할 수 있다. 예를 들어, 도 13에 도시된 바와 같이, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)의 재생 화면(701)이 제2 영상 데이터(902)의 재생 화면(701)인 경우, 상기 제2 영상 구간(702)에 대응되는 대표 이미지(703) 중 적어도 일부의 외곽을 다른 대표 이미지(703) 중 적어도 일부와 다르게 하이라이트할 수 있다. 상기 하이라이트는 상기 대표 이미지(703) 중 적어도 일부와 다른 대표 이미지(703) 중 적어도 일부를 시각적으로 다르게 표시하는 것이라면, 어떠한 형태에도 국한되지 않고 다양한 시각적 효과가 될 수 있다. 예를 들어, 도 13에 도시된 바와 같이 하이라이트 된 대표 이미지(703) 중 적어도 일부의 테두리는 다른 대표 이미지(703) 중 적어도 일부의 테두리와 다른 두께를 가지며, 다른 색상을 가지도록 설정될 수 있다.
한편, 상술한 1001 내지 1004 동작은, 상술한 바에 국한되지 않는 순서로 수행될 수 있다. 또는, 상술한 바에 국한되지 않고, 상술한 1001 동작 내지 1004 동작 보다 많은 동작이 수행되거나 더 적은 동작이 수행될 수도 있다.
한편, 프로그레스 바(702) 또는 대표 이미지(703)가 선택되는 경우, 이에 대한 응답으로 영상 데이터(900)의 재생 화면(701), 프로그레스 바(702)의 인디케이터(1240)의 위치, 및 섬네일의 하이라이트가 변경될 수 있다.
도 14는 다양한 실시예에 따른 대표 이미지(703)의 터치에 따라 변경되는 영상 데이터(900)의 재생 화면(701)과 프로그레스 바(702)의 인디케이터(1240)를 나타내는 도면이다.
도 14를 참조하면, 다양한 실시예에 따르면 대표 이미지(703) 중 적어도 일부가 터치 되는 경우, 상기 터치된 대표 이미지(703) 중 적어도 일부에 대응되는 제2 영상 데이터(902)의 재생 화면(701)이 터치스크린 상에 표시되고, 인디케이터(1240)는 상기 대표 이미지(703) 중 적어도 일부에 대응되는 제2 영상 구간(702) 상에 표시될 수 있다. 일 예로, 상기 터치된 대표 이미지(703) 중 적어도 일부에 대응되는 제2 영상 데이터(902)의 첫 시점의 재생 화면(701)이 표시되고, 제2 영상 구간(702)의 시작 지점에 인디케이터(1240)가 표시될 수 있다. 이에 따라, 사용자는 대표 이미지를 터치함으로써, 원하는 수퍼 슬로우 영상 구간을 시청할 수 있다.
또는, 다양한 실시예에 따르면 제2 영상 구간(702)이 터치 되는 경우, 상기 터치된 제2 영상 구간(702)에 대응하는 대표 이미지(703) 중 적어도 일부가 터치스크린 상에 표시되고, 인디케이터(1240)는 상기 제2 영상 구간(702) 상에 표시될 수 있다.
위와 같이, 대표 이미지(703) 중 적어도 일부의 터치에 따라 상기 터치된 대표 이미지(703) 중 적어도 일부에 대응되는 재생 화면(701)이 표시되고, 인디케이터(1240)가 표시됨으로써, 사용자의 고속 영상의 활용도가 향상될 수 있다. 대표 이미지(703) 중 적어도 일부를 통해 사용자가 용이하게 제2 영상 구간(702) 선택할 수 있게 됨으로써, 사용자의 고속 영상의 활용도가 향상될 수 있다.
이하에서는, 대표 이미지(703) 중 적어도 일부에 포함된 토글(1600)을 통한 슈퍼 슬로우 구간의 제어에 대해서 설명한다.
도 15는 다양한 실시예에 따른 토글(1600)을 통한 슈퍼 슬로우 구간의 제어를 설명하기 위한 흐름도이다.
도 16과 도 17은 다양한 실시예에 따른 대표 이미지(703) 중 적어도 일부에 포함된 토글(1600)과 토글(1600)을 통한 슈퍼 슬로우 구간의 제어를 나타내는 도면이다.
도 15 내지 도 17을 참조하면, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 대표 이미지(703) 중 적어도 일부에 포함된 토글(1600)을 통한 제2 영상 데이터(902)의 모드 변경 요청에 대한 응답으로, 제2 영상 데이터(902)의 재생 모드를 결정할 수 있다. 상기 모드는 일반 재생 모드 및 슬로우 모션 재생 모드를 포함할 수 있다. 상기 재생 모드의 결정에 따라, 제2 영상 데이터(902)의 재생되는 이미지 프레임이 결정될 수 있다. 달리 말해, 상기 모드의 결정에 따라 제2 영상 데이터(902)의 재생 속도가 결정될 수 있다. 이에 대해서는 구체적으로 후술한다.
1501 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 적어도 하나 이상의 대표 이미지(703) 중 적어도 일부에 토글(1600)을 표시할 수 있다. 도 16에 도시된 바와 같이, 상기 토글(1600, toggle)은 토글 버튼(1601)을 포함할 수 있다. 상기 토글(1600)은 제1 위치(1701)에서 제2 위치(1702)로 이동되거나 제2 위치(1702)에서 제1 위치(1701)로 이동되는 토글 버튼(1601)을 포함하는 토글일 수 있고, 이러한 토글(1600)은 슬라이딩 토글(1600)로 정의될 수 있다. 또는, 상기 토글(1600)은 토글 버튼(1601)이 표시되거나 미표시되는 형태의 토글일 수 있고, 이러한 토글(1600)은 블링크 토글(1600)로 정의될 수 있다.
1502 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 대표 이미지(703) 중 적어도 일부에 표시된 토글(1600)에 대한 상호 작용을 수신할 수 있다. 즉, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 토글(1600)에 대한 상호 작용을 수신하여, 제2 영상 데이터(902)의 모드 변경 요청을 획득할 수 있다. 도 16에 도시된 바와 같이, 예를 들어 상기 토글(1600)에 대한 상호 작용을 수신하는 것은 토글(1600) 내지는 토글 버튼(1601)에 대한 터치를 감지하는 것일 수 이다.
1503 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 토글(1600)에 대한 상호 작용에 대한 응답으로, 토글(1600)의 형상을 변경할 수 있다. 예를 들어, 도 16에 도시된 바와 같이, 상기 토글(1600)이 슬라이딩 토글(1600)로 구현되는 경우, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 토글 버튼(1601)의 위치를 제1 위치(1701)에서 제2 위치(1702)로 이동시키거나, 제2 위치(1702)에서 제1 위치(1701)로 이동 시킬 수 있다. 또는, 도 16에 도시된 바와 같이, 상기 토글(1600)이 블링크 토글(1600)로 구현되는 경우, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 토글 버튼(1601)을 표시하거나, 미표시할 수 있다.
1504 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 토글(1600)에 대한 상호 작용에 대한 응답으로, 제2 영상 데이터(902)의 재생 모드를 결정할 수 있다. 달리 말해, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 토글(1600)의 형상의 변경에 대한 응답으로, 제2 영상 데이터(902)의 모드를 결정할 수 있다. 예를 들어, 도 17에 도시된 바와 같이, 상기 토글(1600)이 슬라이딩 토글(1600)로 구현되는 경우, 토글 버튼(1601)이 제1 위치(1701)에 위치되는 경우 제2 영상 데이터(902)의 모드는 노말 재생 모드로 결정되고, 토글 버튼(1601)이 제2 위치(1702)에 위치되는 경우 제2 영상 데이터(902)의 모드는 슬로우 모션 재생 모드로 결정될 수 있다. 또는, 상기 토글(1600)이 블링크 토글(1600)로 구현되는 경우, 토글 버튼(1601)이 표시되는 경우 제2 영상 데이터(902)의 모드는 노말 재생 모드로 결정되고, 토글 버튼(1601)이 미 표시되는 경우 제2 영상 데이터(902)의 모드는 슬로우 모션 재생 모드로 결정될 수 있다. 또는, 상기 기재에 국한되지 않고, 상기 기재의 반대로 상기 토글(1600)의 형상에 대응되는 모드가 결정될 수 있다. 예를 들어, 토글 버튼(1601)이 제1 위치(1701)에 위치되는 경우 제2 영상 데이터(902)의 모드는 슬로우 모션 재생 모드로 결정되고, 토글 버튼(1601)이 제2 위치(1702)에 위치되는 경우 제2 영상 데이터(902)의 모드는 노말 재생 모드로 결정될 수 있다.
이하에서는, 각각의 제2 영상 데이터(902)에 따른 제2 영상 데이터(902)의 재생에 대해서 구체적으로 설명한다.
상기 제2 영상 데이터(902)가 노말 재생 모드로 결정되는 경우, 상기 제2 영상 데이터(902)의 재생 속도는 제1 영상 구간(701)의 제1 영상 데이터(901)의 재생 속도와 서로 동일하게 결정될 수 있다. 달리 말해, 상기 제2 영상 데이터(902)의 재생 속도는 노말 재생 속도로 결정될 수 있다. 이를 위해, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 도 17에 도시된 바와 같이 제2 영상 데이터(902)의 이미지 프레임 중 일부 이미지 프레임만을 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)에 따라 재생할 수 있다. 구체적으로, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 데이터(902)를 구성하는 복수의 이미지 프레임들 중 일부의 이미지 프레임들을 재생하지 않고, 나머지 이미지 프레임들을 재생할 수 있다. 더욱 상세하게, 전자 장치(101)는, 제2 영상 데이터(902)의 획득 시간과 동일한 시간동안 제2 영상 데이터(902)를 재생하도록, 제2 영상 데이터(902)의 전체 이미지 프레임이 아닌 일부 이미지 프레임만을 재생할 수 있다. 이에 따라, 제2 영상 데이터(902)는, 슬로우 모션 모드가 아닌 일반 재생모드로 재생될 수 있다. 다양한 실시예에서, 제2 영상 데이터(902)의 재생 대상 이미지 프레임은 등 시간 간격으로 결정될 수 있다. 한편 상술한 바와 같이, 상기 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)는 제1 프레임 레이트로 결정될 수 있으며, 상기 제1 프레임 레이트는 일 예로 30fps일 수 있다.
또는, 상기 기재에 국한되지 않고, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 제2 영상 데이터(902)를 획득한 제2 프레임 레이트에 따라 재생 대상 프레임 레이트(912)를 결정함으로써, 시각적으로 제1 영상 데이터(901)와 같은 속도로 제2 영상 데이터(902)를 재생할 수 있다.
또는, 상기 제2 영상 데이터(902)의 모드가 슬로우 모션 모드로 결정되는 경우, 상기 제2 영상 데이터(902)의 재생 속도는 제1 영상 구간(701)의 제1 영상 데이터(901)의 재생 속도 보다 느린 재생 속도로 결정될 수 있다. 달리 말해, 상기 제2 영상 데이터(902)가 슬로우 모션 모드로 결정되는 경우, 제2 영상 데이터(902)의 재생 속도는 슬로우 모션 재생 속도로 결정될 수 있다. 이를 위해, 상술한 바와 같이 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 데이터(902)를 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)에 대응되는 재생 대상 프레임 레이트(912)로 재생할 수 있다. 즉, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 데이터(902)를 구성하는 이미지 프레임들 사이의 시간을 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)에 대응되는 시간 만큼 연장하여, 상기 제2 영상 데이터(902)를 재생할 수 있다. 상술한 바와 같이, 상기 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)는 제1 프레임 레이트로 결정될 수 있다. 상기 제1 프레임 레이트는 일 예로 30fps일 수 있다. 그러나, 상술한 바와 같이 제1 프레임 레이트, 제2 프레임 레이트, 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912), 및 제2 영상 데이터(902)의 재생 대상 프레임 레이트(912)는 다양한 값으로 설정될 수 있다.
한편, 상기 터치스크린 상에 최로로 표시되는 토글(1600)의 형상은 기설정될 수 있다. 예를 들어, 상기 터치 스크린 상에 최초로 표시되는 토글(1600)의 형상은 제2 영상 데이터(902)의 모드에 기초하여 기설정될 수 있다. 구체적으로, 상기 제2 영상 데이터(902)의 모드는 영상 데이터의 생성시 슬로우 모션 재생 모드로 기설정되기 때문에, 이에 따른 토글(1600)의 형상이 기설정될 수 있다. 예를 들어, 상기 토글(1600)이 슬라이딩 토글(1600)로 구현되는 경우, 터치스크린 상에 최초로 표시되는 토글 버튼(1601)의 위치는 제1 위치(1701)가 될 수 있다. 또는, 상기 토글(1600)이 블링크 토글(1600)로 구현되는 경우, 상기 터치스크린 상에 최초로 표시되는 토글(1600)의 토글 버튼(1601)은 기 표시되어 있을 수 있다. 또는, 상기 기재에 국한되지 않고 상기 제2 영상 데이터(902)의 모드가 노말 재생 모드로 기설정되는 경우, 슬라이딩 토글의 토글 버튼은 제2 위치(1702)로 기설정될 수 있고, 블링크 토글의 버튼은 미 표시되는 것으로 기설정될 수 있다.
1505 동작에서, 제2 영상 데이터(902)의 재생 모드 변경에 대한 응답으로, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 구간(702)의 형상을 변경할 수 있다. 예를 들어, 상기 제2 영상 데이터(902)가 노말 재생 모드로 설정되는 경우 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 제2 영상 구간(702)의 형상을 상기 제1 영상 구간(701)의 형상과 동일한 형상으로 표시할 수 있다. 예를 들어, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 제2 영상 구간(702)의 형상을 제1 영상 구간(701)의 형상과 같은 실선 형태로 표시할 수 있다. 또는 상기 기재에 국한되지 않고, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 구간(702)의 형상을 변경하되, 상기 제1 영상 구간(701)의 형상과는 다르게 표시할 수도 있다. 또는, 상기 제2 영상 데이터가 슬로우 모션 모드로 설정되는 경우 전자 장치는 상기 제2 영상 구간의 형상을 제1 영상 구간의 형상과 다른 형상으로 표시할 수 있다. 예를 들어, 상술한 바와 같이 전자 장치는 제2 영상 구간(702)의 형상을 제1 영상 구간의 형상인 실선 형태와 다른 점선 형태로 표시할 수 있다.
한편, 상술한 제2 영상 데이터(902)의 재생 모드 결정에 따라, 프로그레스 바(702)의 인접한 영역에 표시되는 영상 데이터(900)의 재생 시간이 변경될 수 있다. 예를 들어, 영상 데이터(900)는, 영상 데이터(900)에 포함된 제2 영상 데이터(902) 중 재생 모드가 노말 모드로 선택되는 제2 영상 데이터(902)가 많아지는 경우 프로그레스 바의 인접한 영역에 표시되는 영상 데이터의 재생 시간은 가까운 재생 시간으로 표시되고, 영상 데이터(900)에 포함된 제2 영상 데이터(902) 중 재생 모드가 슬로우 모션 재생 모드로 선택되는 제2 영상 데이터(902)가 많아지는 경우 영상 데이터(900)의 촬영 시간 보다 더 긴 재생 시간으로 표시될 수 있다.
상술한 동작에 따라, 제2 영상 데이터(902)의 재생 속도가 결정된 영상 데이터(900)는, 상술한 바와 같이 저장 기능 또는 공유 기능을 제공하는 아이콘에 따라 저장되거나, 또는 공유될 수 있다. 또한, 상술한 제2 영상 데이터(902)의 재생 모드 결정에 따라, 저장되는 영상 데이터의 재생 시간이 결정될 수 있다. 예를 들어, 영상 데이터(900)는, 영상 데이터(900)에 포함된 제2 영상 데이터(902) 중 재생 모드가 노말 모드로 선택되는 제2 영상 데이터(902)가 많아지는 경우 영상데이터(900)의 촬영 시간에 가까운 재생 시간을 가지고, 영상 데이터(900)에 포함된 제2 영상 데이터(902) 중 재생 모드가 슬로우 모션 재생 모드로 선택되는 제2 영상 데이터(902)가 많아지는 경우 영상 데이터(900)의 촬영 시간 보다 더 긴 재생 시간을 가질 수 있다.
상술한 바와 같이, 대표 이미지(703) 중 적어도 일부에 형성된 토글(1600)을 통해 영상 데이터(900)의 제2 영상 데이터(902)의 재생 속도를 제어함으로써, 사용자의 고속 영상의 편집 용이성이 향상될 수 있다. 상기 토글(1600)은, 사용자로 하여금 번거로움 편집을 위한 전자 장치의 제어 없이도, 고속 영상에 대한 편집을 가능하게 함으로써, 사용자의 고속 영상의 편집 용이성을 향상시킬 수 있다.
한편, 상술한 1501 내지 1505 동작은, 상술한 바에 국한되지 않는 순서로 수행될 수 있다. 예를 들어, 1504 동작의 순서가 1505 동작의 순서 보다 빠른 순서로 기재되어 있으나 이에 국한되지 않고, 1505 동작이 1504 동작 보다 더 먼저 수행될 수도 있다. 또는, 상술한 바에 국한되지 않고, 상술한 1501 동작 내지 1505 동작 보다 많은 동작이 수행되거나 더 적은 동작이 수행될 수도 있다. 예를 들어, 다양한 실시예에 따르면 상기 1505 동작은 수행되지 않을 수도 있다.
이하에서는, 대표 이미지(703) 중 적어도 일부를 통한 제2 영상 데이터(902)에 대한 효과의 부가에 대해서 설명한다.
도 18은 다양한 실시예에 따른 대표 이미지(703) 중 적어도 일부를 통한 제2 영상 데이터(902)에 대한 효과의 부가를 설명하기 위한 흐름도이다.
도 19와 도 20은 다양한 실시예에 따른 대표 이미지(703) 중 적어도 일부를 통한 제2 영상 데이터(902)에 효과를 부가하기 위한 인터페이스의 제공을 나타내는 도면이다.
도 18 내지 도 20을 참조하면, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 데이터(902)의 재생 화면(701)이 표시되는 경우, 상기 대표 이미지(703) 중 적어도 일부에 대응되는 제2 영상 데이터(902)에 소정의 효과를 부가하기 위한 소정의 인터페이스를 터치 스크린 상에 표시할 수 있다.
1801 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 데이터(902)의 재생 화면(701)이 표시되는 경우, 제2 영상 데이터(902)의 편집을 위한 인터페이스를 표시할 수 있다. 달리 말해, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)의 재생 시점(1301)이 제2 영상 구간(702)에 포함되는 경우, 상기 제2 영상 데이터(902)의 편집을 위한 인터페이스를 표시할 수 있다. 도 19에 도시된 바와 같이, 제2 영상 데이터(902)의 재생 화면(701)이 표시되는 것은, 상기 제2 영상 구간(702)에 대응하는 대표 이미지(703) 중 적어도 일부에 대한 터치에 대한 응답으로 표시되는 것일 수 있다. 또는, 상기 기재에 국한되지 않고, 상기 제2 영상 데이터(902)의 재생 화면(701)이 표시되는 것은, 상기 제2 영상 구간(702)의 터치에 대한 응답으로 표시되는 것일 수 있다.
다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는, 상기 제2 영상 데이터(902)에 부여할 수 있는 소정의 효과로서, 제2 영상 데이터(902)의 시각적인 편집 효과 또는 청각적인 편집 효과를 제공할 수 있다. 즉, 상기 제2 영상 데이터(902)의 편집을 위한 인터페이스는 시각적 편집 기능과 청각적 편집 기능을 제공할 수 있다. 상기 시각적 편집 기능은 줌 기능, 색상 변경 기능, 이미지 추가 기능 등을 포함할 수 있다. 예를 들어, 상기 줌 기능이 선택되는 경우, ROI가 줌인(zoom-in)된 제2 영상 데이터(902)로 가공되어, 제2 영상 구간(702)에서 ROI가 줌인된 제2 영상 데이터(902)의 재생 화면(701)이 표시될 수 있다. 상기 청각적 편집 기능은 음소거 기능, 음원 추가 기능 등을 포함할 수 있다.
한편, 상기 인터페이스는 다양한 형태로 구현될 수 있다. 도 19에 도시된 바와 같이, 상기 인터페이스는 터치 스크린 상에 시각적 효과와 청각적 효과 중 적어도 하나를 선택하기 위한 키를 먼저 표시하고, 표시된 키가 선택되는 경우 선택된 키에 대한 응답으로 해당 효과와 관련된 다양한 효과를 제2 영상 데이터(902)에 부여하기 위한 키를 제공하는 인터페이스로 구현될 수 있다. 또는, 도 20에 도시된 바와 같이, 상기 인터페이스는 터치 스크린 상에 청각적 효과를 제공하는 키들 만을 표시하는 인터페이스로 구현될 수 있다. 이때, 상기 인터페이스는 제1 키 내지 제3 키를 포함할 수 있다. 제1 키(2001)는 음소거 기능을 제공할 수 있다. 예를 들어, 상기 제1 키(2001)가 선택되는 경우, 제2 영상 데이터(902)의 소리가 뮤트(mute)될 수 있다. 제2 키(2002)는 소정의 음원을 추가할 수 있는 기능을 제공할 수 있다. 상기 음원은 전자 장치에 기저장된 음원일 수 있고, 또는 전자 장치와 통신으로 연결된 다른 전자 장치로부터 제공 받은 음원일 수 있다. 상기 제2 키(2002)가 선택되고, 제2 영상 데이터(902)에 부여할 음원이 선택되는 경우, 상기 음원이 부여될 수 있다. 제3 키(2003)는 인터페이스 상에 기제공되는 음원을 추가하는 기능을 제공할 수 있다. 상기 제3 키(2003)가 선택되는 경우, 기제공되는 음원이 제2 영상 데이터(902)에 부여될 수 있다.
1802 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는, 상기 인터페이스를 통해 제공되는 키의 선택을 수신할 수 있다.
1803 동작에서, 다양한 실시예에 다른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는, 선택된 키에 의해 제공되는 효과를 제2 영상 데이터(902)에 부여할 수 있다.
상술한 동작에 따라, 효과가 부여된 영상 데이터(900)는, 상술한 바와 같이 저장 기능 또는 공유 기능을 제공하는 아이콘에 따라 저장되거나, 또는 공유될 수 있다.
한편, 상술한 1801 내지 1803 동작은, 상술한 바에 국한되지 않는 순서로 수행될 수 있다. 또는, 상술한 바에 국한되지 않고, 상술한 1801 동작 내지 1803 동작 보다 많은 동작이 수행되거나 더 적은 동작이 수행될 수도 있다.
이하에서는, 다양한 실시예에 따른 고속 영상의 트림 동작에 대해서 설명한다.
도 21은 다양한 실시예에 따른 고속 영상의 트림 동작을 설명하기 위한 흐름도이다.
도 22와 도 23은 다양한 실시예에 따른 고속 영상의 트림 동작을 나타내는 도면이다.
도 22와 도 23을 참조하면, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)의 트림 동작을 수행할 수 있다. 상기 트림 동작은 영상 데이터(900) 중 일부 영상 데이터(900)를 추출하거나, 일부 영상 데이터(900) 이외의 다른 영상 데이터(900)를 제거하여 생성된 트림 영상 데이터(900)를 획득하는 동작으로 정의될 수 있다. 결과적으로, 상기 트림 영상 데이터(900)는 영상 데이터(900) 증 일부 영상 데이터(900)를 포함할 수 있다.
2101 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)에 대한 트림 요청에 대한 응답으로, 영상을 트림하기 위한 인터페이스를 표시할 수 있다. 도 22에 도시된 바와 같이, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제4 아이콘에 대한 터치를 감지하여, 상기 터치에 대한 응답으로, 영상 데이터(900)를 편집하기 위한 트림 인터페이스를 터치스크린 상에 표시할 수 있다.
도 22를 참조하면, 상기 트림 인터페이스는 제1 트림바(2201), 제2 트림바(2202), 및 상기 제1 트림바(2201)와 상기 제2 트림바(2202) 사이에 표시되는 트림 이미지(2203)들로 구성될 수 있다. 상기 제1 트림바(2201)와 상기 제2 트림바(2202)는 상기 트림 이미지(2203)들 상에서 이동될 수 있으며, 상기 제1 트림바(2201)와 상기 제2 트림바(2202)의 위치에 따라 트림되는 이미지 데이터의 구간이 결정될 수 있다. 상기 트림 이미지(2203)는 영상 데이터(900)에 포함된 복수 개의 이미지 프레임들 중 적어도 일부의 이미지 프레임들에 대응되는 이미지일 수 있다. 달리 말해, 상기 트림 이미지(2203)는 상기 영상 데이터(900)를 구성하는 이미지들 중 선택된 일부의 이미지에 대응되는 이미지로서, 사용자가 영상 데이터(900)를 구성하는 이미지들을 시각적으로 시인하도록 할 수 있다. 상기 트림 이미지(2203)들이 표시되는 영역은 프로그레스 바(702)의 길이와 대응되도록 표시될 수 있다. 상기 트림 이미지(2203)들이 표시되는 영역의 지점은 상기 프로그레스 바(702)의 영상 구간에 대응될 수 있다.
2102 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 트림바(2201) 및 제2 트림바(2202) 중 적어도 하나의 위치에 대한 제어에 대한 응답으로 결정되는 제1 트림바(2201)와 제2 트림바(2202)의 위치를 확인할 수 있다. 상기 제1 트림바(2201) 및 상기 제2 트림바(2202)의 위치에 대한 제어는 도 22에 도시된 바와 같이, 제1 트림바(2201) 및 상기 제2 트림바(2202)에 대한 사용자의 터치에 기반하여 수행될 수 있다. 구체적으로, 상기 사용자에 의헤 터치된 제1 트림바(2201)가 소정의 위치로 드래그 되는 경우, 상기 제1 트림바(2201)는 상기 드래그된 소정의 위치로 이동될 수 있다.
2103 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 트림바(2201) 또는 제2 트림바(2202)의 위치가 제2 영상 데이터(902)에 대응하는 경우, 제2 영상 데이터(902)에 포함된 복수 개의 이미지 프레임들 중 일부에 대응되는 이미지(2301)를 트림 이미지(2203)를 대신하여 표시할 수 있다.
도 23에 도시된 바와 같이, 제1 트림바(2201) 및 제2 트림바(2202) 중 적어도 하나는 위치에 대한 제어에 따라, 제2 영상 데이터(902)에 대응되는 위치에 위치 할 수 있다. 구체적으로, 제1 트림바(2201) 및 제2 트림바(2202) 중 적어도 하나는, 제2 영상 구간(702)에 대응하는 트림 이미지(2203)들의 위치 상에 위치될 수 있다.
이 경우, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 제2 영상 구간(702)의 길이를 연장하며 다른 영상 구간의 길이는 축소하여 표시하고, 상기 제2 영상 데이터(902)를 구성하는 이미지 프레임들 중 적어도 일부의 이미지 프레임들에 기초하여 상기 트림 이미지(2203)를 대신하여 제2 영상 데이터(902)를 구성하는 이미지(2301)들을 표시할 수 있다. 이에 따라, 상기 트림 바는 상기 트림 이미지(2203)를 대신하여 표시되는 이미지(2301)들 상에 위치할 수 있게 되며, 트림되는 제2 영상 구간(702)이 세밀하게 제어될 수 있다.
2104 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제1 트림바(2201)와 제2 트림바(2202)의 위치에 대응하여, 영상 데이터(900)를 트림할 수 있다. 도 22에 도시된 바와 같이, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 제1 트림바(2201)와 상기 제2 트림바(2202) 사이의 구간에 대응되는 영상 데이터(900)의 영상 구간을 추출하거나, 또는 상기 영상 구간 이외의 영상 데이터(900)를 제외하여, 영상 데이터(900)를 트림할 수 있다. 달리 말해, 상기 제1 트림바(2201)의 위치와 상기 제2 트림바(2202)의 위치의 사이의 영상 데이터(900)가 추출될 수 있다.
2105 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)가 제거된 구간에 포함된 제2 영상 구간(702)에 대응하는 제2 영상 데이터(902)의 대표 이미지(703) 중 적어도 일부의 색상 값을 변경할 수 있다. 도 22에 도시된 바와 같이, 상기 전자장치는 상기 대표 이미지(703) 중 적어도 일부의 명도 값을 감소시키거나, 흑백 색상으로 표시할 수 있다.
상술한 동작에 따라, 트림된 영상 데이터(900)는, 상술한 바와 같이 저장 기능 또는 공유 기능을 제공하는 아이콘에 따라 저장되거나, 또는 공유될 수 있다.
한편, 상술한 2101 내지 2105 동작은, 상술한 바에 국한되지 않는 순서로 수행될 수 있다. 또는, 상술한 바에 국한되지 않고, 상술한 2101 동작 내지 2105 동작 보다 많은 동작이 수행되거나 더 적은 동작이 수행될 수도 있다. 예를 들어, 상기 2102 동작 내지 2103 동작은 수행되지 않을 수 있다.
이하에서는, 다양한 실시예에 따른 고속 영상의 공유 및 저장 동작에 대해서 설명한다.
도 24는 다양한 실시예에 따른 고속 영상의 공유 및 저장 동작을 설명하기 위한 흐름도이다.
도 25는 다양한 실시예에 따른 고속 영상의 공유 및 저장 동작을 나타내는 도면이다.
도 24와 도 25를 참조하면, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 대표 이미지(703) 중 적어도 일부를 통해 영상 데이터(900)에 대한 공유 기능을 제공하고, 영상 데이터(900)에 대한 저장 기능을 제공할 수 있다. 상기 공유되고 상기 저장되는 영상 데이터(900)는 제1 영상 데이터(901)와 제2 영상 데이터(902)를 포함할 수 있는데 이에 대해서는 구체적으로 후술한다.
2401 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 대표 이미지(703) 중 적어도 일부에 대한 터치가 감지되는 경우 기설정된 이상의 시간 동안 터치의 지속이 감지되는 경우, 도 25에 도시된 바와 같이 대표 이미지(703) 중 적어도 일부에 대응하는 제1 영상 데이터(901)의 공유를 위한 오브젝트 및 저장을 위한 오브젝트를 중 적어도 하나를 터치스크린 상에 표시할 수 있다.
2402 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 표시된 오브젝트들 중 적어도 하나에 대한 선택을 수신할 수 있다.
2403 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 오브젝트 선택에 대한 응답으로, 선택된 오브젝트에 대응하는 영상 데이터(900)를 편집할 수 있다. 구체적으로, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 선택된 오브젝트에 대응하는 제2 영상 구간(702)의 제2 영상 데이터(902), 상기 제2 영상 데이터(902)의 시작 시점으로부터 기설정된 제1 시간 전까지의 제1 영상 구간(701)의 제1 영상 데이터(901), 및 상기 제2 영상 데이터(902)의 종료 시점으로부터 기설정된 제2 시간 후까지의 제1 영상 구간(701)의 제1 영상 데이터(901)를 포함하는 편집 영상 데이터(900)를 획득할 수 있다. 예를 들어 상기 편집 영상 데이터(900)의 획득은, 상기 오브젝트에 대응하는 제2 영상 구간(702)의 시작 시점으로부터 제1 시간 전부터, 제2 영상 구간(702)의 종료 시점으로부터 제2 시간 후까지 구간의 영상 데이터(900)를 추출하거나, 또는 상기 구간의 영상 데이터(900) 이외의 영상 데이터(900)를 제거하는 것일 수 있다. 상기 기설정된 제1 시간과 상기 기설정된 제2 시간은 서로 같은 시간으로 설정될 수 있으나, 이에 국한되지 않고 서로 다른 시간으로 설정될 수 있다. 예를 들어, 상기 제1 시간과 제2 시간은 1초로 설정될 수 있다. 또는 예를 들어, 상기 제1 시간은 1초로 설정되되, 제2 시간은 0초로 설정될 수 있다.
상술한 바와 같이, 편집 영상 데이터(900)가 제2 영상 데이터(902) 뿐만 아니라, 제2 영상 데이터(902)의 전후로 제1 영상 데이터(901)가 포함되도록 함으로써, 시각적으로 편집 영상 데이터(900)가 자연스럽게 표시될 수 있다. 더욱 상세하게, 상기 편집 영상 데이터(900)의 재생 속도가 동적으로 변경됨으로써, 상기 편집 영상 데이터(900)의 재생 화면(701)이 자연스럽게 변경될 수 있다.
2404 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는, 선택된 오브젝트에 대한 응답으로 상기 획득된 편집 영상 데이터(900)를 저장하거나 공유할 수 있다. 상기 편집 영상 데이터(900)는 전자 장치의 메모리에 저장될 수 있다. 상기 편집 영상 데이터(900)는 상기 전자 장치와 통신으로 연결된 다른 전자 장치(101)(예를 들어, 서버 장치)로 전송됨으로써, 공유될 수 있다.
상술한 바와 같이, 대표 이미지(703) 중 적어도 일부를 통해 제2 영상 데이터(902)를 저장하거나 공유하는 동작이 다양한 실시예에 따른 전자 장치에 의해 수행됨으로써, 사용자의 제2 영상 데이터(902)의 활용도는 향상될 수 있다.
한편, 상술한 2401 내지 2404 동작은, 상술한 바에 국한되지 않는 순서로 수행될 수 있다. 또는, 상술한 바에 국한되지 않고, 상술한 2401 동작 내지 2404 동작 보다 많은 동작이 수행되거나 더 적은 동작이 수행될 수도 있다.
이하에서는, 다양한 실시예에 따른 고속 영상의 슬로우 구간의 사용자 지정에 대해서 설명한다.
도 26은 다양한 실시예에 따른 고속 영상의 슬로우 구간의 사용자 지정을 설명하기 위한 흐름도이다.
도 27은 다양한 실시예에 따른 고속 영상의 촬영과 재생을 나타내는 도면이다.
도 28은 다양한 실시예에 따른 고속 영상의 슬로우 구간의 사용자 지정을 나타내는 도면이다.
도 26 내지 도 28을 참조하면, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 사용자 지정에 의해, 영상 데이터가 느린 속도로 재생되는 구간이 설정될 수 있다.
이하에서는, 도 26 내지 도 28을 참조하여 상기 사용자 지정에 따른, 영상 데이터의 느린 속도로 재생되는 구간의 설정에 대해서 설명한다. 상술 했던, 영상 데이터(900)의 촬영과 재생과 중복되는 설명은 생략하도록 한다.
2601 단계에서, 전자 장치(101)는 슈퍼 슬로우 모드 촬영 요청에 응답하여, 제2 프레임 레이트에 따라 영상 데이터를 획득할 수 있다. 도 27에 도시된 바와 같이, 예를 들어 전자 장치(101)는 960fps에 따라 영상 데이터를 획득할 수 있다.
2602 단계에서, 전자 장치(101)는 슬로우 구간의 지정을 위한 사용자 지정을 감지할 수 있다. 예를 들어 도 27에 도시된 바와 같이, 전자 장치(101)는 터치 스크린 상에 표시한 프로그레스 바(702) 상에서 사용자가 느린 재생 속도로 재생하기를 원하는 영상 데이터의 재생 구간인 슬로우 구간을 설정하기 위한, 사용자의 터치를 감지할 수 있다. 달리 말해, 전자 장치(101)는 슬로우 구간의 설정을 위한 사용자 지정으로서, 프로그레스 바(702) 상에서 슬로우 구간으로 설정되는 영상 구간에 대한 처치를 감지할 수 있다.
2603 단계에서, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 사용자 지정에 대한 응답으로, 영상 데이터의 적어도 일부 영상 데이터를 구성하는 이미지 프레임들 사이의 시간을 제1 프레임 레이트에 따라 길게 하여 재생하고, 영상 데이터의 다른 일부 영상 데이터를 구성하는 이미지 프레임들 중 적어도 일부 만을 재생할 수 있다. 이에 따라, 상기 제1 프레임 레이트에 따라 이미지 프레임들 사이의 시간이 길게되어 재생되는 영상 데이터의 재생 속도는 이미지 프레임들 중 적어도 일부 만이 재생되는 영상 데이터의 재생 속도에 비하여 느릴 수 있다. 예를 들어 도 27을 참조하면, 사용자 지정에 따라 제2 시점 내지 제3 시점 사이의 영상 구간이 슬로우 구간으로 설정되는 경우, 전자 장치(101)는 상기 슬로우 구간으로 설정된 영상 구간에 대응하는 영상 데이터를 구성하는 이미지 프레임들 사이의 시간을 제1 프레임 레이트에 따라 길게 하여 재생하고, 슬로우 구간으로 설정되지 않은 영상 구간에 대응하는 영상 데이터를 구성하는 이미지 프레임들 중 적어도 일부 이미지 프레임들 만을 재생할 수 있다. 한편, 상기 영상 데이터의 일부 이미지 프레임들만이 재생되는 경우, 이미지지 프레임들이 재생되는 수는 제1 프레임 레이트와 제2 프레임 레이트의 비율에 따라 결정될 수 있으며, 구체적으로 이미지 프레임들이 재생되는 수는
Figure 112018019206102-pat00004
로 결정될 수 있다.
또한, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 슬로우 구간으로 설정된 영상 구간을 제2 형태로 표시하여, 상기 슬로우 구간을 설정된 영상 구간과 다른 영상 구간을 시각적으로 분리할 수 있다. 또한, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 슬로우 구간으로 설정된 영상 구간에 대응하는 영상 데이터에 대응하는 대표 이미지(703)를 터치스크린 상에 표시할 수 있다.
한편, 상술한 2601 내지 2603 동작은, 상술한 바에 국한되지 않는 순서로 수행될 수 있다. 또는, 상술한 바에 국한되지 않고, 상술한 2601 동작 내지 2603 동작 보다 많은 동작이 수행되거나 더 적은 동작이 수행될 수도 있다.
이하에서는, 상술한 고속 영상의 슬로우 구간에 대한 사용자 지정의 다른 실시예에 대해서 설명한다.
도 28에 도시된 바와 같이, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는, 적어도 하나 이상의 제1 영상 데이터와 적어도 하나 이상의 제2 영상 데이터를 포함하는 영상 데이터에 대해서, 사용자의 지정에 따라 슬로우 구간을 결정할 수 있다. 구체적으로, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 프로그레스 바(702) 상에서 슬로우 구간의 지정을 위한 사용자의 지정을 획득할 수 있다. 도 28을 참조하면, 상기 사용자의 지정은 상기 프로그레스 바(702)의 제1 영상 구간(701)의 적어도 일부 구간에 대한 사용자의 터치를 의미할 수 있다. 즉, 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 제2 영상 구간(702)의 사용자 지정을 위한 제1 영상 구간(701)의 적어도 일부 구간에 대한 사용자의 선택을 획득할 수 있다. 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 사용자의 지정에 대응하여, 상기 제1 영상 구간(701)의 적어도 일부의 형상을 제2 영상 구간(702)의 형태와 대응되는 형태로 설정할 수 있다. 또한, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 선택된 제1 영상 구간(701)의 적어도 일부에 대응되는 제1 영상 데이터(901)를 구성하는 이미지 프레임들 사이의 시간을 재생 대상 프레임 레이트(912)에 따라 연장하여, 영상 데이터(900)를 재생할 수 있다. 또한, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 지정된 제1 영상 구간(701)의 적어도 일부에 대응되는 제1 영상 데이터(901)에 대응하는 대표 이미지(703) 중 적어도 일부를 터치 스크린 상에 표시할 수 있다. 달리 말해, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 지정된 제1 영상 구간(701)의 적어도 일부에 대응되는 제1 영상 데이터(901)를 구성하는 이미지 프레임들 중 적어도 하나를 섬네일로 표시할 수 있다. 결과적으로, 사용자의 지정에 따라 영상 데이터(900)의 슬로우 구간이 설정되며, 사용자의 지정에 따라 설정된 슬로우 구간이 섬네일 형태로 시각적으로 사용자에게 시인될 수 있다.
상술한 동작에 따라, 편집된 영상 데이터(900)는, 상술한 바와 같이 저장 기능 또는 공유 기능을 제공하는 아이콘에 따라 저장되거나, 또는 공유될 수 있다.
이하에서는, 다양한 실시예에 따른 고속 영상의 슬로우 구간의 속도 조절에 대해서 설명한다.
도 29는 다양한 실시예에 따른 고속 영상의 슬로우 구간의 속도 조절을 설명하기 위한 흐름도이다.
도 30은 다양한 실시예에 따른 고속 영상의 슬로우 구간의 속도 조절을 위한 조절키(3002)가 조절 버튼(3003)의 위치를 나타내는 도면이다.
도 31은 다양한 실시예에 따른 고속 영상의 슬로우 구간의 속도 조절에 따른 영상 데이터(900)의 이미지 프레임을 나타내는 도면이다.
도 29와 도 30을 참조하면, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 조절키(3002)의 형상에 대응하여 영상 데이터(900)의 제2 영상 데이터(902)의 이미지 프레임을 재생하는 속도를 결정할 수 있다.
2901 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 조절키(3002)에 대한 상호 작용으로 토글 버튼(1601)의 위치를 표시할 수 있다. 도 30에 도시된 바와 같이, 사용자의 제어에 따라 조절 버튼(3003)은 제1 위치(1701), 제2 위치(1702), 및 제1 위치와 제2 위치 사이의 위치(3001)에 위치될 수 있다. 상이 제1 위치와 제2 위치 사이의 위치(3001)는 다양한 위치로 결정될 수 있다. 예를 들어, 상기 제1 위치와 제2 위치 사이의 위치(3001)는 제2 위치(1702)로부터 제1 위치(1701)까지의 지점 중 n/m 지점일 수 있다.(여기서, n=정수, m=정수)
2902 동작에서, 다양한 실시예에 따른 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 조절키(3002)에 대한 상호 작용으로, 제2 영상 데이터(902)의 재생되는 이미지 프레임들과 이미지 프레임들 사이의 시간을 결정할 수 있다. 상술한 바와 같이, 도 30을 참조하면 조절 버튼(3003)이 제1 위치(1701) 또는 제2 위치(1702)로 결정되는 경우, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 영상 데이터(900)의 제2 영상 데이터(902)의 이미지 프레임들 사이의 시간을 재생 대상 프레임 레이트(912)에 따라 결정하여 제2 영상 데이터(902)를 재생하거나, 제1 영상 데이터(901)의 재생 대상 프레임 레이트(912)에 따라 제2 영상 데이터(902)의 이미지 프레임들 중 일부의 이미지 프레임들만을 재생할 수 있다.
또한, 도 30을 참조하면, 조절 버튼(3003)이 제1 위치(1701)와 제2 위치(1702)의 사이의 위치로 결정되는 경우, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 조절 버튼(3003)의 위치에 대응하는 제2 영상 데이터(902)의 재생 속도로 제2 영상 데이터(902)를 재생할 수 있다. 제1 위치(1701)가 슬로우 모션 재생 모드로 결정되고, 제2 위치(1702)가 노말 재생 모드로 결정되는 경우, 상기 재생 속도는 상기 조절 버튼(3003)의 위치가 제2 위치(1702)에 위치되는 경우 노말 재생 속도로 결정되며, 상기 조절 버튼(3003)의 위치가 제2 위치(1702)로부터 제1 위치(1701)까지의 지점 중 n/m위치로 위치되는 경우 상기 슬로우 모션 속도의 m/n 배의 속도로 결정될 수 있다. 구체적인 예를 들어, 상기 조절 버튼(3003)의 위치가 1/2위치로 위치 되는 경우, 상기 재생 속도는 노말 재생 속도의 2배의 속도로 결정되어, 슬로우 모션 재생 속도가 노말 모드의 1/12 배의 속도인 경우 상기 재생 속도는 노말 모드의 1/6 배의 속도로 결정될 수 있다.
구체적으로, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 조절 버튼(3003)의 위치에 대응하는 재생 대상 프레임 레이트(912)로 제2 영상 데이터(902)의 이미지 프레임들 사이의 시간을 결정하고, 동시에 제2 영상 데이터(902)의 이미지 프레임들 중 일부를 재생할 수 있다. 달리 말해, 조절 버튼(3003)이 제1 위치(1701)와 제2 위치(1702)의 사이의 위치로 결정되는 경우, 상기 전자 장치(101)(예: 프로세서(120) 또는 이미지 시그널 프로세서(260))는 상기 조절 버튼(3003)의 위치에 대응하는 제2 영상 데이터(902)의 재생 속도에 따라 제2 영상 데이터(902)의 이미지 프레임들 사이의 시간을 연장하여 재생하는 동시에, 제2 영상 데이터(902)를 구성하는 이미지 프레임들 중 일부의 이미지 프레임들을 재생할 수 있다.
한편, 다양한 실시예에 따른 상술한 동작들은 서로 조합되어 실시될 수 있다.
한편 다양한 실시예에 따른, 상기 전자 장치(101)의 작동 방법은, 상술항 바와 같이 전자 장치(101)의 프로세서(120)가 상기 프로세서(120)에 설정된 동작에 기초하여 전자 장치(101)의 각 구성들이 상기 전자 장치(101)의 동작을 수행하도록 제어하는 것일 수 있으나, 전자 장치(101)의 메모리(130)에 저장된 인스트럭션에 의해 전자 장치(101)의 각 구성들이 상기 전자 장치(101)의 동작을 수행하도록 제어하는 것일 수 있다.
본 문서에 개시된 본 개시에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 개시에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 본 개시 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1 ", "제 2 ", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1 ) 구성요소가 다른(예: 제 2 ) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 본 개시는 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
본 개시에 따르면, 본 문서에 개시된 본 개시에 따른, 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
본 개시에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 본 개시에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
다양한 실시예에 따르면, 전자 장치에 있어서, 터치스크린; 제1 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제1 영상 데이터 및 상기 제1 프레임 레이트 보다 높은 제2 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제2 영상 데이터를 포함하는 영상 데이터를 저장하는 적어도 하나의 메모리; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 영상 데이터의 재생 화면의 제공 요청을 수신하는 경우, 상기 터치스크린의 일 영역에 상기 영상 데이터의 재생 화면을 표시하고, 상기 영상 데이터의 재생 화면이 표시되는 중에 프로그레스 바의 제공 요청을 수신하는 경우, 상기 적어도 하나 이상의 제1 영상 데이터에 대응하는 제1 영상 구간 및 상기 제2 영상 데이터에 대응하는 제2 영상 구간을 포함하는 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하고, 상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부를 상기 터치스크린 상에 표시하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 대표 이미지 중 적어도 일부를 표시하는 동작의 적어도 일부로, 제2 영상 데이터 각각에 포함되는 이미지들 중 적어도 일부에 대한 섬네일을 표시하도록 더 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하는 동작의 적어도 일부로, 상기 프로그레스 바 상에 상기 영상 데이터의 재생 화면의 재생 시점을 나타내는 인디케이터를 더 표시하고, 상기 영상 데이터의 재생 화면의 재생 시점이 제1 영상 구간에 포함된 경우, 상기 인디케이터를 상기 제1 영상 구간에 대응되는 상기 프로그레스 바의 구간 상에 위치시키고, 상기 제1 영상 구간에 대응되는 섬네일을 하이라이트하도록 설정된 전자 장치가 제공될 수 있다
다양한 실시예에 따르면, 상기 프로세서는, 상기 인디케이터를 상기 제2 영상 구간에 위치시키는 동작의 적어도 일부로, 상기 대표 이미지 중 적어도 일부에 대한 터치가 감지되는 경우, 상기 인디케이터를 상기 섬네일에 대응되는 제2 영상 구간에 위치시키고, 상기 섬네일에 대응되는 제2 영상 구간의 제2 영상 데이터의 재생 화면을 표시하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 대표 이미지 중 적어도 일부를 표시하는 동작의 적어도 일부로, 상기 대표 이미지 중 적어도 일부에 상기 제 2 영상 데이터의 재생 모드를 일반 재생 모드 또는 슬로우 모션 재생 모드 중 어느 하나로 설정하기 위한 토글을 표시하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제1 오브젝트를 표시하는 동작의 적어도 일부로, 상기 제2 영상 데이터의 재생 모드가 일반 재생 모드인 경우 상기 제2 영상 데이터를 구성하는 복수의 이미지 프레임들 중 일부의 이미지 프레임들만을 표시하고, 상기 제2 영상 데이터의 재생 모드가 슬로우 모션 재생 모드 인 경우 상기 제2 영상 데이터를 구성하는 복수의 이미지 프레임들 사이의 시간을 연장하여 상기 제2 이미지 데이터를 구성하는 전체의 이미지 프레임들을 표시하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 대표 이미지 중 적어도 일부의 상기 토글에 대한 상호 작용에 따라 싱기 토글 버튼이 제1 위치에서 제2 위치로 이동되는 경우 상기 제2 영상 데이터의 재생 모드를 노말 재생 모드로 설정하고, 상기 토글 버튼이 제2 위치에서 제1 위치로 이동 되는 경우 상기 제2 영상 데이터의 재생 모드를 슬로우 모션 재생 모드로 설정하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제1 오브젝트를 표시하는 동작의 적어도 일부로, 상기 토글을 최초로 표시하는 경우, 상기 토글의 토글 버튼을 상기 터치스크린 상에 표시되는 대표 이미지 중 적어도 일부의 노말 재생 모드에 대응하는 것으로 기설정된 상기 제1 위치에 표시하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 대표 이미지 중 적어도 일부의 상기 토글에 대한 상호 작용을 감지하는 경우, 상기 프로그레스 바의 상기 제2 영상 구간 형태를 상기 제2 형태로 표시하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 영상 데이터에 대한 트림 요청이 검출되면, 트림 바와 상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부를 대신하여, 상기 영상 데이터에 포함된 이미지 프레임들에 대응되는 트림 이미지들을 표시하고, 상기 복수 개의 이미지들 상에 표시되는 트림 바의 조정 명령에 대응하여, 상기 트림 바의 위치에 대응하는 트림된 영상 구간을 확인하고, 상기 영상 데이터가 트림된 구간에 포함된 제2 영상 데이터에 대응되는 대표 이미지 중 적어도 일부의 색상 값을 변경하도록 설정된 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 트림 바의 위치가 상기 제2 영상 데이터 중 어느 하나에 대응하는 경우에, 상기 대응되는 제2 영상 데이터에 포함된 이미지들을 상기 복수 개의 이미지를 대신하여 표시하도록 설정된. 전자 장치가 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 대표 이미지 중 적어도 일부에 대한 기설정된 시간 이상 지속되는 터치가 감지되는 경우, 상기 대표 이미지 중 적어도 일부에 대응하는 제2 영상 데이터에 관한 저장을 위한 키 및 공유를 위한 키를 표시하도록 설정된, 전자 장치가 제공 될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제2 영상 데이터의 저장을 위한 키에 대한 터치가 감지되는 경우, 상기 대표 이미지 중 적어도 일부에 대응하는 상기 제2 영상 데이터, 상기 제2 영상 데이터의 상기 제2 영상 구간의 시작 시점의 전의 기설정된 시간 이전의 제1 이미지 데이터, 및 상기 제2 영상 데이터의 상기 제2 영상 구간의 종료 시점의 후의 기설정된 시간 이후 사이의 제1 영상 데이터를 저장하도록 설정된 전자 장치 가 제공 될 수 있다.
다양한 실시예에 따르면, 전자 장치의 동작 방법에 있어서, 제1 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제1 영상 데이터 및 상기 제1 프레임 레이트 보다 높은 제2 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제2 영상 데이터를 포함하는 영상 데이터를 저장하는 동작; 상기 영상 데이터의 재생 화면의 제공 요청을 수신하는 경우, 상기 터치스크린의 일 영역에 상기 영상 데이터의 재생 화면을 표시하는 동작; 상기 영상 데이터의 재생 화면이 표시되는 중에 프로그레스 바의 제공 요청을 수신하는 경우, 상기 적어도 하나 이상의 제1 영상 데이터에 대응하는 제1 영상 구간 및 상기 제2 영상 데이터에 대응하는 제2 영상 구간을 포함하는 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하는 동작; 및 상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부를 상기 터치스크린 상에 표시하는 동작;을 포함하는 동작 방법이 제공될 수 있다.
다양한 실시예에 따르면, 상기 대표 이미지 중 적어도 일부를 표시하는 동작의 적어도 일부로, 제2 영상 데이터 각각에 포함되는 이미지들 중 적어도 일부에 대한 섬네일 을 표시하는 동작을 더 수행하는 동작 방법이 제공될 수 있다.
다양한 실시예에 따르면, 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하는 동작의 적어도 일부로, 상기 프로그레스 바 상에 상기 영상 데이터의 재생 화면의 재생 시점을 나타내는 인디케이터를 더 표시하고, 상기 영상 데이터의 재생 화면의 재생 시점이 제1 영상 구간에 포함된 경우, 상기 인디케이터를 상기 제1 영상 구간에 대응되는 상기 프로그레스 바의 구간 상에 위치시키고, 상기 제1 영상 구간에 대응되는 대표 이미지 중 섬네일을 하이라이트하는 동작을 더 수행하는 동작 방법이 제공될 수 있다.
다양한 실시예에 따르면, 상기 인디케이터를 상기 제2 영상 구간에 위치시키는 동작의 적어도 일부로, 상기 대표 이미지 중 적어도 일부에 대한 터치가 감지되는 경우, 상기 인디케이터를 상기 섬네일에 대응되는 제2 영상 구간에 위치시키고, 상기 섬네일에 대응되는 제2 영상 구간의 제2 영상 데이터의 재생 화면을 표시하는 동작을 더 수행하는 동작 방법이 제공될 수 있다.
다양한 실시예에 따르면, 상기 대표 이미지 중 적어도 일부를 표시하는 동작의 적어도 일부로, 상기 대표 이미지 중 적어도 일부에 상기 제 2 영상 데이터의 재생 모드를 일반 재생 모드 또는 슬로우 모션 재생 모드 중 어느 하나로 설정하기 위한 토글을 표시하는 동작을 더 수행하는, 동작 방법이 제공될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제1 오브젝트를 표시하는 동작의 적어도 일부로, 상기 제2 영상 데이터의 재생 모드가 일반 재생 모드인 경우 상기 제2 영상 데이터를 구성하는 복수의 이미지 프레임들 중 일부의 이미지 프레임들만을 표시하고, 상기 제2 영상 데이터의 재생 모드가 슬로우 모션 재생 모드 인 경우 상기 제2 영상 데이터를 구성하는 복수의 이미지 프레임들 사이의 시간을 연장하여 상기 제2 이미지 데이터를 구성하는 전체의 이미지 프레임들을 표시하는 동작을 더 수행하는, 동작 방법이 제공될 수 있다.
다양한 실시예에 따르면, 상기 대표 이미지 중 적어도 일부의 상기 토글에 대한 상호 작용에 따라 싱기 토글 버튼이 제1 위치에서 제2 위치로 이동되는 경우 상기 제2 영상 데이터의 재생 모드를 노말 재생 모드로 설정하고, 상기 토글 버튼이 제2 위치에서 제1 위치로 이동 되는 경우 상기 제2 영상 데이터의 재생 모드를 슬로우 모션 재생 모드로 설정하는 동작을 더 수행하는, 동작 방법이 제공될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    터치스크린;
    적어도 하나의 메모리; 및
    적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는,
    피사체와 관련한 순차적으로 캡처된 이미지 프레임으로 구성된 단일의 영상 데이터를 획득하고, 상기 영상 데이터는 제1 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제1 영상 데이터 및 상기 제1 프레임 레이트 보다 높은 제2 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제2 영상 데이터를 포함함,
    상기 영상 데이터의 재생 화면의 제공 요청을 수신하는 경우, 상기 터치스크린의 일 영역에 상기 영상 데이터의 재생 화면을 표시하고,
    상기 영상 데이터의 재생 화면이 표시되는 중에 편집 인터페이스의 제공 요청을 수신하는 경우, 상기 적어도 하나 이상의 제1 영상 데이터에 대응하는 제1 영상 구간 및 상기 제2 영상 데이터에 대응하는 제2 영상 구간을 포함하는 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하고,
    상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부 및 상기 대표 이미지 중 적어도 일부에 상기 제 2 영상 데이터의 재생 모드를 노말 재생 모드 또는 슬로우 모션 재생 모드 중 어느 하나로 설정하기 위한 그래픽 오브젝트를 상기 터치스크린 상에 표시하도록 설정된, 전자 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는, 상기 대표 이미지 중 적어도 일부 및 상기 그래픽 오브젝트를 표시하는 동작의 적어도 일부로, 상기 제2 영상 데이터에 포함되는 이미지 프레임들 중 적어도 일부를 섬네일화 하여 대표 이미지를 생성하도록 설정된, 전자 장치.
  3. 제2 항에 있어서,
    상기 프로세서는, 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하는 동작의 적어도 일부로,
    상기 프로그레스 바 상에 상기 영상 데이터의 재생 화면의 재생 시점을 나타내는 인디케이터를 더 표시하고, 상기 영상 데이터의 재생 화면의 재생 시점이 제1 영상 구간에 포함된 경우, 상기 인디케이터를 상기 제1 영상 구간에 대응되는 상기 프로그레스 바의 구간 상에 위치시키고,
    상기 제1 영상 구간에 대응되는 대표 이미지를 하이라이트하도록 설정된, 전자 장치.
  4. 제3 항에 있어서,
    상기 프로세서는, 상기 인디케이터를 상기 제2 영상 구간에 위치시키는 동작의 적어도 일부로, 상기 대표 이미지 중 적어도 일부에 대한 터치가 감지되는 경우, 상기 인디케이터를 상기 대표 이미지에 대응되는 제2 영상 구간에 위치시키고, 상기 섬네일에 대응되는 제2 영상 구간의 제2 영상 데이터의 재생 화면을 표시하도록 설정된, 전자 장치.
  5. 삭제
  6. 제1 항에 있어서,
    상기 프로세서는, 상기 대표 이미지 중 적어도 일부 및 상기 그래픽 오브젝트를 표시하는 동작의 적어도 일부로, 상기 제2 영상 데이터의 재생 모드가 노말 재생 모드인 경우 상기 제2 영상 데이터를 구성하는 복수의 이미지 프레임들 중 일부의 이미지 프레임들만을 표시하고, 상기 제2 영상 데이터의 재생 모드가 슬로우 모션 재생 모드 인 경우 상기 제2 영상 데이터를 구성하는 복수의 이미지 프레임들 사이의 시간을 연장하여 상기 제2 영상 데이터를 구성하는 전체의 이미지 프레임들을 표시하도록 설정된, 전자 장치.
  7. 제6 항에 있어서,
    상기 프로세서는, 상기 대표 이미지 중 적어도 일부의 상기 그래픽 오브젝트에 대한 상호 작용에 따라 상기 그래픽 오브젝트가 제1 위치에서 제2 위치로 이동되는 경우 상기 제2 영상 데이터의 재생 모드를 노말 재생 모드로 결정하고, 상기 그래픽 오브젝트가 제2 위치에서 제1 위치로 이동 되는 경우 상기 제2 영상 데이터의 재생 모드를 슬로우 모션 재생 모드로 결정하도록 설정된, 전자 장치.
  8. 제7 항에 있어서,
    상기 프로세서는, 상기 대표 이미지 중 적어도 일부 및 상기 그래픽 오브젝트를 표시하는 동작의 적어도 일부로, 상기 그래픽 오브젝트를 최초로 표시하는 경우, 상기 그래픽 오브젝트를 상기 터치스크린 상에 표시되는 대표 이미지 중 적어도 일부의 노말 재생 모드에 대응하는 기설정된 위치인 상기 제1 위치에 표시하도록 설정된, 전자 장치.
  9. 제7 항에 있어서,
    상기 프로세서는, 상기 대표 이미지 중 적어도 일부의 상기 그래픽 오브젝트에 대한 상호 작용을 감지하는 경우, 상기 프로그레스 바의 상기 제2 영상 구간의 형태를 변경하도록 설정된, 전자 장치.
  10. 제1 항에 있어서,
    상기 프로세서는,
    상기 영상 데이터에 대한 트림 요청이 검출되면, 트림 바와 상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부를 대신하여, 상기 영상 데이터에 포함된 이미지 프레임들에 대응되는 트림 이미지들을 표시하고,
    상기 트림 바의 조정 명령에 대응하여, 상기 트림 바의 위치에 대응하는 트림된 영상 구간을 확인하고,
    상기 영상 데이터가 트림된 구간에 포함된 제2 영상 데이터에 대응되는 대표 이미지 중 적어도 일부의 색상 값을 변경하도록 설정된, 전자 장치.
  11. 제 10 항에 있어서,
    상기 프로세서는,
    상기 트림 바의 위치가 상기 제2 영상 데이터 중 어느 하나에 대응하는 경우에, 상기 대응되는 제2 영상 데이터에 포함된 이미지들을 상기 트림 이미지들에 대신하여 표시하도록 설정된, 전자 장치.
  12. 제1 항에 있어서,
    상기 프로세서는, 상기 대표 이미지 중 적어도 일부에 대한 기설정된 시간 이상 지속되는 터치가 감지되는 경우, 상기 대표 이미지 중 적어도 일부에 대응하는 제2 영상 데이터에 관한 저장을 위한 키 및 공유를 위한 키를 표시하도록 설정된, 전자 장치.
  13. 제1 항에 있어서,
    상기 프로세서는, 상기 제2 영상 데이터의 저장을 위한 키에 대한 터치가 감지되는 경우, 상기 대표 이미지 중 적어도 일부에 대응하는 상기 제2 영상 데이터, 상기 제2 영상 데이터의 상기 제2 영상 구간의 시작 시점의 전의 기설정된 시간 이전의 제1 이미지 데이터, 및 상기 제2 영상 데이터의 상기 제2 영상 구간의 종료 시점의 후의 기설정된 시간 이후 사이의 제1 영상 데이터를 저장하도록 설정된, 전자 장치.
  14. 전자 장치의 동작 방법에 있어서,
    피사체와 관련한 순차적으로 캡처된 이미지 프레임으로 구성된 단일의 영상 데이터를 획득하는 동작, 상기 영상 데이터는 제1 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제1 영상 데이터 및 상기 제1 프레임 레이트 보다 높은 제2 프레임 레이트에 따라 획득되는 적어도 하나 이상의 제2 영상 데이터를 포함함;
    상기 영상 데이터의 재생 화면의 제공 요청을 수신하는 경우, 터치스크린의 일 영역에 상기 영상 데이터의 재생 화면을 표시하는 동작;
    상기 영상 데이터의 재생 화면이 표시되는 중에 프로그레스 바의 제공 요청을 수신하는 경우, 상기 적어도 하나 이상의 제1 영상 데이터에 대응하는 제1 영상 구간 및 상기 제2 영상 데이터에 대응하는 제2 영상 구간을 포함하는 상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하는 동작; 및
    상기 적어도 하나 이상의 제2 영상 데이터 각각에 대응하는 적어도 하나의 대표 이미지 중 적어도 일부 및 상기 대표 이미지 중 적어도 일부에 상기 제 2 영상 데이터의 재생 모드를 노말 재생 모드 또는 슬로우 모션 재생 모드 중 어느 하나로 설정하기 위한 그래픽 오브젝트를 상기 터치스크린 상에 표시하는 동작을 포함하는, 동작 방법.
  15. 제14 항에 있어서,
    상기 대표 이미지 중 적어도 일부 및 상기 그래픽 오브젝트를 표시하는 동작의 적어도 일부로, 상기 제2 영상 데이터에 포함되는 이미지 프레임들 중 적어도 일부를 섬네일화 하여 대표 이미지를 생성하는 동작을 더 수행하는, 동작 방법.
  16. 제15 항에 있어서,
    상기 영상 데이터의 전체 영상 구간을 나타내는 프로그레스 바를 상기 터치스크린 상에 표시하는 동작의 적어도 일부로,
    상기 프로그레스 바 상에 상기 영상 데이터의 재생 화면의 재생 시점을 나타내는 인디케이터를 더 표시하고, 상기 영상 데이터의 재생 화면의 재생 시점이 제1 영상 구간에 포함된 경우, 상기 인디케이터를 상기 제1 영상 구간에 대응되는 상기 프로그레스 바의 구간 상에 위치시키고,
    상기 제1 영상 구간에 대응되는 대표 이미지 중 대표 이미지를 하이라이트하는 동작을 더 수행하는, 동작 방법.
  17. 제16 항에 있어서,
    상기 인디케이터를 상기 제2 영상 구간에 위치시키는 동작의 적어도 일부로, 상기 대표 이미지 중 적어도 일부에 대한 터치가 감지되는 경우, 상기 인디케이터를 상기 대표 이미지에 대응되는 제2 영상 구간에 위치시키고, 상기 대표 이미지에 대응되는 제2 영상 구간의 제2 영상 데이터의 재생 화면을 표시하는 동작을 더 수행하는, 동작 방법.
  18. 삭제
  19. 제14 항에 있어서,
    상기 대표 이미지 중 적어도 일부 및 상기 그래픽 오브젝트를 표시하는 동작의 적어도 일부로, 상기 제2 영상 데이터의 재생 모드가 일반 재생 모드인 경우 상기 제2 영상 데이터를 구성하는 복수의 이미지 프레임들 중 일부의 이미지 프레임들만을 표시하고, 상기 제2 영상 데이터의 재생 모드가 슬로우 모션 재생 모드 인 경우 상기 제2 영상 데이터를 구성하는 복수의 이미지 프레임들 사이의 시간을 연장하여 상기 제2 영상 데이터를 구성하는 전체의 이미지 프레임들을 표시하는 동작을 더 수행하는, 동작 방법.
  20. 제19 항에 있어서,
    상기 대표 이미지 중 적어도 일부의 상기 그래픽 오브젝트에 대한 상호 작용에 따라 상기 그래픽 오브젝트가 제1 위치에서 제2 위치로 이동되는 경우 상기 제2 영상 데이터의 재생 모드를 노말 재생 모드로 설정하고, 상기 그래픽 오브젝트가 제2 위치에서 제1 위치로 이동 되는 경우 상기 제2 영상 데이터의 재생 모드를 슬로우 모션 재생 모드로 설정하는 동작을 더 수행하는, 동작 방법.
KR1020180022000A 2018-02-23 2018-02-23 영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법 KR102512298B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020180022000A KR102512298B1 (ko) 2018-02-23 2018-02-23 영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법
EP19158956.3A EP3531418B1 (en) 2018-02-23 2019-02-22 Electronic device displaying interface for editing video data and method for controlling same
US16/282,902 US11169680B2 (en) 2018-02-23 2019-02-22 Electronic device displaying interface for editing video data and method for controlling same
US17/520,208 US11803296B2 (en) 2018-02-23 2021-11-05 Electronic device displaying interface for editing video data and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180022000A KR102512298B1 (ko) 2018-02-23 2018-02-23 영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20190101693A KR20190101693A (ko) 2019-09-02
KR102512298B1 true KR102512298B1 (ko) 2023-03-22

Family

ID=65766786

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180022000A KR102512298B1 (ko) 2018-02-23 2018-02-23 영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법

Country Status (3)

Country Link
US (2) US11169680B2 (ko)
EP (1) EP3531418B1 (ko)
KR (1) KR102512298B1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD875118S1 (en) 2018-02-22 2020-02-11 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD916720S1 (en) * 2018-02-22 2021-04-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US11775052B1 (en) * 2018-04-10 2023-10-03 Robert Edwin Douglas Smart room system
CN108616696B (zh) * 2018-07-19 2020-04-14 北京微播视界科技有限公司 一种视频拍摄方法、装置、终端设备及存储介质
US11659135B2 (en) * 2019-10-30 2023-05-23 Corephotonics Ltd. Slow or fast motion video using depth information
US11157556B2 (en) 2019-12-20 2021-10-26 Sling Media Pvt Ltd Method and apparatus for thumbnail generation for a video device
CN111314639A (zh) * 2020-02-28 2020-06-19 维沃移动通信有限公司 一种视频录制方法及电子设备
CN112653920B (zh) * 2020-12-18 2022-05-24 北京字跳网络技术有限公司 视频处理方法、装置、设备及存储介质
US11955144B2 (en) * 2020-12-29 2024-04-09 Snap Inc. Video creation and editing and associated user interface
CN116762348A (zh) 2021-01-12 2023-09-15 三星电子株式会社 用于视频编辑的电子装置、方法和非瞬时性存储介质
KR20220157188A (ko) * 2021-05-20 2022-11-29 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법
US11550452B1 (en) 2021-06-09 2023-01-10 Gopro, Inc. Presentation of a media sequence
USD1000461S1 (en) * 2021-12-29 2023-10-03 Cvrx, Inc. Display screen or a portion thereof with graphical user interface
CN114827746B (zh) * 2022-03-30 2024-05-10 神力视界(深圳)文化科技有限公司 视频播放控制方法、装置、电子设备、介质及程序产品
CN114745587B (zh) * 2022-05-05 2024-06-04 北京达佳互联信息技术有限公司 多媒体资源的播放方法、装置、电子设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100226622A1 (en) * 2009-03-09 2010-09-09 Canon Kabushiki Kaisha Video player and video playback method
US20120210232A1 (en) 2011-02-16 2012-08-16 Wang Xiaohuan C Rate Conform Operation for a Media-Editing Application
US20180035137A1 (en) 2015-07-27 2018-02-01 Tencent Technology (Shenzhen) Company Limited Video sharing method and device, and video playing method and device

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6370198B1 (en) * 1997-04-07 2002-04-09 Kinya Washino Wide-band multi-format audio/video production system with frame-rate conversion
JP4773817B2 (ja) 2005-12-16 2011-09-14 キヤノン株式会社 画像再生装置及びプログラム
US8511901B2 (en) * 2007-02-06 2013-08-20 Canon Kabushiki Kaisha Image recording apparatus and method
US8214857B2 (en) * 2008-05-29 2012-07-03 International Business Machines Corporation Generating a combined video stream from multiple input video streams
JP5295381B2 (ja) * 2009-10-27 2013-09-18 キヤノン株式会社 映像再生装置及び映像再生装置の制御方法
GB2477800A (en) * 2010-02-16 2011-08-17 Nds Ltd Video trick mode playback
KR101691829B1 (ko) 2010-05-06 2017-01-09 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP4983961B2 (ja) 2010-05-25 2012-07-25 株式会社ニコン 撮像装置
JP5768381B2 (ja) * 2011-01-20 2015-08-26 カシオ計算機株式会社 動画像処理装置、動画像処理方法及びプログラム
US9997196B2 (en) * 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
KR101901929B1 (ko) * 2011-12-28 2018-09-27 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
US9344606B2 (en) * 2012-01-24 2016-05-17 Radical Switchcam Llc System and method for compiling and playing a multi-channel video
US20140193140A1 (en) * 2012-08-13 2014-07-10 Iconic Sports Technology, Inc. System and method for slow motion display, analysis and/or editing of audiovisual content on a mobile device
JP2014082731A (ja) * 2012-09-26 2014-05-08 Jvc Kenwood Corp 動画像データ処理装置及び動画像データ処理方法
JP6012384B2 (ja) * 2012-10-04 2016-10-25 キヤノン株式会社 動画再生装置、表示制御方法、プログラム及び記憶媒体
US9014544B2 (en) * 2012-12-19 2015-04-21 Apple Inc. User interface for retiming in a media authoring tool
US10223926B2 (en) * 2013-03-14 2019-03-05 Nike, Inc. Skateboard system
EP2973406B1 (en) * 2013-03-14 2019-11-27 NIKE Innovate C.V. Athletic attribute determinations from image data
US20170072321A1 (en) * 2013-05-22 2017-03-16 David S. Thompson Highly interactive fantasy sports interleaver
WO2015035197A1 (en) * 2013-09-05 2015-03-12 Nike, Inc. Conducting sessions with captured image data of physical activity and uploading using token-verifiable proxy uploader
KR20150031693A (ko) * 2013-09-16 2015-03-25 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP2015128206A (ja) * 2013-12-27 2015-07-09 ソニー株式会社 編集装置、再生装置、編集方法、再生方法、およびプログラム
JP2015186235A (ja) * 2014-03-26 2015-10-22 ソニー株式会社 イメージセンサ、および電子装置
KR20160040388A (ko) * 2014-10-02 2016-04-14 삼성전자주식회사 프레임 레이트 변환 방법 및 영상출력장치
US10192583B2 (en) * 2014-10-10 2019-01-29 Samsung Electronics Co., Ltd. Video editing using contextual data and content discovery using clusters
US9652829B2 (en) * 2015-01-22 2017-05-16 Samsung Electronics Co., Ltd. Video super-resolution by fast video segmentation for boundary accuracy control
US20160269674A1 (en) * 2015-03-09 2016-09-15 Microsoft Technology Licensing, Llc Dynamic Video Capture Rate Control
KR20170013083A (ko) * 2015-07-27 2017-02-06 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101832966B1 (ko) 2015-11-10 2018-02-28 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10313417B2 (en) * 2016-04-18 2019-06-04 Qualcomm Incorporated Methods and systems for auto-zoom based adaptive video streaming
KR102537210B1 (ko) * 2016-07-29 2023-05-26 삼성전자주식회사 동영상 컨텐츠 제공 방법 및 이를 지원하는 전자 장치
US10547776B2 (en) * 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
US11238290B2 (en) * 2016-10-26 2022-02-01 Google Llc Timeline-video relationship processing for alert events
KR102314370B1 (ko) * 2017-05-17 2021-10-19 엘지전자 주식회사 이동 단말기
WO2020071828A1 (en) * 2018-10-04 2020-04-09 Samsung Electronics Co., Ltd. Method and system for recording a super slow motion video in a portable electronic device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100226622A1 (en) * 2009-03-09 2010-09-09 Canon Kabushiki Kaisha Video player and video playback method
US20120210232A1 (en) 2011-02-16 2012-08-16 Wang Xiaohuan C Rate Conform Operation for a Media-Editing Application
US20180035137A1 (en) 2015-07-27 2018-02-01 Tencent Technology (Shenzhen) Company Limited Video sharing method and device, and video playing method and device

Also Published As

Publication number Publication date
EP3531418C0 (en) 2024-04-17
US11803296B2 (en) 2023-10-31
US20190265875A1 (en) 2019-08-29
US20220057929A1 (en) 2022-02-24
KR20190101693A (ko) 2019-09-02
EP3531418A1 (en) 2019-08-28
EP3531418B1 (en) 2024-04-17
US11169680B2 (en) 2021-11-09

Similar Documents

Publication Publication Date Title
KR102512298B1 (ko) 영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법
KR102531128B1 (ko) 카메라를 이용하여 복수의 프레임 레이트에 따라 영상을 촬영하는 전자 장치 및 그 작동 방법
US11032466B2 (en) Apparatus for editing image using depth map and method thereof
KR102338576B1 (ko) 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
KR102488410B1 (ko) 복수의 카메라들을 이용하여 영상을 촬영하는 전자 장치와 이의 동작 방법
KR102622123B1 (ko) 전자 장치의 움직임에 따라 관심 영역에 움직이는 피사체에 대한 움직임과 관련된 임계값을 조정하여 동영상을 촬영하는 전자 장치 및 그 작동 방법
KR102424984B1 (ko) 복수 개의 카메라를 포함하는 전자 장치 및 그 동작 방법
US9143682B2 (en) Image capturing apparatus, method, and recording medium capable of continuously capturing object
KR102661185B1 (ko) 전자 장치 및 그의 이미지 촬영 방법
JP6011569B2 (ja) 撮像装置、被写体追尾方法及びプログラム
KR20170009089A (ko) 사용자의 제스쳐를 이용하여 기능을 제어하는 방법 및 촬영 장치.
KR102668233B1 (ko) 관심 영역을 통해 움직이는 외부 객체에 대해 프레임 레이트를 제어하여 이미지들을 획득하는 전자 장치 및 그의 동작 방법
US20220385814A1 (en) Method for generating plurality of content items and electronic device therefor
KR102301940B1 (ko) 이미지 합성 방법 및 장치
KR20210101571A (ko) 이미지의 생성 방법 및 그 전자 장치
US11184538B2 (en) Electronic device for selectively generating video by using image data acquired at frame rate changed according to distance between subject and reference region, and operation method therefor
KR102677285B1 (ko) 슬로 모션 영상 생성 방법 및 장치
KR20220065562A (ko) 복수의 이미지 센서들을 포함하는 전자 장치 및 그 동작 방법
KR20210058339A (ko) 전자 장치 및 이의 제어 방법
KR20200092631A (ko) 슬로 모션 영상 생성 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right