KR20170098079A - 전자 장치 및 전자 장치에서의 비디오 녹화 방법 - Google Patents

전자 장치 및 전자 장치에서의 비디오 녹화 방법 Download PDF

Info

Publication number
KR20170098079A
KR20170098079A KR1020160019994A KR20160019994A KR20170098079A KR 20170098079 A KR20170098079 A KR 20170098079A KR 1020160019994 A KR1020160019994 A KR 1020160019994A KR 20160019994 A KR20160019994 A KR 20160019994A KR 20170098079 A KR20170098079 A KR 20170098079A
Authority
KR
South Korea
Prior art keywords
image
image frame
information
importance
electronic device
Prior art date
Application number
KR1020160019994A
Other languages
English (en)
Inventor
손재식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160019994A priority Critical patent/KR20170098079A/ko
Priority to US15/435,829 priority patent/US20170243065A1/en
Publication of KR20170098079A publication Critical patent/KR20170098079A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • H04N5/232
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • H04N5/23216
    • H04N5/2351
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 다양한 실시 예에 따른, 전자 장치 및 전자 장치에서의 비디오 녹화 방법은, 녹화 시작 명령 입력 후 제1시간 동안 이미지 획득 장치를 이용하여 획득되는 복수의 제1 이미지 프레임들 중 일부를 선택하고, 상기 제1시간 이후의 상기 녹화 시작 명령에 대응하는 녹화 종료 명령 입력 전 제2시간 동안 획득되는 복수의 제2 이미지 프레임들 중 일부를 선택하고, 상기 선택된 이미지 프레임들을 포함하는 비디오를 생성할 수 있으며, 그 외 다양한 실시 예가 가능할 수 있다.

Description

전자 장치 및 전자 장치에서의 비디오 녹화 방법{ELECTRONIC DEVICE METHOD FOR VIDEO RECORDING IN ELECTRONIC DEVICE}
본 발명의 다양한 실시 예들은 전자 장치 및 전자 장치에서 비디오를 녹화하는 방법에 관한 것이다.
최근 사용되는 다양한 전자 장치들에는 이미지 획득 장치(예, 카메라 모듈 또는 이미지 센서)가 포함되도록 개발되고 있다. 예컨대, 전자 장치(예, 스마트폰 또는 서버)에서는 상기 이미지 획득 장치를 통해 획득한 이미지 프레임들을 이용하여 비디오로 생성하도록 제어할 수 있다.
최근 사용되는 다양한 전자 장치들에는 다양한 기능들이 사용되도록 개발되고 있다. 이러한 전자 장치에는 다양한 기능들을 보다 효과적으로 이용할 수 있도록 표시부가 제공된다. 예컨대, 최근의 스마트폰의 경우 장치의 전면부가 터치에 의해 감응하는 표시부(예컨대, 터치 스크린)가 제공되고 있다.
또한, 전자 장치에서는 다양한 애플리케이션(예컨대, '앱(App)'이라고도 한다)들이 설치되어 실행될 수 있다. 상기 애플리케이션들을 전자 장치상에서 실행시키고 제어하기 위해서는 다양한 입력 수단들(예컨대, 터치 스크린, 버튼, 마우스, 키보드, 센서 등)이 사용될 수 있다.
전자 장치에서는 비디오 녹화 종료 입력이 입력된 후 동영상이 생성되면 상기 생성된 동영상에 포함된 이미지 프레임에 대한 타임스탬프를 설정할 수 있다. 예컨대, 상기 전자 장치에서는 타임스탬프 값 또는 이미지 프레임들 간의 타임스탬프 간격을 설정하여 상기 생성된 동영상 중 일부 이미지 프레임을 포함하는 요약 비디오를 생성할 수 있다.
요약 비디오 생성을 위하여, 전자 장치에서는 녹화 시작 입력이 확인된 시점부터 녹화 종료 입력이 확인될 때까지 획득된 모든 이미지 프레임을 처리하여야 하므로, 요약 비디오에 포함되지 않는 이미지 프레임들을 처리하기 위한 불필요한 전력이 소모될 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 이미지 획득 장치 및 프로세서를 포함하며, 상기 프로세서는, 녹화 시작 명령 입력 후 제1시간 동안 상기 이미지 획득 장치를 이용하여 획득되는 복수의 제1 이미지 프레임들 중 일부를 선택하고, 상기 제1시간 이후의 상기 녹화 시작 명령에 대응하는 녹화 종료 명령 입력 전 제2시간 동안 획득되는 복수의 제2 이미지 프레임들 중 일부를 선택하고, 상기 선택된 이미지 프레임들을 포함하는 비디오를 생성하도록 설정될 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서의 비디오 녹화 방법은, 녹화 시작의 명령이 입력됨을 확인하는 동작, 상기 녹화 시작 명령 입력 후 제1시간 동안 이미지 획득 장치를 이용하여 획득되는 복수의 제1 이미지 프레임들 중 일부를 선택하는 동작, 상기 제1시간 이후의 상기 녹화 시작 명령에 대응하는 녹화 종료 명령 입력 전 제2시간 동안 획득되는 복수의 제2 이미지 프레임들 중 일부를 선택하는 동작, 및 상기 선택된 이미지 프레임들을 포함하는 비디오를 생성하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서는 녹화 시작 입력 및 녹화 종료 입력된 시간 동안 일정 간격으로 선택된 일부 이미지 프레임으로 요약 비디오를 생성함에 따라, 획득된 모든 이미지 프레임을 포함하는 비디오를 확인하지 않고도 특정 중요도를 포함하는 이미지 프레임을 선택하고 상기 선택된 이미지 프레임만을 처리하여 요약 비디오를 생성할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 장치 구성의 일 예를 도시한 블록도이다.
도 2는 본 발명의 다양한 실시 예에 따라, 전자 장치에서의 비디오 녹화 동작의 일 예를 도시한 흐름도이다.
도 3a는 본 발명의 다양한 실시 예에 따라, 전자 장치에서의 비디오 녹화 동작의 일 예를 도시한 흐름도이다.
도 3b는 본 발명의 다양한 실시 예에 따라, 전자 장치에서의 비디오 녹화 동작의 일 예를 도시한 흐름도이다.
도 4는 본 발명의 다양한 실시 예에 따라, 선택된 영상 데이터 구조의 일 예를 도시한 블록도이다.
도 5는 본 발명의 다양한 실시 예에 따라, 오디오 데이터 구조의 일 예를 도시한 블록도이다.
도 6은 본 발명의 다양한 실시 예에 따라, 이미지 버퍼에 저장된 이미지 데이터를 도식화한 도면이다.
도 7은 본 발명의 다양한 실시 예에 따라, 녹화 중인 비디오의 이미지 프레임에서 선택된 프레임의 일 예를 도시한 도면이다.
도 8은 본 발명의 다양한 실시 예에 따라, 녹화 중인 비디오의 이미지 프레임에서 선택된 프레임의 일 예를 도시한 도면이다.
도 9는 본 발명의 다양한 실시 예에 따른 네트워크 환경의 일 예를 도시한 블록도이다.
도 10은 본 발명의 다양한 실시 예에 따른 전자 장치 구성의 일 예를 도시한 블록도이다.
도 11은 본 발명의 다양한 실시 예에 따른 프로그램 모듈 구성의 일 예를 도시한 블록도이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 장치 구성의 일 예를 도시한 블록도이다.
도 1을 참조하면, 전자 장치(100)는 프로세서(110), 이미지 획득 장치(120), 센서 모듈(130), 입출력 모듈(140) 또는 메모리(150) 중 적어도 하나를 포함할 수 있다.
상기 프로세서(110)는 프레임 분석부(frame analysis component)(111), 프레임 선택부(frame selection component)(112), 타임스탬프 조정부(timestamp modification component)(113), 인코더(video encoder component)(114) 또는 VDIS(video digital image stabilization) component) 모듈(115)을 포함할 수 있으며, 그 외 녹화 중인 비디오를 일정 시간 단위로 분석하여 이미지 프레임을 선택하기 위한 다양한 구성을 포함할 수 있다.
상기 프레임 분석부(111)는 녹화 중인 비디오의 각 이미지 프레임의 정보(예, 부가 정보(151))를 확인하여 특정 이미지 프레임을 분석할 수 있다. 예컨대, 상기 프레임 분석부(111)는 일정 시간 단위 또는 일정 개수의 프레임의 단위로 이미지 프레임의 정보를 분석할 수 있다. 상기 이미지 프레임의 정보는 오디오 정보, 모션 정보, 객체 정보 또는 품질 정보 중 적어도 하나를 포함할 수 있으며, 그 외 이미지 프레임과 관련된 다양한 정보를 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 오디오 정보는 입출력 모듈(140)을 통해 입력된 오디오 신호에 대한 정보로서, 오디오 신호, 오디오 종류(예, 목소리, 소음 또는 음악) 또는 음량 등의 정보를 포함할 수 있다. 상기 모션 정보는 전자 장치(100)의 움직임 정도, 가속도, 위치 또는 방향 각도 등의 정보를 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 모션 정보는 센서 모듈(130)을 통하여 수집된 정보일 수 있다. 예를 들어, 상기 모션 정보는 상기 일정 시간 단위 또는 일정 개수의 프레임의 단위의 적어도 하나의 프레임을 분석한 정보일 수 있다. 구체적으로, 상기 프레임 분석부(111)는 분석할 프레임과 이전 프레임과의 차분 영상(different image)을 확인하여 상기 적어도 하나의 프레임에 대한 분석 정보를 확인할 수 있다. 상기 객체 정보는 각 이미지 프레임에 촬영된 객체의 정보로서, 촬영 객체의 종류(예, 사람, 바다 또는 산), 얼굴, 크기 또는 선명도 등의 정보를 포함할 수 있다. 상기 품질 정보는 이미지 프레임에 대한 정보로서, 필터 처리 여부, 해상도(resolution), 흐림 정도(blur), 밝기, 화이트 밸런스, 색상 히스토그램(color histogram), 노출(exposure), 대비(contrast), 역광(back light) 또는 구도 등의 정보 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 센서 정보는 특정 프레임의 입력 시점에 센서 모듈(130)을 통해 입력된 것으로, 전자 장치(100)의 움직임을 나타내는 데이터를 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 프레임 분석부(111) 또는 상기 프레임 선택부(112)는 상기 오디오 정보, 센서 정보, 모션 정보, 객체 정보 또는 품질 정보를 바탕으로 상기 프레임의 중요도를 분석할 수 있다. 예를 들어, 상기 프레임 분석부(111)는 모션 패턴을 분석하여 모션 변화 량이 지정된 값 이상인 경우에는 중요도를 높이고, 모션 변화 량이 지정된 값 이하인 경우에는 중요도를 낮출 수 있다. 예를 들어, 상기 객체 정보에 얼굴이 포함되고 기 설정된 크기 이상일 경우, 상기 프레임의 중요도를 미리 설정된 값에 대응하게 높일 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 프레임 분석부(111) 또는 상기 프레임선택부(112)는 사용자 입력에 기반하여 상기 프레임의 중요도를 분석할 수 있다. 예를 들어, 사용자가 공연장에서 촬영을 시작할 때, 사용자가 지정한 방향에 대하여 중요도를 높일 수 있다. 또 다른 예로, 사용자가 지정한 얼굴 정보에 중요도를 높일 수 있다.
상기 프레임 선택부(112)는 각 이미지 프레임에 대해 분석된 중요도에 따라 녹화된 이미지 프레임 중 적어도 하나의 이미지 프레임을 선택할 수 있다.
상기 타임스탬프 조정부(113)는 이미지 신호가 입력된 시간 정보에 대응하는 타임스탬프를 설정할 수 있다. 예컨대, 프로세서(110)에서는 각각의 이미지 프레임에 타임스탬프를 포함하여 저장할 수 있다.
상기 타임스탬프 조정부(113)는 타임스탬프가 설정된 이미지 프레임을 확인하고, 해당 이미지 프레임이 포함된 비디오의 중요도에 기반하여, 상기 설정된 타임스탬프의 값을 재 설정할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 타임스탬프 조정부(113)는 상기 비디오 또는 각 이미지 프레임의 중요도에 따라 이미지 프레임들 간의 재생 간격(time lapse)을 미리 지정된 값의 이상으로 늘리거나 이하로 줄일 수 있다. 예컨대, 선택된 이미지 프레임들 간의 재생 간격이 설정됨에 따라, 상기 선택된 이미지 프레임 중 일부는 미리 설정된 재생 간격보다 작은 간격(hyper lapse)으로 빠르게 재생될 수 있다.
상기 인코더(114)는 이미지 신호를 표준화된 형식의 비디오 데이터로 변환시킬 수 있다.
상기 비디오 데이터는 이미지 프레임의 단위로 구성되며, 상기 이미지 프레임은 일정 시간에 입력된 이미지 신호, 각 이미지 신호에 대응하는 센서 데이터, 오디오 데이터 또는 타임스탬프를 포함할 수 있다.
상기 VDIS 모듈(115)은 센서 모듈(130)을 통해 입력된 센서 데이터를 이용하여, 이미지 프레임의 움직임을 보정할 수 있다. 본 발명의 다양한 실시 예에 따라, 상기 VDIS 모듈(115)은 획득한 프레임의 일부를 잘라내거나 크기 또는 위치를 변경하여 이미지 프레임의 움직임을 보정할 수 있다. 예컨대, 센서 데이터가 움직임 방향 나타내는 것으로서 전자 장치(100)가 일정 각도로 회전됨을 나타내는 경우, 상기 VDIS 모듈(116)은 상기 센서 데이터의 타임스탬프와 대응하는 이미지 프레임이 상기 회전된 각도의 반대로 회전시켜 움직임 방향이 보정되도록 제어할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 VDIS 모듈(115)은 프레임 선택부(112)에 의해 선택된 적어도 하나의 이전 프레임을 참조하여 이미지 프레임의 움직임을 보정할 수 있다. 예컨데, 상기 적어도 하나의 이전 프레임과 상기 프레임의 공통으로 나타난 객체의 위치를 기반으로 이미지 프레임을 보정할 수 있다.
상기 이미지 획득 장치(120)는 이미지 프로세서(image processor)(121), 이미지 센서(122) 또는 이미지 버퍼(123)를 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 이미지 버퍼(123)가 이미지 획득 장치(120) 내에 포함된 것으로 도시하였지만, 이에 한정되는 않으며, 이미지 획득 장치(120)와는 별도의 구성으로 전자 장치(100)에 포함되도록 구성될 수 있다.
상기 이미지 프로세서(121)는 이미지 획득 장치(120)의 전반적인 동작을 제어할 수 있다. 예컨대, 상기 이미지 프로세서(121)는 이미지 획득 장치(120)를 통해 입력되는 이미지 신호를 처리하고, 처리된 이미지 신호가 일정 시간 동안 또는 일정 개수만큼 저장된 후 메모리(150)로 전달되도록 제어할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 이미지 프로세서(121)는 상기 이미지 센서(122)를 통해 입력된 이미지 신호를 이미지 프레임으로 생성하고, 상기 생성된 이미지 프레임이 이미지 버퍼(123)에 저장되도록 제어할 수 있다.
상기 이미지 센서(122)는 전자 장치(100) 외부의 객체를 통해 반사된 빛을 감지하고, 상기 빛을 전기적인 이미지 신호로 변환시킬 수 있다.
상기 이미지 버퍼(123)는 일정 용량의 이미지 프레임을 저장하도록 설정될 수 있다. 예컨대, 상기 이미지 버퍼(123)에 일정 시간 동안 또는 일정 개수만큼 이미지 프레임이 저장되면, 상기 프레임 분석부(111)는 상기 이미지 버퍼(123)에 포함된 적어도 하나의 이미지 프레임을 분석할 수 있다. 또한, 상기 프레임 선택부(112)에 의해 선택된 적어도 하나의 이미지 프레임은 상기 메모리(150)에 저장되도록 제어할 수 있다.
상기 센서 모듈(130)(예, 센서모듈(1040))은 적어도 하나의 센서를 포함할 수 있으며, 상기 센서들을 통해 감지된 센서 데이터 및 각 센서 데이터의 타임스탬프를 생성하도록 제어할 수 있다.
예컨대, 상기 적어도 하나의 센서는 가속도 센서(accelerometer sensor)(예, 가속도 센서(1040E)), 자이로스코프 센서(gyroscope sensor)(예, 자이로 센서(1040B)), 마그네틱 센서(magnetic sensor)(예, 마그네틱 센서(1040D)), 근접 센서(proximity sensor)(예, 근접 센서(1040G)), 위치 센서 등 중 적어도 하나를 포함할 수 있으며, 상기 센서 모듈(130)은 각 센서들로부터 측정된 데이터를 프로세서(110)로 전송할 수 있다.
예컨대, 가속도 센서는 상기 전자 장치(200)의 기준 위치를 중심으로 x, y 및 z축에 작용하는 각 축 별 힘의 세기 또는 가속도 충격 량에 대응하는 데이터를 측정할 수 있다.
상기 자이로스코프 센서는 상기 전자 장치(200)의 기준 위치를 중심으로 x, y 및 z축에 작용하는 회전속도(각속도)의 측정 값(Rad/s)에 대응하는 데이터를 측정할 수 있다.
상기 근접 센서는, 전자 장치(100)의 특정 면에 물체의 근접 여부를 측정하고, 상기 측정된 데이터의 세기에 따라 근접된 물체와 상기 전자 장치(100)와의 거리를 측정할 수 있다.
상기 위치 센서는, 인공위성으로부터 수신된 신호 또는 근거리 통신(WiFi, BT)을 통해 수신되는 신호(예, beacon)을 확인하고, 상기 수신된 신호의 세기 또는 시간 정보를 기반으로 위/경도 정보나 거리, 방향에 대응하는 데이터를 측정할 수 있다.
상기 입출력 모듈(140)은 오디오 모듈(예, 오디오 모듈(1080))을 포함할 수 있다. 예컨대, 상기 입출력 모듈(140)은 상기 오디오 모듈을 통해 측정된 음성 신호를 확인하고, 상기 확인된 음성 신호의 파형 또는 세기에 대응하는 데이터를 측정할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 입출력 모듈(140)을 통해 입력된 신호는 이미지 신호와 결합되어 이미지 프레임에 저장될 수 있다.
상기 메모리(150)는 녹화 비디오 정보(151) 또는 녹화 비디오(152)를 저장할 수 있다.
상기 녹화 비디오 정보(151)는 이미지 프레임의 움직임 정보, 객체 정보 또는 품질 정보를 포함할 수 있다. 예컨대, 상기 녹화 비디오 정보(151)는 각 이미지 프레임 별 또는 특정 시간 구간에 획득된 이미지 프레임 별로 구분하여 이미지 프레임의 정보를 포함할 수 있다.
상기 녹화 비디오(152)는 녹화 시작 명령이 확인되고 녹화 종료 명령이 확인될 때까지 획득한 이미지 프레임들로 구성된 전체 비디오 및 상기 전체 비디오에서 선택된 일부 이미지 프레임들로 구성된 요약 비디오를 포함할 수 있다.
도 2는 본 발명의 다양한 실시 예에 따라, 전자 장치에서의 비디오 녹화 동작의 일 예를 도시한 흐름도이다.
도 2를 참조하면, 210 동작에서 전자 장치는 녹화 시작 명령이 입력됨을 확인할 수 있다.
220 동작에서 전자 장치는 제1시간 동안 획득된 제1이미지 프레임 중 일부의 프레임을 선택할 수 있다. 예컨대, 전자 장치는 상기 제1이미지 프레임 중 미리 설정된 값 이상의 중요도로 분석된 이미지 프레임을 선택할 지 여부를 결정할 수 있으며 중요도가 낮은 경우에는 이미지 프레임을 선택하지 않을 수도 있다.
본 발명의 다양한 실시 예에 따라, 상기 제1시간 동안 상기 제1이미지 프레임에 대응되는 센서 데이터가 확인되지 않거나, 상기 제1이미지 프레임의 중요도가 일정 값 이하인 것으로 판단되는 경우, 전자 장치는 상기 제1시간 동안 획득된 이미지 프레임 중 일부를 선택하지 않도록 제어할 수 있다.
230 동작에서 전자 장치는 제2시간 동안 획득된 제2이미지 프레임 중 일부의 프레임을 선택 할 수 있다. 예컨대, 전자 장치는 상기 제2이미지 프레임 중 미리 설정된 값 이상의 중요도로 분석된 이미지 프레임을 선택할 지 여부를 결정할 수 있 으며 중요도가 낮은 경우에는 이미지 프레임을 선택하지 않을 수도 있다.
본 발명의 다양한 실시 예에 따라, 상기 제2시간 동안 상기 제2이미지 프레임에 대응되는 센서 데이터가 확인되지 않거나, 상기 제2이미지 프레임의 중요도가 일정 값 이하인 것으로 판단되는 경우, 전자 장치는 상기 제2시간 동안 획득된 이미지 프레임 중 일부를 선택하지 않도록 제어할 수 있다.
240 동작에서 전자 장치는 녹화 시작 명령에 대응하는 녹화 종료 명령이 입력됨을 확인할 수 있다.
250 동작에서 전자 장치는 선택된 제1시간 및 제2시간 동안의 프레임 일부를 포함하는 비디오를 생성할 수 있다. 예컨대, 상기 프레임 일부를 포함하는 비디오는, 상기 녹화 시작 명령이 입력된 후 상기 녹화 종료 명령이 입력될 때까지 획득된 이미지 프레임들을 포함하는 전체 비디오로부터 요약된 것으로서, 상기 전체 비디오와는 별개로 생성될 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 생성된 비디오에 포함된 프레임들 간의 간격을 설정할 수 있다. 예컨대, 전자 장치는 각 선택된 이미지 프레임을 분석하여 해당 이미지 프레임의 중요도를 다시 판단하고, 상기 이미지 프레임의 이전 이미지 프레임과의 간격을 설정할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 이전 이미지 프레임은, 특정 이미지 프레임이 획득되기 이전에 가장 마지막으로 획득된 이미지 프레임일 수 있으며, 그 외 특정 이미지 프레임의 타임스탬프 값보다 작은 타임스탬프 값을 포함하는 적어도 하나의 이미지 프레임을 포함할 수 있다.
도 3a는 본 발명의 다양한 실시 예에 따라, 전자 장치에서의 비디오 녹화 동작의 일 예를 도시한 흐름도이다.
도 3a를 참조하면, 310 동작에서 전자 장치에서는 비디오 녹화가 시작됨을 확인할 수 있다.
320 동작에서 전자 장치는 녹화 중인 이미지 프레임 각각에 대한 중요도를 분석할 수 있다. 예컨대, 전자 장치는 이미지 프레임에 포함된 정보를 기반으로 각 이미지 프레임에 대한 중요도를 판단할 수 있다.
330 동작에서 전자 장치는 상기 분석된 중요도 또는 적어도 하나의 이전 이미지 프레임과의 관계에 기반하여, 녹화된 이미지 프레임 중 적어도 하나의 이미지 프레임의 선택을 결정할 수 있다. 예컨대, 전자 장치는 녹화된 이미지 프레임 중 일정 값 이상의 중요도를 포함하는 이미지 프레임을 선택할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 일정 값 이상의 중요도를 포함하는 이미지 프레임이 일정 시간 동안 지정된 개수 이상으로 획득되거나 이전 이미지 프레임과의 관련성이 있는 것으로 판단되면, 프레임 선택 간격을 설정된 값 이하로 재 설정할 수 있다. 예컨대, 5개의 이미지 프레임 당 1개를 선택할 것으로 미리 설정된 경우, 전자 장치는 일정 값 이상의 중요도를 포함하는 이미지 프레임들에 대해 3개의 이미지 프레임 중 1개를 선택할 것으로 설정할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치는 일정 시간 동안 획득된 일정 값 이상의 중요도를 포함하는 이미지 프레임에 대해, 이전 이미지 프레임과의 관계를 판단할 수 있다. 예컨대, 특정 이미지 프레임(예, 제2시간 동안 획득된 프레임)과 이전 이미지 프레임(예, 제1시간 동안 획득된 프레임)에 대응되는 종류의 데이터(예, 센서 데이터) 또는 데이터 정보(예, 모션 정보 또는 객체 정보)를 포함되어 있는 경우, 전자 장치는 특정 이미지 프레임에 대해 이전 이미지 프레임과 관련성이 있는 것으로 판단할 수 있다.
340 동작에서 전자 장치는 선택된 이미지 프레임의 타임스탬프를 설정할 수 있다.
350 동작에서 전자 장치는 설정된 타임스탬프를 기반으로 오디오 데이터의 샘플링 레이트(sampling rate)를 설정할 수 있다. 예컨대, 전자 장치에서 상기 선택된 이미지 프레임과 대응하는 오디오 데이터가 확인되지 않거나 이미지 프레임의 중요도에 따라, 전술된 350 동작은 생략될 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 전자 장치는 이미지 프레임의 중요도에 따라 샘플링 레이트를 설정하고, 상기 설정된 샘플링 레이트에 따라 샘플링된 오디오 데이터의 부가 정보(예, 음량 정보)를 설정할 수 있다. 예컨대, 전자 장치는 특정 이미지 프레임의 중요도에 따라, 해당 이미지 프레임에 대응하는 오디오 데이터의 음량 값을 높거나 낮게 조정할 수도 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서는 상기 선택된 이미지 프레임의 선택 주기에 대응하여 오디오 데이터를 샘플링할 수 있다. 예컨대, 10번째로 획득된 제1 이미지 프레임과 20번째로 획득된 제2이미지 프레임이 30fps의 재생 속도를 가지는 비디오에서 선택된 경우, 전자 장치는 상기 제1 및 제2 이미지 프레임 간의 타임스탬프 간격은 10에서 1로 설정하고, 샘플링 레이트 값을 이전 값에서 10배 작은 값으로 설정할 수 있다.
도 3b는 본 발명의 다양한 실시 예에 따라, 전자 장치에서의 비디오 녹화 동작의 일 예를 도시한 흐름도(예: 도 2의 250동작에서 선택된 일부 프레임을 포함하는 비디오를 생성)이다.
도 3b를 참조하면, 360 동작에서 전자 장치는 녹화 종료 입력이 입력됨을 확인할 수 있다.
370 동작에서 전자 장치는 일정 시간 동안 녹화된 이미지 프레임의 평균 중요도를 계산할 수 있다. 예컨대, 상기 평균 중요도는 이미지 프레임 각각의 중요도의 평균으로 계산되거나 상기 녹화된 이미지 프레임에 대한 센서 데이터의 평균 값, 품질 정보 또는 오디오 데이터의 정보에 기반하여 계산될 수 있다.
380 동작에서 전자 장치는 녹화된 이미지의 중요도에 따라 타임스탬프를 설정할 수 있다.
390 동작에서 전자 장치는 타임스탬프가 재설정된 이미지 프레임에 센서 데이터 또는 오디오 데이터가 대응하도록 비디오 데이터를 생성할 수 있다.
391 동작에서 전자 장치는 상기 설정된 타임스탬프를 기반으로, 오디오 데이터의 샘플링 레이트를 변경할 수 있다. 예컨대, 전자 장치는 전술된 380 동작에서 설정된 타임스탬프에 기반하여, 전술된 350 동작에서 설정된 샘플링 레이트 값을 변경할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서 상기 선택된 이미지 프레임과 대응하는 오디오 데이터 또는 샘플링 레이트가 설정된 오디오 데이터가 확인되지 않는 경우 또는 중요도에 기반하여 전술된 391 동작은 생략될 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 선택된 이미지 프레임의 중요도에 따라, 해당 선택된 이미지 프레임에 대응하는 오디오 데이터의 음량을 조정할 수 있다.
이하 후술되는 도 4 및 도 5는 본 발명의 다양한 실시 예에 따라, 비디오 데이터 구조의 다양한 예를 도시한 것 이다.
본 발명의 다양한 실시 예에 따르면, 비디오 데이터는 영상 데이터(400)와 오디오 데이터(500)를 포함하는 하나의 파일로 구성될 수 있으며, 상기 비디오 데이터는 다양한 포맷(예: mpeg, mp4(mpeg-4), mov, avi, wmv, asx, swf, skm, svi, dat, vob 등)에 따라 생성되거나 변환될 수 있다.
본 발명의 다양한 실시 예에 따르면, 영상 데이터는 오디오 데이터와 별도의 파일로 저장될 수 있다. 예를 들어, 프로세서(110)는 미디어 플레이어(1182)를 통하여 별도로 저장된 영상 데이터 파일과 오디오 데이터 파일이 동시에 재생되도록 제어할 수 있다.
도 4는 본 발명의 다양한 실시 예에 따라, 선택된 영상 데이터 구조의 일 예를 도시한 블록도이다.
도 4를 참조하면, 영상 데이터(400)는 타임스탬프(410), 이미지 데이터(420) 또는 부가 정보(430)를 포함할 수 있다.
상기 타임스탬프(410)는 상기 영상 데이터(400)를 식별하기 위한 시간 정보로서 기준시간 정보를 나타낼 수 있다. 예컨대, 상기 영상 데이터(400)를 포함하는 비디오에서 적어도 하나의 이미지 데이터에 해당하는 타임스탬프 간 간격이 조정됨에 따라, 상기 타임스탬프(410)의 값은 재 설정될 수 있다. 일 실시 예에 따르면, 상기 타임스탬프(410)이 없을 경우, 이미지 데이터는 기 설정 된 프레임 레이트(frame rate)를 기반으로 재생될 수 있다.
상기 이미지 데이터(420)는 이미지 센서 (122)로부터 감지된 센서 데이터로서, 외부로부터 입력된 빛이 전기적 신호로 변환된 것일 수 있다. 예컨대, 상기 이미지 데이터(420)는 이미지 프레임의 단위로 저장될 수 있다.
상기 부가 정보(또는 메타 데이터(meta data))(430)는 상기 이미지 데이터(420)와 관련된 정보로서, 모션 정보(431), 객체 정보(432) 또는 품질 정보(433)를 포함할 수 있다. 예컨대, 상기 부가 정보(430)는 전자 장치(예, 전자 장치(100))에서 감지된 센서 데이터에 기반하여 생성되거나 상기 이미지 데이터(420)를 감지하는 프로세서에 의해서 분석된 이미지 데이터의 정보가 포함된 것일 수 있다.
상기 모션 정보(431)는 상기 영상 데이터(400)의 움직임 정보로서, 상기 타임스탬프(410)와 대응하는 시점에 센서(예, 센서 모듈(130))을 통해 생성되거나 감지된 센서 데이터의 값을 포함할 수 있다. 일 실시 예에 따르면, 상기 모션 정보는 상기 이미지 프레임 사이의 변화량을 기반으로 계산된 정보일 수 있다.
상기 객체 정보(432)는 영상 데이터(400)에 촬영된 객체에 대한 정보로서, 객체의 식별 정보, 객체의 크기 또는 촬영 선명도 등의 정보를 포함할 수 있다.
상기 품질 정보(433)는 이미지 데이터(420)가 촬영된 상태를 나타내는 정보로서, 노이즈, 블러 처리 여부, 이미지 필터 정보 또는 선명도 등을 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 부가 정보(430)는 전자 장치(예, 전자 장치(100))에 포함된 구성에 따라 정보의 일부가 변경되거나 생략될 수 있다.
도 5는 본 발명의 다양한 실시 예에 따라, 오디오 데이터 구조의 일 예를 도시한 블록도이다.
도 5를 참조하면, 오디오 데이터(500)는 타임스탬프(510), 오디오 신호(520) 또는 부가 정보(530)를 포함할 수 있다.
상기 타임스탬프(510)는 상기 오디오 데이터(500)를 식별하기 위한 시간 정보로서 비디오에서 상기 오디오 신호(520)가 입력된 시점 또는 재생 시점을 나타낼 수 있다.
상기 오디오 신호(520)는 입출력 모듈(예, 오디오 모듈)을 통해 측정된 데이터를 포함할 수 있다.
상기 부가 정보(530)는 상기 오디오 신호(520)와 관련된 정보로서, 오디오 종류(531), 음량 정보(532) 또는 품질 정보(533)를 포함할 수 있다.
상기 오디오 종류(531)는 상기 오디오 신호(520)를 분류하기 위한 것으로, 특정 오디오 신호가 사람의 목소리, 노이즈 또는 음악 등에 해당하는지를 나타낼 수 있다.
상기 음량 정보(532)는 일정 시간 동안 입력된 오디오 신호의 평균 음량에 기반하여 상기 오디오 신호(520)의 음량 값을 포함할 수 있다.
상기 품질 정보(533)는 상기 오디오 신호(520)가 입력된 상태를 나타내는 정보로서, 상기 오디오 신호(520)의 파형 또는 세기 값을 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 부가 정보(530)는 전자 장치(예, 전자 장치(100))의 오디오 모듈(예, 오디오 모듈(1080))의 성능에 따라 오디오 신호(520)와 관련된 다양한 정보가 더 포함되거나, 일부가 변경 또는 생략될 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 오디오 데이터(500)에 대응하게 획득된 영상 데이터(400)에서 각 이미지 프레임이 선택된 간격을 확인하고, 상기 간격에 기반하여 상기 오디오 데이터(500)에서 오디오 신호(520)를 샘플링하기 위한 샘플링 레이트를 설정할 수 있다.
도 6은 본 발명의 다양한 실시 예에 따라, 이미지 버퍼(예, 이미지 버퍼(123))에 저장된 이미지 데이터를 도식화한 도면이다.
도 6을 참조하면, 본 발명의 다양한 실시 예에 따라, 전자 장치에서는 녹화 시작 명령이 입력됨에 따라 제1시간 (예, 0초~1초)에서 획득된 이미지 프레임을 확인할 수 있다. 예컨대, 상기 제1시간 동안 전자 장치에서는 50ms의 단위로 20개의 이미지 프레임을 획득할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서는 상기 녹화 시작 명령이 입력된 후 상기 녹화 시작 명령에 대응하는 녹화 종료 명령이 입력되기 전에, 상기 획득한 이미지 프레임 각각에 대한 중요도를 계산할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서는 상기 계산된 중요도에 따라, 일정 시간 동안 획득된 상기 이미지 프레임 중 일부를 선택하고, 상기 녹화 종료 명령이 입력됨에 따라 상기 선택된 이미지 프레임을 포함하는 비디오를 생성할 수 있다.
이하, 도 7 및 도 8을 통해서 상기 이미지 프레임 중 일부를 선택하고 이미지프레임 간의 타임스탬프를 설정하는 동작에 대해 기술된다.
도 7은 본 발명의 다양한 실시 예에 따라, 녹화 중인 비디오의 이미지 프레임에서 선택된 프레임의 일 예를 도시한 도면이다.
도 7을 참조하면, 전자 장치에서는 녹화 시작 명령의 입력된 후 제1시간에서 획득한 이미지 프레임의 중요도를 계산하여 적어도 하나의 이미지 프레임을 선택할 수 있다. 예컨대, 상기 중요도는 상기 이미지 프레임의 정보 또는 상기 이미지 프레임의 대응하는 오디오 데이터의 정보에 기반하여 계산될 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서는 녹화 시작 명령이 입력되고 녹화 종료 명령이 입력되기 전의 상기 제1시점에서, 이미지 프레임을 선택할 수 있다.
본 발명의 다양한 실시 예에 따라, 이미지 프레임은 이미지 버퍼의 용량 또는 생성하고자 하는 비디오의 재생 길이에 따라 다양한 값(예, 1 에서 10 중 하나)에 해당하는 중요도로 분류될 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 제1시간에서 획득된 이미지 프레임 중 일부로서, 제1이미지 프레임, 제4이미지 프레임, 제9이미지 프레임, 제11이미지 프레임, 제16이미지 프레임 및 제20이미지 프레임이 선택될 수 있다. 예컨대, 상기 선택된 프레임들은 중요도가 7 이상으로 계산됨에 따라 선택된 것일 수 있다.
상기 제1이미지 프레임은, 상기 제1이미지 프레임의 타임스탬프에 대응하는 시점에 감지된 위치 데이터가 미리 지정된 위치(예, 주차장)를 나타냄에 따라 중요도 10으로 계산될 수 있다.
상기 제4이미지 프레임은 상기 제4이미지 프레임의 타임스탬프에 대응하는 시점에 입력된 오디오 데이터가 특정 분류(예, 사람 목소리)로 분류됨에 따라 중요도 8로 계산될 수 있다.
상기 제9이미지 프레임 및 제16이미지 프레임은 각 이미지 신호의 품질 정보에서 선명도에 해당하는 값이 미리 지정된 값 이상으로 측정됨에 따라 중요도 7로 계산될 수 있다.
상기 제11이미지 프레임은 상기 제11이미지 프레임의 타임스탬프에 대응하는 시점에 방향 변화를 가지는 센서 데이터가 일정 값 이상으로 측정됨에 따라 중요도 8로 계산될 수 있다.
상기 제20이미지 프레임은 상기 제20이미지 프레임의 타임스탬프에 대응하는 시점에 일정 값 이상의 움직임을 가지는 센서 데이터가 측정됨에 따라 중요도 7로 계산될 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 생성된 비디오에서는 각 이미지 프레임의 타임스탬프 값이 낮은 순으로, 제1이미지 프레임, 제4이미지 프레임, 제9이미지 프레임, 제11이미지 프레임, 제16이미지 프레임 및 제20이미지 프레임을 순차적으로 포함할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서는 상기 생성된 비디오의 중요도를 계산하고, 상기 계산된 중요도에 기반하여 이미지 프레임들 간의 타임스탬프 간격을 일정 값(예, 33.3ms)으로 설정할 수 있다. 예컨대, 상기 생성된 비디오에 대한 재생 시작 명령이 입력되면, 30fps(frame per second)의 단위로 상기 생성된 비디오가 재생될 수 있다.
도 8은 본 발명의 다양한 실시 예에 따라, 녹화 중인 비디오의 이미지 프레임에서 선택된 프레임의 일 예를 도시한 도면이다.
도 8을 참조하면, 전자 장치에서는 녹화 시작 명령의 입력됨이 확인(예, 210 동작)된 후 제1시간(예, 0초에서 1초) 및 제2시간(예, 1초에서 2초)에서 선택된 이미지 프레임들을 확인하여 비디오로 생성할 수 있다. 예컨대, 전자 장치에서는 상기 제1 시간 동안 제1 내지 제20 이미지 프레임이 획득되고, 제2시간 동안에는 제21 내지 제40 이미지 프레임이 획득될 수 있다.
본 발명의 다양한 실시 예에 따라, 상기 전자 장치는 상기 제1시간 동안 획득된 이미지 프레임을 분석하여 각 이미지 프레임의 중요도를 계산하고, 지정된 값 이상의 중요도를 포함하는 이미지 프레임들(예, 제1, 제4, 제9, 제11, 제16 및 제20 이미지 프레임)을 선택할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 제2시간 동안 획득된 이미지 프레임을 분석하여 지정된 값 이상의 중요도를 포함하는 이미지 프레임들(예, 제25, 제27, 제30, 제31, 제33, 제36, 제37 및 제30 이미지 프레임)을 선택할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치는 상기 녹화 시작 명령에 대응하는 녹화 종료 명령이 입력됨을 확인(예, 240 동작)하면, 상기 선택된 이미지 프레임들의 중요도에 따라 이전 이미지 프레임과의 타임스탬프 값의 간격을 설정할 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치에서는 이미지 프레임들 간의 타임스탬프 간격을 중요도가 미리 설정된 값(예, 5) 이상으로 계산된 경우 66.6ms로, 미리 설정된 값 이하로 계산된 경우 16.6667ms로 설정할 수 있다. 예컨대, 제31 이미지 프레임은 상기 제31 이미지 프레임의 타임스탬프에 대응하는 센서 데이터의 값이 일정 값 이상으로 감지됨에 따라 타임스탬프 간격이 기존 50ms에서 증가된 값으로 설정될 수 있다.
본 발명의 다양한 실시 예에 따라, 전자 장치는 재생 시작 명령이 입력되면 상기 선택된 이미지 프레임들을 설정된 타임스탬프 간격으로 재생시킬 수 있다. 예컨대, 제1 이미지 프레임, 제4 이미지 프레임, 제9 이미지 프레임, 제11 이미지 프레임, 제16 이미지 프레임, 제20 이미지 프레임, 제25 이미지 프레임, 제27 이미지 프레임, 제30 이미지 프레임, 제33 이미지 프레임, 제36 이미지 프레임, 제37 이미지 프레임 및 제40 이미지 프레임은 이전 이미지 프레임과 16.6667ms의 간격으로 재생되고, 제31 이미지 프레임은 이전의 제30 이미지 프레임과 66.6ms의 간격으로 재생될 수 있다.
도 9는 본 발명의 다양한 실시 예에 따른 네트워크 환경의 일 예를 도시한 블록도이다.
도 9를 참조하면, 네트워크 환경(900) 내에 전자 장치(901)가 포함될 수 있다. 다. 전자 장치(901)는 버스(910), 프로세서(920), 메모리(930), 입출력 인터페이스(950), 디스플레이(960), 및 통신 인터페이스(970)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(901)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. 버스(910)는 구성요소들(910-970)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다. 프로세서(920)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(920)는, 예를 들면, 전자 장치(901)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(930)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(930)는, 예를 들면, 전자 장치(901)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(930)는 소프트웨어 및/또는 프로그램(940)을 저장할 수 있다. 프로그램(940)은, 예를 들면, 커널(941), 미들웨어(943), 어플리케이션 프로그래밍 인터페이스(API)(945), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(947) 등을 포함할 수 있다. 커널(941), 미들웨어(943), 또는 API(945)의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널(941)은, 예를 들면, 다른 프로그램들(예: 미들웨어(943), API(945), 또는 어플리케이션 프로그램(947))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(910), 프로세서(920), 또는 메모리(930) 등)을 제어 또는 관리할 수 있다. 또한, 커널(941)은 미들웨어(943), API(945), 또는 어플리케이션 프로그램(947)에서 전자 장치(901)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(943)는, 예를 들면, API(945) 또는 어플리케이션 프로그램(947)이 커널(941)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(943)는 어플리케이션 프로그램(947)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(943)는 어플리케이션 프로그램(947) 중 적어도 하나에 전자 장치(901)의 시스템 리소스(예: 버스(910), 프로세서(920), 또는 메모리(930) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(945)는 어플리케이션(947)이 커널(941) 또는 미들웨어(943)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다. 입출력 인터페이스(950)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(901)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(901)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(960)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(960)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(960)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다. 통신 인터페이스(970)는, 예를 들면, 전자 장치(901)와 외부 장치(예: 제 1 외부 전자 장치(902), 제 2 외부 전자 장치(904), 또는 서버(906)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(970)는 무선 통신 또는 유선 통신을 통해서 네트워크(962)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(904) 또는 서버(906))와 통신할 수 있다.
무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(962)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
제 1 외부 전자 장치(902) 및 제 2 외부 전자 장치(904) 각각은 전자 장치(901)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시예에 따르면, 전자 장치(901)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(902 또는 904), 또는 서버(906)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(901)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(901)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(902, 904), 또는 서버(906))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(902, 904), 또는 서버(906))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(901)로 전달할 수 있다. 전자 장치(901)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 10은 본 발명의 다양한 실시 예에 따른 전자 장치 구성의 일 예를 도시한 블록도이다.
도 10을 참조하면, 전자 장치(1001)는, 도 9에 도시된 전자 장치(901)의 전체 또는 일부를 포함할 수 있다. 전자 장치(1001)는 하나 이상의 프로세서(예: AP)(1010), 통신 모듈(1020), 가입자 식별 모듈(1024), 메모리(1030), 센서 모듈(1040), 입력 장치(1050), 디스플레이(1060), 인터페이스(1070), 오디오 모듈(1080), 카메라 모듈(1091), 전력 관리 모듈(1095), 배터리(1096), 인디케이터(1097), 및 모터(1098) 를 포함할 수 있다. 프로세서(1010)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(1010)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(1010)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(1010)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서를 더 포함할 수 있다. 프로세서(1010)는 도 10에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(1021))를 포함할 수도 있다. 프로세서(1010) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드)하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 모듈(1020)(예: 통신 인터페이스(970))와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(1020)은, 예를 들면, 셀룰러 모듈(1021), WiFi 모듈(1023), 블루투스 모듈(1025), GNSS 모듈(1027), NFC 모듈(1028) 및 RF 모듈(1029)를 포함할 수 있다. 셀룰러 모듈(1021)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(1021)은 가입자 식별 모듈(예: SIM 카드)(1024)을 이용하여 통신 네트워크 내에서 전자 장치(1001)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(1021)은 프로세서(1010)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(1021)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(1021), WiFi 모듈(1023), 블루투스 모듈(1025), GNSS 모듈(1027) 또는 NFC 모듈(1028) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. RF 모듈(1029)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(1029)은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(1021), WiFi 모듈(1023), 블루투스 모듈(1025), GNSS 모듈(1027) 또는 NFC 모듈(1028) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈(1024)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(1030)(예: 메모리(930))는, 예를 들면, 내장 메모리(1032) 또는 외장 메모리(1034)를 포함할 수 있다. 내장 메모리(1032)는, 예를 들면, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브 (SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리(1034)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(1034)는 다양한 인터페이스를 통하여 전자 장치(1001)와 기능적으로 또는 물리적으로 연결될 수 있다.
센서 모듈(1040)(예, 센서 모듈(130))은, 예를 들면, 물리량을 계측하거나 전자 장치(1001)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(1040)은, 예를 들면, 제스처 센서(1040A), 자이로 센서(1040B), 기압 센서(1040C), 마그네틱 센서(1040D), 가속도 센서(1040E), 그립 센서(1040F), 근접 센서(1040G), 컬러(color) 센서(1040H)(예: RGB(red, green, blue) 센서), 생체 센서(1040I), 온/습도 센서(1040J), 조도 센서(1040K), 또는 UV(ultra violet) 센서(1040M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(1040)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(1040)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1001)는 프로세서(1010)의 일부로서 또는 별도로, 센서 모듈(1040)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(1010)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(1040)을 제어할 수 있다.
입력 장치(1050)는, 예를 들면, 터치 패널(1052), (디지털) 펜 센서(1054), 키(1056), 또는 초음파 입력 장치(1058)를 포함할 수 있다. 터치 패널(1052)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(1052)은 제어 회로를 더 포함할 수도 있다. 터치 패널(1052)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(1054)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(1056)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(1058)는 마이크(예: 마이크(1088))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(1060)(예: 디스플레이(960))는 패널(1062), 홀로그램 장치(1064), 프로젝터(1066), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다. 패널(1062)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(1062)은 터치 패널(1052)과 하나 이상의 모듈로 구성될 수 있다. 한 실시예에 따르면, 패널(1062)은 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 포스 센서)를 포함할 수 있다. 상기 압력 센서는 터치 패널(1052)과 일체형으로 구현되거나, 또는 터치 패널(1052)과는 별도의 하나 이상의 센서로 구현될 수 있다. 홀로그램 장치(1064)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(1066)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(1001)의 내부 또는 외부에 위치할 수 있다. 인터페이스(1070)는, 예를 들면, HDMI(1072), USB(1074), 광 인터페이스(optical interface)(1076), 또는 D-sub(D-subminiature)(1078)를 포함할 수 있다. 인터페이스(1070)는, 예를 들면, 도 9에 도시된 통신 인터페이스(970)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(1070)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(1080)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(1080)의 적어도 일부 구성요소는, 예를 들면, 도 9에 도시된 입출력 인터페이스(945)에 포함될 수 있다. 오디오 모듈(1080)은, 예를 들면, 스피커(1082), 리시버(1084), 이어폰(1086), 또는 마이크(1088) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(1091)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다. 전력 관리 모듈(1095)은, 예를 들면, 전자 장치(1001)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(1095)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리 또는 연료 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(1096)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(1096)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
인디케이터(1097)는 전자 장치(1001) 또는 그 일부(예: 프로세서(1010))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(1098)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱 효과 등을 발생시킬 수 있다. 전자 장치(1001)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다. 본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치(예: 전자 장치(1001))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 11은 본 발명의 다양한 실시 예에 따른 프로그램 모듈 구성의 일 예를 도시한 블록도이다.
본 발명의 다양한 실시 예에 따라, 프로그램 모듈(1110)(예: 프로그램(940))은 전자 장치(예: 전자 장치(901))에 관련된 자원을 제어하는 운영 체제 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(947))을 포함할 수 있다. 운영 체제는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다.
도 11을 참조하면, 프로그램 모듈(1110)은 커널(1120)(예: 커널(941)), 미들웨어(1130)(예: 미들웨어(943)), (API(1160)(예: API(945)), 및/또는 어플리케이션(1170)(예: 어플리케이션 프로그램(947))을 포함할 수 있다. 프로그램 모듈(1110)의 적어도 일부는 전자 장치 상에 프리로드 되거나, 외부 전자 장치(예: 전자 장치(902, 904), 서버(906) 등)로부터 다운로드 가능하다.
커널(1120)은, 예를 들면, 시스템 리소스 매니저(1121) 및/또는 디바이스 드라이버(1123)를 포함할 수 있다. 시스템 리소스 매니저(1121)는 시스템 리소스의 제어, 할당, 또는 회수를 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(1121)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부를 포함할 수 있다. 디바이스 드라이버(1123)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. 미들웨어(1130)는, 예를 들면, 어플리케이션(1170)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(1170)이 전자 장치 내부의 제한된 시스템 자원을 사용할 수 있도록 API(1160)를 통해 다양한 기능들을 어플리케이션(1170)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(1130) 는 런타임 라이브러리(1135), 어플리케이션 매니저(1141), 윈도우 매니저(1142), 멀티미디어 매니저(1143), 리소스 매니저(1144), 파워 매니저(1145), 데이터베이스 매니저(1146), 패키지 매니저(1147), 커넥티비티 매니저(1148), 노티피케이션 매니저(1149), 로케이션 매니저(1150), 그래픽 매니저(1151), 또는 시큐리티 매니저(1152) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(1135)는, 예를 들면, 어플리케이션(1170)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(1135)는 입출력 관리, 메모리 관리, 또는 산술 함수 처리를 수행할 수 있다. 어플리케이션 매니저(1141)는, 예를 들면, 어플리케이션(1170)의 생명 주기를 관리할 수 있다. 윈도우 매니저(1142)는 화면에서 사용되는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(1143)는 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱을 이용하여 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(1144)는 어플리케이션(1170)의 소스 코드 또는 메모리의 공간을 관리할 수 있다. 파워 매니저(1145)는, 예를 들면, 배터리의 용량 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보를 제공할 수 있다. 한 실시예에 따르면, 파워 매니저(1145)는 바이오스(BIOS: basic input/output system)와 연동할 수 있다. 데이터베이스 매니저(1146)는, 예를 들면, 어플리케이션(1170)에서 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(1147)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다.
커넥티비티 매니저(1148)는, 예를 들면, 무선 연결을 관리할 수 있다. 노티피케이션 매니저(1149)는, 예를 들면, 도착 메시지, 약속, 근접성 알림 등의 이벤트를 사용자에게 제공할 수 있다. 로케이션 매니저(1150)는, 예를 들면, 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(1151)는, 예를 들면, 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(1152)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 한 실시예에 따르면, 미들웨어(1130)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화(telephony) 매니저 또는 전술된 구성요소들의 기능들의 조합을 형성할 수 있는 하는 미들웨어 모듈을 포함할 수 있다.
한 실시예에 따르면, 미들웨어(1130)는 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 미들웨어(1130)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. API(1160)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(1170)은, 예를 들면, 홈(1171), 다이얼러(1172), SMS/MMS(1173), IM(instant message)(1174), 브라우저(1175), 카메라(1176), 알람(1177), 컨택트(1178), 음성 다이얼(1179), 이메일(1180), 달력(1181), 미디어 플레이어(1182), 앨범(1183), 와치(1184), 헬스 케어(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보(예: 기압, 습도, 또는 온도 정보) 제공 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(1170)은 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리 어플리케이션을 포함할 수 있다. 예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션에서 발생된 알림 정보를 외부 전자 장치로 전달하거나, 또는 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 또는 외부 전자 장치에서 동작하는 어플리케이션을 설치, 삭제, 또는 갱신할 수 있다. 한 실시예에 따르면, 어플리케이션(1170)은 외부 전자 장치의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(1170)은 외부 전자 장치로부터 수신된 어플리케이션을 포함할 수 있다. 프로그램 모듈(1110)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어(예: 프로세서(1010)), 또는 이들 중 적어도 둘 이상의 조합으로 구현(예: 실행)될 수 있으며, 하나 이상의 기능을 수행하기 위한 모듈, 프로그램, 루틴, 명령어 세트 또는 프로세스를 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(930))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(920))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 발명에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 발명의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (25)

  1. 전자 장치에 있어서,
    이미지 획득 장치; 및
    프로세서;를 포함하며, 상기 프로세서는,
    녹화 시작 명령 입력 후 제1시간 동안 상기 이미지 획득 장치를 이용하여 획득되는 복수의 제1 이미지 프레임들 중 일부를 선택하고,
    상기 제1시간 이후의 상기 녹화 시작 명령에 대응하는 녹화 종료 명령 입력 전 제2시간 동안 획득되는 복수의 제2 이미지 프레임들 중 일부를 선택하고,
    상기 선택된 이미지 프레임들을 포함하는 비디오를 생성하도록 설정된 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 녹화 종료 명령이 입력됨에 따라, 상기 선택된 이미지 프레임의 중요도를 기반으로 상기 녹화된 비디오의 평균 중요도를 계산하고,
    상기 평균 중요도가 일정 범위의 값으로 계산되는 경우, 각 시간 동안 획득된 이미지 프레임의 타임스탬프 값을 재 설정하는 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    각 이미지 프레임의 중요도에 따라 상기 타임스탬프가 재 설정된 이미지 프레임들 간의 재생 시간 간격을 설정하는 전자 장치.
  4. 제3항에 있어서,
    상기 프로세서는,
    재생 시작 명령이 입력됨을 확인하면 상기 설정된 타임스탬프 값에 기반하여 나열된 상기 선택된 이미지 프레임들을 확인하고,
    상기 나열된 이미지 프레임들을 상기 설정된 재생 시간 간격에 따라 재생하도록 설정된 전자 장치.
  5. 제1항에 있어서,
    입출력 모듈;을 더 포함하며,
    상기 프로세서는,
    상기 입출력 모듈을 통해 입력된 오디오 데이터 중 특정 이미지 프레임의 타임스탬프 값에 대응하는 오디오 데이터를 확인하고,
    각 이미지 프레임에 상기 확인된 오디오 데이터를 결합하여 비디오로 생성하는 전자 장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 오디오 데이터의 정보 중 적어도 일부에 기반하여 각 이미지 프레임의 중요도를 계산하도록 설정되며,
    상기 오디오 데이터의 정보는, 음량 또는 오디오의 종류 중 적어도 하나를 포함하는 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는, 상기 이미지 프레임의 정보 중 적어도 일부에 기반하여 각 이미지 프레임의 중요도를 계산하도록 설정되며,
    상기 이미지 프레임의 정보는, 해당 이미지 프레임에 촬영된 객체 정보 또는 촬영 품질 정보 중 적어도 하나를 포함하는 전자 장치.
  8. 제7항에 있어서,
    센서 모듈;을 더 포함하며,
    상기 프로세서는,
    상기 센서 모듈을 통해 입력된 센서 데이터 중 특정 영상 데이터의 타임스탬프 값에 대응하는 센서 데이터를 확인하고,
    상기 확인된 센서 데이터의 정보 중 적어도 일부에 기반하여 각 이미지 프레임의 중요도를 계산하도록 설정된 전자 장치.
  9. 제6항에 있어서,
    상기 프로세서는,
    상기 오디오 데이터의 정보 중 상기 음량이 미리 지정된 범위의 값으로 확인되는 경우, 상기 이미지 데이터의 중요도를 일정 값 이상으로 계산하도록 설정된 전자 장치.
  10. 제6항에 있어서,
    상기 프로세서는,
    상기 오디오 데이터의 정보 중 상기 오디오의 종류가 미리 지정된 종류에 해당하는 경우, 상기 이미지 데이터의 중요도를 일정 값 이상으로 계산하도록 설정된 전자 장치.
  11. 제7항에 있어서,
    상기 프로세서는,
    상기 촬영된 객체 정보에 기반하여 상기 이미지 프레임에 촬영된 객체의 크기 또는 선명도를 확인하고,
    상기 이미지 프레임에 촬영된 객체가, 미리 설정된 크기 또는 선명도 이상으로 촬영된 경우, 상기 이미지 데이터의 중요도를 일정 값 이상으로 계산하도록 설정된 전자 장치.
  12. 제7항에 있어서,
    상기 프로세서는,
    상기 이미지 프레임에 촬영된 객체의 식별 정보 더 확인하고,
    상기 촬영된 객체가 상기 식별 정보에 대응하는 미리 지정된 사용자 또는 사물을 나타내는 경우, 상기 이미지 데이터의 중요도를 일정 값 이상으로 계산하도록 설정된 전자 장치.
  13. 전자 장치에서의 비디오 녹화 방법에 있어서,
    녹화 시작의 명령이 입력됨을 확인하는 동작;
    상기 녹화 시작 명령 입력 후 제1시간 동안 이미지 획득 장치를 이용하여 획득되는 복수의 제1 이미지 프레임들 중 일부를 선택하는 동작;
    상기 제1시간 이후의 상기 녹화 시작 명령에 대응하는 녹화 종료 명령 입력 전 제2시간 동안 획득되는 복수의 제2 이미지 프레임들 중 일부를 선택하는 동작; 및
    상기 선택된 이미지 프레임들을 포함하는 비디오를 생성하는 동작;을 포함하는, 전자 장치에서의 비디오 녹화 방법.
  14. 제13항에 있어서,
    상기 녹화 종료 명령이 입력됨에 따라, 상기 선택된 이미지 프레임의 중요도를 기반으로 상기 녹화된 비디오의 평균 중요도를 계산하는 동작; 및
    상기 평균 중요도가 일정 범위의 값으로 계산되는 경우, 각 시간 동안 획득된 이미지 프레임의 타임스탬프 값을 재 설정하는 동작;을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  15. 제14항에 있어서,
    각 이미지 프레임의 중요도에 따라 상기 타임스탬프가 재 설정된 이미지 프레임들 간의 재생 시간 간격을 설정하는 동작을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  16. 제15항에 있어서,
    재생 시작 명령이 입력됨을 확인하면 상기 설정된 타임스탬프 값에 기반하여 나열된 상기 선택된 이미지 프레임들을 확인하는 동작과,
    상기 나열된 이미지 프레임들을 상기 설정된 재생 시간 간격에 따라 재생하는 동작을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  17. 제13항에 있어서,
    입출력 모듈을 통해 입력된 오디오 데이터 중 특정 이미지 프레임의 타임스탬프 값에 대응하는 오디오 데이터를 확인하는 동작; 및
    각 이미지 프레임에 상기 확인된 오디오 데이터를 결합하여 비디오로 생성하는 동작;을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  18. 제17항에 있어서,
    상기 오디오 데이터의 정보 중 적어도 일부에 기반하여 각 이미지 프레임의 중요도를 계산하는 동작;을 더 포함하며,
    상기 오디오 데이터의 정보는, 음량 또는 오디오의 종류 중 적어도 하나를 포함하는, 전자 장치에서의 비디오 녹화 방법.
  19. 제13항에 있어서,
    상기 프로세서는, 상기 이미지 프레임의 정보 중 적어도 일부에 기반하여 각 이미지 프레임의 중요도를 계산하는 동작;을 더 포함하며,
    상기 이미지 프레임의 정보는, 해당 이미지 프레임에 촬영된 객체 정보 또는 촬영 품질 정보 중 적어도 하나를 포함하는, 전자 장치에서의 비디오 녹화 방법.
  20. 제19항에 있어서,
    센서 모듈을 통해 입력된 센서 데이터 중 특정 영상 데이터의 타임스탬프 값에 대응하는 센서 데이터를 확인하는 동작; 및
    상기 확인된 센서 데이터의 정보 중 적어도 일부에 기반하여 각 이미지 프레임의 중요도를 계산하는 동작;을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  21. 제18항에 있어서,
    상기 오디오 데이터의 정보 중 상기 음량이 미리 지정된 범위의 값으로 확인되는 경우, 상기 이미지 데이터의 중요도를 일정 값 이상으로 계산하는 동작;을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  22. 제18항에 있어서,
    상기 오디오 데이터의 정보 중 상기 오디오의 종류가 미리 지정된 종류에 해당하는 경우, 상기 이미지 데이터의 중요도를 일정 값 이상으로 계산 하는 동작;을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  23. 제19항에 있어서,
    상기 촬영된 객체 정보에 기반하여 상기 이미지 프레임에 촬영된 객체의 크기 또는 선명도를 확인하는 동작; 및
    상기 이미지 프레임에 촬영된 객체가, 미리 설정된 크기 또는 선명도 이상으로 촬영된 경우, 상기 이미지 데이터의 중요도를 일정 값 이상으로 계산하는 동작;을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  24. 제19항에 있어서,
    상기 이미지 프레임에 촬영된 객체의 식별 정보 더 확인하는 동작; 및
    상기 촬영된 객체가 상기 식별 정보에 대응하는 미리 지정된 사용자 또는 사물을 나타내는 경우, 상기 이미지 데이터의 중요도를 일정 값 이상으로 계산하는 동작;을 더 포함하는, 전자 장치에서의 비디오 녹화 방법.
  25. 명령들을 저장하고 있는 저장 매체에 있어서,
    상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 녹화 시작의 명령이 입력됨을 확인하는 동작, 상기 녹화 시작 명령 입력 후 제1시간 동안 이미지 획득 장치를 이용하여 획득되는 복수의 제1 이미지 프레임들 중 일부를 선택하는 동작, 상기 제1시간 이후의 상기 녹화 시작 명령에 대응하는 녹화 종료 명령 입력 전 제2시간 동안 획득되는 복수의 제2 이미지 프레임들 중 일부를 선택하는 동작 및 상기 선택된 이미지 프레임들을 포함하는 비디오를 생성하는 동작을 포함하는 저장 매체.
KR1020160019994A 2016-02-19 2016-02-19 전자 장치 및 전자 장치에서의 비디오 녹화 방법 KR20170098079A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160019994A KR20170098079A (ko) 2016-02-19 2016-02-19 전자 장치 및 전자 장치에서의 비디오 녹화 방법
US15/435,829 US20170243065A1 (en) 2016-02-19 2017-02-17 Electronic device and video recording method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160019994A KR20170098079A (ko) 2016-02-19 2016-02-19 전자 장치 및 전자 장치에서의 비디오 녹화 방법

Publications (1)

Publication Number Publication Date
KR20170098079A true KR20170098079A (ko) 2017-08-29

Family

ID=59629463

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160019994A KR20170098079A (ko) 2016-02-19 2016-02-19 전자 장치 및 전자 장치에서의 비디오 녹화 방법

Country Status (2)

Country Link
US (1) US20170243065A1 (ko)
KR (1) KR20170098079A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020213756A1 (ko) * 2019-04-17 2020-10-22 엘지전자 주식회사 영상 보정 방법 및 장치

Family Cites Families (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0590759B1 (en) * 1992-08-12 1998-12-09 International Business Machines Corporation System and method for locating video segment boundaries
JPH08140026A (ja) * 1994-11-04 1996-05-31 Canon Inc 複合カメラ
US5956026A (en) * 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
US6833865B1 (en) * 1998-09-01 2004-12-21 Virage, Inc. Embedded metadata engines in digital capture devices
US6535639B1 (en) * 1999-03-12 2003-03-18 Fuji Xerox Co., Ltd. Automatic video summarization using a measure of shot importance and a frame-packing method
US7293280B1 (en) * 1999-07-08 2007-11-06 Microsoft Corporation Skimming continuous multimedia content
KR100305964B1 (ko) * 1999-10-22 2001-11-02 구자홍 사용자 적응적인 다단계 요약 스트림 제공방법
US7653925B2 (en) * 1999-11-17 2010-01-26 Ricoh Company, Ltd. Techniques for receiving information during multimedia presentations and communicating the information
US6549643B1 (en) * 1999-11-30 2003-04-15 Siemens Corporate Research, Inc. System and method for selecting key-frames of video data
EP1187472B1 (en) * 2000-02-07 2019-04-03 Sony Corporation Image processor and image processing method and recorded medium
US6964021B2 (en) * 2000-08-19 2005-11-08 Lg Electronics Inc. Method and apparatus for skimming video data
KR100403238B1 (ko) * 2000-09-30 2003-10-30 엘지전자 주식회사 비디오의 지능형 빨리 보기 시스템
JP2002259720A (ja) * 2001-03-02 2002-09-13 Internatl Business Mach Corp <Ibm> コンテンツ要約システム、映像要約システム、ユーザ端末、要約映像生成方法、要約映像受信方法、およびプログラム
US6909745B1 (en) * 2001-06-05 2005-06-21 At&T Corp. Content adaptive video encoder
JP4546682B2 (ja) * 2001-06-26 2010-09-15 パイオニア株式会社 映像情報要約装置、映像情報要約方法および映像情報要約処理プログラム
KR20030026529A (ko) * 2001-09-26 2003-04-03 엘지전자 주식회사 키프레임 기반 비디오 요약 시스템
US6857706B2 (en) * 2001-12-10 2005-02-22 Placer Dome Technical Services Limited Mining method for steeply dipping ore bodies
US7277859B2 (en) * 2001-12-21 2007-10-02 Nippon Telegraph And Telephone Corporation Digest generation method and apparatus for image and sound content
JP3772117B2 (ja) * 2002-01-18 2006-05-10 ソニー株式会社 情報信号処理装置および情報信号処理方法
US7035435B2 (en) * 2002-05-07 2006-04-25 Hewlett-Packard Development Company, L.P. Scalable video summarization and navigation system and method
WO2004014061A2 (en) * 2002-08-02 2004-02-12 University Of Rochester Automatic soccer video analysis and summarization
US6963378B2 (en) * 2002-11-01 2005-11-08 Motorola, Inc. Method and apparatus for reduction of visual content
JP2004187029A (ja) * 2002-12-04 2004-07-02 Toshiba Corp 要約映像追いかけ再生装置
JPWO2005050986A1 (ja) * 2003-11-19 2007-07-12 独立行政法人情報通信研究機構 映像内容の提示方法及び装置
TWI259719B (en) * 2004-01-14 2006-08-01 Mitsubishi Electric Corp Apparatus and method for reproducing summary
KR100590537B1 (ko) * 2004-02-18 2006-06-15 삼성전자주식회사 복수 영상의 요약 방법 및 장치
JP4424590B2 (ja) * 2004-03-05 2010-03-03 株式会社Kddi研究所 スポーツ映像の分類装置
JP2005277531A (ja) * 2004-03-23 2005-10-06 Seiko Epson Corp 動画像処理装置
US20050254782A1 (en) * 2004-05-14 2005-11-17 Shu-Fang Hsu Method and device of editing video data
JP4296145B2 (ja) * 2004-11-08 2009-07-15 株式会社東芝 再生装置及びその方法
KR100612874B1 (ko) * 2004-11-22 2006-08-14 삼성전자주식회사 스포츠 동영상의 요약 방법 및 장치
JP2006217163A (ja) * 2005-02-02 2006-08-17 Hitachi Ltd 録画再生システム
JP4525437B2 (ja) * 2005-04-19 2010-08-18 株式会社日立製作所 動画処理装置
JP4871550B2 (ja) * 2005-08-30 2012-02-08 株式会社日立製作所 録画再生装置
KR100754529B1 (ko) * 2005-11-28 2007-09-03 삼성전자주식회사 동영상 요약 서비스 장치 및 그 방법
JP4346613B2 (ja) * 2006-01-11 2009-10-21 株式会社東芝 映像要約装置及び映像要約方法
US7889794B2 (en) * 2006-02-03 2011-02-15 Eastman Kodak Company Extracting key frame candidates from video clip
US8031775B2 (en) * 2006-02-03 2011-10-04 Eastman Kodak Company Analyzing camera captured video for key frames
US7796860B2 (en) * 2006-02-23 2010-09-14 Mitsubishi Electric Research Laboratories, Inc. Method and system for playing back videos at speeds adapted to content
CN101867679B (zh) * 2006-03-27 2013-07-10 三洋电机株式会社 缩略图生成装置及摄像装置
US8699806B2 (en) * 2006-04-12 2014-04-15 Google Inc. Method and apparatus for automatically summarizing video
EP2013777A2 (en) * 2006-04-20 2009-01-14 Nxp B.V. Data summarization system and method for summarizing a data stream
US7890985B2 (en) * 2006-05-22 2011-02-15 Microsoft Corporation Server-side media stream manipulation for emulation of media playback functions
US8094997B2 (en) * 2006-06-28 2012-01-10 Cyberlink Corp. Systems and method for embedding scene processing information in a multimedia source using an importance value
US8059936B2 (en) * 2006-06-28 2011-11-15 Core Wireless Licensing S.A.R.L. Video importance rating based on compressed domain video features
WO2008032739A1 (fr) * 2006-09-12 2008-03-20 Panasonic Corporation Dispositif de formation d'image de contenu
JP2010505176A (ja) * 2006-09-27 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ サマリ生成方法
JP4835368B2 (ja) * 2006-10-06 2011-12-14 株式会社日立製作所 情報記録装置
US8671346B2 (en) * 2007-02-09 2014-03-11 Microsoft Corporation Smart video thumbnail
US8643745B2 (en) * 2007-03-12 2014-02-04 Panasonic Corporation Content shooting apparatus
US8200063B2 (en) * 2007-09-24 2012-06-12 Fuji Xerox Co., Ltd. System and method for video summarization
US8630497B2 (en) * 2007-11-27 2014-01-14 Intelliview Technologies Inc. Analyzing a segment of video
US20090158157A1 (en) * 2007-12-14 2009-06-18 Microsoft Corporation Previewing recorded programs using thumbnails
JP4958759B2 (ja) * 2007-12-18 2012-06-20 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、プログラム及び記録媒体
JP5528008B2 (ja) * 2008-07-17 2014-06-25 キヤノン株式会社 再生装置及び再生方法
US8195038B2 (en) * 2008-10-24 2012-06-05 At&T Intellectual Property I, L.P. Brief and high-interest video summary generation
US8433175B2 (en) * 2008-10-28 2013-04-30 Yahoo! Inc. Video comparing using fingerprint representations
JP5493531B2 (ja) * 2009-07-17 2014-05-14 三菱電機株式会社 映像音声記録再生装置および映像音声記録再生方法
US20110047163A1 (en) * 2009-08-24 2011-02-24 Google Inc. Relevance-Based Image Selection
JP2011124979A (ja) * 2009-11-13 2011-06-23 Jvc Kenwood Holdings Inc 映像処理装置、映像処理方法、および映像処理プログラム
US20110268427A1 (en) * 2010-04-30 2011-11-03 Brelay Herve Methods and apparatuses for a projected pvr experience
JP2011239075A (ja) * 2010-05-07 2011-11-24 Sony Corp 表示装置、表示方法及びプログラム
US8605221B2 (en) * 2010-05-25 2013-12-10 Intellectual Ventures Fund 83 Llc Determining key video snippets using selection criteria to form a video summary
US9171578B2 (en) * 2010-08-06 2015-10-27 Futurewei Technologies, Inc. Video skimming methods and systems
US20120098989A1 (en) * 2010-10-20 2012-04-26 Wataru Sugawara Imaging apparatus and method of displaying a number of captured images
US20120148216A1 (en) * 2010-12-14 2012-06-14 Qualcomm Incorporated Self-editing video recording
US9100724B2 (en) * 2011-09-20 2015-08-04 Samsung Electronics Co., Ltd. Method and apparatus for displaying summary video
KR101797041B1 (ko) * 2012-01-17 2017-12-13 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
US20140328570A1 (en) * 2013-01-09 2014-11-06 Sri International Identifying, describing, and sharing salient events in images and videos
ITVI20120104A1 (it) * 2012-05-03 2013-11-04 St Microelectronics Srl Metodo e apparato per generare in tempo reale uno storyboard visuale
US9690980B2 (en) * 2012-11-09 2017-06-27 Google Inc. Automatic curation of digital images
JP2014106637A (ja) * 2012-11-26 2014-06-09 Sony Corp 情報処理装置および方法、並びにプログラム
CN105103153A (zh) * 2013-03-06 2015-11-25 汤姆逊许可公司 视频的图像概要
EP2965507A4 (en) * 2013-03-06 2016-10-05 Thomson Licensing IMAGE SUMMARY OF A VIDEO
US9667937B2 (en) * 2013-03-14 2017-05-30 Centurylink Intellectual Property Llc Auto-summarizing video content system and method
JP2015005809A (ja) * 2013-06-19 2015-01-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9728230B2 (en) * 2014-02-20 2017-08-08 International Business Machines Corporation Techniques to bias video thumbnail selection using frequently viewed segments
US9496000B2 (en) * 2014-05-16 2016-11-15 Comcast Cable Communications, Llc Audio modification for adjustable playback rate
US9639762B2 (en) * 2014-09-04 2017-05-02 Intel Corporation Real time video summarization
JP5937286B1 (ja) * 2014-09-29 2016-06-22 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9479694B2 (en) * 2014-10-28 2016-10-25 Google Inc. Systems and methods for autonomously generating photo summaries
US10643442B2 (en) * 2015-06-05 2020-05-05 Withings Video monitoring system
KR102527811B1 (ko) * 2015-12-22 2023-05-03 삼성전자주식회사 타임랩스 영상을 생성하는 장치 및 방법
WO2017142143A1 (en) * 2016-02-19 2017-08-24 Samsung Electronics Co., Ltd. Method and apparatus for providing summary information of a video

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020213756A1 (ko) * 2019-04-17 2020-10-22 엘지전자 주식회사 영상 보정 방법 및 장치
US11070730B2 (en) 2019-04-17 2021-07-20 Lg Electronics Inc. Video correction method and device to generate stabilized video

Also Published As

Publication number Publication date
US20170243065A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
KR102425818B1 (ko) 스크린 미러링 서비스 제공장치 및 방법
CN110462572B (zh) 电子装置及其控制方法
CN107666581B (zh) 提供视频内容的方法和支持该方法的电子装置
KR20170019823A (ko) 이미지 처리 방법 및 이를 지원하는 전자장치
KR20180081362A (ko) 촬영 방법 및 전자 장치
KR20170136920A (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
KR20170055893A (ko) 외부 객체의 근접에 따른 동작을 수행하는 전자 장치 및 그 방법
KR20180003235A (ko) 전자 장치 및 전자 장치의 이미지 촬영 방법
KR20170009069A (ko) 전자 장치 및 전자 장치의 이미지 처리 방법
US10477096B2 (en) Object or area based focus control in video
KR20170097860A (ko) 디스플레이를 이용하여 이미지를 촬영하는 전자 장치 및 이미지 촬영 방법
KR102339798B1 (ko) 전자 장치의 음향 처리 방법 및 그 전자 장치
KR20180013277A (ko) 그래픽 객체를 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
KR102398027B1 (ko) 전자 장치의 동적 프리뷰 디스플레이 방법 및 그 전자 장치
KR20180090696A (ko) 이미지를 촬영하는 센서 및 그 제어 방법
KR20170035079A (ko) 전자 장치 및 촬영 방법
KR20180094290A (ko) 전자 장치 및 전자 장치의 수중 촬영 판단 방법
KR20160114434A (ko) 전자 장치 및 전자 장치의 이미지 촬영 방법
KR20170112066A (ko) 이미지를 처리하기 위한 전자 장치 및 방법
KR20180014632A (ko) 전자 장치 및 그의 동작 방법
KR20170019136A (ko) 전자 장치 및 전자 장치의 이미지 인코딩 방법
KR102477522B1 (ko) 전자 장치 및 그의 카메라 노출 조정 방법
KR20170019595A (ko) 영상을 제공하는 방법 및 이를 지원하는 전자 장치
KR20180108280A (ko) 포커스에 대한 그래픽 인디케이터를 제공하는 전자 장치와 이의 동작 방법
KR102407624B1 (ko) 전자 장치의 영상 처리 방법 및 그 전자 장치