KR20150118855A - 전자 장치 및 전자 장치의 레코딩 방법 - Google Patents

전자 장치 및 전자 장치의 레코딩 방법 Download PDF

Info

Publication number
KR20150118855A
KR20150118855A KR1020140045028A KR20140045028A KR20150118855A KR 20150118855 A KR20150118855 A KR 20150118855A KR 1020140045028 A KR1020140045028 A KR 1020140045028A KR 20140045028 A KR20140045028 A KR 20140045028A KR 20150118855 A KR20150118855 A KR 20150118855A
Authority
KR
South Korea
Prior art keywords
audio signal
image
classified
audio
display
Prior art date
Application number
KR1020140045028A
Other languages
English (en)
Inventor
박성웅
안대일
이용우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140045028A priority Critical patent/KR20150118855A/ko
Priority to US14/666,611 priority patent/US20150296317A1/en
Publication of KR20150118855A publication Critical patent/KR20150118855A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 다양한 실시 예에 따른 전자 장치는, 이미지를 촬상하는 촬상부, 촬상되는 이미지에 대응되는 오디오 신호를 수집하는 마이크, 이미지로부터 적어도 하나의 오브젝트를 검출하는 오브젝트 검출부, 오디오 신호를 발원 위치에 따라 분류하는 오디오 분석부 및 분류된 오디오 신호를 검출된 오브젝트와 매핑시키는 매핑부를 포함할 수 있다. 다른 실시 예도 가능하다.

Description

전자 장치 및 전자 장치의 레코딩 방법{ELECTRONIC APPARATUS AND RECORDING METHOD THEREOF}
본 발명은 컨텐츠를 레코딩하고 재생할 수 있는 전자 장치 및 전자 장치의 레코딩 방법에 관한 것이다.
사람들은 여행, 기념일 등의 추억을 공유하기 위해 사진 또는 동영상을 촬영한다. 최근에는 스마트폰, 테블릿 PC 등의 휴대용 단말 장치에 카메라가 장착되어 일상 생활에서 사진 또는 동영상을 촬영하는 일이 일반화되고 있다. 또한, 자신이 촬영한 사진 또는 동영상을 SNS(Social Network Service)를 통해 공유하는 일도 많아지고 있다.
동영상 컨텐츠의 경우 사진에 비해 데이터 용량이 크다는 단점이 있으나 연속적인 이미지와 오디오를 함께 재생함으로써 보다 생동감있는 컨텐츠를 제공할 수 있는 장점을 가질 수 있다.
상술한 바와 같이 동영상 촬영이 일반화되고 있으나 현재 제공되는 동영상 컨텐츠는 단순히 이미지와 오디오 신호가 함께 재생되는 것에 그치고 있다.
본 발명의 다양한 실시 예는 동영상 컨텐츠를 레코딩하거나 동영상 컨텐츠를 재생할 때 컨텐츠에 포함된 오브젝트 또는 오디오 신호의 특성에 따라 다양한 방식으로 레코딩하고 재생할 수 있는 전자 장치 및 전자 장치의 레코딩 방법을 제공함을 목적으로 한다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 이미지를 촬상하는 촬상부, 상기 촬상되는 이미지에 대응되는 오디오 신호를 수집하는 마이크, 상기 이미지로부터 적어도 하나의 오브젝트를 검출하는 오브젝트 검출부, 상기 오디오 신호를 발원 위치에 따라 분류하는 오디오 분석부 및 상기 분류된 오디오 신호를 상기 검출된 오브젝트와 매핑시키는 매핑부를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 레코딩 방법은, 이미지를 촬상하는 동작, 상기 촬상되는 이미지에 대응되는 오디오 신호를 수집하는 동작, 상기 이미지로부터 적어도 하나의 오브젝트를 검출하는 동작, 상기 오디오 신호를 발원 위치에 따라 분류하는 동작 및 상기 분류된 오디오 신호를 상기 검출된 오브젝트와 매핑시키는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면 동영상 컨텐츠를 능동적이고 다양한 방식으로 레코딩 또는 재생할 수 있다. 또한, 컨텐츠를 레코딩할 때 사용자의 입력없이도 촬상 환경에 기초하여 포커스 또는 줌인/아웃이 자동적으로 수행되어 사용자 편의가 증대될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 2는 본 발명의 다양한 실시 예에 따른 UI를 표시하는 디스플레이 화면을 나타내는 도면이다.
도 3 및 도 4는 본 발명의 다양한 실시 예에 따른 컨텐츠 레코딩 화면을 나타내는 도면이다.
도 5는 본 발명의 다양한 실시 예에 따른 컨텐츠 레코딩 화면을 나타내는 도면이다.
도 6은 본 발명의 다양한 실시 예에 따른 컨텐츠 레코딩 화면을 나타내는 도면이다.
도 7은 본 발명의 다양한 실시 예에 따른 컨텐츠 재생 화면을 나타내는 도면이다.
도 8은 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
도 9는 본 발명의 일 실시 예에 따른 전자 장치의 레코딩 방법을 나타내는 흐름도이다.
이하, 본 발명의 다양한 실시예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시예는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시예에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시예에서 사용된 “제1,” “제2,” “첫째,” 또는 “둘째,” 등의 표현들은 다양한 실시예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시예에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 1을 참조하면 전자 장치(100)는 촬상부(110), 마이크(120), 오브젝트 검출부(130), 오디오 분석부(140), 매핑부(150), 메모리(160), 디스플레이(170), 오디오 출력부(180), 입력부(190) 또는 제어부(195)를 포함할 수 있다. 전자 장치(100)는 휴대폰, 스마트폰, PDA, 노트북 PC, 태블릿 PC, 카메라, 비디오 카메라, 녹음기, CCTV 등 컨텐츠를 레코딩할 수 있는 다양한 종류의 전자 장치로 구현될 수 있다.
촬상부(110)는 이미지를 촬상할 수 있다. 일 실시 예에 따르면 촬상부(110)는 이미지를 연속적으로 촬상하여 동영상 이미지를 생성할 수 있다.
실시 예에 따르면 촬상부(110)는 복수개의 카메라를 포함할 수 있다. 예를 들어, 전자 장치(100)가 스마트폰으로 구현되는 경우 촬상부(110)는 스마트폰의 전면부에 위치하는 두 개의 카메라 및 스마트폰의 후면부에 위치하는 두 개의 카메라를 포함할 수 있다. 촬상부(110)가 복수개의 카메라로 구현되는 경우 복수개의 카메라 각각이 촬상한 이미지는 촬상 렌즈의 시점 차이로 인한 시차(disparity)를 가질 수 있다.
마이크(120)는 오디오 신호를 수집할 수 있다. 일 실시 예에 따르면 마이크(120)는 주변에서 발생하는 소리를 전기적 신호로 변환함으로써 오디오 신호를 생성할 수 있다.
일 실시 예에 따르면 마이크(120)는 촬상되는 이미지에 대응되는 오디오 신호를 수집할 수 있다. 예를 들어, 마이크(120)는 촬상부(110)가 이미지를 촬상함과 동시에 오디오 신호를 수집할 수 있다.
일 실시 예에 따르면 전자 장치(100)는 복수개의 마이크(120)를 포함할 수 있다.
오브젝트 검출부(130)는 촬상부(110)에 의해 촬상된 이미지에서 오브젝트를 검출할 수 있다. 오브젝트란 촬상된 이미지에 포함된 인물, 사물 등 이미지 내에 포함된 특징적인 부분을 의미할 수 있다. 예를 들어, 오브젝트는 사람의 얼굴, 동물, 자동차 등이 될 수 있다.
일 실시 예에 따르면 오브젝트 검출부(130)는 이미지에 포함된 오브젝트의 위치(예를 들어, 방향 또는 거리)를 판단할 수 있다. 예를 들어, 오브젝트 검출부(130)는 이미지 내에서 오브젝트의 위치를 판단할 수 있다. 다른 예를 들어, 복수개의 카메라에 의해 이미지가 촬상된 경우 오브젝트 검출부(130)는 복수의 이미지를 이용하여 시차맵(disparity map)을 생성하고 시차맵을 이용하여 오브젝트의 방향 또는 거리를 판단할 수 있다.
일 실시 예에 따르면 오브젝트 검출부(130)는 검출된 오브젝트를 지속적으로 모니터링할 수 있다. 예를 들어, 오브젝트 검출부(130)는 오브젝트의 이동 등에 의해 연속적으로 촬상되는 이미지에서 오브젝트의 위치가 변경되더라도 오브젝트를 추적하여 오브젝트의 위치 변화를 판단할 수 있다.
오디오 분석부(140)는 마이크(120)에 의해 수집된 오디오 신호를 분류할 수 있다. 일 실시 예에 따르면 오디오 분석부(140)는 마이크(120)에 의해 수집된 오디오 신호를 분석할 수 있다. 예를 들어, 오디오 분석부(140)는 오디오 신호를 분석하여 오디오 신호의 방향을 판단할 수 있다. 다른 예를 들어, 오디오 분석부(140)는 오디오 신호를 분석하여 오디오 신호의 거리를 판단할 수 있다.
일 실시 예에 따르면 오디오 분석부(140)는 오디오 신호의 분석 결과에 기초하여 오디오 신호를 분류할 수 있다. 예를 들어, 오디오 분석부(140)는 오디오 신호를 발원 위치(예를 들어, 방향 또는 거리)에 따라 분류할 수 있다.
매핑부(150)는 오디오 분석부(140)에 의해 분류된 오디오 신호를 오브젝트 검출부(130)에서 검출된 오브젝트와 매핑시킬 수 있다. 일 실시 예에 따르면 매핑부(150)는 오브젝트의 위치 및 분류된 오디오 신호의 발원 위치에 기초하여 오디오 신호를 오브젝트와 매핑시킬 수 있다. 예를 들어, 매핑부(150)는 오디오 신호를 오디오 신호의 발원 위치와 동일한 방향에 위치하는 오브젝와 매핑시킬 수 있다.
일 실시 예에 따르면 매핑부(150)는 오브젝트 또는 오디오 신호의 위치 변화에 기초하여 오디오 신호를 오브젝트와 매핑시킬 수 있다. 예를 들어, 오디오 신호의 발원 위치에 복수의 오브젝트가 존재하는 경우, 복수의 오브젝트 중 오브젝트의 위치(방향 또는 거리) 변화가 오디오 신호의 발원 위치(방향 또는 거리) 변화와 일치하는 오브젝트를 오디오 신호와 매핑시킬 수 있다.
일 실시 예에 따르면 매핑부(150)는 오브젝트와 분류된 오디오 신호의 매핑 정보를 생성할 수 있다.
메모리(160)는 컨텐츠를 저장할 수 있다. 일 실시 예에 따르면 컨텐츠는 촬상된 이미지, 분류된 오디오 신호 및 오브젝트와 분류된 오디오 신호의 매핑 정보를 포함할 수 있다. 일 실시 예에 따르면 컨텐츠는 이미지에 포함된 오브젝트에 대한 정보 또는 분류된 오디오 신호에 대한 정보를 포함할 수 있다. 예를 들어, 컨텐츠는 오브젝트의 위치 또는 오디오 신호의 발원 위치에 대한 정보를 포함할 수 있다.
디스플레이(170)는 이미지를 표시할 수 있다. 일 실시 예에 따르면 디스플레이(170)는 촬상부(110)에 의해 촬상되는 이미지를 표시할 수 있다. 이에 따라 사용자는 촬상과 동시에 촬상되는 이미지를 확인할 수 있다. 일 실시 예에 따르면 디스플레이(170)는 컨텐츠가 재생되면 컨텐츠에 포함된 이미지를 표시할 수 있다.
오디오 출력부(180)는 컨텐츠가 재생되면 컨텐츠에 포함된 오디오 신호를 출력할 수 있다. 일 실시 예에 따르면, 오디오 출력부(180)는 컨텐츠를 재생할 때 분류된 오디오 신호 중 적어도 일부를 기존 오디오 신호의 레벨과 상이한 레벨로 출력할 수 있다. 예를 들어, 오디오 출력부(180)는 사용자에 의해 선택된 오브젝트와 매핑된 오디오 신호를 크게 출력하고 나머지 오디오 신호를 작게 출력할 수 있다. 다른 예를 들어, 오디오 출력부(180)는 디스플레이(170)에 확대되어 표시되는 오브젝트와 매핑된 오디오 신호를 크게 출력하고 나머지 오디오 신호를 작게 출력할 수 있다.
일 실시 예에 따르면, 오디오 출력부(180)는 컨텐츠를 재생할 때 분류된 오디오 신호 중 사용자에 의해 선택된 오브젝트 또는 디스플레이(170)에 확대되어 표시되는 오브젝트와 매핑된 오디오 신호만을 출력할 수 있다.
일 실시 예에 따르면, 오디오 출력부(180)는 앰프, 스피커 등의 오디오 출력 장치 또는 외부 앰프, 스피커 등으로 오디오 신호를 전달하는 출력 포트로 구현될 수 있다.
입력부(190)는 사용자 명령을 입력받을 수 있다. 일 실시 예에 따르면 입력부(190)는 검출된 오브젝트 중 하나를 선택하는 사용자 명령을 입력받을 수 있다.
일 실시 예에 따르면 입력부(190)는 사용자의 터치입력에 의해 동작하는 터치 스크린(Touch Screen) 또는 터치 패드(Touch Pad)로 구현될 수 있다.
제어부(195)는 전자 장치의 전반적인 동작을 제어할 수 있다. 일 실시 예에 따르면 제어부(195)는 촬상부(110), 마이크(120), 오브젝트 검출부(130), 오디오 분석부(140), 매핑부(150), 메모리(160), 디스플레이(170), 오디오 출력부(180), 입력부(190) 각각을 제어하여 본 발명의 다양한 실시 예에 따라 컨텐츠를 레코딩하고 레코딩된 컨텐츠를 재생하도록 제어할 수 있다.
일 실시 예에 따르면 제어부(195)는 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖에 위치하는지 판단할 수 있다. 예를 들어, 제어부(195)는 촬상부(110)의 줌인 또는 줌아웃에 따른 촬상 범위를 판단하여 오디오 신호의 발원 위치가 촬상 범위 밖에 위치하는지 판단할 수 있다.
일 실시 예에 따르면 디스플레이(170)는 촬상되는 이미지에 포함된 오브젝트를 나타내는 UI(user interface)를 표시할 수 있다. 일 실시 예에 따르면 디스플레이(170)는 컨텐츠 재생시 이미지에 포함된 오브젝트를 나타내는 UI를 표시할 수 있다. 이에 대해, 도 2를 참조하여 설명한다.
도 2는 본 발명의 다양한 실시 예에 따른 UI를 표시하는 디스플레이 화면을 나타내는 도면이다.
도 2를 참조하면 디스플레이 화면에 현재 촬상되는 이미지가 표시될 수 있다. 오브젝트 검출부(130)에 의해 이미지에서 오브젝트가 검출되면 디스플레이 화면에 검출된 오브젝트를 나타내는 UI가 표시될 수 있다. 예를 들어, 도 2를 참조하면 남자와 여자가 노래를 부르는 이미지가 촬상되고 있는 상태에서 남자의 얼굴(제1 오브젝트)과 여자의 얼굴(제2 오브젝트)이 각각 오브젝트로 검출될 수 있다. 디스플레이(170)는 남자의 얼굴과 여자의 얼굴에 각각 UI(10, 20)를 표시할 수 있다.
디스플레이(170)는 레코딩된 컨텐츠가 재생되는 경우에도 도 2를 참조하여 설명한 것과 같이 오브젝트를 나타내는 UI를 표시할 수 있다.
일 실시 예에 따르면 촬상부(110)는 검출된 오브젝트를 포커싱 또는 줌인 하여 촬상할 수 있다. 예를 들어, 촬상부(110)는 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트를 자동적으로 포커싱 또는 줌인하여 촬상할 수 있다. 다른 예를 들어, 촬상부(110)는 분류된 오디오 신호 중 신호 레벨의 변화가 가장 큰 오디오 신호와 매핑된 오브젝트를 자동적으로 포커싱 또는 줌인하여 촬상할 수 있다. 또 다른 예를 들어, 촬상부(110)는 검출된 오브젝트 중 사용자에 의해 선택된 오브젝트를 포커싱 또는 줌인하여 촬상할 수 있다.
일 실시 예에 따르면 디스플레이(170)는 줌인되는 오브젝트가 줌인 영역에 위치하도록 유도하는 UI를 표시할 수 있다. 이에 대해 도 3 및 도 4를 참조하여 설명한다.
도 3 및 도 4는 본 발명의 다양한 실시 예에 따른 컨텐츠 레코딩 화면을 나타내는 도면이다.
도 3의 (a)를 참조하면 디스플레이 화면에 현재 촬상되는 이미지가 표시될 수 있다. 일 실시 예에 따르면 디스플레이(170)는 현재의 촬상 방향에 따른 줌인 영역을 나타내는 UI(30)를 표시할 수 있다. 일 실시 예에 따르면 디스플레이(170)는 이미지에 포함된 오브젝트 중 줌인될 오브젝트에 대해 UI(20)를 표시할 수 있다. 사용자는 줌인 영역을 나타내는 UI(30)를 참조하여 줌인될 오브젝트가 줌인 영역에 위치하도록 카메라(110)의 촬상 방향을 변경할 수 있다. 예를 들어, 도 3의 (a)와 같이 줌인될 제2 오브젝트의 일부가 줌인 영역을 벗어나면 사용자는 도 3의 (b)와 같이 카메라의 촬상 방향을 오른쪽으로 이동시킬 수 있다. 도 3의 (b)를 참조하면 촬상 방향이 이동되어 줌인될 오브젝트가 줌인 영역의 중간에 위치할 수 있다. 카메라의 촬상 방향이 이동되어 줌인될 오브젝트가 줌인 영역에 포함되면 도 3의 (c)에 도시된 바와 같이 오브젝트가 줌인되어 촬상될 수 있다.
도 4의 (a)를 참조하면 디스플레이 화면에 현재 촬상되는 이미지가 표시될 수 있다. 일 실시 예에 따르면 디스플레이(170)는 현재의 촬상 방향에 따른 줌인 영역을 나타내는 UI(30)를 표시할 수 있다. 일 실시 예에 따르면 디스플레이(170)는 줌인될 오브젝트를 포함하는 이상적인 줌인 영역을 나타내는 UI(40)를 표시할 수 있다. 사용자는 현재의 줌인 영역을 나타내는 UI(30)이 이상적인 줌인 영역을 나타내는 UI(40)와 일치하도록 카메라(110)의 촬상 방향을 변경할 수 있다. 예를 들어, 도 4의 (a)와 같이 줌인 영역을 나타내는 두 개의 UI(30, 40)가 불일치하는 경우 사용자는 도 4의 (b)와 같이 카메라의 촬상 방향을 오른쪽으로 이동시킬 수 있다. 도 4의 (b)를 참조하면 촬상 방향이 이동되어 두 개의 UI가 일치될 수 있다. 카메라의 촬상 방향이 이동되어 두 개의 UI가 일치되면 도 4의 (c)에 도시된 바와 같이 오브젝트가 줌인되어 촬상될 수 있다.
도 3 및 도 4에 따르면 사용자는 디스플레이 화면에 표시되는 UI(20, 30 또는 40)를 이용하여 카메라의 촬상 방향을 편리하고 정확하게 이동시킬 수 있다.
일 실시 예에 따르면 디스플레이(170)는 카메라의 이동 방향을 나타내는 UI(예를 들어, 화살표) 또는 "카메라의 촬상 방향을 오른쪽으로 이동하세요"와 같이 촬상 방향을 변경할 것을 유도하는 텍스트 UI를 표시할 수도 있다.
일 실시 예에 따르면 촬상부(110)는 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 줌아웃(zoom-out)하여 촬상할 수 있다. 예를 들어, 제어부(195)는 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖에 위치하는지 판단할 수 있다. 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 촬상부(110)는 오디오 신호를 발생시키는 오브젝트를 촬상하기 위해 줌아웃할 수 있다. 이에 대해 도 5를 참조하여 설명한다.
도 5는 본 발명의 다양한 실시 예에 따른 컨텐츠 레코딩 화면을 나타내는 도면이다.
도 5의 (a)는 도 2에 도시된 오브젝트 중 여자 얼굴(제2 오브젝트)이 줌인되어 촬상되는 디스플레이 화면을 나타낸다. 도 5의 (a)를 참조하면 여자 얼굴이 줌인되어 촬상됨에 따라 남자 얼굴은 촬상 범위 밖에 위치할 수 있다. 예를 들어, 도 5의 (a)와 같은 상황에서 여자의 노래 파트가 끝나고 남자 파트가 시작되면 촬상 범위 밖에서 신호 레벨이 가장 큰 오디오 신호가 발생할 수 있다. 촬상부(110)는 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 줌아웃(zoom-out)하여 촬상할 수 있다. 이에 따라, 도 5의 (b)와 같이 남자의 얼굴(10) 및 여자의 얼굴(20)이 함께 촬상될 수 있다.
일 실시 예에 따르면 줌아웃 이후에는 도 3 또는 도 4를 참조하여 설명한 것과 같이 남자 얼굴(제1 오브젝트)이 줌인되어 촬상될 수 있다.
일 실시 예에 따르면 디스플레이(170)는 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 오디오 신호의 발원 위치를 촬상하도록 유도하는 UI를 표시할 수 있다. 예를 들어, 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 디스플레이(170)는 오디오 신호의 발원 위치를 나타내는 UI를 표시할 수 있다. 이에 대해 도 6을 참조하여 설명한다.
도 6은 본 발명의 다양한 실시 예에 따른 컨텐츠 레코딩 화면을 나타내는 도면이다.
도 6의 (a)는 도 2에 도시된 오브젝트 중 여자 얼굴(제2 오브젝트)이 줌인되어 촬상되는 디스플레이 화면을 나타낸다. 도 6의 (a)를 참조하면 여자 얼굴이 줌인되어 촬상됨에 따라 남자의 얼굴은 촬상 범위 밖에 위치할 수 있다. 도 6의 (a)와 같은 상황에서 여자의 노래 파트가 끝나고 남자 파트가 시작되면 촬상 범위 밖에서 신호 레벨이 가장 큰 오디오 신호가 발생할 수 있다. 디스플레이(170)는 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 오디오 신호의 발원 위치를 촬상하도록 유도하는 UI를 표시할 수 있다. 예를 들어, 도 6 (a)와 같이 오디오 신호의 발원 위치(남자의 얼굴)를 화살표(50)로 표시할 수 있다. 다른 예를 들어, "화면을 이동시켜 주세요"와 같이 촬상 방향을 유도하는 텍스트 UI를 표시할 수 있다. 사용자는 디스플레이(170)에 표시되는 UI를 참조하여 촬상 방향을 변경하여 도 6의 (b)와 같이 남자의 얼굴을 촬상할 수 있다.
일 실시 예에 따르면 디스플레이(170)는 컨텐츠 재생시 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트 또는 사용자에 의해 선택된 오브젝트를 확대하여 표시할 수 있다. 이에 대해 도 7을 참조하여 설명한다.
도 7은 본 발명의 다양한 실시 예에 따른 컨텐츠 재생 화면을 나타내는 도면이다.
도 7의 (a)를 참조하면 컨텐츠가 재생되면 디스플레이 화면에 컨텐츠에 포함된 이미지가 표시될 수 있다. 디스플레이(170)는 디스플레이되는 이미지에 포함된제1 오브젝트(10) 및 제2 오브젝트(20)를 나타내는 UI를 표시할 수 있다.
일 실시 예에 따르면, 디스플레이(170)는 컨텐츠 재생시 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트를 확대하여 표시할 수 있다. 예를 들어, 도 7의 (a)와 같은 재생 화면에서 여자가 노래를 부르면 도 7의 (b)와 같이 여자의 얼굴(제2 오브젝트)이 확대되어 표시될 수 있다. 이후, 남자가 노래를 부르는 동안에는 도 7의 (c)와 같이 남자의 얼굴(제1 오브젝트)이 확대되어 표시될 수 있다.
일 실시 예에 따르면 오디오 출력부(180)는 확대되어 표시되는 오브젝트와 매핑된 오디오 신호만을 출력할 수 있다. 예를 들어, 도 7의 (b)와 같은 재생화면에서는 제2 오브젝트와 매핑된 오디오 신호(예를 들어, 여자의 목소리)만 출력될 수 있다. 다른 예를 들어, 도 7의 (c)와 같은 재생화면에서는 제1 오브젝트와 매핑된 오디오 신호(예를 들어, 남자의 목소리)만 출력될 수 있다.
일 실시 예에 따르면 디스플레이(170)는 사용자에 의해 선택된 오브젝트를 확대하여 표시할 수 있다. 예를 들어, 도 7의 (a)와 같은 재생 화면에서 제2 오브젝트(20)를 선택하는 사용자 명령이 입력되면 도 7의 (b)와 같이 제2 오브젝트가 확대되어 표시될 수 있다. 도 7의 (a)와 같은 재생 화면에서 제1 오브젝트(10)를 선택하는 사용자 명령이 입력되면 도 7의 (c)와 같이 제1 오브젝트가 확대되어 표시될 수 있다.
일 실시 예에 따르면 오디오 출력부(180)는 사용자에 의해 선택된 오브젝트와 매핑된 오디오 신호만을 출력할 수 있다. 예를 들어, 도 7의 (a)와 같은 재생화면에서 제2 오브젝트(20)를 선택하는 사용자 명령이 입력되면 제2 오브젝트와 매핑된 오디오 신호(예를 들어, 여자의 목소리)만 출력될 수 있다. 다른 예를 들어, 도 7의 (a)와 같은 재생화면에서 제1 오브젝트(10)를 선택하는 사용자 명령이 입력되면 제1 오브젝트와 매핑된 오디오 신호(예를 들어, 남자의 목소리)만 출력될 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 이미지를 촬상하는 촬상부, 상기 촬상되는 이미지에 대응되는 오디오 신호를 수집하는 마이크, 상기 이미지로부터 적어도 하나의 오브젝트를 검출하는 오브젝트 검출부, 상기 오디오 신호를 발원 위치에 따라 분류하는 오디오 분석부 및 상기 분류된 오디오 신호를 상기 검출된 오브젝트와 매핑시키는 매핑부를 포함할 수 있다.
도 8은 다양한 실시예들에 따른 전자 장치 801의 블록도 800를 도시한다. 상기 전자 장치 801은, 예를 들면, 도 1에 도시된 전자 장치 100의 전체 또는 일부를 구성할 수 있다. 도 8을 참조하면, 상기 전자 장치 801는 하나 이상의 어플리케이션 프로세서(AP: application processor) 810, 통신 모듈 820, SIM(subscriber identification module) 카드 824, 메모리 830, 센서 모듈 840, 입력 장치 850, 디스플레이 860, 인터페이스 870, 오디오 모듈 880, 카메라 모듈 891, 전력관리 모듈 895, 배터리 896, 인디케이터 897 및 모터 898을 포함할 수 있다.
상기 AP 810(예: 상기 제어부 195)은 운영체제 또는 응용 프로그램을 구동하여 상기 AP 810에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 810은, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 AP 810은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈 820은 상기 전자 장치 801(예: 상기 전자 장치 100)과 네트워크를 통해 연결된 다른 전자 장치들 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신 모듈 820은 셀룰러 모듈 821, Wifi 모듈 823, BT 모듈 825, GPS 모듈 827, NFC 모듈 828 및 RF(radio frequency) 모듈 829를 포함할 수 있다.
상기 셀룰러 모듈 821은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈 821은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 824)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 상기 셀룰러 모듈 821은 상기 AP 810이 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈 821은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시예에 따르면, 상기 셀룰러 모듈 821은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈 821은, 예를 들면, SoC로 구현될 수 있다. 도 8에서는 상기 셀룰러 모듈 821(예: 커뮤니케이션 프로세서), 상기 메모리 830 또는 상기 전력관리 모듈 895 등의 구성요소들이 상기 AP 810과 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP 810이 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 821)를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP 810 또는 상기 셀룰러 모듈 821(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 810 또는 상기 셀룰러 모듈 821은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wifi 모듈 823, 상기 BT 모듈 825, 상기 GPS 모듈 827 또는 상기 NFC 모듈 828 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 8에서는 셀룰러 모듈 821, Wifi 모듈 823, BT 모듈 825, GPS 모듈 827 또는 NFC 모듈 828이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, 셀룰러 모듈 821, Wifi 모듈 823, BT 모듈 825, GPS 모듈 827 또는 NFC 모듈 828 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 821, Wifi 모듈 823, BT 모듈 825, GPS 모듈 827 또는 NFC 모듈 828 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 821에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 823에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈 829는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈 829는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 829는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 8에서는 셀룰러 모듈 821, Wifi 모듈 823, BT 모듈 825, GPS 모듈 827 및 NFC 모듈 828이 하나의 RF 모듈 829를 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, 셀룰러 모듈 821, Wifi 모듈 823, BT 모듈 825, GPS 모듈 827 또는 NFC 모듈 828 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드 824는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 824는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 830(예: 상기 메모리 160)은 내장 메모리 832 또는 외장 메모리 834를 포함할 수 있다. 상기 내장 메모리 832는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 내장 메모리 832는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리 834는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리 834는 다양한 인터페이스를 통하여 상기 전자 장치 801과 기능적으로 연결될 수 있다. 한 실시예에 따르면, 상기 전자 장치 801은 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈 840은 물리량을 계측하거나 전자 장치 801의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 1840은, 예를 들면, 제스처 센서 840A, 자이로 센서 840B, 기압 센서 840C, 마그네틱 센서 840D, 가속도 센서 840E, 그립 센서 840F, 근접 센서 840G, color 센서 840H(예: RGB(red, green, blue) 센서), 생체 센서 840I, 온/습도 센서 840J, 조도 센서 840K 또는 UV(ultra violet) 센서 840M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 840은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈 840은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치 850(예: 상기 입력부 190)은 터치 패널(touch panel) 852, (디지털) 펜 센서(pen sensor) 854, 키(key) 856 또는 초음파(ultrasonic) 입력 장치 858를 포함할 수 있다. 상기 터치 패널 852은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 852은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널 852은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 852은 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 854는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키 856은, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치 858은 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 801에서 마이크(예: 마이크 888)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치 801은 상기 통신 모듈 820을 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 860(예: 상기 디스플레이 170)은 패널 862, 홀로그램 장치 864 또는 프로젝터 866을 포함할 수 있다. 상기 패널 862은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널 1862은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 862은 상기 터치 패널 852과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치 864은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터 866은 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치 801의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 상기 디스플레이 860은 상기 패널 862, 상기 홀로그램 장치 864, 또는 프로젝터 866를 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스 870은, 예를 들면, HDMI(high-definition multimedia interface) 872, USB(universal serial bus) 874, 광 인터페이스(optical interface) 876 또는 D-sub(D-subminiature) 878를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 870은, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 880은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 880은, 예를 들면, 스피커 882, 리시버 884, 이어폰 886 또는 마이크 888(예: 상기 마이크 120) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈 891(예: 상기 촬상부 110)은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래시 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리 모듈 895는 상기 전자 장치 1801의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈 895는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리 896의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 896은 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 801에 전원을 공급할 수 있다. 상기 배터리 896은, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터 897는 상기 전자 장치 801 혹은 그 일부(예: 상기 AP 810)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터 898은 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치 801은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 전자 장치의 레코딩 방법을 나타내는 흐름도이다.
도 9에 도시된 흐름도는 도 1에 도시된 전자 장치에서 처리되는 동작들로 구성될 수 있다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1에 도시된 전자 장치에 관하여 기술된 내용은 도 9에 도시된 흐름도에도 적용될 수 있다.
도 9를 참조하면 910 동작에서, 전자 장치(100)는 이미지를 촬상할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 이미지를 연속적으로 촬상하여 동영상 이미지를 생성할 수 있다.
일 실시 예에 따르면 전자 장치(100)는 복수개의 카메라를 이용하여 이미지를 촬상할 수 있다. 예를 들어, 전자 장치(100)가 스마트폰으로 구현되는 경우 스마트폰의 전면부에 위치하는 두 개의 카메라 및 스마트폰의 후면부에 위치하는 두 개의 카메라를 포함할 수 있다. 복수개의 카메라 각각이 촬상한 이미지는 촬상 렌즈의 시점 차이로 인한 시차(disparity)를 가질 수 있다.
일 실시 예에 따르면 전자 장치(100)는 930 동작에서 검출된 오브젝트를 포커싱 또는 줌인하여 촬상할 수 있다. 예를 들어, 전자 장치(100))는 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트를 자동적으로 포커싱 또는 줌인하여 촬상할 수 있다. 다른 예를 들어, 전자 장치(100)는 분류된 오디오 신호 중 신호 레벨의 변화가 가장 큰 오디오 신호와 매핑된 오브젝트를 자동적으로 포커싱 또는 줌인하여 촬상할 수 있다. 또 다른 예를 들어, 전자 장치(100)는 검출된 오브젝트 중 사용자에 의해 선택된 오브젝트를 포커싱 또는 줌인하여 촬상할 수 있다.
일 실시 예에 따르면 전자 장치(100)는 940 동작에서 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 줌아웃(zoom-out)하여 촬상할 수 있다.
일 실시 예에 따르면 전자 장치(100)는 910 동작에서 촬상되는 이미지를 표시할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 촬상되는 이미지를 표시할 때, 이미지에 포함된 오브젝트를 나타내는 UI(user interface)를 표시할 수 있다.
일 실시 예에 따르면 전자 장치(100)는 줌인되는 오브젝트가 줌인 영역에 위치하도록 유도하는 UI를 표시할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 940 동작에서 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 오디오 신호의 발원 위치를 촬상하도록 유도하는 UI를 표시할 수 있다.
920 동작에서, 전자 장치(100)는 오디오 신호를 수집할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 마이크를 이용하여 주변에서 발생하는 소리를 전기적 신호로 변환함으로써 오디오 신호를 생성할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 촬상되는 이미지에 대응되는 오디오 신호를 수집할 수 있다. 예를 들어, 전자 장치(100)는 910 동작에서 이미지를 촬상함과 동시에 오디오 신호를 수집할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 복수개의 마이크를 이용하여 오디오 신호를 수집할 수 있다.
930 동작에서, 전자 장치(100)는 촬상된 이미지에서 오브젝트를 검출할 수 있다. 오브젝트란 촬상된 이미지에 포함된 인물, 사물 등 이미지 내에 포함된 특징적인 부분을 의미할 수 있다. 예를 들어, 오브젝트는 사람의 얼굴, 동물, 자동차 등이 될 수 있다. 일 실시 예에 따르면 전자 장치(100)는 포함된 오브젝트의 위치(예를 들어, 방향 또는 거리)를 판단할 수 있다.
940 동작에서, 전자 장치(100)는 수집된 오디오 신호를 분류할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 마이크(120)에 의해 수집된 오디오 신호를 분석하여 오디오 신호의 방향 또는 거리를 판단할 수 있다. 일 실시 예에 따르면 전자 장치는, 오디오 신호의 분석 결과에 기초하여 오디오 신호를 분류할 수 있다. 예를 들어, 오디오 분석부(140)는 오디오 신호를 발원 위치(예를 들어, 방향 또는 거리)에 따라 분류할 수 있다.
950 동작에서, 전자 장치(100)는 오디오 신호를 오브젝트와 매핑시킬 수 있다. 일 실시 예에 따르면 전자 장치(100)는 오브젝트의 위치 및 분류된 오디오 신호의 발원 위치에 기초하여 오디오 신호를 오브젝트와 매핑시킬 수 있다. 예를 들어, 전자 장치(100)는 오디오 신호를 오디오 신호의 발원 위치와 동일한 방향에 위치하는 오브젝와 매핑시킬 수 있다.
일 실시 예에 따르면 전자 장치(100)는 오브젝트 또는 오디오 신호의 위치 변화에 기초하여 오디오 신호를 오브젝트와 매핑시킬 수 있다. 예를 들어, 오디오 신호의 발원 위치에 복수의 오브젝트가 존재하는 경우, 복수의 오브젝트 중 오브젝트의 위치(방향 또는 거리) 변화가 오디오 신호의 발원 위치(방향 또는 거리) 변화와 일치하는 오브젝트를 오디오 신호와 매핑시킬 수 있다.
일 실시 예에 따르면 전자 장치(100)는 오브젝트와 분류된 오디오 신호의 매핑 정보를 생성할 수 있다.
960 동작에서, 전자 장치(100)는 컨텐츠를 저장할 수 있다. 일 실시 예에 따르면 컨텐츠는 촬상된 이미지, 분류된 오디오 신호 및 오브젝트와 분류된 오디오 신호의 매핑 정보를 포함할 수 있다. 일 실시 예에 따르면 컨텐츠는 이미지에 포함된 오브젝트에 대한 정보 또는 분류된 오디오 신호에 대한 정보를 포함할 수 있다.
970 동작에서, 전자 장치(100)는 컨텐츠를 재생할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 컨텐츠를 재생하여 이미지를 표시하고 오디오 신호를 출력할 수 있다.
일 실시 예에 따르면 전자 장치(100)는 컨텐츠 재생시, 분류된 오디오 신호 중 신호 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트 또는 사용자에 의해 선택된 오브젝트를 확대하여 표시할 수 있다.
일 실시 예에 따르면, 전자 장치(100) 컨텐츠를 재생할 때 분류된 오디오 신호 중 적어도 일부를 기존 오디오 신호의 레벨과 상이한 레벨로 출력할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 컨텐츠를 재생할 때 분류된 오디오 신호 중 사용자에 의해 선택된 오브젝트 또는 디스플레이 화면에 확대되어 표시되는 오브젝트와 매핑된 오디오 신호만을 출력할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 레코딩 방법은, 이미지를 촬상하는 동작, 상기 촬상되는 이미지에 대응되는 오디오 신호를 수집하는 동작, 상기 이미지로부터 적어도 하나의 오브젝트를 검출하는 동작, 상기 오디오 신호를 발원 위치에 따라 분류하는 동작 및 상기 분류된 오디오 신호를 상기 검출된 오브젝트와 매핑시키는 동작을 포함할 수 있다.
상술한 본 발명의 다양한 실시 예들에 따른 전자 장치의 레코딩 방법은 전자 장치에서 실행 가능한 프로그램으로 구현될 수 있다. 그리고, 이러한 프로그램은 다양한 유형의 기록 매체에 저장되어 사용될 수 있다.
구체적으로는, 상술한 방법들을 수행하기 위한 프로그램 코드는, 플래시메모리(flash memory), ROM(read only memory), EPROM(erasable programmable ROM), EEPROM(electronically erasable and programmable ROM), 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 다양한 유형의 비휘발성 기록 매체에 저장되어 있을 수 있다.
이상에서는 본 발명의 다양한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
100 : 전자 장치 110 : 촬상부
120 : 마이크 130 : 오브젝트 검출부
140 : 오디오 분석부 150 : 매핑부
106 : 메모리 170 : 디스플레이
180 : 오디오 출력부 190 : 입력부
195 : 제어부

Claims (23)

  1. 이미지를 촬상하는 촬상부;
    상기 촬상되는 이미지에 대응되는 오디오 신호를 수집하는 마이크;
    상기 이미지로부터 적어도 하나의 오브젝트를 검출하는 오브젝트 검출부;
    상기 오디오 신호를 발원 위치에 따라 분류하는 오디오 분석부; 및
    상기 분류된 오디오 신호를 상기 검출된 오브젝트와 매핑시키는 매핑부;를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 매핑부는,
    상기 오브젝트의 위치 및 상기 오디오 신호의 발원 위치에 기초하여 상기 오디오 신호를 상기 오브젝트와 매핑시키는 것을 특징으로 하는 전자 장치.
  3. 제1항에 있어서,
    상기 촬상부는,
    상기 분류된 오디오 신호 중 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트 또는 사용자에 의해 선택된 오브젝트를 포커싱 또는 줌인(zoom-in)하여 촬상하는 것을 특징으로 하는 전자 장치.
  4. 제3항에 있어서,
    상기 줌인되는 오브젝트가 줌인 영역에 위치하도록 유도하는 UI(user interface)를 표시하는 디스플레이;를 더 포함하는 것을 특징으로 하는 전자 장치.
  5. 제1항에 있어서,
    상기 촬상부는,
    상기 분류된 오디오 신호 중 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 줌아웃(zoom-out)하여 촬상하는 것을 특징으로 하는 전자 장치.
  6. 제1항에 있어서,
    상기 분류된 오디오 신호 중 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 상기 오디오 신호의 발원 위치를 촬상하도록 유도하는 UI를 표시하는 디스플레이;를 더 포함하는 것을 특징으로 하는 전자 장치.
  7. 제1항에 있어서,
    상기 촬상된 이미지, 상기 분류된 오디오 신호 및 상기 오브젝트와 상기 분류된 오디오 신호의 매핑 정보를 포함하는 컨텐츠를 저장하는 메모리;를 더 포함하는 것을 특징으로 하는 전자 장치.
  8. 제7항에 있어서,
    상기 저장된 컨텐츠를 재생하는 디스플레이 및 오디오 출력부;를 더 포함하는 것을 특징으로 하는 전자 장치.
  9. 제8항에 있어서,
    상기 디스플레이는,
    상기 분류된 오디오 신호 중 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트 또는 사용자에 의해 선택된 오브젝트를 확대하여 표시하는 것을 특징으로 하는 전자 장치.
  10. 제8항에 있어서,
    상기 오디오 출력부는,
    상기 분류된 오디오 신호 중 적어도 일부를 기존 오디오 신호의 레벨과 상이한 레벨로 출력하는 것을 특징으로 하는 전자 장치.
  11. 제8항에 있어서,
    상기 오디오 출력부는,
    상기 분류된 오디오 신호 중 사용자에 의해 선택된 오브젝트 또는 디스플레이에 확대되어 표시되는 오브젝트와 매핑된 오디오 신호만을 출력하는 것을 특징으로 하는 전자 장치.
  12. 이미지를 촬상하는 동작;
    상기 촬상되는 이미지에 대응되는 오디오 신호를 수집하는 동작;
    상기 이미지로부터 적어도 하나의 오브젝트를 검출하는 동작;
    상기 오디오 신호를 발원 위치에 따라 분류하는 동작; 및
    상기 분류된 오디오 신호를 상기 검출된 오브젝트와 매핑시키는 동작;을 포함하는 전자 장치의 레코딩 방법.
  13. 제12항에 있어서,
    상기 매핑시키는 동작은,
    상기 오브젝트의 위치 및 상기 오디오 신호의 발원 위치에 기초하여 상기 오디오 신호를 상기 오브젝트와 매핑시키는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  14. 제12항에 있어서,
    상기 이미지를 촬상하는 동작은,
    상기 분류된 오디오 신호 중 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트 또는 사용자에 의해 선택된 오브젝트를 포커싱 또는 줌인(zoom-in)하여 촬상하는 동작;을 더 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  15. 제14항에 있어서,
    디스플레이에 상기 줌인되는 오브젝트가 줌인 영역에 위치하도록 유도하는 UI(user interface)를 표시하는 동작;을 더 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  16. 제12항에 있어서,
    상기 이미지를 촬상하는 동작은,
    상기 분류된 오디오 신호 중 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 줌아웃(zoom-out)하여 촬상하는 동작;을 더 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  17. 제12항에 있어서,
    상기 분류된 오디오 신호 중 레벨이 가장 큰 오디오 신호의 발원 위치가 촬상 범위 밖으로 판단되면 디스플레이에 상기 오디오 신호의 발원 위치를 촬상하도록 유도하는 UI를 표시하는 동작;을 더 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  18. 제12항에 있어서,
    메모리에 상기 촬상된 이미지, 상기 분류된 오디오 신호 및 상기 오브젝트와 상기 분류된 오디오 신호의 매핑 정보를 포함하는 컨텐츠를 저장하는 동작;을 더 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  19. 제18항에 있어서,
    상기 저장된 컨텐츠를 재생하는 동작;을 더 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  20. 제19항에 있어서,
    상기 저장된 컨텐츠를 재생하는 동작은,
    상기 분류된 오디오 신호 중 레벨이 가장 큰 오디오 신호와 매핑된 오브젝트 또는 사용자에 의해 선택된 오브젝트를 확대하여 표시하는 동작;을 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  21. 제19항에 있어서,
    상기 저장된 컨텐츠를 재생하는 동작은,
    상기 분류된 오디오 신호 중 적어도 일부를 기존 오디오 신호의 레벨과 상이한 레벨로 출력하는 동작;을 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  22. 제19항에 있어서,
    상기 저장된 컨텐츠를 재생하는 동작은,
    상기 분류된 오디오 신호 중 사용자에 의해 선택된 오브젝트 또는 디스플레이에 확대되어 표시되는 오브젝트와 매핑된 오디오 신호만을 출력하는 동작;을 포함하는 것을 특징으로 하는 전자 장치의 레코딩 방법.
  23. 이미지를 촬상하는 동작;
    상기 촬상되는 이미지에 대응되는 오디오 신호를 수집하는 동작;
    상기 이미지로부터 적어도 하나의 오브젝트를 검출하는 동작;
    상기 오디오 신호를 발원 위치에 따라 분류하는 동작; 및
    상기 분류된 오디오 신호를 상기 검출된 오브젝트와 매핑시키는 동작;을 포함하는 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
KR1020140045028A 2014-04-15 2014-04-15 전자 장치 및 전자 장치의 레코딩 방법 KR20150118855A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140045028A KR20150118855A (ko) 2014-04-15 2014-04-15 전자 장치 및 전자 장치의 레코딩 방법
US14/666,611 US20150296317A1 (en) 2014-04-15 2015-03-24 Electronic device and recording method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140045028A KR20150118855A (ko) 2014-04-15 2014-04-15 전자 장치 및 전자 장치의 레코딩 방법

Publications (1)

Publication Number Publication Date
KR20150118855A true KR20150118855A (ko) 2015-10-23

Family

ID=54266207

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140045028A KR20150118855A (ko) 2014-04-15 2014-04-15 전자 장치 및 전자 장치의 레코딩 방법

Country Status (2)

Country Link
US (1) US20150296317A1 (ko)
KR (1) KR20150118855A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210119589A (ko) * 2017-02-28 2021-10-05 매직 립, 인코포레이티드 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
WO2022010122A1 (ko) * 2020-07-09 2022-01-13 삼성전자 주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170070668A1 (en) * 2015-09-09 2017-03-09 Fortemedia, Inc. Electronic devices for capturing images
CN105491284B (zh) 2015-11-30 2018-12-18 小米科技有限责任公司 预览图像的显示方法和装置
JP6735583B2 (ja) * 2016-03-17 2020-08-05 キヤノン株式会社 ズーム制御装置、撮像装置及びそれらの制御方法、プログラム並びに記憶媒体
EP3465684A1 (en) * 2016-05-27 2019-04-10 IMINT Image Intelligence AB System and method for a zoom function
CN117612539A (zh) * 2016-05-30 2024-02-27 索尼公司 视频音频处理设备、视频音频处理方法和存储介质
EP3504582A4 (en) 2017-01-25 2020-04-08 Hewlett-Packard Development Company, L.P. REGIONS TRANSMITTING LIGHT TO LET THE LIGHT PASS TO CAMERAS
JP7080711B2 (ja) * 2018-04-26 2022-06-06 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
CN111722775A (zh) * 2020-06-24 2020-09-29 维沃移动通信(杭州)有限公司 图像处理方法、装置、设备及可读存储介质
KR20220029866A (ko) * 2020-09-01 2022-03-10 삼성전자주식회사 전자 장치 및 제어 방법
US11928981B2 (en) * 2022-06-22 2024-03-12 Kevin Fan Tactile vision

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469097B2 (en) * 2005-12-15 2008-12-23 Hewlett-Packard Development Company, L.P. Method and apparatus for coping with condition in which subject is too close to digital imaging device for acceptable focus
CN101855633A (zh) * 2007-07-31 2010-10-06 松下电器产业株式会社 影像分析装置、基于影像分析的人物间的评价值计算方法
JP4896838B2 (ja) * 2007-08-31 2012-03-14 カシオ計算機株式会社 撮像装置、画像検出装置及びプログラム
US8244638B2 (en) * 2011-01-12 2012-08-14 Bank Of America Corporation Automatic image analysis and capture
US20130108171A1 (en) * 2011-10-28 2013-05-02 Raymond William Ptucha Image Recomposition From Face Detection And Facial Features
US9495591B2 (en) * 2012-04-13 2016-11-15 Qualcomm Incorporated Object recognition using multi-modal matching scheme

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
US11812222B2 (en) 2016-02-04 2023-11-07 Magic Leap, Inc. Technique for directing audio in augmented reality system
KR20210119589A (ko) * 2017-02-28 2021-10-05 매직 립, 인코포레이티드 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
KR20220101210A (ko) * 2017-02-28 2022-07-19 매직 립, 인코포레이티드 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
US11669298B2 (en) 2017-02-28 2023-06-06 Magic Leap, Inc. Virtual and real object recording in mixed reality device
WO2022010122A1 (ko) * 2020-07-09 2022-01-13 삼성전자 주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치

Also Published As

Publication number Publication date
US20150296317A1 (en) 2015-10-15

Similar Documents

Publication Publication Date Title
US11350033B2 (en) Method for controlling camera and electronic device therefor
KR20150118855A (ko) 전자 장치 및 전자 장치의 레코딩 방법
KR102220443B1 (ko) 깊이 정보를 활용하는 전자 장치 및 방법
CN105554369B (zh) 用于处理图像的电子设备和方法
KR102031874B1 (ko) 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
KR102149448B1 (ko) 이미지를 처리하기 위한 전자 장치 및 방법
KR102326275B1 (ko) 이미지 표시 방법 및 장치
CN110650379B (zh) 视频摘要生成方法、装置、电子设备及存储介质
AU2014374638A1 (en) Image processing apparatus and method
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
EP2930631B1 (en) Method and apparatus for content output
KR20160016068A (ko) 이미지 생성 방법 및 그 전자 장치
KR20160055337A (ko) 텍스트 표시 방법 및 그 전자 장치
KR20150084541A (ko) 전원 관리 방법 및 그 방법을 처리하는 전자 장치
KR102223308B1 (ko) 영상처리 방법 및 이를 구현한 전자 장치
CN111127509A (zh) 目标跟踪方法、装置和计算机可读存储介质
KR20150110032A (ko) 영상데이터 처리 전자장치 및 방법
KR20150141426A (ko) 전자 장치 및 전자 장치에서의 이미지 처리 방법
KR20160038563A (ko) 하나 이상의 이미지들을 추천하는 방법 및 그를 위한 전자 장치
KR20150135968A (ko) 디스플레이 제어 방법 및 전자 장치
KR102151705B1 (ko) 영상 획득 방법 및 그 방법을 처리하는 전자 장치
CN110807486B (zh) 类别标签的生成方法、装置、电子设备及存储介质
CN116521033A (zh) 图片分享或分类方法、电子设备及存储介质
CN111488898A (zh) 对抗数据获取方法、装置、设备及存储介质
CN110674346A (zh) 视频处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application