KR102163742B1 - 전자 장치 및 그 동작 방법 - Google Patents

전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR102163742B1
KR102163742B1 KR1020150177013A KR20150177013A KR102163742B1 KR 102163742 B1 KR102163742 B1 KR 102163742B1 KR 1020150177013 A KR1020150177013 A KR 1020150177013A KR 20150177013 A KR20150177013 A KR 20150177013A KR 102163742 B1 KR102163742 B1 KR 102163742B1
Authority
KR
South Korea
Prior art keywords
pattern
content
image
detected
processor
Prior art date
Application number
KR1020150177013A
Other languages
English (en)
Other versions
KR20170069600A (ko
Inventor
정길수
김병철
심우성
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150177013A priority Critical patent/KR102163742B1/ko
Priority to US15/162,927 priority patent/US10592714B2/en
Publication of KR20170069600A publication Critical patent/KR20170069600A/ko
Application granted granted Critical
Publication of KR102163742B1 publication Critical patent/KR102163742B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Toxicology (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Geometry (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 투사 영역에 영상을 투사하는 투사부, 투사 영역 상에 배치된 ID 패턴 및 ID 패턴의 위치를 감지하는 감지부 및 감지된 ID 패턴에 대응되는 컨텐츠가 감지된 ID 패턴에 대응되는 위치에 투사되도록 컨텐츠를 포함하는 영상을 생성하고, 생성된 영상을 투사하도록 투사부를 제어하는 프로세서를 포함한다.

Description

전자 장치 및 그 동작 방법 { ELECTRONIC APPARATUS AND OPERATION METHOD THEREOF }
본 발명은 전자 장치 및 그 동작 방법에 대한 것으로, 더욱 상세하게는 영상을 투사하는 전자 장치 및 그 동작 방법에 대한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 특히, 넓은 화면을 확보하거나 복수의 사용자가 동시에 시청하기 위해 OHP, 빔 프로젝터 등과 같이 빛을 이용하여 슬라이드나 동영상 이미지 등을 투사 영역에 투사하는 프로젝터가 보급되고 있다.
더 나아가, 종래 통신 기능이 없거나 제한적인 통신 기능만이 지원되었던 프로젝터에도 다양한 통신 기능이 구비되어 그 활용성이 향상되었다.
다만, 종래에는 프로젝터가 복수의 장치와 연결되더라도 투사 영역에는 하나의 장치로부터 수신된 컨텐츠만을 투사할 수밖에 없었다.
즉, 복수의 장치로부터 수신된 복수의 컨텐츠를 동시에 투사하기 위해서는 각각의 장치에 연결된 복수의 프로젝터를 이용하는 방법이 있었으나, 비용이나 설치 상의 제약이 있었다.
또는, 복수의 컨텐츠를 포함하도록 사용자가 직접 영상을 생성하여 프로젝터로 제공하는 방법이 있었으나, 직접 영상을 생성하는 불편이 있었고, 일부 컨텐츠를 변경하는데 어려움이 있었다.
이에 따라, 복수의 컨텐츠를 투사 영역에 동시에 투사하고, 일부 컨텐츠를 변경하는 간단한 방안이 요구된다.
본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은 투사 영역 내의 오브젝트에 대응되는 영상을 투사하는 전자 장치 및 그 동작 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는 투사 영역에 영상을 투사하는 투사부, 상기 투사 영역 상에 배치된 ID 패턴 및 상기 ID 패턴의 위치를 감지하는 감지부 및 상기 감지된 ID 패턴에 대응되는 컨텐츠가 상기 감지된 ID 패턴에 대응되는 위치에 투사되도록 상기 컨텐츠를 포함하는 영상을 생성하고, 상기 생성된 영상을 투사하도록 상기 투사부를 제어하는 프로세서를 포함한다.
또한, 상기 프로세서는 상기 감지된 ID 패턴에 대응되는 소스 장치로부터 수신된 컨텐츠가 상기 감지된 ID 패턴에 대응되는 위치에 투사되도록 상기 컨텐츠를 포함하는 영상을 생성할 수 있다.
그리고, 상기 프로세서는 감지된 제1 ID 패턴에 대응되는 제1 컨텐츠가 상기 제1 ID 패턴에 대응되는 위치에 투사되고, 감지된 제2 ID 패턴에 대응되는 제2 컨텐츠가 상기 제2 ID 패턴에 대응되는 위치에 투사되도록 상기 제1 및 제2 컨텐츠를 포함하는 영상을 생성할 수 있다.
또한, 상기 프로세서는 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 적어도 하나의 소스 장치로부터 수신할 수 있다.
그리고, 상기 프로세서는 상기 ID 패턴에 포함된, 상기 ID 패턴에 대응되는 영역의 크기 및 형상 중 적어도 하나에 대한 정보에 기초하여 상기 컨텐츠의 크기 및 형상 중 적어도 하나를 조정하여 상기 영상을 생성할 수 있다.
또한, 상기 프로세서는 상기 ID 패턴에 포함된, 상기 ID 패턴에 대응되는 영역에 배치된 3차원 오브젝트의 방향(orientation) 정보에 기초하여, 상기 컨텐츠의 형상을 상기 3차원 오브젝트의 방향에 대응되도록 영상 처리하여 상기 영상을 생성할 수 있다.
그리고, 상기 프로세서는 상기 오브젝트의 색상, 질감 중 적어도 하나를 변경하는 사용자 입력이 수신되면, 상기 수신된 사용자 입력에 기초하여 상기 컨텐츠의 색상, 질감 중 적어도 하나가 변경되도록 영상 처리하여 상기 영상을 생성할 수 있다.
또한, 상기 프로세서는 상기 감지된 ID 패턴의 위치가 변경되면, 상기 ID 패턴의 변경된 위치에 기초하여 상기 컨텐츠의 투사 위치가 변경되도록 상기 영상을 생성할 수 있다.
그리고, 소스 장치 및 상기 컨텐츠에 대한 상기 ID 패턴의 매핑 정보를 저장하는 스토리지를 더 포함하고, 상기 프로세서는 상기 매핑 정보에 기초하여 상기 감지된 ID 패턴에 대응되는 소스 장치로부터 상기 감지된 ID 패턴에 대응되는 컨텐츠를 수신할 수 있다.
또한, 상기 ID 패턴은 상기 ID 패턴을 식별하기 위한 식별 정보 및 상기 컨텐츠가 투사될 영역 정보 중 적어도 하나를 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은 투사 영역 상에 배치된 ID 패턴 및 상기 ID 패턴의 위치를 감지하는 단계, 상기 감지된 ID 패턴에 대응되는 컨텐츠가 상기 감지된 ID 패턴에 대응되는 위치에 투사되도록 상기 컨텐츠를 포함하는 영상을 생성하는 단계 및 상기 생성된 영상을 투사하는 단계를 포함한다.
또한, 상기 생성하는 단계는 상기 감지된 ID 패턴에 대응되는 소스 장치로부터 수신된 컨텐츠가 상기 감지된 ID 패턴에 대응되는 위치에 투사되도록 상기 컨텐츠를 포함하는 영상을 생성할 수 있다.
그리고, 상기 생성하는 단계는 감지된 제1 ID 패턴에 대응되는 제1 컨텐츠가 상기 제1 ID 패턴에 대응되는 위치에 투사되고, 감지된 제2 ID 패턴에 대응되는 제2 컨텐츠가 상기 제2 ID 패턴에 대응되는 위치에 투사되도록 상기 제1 및 제2 컨텐츠를 포함하는 영상을 생성할 수 있다.
또한, 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 적어도 하나의 소스 장치로부터 수신하는 단계를 더 포함할 수 있다.
그리고, 상기 생성하는 단계는 상기 ID 패턴에 포함된, 상기 ID 패턴에 대응되는 영역의 크기 및 형상 중 적어도 하나에 대한 정보에 기초하여 상기 컨텐츠의 크기 및 형상 중 적어도 하나를 조정하여 상기 영상을 생성할 수 있다.
또한, 상기 생성하는 단계는 상기 ID 패턴에 포함된, 상기 ID 패턴에 대응되는 영역에 배치된 3차원 오브젝트의 방향(orientation) 정보에 기초하여, 상기 컨텐츠의 형상을 상기 3차원 오브젝트의 방향에 대응되도록 영상 처리하여 상기 영상을 생성할 수 있다.
그리고, 상기 생성하는 단계는 상기 오브젝트의 색상, 질감 중 적어도 하나를 변경하는 사용자 입력이 수신되면, 상기 수신된 사용자 입력에 기초하여 상기 컨텐츠의 색상, 질감 중 적어도 하나가 변경되도록 영상 처리하여 상기 영상을 생성할 수 있다.
또한, 상기 생성하는 단계는 상기 감지된 ID 패턴의 위치가 변경되면, 상기 ID 패턴의 변경된 위치에 기초하여 상기 컨텐츠의 투사 위치가 변경되도록 상기 영상을 생성할 수 있다.
그리고, 소스 장치 및 상기 컨텐츠에 대한 상기 ID 패턴의 매핑 정보에 기초하여 상기 감지된 ID 패턴에 대응되는 소스 장치로부터 상기 감지된 ID 패턴에 대응되는 컨텐츠를 수신하는 단계를 더 포함할 수 있다.
또한, 상기 ID 패턴은 상기 ID 패턴을 식별하기 위한 식별 정보 및 상기 컨텐츠가 투사될 영역 정보 중 적어도 하나를 포함할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 전자 장치는 투사 영역 내의 ID 패턴에 기초하여 영상을 생성하고 투사하게 되므로 사용자가 ID 패턴의 위치를 변경하여 투사될 위치를 용이하게 변경할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른 프로젝터 시스템을 도시한 도면이다.
도 2a는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 2b는 전자 장치의 세부 구성의 일 예를 나타내는 블럭도이다.
도 3a 내지 도 3d는 본 발명의 일 실시 예에 따른 투사 위치를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 복수의 컨텐츠를 수신하여 영상을 생성하는 동작을 설명하기 위한 도면이다.
도 5a 및 도 5b는 전자 장치가 영상 처리하는 방법의 일 예를 설명하기 위한 도면이다.
도 6a 및 도 6b는 컨텐츠가 투사될 영역의 위치의 일 예를 설명하기 위한 도면이다.
도 7a 내지 도 7c는 3차원 오브젝트에 컨텐츠를 투사하는 방법의 일 예를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 ID 패턴의 이동에 따른 동작을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 활용 예를 설명하기 위한 도면이다.
도 10a 및 도 10b는 사용자 입력을 수신하는 경우의 동작의 일 예를 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 12는 본 발명의 일 실시 예에 따른 매핑 정보를 설정하는 방법을 설명하기 위한 흐름도이다.
도 13은 본 발명의 일 실시 예에 따른 ID 패턴 감지의 후의 동작을 설명하기 위한 흐름도이다.
도 14는 본 발명의 확장 실시 예를 설명하기 위한 도면이다.
도 15는 본 발명의 또 다른 확장 실시 예를 설명하기 위한 도면이다.
이하, 본 발명의 다양한 실시 예에 대해서, 첨부된 도면을 참조하여 설명한다. 본 명세서에 기재된 내용은, 본 발명의 범위를 특정한 실시 형태로 한정하려는 것이 아니며, 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
또한, 본 명세서에서 사용된 "제1," "제2," 등의 표현들은 다양한 구성요소들을, 순서나 중요도에 상관없이, 각 구성요소들을 서로 구분하기 위해 사용된다. 따라서, 이러한 표현에 의해 해당 구성요소들의 순서나 중요도가 한정되는 것은 아니다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
또한, 본 명세서에서 하나의 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 기능적 또는 통신적으로(operatively or communicatively) 연결(coupled)되어 있다거나, 접속되어(connected to) 있다고 언급하는 것은, 각 구성요소들이 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 간접적으로 연결되는 경우까지 모두 포함할 수 있다는 것으로 이해되어야 한다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 어떤 구성요소와 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 명세서(disclosure)에서 사용된 용어들은, 임의의 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 또한, 본 명세서에서는 설명의 편의상 단수 표현을 사용할 수도 있으나, 이는 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 표현까지 포함하는 의미로 해석될 수 있다. 또한, 본 명세서에서 사용되는 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 명세서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 명세서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 명세서에서 정의된 용어일지라도 본 명세서의 실시 예들을 배제하도록 해석될 수 없다.
이하에서, 첨부된 도면을 이용하여 본 발명의 다양한 실시 예들에 대하여 구체적으로 설명한다.
도 1은 본 발명의 일 실시 예에 따른 프로젝터 시스템(1000)을 도시한 도면이다. 도 1에 도시된 바와 같이, 프로젝터 시스템(1000)은 전자 장치(100), 소스 장치(200-1, 200-2, 200-3), 투사 영역(10), 투사 영역(10) 상에 배치된 ID 패턴(20-1, 20-2)을 포함한다.
프로젝터 시스템(1000)은 컨텐츠를 투사 영역(10)에 비추는 시스템을 의미하며, 빛을 이용하여 슬라이드나 동영상 이미지 등을 투사 영역(10)에 비추는 시스템이면 모두 적용 가능하다.
도시된 바와 같이 전자 장치(100)는 빔 프로젝터와 같은 프로젝터(100)로 구현될 수 있으나, 이에 한정되는 것은 아니며, 빔 프로젝터 기능이 부가된 스마트폰 등과 같이 빔 프로젝터 기능을 갖춘 다양한 유형의 장치로 구현될 수 있다. 또한, 전자 장치(100)는 투사 영역(10)에 영상을 투사하도록 구현될 수 있다.
전자 장치(100)는 투사 영역(10) 상에 배치된 ID 패턴(20-1, 20-2) 및 ID 패턴(20-1, 20-2)의 위치를 감지할 수 있다. 예를 들어, 전자 장치(100)는 투사 영역(10)을 촬영하여 기저장된 ID 패턴(20-1, 20-2)을 감지하고, 투사 영역(10) 내에서의 ID 패턴(20-1, 20-2)의 위치를 결정할 수 있다.
전자 장치(100)는 ID 패턴(20-1, 20-2)을 분석하여 정보를 추출할 수 있다. 예를 들어, 전자 장치(100)는 ID 패턴(20-1, 20-2)으로부터 식별 정보, ID 패턴(20-1, 20-2)에 대응되는 영역에 대한 정보 등을 추출할 수 있다.
한편, 전자 장치(100)는 소스 장치(200-1, 200-2, 200-3)와 통신을 수행할 수 있다. 전자 장치(100)는 각 소스 장치(200-1, 200-2, 200-3)로 컨텐츠를 요청하여 수신할 수 있다.
전자 장치(100)는 소스 장치(200-1, 200-2, 200-3)로부터 수신된 컨텐츠를 투사 영역(10)에 투사할 수 있다. 특히, 전자 장치(100)는 ID 패턴(20-1, 20-2)에 대응되는 소스 장치(200-1, 200-2, 200-3)를 결정하고, 소스 장치(200-1, 200-2, 200-3)로부터 수신된 컨텐츠를 대응되는 ID 패턴(20-1, 20-2)이 지시하는 위치에 투사할 수 있다.
전자 장치(100)는 ID 패턴(20-1, 20-2)으로부터 추출된 식별 정보에 대응되는 소스 장치(200-1, 200-2, 200-3)에 대한 정보를 저장하고 있을 수 있다. 여기서, 전자 장치(100)가 ID 패턴(20-1, 20-2)으로부터 추출된 식별 정보에 대응되는 장치일 수도 있다. 이 경우, 전자 장치(100)는 전자 장치(100)에 저장되어 있는 컨텐츠를 대응되는 ID 패턴(20-1, 20-2)이 지시하는 위치에 투사할 수도 있다.
소스 장치(200-1, 200-2, 200-3)는 전자 장치(100)와 통신을 수행할 수 있다. 소스 장치(200-1, 200-2, 200-3)는 전자 장치(100)로부터 컨텐츠의 전송 요청을 수신하고, 대응되는 컨텐츠를 전자 장치(100)로 전송할 수 있다.
소스 장치(200-1, 200-2, 200-3)는 PC, 스마트폰, 태블릿 등 컨텐츠를 저장하고 있는 장치일 수 있다. 다만, 이에 한정되는 것은 아니고, 소스 장치(200-1, 200-2, 200-3)는 통신 기능이 구비된 전자 장치이기만 하면 특별한 제한은 없다.
투사 영역(10)은 전자 장치(100)에 의해 영상이 투사되는 영역으로, 전자 장치(100)의 배치에 따라 달라질 수 있다. 또는, 투사 영역(10)은 전자 장치(100)의 투사 기능의 설정에 따라 달라질 수 있다.
투사 영역(10)은 2차원의 영역일 수도 있으나, 3차원의 영역일 수도 있다. 또한, 투사 영역(10) 내에는 3차원의 오브젝트가 위치할 수도 있다.
ID 패턴(20-1, 20-2)은 식별 정보, 컨텐츠가 투사될 영역에 대한 정보 등을 저장하고 있을 수 있다. ID 패턴(20-1, 20-2)은 QR 코드와 같이 정보를 저장할 수 있는 패턴이면 특별한 제한은 없다.
ID 패턴(20-1, 20-2)은 투사 영역(10) 내에 부착되며, 전자 장치(100)에 의해 인식될 수 있는 크기이면 특별한 제한은 없다. 특히, ID 패턴(20-1, 20-2)은 전자 장치(100)에 의해 인식 가능한 최소한의 크기일 수 있다.
한편, 이상에서는 전자 장치(100)가 소스 장치(200-1, 200-2, 200-3)로부터 컨텐츠를 수신하여 투사하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, PC가 별도로 구비되어 전자 장치(100)가 감지한 ID 패턴(20-1, 20-2)을 수신하고, ID 패턴(20-1, 20-2)에 대응되는 각 소스 장치(200-1, 200-2, 200-3)로 컨텐츠를 요청할 수 있다. 그리고, PC는 소스 장치(200-1, 200-2, 200-3)로부터 컨텐츠를 수신하여, 각 컨텐츠를 ID 패턴(20-1, 20-2)에 대응되는 위치에 투사되도록 영상을 생성하여 전자 장치(100)로 전송할 수도 있다.
도 2a는 본 발명의 일 실시 예에 따른 전자 장치(100)의 구성을 나타내는 블럭도이다.
도 2a에 따르면, 전자 장치(100)는 투사부(110), 감지부(120) 및 프로세서(130)를 포함한다.
투사부(110)는 영상을 투사한다. 구체적으로, 투사부(110)는 램프 또는 LED와 같은 광원을 이용하여 소스 장치로부터 수신된 컨텐츠 및 기저장되어 있는 컨텐츠 중 적어도 하나를 포함하는 영상을 투사 영역으로 투사할 수 있다.
감지부(120)는 투사 영역 상에 배치된 ID 패턴 및 ID 패턴의 위치를 감지할 수 있다. 여기서, 감지부(120)는 주로 카메라 등으로 구성될 수 있다. 카메라는 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 특히, 카메라는 전자 장치(100)의 전방에 위치한 오브젝트를 촬영하는데 이용될 수 있다.
이상에서는 감지부(120)가 카메라로 구성되는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 감지부(120)는 뎁스 맵 등으로 구성될 수도 있다.
프로세서(130)는 감지된 ID 패턴에 대응되는 컨텐츠가 감지된 ID 패턴에 대응되는 위치에 투사되도록 컨텐츠를 포함하는 영상을 생성하고, 생성된 영상을 투사하도록 투사부(110)를 제어할 수 있다.
프로세서(130)는 감지된 ID 패턴으로부터 ID 패턴을 식별하기 위한 식별 정보 및 컨텐츠가 투사될 영역 정보 중 적어도 하나를 추출할 수 있다. 예를 들어, 프로세서(130)는 ID 패턴의 식별 정보가 1이고, 컨텐츠가 투사될 영역 정보는 ID 패턴이 배치된 위치를 중심으로 반지름이 10cm인 동심원이라는 정보를 추출할 수 있다.
프로세서(130)는 추출된 식별 정보로부터 대응되는 소스 장치 및 컨텐츠를 결정할 수 있다. 그리고, 프로세서(130)는 소스 장치로 컨텐츠를 요청할 수 있다. 이때, 전자 장치(100)는 소스 장치 및 컨텐츠에 대한 ID 패턴의 매핑 정보를 저장하는 스토리지를 더 포함할 수 있다. 그리고, 프로세서(130)는 매핑 정보에 기초하여 감지된 ID 패턴에 대응되는 소스 장치로부터 감지된 ID 패턴에 대응되는 컨텐츠를 수신할 수 있다.
다만, 이에 한정되는 것은 아니며, ID 패턴은 컨텐츠에 대한 정보를 저장하고 있을 수 있다. 이 경우, 프로세서(130)는 소스 장치 및 컨텐츠를 결정할 필요 없이, ID 패턴으로부터 추출된 정보에 기초하여 대응되는 컨텐츠를 소스 장치로 요청할 수 있다.
또는, 전자 장치(100)가 감지된 ID 패턴에 대응되는 장치일 수 있다. 이 경우, 프로세서(130)는 ID 패턴에 대응되는 컨텐츠가 기저장되어 있는지 검색할 수 있다.
프로세서(130)는 감지된 ID 패턴에 대응되는 소스 장치로부터 수신된 컨텐츠가 감지된 ID 패턴에 대응되는 위치에 투사되도록 컨텐츠를 포함하는 영상을 생성할 수 있다. 예를 들어, 프로세서(130)는 컨텐츠가 전체 투사 영역의 우측 상단의 일 영역에 투사되도록 영상을 생성할 수 있다.
여기서, 프로세서(130)는 감지된 제1 ID 패턴에 대응되는 제1 컨텐츠가 제1 ID 패턴에 대응되는 위치에 투사되고, 감지된 제2 ID 패턴에 대응되는 제2 컨텐츠가 제2 ID 패턴에 대응되는 위치에 투사되도록 제1 및 제2 컨텐츠를 포함하는 영상을 생성할 수 있다. 예를 들어, 프로세서(130)는 투사 영역 상에 복수의 ID 패턴이 감지되는 경우, 각각에 대응되는 컨텐츠를 수신하여 영상을 생성할 수 있다.
이때, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠를 적어도 하나의 소스 장치로부터 수신할 수 있다. 즉, 제1 ID 패턴에 대응되는 제1 컨텐츠와 제2 ID 패턴에 대응되는 제2 컨텐츠는 하나의 소스 장치에 저장되어 있을 수도 있고, 별개의 장치에 저장되어 있을 수도 있다. 또한, 제1 컨텐츠 및 제2 컨텐츠 중 적어도 하나가 전자 장치(100)에 저장되어 있을 수도 있다.
한편, 프로세서(130)는 ID 패턴에 포함된, ID 패턴에 대응되는 영역의 크기 및 형상 중 적어도 하나에 대한 정보에 기초하여 컨텐츠의 크기 및 형상 중 적어도 하나를 조정하여 영상을 생성할 수 있다. 예를 들어, 프로세서(130)는 16:9 화면 비율의 컨텐츠를 원형으로 변환하여 영상을 생성할 수도 있다.
특히, 프로세서(130)는 ID 패턴에 포함된, ID 패턴에 대응되는 영역에 배치된 3차원 오브젝트의 방향(orientation) 정보에 기초하여, 컨텐츠의 형상을 3차원 오브젝트의 방향에 대응되도록 영상 처리하여 영상을 생성할 수도 있다. 예를 들어, 프로세서(130)는 컨텐츠를 3차원 마네킹에 대응되도록 영상 처리하여 영상을 생성할 수도 있다.
여기서, 프로세서(130)는 오브젝트의 색상, 질감 중 적어도 하나를 변경하는 사용자 입력이 수신되면, 수신된 사용자 입력에 기초하여 컨텐츠의 색상, 질감 중 적어도 하나가 변경되도록 영상 처리하여 영상을 생성할 수도 있다.
한편, 프로세서(130)는 감지된 ID 패턴의 위치가 변경되면, ID 패턴의 변경된 위치에 기초하여 컨텐츠의 투사 위치가 변경되도록 영상을 생성할 수 있다. 예를 들어, ID 패턴의 위치가 사용자에 의해 변경되면, 프로세서(130)는 실시간으로 ID 패턴의 변경된 위치에 기초하여 영상을 변경할 수 있다.
도 2b는 전자 장치(100)의 세부 구성의 일 예를 나타내는 블럭도이다. 도 2b에 따르면, 전자 장치(100)는 투사부(110), 감지부(120), 프로세서(130), 스토리지(140), 통신부(150), 사용자 인터페이스부(155), 오디오 처리부(160), 비디오 처리부(170), 스피커(180), 버튼(181), 마이크(182)를 포함한다. 도 2b에 도시된 구성요소들 중 도 2a에 도시된 구성요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
프로세서(130)는 스토리지(140)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 동작을 전반적으로 제어한다.
구체적으로, 프로세서(130)는 RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다.
RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다.
제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
메인 CPU(133)는 스토리지(140)에 액세스하여, 스토리지(140)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 스토리지(140)에 저장된 각종 프로그램 등을 이용하여 다양한 동작을 수행한다.
ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(133)는 ROM(132)에 저장된 명령어에 따라 스토리지(140)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(133)는 스토리지(140)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부(134)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 투사부(110)에 의해 투사 영역에 투사된다.
한편, 상술한 프로세서(130)의 동작은 스토리지(140)에 저장된 프로그램에 의해 이루어질 수 있다.
스토리지(140)는 전자 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 영상 처리 모듈, ID 패턴 감지 모듈, ID 패턴의 매핑 모듈 등과 같이 다양한 데이터를 저장한다.
이 경우 프로세서(130)는 스토리지(140)에 저장된 정보에 기초하여 컨텐츠를 영상 처리하여 영상을 생성하고 투사할 수 있다.
통신부(150)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 통신부(150)는 와이파이 칩(151), 블루투스 칩(152), 무선 통신 칩(153), NFC 칩(154) 등을 포함한다. 프로세서(130)는 통신부(150)를 이용하여 각종 외부 장치와 통신을 수행한다.
와이파이 칩(151), 블루투스 칩(152)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 칩(151)이나 블루투스 칩(152)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(153)은 IEEE, 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(154)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.
한편, 통신부(150)는 전자 장치와 단방향 통신 또는 양방향 통신을 수행할 수 있다. 단방향 통신을 수행하는 경우, 통신부(150)는 전자 장치로부터 신호를 수신할 수 있다. 양방향 통신을 수행하는 경우, 통신부(150)는 전자 장치로부터 신호를 수신할 수도 있고, 전자 장치로 신호를 송신할 수도 있다.
사용자 인터페이스부(155)는 다양한 사용자 인터랙션(interaction)을 수신한다. 사용자 인터페이스부(155)는 키보드, 마우스 등의 입력을 수신할 수 있다. 또는, 사용자 인터페이스부(155)는 원격 제어 장치로부터 리모콘 신호를 수신하는 리모콘 수신부, 사용자 모션을 감지하는 카메라, 사용자 음성을 수신하는 마이크 등으로 구현 가능하다.
또한, 전자 장치(100)가 터치 기반의 터치 패널을 제공하는 전자 장치로 구현되는 경우 사용자 인터페이스부(155)는 터치패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수도 있다. 이 경우, 사용자 인터페이스부(155)는 디스플레이로 사용될 수 있게 된다. 특히, 사용자는 디스플레이의 외부를 터치하여 전자 장치(100)를 제어할 수 있다.
오디오 처리부(160)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(160)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.
비디오 처리부(170)는 비디오 데이터에 대한 처리를 수행하는 구성요소이다. 비디오 처리부(170)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
스피커(180)는 오디오 처리부(160)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.
버튼(181)은 전자 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.
마이크(182)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다.
이하에서는 본 발명의 이해를 돕기 위한 기본 구성과 다양한 실시 예에 대하여 설명한다.
도 3a 내지 도 3d는 본 발명의 일 실시 예에 따른 투사 위치를 설명하기 위한 도면이다.
도 3a에 도시된 바와 같이, 프로세서(130)는 감지된 ID 패턴에 대응되는 소스 장치로부터 수신된 컨텐츠가 감지된 ID 패턴(20)에 대응되는 위치에 투사되도록 컨텐츠를 포함하는 영상을 생성할 수 있다. 예를 들어, 프로세서(130)는 PC(200)로부터 이미지를 수신하고, 수신된 이미지를 전체 투사 영역(10) 중 ID 패턴(20)에 대응되는 위치에 투사되도록 영상을 생성할 수 있다.
프로세서(130)는 감지된 ID 패턴(20)으로부터 대응되는 소스 장치와 컨텐츠가 투사될 위치를 결정할 수 있다. 즉, ID 패턴(20)은 ID 패턴(20)을 식별하기 위한 식별 정보 및 컨텐츠가 투사될 영역 정보 중 적어도 하나를 포함할 수 있다. 예를 들어, 프로세서(130)는 도 3b에 도시된 바와 같이, ID 패턴(20)으로부터 식별 정보, 영역 정보 및 영역 위치에 대한 정보를 추출할 수 있다.
식별 정보는 ID 패턴(20)을 나타내는 번호일 수 있다. 프로세서(130)는 식별 정보를 통해 ID 패턴(20)에 대응되는 소스 장치를 결정할 수 있다. 이에 대한 구체적인 설명은 후술한다.
영역 정보는 가로 10cm, 세로 7cm인 사각형인 것으로 도시되었으나, 이는 일 실시 예에 불과하다. 예를 들어, 컨텐츠가 투사될 영역은 원형, 마름모형 등의 다른 형태일 수도 있다. 또한, 컨텐츠가 투사될 영역이 2차원이 아닌 3차원의 오브젝트일 수도 있다.
영역 위치는 ID 패턴(20)의 우측 하단인 것으로 나타내었으나, 이에 한정되는 것은 아니다. 예를 들어, 영역 위치는 ID 패턴(20)을 중심으로 하는 형태일 수 있다. 또한, 영역 위치는 ID 패턴(20)이 배치된 위치와는 전혀 다른 위치일 수도 있다. 예를 들어, ID 패턴(20)은 전자 장치(100)의 투사 영역(10)의 특정 지점을 가리키는 정보를 저장하고 있을 수도 있다.
프로세서(130)는 ID 패턴(20)의 식별 정보에 기초하여 투사될 컨텐츠를 결정할 수 있다. 즉, 전자 장치(100)는 소스 장치 및 컨텐츠에 대한 ID 패턴(20)의 매핑 정보를 저장하는 스토리지를 더 포함하고, 프로세서(130)는 매핑 정보에 기초하여 감지된 ID 패턴에 대응되는 소스 장치로부터 감지된 ID 패턴에 대응되는 컨텐츠를 수신할 수 있다.
예를 들어, 프로세서(130)는 도 3c에 도시된 바와 같이, ID 패턴(20)의 식별 정보로부터 대응되는 소스 장치가 스마트폰이고, 대응되는 컨텐츠가 스마트폰의 일정 정보인 것으로 결정할 수 있다. 그리고, 프로세서(130)는 소스 장치로 일정 정보를 요청하여 수신할 수 있다.
한편, ID 패턴(20)은 도 3c에 도시된 바와 같이, 소스 정보를 포함할 수 있다. 예를 들어, 프로세서(130)는 ID 패턴(20)으로부터 소스 정보로 스마트폰의 촬영 이미지를 추출하고, 스마트폰으로 촬영 이미지를 요청할 수 있다. 이 경우, 전자 장치(100)는 매칭 정보를 저장하지 않을 수 있다.
도 4는 본 발명의 일 실시 예에 따른 복수의 컨텐츠를 수신하여 영상을 생성하는 동작을 설명하기 위한 도면이다.
도 4에 도시된 바와 같이, 프로세서(130)는 감지된 제1 ID 패턴(20-1)에 대응되는 제1 컨텐츠가 제1 ID 패턴(20-1)에 대응되는 제1 위치(30-1)에 투사되고, 감지된 제2 ID 패턴(20-2)에 대응되는 제2 컨텐츠가 제2 ID 패턴(20-2)에 대응되는 위치(30-2)에 투사되도록 제1 및 제2 컨텐츠를 포함하는 영상을 생성할 수 있다.
특히, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠를 적어도 하나의 소스 장치로부터 수신할 수 있다. 예를 들어, 프로세서(130)는 제1 ID 패턴(20-1)에 대응되는 스마트폰의 일정 정보 및 제2 ID 패턴(20-2)에 대응되는 PC의 동영상을 각각의 장치로 요청하여 수신할 수 있다. 그리고, 프로세서(130)는 스마트폰의 일정 정보 및 PC의 동영상을 각각 제1 ID 패턴(20-1) 및 제2 ID 패턴(20-2)에 대응되는 위치(30-1, 30-2)에 투사되도록 영상을 생성할 수 있다.
또는, 프로세서(130)는 제1 ID 패턴(20-1)에 대응되는 제1 컨텐츠 및 제2 ID 패턴(20-2)에 대응되는 제2 컨텐츠를 하나의 장치로부터 수신할 수도 있다. 예를 들어, 프로세서(130)는 제1 ID 패턴(20-1)에 대응되는 스마트폰의 일정 정보 및 제2 ID 패턴(20-2)에 대응되는 스마트폰의 촬영 이미지를 스마트폰으로 요청하여 수신할 수 있다.
한편, 이상에서는 프로세서(130)가 소스 장치로부터 컨텐츠를 수신하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 전자 장치(100)가 저장하고 있는 컨텐츠를 이용하여 영상을 생성할 수 있다. 즉, 프로세서(130)는 제1 ID 패턴(20-1)에 대응되는 스마트폰의 일정 정보 및 제2 ID 패턴(20-2)에 대응되는 전자 장치(100)의 이미지를 이용하여 영상을 생성할 수도 있다. 또는, 프로세서(130)는 제1 ID 패턴(20-1)에 대응되는 전자 장치(100)의 이미지 및 제2 ID 패턴(20-2)에 대응되는 전자 장치(100)의 동영상을 이용하여 영상을 생성할 수도 있다.
도 5a 및 도 5b는 전자 장치(100)가 영상 처리하는 방법의 일 예를 설명하기 위한 도면이다.
도 5a에 도시된 바와 같이, 프로세서(130)는 ID 패턴(20)에 포함된, ID 패턴(20)에 대응되는 영역의 크기 및 형상 중 적어도 하나에 대한 정보에 기초하여 컨텐츠의 크기 및 형상 중 적어도 하나를 조정하여 영상을 생성할 수 있다. 예를 들어, 프로세서(130)는 직사각형 형태의 컨텐츠를 ID 패턴(20)에 대응되는 평행사변형 형태로 변경하여 영상을 생성할 수 있다. 또는, 프소세서(130)는 평행사변형 뿐만 아니라 얼마든지 다른 형태로 컨텐츠의 형태를 변경할 수 있다. 또한, 프로세서(130)는 컨텐츠의 크기도 변경 가능하다.
또는, 도 5b에 도시된 바와 같이, 프로세서(130)는 특정 패턴 이미지를 수신하여 영상을 생성할 수도 있다. 그리고, 프로세서(130)는 ID 패턴(20)에 대응되는 영역에 특정 패턴이 투사되도록 영상을 생성할 수 있다. 예를 들어, 프로세서(130)는 체크 무늬의 이미지를 수신하여, ID 패턴(20)이 부착된 소파(30)의 특정 영역에 체크 무늬가 투사되도록 영상을 생성할 수 있다.
여기서, ID 패턴(20)은 소파(30)와 같은 3차원 오브젝트에 부착될 수도 있다. 이 경우, ID 패턴(20)은 3차원 오브젝트에 대한 정보를 저장하고 있을 수 있다. 프로세서(130)는 ID 패턴(20)으로부터 3차원 오브젝트에 대한 정보를 추출하여 3차원 오브젝트의 표면에 컨텐츠가 투사되도록 영상을 생성할 수 있다. 이 경우, 프로세서(130)는 3차원 오브젝트의 표면에 기초하여 컨텐츠를 영상 처리할 수 있다.
도 6a 및 도 6b는 컨텐츠가 투사될 영역의 위치의 일 예를 설명하기 위한 도면이다.
도 6a에 도시된 바와 같이, ID 패턴(20)은 컨텐츠가 투사될 영역(30)의 좌측 상단에 위치할 수 있다. 이 경우, ID 패턴(20)은 ID 패턴(20)의 위치를 기준으로 우측 하단이 컨텐츠가 투사될 영역(30)이라는 정보를 포함할 수 있다. 프로세서(130)는 ID 패턴(20)에 저장되어 있는 영역의 크기 정보에 기초하여 컨텐츠가 투사될 영역(30)을 결정할 수 있다. 또는, 도 6b에 도시된 바와 같이, ID 패턴(20)은 컨텐츠가 투사될 영역(30)의 정중앙에 위치할 수도 있다.
다만, 이에 한정되는 것은 아니며, ID 패턴(20)은 ID 패턴(20)의 배치 위치와 상관 없이 절대적인 위치에 대한 정보를 포함할 수도 있다. 예를 들어, ID 패턴(20)은 투사 영역(10) 내의 정중앙이 컨텐츠를 투사하는 위치라는 정보를 포함할 수 있다. 이 경우, 프로세서(130)는 ID 패턴(20)이 투사 영역(10) 내에만 배치되어 있으면, ID 패턴(20)의 배치 위치와 상관 없이 컨텐츠를 투사 영역(10) 내의 정중앙에 투사되도록 영상을 생성할 수 있다.
또는, ID 패턴(20)은 3차원 오브젝트에 컨텐츠가 투사되도록 관련 정보를 포함할 수 있다. 이에 대해서는 도 7에서 설명한다.
도 7a 내지 도 7c는 3차원 오브젝트에 컨텐츠를 투사하는 방법의 일 예를 설명하기 위한 도면이다.
도 7a에 도시된 바와 같이, 프로세서(130)는 ID 패턴(20)에 포함된, ID 패턴(20)에 대응되는 영역에 배치된 3차원 오브젝트의 방향(orientation) 정보에 기초하여, 컨텐츠의 형상을 3차원 오브젝트의 방향에 대응되도록 영상 처리하여 영상을 생성할 수 있다. 예를 들어, ID 패턴(20)은 3차원 오브젝트 전체의 모델링 정보 및 3차원 오브젝트의 방향 정보를 포함하고 있을 수 있다. 프로세서(130)는 3차원 오브젝트의 방향 정보에 기초하여 3차원 오브젝트에 투사될 영역(30)을 결정하고, 3차원 오브젝트 전체의 모델링 정보에 기초하여 컨텐츠가 투사될 영역(30)에 대응되도록 영상을 생성할 수 있다.
한편, 도 7b에 도시된 바와 같이, ID 패턴(20)은 3차원 오브젝트를 둘러싸도록 배치될 수도 있다. 이 경우, ID 패턴(20)은 도 7c에 도시된 바와 같이, 각 영역마다 특정 수치를 저장하고 있을 수 있다. 프로세서(130)는 감지된 ID 패턴(20)의 영역으로부터 특정 수치를 추출하여 3차원 오브젝트의 방향을 판단할 수 있다.
예를 들어, ID 패턴(20)은 0~15까지의 수치를 저장하고 있고, 프로세서(130)는 감지된 ID 패턴(20)으로부터 3~7의 수치가 추출되면, 3차원 오브젝트 마네킹의 옆 면이 컨텐츠가 투사될 영역(30)인 것으로 판단할 수 있다.
한편, 도 7c에서는 ID 패턴(20)의 각 영역마다 특정 수치가 저장되어 있는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, ID 패턴(20)의 각 영역에서 3차원 오브젝트의 방향을 나타내는 특정 패턴이 저장되어 있을 수도 있다.
한편, 프로세서(130)는 오브젝트의 색상, 질감 중 적어도 하나를 변경하는 사용자 입력이 수신되면, 수신된 사용자 입력에 기초하여 컨텐츠의 색상, 질감 중 적어도 하나가 변경되도록 영상 처리하여 영상을 생성할 수 있다. 이에 대한 구체적인 설명은 후술한다.
도 8은 본 발명의 일 실시 예에 따른 ID 패턴(20)의 이동에 따른 동작을 설명하기 위한 도면이다.
도 8에 도시된 바와 같이, 프로세서(130)는 감지된 ID 패턴(20)의 위치가 변경되면, ID 패턴(20)의 변경된 위치에 기초하여 컨텐츠의 투사 위치(30)가 변경되도록 영상을 생성할 수 있다. 예를 들어, 프로세서(130)는 ID 패턴(20)이 투사 영역(10)의 우측에서 감지되다가 좌측으로 이동하면, 컨텐츠의 투사 위치(30)도 투사 영역(10)의 우측에서 좌측으로 이동하도록 영상을 생성할 수 있다. 즉, 사용자는 ID 패턴(20)을 이동하여 컨텐츠가 디스플레이되기를 원하는 영역을 변경할 수 있다.
한편, 도 8에는 하나의 ID 패턴(20)의 이동에 대하여만 도시되었으나, 프로세서(130)는 얼마든지 복수의 ID 패턴(20)의 이동에 대하여도 동일한 동작을 수행할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 활용 예를 설명하기 위한 도면이다.
도 9에 도시된 바와 같이, 프로세서(130)는 기저장되어 있는 정보를 ID 패턴에 대응되는 영역에 투사하도록 영상을 생성할 수 있다. 예를 들어, 프로세서(130)는 제1 ID 패턴에 대응되는 영역(910)에는 "매장 세일 정보"가 투사되고, 제2 ID 패턴에 대응되는 영역(920)에는 "셔츠 39900원"이 투사되고, 제3 ID 패턴에 대응되는 영역(930)에는 "스커트 29900~59900원"이 투사되도록 영상을 생성할 수 있다.
이 경우, 프로세서(130)는 컨텐츠를 수신할 필요 없이 사용자에 의해 설정된 텍스트 등을 디스플레이하게 된다. 또한, 사용자에 의해 ID 패턴이 이동하면, ID 패턴의 새로운 위치에 기초하여 영상을 생성할 수 있다. 또한, 프로세서(130)는 사용자로부터 실시간으로 입력을 받아 텍스트를 변경할 수도 있다.
도 10a 및 도 10b는 사용자 입력을 수신하는 경우의 동작의 일 예를 설명하기 위한 도면이다.
도 10a에 도시된 바와 같이, 프로세서(130)는 오브젝트의 색상, 질감 중 적어도 하나를 변경하는 사용자 입력이 수신되면, 수신된 사용자 입력에 기초하여 컨텐츠의 색상, 질감 중 적어도 하나가 변경되도록 영상 처리하여 영상을 생성할 수 있다.
예를 들어, 프로세서(130)는 사용자가 ID 패턴(20)이 부착된 원피스를 입고 투사 영역(10) 내에 서있는 경우, ID 패턴(20)을 감지하고 ID 패턴(20)에 대응되는 영역에 스트라이프 무늬가 투사되도록 영상을 생성하여 투사할 수 있다.
이후, 사용자에 의해 무늬가 변경되면, 프로세서(130)는 ID 패턴(20)에 대응되는 영역에 체크 무늬가 투사되도록 영상을 생성하여 투사할 수 있다.
이때, 프로세서(130)는 사용자가 소지하고 있는 타 전자 장치와 연동되어 관련 메뉴를 제공할 수 있다. 예를 들어, 도 10b에 도시된 바와 같이, 사용자의 스마트폰은 전자 장치(100)로부터 관련 메뉴를 제공받아 디스플레이할 수 있다. 사용자가 스마트폰에서 스트라이프 무늬(1010)로부터 체크 무늬(1020)를 선택하면, 체크 무늬(1020) 선택 신호가 전자 장치(100)로 전송되고, 프로세서(130)는 수신된 체크 무늬(1020) 선택 신호에 기초하여 영상을 생성할 수 있다.
도 11은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
먼저, 투사 영역 상에 배치된 ID 패턴 및 ID 패턴의 위치를 감지한다(S1110). 그리고, 감지된 ID 패턴에 대응되는 컨텐츠가 감지된 ID 패턴에 대응되는 위치에 투사되도록 컨텐츠를 포함하는 영상을 생성한다(S1120). 그리고, 생성된 영상을 투사한다(S1130).
여기서, 생성하는 단계(S1130)는 감지된 ID 패턴에 대응되는 소스 장치로부터 수신된 컨텐츠가 감지된 ID 패턴에 대응되는 위치에 투사되도록 컨텐츠를 포함하는 영상을 생성할 수 있다.
또는, 생성하는 단계(S1130)는 감지된 제1 ID 패턴에 대응되는 제1 컨텐츠가 제1 ID 패턴에 대응되는 위치에 투사되고, 감지된 제2 ID 패턴에 대응되는 제2 컨텐츠가 제2 ID 패턴에 대응되는 위치에 투사되도록 제1 및 제2 컨텐츠를 포함하는 영상을 생성할 수 있다.
특히, 상기 제1 컨텐츠 및 제2 컨텐츠를 적어도 하나의 소스 장치로부터 수신하는 단계를 더 포함할 수 있다.
한편, 생성하는 단계(S1130)는 ID 패턴에 포함된, ID 패턴에 대응되는 영역의 크기 및 형상 중 적어도 하나에 대한 정보에 기초하여 컨텐츠의 크기 및 형상 중 적어도 하나를 조정하여 영상을 생성할 수 있다.
또는, 생성하는 단계(S1130)는 ID 패턴에 포함된, ID 패턴에 대응되는 영역에 배치된 3차원 오브젝트의 방향(orientation) 정보에 기초하여, 컨텐츠의 형상을 3차원 오브젝트의 방향에 대응되도록 영상 처리하여 영상을 생성할 수 있다.
여기서, 생성하는 단계(S1130)는 오브젝트의 색상, 질감 중 적어도 하나를 변경하는 사용자 입력이 수신되면, 수신된 사용자 입력에 기초하여 컨텐츠의 색상, 질감 중 적어도 하나가 변경되도록 영상 처리하여 영상을 생성할 수 있다.
한편, 생성하는 단계(S1130)는 감지된 ID 패턴의 위치가 변경되면, ID 패턴의 변경된 위치에 기초하여 컨텐츠의 투사 위치가 변경되도록 영상을 생성할 수 있다.
그리고, 소스 장치 및 컨텐츠에 대한 ID 패턴의 매핑 정보에 기초하여 감지된 ID 패턴에 대응되는 소스 장치로부터 감지된 ID 패턴에 대응되는 컨텐츠를 수신하는 단계를 더 포함할 수 있다.
한편, ID 패턴은 ID 패턴을 식별하기 위한 식별 정보 및 컨텐츠가 투사될 영역 정보 중 적어도 하나를 포함할 수 있다.
도 12는 본 발명의 일 실시 예에 따른 매핑 정보를 설정하는 방법을 설명하기 위한 흐름도이다.
먼저, 복수의 감지된 ID 패턴 중 어느 하나의 ID 패턴이 선택된다(S1210). 그리고, 선택된 ID 패턴이 기선택된 ID 패턴인지 판단한다(S1220). 예를 들어, 선택된 ID 패턴이 ID 패턴에 대한 매핑 정보를 저장하고 있는 경우 기선택된 ID 패턴이고, ID 패턴에 대한 매핑 정보를 저장하고 있지 않은 경우 기선택된 ID 패턴이 아니다.
선택된 ID 패턴이 기선택된 ID 패턴인 경우, 기저장된 매핑 정보를 삭제할 것인지의 여부를 문의한다(S1230). 기저장된 매핑 정보를 삭제하는 경우 또는 선택된 ID 패턴이 기선택된 ID 패턴이 아닌 경우, 소스 장치를 선택한다(S1240). 기저장된 매핑 정보를 삭제하지 않는 경우, 다시 ID 패턴을 선택한다.
소스 장치가 선택된 후, 컨텐츠를 선택한다(S1250). 이 경우, 컨텐츠는 소스 장치가 제공하는 컨텐츠만을 포함할 수 있다.
도 13은 본 발명의 일 실시 예에 따른 ID 패턴 감지의 후의 동작을 설명하기 위한 흐름도이다.
먼저, 투사 영역 영역을 감지한다(S1310). 그리고, ID 패턴을 감지한다(S1320). 그리고, ID 패턴에 포함된 정보를 추출한다(S1330). ID 패턴에 포함된 정보는 ID 패턴을 식별하기 위한 식별 정보, 컨텐츠가 투사될 영역 정보 및 오브젝트의 방향 정보일 수 있다.
그리고, 추출된 정보가 기저장된 정보인지 판단(S1340)하여, 기저장된 정보가 아닌 경우에만 ID 패턴에 소스 장치 및 컨텐츠를 매핑한다(S1350). 추출된 정보가 기저장된 정보인 경우에는 대응되는 컨텐츠를 ID 패턴에 대응되는 위치에 투사하도록 영상을 생성할 수 있다.
도 14는 본 발명의 확장 실시 예를 설명하기 위한 도면이다.
이상에서는 전자 장치(100)가 영상을 투사하는 기능 외에 영상을 생성하는 기능도 구비된 것으로 도시하였으나, 도 14는 영상을 투사하는 기능 및 영상을 생성하는 기능이 별개의 장치가 각각 구비할 수도 있음을 나타낸다.
예를 들어, 프로젝터 시스템(1000)은 전자 장치(100), 소스 장치(200-1, 200-2, 200-3), 투사 영역(10), 투사 영역(10) 상에 배치된 ID 패턴(20-1, 20-2) 외에 영상을 생성하는 기능을 수행하는 서버(1410)을 별도로 구비할 수 있다. 도 14에서는 서버(1410)으로 도시하였으나, PC, 노트북 등 얼마든지 다른 장치로 대체 가능하다.
서버(1410)는 전자 장치(100)로부터 감지된 ID 패턴(20-1, 20-2)에 대한 정보를 수신하여, 소스 장치(200-1, 200-2, 200-3)로 컨텐츠를 요청할 수 있다. 서버(1410)는 수신된 컨텐츠를 감지된 ID 패턴(20-1, 20-2)에 대응되는 위치에 투사되도록 영상을 생성하고, 생성된 영상을 전자 장치(100)로 전송할 수 있다.
이러한 구성에 의할 경우, 전자 장치(100)는 투사 영역(10) 내의 ID 패턴(20-1, 20-2)을 감지하는 기능 및 영상을 투사하는 기능을 수행하고, 서버(1410)은 영상을 생성하는 기능을 수행하게 된다.
도 15는 본 발명의 또 다른 확장 실시 예를 설명하기 위한 도면이다.
이상에서는 이미지 등을 수신하여 적절한 위치에 투사되도록 영상을 생성하는 것으로 설명하였으나, 도 15는 텍스트 등을 수신하여 수신된 텍스트를 이용하여 컨텐츠를 생성한 후 적절한 위치에 투사되도록 영상을 생성하는 것을 나타낸다.
예를 들어, 전자 장치(100)는 냉장고로부터 냉장고의 동작 상태에 대한 정보를 수신한다. 특히, 냉장고의 동작 상태에 대한 정보는 간단한 텍스트 정보일 수 있다.
전자 장치(100)는 동작 상태를 분석하여 정상 동작 유무를 판단하고, 판단 결과 및 수신된 정보를 이용하여 테이블을 생성할 수 있다. 전자 장치(100)는 생성된 테이블이 ID 패턴(20)에 대응되는 위치에 투사되도록 영상을 생성할 수 있다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 전자 장치는 투사 영역 내의 ID 패턴에 기초하여 영상을 생성하고 투사하게 되므로 사용자가 ID 패턴의 위치를 변경하여 투사될 위치를 용이하게 변경할 수 있게 된다.
한편, 이상에서는 전자 장치가 ID 패턴에 대응되는 영역을 추출하여, 추출된 영역에 컨텐츠를 투사하도록 영상을 생성하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, ID 패턴 자체가 투사 영역일 수 있고, 이 경우 전자 장치는 감지된 ID 패턴에 컨텐츠를 투사하도록 영상을 생성할 수 있다.
특히, 도 10a와 같은 경우, 의류에 별도의 ID 패턴을 부착하지 않고, 전자 장치는 의류 자체를 감지하여 의류에 컨텐츠를 투사하도록 영상을 생성할 수도 있다.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 전자 장치의 제어 방법은 컴퓨터에서 실행 가능한 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.
일 예로, 투사 영역 상에 배치된 ID 패턴 및 ID 패턴의 위치를 감지하는 단계, 감지된 ID 패턴에 대응되는 컨텐츠가 감지된 ID 패턴에 대응되는 위치에 투사되도록 컨텐츠를 포함하는 영상을 생성하는 단계 및 생성된 영상을 투사하는 단계를 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 전자 장치 200 : 소스 장치
10 : 투사 영역 20 : ID 패턴
30 : 컨텐츠가 투사될 영역 110 : 투사부
120 : 감지부 130 : 프로세서
140 : 스토리지 150 : 통신부
155 : 사용자 인터페이스부 160 : 오디오 처리부
170 : 비디오 처리부 180 : 스피커
181 : 버튼 182 : 마이크

Claims (20)

  1. 통신부;
    투사 영역에 영상을 투사하는 투사부;
    상기 투사 영역 상에 배치된 ID 패턴 및 상기 ID 패턴의 위치를 감지하는 감지부; 및
    상기 감지된 ID 패턴에 대응되는 소스 장치로부터 상기 감지된 ID 패턴에 대응되는 컨텐츠를 상기 통신부를 통해 수신하고, 상기 수신된 컨텐츠가 상기 감지된 ID 패턴의 위치에 대응되는 상기 투사 영역의 일 영역에 투사되도록 상기 컨텐츠를 포함하는 영상을 생성하고, 상기 생성된 영상을 상기 투사 영역에 투사하도록 상기 투사부를 제어하는 프로세서;를 포함하는 전자 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 프로세서는,
    감지된 제1 ID 패턴에 대응되는 제1 컨텐츠가 상기 제1 ID 패턴에 대응되는 위치에 투사되고, 감지된 제2 ID 패턴에 대응되는 제2 컨텐츠가 상기 제2 ID 패턴에 대응되는 위치에 투사되도록 상기 제1 및 제2 컨텐츠를 포함하는 영상을 생성하는, 전자 장치.
  4. 제3항에 있어서,
    상기 프로세서는,
    상기 제1 컨텐츠를 제1 소스 장치로부터 수신하고, 상기 제2 컨텐츠를 제2 소스 장치로부터 수신하는, 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 ID 패턴에 포함된, 상기 ID 패턴에 대응되는 영역의 크기 및 형상 중 적어도 하나에 대한 정보에 기초하여 상기 컨텐츠의 크기 및 형상 중 적어도 하나를 조정하여 상기 영상을 생성하는, 전자 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 ID 패턴에 포함된, 상기 ID 패턴에 대응되는 영역에 배치된 3차원 오브젝트의 방향(orientation) 정보에 기초하여, 상기 컨텐츠의 형상을 상기 3차원 오브젝트의 방향에 대응되도록 영상 처리하여 상기 영상을 생성하는, 전자 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 오브젝트의 색상, 질감 중 적어도 하나를 변경하는 사용자 입력이 수신되면, 상기 수신된 사용자 입력에 기초하여 상기 컨텐츠의 색상, 질감 중 적어도 하나가 변경되도록 영상 처리하여 상기 영상을 생성하는, 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 감지된 ID 패턴의 위치가 변경되면, 상기 ID 패턴의 변경된 위치에 기초하여 상기 컨텐츠의 투사 위치가 변경되도록 상기 영상을 생성하는, 전자 장치.
  9. 제1항에 있어서,
    소스 장치 및 상기 컨텐츠에 대한 상기 ID 패턴의 매핑 정보를 저장하는 스토리지;를 더 포함하고,
    상기 프로세서는,
    상기 매핑 정보에 기초하여 상기 감지된 ID 패턴에 대응되는 소스 장치로부터 상기 감지된 ID 패턴에 대응되는 컨텐츠를 수신하는, 전자 장치.
  10. 제1항에 있어서,
    상기 ID 패턴은,
    상기 ID 패턴을 식별하기 위한 식별 정보 및 상기 컨텐츠가 투사될 영역 정보 중 적어도 하나를 포함하는, 전자 장치.
  11. 투사 영역 상에 배치된 ID 패턴 및 상기 ID 패턴의 위치를 감지하는 단계;
    상기 감지된 ID 패턴에 대응되는 소스 장치로부터 상기 감지된 ID 패턴에 대응되는 컨텐츠를 수신하는 단계;
    상기 수신된 컨텐츠가 상기 감지된 ID 패턴의 위치에 대응되는 상기 투사 영역의 일 영역에 투사되도록 상기 컨텐츠를 포함하는 영상을 생성하는 단계; 및
    상기 생성된 영상을 상기 투사 영역에 투사하는 단계;를 포함하는 전자 장치의 제어 방법.
  12. 삭제
  13. 제11항에 있어서,
    상기 생성하는 단계는,
    감지된 제1 ID 패턴에 대응되는 제1 컨텐츠가 상기 제1 ID 패턴에 대응되는 위치에 투사되고, 감지된 제2 ID 패턴에 대응되는 제2 컨텐츠가 상기 제2 ID 패턴에 대응되는 위치에 투사되도록 상기 제1 및 제2 컨텐츠를 포함하는 영상을 생성하는, 제어 방법.
  14. 제13항에 있어서,
    상기 제1 컨텐츠를 제1 소스 장치로부터 수신하고, 및 상기 제2 컨텐츠를 제2 소스 장치로부터 수신하는 단계;를 더 포함하는, 제어 방법.
  15. 제11항에 있어서,
    상기 생성하는 단계는,
    상기 ID 패턴에 포함된, 상기 ID 패턴에 대응되는 영역의 크기 및 형상 중 적어도 하나에 대한 정보에 기초하여 상기 컨텐츠의 크기 및 형상 중 적어도 하나를 조정하여 상기 영상을 생성하는, 제어 방법.
  16. 제11항에 있어서,
    상기 생성하는 단계는,
    상기 ID 패턴에 포함된, 상기 ID 패턴에 대응되는 영역에 배치된 3차원 오브젝트의 방향(orientation) 정보에 기초하여, 상기 컨텐츠의 형상을 상기 3차원 오브젝트의 방향에 대응되도록 영상 처리하여 상기 영상을 생성하는, 제어 방법.
  17. 제16항에 있어서,
    상기 생성하는 단계는,
    상기 오브젝트의 색상, 질감 중 적어도 하나를 변경하는 사용자 입력이 수신되면, 상기 수신된 사용자 입력에 기초하여 상기 컨텐츠의 색상, 질감 중 적어도 하나가 변경되도록 영상 처리하여 상기 영상을 생성하는, 제어 방법.
  18. 제11항에 있어서,
    상기 생성하는 단계는,
    상기 감지된 ID 패턴의 위치가 변경되면, 상기 ID 패턴의 변경된 위치에 기초하여 상기 컨텐츠의 투사 위치가 변경되도록 상기 영상을 생성하는, 제어 방법.
  19. 제11항에 있어서,
    소스 장치 및 상기 컨텐츠에 대한 상기 ID 패턴의 매핑 정보에 기초하여 상기 감지된 ID 패턴에 대응되는 소스 장치로부터 상기 감지된 ID 패턴에 대응되는 컨텐츠를 수신하는 단계;를 더 포함하는, 제어 방법.
  20. 제11항에 있어서,
    상기 ID 패턴은,
    상기 ID 패턴을 식별하기 위한 식별 정보 및 상기 컨텐츠가 투사될 영역 정보 중 적어도 하나를 포함하는, 제어 방법.
KR1020150177013A 2015-12-11 2015-12-11 전자 장치 및 그 동작 방법 KR102163742B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150177013A KR102163742B1 (ko) 2015-12-11 2015-12-11 전자 장치 및 그 동작 방법
US15/162,927 US10592714B2 (en) 2015-12-11 2016-05-24 Projection apparatus and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150177013A KR102163742B1 (ko) 2015-12-11 2015-12-11 전자 장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20170069600A KR20170069600A (ko) 2017-06-21
KR102163742B1 true KR102163742B1 (ko) 2020-10-12

Family

ID=59019235

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150177013A KR102163742B1 (ko) 2015-12-11 2015-12-11 전자 장치 및 그 동작 방법

Country Status (2)

Country Link
US (1) US10592714B2 (ko)
KR (1) KR102163742B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017904A1 (ko) * 2021-08-10 2023-02-16 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2024117462A1 (ko) * 2022-11-29 2024-06-06 삼성전자주식회사 복수의 영역들 내에 미디어 콘텐트 및 사용자 인터페이스를 표시하기 위한 전자 장치 및 그 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017052521A1 (en) * 2015-09-23 2017-03-30 Hewlett-Packard Development Company, L.P. Image projections
CN107979748A (zh) * 2016-10-21 2018-05-01 中强光电股份有限公司 投影机、投影***以及影像投影方法
JP2018077673A (ja) * 2016-11-09 2018-05-17 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
CN112422933A (zh) * 2019-08-21 2021-02-26 台达电子工业股份有限公司 投影装置、投影***以及运行方法
US20210073886A1 (en) * 2019-08-29 2021-03-11 Levi Strauss & Co. Digital Showroom with Virtual Previews of Garments and Finishes
JP2022181328A (ja) * 2021-05-26 2022-12-08 セイコーエプソン株式会社 表示方法および表示システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128133A (ja) * 2008-11-27 2010-06-10 Univ Of Tokyo 移動式情報重畳システム及び情報重畳方法
JP2015043066A (ja) * 2013-07-25 2015-03-05 株式会社リコー 画像投影装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4401465B2 (ja) 1999-02-22 2010-01-20 キヤノン株式会社 表示装置及び画像表示方法
JP4274217B2 (ja) * 2006-09-21 2009-06-03 セイコーエプソン株式会社 画像表示装置、画像表示システム、及びネットワーク接続方法
US8994757B2 (en) 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
JP4957327B2 (ja) 2007-03-29 2012-06-20 富士ゼロックス株式会社 表示制御装置
DE102008023360A1 (de) 2007-05-31 2008-12-04 Luk Lamellen Und Kupplungsbau Beteiligungs Kg Verfahren zum Plausibilisieren der Stellung des Kupplungsaktors einer Kupplung, Verfahren zum Bestimmen des Tastpunktes einer Kupplung sowie Vorrichtung zum Durchführen der Verfahren
CN101370115A (zh) 2008-10-20 2009-02-18 深圳华为通信技术有限公司 会议终端、会议服务器、会议***及数据处理方法
JP5328907B2 (ja) * 2009-05-26 2013-10-30 パナソニック株式会社 情報提示装置
JP5132832B1 (ja) * 2011-07-11 2013-01-30 キヤノン株式会社 計測装置および情報処理装置
US9052579B1 (en) 2012-08-01 2015-06-09 Rawles Llc Remote control of projection and camera system
JP2014160410A (ja) 2013-02-20 2014-09-04 Ricoh Co Ltd 投影システム、画像生成プログラム、情報処理装置及び画像生成方法
JP6500889B2 (ja) * 2014-03-03 2019-04-17 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
WO2016024242A1 (en) * 2014-08-13 2016-02-18 C 3 Limited Log scanning system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128133A (ja) * 2008-11-27 2010-06-10 Univ Of Tokyo 移動式情報重畳システム及び情報重畳方法
JP2015043066A (ja) * 2013-07-25 2015-03-05 株式会社リコー 画像投影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017904A1 (ko) * 2021-08-10 2023-02-16 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2024117462A1 (ko) * 2022-11-29 2024-06-06 삼성전자주식회사 복수의 영역들 내에 미디어 콘텐트 및 사용자 인터페이스를 표시하기 위한 전자 장치 및 그 방법

Also Published As

Publication number Publication date
US10592714B2 (en) 2020-03-17
KR20170069600A (ko) 2017-06-21
US20170171521A1 (en) 2017-06-15

Similar Documents

Publication Publication Date Title
KR102163742B1 (ko) 전자 장치 및 그 동작 방법
KR102029756B1 (ko) 웨어러블 디바이스 및 그 제어 방법
US20160012612A1 (en) Display control method and system
KR102024187B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US11029766B2 (en) Information processing apparatus, control method, and storage medium
JP6253127B2 (ja) 情報提供装置
US20160092062A1 (en) Input support apparatus, method of input support, and computer program
EP3090424A1 (en) Assigning virtual user interface to physical object
US10936141B2 (en) Information processing device and information processing method
US20160334988A1 (en) Display device and method for providing recommended characters from same
KR102413074B1 (ko) 사용자 단말, 전자 장치 및 이들의 제어 방법
KR20140100306A (ko) 휴대 기기 및 이의 외부 기기 제어 방법
KR102319234B1 (ko) 디스플레이 장치 및 이의 제어 방법
US11361148B2 (en) Electronic device sharing content with an external device and method for sharing content thereof
JP2014174507A (ja) 拡張現実表示装置及び情報端末並びにマルチディスプレイシステム、プログラム
JP2005063225A (ja) 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
CN108141474B (zh) 与外部设备共享内容的电子设备及其用于共享内容的方法
KR20160011451A (ko) 가상 키보드와 손동작 인식을 이용한 문자 입력장치 및 이를 이용한 문자 입력방법
JP2015046094A (ja) 情報処理装置、プログラム
JP6413521B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP2009015720A (ja) 認識装置および認識方法
US10242279B2 (en) User terminal device and method for controlling the same
JP6187547B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP2014219800A (ja) 携帯端末装置
CN112529770A (zh) 图像处理方法、装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right