KR102183413B1 - 콘텐트 표현 방법 및 시스템 - Google Patents

콘텐트 표현 방법 및 시스템 Download PDF

Info

Publication number
KR102183413B1
KR102183413B1 KR1020130104259A KR20130104259A KR102183413B1 KR 102183413 B1 KR102183413 B1 KR 102183413B1 KR 1020130104259 A KR1020130104259 A KR 1020130104259A KR 20130104259 A KR20130104259 A KR 20130104259A KR 102183413 B1 KR102183413 B1 KR 102183413B1
Authority
KR
South Korea
Prior art keywords
electronic device
content
group
information
electronic
Prior art date
Application number
KR1020130104259A
Other languages
English (en)
Other versions
KR20150027892A (ko
Inventor
최근하
김지민
허진
김현수
차순현
김현문
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130104259A priority Critical patent/KR102183413B1/ko
Priority to US14/471,411 priority patent/US9696958B2/en
Priority to PCT/KR2014/008133 priority patent/WO2015030545A1/en
Priority to EP14839381.2A priority patent/EP3039530B1/en
Priority to CN201480047908.6A priority patent/CN105493025B/zh
Publication of KR20150027892A publication Critical patent/KR20150027892A/ko
Application granted granted Critical
Publication of KR102183413B1 publication Critical patent/KR102183413B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/08Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/025LAN communication management
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

다양한 실시예들에 따르면, 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들을 통하여 콘텐트를 표현하는 동작, 상기 표현하는 동작은 상기 제 1 전자 장치를 통하여 상기 콘텐트의 제 1 부분을 표시하고, 상기 제 2 전자 장치를 통하여 상기 콘텐트의 제 2 부분을 표시하는 동작을 포함하고, 상기 콘텐트가 표시되는 동안에, 상기 복수의 전자 장치들 중 적어도 하나의 장치에 대한 입력을 확인하는 동작, 적어도 상기 입력에 기반하여 상기 복수의 장치들을 상기 제 1 전자 장치를 포함하는 제 1 그룹과, 상기 제 2 전자 장치를 포함하는 제 2 그룹으로 지정하는 동작, 및 상기 지정에 기반하여, 상기 콘텐트를 상기 제 1 그룹과 상기 제 2 그룹의 각각을 통해 서로 독립적으로 표현하는 동작을 포함할 수 있다. 다른 실시예들이 가능하다.

Description

콘텐트 표현 방법 및 시스템{Method and system for presenting content using a plurality of electronic devices}
다양한 실시예들은 복수의 전자 장치들을 통해 콘텐트를 표현하는 시스템 및 방법에 관한 것이다.
멀티 비전(multi-vision)은 여러 개의 독립된 전자 장치를 이용하여 하나의 콘텐트를 표시하는 방식을 의미한다. 하나의 전자 장치가 가질 수 있는 디스플레이의 크기는 기술적으로 한계가 있기 때문에, 고해상도의 대형 이미지나 동영상을 표시할 필요가 있는 경우에, 이러한 멀티 비전 방식에 따라 복수의 전자 장치들을 이용하여 콘텐트를 표시하는 예가 증가하고 있다.
휴대성을 위해 상대적으로 제한적인 디스플레이 크기를 갖는 전자 장치, 예를 들면, 휴대폰 또는 태블릿 등의 모바일 기기에서 콘텐트를 표시하는 경우에 이러한 멀티 비전 방식으로 콘텐트를 표시하는 것이 유용할 수 있다.
멀티 비전 시스템을 구축하기 위해서는 전자 장치들을 배치하고, 각 전자 장치들을 배치한 위치에 따라, 적절한 콘텐트 소스를 해당 전자 장치에 제공해 주어야 하며, 이를 위해서, 각 전자 장치들의 위치를 배치한 후에, 콘텐트 소스를 제공하는 장치와 나머지 장치들 간의 링크를 적절하게 설정해 주어야 하는 불편함이 있다.
예를 들면, 휴대폰이나 태블릿 등의 모바일 기기들을 이용하여 멀티 비전 시스템을 구현할 경우, 멀티 비전으로 콘텐트를 표시하는 도중에 일부의 기기에 통화 콜 착신 등의 이벤트가 발생하는 경우에 이러한 이벤트에 대응하기 어렵다. 아울러, 자유로운 이동이 가능한 모바일 기기의 특성에 따라 일부의 기기의 사용자는 다른 공간으로 이동하더라도 해당 기기의 사용자는 계속적으로 나머지 기기의 사용자들과 동시에 콘텐트를 제공받을 수 있어야 하나, 종래의 멀티 비전 시스템으로는 이를 지원하기 어렵다.
다양한 실시예들은 멀티 비전 방식으로 콘텐트를 표현하던 복수의 장치들의 적어도 하나의 장치 또는 그룹이 해당 콘텐트를 나머지 장치들과 독립적으로 표현하도록 콘텐트 표시 방식을 자유롭게 전환할 수 있는 방법 및 시스템을 제공할 수 있다.
전술한 과제 또는 다른 과제를 해결하기 위한, 한 실시예에 따른 콘텐트 표현 방법은, 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들을 통하여 콘텐트(content)를 표현하는 동작(presenting), 상기 표현하는 동작은 상기 제 1 전자 장치를 통하여 상기 콘텐트의 제 1 부분을 표시하고, 상기 제 2 전자 장치를 통하여 상기 콘텐트의 제 2 부분을 표시하는 동작(displaying)을 포함하고; 상기 콘텐트가 표시되는 동안에, 상기 복수의 전자 장치들 중 적어도 하나의 장치에 대한 입력을 확인하는 동작(identifying); 적어도 상기 입력에 기반하여 상기 복수의 장치들을 상기 제 1 전자 장치를 포함하는 제 1 그룹과, 상기 제 2 전자 장치를 포함하는 제 2 그룹으로 지정하는 동작(settting); 및 상기 지정에 기반하여, 상기 콘텐트를 상기 제 1 그룹과 상기 제 2 그룹의 각각(each)을 통해 서로 독립적으로 표현하는 동작(presenting)을 포함할 수 있다.
다양한 실시예들에 따른 콘텐트 표현 방법 및 장치는, 예를 들면, 멀티 비전 방식으로 콘텐트를 표현하던 복수의 전자 장치들 중 적어도 하나의 장치 또는 그룹이 해당 콘텐트를 나머지 전자 장치들과 독립적으로 표현하도록 콘텐트 표시 방식을 자유롭게 전환할 수 있게 제어할 수 있다. 복수의 전자 장치들 중 특정 전자 장치가 나머지 전자 장치와 분리되더라도, 분리된 특정 전자 장치를 통해 해당 콘텐트를 나머지 전자 장치와 독립적으로 또는 동시에 표시할 수 있다.
다양한 실시예들에 따른 콘텐트 표현 방법 및 장치는 예를 들면, 서로 디스플레이 크기가 다른 전자 장치들을 통해 콘텐트를 표시하거나, 전자 장치들의 개수가 콘텐트의 해상도에 대응하는 적정 개수를 넘는 경우 등으로 인해, 남는 디스플레이 영역이 발생하는 경우에 해당 디스플레이 영역을 통해 콘텐트의 표현과 관련된 다른 기능을 수행할 수 있다.
다양한 실시예들에 따른 콘텐트 표현 방법 및 장치는 예를 들면, 멀티 비전으로 콘텐트를 표시하는 도중에 상기 멀티 비젼을 형성하는 복수의 전자 장치들 중 일부의 전자 장치에 통화 콜 착신 등의 이벤트가 발생하는 경우, 이벤트가 발생한 전자 장치가 아닌 다른 전자 장치를 통해서 이러한 이벤트에 상응하는 어플리케이션을 용이하게 실행시킬 수 있다.
다양한 실시예들에 따른 콘텐트 표현 방법 및 장치는 예를 들면, 복수의 전자 장치들 중 선택된 장치에 대한 사용자 입력에 반응하여, 멀티 비전 방식으로 콘텐트를 표현하는 각각의 전자 장치들의 콘텐트 부분을 조정할 수 있어, 사용자의 편의성을 증대시킬 수 있다.
도 1은 다양한 실시예들에 따른 콘텐트 표현 시스템을 개략적으로 도시한다.
도 2a 내지 2b들은 다양한 실시예들에 따른, 콘텐트 표현 시스템에서 콘텐트를 표시한 예들을 도시한다.
도 3은 다양한 실시예들에 따른, 콘텐트 표현 시스템의 전자 장치들 중 적어도 일부 전자 장치의 운영 모드가 멀티 비전 모드에서 싱글 비전 모드로 전환되는 예들을 도시한다.
도 4a 내지 4b들은 다양한 실시예들에 따른, 콘텐트 표현 시스템의 전자 장치들 중 적어도 일부 전자 장치의 운영 모드가 싱글 비전 모드에서 멀티 비전 모드로 전환되는 예들을 도시한다.
도 5는 다양한 실시예들에 따른, 콘텐트 표현 시스템에서 복수의 콘텐트들이 표시되는 예를 도시한다.
도 6는 다양한 실시예들에 따른, 콘텐트 표현 시스템의 전자 장치들 중 적어도 일부 전자 장치에 콘텐트의 제어 인터페이스가 표시되는 예를 도시한다.
도 7은 다양한 실시예들에 따른, 콘텐트 표현 시스템의 전자 장치들 중 적어도 일부 전자 장치에 콘텐트의 제어 인터페이스가 표시되는 예를 도시한다.
도 8은 다양한 실시예들에 따른, 콘텐트 표현 시스템의 전자 장치들 중 한 전자 장치에 알림 이벤트 발생시 다른 전자 장치를 통해 알림 이벤트에 상응하는 서비스를 제공하는 예를 도시한다.
도 9는 다양한 실시예들에 따른, 콘텐트 표현 시스템의 전자 장치들 중 적어도 일부 전자 장치에 대한 사용자 입력에 기반하여 상기 전자 장치들 각각에 대응하는 콘텐트 부분을 조정하는 예를 도시한다.
도 10은 다양한 실시예들에 따른, 콘텐트를 표현하기 위한 전자 장치를 개략적으로 도시한다.
도 11은 다양한 실시예들에 따른, 콘텐트 표현 시스템의 마스터와 슬레이브를 개략적으로 도시한다.
도 12는 다양한 실시예들에 따른, 전자 장치의 멀티 비전 모듈을 개략적으로 도시한다.
도 13은 다양한 실시예들에 따른, 전자 장치의 표시 모듈을 개략적으로 도시한다.
도 14는 다양한 실시예들에 따른, 콘텐트 표현 시스템에서 슬레이브와의 연결을 추가하는 과정을 예시한다.
도 15는 다양한 실시예들에 따른, 콘텐트 표현 시스템에서 슬레이브와의 연결을 해제하는 과정을 예시한다.
도 16는 다양한 실시예들에 따른, 콘텐트 부분의 영역을 분할하는 방법을 도시한다.
도 17은 다양한 실시예들에 따른, 콘텐트 표현 시스템의 복수의 전자 장치들 각각의 동기화 방법을 도시한 흐름도이다.
도 18은 다양한 실시예들에 따른, 멀티 비전 모드의 콘텐트 부분의 영역을 조정하는 방법을 도시한 흐름도다.
도 19는 다양한 실시예들에 따른, 복수의 콘텐트들이 복수의 멀티 비전 그룹들에 의해 표시되는 방법을 도시한다.
도 20은 다양한 실시예들에 따른, 멀티 비전 그룹의 적어도 하나의 전자 장치를 통하여 부가 기능을 제공하기 위한 인터페이스를 표시하도록 제어하는 방법을 도시한 흐름도이다.
도 21은 다양한 실시예들에 따른, 멀티 비전 그룹의 적어도 하나의 전자 장치의 디스플레이 영역의 일부 영역에 다른 기능을 제공하기 위한 인터페이스를 표시하도록 제어하는 방법을 도시한 흐름도이다.
도 22는 다양한 실시예들에 따른, 멀티 비전 그룹의 어느 하나의 장치에 발생한 알림 이벤트를 선택된 장치에서 표시하도록 제어하는 방법을 도시한 흐름도이다.
도 23은 다양한 실시예들에 따른 콘텐트 표현 방법을 도시한 흐름도이다.
도 24는 다양한 실시예들에 따른 콘텐트 표현 방법을 도시한 흐름도이다.
도 25는 다양한 실시예들에 따른 콘텐트 표현 방법을 도시한 흐름도이다.
도 26은 다양한 실시예들에 따른 전자 장치에 대한 블록도를 도시한다.
도 27은 다양한 실시예들에 따른 하드웨어의 블록도를 도시한다.
이하, 첨부된 도면을 참조하여 본 개시(present disclosure)를 설명한다. 본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용되었다.
본 개시 가운데 사용될 수 있는“포함한다,”“포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작, 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작, 구성요소 등을 제한하지 않는다. 또한, 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시 가운데 “제 1,”“제2,”“첫째,”“둘째”등의 표현들이 본 개시의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 또는 스마트 와치(smartwatch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 또는 산업용 또는 가정용 로봇 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 등) 중 적어도 하나를 포함할 수 있다. 본 개시에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 개시에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
도 1은 다양한 실시예들에 따른 콘텐트 표현 시스템 100을 개략적으로 도시한다. 도 1을 참조하면, 본 실시예에 따른 콘텐트 표현 시스템 100은 복수의 전자 장치들을 통해 동시에 콘텐트를 표현할 수 있다. 콘텐트 표현 시스템 100은 콘텐트를 동시에 표현할 수 있도록 기능적으로 연결(예: 통신) 가능한 복수의 전자 장치들로서, 예를 들면, 마스터 110, 제 1 슬레이브 120, 제 2 슬레이브 130 및 제 3 슬레이브 140을 포함할 수 있다. 도 1에 도시된 콘텐트 표현 시스템 100에서는 3개의 슬레이브들 120, 130, 140이 도시되어 있으나, 이는 한 실시예에 불과하며, 하나 또는 그 이상의 슬레이브들을 갖는 다른 실시예들이 가능하다.
마스터 110는 콘텐트 표현 시스템 100의 전자 장치들 각각에 대응하는 제어 정보를 생성할 수 있다. 마스터 110는 콘텐트 표현 시스템 100의 다른 장치들(예: 슬레이브들 120, 130, 140)에 각각 대응하는 제어 정보를 다른 장치들 모두(??)에 전송할 수 있다. 마스터 110는 콘텐트 표현 시스템 100의 다른 장치들(예: 슬레이브들 120, 130, 140)에 제어 정보를 전송하기 위한 통신 채널을 개설할 수 있다. 통신 채널은 Wifi-direct, Wifi, Bluetooth, NFC(near field communication), DTD(device-to-device), 3G/4G/LTE(Long Term Evolution) 네트워크 등 다양한 규격을 따를 수 있으며, 특정한 통신 프로토콜에 한정되지 않는다.
어떤 실시예에 따르면, 제어 정보의 적어도 일부는, 콘텐트 표현 시스템 100에 속한 전자 장치들, 예컨대, 마스터 110, 제 1 슬레이브 120, 제 2 슬레이브 130, 또는 제 3 슬레이브 140 중의 적어도 일부 간에 콘텐트 표현과 관련된 시간을 일치시키기 위한 동기화 정보를 포함할 수 있다. 동기화 정보를 통해 콘텐트 표현 시스템 100에 속한 전자 장치들 110-140 들이 서로 동기화되어 콘텐트를 동시에 표현하도록 할 수 있다. 예를 들면, 마스터 110를 제외한 나머지 장치들, 제 1 슬레이브 120, 제 2 슬레이브 130, 또는 제 3 슬레이브 140은 마스터 100과 동기화될 수 있다. 이를 통해, 슬레이브 장치들 120, 130, 140 들이 서로 동기화 신호를 주고받지 않더라도, 서로 콘텐트를 동시에 표현할 수 있다.
어떤 실시예에 따르면, 마스터 110, 제 1 슬레이브 120, 제 2 슬레이브 130, 및 제 3 슬레이브 140을 통해 동시에 표현될 특정 콘텐트는 마스터 110에 저장된 콘텐트일 수 있다. 마스터 110는 특정 콘텐트를 제어 정보와 함께, 혹은 제어 정보와 독립적으로, 다른 장치들(예: 슬레이브들 120, 130, 140)에 송신할 수 있다.
어떤 실시예에 따르면, 마스터 110는 콘텐트 표현 시스템 100의 다른 장치들(예: 슬레이브들 120, 130, 140)에 마스터 110에 저장된 특정 콘텐트를 제어 정보와 함께, 혹은 제어 정보와 독립적으로, 콘텐트 표현 시스템 100의 다른 장치들(예: 슬레이브들 120, 130, 140)에 제공할 수 있다. 마스터 110은 콘텐트의 원시 데이터 또는 콘텐트의 원시 데이터를 인코딩한 신호를 해당 슬레이브에 전송할 수 있다.
어떤 실시예에 따르면, 마스터 110는, 콘텐트 표현 시스템 100의 다른 장치들(예: 슬레이브들 120, 130, 140)과의 신뢰성이 보장되는 통신 연결(예: TCP (transmission control protocol))을 통해 콘텐트를 제공하기 위한 콘텐트 제공 모듈(예: HTTP(hypertext transfer protocol) server)을 구동할 수 있다. 콘텐트 제공 모듈은 마스터 110에 기능적으로 연결된 모듈일 수 있다. 콘텐트의 용량이 기준값보다 큰 경우(예: 멀티미디어 콘텐트)에는 예컨대 별도의 콘텐트 제공 모듈을 제공할 수 있다. 마스터 110는 콘텐트 제공 모듈에 접속하여 콘텐트를 제공받을 수 있는 링크 정보(예: URL)을 제어 정보와 함께, 혹은 제어 정보와 독립적으로, 콘텐트 표현 시스템 100의 다른 장치들(예: 슬레이브들 120, 130, 140)에 송신할 수 있다. 콘텐트 제공 모듈에 대한 추가 정보는, 예컨대, 도 10 내지 11을 참조하여 제공된다.
어떤 실시예에 따르면, 콘텐트 표현 시스템 100의 다른 장치들(예: 슬레이브들 120, 130, 140)은 마스터 110로부터 수신한 링크 정보에 기반하여, 마스터 110에 저장된 콘텐트를 제공(예: 다운로드 또는 스트리밍)받을 수 있다. 다른 실시예에 따르면, 콘텐트 표현 시스템 100에 속한 장치들 110, 120, 130, 140을 통해 동시에 표현될 주어진(given) 콘텐트는 콘텐트 표현 시스템 100의 외부의 서버(예: 파일 서버, 콘텐트 프로바이더(content provider), AP(access point) 또는 기지국)에 저장된 콘텐트일 수 있다. 마스터 110는 외부의 서버에 접속하여 콘텐트를 제공받을 수 있는 링크 정보(예: URL)를 획득하여, 제어 정보와 함께, 혹은 제어 정보와 독립적으로, 콘텐트 표현 시스템 100의 다른 장치들(예: 슬레이브들 120, 130, 140)에 송신할 수 있다. 마스터 110와 슬레이브들 120, 130, 140는 링크 정보를 이용하여 외부의 서버에 접속하고, 그 접속된 서버로부터 콘텐트를 제공(예: 다운로드 또는 스트리밍)받을 수 있다.
도 2a 내지 2b들은 다양한 실시예들에 따른 콘텐트 표현 시스템 200에서 콘텐트를 표시한 예들을 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 200은 도 1에 도시된 콘텐트 표현 시스템 100일 수 있다. 예를 들면, 콘텐트 표현 시스템 200의 제 1 전자 장치 210, 제 2 전자 장치 220, 제 3 전자 장치 230, 및 제 4 전자 장치 240은 각각 도 1에 도시된 마스터 110, 제 1 슬레이브 120, 제 2 슬레이브 130, 제 3 슬레이브 140 일 수 있다.
도 2a를 참조하면, 전자 장치들 210, 220, 230, 240의 각각은 주어진 콘텐트를 형성하는 복수의 분할된 콘텐트 부분들 중의 전자 장치들 각각에 해당하는 콘텐트 부분을 동시에 표시할 수 있다. 콘텐트 표현 시스템 200은 전자 장치들 각각이 복수의 분할된 콘텐트 부분들을 동시에 표시함으로써, 분할된 콘텐트 부분들을 합한 전체로서 상기 주어진 콘텐트를 사용자에게 시각적으로 제공할 수 있다. 예컨대, 콘텐트 250는 제 1 표시 부분 252, 제 2 표시 부분 254, 제 3 표시 부분 256 및 제 4 표시 부분 258을 포함할 수 있다. 콘텐트 250의 제 1 표시 부분 252, 제 2 표시 부분 254, 제 3 표시 부분 256 및 제 4 표시 부분 258은 제 1 전자 장치, 210, 제 2 전자 장치 220, 제 3 전자 장치 230, 및 제 4 전자 장치 240에 각각 대응될 수 있다.
콘텐트 표현 시스템 200의 전자 장치들 210, 220, 230, 240의 각각이 “멀티 비전 모드(multi vision mode)”에 따라 동작하는 경우, 예컨대, 도 2a에 도시된 예와 같이 상기 전자 장치들 210, 220, 230, 240은 상호 협력하에 주어진 콘텐트(예: 콘텐트 250)를 표시할 수 있다. 멀티 비전 모드에 따라 동작하는 경우에, 콘텐트 표현 시스템 200의 전자 장치들 210, 220, 230, 240의 각각이, 장치들 각각에 대응되도록 분할된 표시 부분들 252, 254, 256, 258을 동시에 표시할 수 있다. 전자 장치들 210, 220, 230, 240에 의해 동시에 표시된 표시 부분들 252, 254, 256, 258을 합하여 콘텐트를 표현함으로써, 개별 전자 장치들이 제공할 수 있는 화면보다 큰 화면으로 동일한 콘텐트(예: 콘텐트 250)를 표현할 수 있다.
콘텐트 표현 시스템 200의 전자 장치들 210, 220, 230, 240 중의 적어도 하나의 전자 장치(예: 전자 장치 210)는 상기 전자 장치들의 정보를 포함하는 전자 장치 리스트를 저장할 수 있다. 도 2a에 도시된 예와 같이, 전자 장치들 210, 220, 230, 240이 멀티 비전 모드로 콘텐트를 표시하는 경우에, 전자 장치 리스트에 전자 장치들 210, 220, 230, 240의 정보의 일부로서, 전자 장치들 210, 220, 230, 240의 각각의 상대적인 위치를 가리키는 위치 정보를 저장할 수 있다. 한 실시예에 따르면, 멀티 비전 모드로 동작 중인 전자 장치의 위치 정보는 좌측에서 우측으로 배열된 순서를 의미하는 숫자의 형태로 설정될 수 있다. 예를 들면, 제 1 전자 장치 210의 위치 정보는 “1”로, 제 2 전자 장치 220의 위치 정보는 “2”로, 제 3 전자 장치 230의 위치 정보는 “3”으로, 제 4 전자 장치 240의 위치 정보는 “4”로 설정될 수 있다.
한 실시예에 따르면, 콘텐트 250는 표시 부분들 252, 254, 256, 258의 적어도 일부와 관련된 오디오(예: 배경 음악 또는 등장 인물의 대사 등)를 포함하고 있는 멀티미디어 콘텐트를 포함할 수 있다. 이런 경우, 콘텐트 표현 시스템 200의 마스터에 해당하는 전자 장치(예: 제 1 전자 장치 210)는 멀티 비젼 모드로 동작 중인 상기 전자 장치들 210, 220, 230, 240의 위치 정보에 기반하여, 상기 전자 장치들의 적어도 일부 전자 장치(예: 제 1 전자 장치 210 및 제 4 전자 장치 240을 포함하는 제 1 장치 그룹)를 통하여 해당 콘텐트의 오디오를 재생할 수 있다. 이런 경우, 한 실시예에 따르면, 나머지 일부 전자 장치(예: 제 2 전자 장치 220 및 제 3 전자 장치 230를 포함하는 제 2 장치 그룹)는 해당 콘텐트의 오디오를 재생하지 않을 수 있다. 어떤 실시예에 따르면, 상기 적어도 일부 전자 장치와 상기 나머지 일부 전자 장치는 서로 시간을 달리하여 상기 오디오 정보를 재생할 수 있다. 어떤 실시예에 따르면, 상기 전자 장치들 210, 220, 230, 240의 각각이 상기 오디오 정보를 동시에 재생할 수도 있다.
도 2b를 참조하면, 콘텐트 표현 시스템 200의 전자 장치들 210, 220, 230, 240의 각각은 주어진 콘텐트 (예: 콘텐트 250)를 서로 독립적으로 표시할 수 있다. 콘텐트 표현 시스템 200의 전자 장치들 210, 220, 230, 240의 각각이 “싱글 비전 모드(single vision mode)”에 따라 동작하는 경우, 예컨대, 도 2b에 도시된 예와 같이 상기 전자 장치들 210, 220, 230, 240의 각각이 상기 콘텐트(예: 콘텐트 250)를 표시할 수 있다.
다양한 실시예들에 따르면, 전자 장치들 210, 220, 230, 240이 싱글 비전 모드로 콘텐트를 표시하는 경우에, 전자 장치들 210, 220, 230, 240의 각각의 상대적인 위치를 가리키는 위치 정보는 멀티 비전 모드로 동작하는 전자 장치들의 위치 정보와 용이하게 구분될 수 있는 디폴트 값(예: “-1”)으로 설정될 수 있다.
다양한 실시예들에 따르면, 콘텐트 표현 시스템 200의 전자 장치들 210, 220, 230, 240의 각각의 운영 모드(예: 입력 모드 또는 출력 모드)는 멀티 비전 모드 또는 싱글 비전 모드 중 하나로 지정될 수 있다. 예를 들면, 사용자의 입력에 따라, 전자 장치들 210, 220, 230, 240의 각각의 운영 모드를 멀티 비전 모드 또는 싱글 비전 모드 중 하나로 자유롭게 전환할 수 있도록 하여, 유연한 콘텐트 표현 시스템을 구현할 수 있다.
다양한 실시예들에 따르면, 운영 모드에 상관 없이, 콘텐트 표현 시스템 200의 전자 장치들 210, 220, 230, 240의 각각은 해당 콘텐트(예: 표시 부분들 252-258 중의 해당 표시 부분(멀티 비전 모두인 경우) 또는 콘텐트 250(싱글 비전 모드))를 동일한 포맷(예: 사이즈, 해상도,밝기, 색상, 또는 형상)으로 표시하거나 또는 적어도 일부 전자 장치와 다른 포맷을 사용하여 표시할 수 있다. 추가적으로 또는 대체적으로, 동작 모드에 상관 없이, 콘텐트 표현 시스템 200의 전자 장치들 210, 220, 230, 240의 각각은 상기 해당 콘텐트를 서로 동시에 표시하거나 또는 적어도 일부 전자 장치와 시차를 두어 표시할 수 있다.
도 3은 다양한 실시예들에 따른 콘텐트 표현 시스템 300에 속한 장치의 운영 모드가 멀티 비전 모드에서 싱글 비전 모드로 전환되는 예들을 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 300은 도 1에 도시된 콘텐트 표현 시스템 100 또는 도 2에 도시된 콘텐트 표현 시스템 200 중 적어도 하나일 수 있다.
콘텐트 표현 시스템 300은 마스터 301, 제 1 슬레이브 302, 제 2 슬레이브 303을 포함할 수 있다. 한 실시예에 따르면, 도3에 도시된 바와 같이, 좌측에서 우측 방향으로, 제 1 슬레이브 302, 마스터 301, 제 2 슬레이브 303은 모두 멀티 비전 모드로 동작할 수 있으며, 이런 경우, 마스터 301, 제 1 슬레이브 302, 제 2 슬레이브 303의 위치 정보는 각각, “1”, “2”, “3”으로 설정될 수 있다. 어떤 실시예들에 따르면, 콘텐트 표현 시스템 300을 형성하는 전자 장치들은 다양한 순서로 배치될 수 있다. 예를 들면, 좌측에서 우측 방향으로, 마스터 301, 제 1 슬레이브 302, 제 2 슬레이브 303의 순으로 위치할 수 있으며, 이런 경우, 마스터 301, 제 1 슬레이브 302, 제 2 슬레이브 303의 위치 정보는 각각, “1”, “2”, “3”으로 설정될 수 있다. 다양한 실시예에 따르면, 콘텐트 표현 시스템 (예: 콘텐트 표현 시스템 300)을 형성하는 전자 장치들(예: 마스터 301, 제 1 슬레이브 302 또는 제 2 슬레이브 302) 중의 적어도 하나는 y축 (길이 방향) 대신에 x축 (?÷? 방향)으로 다른 전자 장치들과 결합할 수 있다. 이런 경우, 예를 들면, 각 전자 장치들의 위치 정보는 좌측에서 우측, 그리고 상측에서 하측 방향 순, 또는 그 반대의 방법으로 정할 수 있다.
도 3을 참조하면, 동작 311에서, 멀티 비전 모드로 동작 중인 전자 장치들 301, 302, 303중 가장 좌측에 위치한 전자 장치인 제 1 슬레이브 302에 대하여, 싱글 비전 모드로의 운영 모드전환을 위한 입력(예: 쉐이크, 터치, 호버링 또는 음성 등의 사용자 입력 또는 세팅된 시간의 종료에 따른 시스템에 의한 자동 명령)을 인식하면, 제 1 슬레이브 302의 운영 모드를 멀티 비전 모드에서 싱글 비전 모드로 전환할 수 있다. 이때, 멀티 비전 모드에서 전자 장치들 301, 302, 303를 통하여 표시되던 정보 350(예: 텍스트, 정지 이미지 또는 동영상)는 싱글 비전 모드로 전환된 전자 장치 그룹(예: 제 1 슬레이브 302)와 멀티 비전 모드로 남아 있는 전자 장치 그룹(예: 마스터 301 및 제 2 슬레이브 303)의 각각을 통하여 서로 독립적으로 표시될 수 있다. 이런 경우, 제 1 슬레이브와 함께 멀티 비전 모드로 동작하던 나머지 전자 장치들(예: 마스터 301, 제 2 슬레이브 303)의 위치 정보와, 제 1 슬레이브의 위치 정보를 변경할 수 있다. 예를 들면, 마스터 301, 제 1 슬레이브 302, 제 2 슬레이브 303의 위치 정보는 각각, “1”, “-1”, “2”으로 변경될 수 있다.
동작 312에서, 멀티 비전 모드로 동작 중인 전자 장치들 301, 302, 303중 마스터 301에 대하여, 싱글 비전 모드로의 운영 모드전환을 위한 입력을 인식하면, 멀티 비전 모드로 동작 중인 모든 전자 장치들 301, 302, 303의 운영 모드를 멀티 비전 모드에서 싱글 비전 모드로 전환할 수 있다. 이때, 멀티 비전 모드에서 전자 장치들 301, 302, 303를 통하여 표시되던 정보 350(예: 텍스트, 정지 이미지 또는 동영상)는 싱글 비전 모드로 전환된 마스터 301, 제 1 슬레이브 302, 및 제 2 슬레이브 303의 각각을 통하여 서로 독립적으로 표시될 수 있다. 이런 경우, 멀티 비전 모드로 동작하던 모든 전자 장치들(예: 마스터 301, 제 1 슬레이브 302, 제 2 슬레이브 303)의 위치 정보를 변경할 수 있다. 예를 들면, 마스터 301, 제 1 슬레이브 302, 제 2 슬레이브 303의 위치 정보는 각각 “-1”, “-1”, “-1”로 변경될 수 있다.
동작 313에서, 멀티 비전 모드로 동작 중인 전자 장치들 301, 303 중 우측에 위치한 전자 장치인 제 2 슬레이브 303에 대하여, 싱글 비전 모드로의 운영 모드 전환을 위한 입력)을 인식하면, 제 2 슬레이브 303의 운영 모드를 멀티 비전 모드에서 싱글 비전 모드로 전환할 수 있다. 이때, 멀티 비전 모드로 동작하는 장치로는 마스터 301 하나가 남게 되므로, 자동적으로 마스터 301의 운영 모드도 멀티 비전 모드에서 싱글 비전 모드로 전환될 수 있다. 이에 따라, 멀티 비전 모드에서 전자 장치들 301, 302, 303를 통하여 표시되던 정보 350(예: 텍스트, 정지 이미지 또는 동영상)는 싱글 비전 모드로 전환된 마스터 301, 제 1 슬레이브 302, 및 제 2 슬레이브 303의 각각을 통하여 서로 독립적으로 표시될 수 있다. 이런 경우, 멀티 비전 모드로 동작 중인 전자 장치들(예: 마스터 301, 제 2 슬레이브 303)의 위치 정보를 변경할 수 있다. 예를 들면, 마스터 301, 제2 슬레이브 303의 위치 정보는 각각, “-1”, “-1”로 변경될 수 있다.
도 4a 및 4b는 다양한 실시예들에 따른 콘텐트 표현 시스템 400에 속한 장치의 운영 모드가 싱글 비전 모드에서 멀티 비전 모드로 전환되는 예들을 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 400은 콘텐트 표현 시스템 100 또는 콘텐트 표현 시스템 300 중 적어도 하나일 수 있다.
도 4a를 참조하면, 콘텐트 표현 시스템 400은 제 1 전자 장치 401, 제 2 전자 장치 402, 제 3 전자 장치 403, 제 4 전자 장치 404 및 제 5 전자 장치 405를 포함할 수 있다. 한 실시예에 따르면, 제 1 전자 장치 401, 제 2 전자 장치 402 및 제 3 전자 장치 403는 멀티 비전 모드로 운영하는 제 1 전자 장치 그룹을 형성하고, 제4 전자 장치 404 및 제 5 전자 장치 405는 각각 싱글 비전 모드로 동작할 수 있다. 이런 경우, 제 1 전자 장치 그룹, 제 4 전자 장치 404, 및 제 5 전자 장치 각각은 주어진 콘텐트 450을 서로 독립적으로 표현할 수 있다 (도4a의 상단의 예시).제 1 전자 장치 401, 제 2 전자 장치 402, 제 3 전자 장치 403, 제 4 전자 장치 404 및 제 5 전자 장치 405의 위치 정보는 각각, “1”, “2”, “3”, “-1” 및 “-1”으로 설정될 수 있다.
동작 411에서, 싱글 비전 모드로 동작하던 전자 장치들(예: 제 4 전자 장치 404, 제 5 전자 장치 405)에 대하여, 멀티 비전 모드로의 전환을 위한 입력을 인식할 수 있다. 입력은 사용자에 의한 입력(예: 제 4 전자 장치 404의 입력 패널의 일부에서 제 5 전자 장치 405의 입력 패널의 일부로의 드래그 입력 또는 두 장치의 입력 패널 각각에 대한 연속적인 터치), 또는 시스템에 의한 자동 입력(예: 마스터 역할을 하는 전자 장치 또는 전자 장치 405에 세팅된 시간의 경과) 중의 적어도 하나를 포함할 수 있다. 상기 입력에 반응하여, 해당 전자 장치들(예: 제 4 전자 장치 404 및 제 5 전자 장치 405)의 운영 모드가 싱글 비전 모드에서 멀티 비전 모드로 동시에 또는 차례로 전환될 수 있다. 이때, 싱글 비전 모드에서 멀티 비전 모드로 전환된 전자 장치들(예: 제 4 전자 장치 404 및 제 5 전자 장치 405)은, 이전부터 멀티 비전 모드로 동작하던 전자 장치들(예: 제 1 전자 장치 401, 제 2 전자 장치 402, 및 제 3 전자 장치 403)로 형성된 제 1 전자 장치 그룹과 구분되는 제 2 전자 장치 그룹을 형성할 수 있다. 제 1 전자 장치 그룹 및 제 2 전자 장치 그룹의 각각은 멀티 비전 모드로 운영되어 서로 독립적으로 콘텐트 450를 표시할 수 있다 (도 4a의 중단의 예시). 다양한 실시예들에 따르면, 위에서 설명한 바와 같이, 콘텐트 표현 시스템 은 멀티 비전 모드로 동작하는 장치들을 커플링하여 새로운 멀티 비전 그룹(예: 제 2 전자 장치 그룹)을 지정할 수 있다. 이로 인해, 복수 개의 멀티 비전 그룹들(예: 제 1 전자 장치 그룹 및 제 2 전자 장치 그룹)이 형성될 수 있다. 도 4a에 도시된 예에 따르면, 제 1 내지 제 3 전자 장치들 401, 402, 403을 포함하는 제 1 전자 장치 그룹은 제 1 멀티 비전 그룹을 형성하고, 제 4 내지 제 5 전자 장치들 404, 405을 포함하는 제 2 전자 장치 그룹은 제 2 멀티 비전 그룹을 형성할 수 있다.
이처럼 복수의 멀티 비전 그룹들이 지정될 수 있기 때문에, 전자 장치 리스트는 전자 장치들 각각의 위치 정보와 더불어, 멀티 비전 그룹 정보를 포함할 수 있다. 예를 들면, 싱글 비전 모드로 동작하는 전자 장치들의 멀티 비전 그룹 정보는 멀티 비전 모드로 동작하는 전자 장치들의 위치 정보와 용이하게 구분될 수 있는 디폴트 값(예: “-1”) 로 설정될 수 있다. 예를 들면, 동작 411에서, 제 4 전자 장치 404, 제 5 전자 장치 405의 멀티 비전 그룹 정보와 위치 정보의 쌍은 (-1, -1), (-1, -1)에서, (2, 1), (2, 2)로 각각 변경될 수 있다.
동작 412에서, 제 1 멀티 비전 그룹의 전자 장치들 중 적어도 하나(예: 제 3 전자 장치 403) 또는 제 2 멀티 비전 그룹의 전자 장치들 중 적어도 하나(예: 제4 전자 장치 404)에 대하여 멀티 비전 모드로의 전환을 위한 사입력이 인식되면, 서로 별개의 멀티 비전 그룹으로서 동작하던 전자 장치들이 하나의 멀티 비전 그룹으로 통합되어 동작할 수 있다. 이런 경우, 새로 형성된 멀티 비전 그룹(예: 제 1 내지 제 5 전자 장치 401-405를 포함하는 전자 장치 그룹)은 결합 이전의 제 1 멀티 비전 그룹(예: 제 1 내지 제 3 전자 장치들 401-403)과 제 2 멀티 비전 그룹(예: 제 4 내지 제 5 전자 장치들 404-405) 각각에 의해 독립적으로 표현되던 콘텐트 450을 표현할 수 있다 (도 4a의 하단의 예시). 동작 412에서, 예를 들면, 제 4 전자 장치 404, 제 5 전자 장치 405의 멀티 비전 그룹 정보와 위치 정보의 쌍은 (2, 1), (2, 2)에서, (1, 4), (1, 5)로 각각 변경될 수 있다.
도 4b를 참조하면, 콘텐트 표현 시스템 420은 제 1 전자 장치 421, 제 2 전자 장치 422, 제 3 전자 장치 423, 제 4 전자 장치 424를 포함할 수 있다. 콘텐트 표현 시스템 420의 전자 장치들 421, 422, 423, 424 중 제 2 전자 장치 422 및 제 3 전자 장치 423는 멀티 비전 모드로, 제 1 전자 장치 421 및 제 4 전자 장치 424는 각각 싱글 비전 모드로 동작할 수 있다. 예를 들면, 제 1 전자 장치 421, 제 2 전자 장치 422, 제 3 전자 장치 423 및 제 4 전자 장치 424의 위치 정보는 각각, “-1”, “1”, “2”, 및 “-1”으로 설정될 수 있다.
동작 431에서, 싱글 비전 모드로 동작하던 전자 장치(예: 제 1 전자 장치 421)에 대하여, 멀티 비전 모드로의 운영 모드 전환을 위한 사용자 입력(예: 제 1 전자 장치 421의 입력 패널의 일부에서 제 2 전자 장치 422의 입력 패널의 일부로의 드래그 입력)를 인식하면, 사용자 입력에 대응하는 장치들 중 싱글 비전 모드로 동작하던 장치(예: 제 1 전자 장치 421)의 운영 모드가 싱글 비전 모드에서 멀티 비전 모드로 전환될 수 있다. 사용자 입력에 대응하는 장치들(예: 제 1 전자 장치 421, 제 2 전자 장치 422) 각각에 인식된 사용자 입력의 정보(예: 드래그 입력의 인식 시점 및 방향)을 획득하여, 이러한 사용자 입력의 정보에 기반하여, 멀티 비전 그룹 및 해당 멀티 비전 그룹에서의 위치를 결정할 수 있다.
한 실시예에 따르면, 사용자 입력에 대응하는 장치들 각각에서의 드래그 입력의 인식 시점을 비교하여, 드래그 입력을 마지막으로 인식한 장치가 속한 멀티 비전 그룹에 사용자 입력에 대응하는 장치들 중 싱글 비전 모드로 동작하거나 다른 멀티 비전 그룹에 속한 장치를 추가할 수 있다. 예를 들면, 동작 431에서, 싱글 비전 모드로 동작하던 제 1 전자 장치 421는 드래그 입력을 마지막으로 인식한 제 2 전자 장치 422가 속한 멀티 비전 그룹에 추가될 수 있다.
한 실시예에 따르면, 드래그 입력을 마지막으로 인식한 장치에 인식된 드래그 방향에 기반하여, 멀티 비전 그룹에 추가되는 장치의 위치 정보를 결정할 수 있다. 예를 들면, 동작 431에서, 제 2 전자 장치 422는 드래그의 방향을 우측 방향으로 인식하여, 멀티 비전 그룹에 추가된 제 1 전자 장치 421의 위치 정보를 제 2 전자 장치 422의 좌측 위치에 대응하도록 “1”로 설정할 수 있다. 추가된 제 1 전자 장치 421를 기준으로 우측에 위치하게 되는 나머지 장치들인 제 2 전자 장치 422 및 제 3 전자 장치 423의 위치 정보를 추가된 장치의 개수인 1만큼 증가시킬 수 있다. 제 2 전자 장치 422 및 제 3 전자 장치 423의 위치 정보는 각각 “2”, “3”으로 변경될 수 있다.
동작 432에서, 싱글 비전 모드로 동작하던 전자 장치(예: 제 4 전자 장치 424)에 대하여, 멀티 비전 모드로의 운영 모드 전환을 위한 사용자 입력(예: 제 4 전자 장치 424의 입력 패널의 일부에서 제 2 전자 장치 422의 입력 패널의 일부로의 드래그 입력)를 인식하면, 사용자 입력에 대응하는 장치들 중 싱글 비전 모드로 동작하던 장치(예: 제 4 전자 장치 424)의 운영 모드가 싱글 비전 모드에서 멀티 비전 모드로 전환될 수 있다.
동작 432에서, 예를 들면, 싱글 비전 모드로 동작하던 제 4 전자 장치 424는 드래그 입력을 마지막으로 인식한 제 2 전자 장치 422가 속한 멀티 비전 그룹에 추가될 수 있다. 드래그 입력을 마지막으로 인식한 제 2 전자 장치 422는 드래그 방향을 좌측 방향으로 인식하여, 멀티 비전 그룹에 추가된 제 4 전자 장치 424의 위치 정보를 제 2 전자 장치 422의 우측 위치에 대응하도록 “3”으로 설정할 수 있다. 추가된 제 4 전자 장치 424를 기준으로 우측에 위치하게 되는 나머지 장치인 제 3 전자 장치 423의 위치 정보를 추가된 장치의 개수인 1만큼 증가시켜, “4”로 변경할 수 있다.
도 5는 다양한 실시예들에 따른 콘텐트 표현 시스템 500에서 복수의 콘텐트들이 표시되는 예를 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 500은 도 1에 도시된 콘텐트 표현 시스템 100 또는 도 2에 도시된 콘텐트 표현 시스템 200 중 적어도 하나일 수 있다.
도 5를 참조하면, 콘텐트 표현 시스템 500은 제 1 전자 장치 501, 제 2 전자 장치 502, 제 3 전자 장치 503, 제 4 전자 장치 504 및 제 5 전자 장치 505를 포함할 수 있다. 콘텐트 표현 시스템 500의 전자 장치들 501, 502, 503, 504, 505 중 제 1 전자 장치 501, 제 2 전자 장치 502 및 제 3 전자 장치 503는 멀티 비전 모드로, 제 4 전자 장치 504 및 제 5 전자 장치 505는 각각 싱글 비전 모드로 동작할 수 있다. 예를 들면, 제 1 전자 장치 501, 제 2 전자 장치 502, 제 3 전자 장치 503, 제 4 전자 장치 504 및 제 5 전자 장치 505의 멀티 비전 그룹 정보 및 위치 정보의 쌍은 각각, (1, 1), (1, 2), (1, 3), (-1, -1), (-1, -1)으로 설정될 수 있다.
한 실시예에 따르면, 도 5에 도시된 바와 같이, 제 1 내지 제 3 전자 장치들 501~503을 포함하는 제 1 멀티 비전 그룹과, 제 4 전자 장치 504, 제 5 전자 장치 505는 서로 다른 콘텐트인 제 1 콘텐트 521, 제 2 콘텐트 522, 제 3 콘텐트 523를 표시할 수 있다. 다른 실시예에 따르면, 제 1 멀티 비전 그룹은, 멀티 비전 모드로, 콘텐트(예: 5분 시간 길이의 멀티미디어 콘텐트)의 제 1 재생 지점(예: 최초 1분 분량의 콘텐트가 재생된 지점)에 해당하는 데이터를 재생하고, 동시에 제 4 전자 장치 504는, 싱글 비전 모드로, 콘텐트(예: 멀티미디어 콘텐트)의 제 2 재생 지점(예: 최초 2분 분량의 콘텐트가 재생된 지점)에 해당하는 데이터를 재생하고, 제 5 전자 장치 505는, 싱글 비전 모드로, 콘텐트(예: 멀티미디어 콘텐트)의 제 3 재생 지점(예: 최초 3분 분량의 콘텐트가 재생된 지점)에 해당하는 데이터를 재생할 수 있다.
동작 511에서, 각각 싱글 비전 모드로 동작하던 전자 장치들(예: 제 4 전자 장치 504, 제 5 전자 장치 505)에 대하여, 멀티 비전 모드로의 운영 모드 전환을 위한 사용자 입력(예: 제 4 전자 장치 504의 일부에서 제 5 전자 장치 505의 일부로의 드래그)를 인식하면, 싱글 비전 모드로 동작하던 전자 장치들이 동시에 멀티 비전 모드로 동작할 수 있으며, 이때, 싱글 비전 모드에서 멀티 비전 모드로 전환된 전자 장치들(예: 제 4 전자 장치 504, 제 5 전자 장치 505)과, 이전부터 멀티 비전 모드로 동작하던 전자 장치들(예: 제 1 전자 장치 501, 제 2 전자 장치 502, 제 3 전자 장치 503)은, 서로 다른 멀티 비전 그룹으로, 서로 독립적으로 콘텐트를 표시할 수 있다.
다양한 실시예들에 따르면, 도 5에 도시된 바와 같이, 사용자 입력(예: 드래그) 당시 사용자 입력에 대응되는 전자 장치들(예: 제 4 전자 장치 504, 제 5 전자 장치 505) 각각이 서로 다른 콘텐트(예: 제 2 콘텐트 522, 제 3 콘텐트 523)를 재생하거나, 동일한 콘텐트의 서로 다른 재생 지점들에 각각 대응하는 데이터(예: 예: 최초 2분 분량의 콘텐트가 재생된 지점, 최초 3분 분량의 콘텐트가 재생된 지점)를 재생하고 있는 경우에는 재생 중인 복수의 콘텐트들(예: 제 2 콘텐트 522, 제 3 콘텐트 523) 중 하나를 선택하여, 선택된 콘텐트를 멀티 비전 모드로서 표시할 수 있다. 예를 들면, 드래그 입력을 마지막으로 인식한 장치(예: 제 5 전자 장치 505)에서 재생 중인 콘텐트(예: 제 3 콘텐트 523)를, 멀티 비전 모드로서 표시할 하나의 콘텐트로 선택할 수 있다.
도 6는 다양한 실시예들에 따른, 콘텐트 표현 시스템 600의 전자 장치들 중 적어도 일부 전자 장치에 콘텐트의 제어 인터페이스가 표시되는 예를 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 600은 도 1에 도시된 콘텐트 표현 시스템 100 또는 도 2에 도시된 콘텐트 표현 시스템 200 중 적어도 하나일 수 있다.
도 6을 참조하면, 콘텐트 표현 시스템 600은 제 1 전자 장치 601, 제 2 전자 장치 602, 제 3 전자 장치 603 및 제 4 전자 장치 604을 포함할 수 있다. 콘텐트 표현 시스템 600의 전자 장치들 601, 602, 603, 604은 모두 멀티 비전 모드로 동작할 수 있다. 제 1 전자 장치 601, 제 2 전자 장치 602, 제 3 전자 장치 603 및 제 4 전자 장치 604의 위치 정보는, “1”, “2”, “3”, “4”로 설정될 수 있다.
한 실시예에 따르면, 도 6에 도시된 바와 같이, 콘텐트 표현 시스템 600의 일부의 전자장치들을 통해 멀티 비전 모드로서, 콘텐트 610를 표시하고, 나머지 일부의 전자장치들은 해당 콘텐트에 대한 사용자의 표시 제어 명령(예: 재생(play), 탐색(seek), 일시정지(pause), 재생중단(stop) 등)을 입력받을 수 있는 제어 인터페이스 620를 표시할 수 있다.
한 실시예에 따르면, 사용자 입력에 의해 지정된 장치를 제어 인터페이스 620를 표시할 장치로서 선택할 수 있다. 다른 실시예에 따르면, 멀티 비전 모드로 동작하는 장치의 위치 정보에 기반하여 제어 인터페이스 620를 표시할 장치를 선택할 수 있다. 예를 들면, 도 6에 도시된 바와 같이, 위치 정보로 설정된 숫자가 가장 큰 장치(예: 제 4 전자 장치 604)를 제어 인터페이스 620를 표시할 장치로서 선택할 수 있다.
한 실시예에 따르면, 제어 인터페이스 620는 재생 가능한 콘텐트들의 목록 622, 볼륨 조절 바 624, 프로그레시브 바 626 또는 표시 제어 명령(예: 재생(play), 탐색(seek), 일시정지(pause), 재생중단(stop) 등)에 대응하는 버튼(미도시) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 콘텐트의 해상도에 대응하는 멀티 비전 모드 장치의 적정 개수를 계산할 수 있다. 계산된 적정 개수에 기반하여, 콘텐트 표현 시스템 600의 전자 장치들 601, 602, 603, 604의 적어도 하나를 통해 제어 인터페이스 620를 표시할지 여부를 결정할 수 있다. 예를 들면, 제어 인터페이스 620를 표시할 멀티 비전 모드 장치는 멀티 비전 모드 장치들의 각각의 위치 또는 실제 디스플레이 크기 중 적어도 하나에 기반하여, 멀티 비전 모드들 중 적어도 하나의 장치를 선택할 수 있다. 이 때, 제어 인터페이스 620를 표시하는 장치로서, 콘텐트 표현 시스템 600에서 슬레이브로서 기능하는 전자 장치들(예: 도 1의 슬레이브들 120, 130, 140) 중 하나가 선택되어도 무방하며, 마스터로서 기능하는 전자 장치(예: 도 1의 마스터 110)가 선택되어도 무방하다.
도 7은 다양한 실시예들에 따른, 콘텐트 표현 시스템 700의 전자 장치들 중 적어도 일부 전자 장치에 콘텐트의 제어 인터페이스가 표시되는 예를 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 700은 도 1에 도시된 콘텐트 표현 시스템 100 또는 도 2에 도시된 콘텐트 표현 시스템 200 중 적어도 하나일 수 있다.
도 7을 참조하면, 콘텐트 표현 시스템 700은 제 1 전자 장치 701, 제 2 전자 장치 702를 포함할 수 있다. 콘텐트 표현 시스템 700의 전자 장치들 701, 702은 모두 멀티 비전 모드로 동작할 수 있다. 콘텐트 표현 시스템 700의 전자 장치들 701, 702는 서로 다른 표시 화면 크기의 디스플레이 패널을 구비할 수 있다.
서로 다른 표시 화면 크기의 디스플레이 패널을 갖는 전자 장치들 701, 702이 하나의 멀티 비전 그룹으로 콘텐트 710를 표현할 경우에 상대적으로 큰 크기의 디스플레이 패널을 갖는 전자 장치(예: 제 2 전자 장치 702)의 화면에 여분의 영역이 발생하게 된다. 표시 화면 크기의 차이에 따라 발생하는 여분의 영역에 제어 인터페이스 720를 표시할 수 있다.
한 실시예에 따르면, 제어 인터페이스 720는 볼륨 조절 바 724, 프로그레시브 바 726, 재생 가능한 콘텐트들의 목록(미도시) 또는 표시 제어 명령(예: 재생(play), 탐색(seek), 일시정지(pause), 재생중단(stop) 등)에 대응하는 버튼(미도시) 중 적어도 하나를 포함할 수 있다
도 8은 다양한 실시예들에 따른, 콘텐트 표현 시스템의 전자 장치들 중 한 전자 장치에 알림 이벤트 발생시 다른 전자 장치를 통해 알림 이벤트에 상응하는 서비스를 제공하는 예를 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 800은 도 1에 도시된 콘텐트 표현 시스템 100 또는 도 2에 도시된 콘텐트 표현 시스템 200 중 적어도 하나일 수 있다.
도 8을 참조하면, 콘텐트 표현 시스템 800은 제 1 전자 장치 801, 제 2 전자 장치 802 및 제 3 전자 장치 803를 포함할 수 있다. 콘텐트 표현 시스템 800의 전자 장치들 801, 802, 803은 모두 멀티 비전 모드로 동작할 수 있다.
한 실시예에 따르면, 콘텐트 표현 시스템의 전자 장치들 중 한 장치(예: 제 2 전자 장치 802)에 대하여 알림 이벤트(예: 통화 콜 착신)가 발생하면, 알림 이벤트를 기지정된 다른 장치(예: 제 1 전자 장치 801)에 포워딩하여, 기지정된 다른 장치(예: 제 1 전자 장치 801)로 하여금 알림 이벤트를 표시할 수 있다.
알림 이벤트를 표시한 다른 장치(예: 제 1 전자 장치 801)에 대한 사용자의 입력에 기반하여, 다른 장치(예: 제 1 전자 장치 801)를 통해 알림 이벤트에 상응하는 어플리케이션을 실행함으로써, 알림 이벤트에 상응하는 서비스를 제공할 수 있다.
도 9는 다양한 실시예들에 따른, 콘텐트 표현 시스템 900의 전자 장치들 중 적어도 일부 전자 장치에 대한 사용자 입력에 기반하여 상기 전자 장치들 각각에 대응하는 콘텐트 부분을 조정하는 예를 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 900은 도 1에 도시된 콘텐트 표현 시스템 100 또는 도 2에 도시된 콘텐트 표현 시스템 200 중 적어도 하나일 수 있다.
도 9를 참조하면, 콘텐트 표현 시스템 900은 제 1 전자 장치 901, 제 2 전자 장치 902 및 제 3 전자 장치 903를 포함할 수 있다. 콘텐트 표현 시스템 900의 전자 장치들 901, 902, 903은 모두 멀티 비전 모드로 동작할 수 있다.
한 실시예에 따르면, 콘텐트 표현 시스템의 전자 장치들 중 한 장치(예: 제 3 전자 장치 903)는 해당 장치(예: 제 3 전자 장치 903)를 통해 표현되는 콘텐트 부분을 중심으로 콘텐트 전체를 확대 또는 축소하기 위한 사용자 입력(예: 핀치-줌 입력)을 수신할 수 있다. 콘텐트 표현 시스템 900은 사용자 입력의 기준 좌표값 및 기준 좌표값의 변화량을 인식할 수 있다. 콘텐트 표현 시스템 900은 기준 좌표값의 변화량에 기반하여 해당 장치(예: 제 3 전자 장치 903)에 의해 표현되는 콘텐트를 확대 또는 축소할 배율을 결정할 수 있다. 콘텐트 표현 시스템 900은 기준 좌표값 및 배율에 기반하여, 해당 장치(예: 제 3 전자 장치 903)에 대응하는 새로운 콘텐트 부분을 결정할 수 있다. 콘텐트 표현 시스템 900은 사용자 입력을 수신한 해당 장치(예: 제 3 전자 장치 903)에 대응하는 새로운 콘텐트 부분에 기반하여 나머지 장치들 각각에 대응하는 새로운 콘텐트 부분을 결정할 수 있다.
도 10은 다양한 실시예들에 따른, 콘텐트를 표현하기 위한 전자 장치 1000를 개략적으로 도시한다. 본 실시예에 따른 전자 장치 1000은 예컨대, 도 1에 도시된 마스터 110, 제 1 내지 제 3 슬레이브들(120, 130, 140), 또는 도 2에 도시된 복수의 전자 장치들 210, 220, 230, 240 중 하나일 수 있다.
도 10을 참조하면, 전자 장치 1000은 입력 모듈 1030, 통신 모듈 1040, 표시 모듈 1050, 및 콘텐트 표시 제어 모듈 1060을 포함할 수 있다. 전자 장치 1000가 콘텐트 표현 시스템에서 마스터의 기능을 수행하도록 설정된 장치(예: 도 1의 마스터 110)인 경우에는 멀티 비전 모듈 1010 및 콘텐트 제공 모듈 1020을 더 포함할 수 있다.
멀티 비전 모듈 1010은 전자 장치 1000을 포함하는 콘텐트 표현 시스템의 전자 장치 리스트를 저장, 변경 또는 관리할 수 있다. 멀티 비전 모듈 1010은 전자 장치 1000을 포함하는 콘텐트 표현 시스템에 속한 장치들 중 적어도 하나에 대한 입력에 기반하여, 해당 장치들 각각의 운영 모드(예: 멀티 비전 모드 또는 싱글 비전 모드 중 하나)를 결정 또는 변경할 수 있다. 멀티 비전 모듈 1010은 전자 장치 1000을 포함하는 콘텐트 표현 시스템에 속한 장치들 각각의 운영 모드에 따라, 장치들 각각의 위치를 설정하거나, 조정할 수 있다. 멀티 비전 모듈 1010은 콘텐트 표현 시스템의 멀티 비전 그룹이 둘 이상인 경우에는 멀티 비전 그룹 정보를 설정하거나, 조정할 수 있다.
멀티 비전 모듈 1010은 전자 장치 1000을 포함하는 콘텐트 표현 시스템의 전자 장치들에 각각 대응되는 제어 정보를 생성할 수 있다. 한 실시예에 따르면, 멀티 비전 모듈 1010은 콘텐트 표현 시스템의 전자 장치들 중 운영 모드가 멀티 비전 모드인 장치들의 위치에 기반하여, 멀티 비전 모드인 장치들 각각의 오디오 채널 정보를 설정하고, 멀티 비전 모드인 장치들에 각각 대응하는 콘텐트 부분(예: 화면 분할 사이즈)를 결정할 수 있다.
한 실시예에 따르면, 멀티 비전 모듈 1010은 콘텐트 표현 시스템의 전자 장치들에 적용될 표현 설정 정보(예: 밝기, 재생 속도(배속), 볼륨 등)를 생성할 수 있다. 예를 들면, 멀티 비전 모듈 1010은 전자 장치 1000에 적용된 표현 설정 정보를 콘텐트 표현 시스템의 나머지 전자 장치들에 그대로 적용하도록, 표현 설정 정보를 생성할 수 있다. 나머지 전자 장치들은, 이러한 표현 설정 정보에 기반하여, 전자 장치 1000와 동일한 설정으로, 해당 콘텐트를 표현할 수 있다. 이는 하나의 실시예에 불과할 뿐이며, 예를 들면, 콘텐트의 종류, 또는, 전자 장치들 각각의 상대적인 위치, 표시 화면 크기, 배터리 상태 등에 따라 전자 장치들 각각이 표현 설정 정보의 적어도 일부를 달리 적용하도록, 멀티 비전 모듈 1010이 전자 장치들 각각에 대응되는 표현 설정 정보를 생성할 수 있다.
한 실시예에 따르면, 멀티 비전 모듈 1010은 콘텐트 표현 시스템의 전자 장치들에 적용될 동기화 정보를 생성할 수 있다. 예를 들면, 멀티 비전 모듈 1010은 전자 장치 1000의 동기화 정보(예: 비디오 재생 시간, 플레이어 엔진 시간, 오디오 시간 또는 시스템 시간 등)을 나머지 전자 장치들에 대응하도록 보정하여, 나머지 전자 장치들에 전송할 수 있다.
콘텐트 제공 모듈 1020은 전자 장치 1000에 저장되거나, 전자 장치 1000와 기능적으로 연결된 저장 장치에 저장된 콘텐트를 나머지 전자 장치들에 제공하는 모듈이다. 한 실시예에 따르면, 콘텐트 제공 모듈 1020은 나머지 전자 장치들에서 접속할 수 있는 HTTP 서버 모듈로 구현될 수 있다. 이 때, 콘텐트 제공 모듈 1020은 나머지 전자 장치들과의 TCP/IP 연결을 개설하여, 콘텐트를 보다 신뢰성 있게 제공할 수 있다.
입력 모듈 1030은 전자 장치 1000에 기능적으로 연결된 입력 센서(예: 터치 센서, 제스처 센서, 호버링 센서, 음성 센서 등) 등을 통해 입력된 사용자 입력(예: 쉐이크, 드래그 등)를 전자 장치 1000 또는 나머지 전자 장치들에 위치한 멀티 비전 모듈 1010에 전달할 수 있다. 예를 들면, 전자 장치 1000가 콘텐트 표현 시스템에서 마스터의 기능을 수행하도록 설정된 장치(예: 도 1의 마스터 110)인 경우에는 전자 장치 1000 내에 위치한 멀티 비전 모듈 1010에 전달할 수 있다. 전자 장치 1000가 콘텐트 표현 시스템에서 슬레이브의 기능을 수행하도록 설정된 장치(예: 도 1의 슬레이브들 120, 130, 140)인 경우에는, 후술할 통신 모듈 1040을 통해, 나머지 전자 장치들 중 적어도 하나(예: 도 1의 마스터 110)에 위치한 멀티 비전 모듈 1010에 전달할 수 있다.
아울러, 입력 모듈 1030은, 사용자 입력으로, 전자 장치 1000과 다른 전자 장치와의 거리 또는 상대적인 위치를 인식할 수 있다. 예를 들면, 입력 모듈 1030은 거리나 상대적인 위치의 인식을 위한 별도의 센서(예: 근접 센서, 그립 센서, NFC 센서 등)를 이용할 수 있다. 또는, 입력 모듈 1030은 전자 장치 1000와 다른 전자 장치와의 통신 과정에서 전자 장치 1000과 다른 전자 장치와의 거리 또는 상대적인 위치를 측정할 수도 있다.
통신 모듈 1040는 전자 장치 1000와, 나머지 전자 장치들 중 적어도 일부 간의 연결을 개설하고, 개설된 연결을 통해, 전자 장치 1000 또는 나머지 전자 장치들 중 적어도 하나에 위치한 멀티 비전 모듈 1010에서 생성된 정보(예: 콘텐트 표현 시스템의 전자 장치 리스트, 콘텐트 표현 시스템의 전자 장치들 각각에 대응하는 운영 모드, 오디오 채널 정보, 콘텐트 부분 정보, 표현 설정 정보, 동기화 정보 등)의 적어도 일부를 나머지 장치들 중 적어도 하나에 송신하거나, 나머지 장치들 중 적어도 하나로부터 수신할 수 있다.
표시 모듈 1050은, 전자 장치 1000에 기능적으로 연결된 표시 화면 등을 통해, 콘텐트를 표현할 수 있다. 한 실시예에 따르면, 표시 모듈 1050은 전자 장치 1000이 콘텐트 표현 시스템에서 마스터의 기능을 수행하도록 설정된 장치(예: 도 1의 마스터 110)인 경우에는 전자 장치 1000 또는 전자 장치 1000와 기능적으로 연결된 저장 장치에 저장되어 있는 콘텐트를 표현할 수 있다. 다른 실시예에 따르면, 전자 장치 1000가 콘텐트 표현 시스템에서 슬레이브의 기능을 수행하도록 설정된 장치(예: 도 1의 슬레이브들 120, 130, 140)인 경우에는, 외부의 콘텐트 제공 모듈 1020로부터 제공받을 수 있다.
콘텐트 표시 제어 모듈 1060은 적어도 전자 장치 1000의 운영 모드에 기반하여, 전자 장치 1000가 멀티 비전 모드 또는 싱글비전 모드 중 적어도 하나로 동작하도록 표시 모듈 1050을 제어할 수 있다. 콘텐트 표시 제어 모듈 1060은 전자 장치 1000 또는 나머지 전자 장치들 중 적어도 하나에 위치한 멀티 비전 모듈 1010에서 생성된 정보(예: 콘텐트 표현 시스템의 전자 장치 리스트, 콘텐트 표현 시스템의 전자 장치들 각각에 대응하는 운영 모드, 오디오 채널 정보, 콘텐트 부분 정보, 표현 설정 정보, 동기화 정보 등)의 적어도 일부에 기반하여, 표시 모듈 1050을 통한 콘텐트 표시를 제어할 수 있다.
한 실시예에 따르면, 콘텐트 표시 제어 모듈 1060은 사용자의 입력에 따라, 전자 장치 1000를 콘텐트 표현 시스템의 마스터 또는 슬레이브 중 하나로 결정할 수 있다. 콘텐트 표시 제어 모듈 1060은 전자 장치 1000이 마스터로 결정된 경우에는, 전자 장치 1000가 마스터로서 동작할 수 있도록, 멀티 비전 모듈 1010 및 콘텐트 제공 모듈 1020을 전자 장치 1000 내에 생성할 수 있다.
한 실시예에 따르면, 전자 장치 1000이 콘텐트 표현 시스템에서 슬레이브의 기능을 수행하도록 설정된 장치(예: 도 1의 슬레이브들 120, 130, 140)인 경우에, 콘텐트 표시 제어 모듈 1060은 콘텐트 표현 시스템에서 마스터의 기능을 수행하도록 설정된 다른 장치(예: 도 1의 마스터 1100)로부터 지시를 받아 멀티 비전 모듈 1010의 일부 모듈(예: 도 12의 동기화 정보 생성 모듈 1260)를 전자 장치 1000 내에 생성할 수 있다.
도 11은 다양한 실시예들에 따른, 콘텐트 표현 시스템 1100의 마스터 1110와 슬레이브 1120를 개략적으로 도시한다. 본 실시예에 따른 콘텐트 표현 시스템 1100은 예컨대, 도 1에 도시된 콘텐트 표현 시스템 100 또는 도 2에 도시된 콘텐트 표현 시스템 200일 수 있다.
도 11을 참조하면, 콘텐트 표현 시스템 1100은 마스터 1110 및 슬레이브 1120를 포함할 수 있다.
마스터 1110은 표시 모듈 1111, 콘텐트 제공 모듈 1112, 입력 모듈 1113, 멀티 비전 모듈 1114, 콘텐트 표시 제어 모듈 1115 및 통신 모듈 1116를 포함한다. 예컨대, 마스터 1110은 도 1에 도시된 마스터 100 또는 또는 도 10에 도시된 전자 장치 1000일 수 있다.
표시 모듈 1111은 마스터 1110에 기능적으로 연결된 저장 장치(미도시)에 저장된 콘텐트를 표시(예: 재생)할 수 있다.
콘텐트 제공 모듈 1112는 표시 모듈 1111을 통해 표시될 특정 콘텐트를 외부의 다른 장치(예: 슬레이브 1120)에게 제공할 수 있다. 한 실시예에 따르면, 콘텐트 제공 모듈 1112는 다른 장치(예: 슬레이브 1120)에서 특정 콘텐트에 접근할 수 있는 링크 정보를 생성할 수 있다. 예를 들면, 콘텐트 제공 모듈 1112은 HTTP 서버의 형태로 구현될 수 있다.
입력 모듈 1113은 마스터 1110에 기능적으로 연결된 센서(미도시) 또는 입력 장치(미도시)를 통해 마스터 1110의 운영 모드 변경에 대한 제 1 사용자 입력(예: 드래그 또는 쉐이크)을 수신할 수 있다.
멀티 비전 모듈 1114는 입력 모듈 1113을 통해 수신된 제 1 사용자 입력 또는 다른 장치(예: 슬레이브 1120)의 운영 모드 변경에 대한 제 2 사용자 입력 중 적어도 하나에 기반하여, 마스터 1110 또는 다른 장치(예: 슬레이브 1120)의 운영 모드(예: 멀티 비전 모드 또는 싱글 비전 모드) 및 위치 정보를 결정 또는 변경할 수 있다.
멀티 비전 모듈 1114는 마스터 1110 또는 다른 장치(예: 슬레이브 1120)의 운영 모드 및 위치 정보에 기반하여, 마스터 1110 또는 다른 장치(예: 슬레이브 1120)에 대응하는 콘텐트 부분 정보 및 오디오 채널 설정 정보를 설정할 수 있다. 멀티 비전 모듈 1114는 마스터 1110 또는 다른 장치(예: 슬레이브) 중 적어도 하나의 장치의 표현 설정 정보에 기반하여, 나머지 장치의 표현 설정 정보를 결정할 수 있다. 멀티 비전 모듈 1114는 마스터 1110의 동기화 정보에 기반하여, 다른 장치(예: 슬레이브 1120)의 동기화 정보를 생성할 수 있다.
콘텐트 표시 제어 모듈 1115는 마스터 1110의 운영 모드, 위치 정보, 콘텐트 부분 정보, 오디오 채널 설정 정보, 표현 설정 정보 등에 기반하여, 표시 모듈 1111이 제 1 사용자 입력에 상응하는 운영 모드(예: 멀티 비전 모드 또는 싱글 비전 모드)로 콘텐트를 표시할 수 있도록, 표시 모듈 1111을 제어할 수 있다.
통신 모듈 1116은 다른 장치(예: 슬레이브 1120)의 운영 모드, 위치 정보, 콘텐트 부분 정보, 오디오 채널 설정 정보, 표현 설정 정보, 동기화 정보, 콘텐트의 링크 정보 등을 다른 장치(예: 슬레이브 1120)에 전송할 수 있다. 한 실시예에 따르면, 콘텐트의 링크 정보는 멀티 비전 모듈 1114에서 콘텐트 제공 모듈 1112로부터 획득하여 통신 모듈 1116로 전달되도록 구현될 수 있다. 다른 실시예에 따르면, 콘텐트의 링크 정보는 콘텐트 제공 모듈 1112에서 통신 모듈 1116로 전달되도록 구현될 수 있다.
통신 모듈 1116은 다른 장치(예: 슬레이브 1120)로부터 다른 장치(예: 슬레이브 1120)의 운영 모드 변경에 대한 제 2 사용자 입력을 수신하여, 멀티 비전 모듈 1114에 전달할 수 있다. 한 실시예에 따르면, 통신 모듈 1116은, 추가적으로, 다른 장치(예: 슬레이브 1120)에서 표시되는 콘텐트의 표현 설정 정보(밝기, 재생 속도(배속), 볼륨)를 수신하여, 멀티 비전 모듈 1114에 전달할 수 있다.
슬레이브 1120은 입력 모듈 1121, 통신 모듈 1122, 콘텐트 표시 제어 모듈 1123 및 표시 모듈 1124를 포함한다. 예컨대, 슬레이브 1120은 도 1에 도시된 마스터 100 또는 또는 도 9에 도시된 전자 장치 900일 수 있다.
입력 모듈 1121은 슬레이브 1120의 운영 모드 변경에 대한 제 2 사용자 입력(예: 드래그 또는 쉐이크)를 수신할 수 있다.
통신 모듈 1122는 슬레이브 1120의 운영 모드 변경에 대한 제 2 사용자 입력을 마스터 1110에 전송할 수 있다. 통신 모듈 1122는 마스터 1110로부터 슬레이브 1120에 대응되는 운영 모드, 위치 정보, 콘텐트 부분 정보, 오디오 채널 설정 정보, 표현 설정 정보, 동기화 정보, 콘텐트의 링크 정보 등을 수신할 수 있다. 한 실시예에 따르면, 통신 모듈 1122는, 추가적으로, 표시 모듈 1124를 통해 표시 중인 콘텐트의 표현 설정 정보(밝기, 재생 속도(배속), 볼륨)를 마스터 1110에 전송할 수 있다.
콘텐트 표시 제어 모듈 1123은 통신 모듈 1122를 통해 수신된 콘텐트의 링크 정보를 표시 모듈 1124에 제공하고, 통신 모듈 1122를 통해 수신된 운영 모드, 위치 정보, 콘텐트 부분 정보, 오디오 채널 설정 정보, 표현 설정 정보 등에 기반하여, 표시 모듈 1124을 제어할 수 있다.
표시 모듈 1124는 콘텐트의 링크 정보에 기반하여, 콘텐트를 제공받는다. 표시 모듈 1124는 콘텐트 표시 제어 모듈 1123의 제어에 기반하여, 제 2 사용자 입력에 상응하는 운영 모드(예: 멀티 비전 모드 또는 싱글 비전 모드)로서, 제공받은 콘텐트를 표시할 수 있다.
도 12는 다양한 실시예들에 따른 전자 장치의 멀티 비전 모듈 1200을 개략적으로 도시한다. 본 실시예에 따른 멀티 비전 모듈 1200은 예컨대, 도 10에 도시된 멀티 비전 모듈 1010 또는, 도 11에 도시된 멀티 비전 모듈 1114중 하나일 수 있다.
도 12를 참조하면, 멀티 비전 모듈 1200은 리스트 관리 모듈 1210, 운영 모드 결정 모듈 1220, 위치 조정 모듈 1230, 표시 부분 결정 모듈 1240, 표현 설정 정보 생성 모듈 1250, 동기화 정보 생성 모듈 1260 및 인터페이스 모듈 1270을 포함할 수 있다.
리스트 관리 모듈 1210은 콘텐트 표현 시스템의 전자 장치 리스트를 저장하고 관리할 수 있다. 리스트 관리 모듈 1210은, 예를 들면, 콘텐트 표현 시스템에서 복수의 전자 장치들을 통해 동시에 콘텐트를 표현하는 동안에, 전자 장치 리스트를 이용하여, 콘텐트를 표현하는 전자 장치들의 정보를 관리할 수 있다. 사용자의 입력에 의해 콘텐트 표현 시스템에 추가되거나 콘텐트 표현 시스템으로부터 이탈하는 전자 장치가 발생하는 경우에, 해당 전자 장치의 정보를 전자 장치 리스트에 추가하거나 전자 장치 리스트로부터 제거할 수 있다.
운영 모드 결정 모듈 1220은 콘텐트 표현 시스템의 복수의 전자 장치들 중 적어도 하나의 전자 장치에 대한 입력(예: 쉐이크, 드래그)에 기반하여, 복수의 전자 장치들 중 적어도 하나의 전자 장치의 운영 모드를 결정할 수 있다. 한 실시예에 따르면, 복수의 전자 장치들 중 하나의 전자 장치에 대하여 쉐이크 입력이 인식되면, 인식된 쉐이크 입력에 대응되는 전자 장치의 운영 모드를 싱글 비전 모드로 결정할 수 있다. 예를 들면, 쉐이크 입력에 대응되는 전자 장치의 운영 모드가 멀티 비전 모드로 이미 설정되어 있더라도, 해당 운영 모드를 멀티 비전 모드에서 싱글 비전 모드로 변경할 수 있다. 다른 실시예에 따르면, 복수의 전자 장치들 중 둘 이상의 전자 장치들에 대하여 드래그 입력이 인식되면, 인식된 드래그 입력에 대응되는 전자 장치의 운영 모드들을 멀티 비전 모드로 결정할 수 있다. 예를 들면, 드래그 입력에 대응되는 전자 장치들이 3 개이고, 드래그 입력의 방향이 3개의 장치들 중 가장 좌측에 있는 장치에서 가장 우측에 있는 장치로의 방향으로 인식되고, 3개의 장치들 중 가장 우측에 있는 장치의 운영 모드가 멀티 비전 모드이고, 나머지 2개의 장치들의 운영 모드가 싱글 비전 모드인 경우에는 나머지 2개의 장치들의 운영 모드를 싱글 비전 모드에서 멀티 비전 모드로 변경할 수 있다.
위치 조정 모듈 1230은 운영 모드 결정 모듈 1220에 의해 결정된 운영 모드에 기반하여, 콘텐트 표현 시스템의 복수의 전자 장치들 각각의 위치를 조정할 수 있다. 한 실시예에 따르면, 위치 조정 모듈 1230은, 운영 모드 결정 모듈 1220에 의해 운영 모드가 멀티 비전 모드에서 싱글 비전 모드로 변경된 전자 장치가 발생한 경우에는 해당 전자 장치의 위치 정보에 해당하는 위치 값을 “-1”로 변경하고, 해당 전자 장치를 제외한 나머지 전자 장치들의 위치 정보를 조정할 수 있다.
다른 실시예에 따르면, 위치 조정 모듈 1230은, 운영 모드 결정 모듈 1220에 의해 운영 모드가 싱글 비전 모드에서 멀티 비전 모드로 변경된 전자 장치가 발생한 경우에는 이러한 운영 모드 변경에 대응되는 사용자 입력(예: 둘 이상의 장치들에 대한 드래그)를 분석하여, 운영 모드가 싱글 비전 모드에서 멀티 비전 모드로 변경된 전자 장치의 위치 값을 결정할 수 있다. 예를 들면, 사용자 입력(예: 드래그의 방향)에 기반하여, 사용자 입력에 대응되는 장치들 중 멀티 비전 모드로 동작 중이던 장치의 위치 값을 증가시키거나 감소시킨 값을, 운영 모드가 싱글 비전 모드에서 멀티 비전 모드로 변경된 전자 장치의 위치 값으로 결정할 수 있다.
표시 부분 결정 모듈 1240은 콘텐트 표현 시스템의 복수의 전자 장치들 중 운영 모드가 멀티 비전 모드로 설정된 멀티 비전 장치들의 위치에 기반하여, 멀티 비전 장치들의 각각의 오디오 채널 정보를 설정하고, 콘텐트를 멀티 비전 장치들 각각에 대응하는 콘텐트 부분들로 분할할 수 있다.
한 실시예에 따르면, 표시 부분 결정 모듈 1240은, 콘텐트에 포함된 오디오를 2채널로 재생하기 위해, 멀티 비전 장치들 중 양 끝단에 있는 장치들(예: 위치 값이 1인 장치와 가장 큰 위치 값을 갖는 장치)에 각각 대응되는 오디오 채널 정보를 설정할 수 있다.
한 실시예에 따르면, 표시 부분 결정 모듈 1240은, 콘텐트에 포함된 비디오를 멀티 비전 장치들 각각에 대응되도록 분할하여 재생하기 위해, 멀티 비전 장치들 모두의 디스플레이 크기를 합산한 크기에 대한 멀티 비전 장치들 각각의 디스플레이 크기의 비율과, 멀티 비전 장치들 각각의 위치 정보에 기반하여, 멀티 비전 장치들 각각에 대응하는 콘텐트 부분들을 지정할 수 있다. 표시 부분 결정 모듈 1240은, 예를 들면, 멀티 비전 장치들의 디스플레이 크기가 모두 동일한 경우에는, 콘텐트에 포함된 비디오를 멀티 비전 장치들과 동일한 개수의 비디오 재생 영역들로 균등 분할하고, 균등 분할된 비디오 재생 영역들을, 멀티 비전 장치들 각각의 위치 정보에 따라, 멀티 비전 장치들 각각에 대응하는 콘텐트 부분들로서, 할당할수 있다. 이때의 비디오 재생 영역들은 비디오 재생 전체 화면의 부분 영역일 수 있으며, 이러한 부분 영역을 지정하는 적어도 하나의 위치 좌표들 또는 부분 영역의 크기(가로 크기 또는 세로 크기) 중 적어도 하나의 정보에 의해 특정될 수 있다.
표현 설정 정보 생성 모듈 1250은 콘텐트 표현 시스템의 복수의 전자 장치들의 표현 설정 정보(예: 밝기, 재생 속도(배속), 볼륨)을 결정할 수 있다. 한 실시예에 따르면, 운영 모드가 멀티 비전 모드로 설정된 멀티 비전 장치들의 표현 설정 정보는 동일하게 설정될 수 있다. 예를 들면, 복수의 전자 장치들 중 멀티 비전 모듈이 위치한 전자 장치(예: 도 11의 마스터 1110)의 표현 설정 정보와 동일하게, 복수의 전자 장치들 나머지 전자 장치의 표현 설정 정보를 설정할 수 있다.
동기화 정보 생성 모듈 1260은 콘텐트 표현 시스템의 복수의 전자 장치들이서로 동기화되어 콘텐트를 표현할 수 있도록 복수의 전자 장치들의 동기화 기준이 되는 동기화 정보를 생성할 수 있다. 한 실시예에 따르면, 동기화 정보 생성 모듈 1260은 복수의 전자 장치들 중 멀티 비전 모듈이 위치한 전자 장치(예: 도 11의 마스터 1110)의 콘텐트 표현과 관련된 현재 시각 정보(예: 표시 모듈에서 현재 재생 중인 콘텐트의 비디오 재생 클럭(타임 스탬프), 오디오 재생 클럭(타임 스탬프), 표시 모듈의 기준 클럭(타임 스탬프), 표시 모듈을 포함하는 전자 장치의 시스템 클럭(타임 스탬프) 등)을 동기화 정보를 생성할 수 있다. 전자 장치들은 이러한 동기화 정보로부터 동기화 정보의 전달 과정에서 발생한 지연을 보상하고, 보상한 동기화 정보에 기반하여 콘텐트를 표현할 수 있다.
인터페이스 모듈 1270은 멀티 비전 모듈 1200의 다른 구성요소, 예컨대, 운영 모드 결정 모듈 1220, 위치 조정 모듈 1230, 표시 부분 결정 모듈 1240 또는 동기화 정보 생성 모듈 1250에서 생성된 정보를 멀티 비전 모듈 1200의 외부로 전달할 수 있다
한 실시예에 따르면, 인터페이스 모듈 1270은 복수의 전자 장치들 중 멀티 비전 모듈이 위치한 전자 장치(예: 도 11의 마스터 1110)에 대응되도록 설정된 오디오 채널 정보, 콘텐트 부분 정보, 표현 설정 정보 등을 멀티 비전 모듈과 기능적으로 연결되거나, 멀티 비전 모듈이 위치한 전자 장치에 포함된 콘텐트 표시 제어 모듈에 전달할 수 있다. 인터페이스 모듈 1270은 나머지 전자 장치들 각각에 대응하는 운영 모드 정보, 위치 정보, 오디오 채널 정보, 콘텐트 부분 정보, 표현 설정 정보 등을 멀티 비전 모듈과 기능적으로 연결되거나, 멀티 비전 모듈이 위치한 전자 장치에 포함된 통신 모듈을 통해 나머지 전자 장치들 각각에 전달할 수 있다. 추가적으로, 인터페이스 모듈 1270은 나머지 전자 장치들에서 표현할 콘텐트의 링크 정보(예: URL)을 나머지 전자 장치들 각각에 전달할 수 있다.
장치 선택 모듈 1280은 멀티 비전 그룹에 속한 장치들 중 적어도 하나의 전자 장치의 정보 또는 멀티 비전 그룹에 속한 장치들 중 적어도 하나의 전자 장치에 대한 사용자 입력 중 적어도 하나에 기반하여, 멀티 비전 그룹에 속한 장치들 중 적어도 하나의 장치(또는 적어도 하나의 장치를 포함하는 그룹)를 선택할 수 있다. 한 실시예에 따르면, 장치 선택 모듈 1280에 의해 선택된 적어도 하나의 장치는 콘텐트 표현과 관련된 다른 기능을 수행할 수 있다. 예를 들면, 장치 선택 모듈 1280에 의해 선택된 적어도 하나의 장치는 제어 인터페이스, 오디오 출력 기기, 알림 서비스 제공 기기 중 적어도 하나로서 동작할 수 있다.
미디어 제어 모듈 1290은 콘텐트 표현 시스템의 복수의 장치들 중 적어도 하나에 기능적으로 연결된 제어 인터페이스를 통해 해당 콘텐트에 대한 사용자의 표시 제어 명령(예: 재생(play), 탐색(seek), 일시정지(pause), 재생중단(stop) 등)을 입력받아, 입력받은 제어 명령에 대응되는 표시 제어 신호를 생성할 수 있다. 미디어 제어 모듈 1290은, 인터페이스 모듈 1270을 통해, 멀티 비전 모듈이 위치한 전자 장치(예: 도 11의 마스터 1110)의 다른 모듈(예: 표시 모듈 1050) 및 나머지 전자 장치들에 표시 제어 신호를 전달할 수 있다.
도 13은 다양한 실시예들에 따른 전자 장치 1300의 표시 모듈 1310을 개략적으로 도시한다. 본 실시예에 따른 전자 장치 1300은 예를 들면, 도 10에 도시된 전자 장치 1000, 또는, 도 11에 도시된 마스터 1110, 또는 슬레이브 1120 중 하나일 수 있다.
도 13을 참조하면, 전자 장치 1300은 표시 모듈 1310(예: 도 10의 1040, 도11의 1111, 1124)을 포함할 수 있다. 표시 모듈 1310은 콘텐트 수신 모듈 1311, 오디오 디코더 1312, 오디오 채널 필터 1313, 오디오 렌더러 1314, 비디오 디코더 1315, 동기화 제어 모듈 1316, 출력 영상 설정 모듈 1317 및 비디오 렌더러 1318를 포함할 수 있다.
콘텐트 수신 모듈 1311은 콘텐트 수신 모듈 1311와 기능적으로 연결된 저장 장치에 저장되거나 외부의 콘텐트 제공 서버(예: 도 10의 콘텐트 제공 모듈 1020)로부터 콘텐트 전송을 위해 인코딩된 콘텐트 신호를 수신할 수 있다.
오디오 디코더 1312는 콘텐트 수신 모듈 1311에 수신된 콘텐트 신호로부터 오디오 신호를 추출할 수 있다. 오디오 디코더 1312는 추출한 오디오 신호를 디코딩하여, 콘텐트의 오디오 채널 설정 정보(예: PCM 데이터)를 획득할 수 있다. 본 실시예에 따른 오디오 채널 설정 정보는 예를 들면, 콘텐트 표현 시스템(예: 도 1의 콘텐트 표현 시스템 100)에 속한 모든 전자 장치들에 각각 대응하는 오디오 출력 정보를 포함할 수 있다.
오디오 채널 필터 1313는 콘텐트의 오디오 채널 설정 정보(예: PCM 데이터)로부터 전자 장치 1300에 대응하는 오디오 출력 정보를 획득할 수 있다.
오디오 랜더러 1314는 오디오 채널 필터 1313에서 획득한 전자 장치 1300의 오디오 출력 정보에 기반하여, 표시 모듈 1310과 기능적으로 연결된 오디오 출력 장치(예: 스피커 또는 이어폰)를 통해 오디오를 재생할 수 있다.
비디오 디코더 1315는 콘텐트 수신 모듈 1311에 수신된 콘텐트 신호로부터 비디오 신호를 추출한다. 비디오 디코더 1315는 추출한 비디오 신호를 디코딩하여, 비디오 원시 데이터(예: RGB 데이터)를 획득할 수 있다.
동기화 제어 모듈 1316은 오디오와 비디오 간의 동기화를 위해, 오디오 렌더러 1314로부터 오디오 출력 정보의 오디오 클럭을 획득하여, 획득한 오디오 클럭 에 맞게 비디오 원시 데이터의 비디오 클럭을 조정할 수 있다.
출력 영상 설정 모듈 1317은 전자 장치 1300에 대응하는 콘텐트 부분 정보에 기반하여, 비디오 원시 데이터 중 전자 장치 1300에 대응하는 부분 비디오 원시 데이터를 획득할 수 있다.
비디오 렌더러 1318은 부분 비디오 원시 데이터에 기반하여, 표시 모듈 1310과 기능적으로 연결된 비디오 표시 장치(예: 디스플레이 패널)를 통해 비디오를 재생할 수 있다.
표시 모듈 1310은 전자 장치 1300가 슬레이브(예: 도 11의 1120)인 경우에는 동기 신호 처리 모듈 1319을 추가적으로 포함할 수 있다. 동기 신호 처리 모듈 1319는 슬레이브(예: 도 11의 1120)인 전자 장치 1300와 마스터(예: 도 11의 1110)간의 동기화를 위해, 마스터(예: 도 11의 1110)로부터 수신한 마스터(예: 도 11의 1110)의 동기화 정보를 보상할 수 있다. 마스터의 동기화 정보는 예컨대, 마스터의 비디오 재생 클럭, 오디오 재생 클럭 또는 표시 모듈의 기준 클럭 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 동기 신호 처리 모듈 1319는 전자 장치 1300의 동기 신호 처리 모듈 1319에 도달하기까지의 지연을 감안하여, 마스터의 동기화 정보를 보상할 수 있다. 동기 신호 처리 모듈 1319는, 예를 들면, 마스터의 시스템 클럭과 전자 장치 1300의 시스템 클럭 등에 기반하여, 마스터의 동기화 정보를 보상할 수 있다.
한 실시예에 따르면, 동기 신호 처리 모듈 1319는 보상 처리된 마스터의 동기화 정보를 동기화 제어 모듈 1316에 전달한다. 동기화 제어 모듈 1316의 오디오 클럭 또는 비디오 클럭은 마스터의 동기화 정보에 맞게 조정될 수 있다.
다양한 실시예들에 따르면, 전자 장치는 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들에 대한 정보를 저장하기 위한 메모리; 및 멀티 비전 모듈을 실행하기 위한 하나 이상의 프로세서를 포함하고, 상기 멀티 비전 모듈은 콘텐트의 제 1 부분은 상기 제 1 전자 장치를 통해 표시되고, 상기 콘텐트의 제2 부분은 상기 제2 전자 장치를 통해 표시되도록 상기 복수의 전자 장치들을 통하여 콘텐트가 표현되는 동안 상기 복수의 전자 장치들 중 적어도 하나의 장치에 대한 입력을 확인(identify); 적어도 상기 입력에 기반하여 상기 복수의 장치들을 상기 제 1 전자 장치를 포함하는 제 1 그룹과, 상기 제 2 전자 장치를 포함하는 제 2 그룹으로 지정(set); 및 상기 지정에 기반하여, 상기 콘텐트가 상기 제 1 그룹과 상기 제 2 그룹의 각각(each)을 통해 서로 독립적으로 표현될 수 있도록 상기 복수의 전자 장치들 중 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 콘텐트가 상기 제 1 그룹을 통하여 표시되고, 동시에 상기 콘텐트가 상기 제 2 그룹을 통하여 표시될 수 있도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 전자 장치는 상기 제 1 전자 장치, 상기 제 2 전자 장치 또는 상기 적어도 하나의 장치를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 콘텐트가 상기 제 1 그룹을 통하여 표시되고, 동시에 상기 콘텐트가 상기 제 2 그룹을 통하여 표시될 수 있도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 제 1 그룹 및 상기 제 2 그룹은 각각 복수의 장치를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 확인하는 동작은, 사용자의 제스처, 터치 또는 음성, 또는 상기 복수의 장치들 중 적어도 둘 이상의 장치들 사이의 거리 중 적어도 하나를 상기 입력으로 받도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 복수의 전자 장치들 중 적어도 하나에 대한 입력에 기반하여, 상기 제 1 그룹에 속한 전자 장치 또는 상기 제 2 그룹에 속한 전자 장치를 포함하는 제3그룹을 추가로 지정하고, 상기 콘텐트가 상기 제 3 그룹 및 나머지 그룹의 각각을 통해 독립적으로 제공될 수 있도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 콘텐트가 상기 제 1 그룹 또는 상기 제 2 그룹 중의 적어도 하나의 그룹으로 지정된 복수의 전자 장치들에 각각 대응하는 부분으로 분할하여 표시되도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 콘텐트가 상기 제 1 그룹 또는 상기 제 2 그룹 중의 적어도 하나의 그룹에 포함된 복수의 전자 장치들 각각에 의해 표시되도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 콘텐트는 제 1 콘텐트 및 제 2 콘텐트를 포함하는 복수의 콘텐트들을 포함하고, 상기 멀티 비전 모듈은, 상기 제1 콘텐트가 상기 제 1 그룹을 통하여 표시하고, 상기 제2 콘텐트가 상기 제 2 그룹을 통하여 표시되도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 콘텐트는 멀티미디어 콘텐트를 포함하고, 상기 멀티 비전 모듈은, 상기 멀티미디어 콘텐트의 제 1 표시 지점에 해당하는 데이터가 상기 제 1 그룹을 통하여 표시되고, 동시에 상기 멀티미디어 콘텐트의 제2 표시 지점에 해당하는 데이터가 상기 제 2 그룹을 통하여 표시되도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 전자 장치는 적어도 제 1 전자 장치 및 제2 전자 장치를 포함하는 복수의 전자 장치들에 대한 정보를 저장하기 위한 메모리; 및 멀티 비전 모듈을 실행하기 위한 하나 이상의 프로세서를 포함하고, 상기 멀티 비전 모듈은 상기 복수의 전자 장치들에 대한 정보 또는 상기 복수의 전자 장치들 적어도 하나의 전자 장치에 대한 사용자 입력 중 적어도 하나에 기반하여, 상기 복수의 전자 장치들 중 적어도 하나의 장치를 지정, 콘텐트의 제 1 부분은 상기 제 1 전자 장치를 통해 표시되고, 상기 콘텐트의 제2 부분은 상기 제2 전자 장치를 통해 표시되도록 상기 복수의 전자 장치들을 통하여 상기 콘텐트를 표현, 상기 지정에 기반하여 상기 적어도 하나의 장치를 통해 상기 콘텐트의 표현과 관련된 다른 기능이 수행되도록 상기 복수의 장치들 중 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 표시하는 동작과 동시에 상기 다른 기능이 수행되도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 지정된 장치의 디스플레이 영역의 적어도 일부를 통해 상기 콘텐트의 재생에 상응하는 사용자의 제어 입력을 인식할 수 있는 인터페이스가 표현되도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 지정된 장치를 통해 상기 콘텐트의 오디오가 출력되도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 지정된 장치의 디스플레이 영역의 적어도 일부를 통해 상기 콘텐트의 텍스트가 표시되도록 상기 하나 이상의 장치를 제어하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 멀티 비전 모듈은, 상기 지정된 장치를 통해 적어도 하나의 다른 장치에 발생한 알림 이벤트에 상응하는 어플리케이션이 실행되도록 설정될 수 있다.
다양한 실시예들에 따르면, 전자 장치는, 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들에 대한 정보를 저장하기 위한 메모리; 및 멀티 비전 모듈을 실행하기 위한 하나 이상의 프로세서를 포함하고, 상기 멀티 비전 모듈은 콘텐트의 제 1 부분은 상기 제 1 전자 장치를 통해 표시되고, 상기 콘텐트의 제2 부분은 상기 제2 전자 장치를 통해 표시되도록 상기 복수의 전자 장치들을 통하여 콘텐트가 표현되는 동안 상기 복수의 전자 장치들 중 적어도 하나의 장치에 대한 입력을 확인, 적어도 상기 입력에 기반하여, 상기 제 1 부분 또는 상기 제 2 부분 중 적어도 하나를 조정, 및 상기 조정에 기반하여, 상기 제 1 부분은 상기 제 1 전자 장치를 통해 표시되고, 상기 제 2 부분은 상기 제 2 전자 장치를 통해 표시되도록 상기 복수의 전자 장치들 중 하나 이상의 장치를 제어하도록 설정될 수 있다.
도 14는 다양한 실시예들에 따른, 콘텐트 표현 시스템 1400에서 슬레이브 1420와의 연결을 추가하는 과정을 예시한다. 본 실시예에 따른 콘텐트 표현 시스템 1400은 예를 들면, 마스터 1410와 하나 또는 그 이상의 다른 슬레이브(미도시)를 포함할 수 있다. 본 실시예에 따른 콘텐트 표현 시스템 1400은 도 11에 도시된 콘텐트 표현 시스템 1100일 수 있다. 예를 들면, 본 실시예에 따른 콘텐트 표현 시스템 1400의 마스터 1410는 도 11에 도시된 마스터 1110 또는 도 12에 도시된 마스터 1200 중 적어도 하나일 수 있고, 슬레이브 1420는 도 11에 도시된 슬레이브 1120일 수 있다.
도 14를 참조하면, 동작 1431에서, 슬레이브 1420의 통신 모듈(예: 도 11의 1120)는 슬레이브의 정보(예: 해상도, DPI(display pixel inch), 통신 채널 형성을 위한 정보 등)를 포함한 슬레이브 연결을 추가하는 요청을 마스터 1410에게 전송할 수 있다.
동작 1432에서, 마스터 1410의 통신 모듈(예: 도 11의 1110)와 슬레이브 1420의 통신 모듈(예: 도 11의 1120)는 서로 동시에 콘텐트를 표현하기 위해, 마스터 1410와 슬레이브 1420간의 제어 정보 교환을 위한 통신 채널을 형성할 수 있다. 마스터 1410와 슬레이브 1420 간의 통신 채널은 Wifi-direct, Bluetooth, NFC, DTD, 3G/4G/LTE 네트워크 등 다양한 규격을 따를 수 있으며, 특정한 통신 프로토콜에 한정되지 않는다. 한 실시예에 따르면, 마스터 1410와 슬레이브 1420가 Wifi-direct로 연결되는 경우에, 마스터 1410는 슬레이브 1420와 소켓 연결을 시도할 수 있다. 마스터 1410는 슬레이브 1420와의 소켓 연결이 성립되면, 해당 소켓을 통해 슬레이브 1420로 다양한 제어 정보를 전송할 수 있다.
동작 1433에서, 마스터 1410의 리스트 관리 모듈(예: 도 12의 1210)은 콘텐트 표현 시스템 1400의 전자 장치 리스트에 슬레이브 1420의 정보를 추가할 수 있다.
동작 1434에서, 슬레이브 1420의 입력 모듈(예: 도 11의 1113)은 멀티 비전 모드로의 전환을 위한 사용자의 입력(예: 드래그)를 인식할 수 있다.
동작 1435에서, 슬레이브 1420의 통신 모듈(예: 도 11의 1122)는 사용자 입력의 정보(예: 인식 시점, 방향 등)을 마스터 1410에 전달할 수 있다.
동작 1436에서, 마스터 1410의 운영 모드 결정 모듈(예: 도 12의 1220)는 슬레이브 1420에 인식된 사용자 입력의 정보에 기반하여, 슬레이브 1420의 운영 모드를 결정할 수 있다.
동작 1437에서, 예를 들면, 슬레이브 1420의 운영 모드가 멀티 비전 모드로결정된 경우에는, 마스터 1410의 위치 조정 모듈(예: 도 12의 1230)는 슬레이브 1420의 위치 정보를 설정하고, 사용자 입력의 정보에 기반하여 나머지 멀티 비전 모드 장치들 중 적어도 일부의 위치를 조정할 수 있다.
동작 1438에서, 예를 들면, 슬레이브 1420의 운영 모드가 멀티 비전 모드로결정된 경우에는, 마스터 1410의 표시 부분 결정 모듈(예: 도 12의 1240)는 슬레이브 1420의 위치 정보에 기반하여, 슬레이브 1420의 오디오 채널 정보를 설정하고, 나머지 멀티 비전 모드 장치들 각각에 대응하는 오디오 채널 정보를 조정할 수 있다.
동작 1439에서, 예를 들면, 슬레이브 1420의 운영 모드가 멀티 비전 모드로결정된 경우에는, 마스터 1410의 표시 부분 결정 모듈(예: 도 12의 1240)는 슬레이브 1420의 위치 정보에 기반하여, 슬레이브 1420의 콘텐트 부분을 설정하고, 나머지 멀티 비전 모드 장치들 각각에 대응하는 콘텐트 부분을 조정할 수 있다.
동작 1440에서, 마스터 1410의 표현 설정 정보 생성 모듈(예: 도 12의 1250)및 동기화 정보 생성 모듈(예: 도 12의 1260)은 각각 슬레이브 1420에서의 콘텐트 표현시 적용할 표현 설정 정보(예: 밝기, 재생속도(배속), 볼륨) 및 동기화 정보를 생성할 수 있다.
동작 1441에서, 마스터 1410의 통신 모듈(예: 도 11의 1116) 또는 콘텐트 제공 모듈(예: 도 11의 1112)은 콘텐트(또는 콘텐트의 링크 정보)를 슬레이브 1420에 전송할 수 있다.
동작 1442에서, 마스터의 1410의 통신 모듈(예: 도 11의 1116)은 슬레이브 1420에 대응되는 운영 모드 및 제어 정보(예: 오디오 채널 정보, 콘텐트 부분 정보, 표현 설정 정보, 동기화 정보)를 슬레이브 1420에 전송할 수 있다. 동작 1441의 콘텐트(또는 콘텐트의 링크 정보)와, 동작 1442의 운영 모드 및 제어 정보는 서로 동일한 통신 채널을 통해 전송될 수 있고, 별개의 통신 채널들을 통해 서로 독립적으로 전송될 수 있다. 한 실시예에 따르면, 마스터 1410와 슬레이브 1420가 Wifi-direct를 통해 연결된 경우에는 콘텐트(또는 콘텐트의 링크 정보)전송을 위한 제 1 소켓 세션, 운영 모드 및 제어 정보를 위한 제 2 소켓 세션을 별도로 개설하여 통신할 수 있다.
아울러, 예를 들면, 새로 추가된 슬레이브 1420의 운영 모드가 싱글 비전 모드로 결정된 경우에는, 도 14에 도시된 동작들 중 적어도 일부 동작(예: 동작 1437, 동작 1438, 1439)은 생략될 수 있다.
도 15는 다양한 실시예들에 따른, 콘텐트 표현 시스템 1500에서 슬레이브 1520와의 연결을 삭제하는 과정을 예시한다. 본 실시예에 따른 콘텐트 표현 시스템 1500은, 예를 들면, 슬레이브 1520 외에, 마스터 1510와 하나 또는 그 이상의 다른 슬레이브(미도시)를 포함할 수 있다. 본 실시예에 따른 콘텐트 표현 시스템 1500은, 예를 들면, 도 11에 도시된 콘텐트 표현 시스템 1100일 수 있다. 본 실시예에 따른 마스터 1510는, 예를 들면, 도 11에 도시된 마스터 1110 또는 도 12에 도시된 마스터 1200 중 적어도 하나일 수 있고, 슬레이브 1520는, 예를 들면, 도 11에 도시된 슬레이브 1120일 수 있다.
도 15를 참조하면, 동작 1531에서, 슬레이브 1520의 통신 모듈(예: 도 11의 1120)는 슬레이브 연결을 해제하는 요청을 마스터 1510에게 전송할 수 있다.
동작 1532에서, 마스터 1510의 리스트 관리 모듈(예: 도 12의 1210)은 콘텐트 표현 시스템 1500의 전자 장치 리스트로부터 슬레이브 1520의 정보를 삭제할 수 있다.
동작 1533에서, 마스터 1510는 슬레이브 1520와의 통신 채널(예: 콘텐트 (또는 콘텐트 링크 정보)의 전송을 위한 소켓 세션, 운영 모드 및 제어 정보의 전송을 위한 소켓 세션)을 해제할 수 있다.
동작 1534에서, 예를 들면, 슬레이브 1520의 운영 모드가 멀티 비전 모드였던 경우에는, 마스터 1510의 위치 조정 모듈(예: 도 12의 1230)는 사용자 입력의 정보에 기반하여 슬레이브 1520를 제외한 나머지 멀티 비전 모드 장치들 중 적어도 일부의 위치를 조정할 수 있다.
동작 1535에서, 예를 들면, 슬레이브 1520의 운영 모드가 멀티 비전 모드였던 경우에는, 마스터 1510의 표시 부분 결정 모듈(예: 도 12의 1240)는 삭제되기 전의 슬레이브 1520의 위치 정보에 기반하여, 슬레이브 1520를 제외한 나머지 멀티 비전 모드 장치들 각각에 대응하는 오디오 채널 정보를 조정할 수 있다.
동작 1537에서, 마스터의 1410의 통신 모듈(예: 도 11의 1116)은 다른 슬레이브와의 통신 채널을 통해 다른 슬레이브에 대응되는 위치, 오디오 채널, 콘텐트 부분 정보를 전송할 수 있다.
아울러, 예를 들면, 새로 추가된 슬레이브 1520의 운영 모드가 싱글 비전 모드로 결정된 경우에는, 도 15에 도시된 동작들 중 적어도 일부 동작(예: 동작 1534, 동작 1535, 동작 1536, 1537)은 생략될 수 있다.
도 16는 다양한 실시예들에 따른, 콘텐트 부분 영역을 분할하는 방법을 도시한다. 본 실시예에 따른 콘텐트 부분 영역 분할 방법을 수행하는 콘텐트 표현 시스템 1600은 제 1 전자 장치 1610, 제 2 전자 장치 1620 및 제 3 전자 장치 1630을 포함할 수 있다. 제 1 전자 장치 1610는, 예를 들면, 도 10에 도시된 전자 장치 또는 도 11에 도시된 마스터 1110 중 하나 일 수 있다. 제 2 전자 장치 1620 및 제 3 전자 장치 1630은, 예를 들면, 도 10에 도시된 전자 장치 또는 도 11에 도시된 슬레이브 1120 중 하나 일 수 있다. 본 실시예에서, 제 1 전자 장치 1610, 제 2 전자 장치 1620, 제 3 전자 장치 1630는, 하나의 멀티 비전 그룹으로 그루핑되어, 멀티 비전 모드로 동일한 콘텐트를 동시에 표현하도록 설정된 것으로 가정한다.
동작 1641에서, 제 1 전자 장치 1610의 통신 모듈(예: 도 11의 1116)은 멀티 비전 그룹 내의 다른 전자 장치들인 제 2 전자 장치 1620 및 제 3 전자 장치 1630의 정보, 예를 들면, 해상도(예: 1080P(1920*1080)) 및 DPI를 수집할 수 있다. 예를 들면, 해상도는 가로 픽셀 값(예: 1920)과 세로 픽셀 값(1080)을 포함할 수 있다. 예를 들면, DPI는 가로 DPI 값 및 세로 DPI 값을 포함할 수 있으며, 가로 DPI 값 및 세로 DPI 값은 서로 동일한 값일 수도 있으며, 서로 상이한 값일 수도 있다.
본 실시예에서, 가로 길이(width) 및 세로 길이(height)는 전자 장치의 디스플레이의 가로 길이(width) 및 세로 길이(height)를 각각 의미할 수 있다.
동작 1642에서, 제 1 전자 장치 1610의 표시 부분 결정 모듈(예: 도 12의 1240)은 멀티 비전 그룹에 속한 전자 장치들(예: 제 1 전자 장치 1610, 제 2 전자 장치 1620, 제 3 전자장치 1630)의 정보 예컨대, 해상도 및 DPI에 기반하여, 전자 장치들 각각의 실제 디스플레이 크기를 계산할 수 있다. 전자 장치들 각각의 실제 가로 길이(width)는 해상도의 가로 픽셀값(예: 1920)를 가로 DPI 값으로 나눌 수 있다. 전자 장치들 각각의 디스플레이의 실제 세로 길이(height)는 해상도의 세로 픽셀값(예: 1080)를 세로 DPI 값으로 나눌 수 있다.
동작 1643에서, 제 1 전자 장치 1610의 표시 부분 결정 모듈(예: 도 12의 1240)은 멀티 비전 그룹에 속한 전자 장치들 각각의 상대적인 가로 비율(width ratio) 및 세로 비율(height ratio)를 산정할 수 있다. 한 실시예에 따르면, 복수의 전자 장치들 중 실제 가로 길이가 최소인 전자 장치의 가로 비율을 소정의 값, 예컨대, 1000으로 설정하고, 나머지 전자 장치 각각의 가로 비율은 (가로 길이의 최소값) * 1000 / (나머지 전자 장치 각각의 가로 길이)로 계산할 수 있다. 한 실시예에 따르면, 복수의 전자 장치들 중 세로 길이가 최소인 전자 장치의 세로 비율이 소정의 값, 예컨대, 1000으로 설정하고, 나머지 전자 장치 각각의 세로 비율은 (세로 길이의 최소값) * 1000 / (나머지 전자 장치 각각의 세로 길이)로 계산할 수 있다.
동작 1644에서, 제 1 전자 장치 1610의 표시 부분 결정 모듈(예: 도 12의 1240)은 멀티 비전 모드를 통해 표현할 콘텐트로부터 해당 콘텐트의 가로 길이(width) 및 세로 길이(height)를 획득할 수 있다.
동작 1645에서, 제 1 전자 장치 1610의 표시 부분 결정 모듈(예: 도 12의 1240)은 멀티 비전 그룹에 속한 전자 장치들 각각에 대응하는 콘텐트의 부분 정보(예: 분할 크기, 부분 영역 특정 정보) 등을 생성할 수 있다.
한 실시예에 따르면, 제 1 전자 장치 1610의 표시 부분 결정 모듈(예: 도 12의 1240)은 멀티 비전 그룹에 속한 전자 장치들 각각의 분할 크기를 계산할 수 있다. 전자 장치들 각각의 가로 분할 크기는 (콘텐트의 가로 길이(width)) * (전자 장치들 각각의 가로 비율(width ratio)) / (모든 전자 장치들의 가로 비율의 합계)로 계산할 수 있다. 전자 장치들 각각의 세로 분할 크기는 (콘텐트의 세로 길이(height)) * (전자 장치들 각각의 세로 비율(height ratio)) / (모든 전자 장치들의 세로 비율의 합계)로 계산할 수 있다.
한 실시예에 따르면, 전자 장치들 각각의 분할 크기에 기반하여, 콘텐트 부분 영역을 특정하는 정보를 생성할 수 있다. 예를 들면, 콘텐트 부분 영역 정보는 left, top, right, bottom)의 형태의 좌표 정보일 수 있다. 본 실시예에서, left는 콘텐트 부분 영역의 좌측 경계의 가로 좌표 정보, top은 콘텐트 부분 영역의 상단 경계의 세로 좌표 정보, right는 콘텐트 부분 영역의 우측 경계의 가로 좌표 정보, bottom은 콘텐트 부분 영역의 하단 경계의 세로 좌표 정보일 수 있다.
동작 1646에서, 전자 장치들 각각에 대응하는 가로 비율(width ratio), 세로 비율(height ratio), 콘텐트 부분의 분할 크기(또는 부분 영역 정보) 및 멀티 비전 그룹에 속한 전자 장치들의 개수를 전송한다.
동작 1647에서, 전자 장치들 각각은 가로 비율(width ratio) 및 세로 비율(height ratio)에 기반하여, 콘텐트가 표현될 화면 크기를 설정할 수 있다. 한 실시예에 따르면, 가로 화면 크기는 전자 장치의 가로 해상도에 상응하여 설정될 수 있다. 세로 화면 크기는 (전자 장치의 세로 해상도) * (콘텐트 세로 길이 / 콘텐트 가로 길이) * (멀티 비전 그룹에 속한 전자 장치들의 개수) * (세로 비율) / 1000로 계산될 수 있다.
동작 1648에서, 전자 장치들 각각은, 전자 장치들 각각에 대응하는 콘텐트 부분의 분할 크기(또는 부분 영역 정보)에 기반하여, 설정된 크기의 화면 중 표시될 콘텐트 영역을 설정할 수 있다.
동작 1649에서, 전자 장치들 각각은, 콘텐트 영역에, 전자 장치들 각각에 대응하는 콘텐트 부분을 표시할 수 있다.
도 17은 다양한 실시예들에 따른, 콘텐트 표현 시스템의 복수의 전자 장치들 각각의 동기화 방법 1700을 도시한 흐름도이다. 본 실시예에 따른 방법 1700을 수행하는 전자 장치는, 예를 들면, 도 13에 도시된 전자 장치 1300일 수 있다.
동작 1701에서, 해당 전자 장치의 동기 신호 처리 모듈(예: 도 13의 1319)은 마스터(예: 도 11의 1110)로부터 마스터(예: 도 11의 1110)의 동기화 정보를 수신할 수 있다. 마스터(예: 도 11의 1110)의 동기화 정보는 예를 들면, 마스터(예: 도 11의 1110)의 비디오 클럭(또는 타임스탬프), 오디오 클럭(또는 타임스탬프), 마스터(예: 도 11의 1110)의 표시 모듈 클럭(또는 타임스탬프) 및 마스터의 시스템 클럭(또는 타임스탬프)을 포함할 수 있다.
동작 1702에서, 해당 전자 장치의 동기 신호 처리 모듈(예: 도 13의 1319)은 마스터(예: 도 11의 1110)의 시스템 클럭과 해당 전자 장치의 시스템 클럭 간의 차이에 기반하여, 마스터(예: 도 11의 1110)의 동기화 정보가 마스터로부터 해당 전자 장치에 도달하기까지 소요된 지연을 보상할 수 있다.
동작 1703에서, 해당 전자 장치의 동기 신호 처리 모듈(예: 도 13의 1319)은 해당 전자 장치의 시스템 클럭과 해당 전자 장치의 표시 모듈 클럭 간의 차이에 기반하여, 마스터(예: 도 11의 1110)의 동기화 정보가 해당 전자 장치에 수신된 이후에, 해당 전자 장치의 다른 모듈을 거쳐 해당 전자 장치의 표시 모듈에 도달하기까지 소요된 지연을 보상할 수 있다.
동작 1704에서, 해당 전자 장치의 동기 신호 처리 모듈(예: 도 13의 1319)은 지연 보상된 마스터의 동기화 정보에 기반하여, 슬레이브의 동기화 정보(예: 오디오 클럭, 표시 모듈 클럭, 비디오 클럭)을 조정할 수 있다. 예를 들면, 슬레이브의 오디오 클럭 또는 표시 모듈 클럭을 지연 보상된 마스터의 표시 모듈 클럭과 동일한 값으로 설정할 수 있다. 이때, 지연 보상된 마스터의 표시 모듈 클럭과 슬레이브의 표시 모듈 클럭(또는 오디오 클럭)과의 차이가 기준 값 이상인 경우에는 마스터의 표시 모듈 클럭으로 맞추기 위해, 일정 구간의 오디오 데이터를 스킵하거나 묵음으로 처리하여, 콘텐트의 오디오를 재생(오디오 렌더링)할 수 있다.
동작 1705에서, 해당 전자 장치의 동기화 제어 모듈(예: 도 13의 1316)은 조정된 슬레이브의 동기화 정보에 기반하여, 슬레이브의 표시 모듈에서 콘텐트 재생시 오디오-비디오 간의 동기를 맞추어 콘텐트를 재생할 수 있다. 예를 들면, 해당 전자 장치의 동기화 제어 모듈(예: 도 13의 1316)에서 슬레이브의 비디오 클럭을, 슬레이브의 표시 모듈 클럭(또는 오디오 클럭)에 상응하도록 조정하고, 해당 전자 장치의 비디오 렌더러(예: 도 13의 1318)에서 콘텐트의 비디오를 재생(비디오 렌더링)할 수 있다.
도 18은 다양한 실시예들에 따른, 사용자 입력에 기반하여 멀티 비전 모드의 콘텐트 부분의 영역을 조정하는 방법 1800을 도시한다. 본 실시예에 따른 방법 1800을 수행하는 전자 장치는, 예를 들면, 도 12에 도시된 멀티 비전 모듈 1200을 포함한 장치(예: 도 11의 마스터 1100)일 수 있다.
동작 1801에서, 멀티 비전 그룹에 속한 전자 장치들 중 하나의 장치에 대한 사용자의 입력(예: 핀치-줌 입력)에 의해 생성된 사용자 입력 정보(예: (줌) 기준 좌표, (핀치 드래그) 좌표 변화량, 확대/축소 배율)을 획득할 수 있다. 한 실시예에 따르면, 다른 장치(예: 도 11의 슬레이브 1120)에서 사용자 입력이 발생한 경우에는 통신 모듈(예: 도 11의 통신 모듈 1116)을 통해, 해당 다른 장치(예: 도 11의 슬레이브 1120)로부터 사용자 입력에 대응하는 사용자 입력 정보를 수신할 수 있다. 콘텐트 부분 조정 방법을 수행하는 전자 장치(예: 도 11의 마스터 1100)에서 사용자 입력이 발생한 경우에는 전자 장치(예: 도 11의 마스터 1100)의 다른 모듈(예: 도 11의 입력 모듈 1113)로부터 사용자 입력에 대응하는 사용자 입력 정보를 수신할 수 있다.
동작 1802에서, 사용자 입력 정보(좌표 변화량)에 기반하여 콘텐트 부분의 조정 비율(예: 확대 또는 축소 배율)을 획득할 수 있다. 한 실시예에 따르면, 동작 1801에서, 사용자 입력(예: 핀치-줌 입력)이 발생한 장치로부터 사용자 입력 정보로서, 콘텐트 부분의 조정 비율(예: 확대 또는 축소 배율) 자체를 수신하는 경우에는, 동작 1802은 생략될 수 있다.
동작 1803에서, 사용자 입력 정보(예: 기준 좌표) 및 사용자 입력에 대응하는 하나의 장치의 콘텐트 부분 정보에 기반하여, 현재의 사용자 입력의 기준 좌표와 콘텐트 부분 영역 간의 상대적 거리값을 계산할 수 있다. 한 실시예에 따르면, 콘텐트 부분 정보로서, 이하의 수학식과 같이, 콘텐트 부분 영역을 가리키는 (left, top, right, bottom) 형태의 좌표 정보에 기반하여, 사용자 입력의 기준 좌표(x,y)와 콘텐트 부분 영역 간의 상대적 거리값(dl, dt, dr, db)을 계산한 할 수 있다.
Figure 112013079606983-pat00001
동작 1804에서, 콘텐트 부분의 조정 비율(예: 확대 또는 축소 배율)에 기반하여, 사용자 입력의 기준 좌표와 콘텐트 부분 영역 간의 상대적 거리값을 조정할 수 있다. 예를 들면, 사용자 입력의 기준 좌표와 콘텐트 부분 영역 간의 상대적 거리값은 (dl, dt, dr, db)에서 (dl’, dt’, db’, dr’)로 조정될 수 있다.
Figure 112013079606983-pat00002
동작 1805에서, 조정 이후의 사용자 입력의 기준 좌표와 콘텐트 부분 영역과의 상대적 거리값(예: (dl’, dt’, db’, dr’))에 기반하여 사용자 입력에 대응하는 장치의 콘텐트 부분 영역을 조정할 수 있다. 예를 들면, 사용자 입력에 대응하는 장치의 콘텐트 부분 영역의 좌표(L, T, R, B)와 크기(width, height)는 조정에 따라 아래의 수학식과 같이 결정될 수 있다.
Figure 112013079606983-pat00003
동작 1806에서 사용자 입력에 대응하는 장치의 조정된 콘텐트 부분 영역에 기반하여, 멀티 비전 모드를 운영 모드로 하는 전자 장치들 중 사용자 입력에 대응하는 장치 외의 나머지 장치의 콘텐트 부분 영역을 조정할 수 있다. 예를 들면, 나머지 장치 중 사용자 입력에 대응하는 장치로부터 좌측 i 번째에 위치한 장치의 콘텐트 부분 영역의 좌표(Li, Ti, Ri, Bi)와 크기(widthi, heighti)는 아래의 수학식과 같이 결정될 수 있다.
Figure 112013079606983-pat00004
추가적으로, 나머지 장치 중 사용자 입력에 대응하는 장치로부터 우측 j 번째에 위치한 장치의 콘텐트 부분 영역의 좌표(Lj, Tj, Rj, Bj) 와 크기(widthj, heightj)는 아래의 수학식과 같이 결정될 수 있다.
Figure 112013079606983-pat00005
동작 1807에서, 통신 모듈(예: 도 10의 통신 모듈 1040)을 통해 멀티 비전 모드를 운영 모드로 하는 장치들 각각에, 해당 장치에 대응하는 조정된 콘텐트 부분의 정보을 전송할 수 있다.
도 19는 다양한 실시예들에 따른, 복수의 콘텐트들이 복수의 멀티 비전 그룹들에 의해 표시되는 방법을 도시한 흐름도이다. 본 실시예에 따른 콘텐트 표현 시스템 1900의 제 1 전자 장치 1910는, 예를 들면, 도 12에 도시된 멀티 비전 모듈 1200을 포함한 장치(예: 도 11의 마스터 1100)일 수 있다.
도 19를 참조하면, 동작 1941에서, 제 1 전자 장치 1910, 제 2 전자 장치 1920 및 제 3는 전자 장치 1930는 각각 제 1 콘텐트, 제 2 콘텐트, 제 3 콘텐트를 각각 표시(예: 재생)할 수 있다.
동작 1942에서, 제 2 전자 장치 1920 및 제 3 전자 장치 1930은 각각 사용자의 입력(예: 제 3 전자 장치 1930의 일부 패널의 적어도 일부에서 제 2 전자 장치 1920의 일부 패널의 적어도 일부로의 드래그 입력)을 인식할 수 있다.
동작 1943에서, 제 2 전자 장치 1920 및 제 3 전자 장치 1930의 각각은 사용자의 입력의 인식한 정보를 제 1 전자 장치 1910에 전달할 수 있다.
동작 1944에서, 제 1 전자 장치 1910의 운영 모드 결정 모듈(예: 도 12의 1220)은제 2 전자 장치 1920 및 제 3 전자 장치 1930에 인식된 사용자의 입력에 기반하여 제 2 전자 장치 1920 및 제 3 전자 장치 1930의 운영 모드를 결정할 수 있다. 제 2 전자 장치 1920 및 제 3 전자 장치 1930의 운영 모드가 멀티 비전 모드로 결정된 경우에는 제 2 전자 장치 1920에서 표시 중이던 제 2 콘텐트 또는 제 3 전자 장치 1930에서 표시 중이던 제 3 콘텐트를, 멀티 비전 모드로 표시할 콘텐트로서, 결정할 수 있다.
동작 1945에서, 제 1 전자 장치 1910의 통신 모듈(예: 도 11의 1116)은 결정된 제 2 전자 장치 1920 및 제 3 전자 장치 1930의 운영 모드를 전송하고, 운영 모드가 멀티 비전 모드로 결정된 경우에는 멀티 비전 모드로 표시할 콘텐트의 정보(예: 콘텐트를 다운로드 받을 수 있는 링크 정보)를 전송할 수 있다.
동작 1946에서, 멀티 비전 모드로 표시할 콘텐트가 제 2 콘텐트로 결정된 경우에는, 제 3 전자 장치 1930는 동작 1950을 통해 수신된 콘텐트의 정보에 기반하여, 제 2 콘텐트를 다운로드받을 수 있다.
동작 1947에서, 제 1 전자 장치 1910의 위치 조정 모듈(예: 도 12의 1230)은 사용자의 입력 정보, 운영 모드에 기반하여, 멀티 비전 모드를 운영 모드로 하는 장치들의 위치들을 결정할 수 있다.
동작 1948에서, 제 1 전자 장치 1910의 표시 부분 결정 모듈(예: 도 12의 1240)은 멀티 비전 모드를 운영 모드로 하는 장치들의 위치에 기반하여, 멀티 비전 모드를 운영 모드로 하는 장치들인 제 2 전자 장치 1920 및 제 3 전자 장치 1930의 각각에 대응하는 오디오 채널 정보 및 콘텐트 부분들을 결정할 수 있다.
동작 1949에서, 제 1 전자 장치 1910의 통신 모듈(예: 도 11의 1116)은 멀티 비전 모드를 운영 모드로 하는 장치들인 제 2 전자 장치 1920 및 제 3 전자 장치 1930의 각각에 오디오 채널 정보 및 콘텐트 부분 정보를 전송할 수 있다.
동작 1950에서, 제 1 전자 장치 1910의 동기화 정보 모듈(예: 도 11의 1260)은 운영 모드 및 표시할 콘텐트에 기반하여, 멀티 비전 모드를 운영 모드로 제 2 콘텐트를 표시할 장치들인 제 2 전자 장치 1920 및 제 3 전자 장치 1930 중 하나를 동기화 기준이 될 장치로 결정할 수 있다.
동작 1951에서, 제 1 전자 장치 1910의 통신 모듈(예: 도 11의 1116) 멀티 비전 모드를 운영 모드로 제 2 콘텐트를 표시할 장치들인 제 2 전자 장치 1920 및 제 3 전자 장치 1930에 결정된 동기화 기준이 된 장치의 정보를 전송할 수 있다.
동작 1952에서 제 2 전자 장치 1920 및 제 3 전자 장치 1930 간에 동기화 정보 전송을 위한 통신 채널을 설정할 수 있다.
동작 1953에서, 동기화 기준이 될 장치로 지정된 제 2 전자 장치 1920는, 동작 1954의 제 2 콘텐트의 재생 동작으로부터 제 2 콘텐트의 동기화 정보를 생성할 수 있다. 이때, 제 2 전자 장치 1920는 슬레이브 기능을 수행하면서도, 동기화 정보 생성을 위해 멀티 비전 모듈(예: 도 12의 1200)의 일부 모듈(예: 도 12의 동기화 정보 생성 모듈 1260)를 더 포함할 수 있다.
동작 1954에서, 제 2 전자 장치 1920는 제 3 전자 장치 1930로 동기화 정보를 전송할 수 있다.
동작 1955에서, 제 2 전자 장치 1920 및 제 3 전자 장치 1930는 오디오 채널 정보, 콘텐트 부분 정보, 동기화 정보에 기반하여 멀티 비전 모드로 제 2 콘텐트를 표시할 수 있다.
도 20은 다양한 실시예들에 따른, 멀티 비전 그룹의 적어도 하나의 전자 장치를 통하여 부가 기능을 제공하기 위한 인터페이스를 표시하도록 제어하는 방법 2000을 도시한 흐름도이다. 본 실시예에 따른 제어 방법 2000을 수행하는 전자 장치는, 예를 들면, 도 12에 도시된 멀티 비전 모듈 1200을 포함한 장치(예: 도 11의 마스터 1100)일 수 있다.
본 실시예에서 다른 입출력을 위한 인터페이스는, 예를 들면, 비디오 표시 없이, 기능적으로 연결된 오디오 출력 장치(스피커 또는 이어폰)를 통해 오디오를 출력하는 오디오 출력 인터페이스 또는, 해당 콘텐트에 대한 사용자의 표시 제어 명령(예: 재생(play), 탐색(seek), 일시정지(pause), 재생중단(stop) 등)을 입력받을 수 있는 제어 인터페이스, 해당 콘텐트에 관련된 텍스트 정보(예: 자막)을 표시하는 텍스트 표시 인터페이스 중 적어도 하나일 수 있다.
동작 2001에서, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들의 해상도의 세로-가로 비율의 평균값과, 콘텐트의 해상도의 가로-세로 비율에 기반하여, 해당 콘텐트의 해상도에 대응되는 멀티 비전 모드로 표시할 장치들의 적정 개수를 계산할 수 있다.
동작 2002에서, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들의 현재 개수를 멀티 비전 모드로 표시할 장치들의 적정 개수를 비교할 수 있다.
동작 2003에서, 멀티 비전 그룹에 속한 장치들의 현재 개수가 멀티 비전 모드로 표시할 장치들의 적정 개수보다 많은 경우에는, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 각각의 위치, 실제 디스플레이 크기, 현재 배터리 잔량 중 적어도 하나에 기반하여, 멀티 비전 그룹에 속한 장치들 중 적어도 하나의 장치를 선택할 수 있다.
한 실시예에 따르면, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 중 현재 배터리 잔량이 가장 적은 장치 또는 현재 배터리 잔량이 기준값 미만인 장치를 선택할 수 있다. 다른 실시예에 따르면, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 중 실제 디스플레이 크기가 가장 작은 장치를 선택할 수 있다. 다른 실시예에 따르면, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 중 가장 좌측 또는 가장 우측에 있는 장치를 선택할 수 있다.
한 실시예에 따르면, 동작들 2001 내지 2002를 생략할 수 있다. 이러한 경우에는 멀티 비전 모드로 표시할 장치들의 적정 개수를 고려하지 않고, 장치를 선택할 수 있다.
동작 2004에서, 표시 부분 결정 모듈(예: 도 12의 1240)은 멀티 비전 그룹에 속한 장치들 중 선택된 장치 외의 나머지 장치들에 각각 대응하도록 나머지 장치들에 각각 대응하는 콘텐트 부분을 조정할 수 있다.
동작 2005에서, 인터페이스 모듈(예: 도 12의 1270)을 통해, 선택된 장치에 콘텐트의 오디오 출력 기능, 제어 인터페이스 또는 텍스트 표시 인터페이스 기능 중 적어도 하나를 활성화할 수 있다. 선택된 장치가 인터페이스 모듈이 위치한 장치인 경우에는 동일한 장치 내의 다른 모듈(예: 도 11의 콘텐트 표시 제어 모듈 1115)에 전송할 수 있다. 선택된 장치가 다른 장치인 경우에는 통신 모듈(예: 도 11의 1116)을 통해 해당 다른 장치로 전송할 수 있다.
도 21은 다양한 실시예들에 따른, 멀티 비전 그룹의 적어도 하나의 전자 장치의 디스플레이 영역의 일부 영역에 다른 기능을 제공하기 위한 인터페이스를 표시하도록 제어하는 방법 2100을 도시한 흐름도이다. 본 실시예에 따른 제어 방법 2100을 수행하는 전자 장치는, 예를 들면, 도 12에 도시된 멀티 비전 모듈 1200을 포함한 장치(예: 도 11의 마스터 1100)일 수 있다.
본 실시예에 따른 제어 방법은 예를 들면, 멀티 비전 그룹에 속한 장치들의 현재 개수가 멀티 비전 모드로 표시할 장치들의 적정 개수와 동일하고, 멀티 비전 그룹에 속한 장치 중 적어도 일부의 장치의 디스플레이 크기가 나머지 장치의 디스플레이 크기와 다른 경우에 수행될 수 있다.
동작 2101에서, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들의 실제 크기와 콘텐트 부분 크기 간의 차이 또는 멀티 비전 그룹에 속한 장치들의 실제 크기 중 적어도 하나에 기반하여 멀티 비전 모드 장치들 중 적어도 하나의 장치를 선택할 수 있다.
한 실시예에 따르면, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 중 실제 디스플레이 크기와 콘텐트 부분의 크기 간의 차이가 기준값 이상인 장치를 선택할 수 있다. 다른 실시예에 따르면, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 중 실제 디스플레이 크기가 가장 큰 장치를 선택할 수 있다.
동작 2102에서, 인터페이스 모듈(예: 도 12의 1270)을 통해, 선택된 장치의 디스플레이 영역 중 콘텐트 영역을 제외한 나머지 영역에 해당 콘텐트에 대한 사용자의 표시 제어 명령(예: 재생(play), 탐색(seek), 일시정지(pause), 재생중단(stop) 등)을 입력받을 수 있는 제어 인터페이스 또는 해당 콘텐트에 관련된 텍스트 정보(예: 자막)을 표시하는 텍스트 표시 인터페이스 중 적어도 하나를 표시할 수 있다. 선택된 장치가 인터페이스 모듈이 위치한 장치인 경우에는 동일한 장치 내의 다른 모듈(예: 도 11의 콘텐트 표시 제어 모듈 1115)에 전송할 수 있다. 선택된 장치가 다른 장치인 경우에는 통신 모듈(예: 도 11의 1116)을 통해 해당 다른 장치로 전송할 수 있다.
도 22는 다양한 실시예들에 따른, 멀티 비전 그룹의 어느 하나의 장치에 발생한 알림 이벤트를 특정 장치에서 표시하도록 제어하는 방법 2200을 도시한 흐름도이다. 본 실시예에 따른 제어 방법 2200을 수행하는 전자 장치는, 예를 들면, 도 12에 도시된 멀티 비전 모듈 1200을 포함한 장치(예: 도 11의 마스터 1100)일 수 있다.
동작 2201에서, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 중 어느 하나에 발생한 알림 이벤트를 인식할 수 있다.
동작 2202에서, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 각각의 위치 정보, 페어링된 주변 장치들의 종류, 기지정된 우선 순위, 알림 이벤트의 종류, 알림 이벤트 발생 이후의 사용자 입력 중 적어도 하나에 기반하여 장치를 선택할 수 있다.
한 실시예에 따르면, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 중 가장 좌측 또는 가장 우측에 위치한 장치를 선택할 수 있다. 다른 실시예에 따르면, 장치 선택 모듈(예: 도 12의 1280)은 멀티 비전 그룹에 속한 장치들 중 알림 이벤트에 대응되는 주변 장치와 페어링된 장치를 선택할 수 있다. 예를 들면, 알림 이벤트가 통화 콜 착신인 경우에는 블루투스 헤드셋과 페어링된 장치를 선택할 수 있다. 다른 실시예에 따르면, 사용자 입력 등에 따라, 알림 이벤트가 수신되기 이전에 멀티 비전 그룹에 속한 장치들 각각에 대하여 우선순위가 지정될 수 있다. 장치 선택 모듈(예: 도 12의 1280)은 우선순위가 가장 높은 장치를 선택할 수 있다. 다른 실시예에 따르면, 장치 선택 모듈(예: 도 12의 1280)은 우선순위가 알림 이벤트가 수신된 이후에 사용자의 입력(예: 탭 등)이 인식된 장치를 선택할 수 있다.
동작 2203에서, 인터페이스 모듈(예: 도 12의 1270)을 통해, 선택된 장치 또는 선택된 장치와 페어링된 주변 장치를 통해 알림 이벤트를 표시하도록 제어할 수 있다.
동작 2204에서, 인터페이스 모듈(예: 도 12의 1270)을 통해, 선택된 장치에 대한 사용자 입력(예: 탭 등)을 인식할 수 있다.
동작 2205에서, 인터페이스 모듈(예: 도 12의 1270)을 통해, 선택된 장치를 통해 알림 이벤트에 상응하는 어플리케이션을 실행함으로써, 알림 이벤트에 상응하는 서비스를 제공할 수 있다. 예를 들어, 알림 이벤트가 통화 콜 착신인 경우에는 통화 서비스를 제공하는 어플리케이션을 실행할 수 있다. 알림 이벤트가 문자 메시지 착신인 경우에는 착신된 문자 메시지를 확인하고, 새로운 문자 메시지를 작성할 수 있는 어플리케이션을 실행할 수 있다.
도 23은 다양한 실시예들에 따른 콘텐트 표현 방법 2300을 도시한 흐름도이다.
도 23을 참조하면, 동작 2301에서, 콘텐트 표현 시스템은 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들을 통하여 콘텐트를 표현할 수 있다. 예를 들면, 제 1 전자 장치를 통하여 콘텐트의 제 1 부분을 표시하고, 제 2 전자 장치를 통하여 콘텐트의 제 2 부분을 표시할 수 있다.
동작 2302에서, 멀티 비전 모듈(예: 도 11의 1114)은 콘텐트가 표시되는 동안에, 복수의 전자 장치들 중 적어도 하나의 장치에 대한 입력을 확인할 수 있다. 사용자의 제스처, 터치 또는 음성, 또는 복수의 장치들 중 적어도 둘 이상의 장치들 사이의 거리 중 적어도 하나를 입력으로 받을 수 있다.
동작 2303에서, 멀티 비전 모듈(예: 도 11의 1114)은, 적어도 하나의 장치에 대한 입력에 기반하여, 복수의 장치들을 제 1 전자 장치를 포함하는 제 1 그룹과, 제 2 전자 장치를 포함하는 제 2 그룹으로 지정할 수 있다. 제 1 그룹은, 예를 들면, 제 1 전자 장치와 적어도 하나의 다른 전자 장치를 포함하는 복수의 장치들일 수 있고, 또는 제 1 전자 장치 하나일 수 있다. 제 2 그룹은, 예를 들면, 제 2 전자 장치와 적어도 하나의 다른 전자 장치를 포함하는 복수의 장치들일 수 있고, 또는 제 2 전자 장치 하나일 수 있다.
동작 2304에서, 콘텐트 표현 시스템은 제 1 그룹 및 제 2 그룹에 대한 지정에 기반하여, 콘텐트를 제 1 그룹과 제 2 그룹의 각각을 통해 서로 독립적으로 표현할 수 있다. 콘텐트를 제 1 그룹을 통하여 표시하고, 동시에 콘텐트를 제 2 그룹을 통하여 표시할 수 있다. 한 실시예에 따르면, 콘텐트를 제 1 그룹 또는 제 2 그룹 중의 적어도 하나의 그룹으로 지정된 복수의 전자 장치들에 각각 대응하는 부분으로 분할하여 표시할 수 있다. 다른 실시예에 따르면, 콘텐트를 제 1 그룹 또는 제 2 그룹 중의 적어도 하나의 그룹에 포함된 복수의 전자 장치들 각각이 콘텐트를 표시할 수 있다.
어떤 실시예에 따르면, 콘텐트 표현 방법은 동작 2305 및 동작 2306을 더 포함할 수 있다.
동작 2305에서, 멀티 비전 모듈(예: 도 11의 1114)은, 복수의 전자 장치들 중 적어도 하나에 대한 추가적인 입력에 기반하여, 제 1 그룹에 속한 전자 장치 또는 제 2 그룹에 속한 전자 장치를 포함하는 제 3 그룹을 추가로 지정할 수 있다. 추가적인 입력으로서, 사용자의 제스처, 터치 또는 음성, 또는 복수의 장치들 중 적어도 둘 이상의 장치들 사이의 거리 중 적어도 하나를 입력받을 수 있다.
동작 2306에서, 콘텐트 표현 시스템은 추가적인 지정에 기반하여, 콘텐트를 제 3 그룹 및 나머지 그룹의 각각을 통해 독립적으로 표현할 수 있다.
도 24는 다양한 실시예들에 따른 콘텐트 표현 방법 2400을 도시한 흐름도이다.
도 24를 참조하면, 동작 2401에서, 멀티 비전 모듈(예: 도 11의 1114)은, 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들의 정보 또는 복수의 전자 장치들 중 적어도 하나의 전자 장치에 대한 사용자 입력 중 적어도 하나에 기반하여, 복수의 전자 장치들 중 적어도 하나의 장치를 지정할 수 있다. 복수의 전자 장치들의 정보의 적어도 일부로서, 예를 들면, 복수의 전자 장치들의 각각의 디스플레이 크기, 배터리 잔량, 상대적인 위치, 페어링된 주변 장치들의 종류, 기지정된 우선 순위 중 적어도 하나 이상을 포함할 수 있다.
동작 2402에서, 콘텐트 표현 시스템은 복수의 전자 장치들을 통해 콘텐트를 표현할 수 있다. 예를 들면, 제 1 전자 장치를 통하여 콘텐트의 제 1 부분을 표시하고, 제 2 전자 장치를 통하여 콘텐트의 제 2 부분을 표시할 수 있다.
동작 2403에서, 콘텐트 표현 시스템은, 동작 2401에서의 지정에 기반하여, 적어도 하나의 장치를 통해 콘텐트의 표현과 관련된 다른 기능을 수행할 수 있다. 동작 2403에서, 동작 2402와 동시에 다른 기능을 수행할 수 있다.
본 실시예에서, 다른 기능은 전자 장치에 기능적으로 연결된 디스플레이를 통한 콘텐트의 표시를 제외한 다양한 기능 중 콘텐트의 표현과 직간접적으로 관련된 기능일 수 있다.
한 실시예에 따르면, 지정된 장치의 디스플레이 영역의 적어도 일부를 통해 콘텐트의 표시에 상응하는 사용자의 제어 입력을 인식할 수 있는 인터페이스를 표현할 수 있다. 예를 들면, 지정된 장치의 디스플레이 영역의 일부를 통해 콘텐트의 적어도 일부를 표시하고, 지정된 장치의 디스플레이 영역의 나머지 일부를 통해, 콘텐트의 적어도 일부의 표시와 동시에, 콘텐트의 표에 상응하는 사용자의 제어 입력을 인식할 수 있는 인터페이스를 제공할 수 있다. 또는, 지정된 장치는 콘텐트를 표시하지 않고, 콘텐트의 표시에 상응하는 사용자의 제어 입력을 인식할 수 있는 인터페이스를 제공할 수도 있다.
한 실시예에 따르면, 지정된 장치를 통해 콘텐트의 오디오를 출력하고, 나머지 장치를 통해서는 콘텐트의 오디오를 출력하지 않을 수 있다. 예를 들면, 지정된 장치를 통해 콘텐트의 적어도 일부를 표시하고, 동시에, 콘텐트의 오디오를 출력할 수 있다. 또는 지정된 장치는 콘텐트를 표시하지 않고, 콘텐트의 오디오를 출력할 수 있다.
한 실시예에 따르면, 지정된 장치의 디스플레이 영역의 적어도 일부를 통해 콘텐트의 텍스트를 표시할 수 있다. 예를 들면, 콘텐트가 시간의 경과에 따라 연속적으로 표시되는 비디오 및 비디오와 동기화되어, 연속적으로 표시되는 자막 텍스트를 포함하는 경우에, 이러한 자막 텍스트를 표시할 수 있다.
한 실시예에 따르면, 지정된 장치를 통해 적어도 하나의 다른 장치에 발생한 알림 이벤트에 상응하는 어플리케이션을 실행할 수 있다. 알림 이벤트는, 예를 들면, 문자 메시지의 수신, 전화 호출의 수신 등일 수 있다.
도 25는 다양한 실시예들에 따른 콘텐트 표현 방법 2500을 도시한 흐름도이다.
도 25를 참조하면, 동작 2501에서, 콘텐트 표현 시스템은 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들을 통하여 콘텐트를 표현할 수 있다. 예를 들면, 제 1 전자 장치를 통하여 콘텐트의 제 1 부분을 표시하고, 제 2 전자 장치를 통하여 콘텐트의 제 2 부분을 표시할 수 있다.
동작 2502에서, 멀티 비전 모듈(예: 도 11의 1114)은, 콘텐트가 표시되는 동안에, 복수의 전자 장치들 중 적어도 하나의 장치에 대한 입력을 확인(identify)할 수 있다. 예를 들면, 사용자의 제스처, 터치 또는 호버링 중 적어도 하나를 입력으로 받을 수 있다. 이때, 사용자의 입력에 대응하는 기준 좌표값 또는 기준 좌표값의 변화량을 획득할 수 있다.
동작 2503에서, 멀티 비전 모듈(예: 도 11의 1114)은, 적어도 하나의 장치에 대한 입력에 기반하여, 콘텐트 부분 예를 들면, 제 1 부분 또는 제 2 부분 중 적어도 하나를 조정할 수 있다. 한 실시예에 따르면, 제 1 부분 및 제 2 부분의 각각은 제 1 부분 및 제 2 부분에 대응되는 복수의 좌표들을 포함하는 경우에, 제 1 부분 또는 제 2 부분 중 적어도 하나에 대응되는 복수의 좌표들을 조할 수 있다. ,
동작 2504에서, 콘텐트 표현 시스템은, 동작 2503에서의 조정에 기반하여, 복수의 전자 장치들에 각각 대응되는 콘텐트 부분들을 표시할 수 있다. 예를 들면, 제 1 전자 장치를 통하여 상기 콘텐트의 제 1 부분을 표시하고, 제 2 전자 장치를 통하여 상기 콘텐트의 제 2 부분을 표시할 수 있다. 이때의 제 1 부분 또는 제 2 부분 중 적어도 하나는, 동작 2503에 의한 조정으로 인해, 동작 2501에서 표시된 제 1 부분 또는 제 2 부분과 상이할 수 있다.
도 14 내지 도 25에 도시된 과정 내지 방법에 기재된 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 다른 순서로 실행되거나, 일부 동작이 생략되거나, 다른 동작이 추가될 수 있다.
다양한 실시예들에 따르면, 복수의 전자 장치들을 통해 콘텐트를 표현하는 방법은 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들을 통하여 콘텐트(content)를 표현하는 동작(presenting), 상기 표현하는 동작은 상기 제 1 전자 장치를 통하여 상기 콘텐트의 제 1 부분을 표시하고, 상기 제 2 전자 장치를 통하여 상기 콘텐트의 제 2 부분을 표시하는 동작(displaying)을 포함하고; 상기 콘텐트가 표시되는 동안에, 상기 복수의 전자 장치들 중 적어도 하나의 장치에 대한 입력을 확인하는 동작(identifying); 적어도 상기 입력에 기반하여 상기 복수의 장치들을 상기 제 1 전자 장치를 포함하는 제 1 그룹과, 상기 제 2 전자 장치를 포함하는 제 2 그룹으로 지정하는 동작(settting); 및 상기 지정에 기반하여, 상기 콘텐트를 상기 제 1 그룹과 상기 제 2 그룹의 각각(each)을 통해 서로 독립적으로 표현하는 동작(presenting)을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 독립적으로 표현하는 동작은, 상기 콘텐트를 상기 제 1 그룹을 통하여 표시하고, 동시에 상기 콘텐트를 상기 제 2 그룹을 통하여 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제 1 그룹 및 상기 제 2 그룹은 각각 복수의 장치를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 확인하는 동작은, 사용자의 제스처, 터치 또는 음성, 또는 상기 복수의 장치들 중 적어도 둘 이상의 장치들 사이의 거리 중 적어도 하나를 상기 입력으로 받는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 복수의 전자 장치들 중 적어도 하나에 대한 추가적인 입력에 기반하여, 상기 제 1 그룹에 속한 전자 장치 또는 상기 제 2 그룹에 속한 전자 장치를 포함하는 제 3 그룹을 추가로 지정하는 동작; 및 상기 콘텐트를 상기 제 3 그룹 및 나머지 그룹의 각각을 통해 독립적으로 제공하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 추가로 지정하는 동작은, 상기 추가적인 입력으로서, 사용자의 제스처, 터치 또는 음성, 또는 상기 복수의 장치들 중 적어도 둘 이상의 장치들 사이의 거리 중 적어도 하나에 기반할 수 있다.
다양한 실시예들에 따르면, 상기 독립적으로 표현하는 동작은, 상기 콘텐트를 상기 제 1 그룹 또는 상기 제 2 그룹 중의 적어도 하나의 그룹으로 지정된 복수의 전자 장치들에 각각 대응하는 부분으로 분할하여 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 분할하여 표시하는 동작은, 상기 적어도 하나의 그룹으로 지정된 전자 장치들의 각각에 기능적으로 연결된 디스플레이 크기, 상기 적어도 하나의 그룹으로 지정된 전자 장치들의 수, 또는 상기 콘텐트의 해상도 중 적어도 하나에 기반하여 상기 콘텐트를 분할하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 독립적으로 표현하는 동작은, 상기 제 1 그룹 또는 상기 제 2 그룹 중의 적어도 하나의 그룹에 포함된 복수의 전자 장치들 각각이 상기 콘텐트를 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 독립적으로 표현하는 동작은, 상기 제 1 그룹과 상기 제 2 그룹 중 상기 제 1 전자 장치를 제외한 나머지 장치들의 각각(each)은 상기 제 1 전자 장치에서 생성된 동기화 정보에 기반하여, 동시에 콘텐트의 적어도 일부를 표현하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 동기화 정보는 상기 제 1 전자 장치의 콘텐트의 현재 표시 지점과 관련된 타임 스탬프 정보 또는 상기 제 1 전자 장치의 현재 시각 정보 중 적어도 하나를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 동기화 정보는 상기 제 1 전자 장치의 콘텐트의 현재 표시 지점과 관련된 타임 스탬프 정보 및 상기 제 1 전자 장치의 현재 시각 정보를 포함하고, 상기 독립적으로 표현하는 동작은, 상기 제 1 그룹과 상기 제 2 그룹 중 상기 제 1 전자 장치를 제외한 나머지 장치들의 각각(each)은, 적어도 상기 제 1 전자 장치의 현재 시각 정보 및 상기 나머지 장치들의 각각의 현재 시각 정보에 기반하여, 상기 타임 스탬프 정보를 조정하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 콘텐트는 제1 콘텐트 및 제2 콘텐트를 포함하는 복수의 콘텐트들을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 독립적으로 표현하는 동작은, 상기 제1 콘텐트를 상기 제 1 그룹을 통하여 표시하고, 상기 제2 콘텐트를 상기 제 2 그룹을 통하여 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 독립적으로 표현하는 동작은, 상기 제 1 그룹 중 상기 제 1 전자 장치를 제외한 나머지 장치들의 각각은 상기 제 1 전자 장치에서 생성된 동기화 정보에 기반하여, 상기 제 1 콘텐트의 적어도 일부를 표현하고, 상기 제 2 그룹 중 상기 제 2 전자 장치를 제외한 나머지 장치들의 각각은 상기 제 2 전자 장치에서 생성된 동기화 정보에 기반하여, 상기 제 2 콘텐트의 적어도 일부를 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 콘텐트는 멀티미디어 콘텐트를 포함하고, 상기 독립적으로 표현하는 동작은, 상기 멀티미디어 콘텐트의 제 1 표시 지점에 해당하는 데이터를 상기 제 1 그룹을 통하여 표시하고, 동시에 상기 멀티미디어 콘텐트의 제 2 표시 지점에 해당하는 데이터를 상기 제 2 그룹을 통하여 표시할 수 있다.
다양한 실시예들에 따르면, 복수의 전자 장치들을 통해 콘텐트를 표현하는 방법은 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들의 정보 또는 상기 복수의 전자 장치들 중 적어도 하나의 전자 장치에 대한 사용자 입력 중 적어도 하나에 기반하여, 상기 복수의 전자 장치들 중 적어도 하나의 장치를 지정하는 동작; 및 상기 복수의 전자 장치들을 통해 콘텐트를 표현하는 동작, 상기 표현하는 동작은 상기 제 1 전자 장치를 통하여 상기 콘텐트의 제 1 부분(a first portion)을 표시하고, 상기 제 2 전자 장치를 통하여 상기 콘텐트의 제 2 부분(a second portion)을 표시하는 동작(displaying)을 포함하고, 상기 지정에 기반하여, 상기 적어도 하나의 장치를 통해 상기 콘텐트의 표현과 관련된 다른 기능을 수행하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 지정하는 동작은, 상기 정보의 적어도 일부로서, 상기 복수의 전자 장치들의 각각의 디스플레이 크기, 배터리 잔량, 상대적인 위치, 페어링된 주변 장치들의 종류, 기지정된 우선 순위 중 적어도 하나 이상에 기반할 수 있다.
다양한 실시예들에 따르면, 상기 다른 기능을 수행하는 동작은, 상기 표시하는 동작과 동시에 상기 다른 기능을 수행할 수 있다.
다양한 실시예들에 따르면, 상기 다른 기능을 수행하는 동작은, 상기 지정된 장치의 디스플레이 영역의 적어도 일부를 통해 상기 콘텐트의 표시에 상응하는 사용자의 제어 입력을 인식할 수 있는 인터페이스를 표현하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 표현하는 동작은, 상기 지정된 장치의 디스플레이 영역의 일부를 통해 상기 콘텐트의 적어도 일부를 표시하고, 상기 다른 기능을 수행하는 동작은, 상기 지정된 장치의 디스플레이 영역의 나머지 일부를 통해, 상기 콘텐트의 적어도 일부의 표시와 동시에, 상기 콘텐트의 표시에 상응하는 사용자의 제어 입력을 인식할 수 있는 인터페이스를 제공하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 다른 기능을 수행하는 동작은, 상기 지정된 장치를 통해 상기 콘텐트의 오디오를 출력하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 다른 기능을 수행하는 동작은, 상기 지정된 장치의 디스플레이 영역의 적어도 일부를 통해 상기 콘텐트의 텍스트를 표시할 수 있다.
다양한 실시예들에 따르면, 상기 콘텐트는 시간의 경과에 따라 연속적으로 표시되는 비디오 및 상기 비디오와 동기화되어, 연속적으로 표시되는 자막 텍스트를 포함하고, 상기 콘텐트의 텍스트를 표시하는 동작은, 상기 텍스트로서, 상기 자막 텍스트를 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 다른 기능을 수행하는 동작은, 상기 지정된 장치를 통해 적어도 하나의 다른 장치에 발생한 알림 이벤트에 상응하는 어플리케이션을 실행하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 제공하는 동작은, 상기 알림 이벤트는 문자 메시지의 수신 또는 전화 호출의 수신 중 적어도 하나를 포함할 수 있다.
다양한 실시예들에 따르면, 복수의 전자 장치들을 통해 콘텐트를 표현하는 방법은, 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들을 통하여 콘텐트(content)를 표현하는 동작(presenting), 상기 표현하는 동작은 상기 제 1 전자 장치를 통하여 상기 콘텐트의 제 1 부분(a first portion)을 표시하고, 상기 제 2 전자 장치를 통하여 상기 콘텐트의 제 2 부분(a second portion)을 표시하는 동작(displaying)을 포함하고; 상기 복수의 전자 장치들 중 적어도 하나의 전자 장치에 대한 사용자 입력에 기반하여, 상기 제 1 부분 또는 상기 제 2 부분 중 적어도 하나를 조정하는 동작; 및 상기 조정에 기반하여, 상기 제 1 전자 장치를 통하여 상기 콘텐트의 제 1 부분을 표시하고, 상기 제 2 전자 장치를 통하여 상기 콘텐트의 제 2 부분을 표시하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 조정하는 동작은 상기 사용자의 입력에 대응하는 기준 좌표값 또는 상기 기준 좌표값의 변화량 중 적어도 하나에 기반할 수 있다.
다양한 실시예들에 따르면, 상기 제 1 부분 및 상기 제 2 부분의 각각은 상기 제 1 부분 및 상기 제 2 부분에 대응되는 복수의 좌표들을 포함하고, 상기 조정하는 동작은 상기 제 1 부분 또는 상기 제 2 부분 중 적어도 하나에 대응되는 복수의 좌표들을 조정할 수 있다.
도 26은 다양한 실시예들에 따른 전자 장치에 대한 블록도 2600를 도시한다. 도 26을 참조하면, 상기 전자장치 2601는 버스 2610, 프로세서 2620, 메모리 2630, 사용자 입력 모듈 2640, 디스플레이 모듈 2650, 또는 통신 모듈 2660을 포함할 수 있다.
상기 버스 2610는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서 2620는, 예를 들면, 상기 버스 2610를 통해 전술한 다른 구성요소들(예: 상기 메모리 2630, 상기 사용자 입력 모듈 2640, 상기 디스플레이 모듈 2650, 상기 통신 모듈 2660 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 프로세서 2620는, 예를 들면, 멀티 비전 모듈(예: 멀티비젼 모듈 1010, 또는 멀티비젼 모듈 1114)을 실행할 수 있다. 이에 따라, 상기 프로세서 2620는 복수의 전자 장치들을 통해 콘텐트가 표현되도록 복수의 전자 장치들 중 하나 이상의 장치를 제어할 수 있다.
상기 메모리 2630는, 상기 프로세서 2620 또는 다른 구성요소들(예: 상기 사용자 입력 모듈 2640, 상기 디스플레이 모듈 2650, 상기 통신 모듈 2660등)로부터 수신되거나 상기 프로세서 2620 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리 2630는, 예를 들면, 커널 2631, 미들웨어 2632, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 2633 또는 어플리케이션 2634 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 메모리 2630는, 예를 들면, 콘텐트를 표현하기 위한 복수의 전자 장치들에 대한 정보를 저장할 수 있다.
상기 커널 2631은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어 2632, 상기 API 2633 또는 상기 어플리케이션 2634에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스 2610, 상기 프로세서 2620 또는 상기 메모리 2630 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널 2631은 상기 미들웨어 2632, 상기 API 2633 또는 상기 어플리케이션 2634에서 상기 전자 장치 2600의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어 2632는 상기 API 2633 또는 상기 어플리케이션 2634이 상기 커널 2631과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어 2632는 상기 (다수의) 어플리케이션들 2634로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 (다수의) 어플리케이션들 2634들 중 적어도 하나의 어플리케이션에 상기 전자 장치 2600의 시스템 리소스(예: 상기 버스 2610, 상기 프로세서 2620 또는 상기 메모리 2630 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 로드 밸런싱을 수행할 수 있다.
상기 API 2633는 상기 어플리케이션 2634이 상기 커널 2631 또는 상기 미들웨어 2632에서 제공하는 기능을 제어할 수 있는 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수를 포함할 수 있다.
상기 사용자 입력 모듈 2640은, 예를 들면, 사용자로부터 명령 또는 데이터를 입력 받아 상기 버스 2610를 통해 상기 프로세서 2620 또는 상기 메모리 2630에 전달할 수 있다. 상기 디스플레이 모듈 2650은 사용자에게 화상, 영상 또는 데이터 등을 표시할 수 있다.
상기 통신 모듈 2660은 다른 전자 장치 2602와 상기 전자 장치 2600 간의 통신을 연결할 수 있다. 상기 통신 모듈 2660은 소정의 근거리 통신 프로토콜(예: Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication) 또는 소정의 네트워크 통신(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등) 2662을 지원할 수 있다. 상기 전자 장치 2602, 2604 각각은 상기 전자 장치 2600와 동일한 (예: 같은 타입의) 장치이거나 또는 다른 (예: 다른 타입의) 장치일 수 있다.
도 27은 다양한 실시예들에 따른 하드웨어 2700의 블록도를 도시한다. 상기 하드웨어 2700는, 예를 들면, 도 26에 도시된 전자 장치 2600일 수 있다. 도 27을 참조하면, 상기 하드웨어 2700는 하나 이상의 프로세서 2710, SIM(subscriber identification module) 카드 2714, 메모리 2720, 통신 모듈 2730, 센서 모듈 2740, 사용자 입력 모듈 2750, 디스플레이 모듈 2760, 인터페이스 2770, 오디오 코덱 2780, 카메라 모듈 2791, 전력관리 모듈 2795, 배터리 2796, 인디케이터 2797 또는 모터 2798 를 포함할 수 있다.
상기 프로세서 2710(예: 상기 프로세서 2620)는 하나 이상의 어플리케이션 프로세서(AP: application processor) 2711 또는 하나 이상의 커뮤니케이션 프로세서(CP: communication processor) 2713를 포함할 수 있다. 상기 프로세서 2710는, 예를 들면, 도 26에 도시된 프로세서 2620일 수 있다. 도 27에서는 상기 AP 2711 및 상기 CP 2713가 프로세서 2710 내에 포함된 것으로 도시되었으나, 상기 AP 2711 와 상기 CP 2713는 서로 다른 IC 패키지들 내에 각각 포함될 수 있다. 한 실시예에서는 상기 AP 2711 및 상기 CP 2713는 하나의 IC 패키지 내에 포함될 수 있다.
상기 AP 2711는 운영체제 또는 응용 프로그램을 구동하여 상기 AP 2711에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어하고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 2711는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 프로세서 2710는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 CP 2713는 상기 하드웨어 2700를 포함하는 전자 장치(예: 상기 전자 장치 2600)와 네트워크로 연결된 다른 전자 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. 상기 CP 2713는, 예를 들면, SoC로 구현될 수 있다. 한 실시예에 따르면, 상기 CP 2713는 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다. 상기 CP 2713는, 예를 들면, 가입자 식별 모듈(예: SIM 카드 2714)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 또한, 상기 CP 2713는 사용자에게 음성 통화, 영상 통화, 문자 메시지 또는 패킷 데이터(packet data) 등의 서비스들을 제공할 수 있다.
또한, 상기 CP 2713는 상기 통신 모듈 2730의 데이터 송수신을 제어할 수 있다. 도 2에서는, 상기 CP 2713, 상기 전력관리 모듈 2795 또는 상기 메모리2720 등의 구성요소들이 상기 AP 2711와 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP 2711가 전술한 구성요소들의 적어도 일부(예: 상기 CP 2713)를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP 2711 또는 상기 CP 2713는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 2711 또는 상기 CP 2713는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 SIM 카드 2714는 가입자 식별 모듈을 구현한 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 2714는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 2720는 내장 메모리 2722 또는 외장 메모리 2724를 포함할 수 있다. 상기 메모리 2720는, 예를 들면, 도 26에 도시된 메모리 2630일 수 있다. 상기 내장 메모리 2722는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 내장 메모리 2722는 Solid State Drive (SSD)의 형태를 취할 수도 있다. 상기 외장 메모리 2724는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다.
상기 통신 모듈 2730은 무선 통신 모듈 2731 또는 RF 모듈 2734을 포함할 수 있다. 상기 통신 모듈 2730은, 예를 들면, 도 26에 도시된 통신 모듈2660일 수 있다. 상기 무선 통신 모듈 2731은, 예를 들면, WiFi 2733, BT(bluetooth) 2735, GPS 2737 또는 NFC(near field communication) 2739를 포함할 수 있다. 예를 들면, 상기 무선 통신 모듈 2731은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가적으로 또는 대체적으로, 상기 무선 통신 모듈 2731은 상기 하드웨어 2700를 네트워크(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)와 연결시키기 위한 네트워크 인터페이스(예: LAN card) 또는 모뎀 등을 포함할 수 있다.
상기 RF 모듈 2734은 데이터의 송수신, 예를 들면, RF 신호 또는 호출된 전자 신호의 송수신을 담당할 수 있다. 상기RF 모듈2734은, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈2734은 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다.
상기 센서 모듈 2740은, 예를 들면, 제스처 센서 2740A, 자이로 센서 2740B, 기압 센서 2740C, 마그네틱 센서 2740D, 가속도 센서 2740E, 그립 센서 2740F, 근접 센서 2740G, RGB(red, green, blue) 센서 2740H, 생체 센서 2740I, 온/습도 센서 2740J, 조도 센서 2740K 또는 UV(ultra violet) 센서 2740M중의 적어도 하나를 포함할 수 있다. 상기 센서 모듈 2740은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 추가적으로/대체적으로, 상기 센서 모듈 2740은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시) 또는 지문 센서 등을 포함할 수 있다. 상기 센서 모듈2740은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.
상기 사용자 입력 모듈 2750은 터치 패널(touch panel) 2752, (디지털) 펜 센서(pen sensor) 2754, 키(key) 2756 또는 초음파 입력 장치 2758를 포함할 수 있다. 상기 사용자 입력 모듈 2750은, 예를 들면, 도 26에 도시된 사용자 입력 모듈 2640일수 있다. 상기 터치 패널 2752은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 2752은 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우, 직접 터치뿐만 아니라 근접 인식도 가능하다. 상기 터치 패널 2752은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 2752은 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 2754는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키 2756로서, 예를 들면, 키패드 또는 터치 키가 이용될 수 있다. 상기 초음파 입력 장치2758는 초음파 신호를 발생하는 펜을 통해, 전자 장치에서 마이크(예: 마이크 2788)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 하드웨어 2700는 상기 통신 모듈 2730를 이용하여 이와 연결된 외부 장치(예: 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 모듈 2760은 패널 2762 또는 홀로그램 2764을 포함할 수 있다. 상기 디스플레이 모듈 2760은, 예를 들면, 도 26에 도시된 디스플레이 모듈2650일 수 있다. 상기 패널 2762은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널2762은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 2762은 상기 터치 패널 2752과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 2764은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 한 실시예에 따르면, 상기 디스플레이 모듈 2760은 상기 패널 2762 또는 상기 홀로그램 2764을 제어하기 위한 제어회로를 더 포함할 수 있다.
상기 인터페이스 2770는, 예를 들면, HDMI(high-definition multimedia interface) 2772, USB(universal serial bus) 2774, 프로젝터 2776 또는 D-sub(D-subminiature) 2778를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스2770는, 예를 들면, SD(secure Digital)/MMC(multi-media card)(미도시) 또는 IrDA(infrared data association, 미도시)를 포함할 수 있다.
상기 오디오 코덱 2780은 음성과 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 코덱 2780은, 예를 들면, 스피커 2782, 리시버 2784, 이어폰 2786 또는 마이크 2788 등을 통해 입력 또는 출력되는 음성 정보를 변환시킬 수 있다.
상기 카메라 모듈 2791은 화상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 렌즈 또는 후면 렌즈), ISP(image signal processor, 미도시) 또는 플래쉬 LED(flash LED, 미도시)를 포함할 수 있다.
상기 전력관리 모듈 2795은 상기 하드웨어 2700의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력관리 모듈 2795은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 게이지(battery fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리 2796의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 2796는 전기를 생성하여 전원을 공급할 수 있고, 예를 들면, 충전식 전지(rechargeable battery)일 수 있다.
상기 인디케이터 2797는 상기 하드웨어 2700 혹은 그 일부(예: 상기 AP 2711)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터2798는 전기적 신호를 기계적 진동으로 변환할 수 있다. 상기 MCU 2799은, 상기 센서 모듈 2740을 제어할 수 있다.
도시되지는 않았으나, 상기 하드웨어 2700는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다. 본 개시에 따른 하드웨어의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 개시에 따른 하드웨어는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 개시에 따른 하드웨어의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 개시에 사용된 용어“모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 개시에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
본 개시에 따른 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 개시에 따른 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 처리될 수 있으며, 또한 일부 동작이 생략되거나, 다른 동작이 추가될 수 있다.
한편, 다양한 실시예들은 다양한 컴퓨터 수단(예: 상기 프로세서)을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터로 판독 가능한 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기록 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 개시의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
다양한 실시예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 적어도 제 1 전자 장치와 제 2 전자 장치를 포함하는 복수의 전자 장치들을 통하여 콘텐트(content)를 표현하는 동작(presenting), 상기 표현하는 동작은 상기 제 1 전자 장치를 통하여 상기 콘텐트의 제 1 부분을 표시하고, 상기 제 2 전자 장치를 통하여 상기 콘텐트의 제 2 부분을 표시하는 동작(displaying)을 포함하고; 상기 콘텐트가 표시되는 동안에, 상기 복수의 전자 장치들 중 적어도 하나의 장치에 대한 입력을 확인하는 동작(identifying); 적어도 상기 입력에 기반하여 상기 복수의 장치들을 상기 제 1 전자 장치를 포함하는 제 1 그룹과, 상기 제 2 전자 장치를 포함하는 제 2 그룹으로 지정하는 동작(settting); 및 상기 지정에 기반하여, 상기 콘텐트를 상기 제 1 그룹과 상기 제 2 그룹의 각각(each)을 통해 서로 독립적으로 표현하는 동작(presenting)을 포함할 수 있다.
그리고, 본 개시의 다양한 실시예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시 예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.

Claims (64)

  1. 제2 전자 장치와 통신 연결되어 콘텐트를 표시하는 전자 장치의 콘텐트 표시 방법에 있어서,
    상기 전자 장치에 의해, 콘텐트의 제1 부분을 표시하는 동작;
    상기 전자 장치에 의해, 상기 콘텐트의 제1 부분이 표시되는 동안 입력에 관한 정보를 수신하는 동작 및 입력을 감지하는 동작 중 적어도 하나의 동작;
    상기 전자 장치에 의해, 상기 콘텐트의 제1 부분이 표시되는 동안 상기 수신된 입력 정보 및 감지된 입력 중 적어도 하나에 응답하여 하나 이상의 전자 장치들을 포함하는 제1 그룹을 구성하는 동작; 및
    상기 제1 그룹을 구성하는 전자 장치들이 상기 콘텐트의 제1 부분의 적어도 일부를 표시하는 동작을 포함하는 전자 장치의 콘텐트 표시 방법.
  2. 제 1항에 있어서,
    상기 전자 장치에 의해, 상기 콘텐트의 각 부분이 상기 제1 그룹에 속하는 하나 이상의 대응되는 전자 장치들에 의해 표시되도록 상기 콘텐트의 각 부분들을 결정하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  3. 제 2항에 있어서,
    상기 전자 장치에 의해, 상기 제1 그룹에 속하는 적어도 하나의 전자 장치로 적어도 하나의 운영 모드에 관한 정보 및 상기 제1 그룹에 속하는 적어도 하나의 전자 장치들에 각각 대응되는 콘텐트 표시를 위한 제어 정보 중 적어도 하나를 전송하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  4. 제 1항에 있어서,
    상기 전자 장치에 의해, 상기 제1 그룹에서 적어도 하나의 전자 장치들의 상대적 위치를 결정하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  5. 제 4항에 있어서,
    상기 제1 그룹에서 적어도 하나의 전자 장치들의 상대적 위치를 결정하는 동작은 상기 전자 장치에 의해 상기 입력에 따라 상기 제1 그룹에서 적어도 하나의 전자 장치들의 상대적 위치를 결정하는 것을 포함하는 전자 장치의 콘텐트 표시 방법.
  6. 제 1항에 있어서,
    상기 전자 장치에 의해, 상기 제1 그룹에 속하는 하나 이상의 전자 장치들에 의해 표시되는 각각의 콘텐트가 동기화 되도록 동기화 정보를 결정하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  7. 제 6항에 있어서,
    상기 전자 장치에 의해, 상기 제1 그룹에 속하는 적어도 하나의 전자 장치들에 상기 각각의 동기화 정보를 전송하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  8. 제 6항에 있어서,
    상기 동기화 정보는,
    상기 제1 그룹에 속하는 하나 이상의 전자 장치들 각각에서 각 콘텐트의 표시를 동기화하기 위한 정보를 포함하는 것인 전자 장치의 콘텐트 표시 방법.
  9. 제 8항에 있어서,
    상기 전자 장치는 상기 제1 그룹에 속하고,
    상기 전자 장치는 상기 동기화 정보에 따라 상기 제1 그룹에서 다른 전자 장치들에 의해 표시되고 있는 동기화된 콘텐트와 다른 데이터를 표시하는 동작을 포함하는 전자 장치의 콘텐트 표시 방법.
  10. 제 6항에 있어서,
    상기 동기화 정보는,
    상기 전자 장치의 현재 정보 및 상기 콘텐트의 현재 표시 지점과 관련된 상기 전자 장치의 적어도 하나의 타임 스탬프 정보를 포함하는 전자 장치의 콘텐트 표시 방법.
  11. 제 1항에 있어서,
    상기 전자 장치에 의해,
    상기 입력과 관련된 정보를 수신하는 동작 및 상기 입력을 감지하는 동작 중 적어도 하나에 응답하여 하나 이상의 전자 장치들을 포함하는 제2 그룹을 구성하는 동작을 더 포함하고,
    상기 전자 장치는 상기 제1 그룹에 속하고, 상기 제2 전자 장치는 상기 제2 그룹에 속하는 것인 전자 장치의 콘텐트 표시 방법.
  12. 제 11항에 있어서,
    상기 전자 장치에 의해, 상기 제1 그룹에 속하는 하나 이상의 전자 장치들 및 상기 제2 그룹에 속하는 하나 이상의 전자 장치들의 콘텐트 표시를 동기화하기 위한 동기화 정보를 결정하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  13. 제 11항에 있어서,
    상기 전자 장치에 의해, 제3 그룹을 형성하기 위한 입력에 관한 정보를 수신하는 동작 및 상기 제3 그룹을 형성하기 위한 입력을 감지하는 동작 중 적어도 하나의 동작; 및
    상기 전자 장치에 의해, 상기 제1 그룹과 상기 제2 그룹 중 적어도 하나에 속하는 적어도 하나의 전자 장치를 포함하는 상기 제3 그룹을 구성하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  14. 제 13항에 있어서,
    상기 전자 장치에 의해,
    상기 입력에 관한 정보를 수신하는 동작 및 상기 입력을 감지하는 동작 중 적어도 하나에 응답하여, 상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나에 의해 표시되는 콘텐트와 독립된 콘텐트를 표시하도록 상기 제3 그룹에 속하는 적어도 하나의 전자 장치에 제어 정보를 전송하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  15. 제 13항에 있어서,
    상기 제3 그룹을 형성하기 위한 입력은,
    제스처, 터치, 사용자의 음성, 및 거리 임계 값을 만족하는 적어도 두 개의 전자 장치 사이의 거리 중 적어도 하나를 포함하는 것인 전자 장치의 콘텐트 표시 방법.
  16. 제 11항에 있어서,
    상기 전자 장치에 의해, 상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나에 속하는 하나 이상의 전자 장치들에 따라 상기 콘텐트를 복수의 부분으로 분할하는 동작;
    상기 전자 장치에 의해, 상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나에 속하는 전자 장치들에 따른 각각의 제어 정보를 생성하는 동작; 및
    상기 전자 장치에 의해, 상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나에 속하는 전자 장치들에 상기 각각의 제어 정보를 전송하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  17. 제 16항에 있어서,
    상기 제1 그룹 및 상기 제2 그룹에 속하는 하나 이상의 전자 장치들에 따라 상기 콘텐트를 복수의 부분으로 분할하는 동작은,
    상기 전자 장치에 의해, 상기 제1 그룹 및 상기 제2 그룹 중 상기 전자 장치와 연결된 적어도 하나의 전자 장치들의 디스플레이 사이즈, 상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나의 전자 장치들의 개수, 및 상기 콘텐트의 해상도 중 적어도 하나에 기반하여 상기 콘텐트를 분할하는 동작을 포함하는 전자 장치의 콘텐트 표시 방법.
  18. 제2 전자 장치와 통신 연결되는 전자 장치로서,
    상기 전자 장치와 상기 제2 전자 장치를 포함하는 복수의 전자 장치들에 관한 정보를 저장하는 메모리; 및
    콘텐트의 제1 부분을 표시하고, 상기 콘텐트의 제1 부분이 표시되는 동안 상기 제2 전자 장치로부터 입력에 관한 정보를 수신하는 동작과 상기 전자 장치에서 입력을 감지하는 동작 중 적어도 하나의 동작을 수행하며, 상기 입력에 관한 정보를 수신하는 동작과 상기 입력을 감지하는 동작 중 적어도 하나에 응답하여 하나 이상의 전자 장치들을 포함하는 제1 그룹을 구성하고, 상기 제1 그룹을 구성하는 전자 장치들이 상기 콘텐트의 제1 부분의 적어도 일부를 표시하는 하나 이상의 제어부를 포함하는 전자 장치.
  19. 제 18항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제1 그룹에 속하는 하나 이상의 대응되는 전자 장치들에 의해 표시되도록 상기 콘텐트의 각 부분들을 결정하는 것을 포함하는 전자 장치.
  20. 제 19항에 있어서,
    상기 하나 이상의 프로세서들은, 상기 제1 그룹에 속하는 적어도 하나의 전자 장치로 적어도 하나의 운영 모드에 관한 정보 및 상기 제1 그룹에 속하는 적어도 하나의 전자 장치들에 각각 대응되는 콘텐트 표시를 위한 제어 정보 중 적어도 하나를 전송하는 것을 포함하는 전자 장치.
  21. 제 18항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제1 그룹에서 적어도 하나의 전자 장치들의 상대적 위치를 결정하는 것을 포함하는 전자 장치.
  22. 제 21항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 입력에 따라 상기 제1 그룹에서 적어도 하나의 전자 장치들의 상대적 위치를 결정하는 것을 포함하는 전자 장치.
  23. 제 18항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제1 그룹에 속하는 하나 이상의 전자 장치들에 의해 표시되는 각각의 콘텐트가 동기화되도록 동기화 정보를 결정하는 것을 더 포함하는 전자 장치.
  24. 제 23항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제1 그룹에 속하는 적어도 하나의 전자 장치들에 상기 각각의 동기화 정보를 전송하는 것을 더 포함하는 전자 장치.
  25. 제 23항에 있어서,
    상기 동기화 정보는,
    상기 제1 그룹에 속하는 하나 이상의 전자 장치들 각각에서 각각의 콘텐트의 표시를 동기화하기 위한 정보를 포함하는 것인 전자 장치.
  26. 제 25항에 있어서,
    상기 전자 장치는 상기 제1 그룹에 속하고,
    상기 하나 이상의 프로세서들은,
    상기 동기화 정보에 따라 상기 제1 그룹에서 다른 전자 장치들에 의해 표시되고 있는 동기화된 콘텐트와 다른 데이터를 표시하는 것인 전자 장치.
  27. 제 23항에 있어서,
    상기 동기화 정보는,
    상기 전자 장치의 현재 정보 및 상기 콘텐트의 현재 표시 지점과 관련된 적어도 하나의 타임 스탬프 정보를 포함하는 전자 장치.
  28. 제 18항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 입력과 관련된 정보를 수신하는 동작 및 상기 입력을 감지하는 동작 중 적어도 하나에 응답하여 하나 이상의 전자 장치들을 포함하는 제2 그룹을 구성하고,
    상기 전자 장치는 상기 제1 그룹에 속하고, 상기 제2 전자 장치는 제2 그룹에 속하는 것인 전자 장치.
  29. 제 28항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제1 그룹에 속하는 하나 이상의 전자 장치들 및 상기 제2 그룹에 속하는 하나 이상의 전자 장치들의 콘텐트 표시를 동기화하기 위한 동기화 정보를 결정하는 것을 더 포함하는 전자 장치.
  30. 제 28항에 있어서,
    상기 하나 이상의 프로세서들은,
    제3 그룹을 형성하기 위한 입력에 관한 정보를 수신하는 동작 및 상기 제3 그룹을 형성하기 위한 입력을 감지하는 동작 중 적어도 하나를 수행하고,
    상기 제1 그룹과 상기 제2 그룹 중 적어도 하나에 속하는 적어도 하나의 전자 장치를 포함하는 상기 제3 그룹을 구성하는 것을 포함하는 전자 장치.
  31. 제 30항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 입력에 관한 정보를 수신하는 동작 및 상기 입력을 감지하는 동작 중 적어도 하나에 응답하여, 상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나에 의해 표시되는 콘텐트와 독립된 콘텐트를 표시하도록 상기 제3 그룹에 속하는 적어도 하나의 전자 장치에 제어 정보를 전송하는 것을 포함하는 전자 장치.
  32. 제 30항에 있어서,
    상기 제3 그룹을 형성하기 위한 입력은 제스처, 터치, 사용자의 음성, 및 거리 임계 값을 만족하는 적어도 두 개의 전자 장치 사이의 거리 중 적어도 하나를 포함하는 것인 전자 장치.
  33. 제 28항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나에 속하는 하나 이상의 전자 장치들에 따라 상기 콘텐트를 복수의 부분으로 분할하고,
    상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나에 속하는 전자 장치들에 따라 각각의 제어 정보를 생성하며,
    상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나에 속하는 전자 장치들에 상기 각각의 제어 정보를 전송하는 것을 포함하는 전자 장치.
  34. 제 33항에 있어서,
    상기 하나 이상의 프로세서들이 상기 제1 그룹 및 상기 제2 그룹에 속하는 하나 이상의 전자 장치들에 따라 상기 콘텐트를 복수의 부분으로 분할하는 것은,
    상기 제1 그룹 및 상기 제2 그룹 중 상기 전자 장치와 연결된 적어도 하나의 전자 장치들의 디스플레이 사이즈, 상기 제1 그룹 및 상기 제2 그룹 중 적어도 하나의 전자 장치들의 개수, 및 상기 콘텐트의 해상도 중 적어도 하나에 기반하여 상기 콘텐트를 분할하는 것을 포함하는 전자 장치.
  35. 전자 장치의 콘텐트 표시 방법에 있어서,
    상기 전자 장치에 의해, 제2 전자 장치와 연결을 수립하는 동작;
    상기 전자 장치에 의해, 콘텐트의 제1 부분이 상기 전자 장치와 상기 제2 전자 장치 중 적어도 하나에서 표시되는 중 하나 이상의 전자 장치들과 상기 제2 전자 장치 중 적어도 하나를 통해 상기 콘텐트의 표시 구성을 위한 입력을 감지하는 동작;
    상기 전자 장치에 의해, 상기 제2 전자 장치에 상기 입력에 관한 정보를 송신하는 동작;
    상기 전자 장치에 의해, 상기 전자 장치를 위한 적어도 하나의 운영 모드에 관한 정보와 상기 전자 장치의 콘텐트 표시를 위한 제어 정보를 상기 제2 전자 장치로부터 수신하는 동작; 및
    상기 전자 장치에 의해, 상기 제2 전자 장치로부터 상기 콘텐트의 제1 부분을 수신하여 적어도 일부를 표시하는 동작을 포함하는 전자 장치의 콘텐트 표시 방법.
  36. 제 35항에 있어서,
    상기 전자 장치에 의해, 상기 제2 전자 장치로부터 콘텐트 및 콘텐트의 링크 정보 중 적어도 하나를 수신하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  37. 제 35항에 있어서,
    상기 전자 장치에 의해, 상기 전자 장치의 적어도 하나의 운영 모드에 관한 정보 및 제어 정보 중 적어도 하나에 따라 상기 콘텐트를 표시하는 동작을 포함하는 전자 장치의 콘텐트 표시 방법.
  38. 제 37항에 있어서,
    상기 콘텐트를 표시하는 동작은,
    상기 전자 장치에 의해, 제1 그룹에 속하는 하나 이상의 전자 장치들 및 상기 제2 전자 장치 중 적어도 하나와 동시에 상기 콘텐트를 표시하는 것을 포함하는 전자 장치의 콘텐트 표시 방법.
  39. 제 35항에 있어서,
    상기 전자 장치에 의해, 상기 전자 장치가 상기 콘텐트를 표시할 수 있는지 여부에 관한 능력 정보를 상기 제2 전자 장치로 송신하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  40. 제 35항에 있어서,
    상기 전자 장치에 의해, 상기 콘텐트를 표시하기 위한 동기화 정보를 상기 제2 전자 장치로부터 수신하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  41. 제 40항에 있어서,
    상기 동기화 정보는 제1 그룹에 속하는 하나 이상의 전자 장치들 각각에서 각 콘텐트의 표시를 동기화하기 위한 정보를 포함하는 것인 전자 장치의 콘텐트 표시 방법.
  42. 제 40항에 있어서,
    상기 동기화 정보는 상기 전자 장치의 현재 정보 및 상기 콘텐트의 현재 표시 지점과 관련된 상기 전자 장치의 적어도 하나의 타임 스탬프 정보를 포함하는 전자 장치의 콘텐트 표시 방법.
  43. 제 35항에 있어서,
    상기 전자 장치는 하나 이상의 전자 장치를 포함하는 제1 그룹에 속하고,
    상기 전자 장치는 동기화 정보에 따라 상기 제1 그룹에서 다른 전자 장치들에 의해 표시되고 있는 동기화된 콘텐트와 다른 데이터를 표시하는 것을 포함하는 전자 장치의 콘텐트 표시 방법.
  44. 제 35항에 있어서,
    상기 전자 장치에 의해, 제3 그룹을 형성하기 위한 입력을 감지하는 동작; 및
    상기 전자 장치에 의해, 상기 제3 그룹을 형성하기 위한 입력에 관한 정보를 상기 제2 전자 장치로 전송하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  45. 제 44항에 있어서,
    상기 전자 장치에 의해, 상기 제3 그룹을 형성하기 위한 입력에 응답하여, 상기 전자 장치를 위한 적어도 하나의 운영 모드에 관한 정보 및 상기 전자 장치에서 콘텐트 표시를 위한 제어 정보 중 적어도 하나를 상기 제2 전자 장치로부터 수신하는 동작을 더 포함하는 전자 장치의 콘텐트 표시 방법.
  46. 제 44항에 있어서,
    상기 제3 그룹을 형성하기 위한 입력은 제스처, 터치, 사용자의 음성, 및 임계 값을 만족하는 적어도 두 개의 전자 장치 사이의 거리 중 적어도 하나를 포함하는 것인 전자 장치의 콘텐트 표시 방법.
  47. 제 35항에 있어서,
    제3 전자 장치와 연결을 수립하는 동작;
    상기 전자 장치에 의해, 상기 전자 장치와 상기 제3 전자 장치를 통해 표시되는 각 콘텐트의 동기화를 위한 동기화 정보를 생성하는 동작; 및
    상기 전자 장치에 의해, 상기 동기화 정보를 상기 제3 전자 장치로 전송하는 동작을 포함하는 전자 장치의 콘텐트 표시 방법.
  48. 제 47항에 있어서,
    상기 전자 장치에 의해, 상기 제3 전자 장치를 통해 표시되는 콘텐트와 동시에 상기 콘텐트를 표시하는 것을 포함하는 전자 장치의 콘텐트 표시 방법.
  49. 제 48항에 있어서,
    상기 전자 장치는, 상기 제2 전자 장치에 의해 표시되는 콘텐트와 독립적으로 상기 콘텐트를 표시하는 것을 포함하는 전자 장치의 콘텐트 표시 방법.
  50. 전자 장치 및 제2 전자 장치를 포함하는 복수의 전자 장치들에 관한 정보를 저장하는 메모리; 및
    상기 제2 전자 장치와 연결을 수립하고, 콘텐트의 제1 부분이 상기 전자 장치와 상기 제2 전자 장치 중 적어도 하나에서 표시되는 중 적어도 하나의 전자 장치들과 상기 제2 전자 장치 중 적어도 하나를 통해 상기 콘텐트의 표시 구성을 위한 입력을 감지하며, 상기 입력에 관한 정보를 상기 제2 전자 장치에 전송하고, 상기 전자 장치를 위한 적어도 하나의 운영 모드에 관한 정보 및 상기 전자 장치의 콘텐트 표시를 위한 제어 정보를 상기 제2 전자 장치로부터 수신하고, 상기 제2 전자 장치로부터 상기 콘텐트의 제1 부분을 수신하여 적어도 일부를 표시하는 하나 이상의 프로세서를 포함하는 전자 장치.
  51. 제 50항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 콘텐트 및 콘텐트 링크 정보 중 적어도 하나를 상기 제2 전자 장치로부터 수신하는 것을 더 포함하는 전자 장치.
  52. 제 50항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 전자 장치의 적어도 하나의 운영 모드에 관한 정보 및 제어 정보 중 적어도 하나에 따라 상기 콘텐트를 표시하는 것을 포함하는 전자 장치.
  53. 제 52항에 있어서,
    상기 하나 이상이 프로세서들은,
    상기 전자 장치를 위한 적어도 하나의 운영 모드에 관한 정보, 제1 그룹에 속하는 하나 이상의 전자 장치들과 상기 제2 전자 장치 중 적어도 하나와 동시에 상기 콘텐트를 표시하기 위한 제어 정보 중 적어도 하나에 따라 상기 콘텐트를 표시하는 것을 더 포함하는 전자 장치.
  54. 제 52항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 전자 장치가 상기 콘텐트를 표시할 수 있는지 여부에 관한 능력 정보를 상기 제 2 전자 장치로 송신하는 동작을 더 포함하는 전자 장치.
  55. 제 50항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 콘텐트를 표시하기 위한 동기화 정보를 상기 제2 전자 장치로부터 수신하는 것을 포함하는 전자 장치.
  56. 제 55항에 있어서,
    상기 동기화 정보는,
    제1 그룹에 속하는 하나 이상의 전자 장치들 각각에서 각 콘텐트의 표시를 동기화하기 위한 정보를 포함하는 것인 전자 장치.
  57. 제 55항에 있어서,
    상기 동기화 정보는 상기 전자 장치의 현재 정보 및 상기 콘텐트의 현재 표시 지점과 관련된 상기 전자 장치의 적어도 하나의 타임 스탬프 정보를 포함하는 전자 장치.
  58. 제 50항에 있어서,
    상기 전자 장치는 하나 이상의 전자 장치를 포함하는 제1 그룹에 속하고,
    상기 하나 이상의 프로세서들은 동기화 정보에 따라 상기 제1 그룹에서 다른 전자 장치들에 의해 표시되고 있는 동기화된 콘텐트와 다른 데이터를 표시하는 것을 포함하는 전자 장치.
  59. 제 50항에 있어서,
    상기 하나 이상의 프로세서들은,
    제3 그룹을 형성하기 위한 입력을 감지하고, 상기 제3 그룹을 형성하기 위한 입력에 관한 정보를 상기 제2 전자 장치로 전송하는 것을 포함하는 전자 장치.
  60. 제 59항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제3 그룹을 형성하기 위한 입력에 응답하여, 상기 전자 장치를 위한 적어도 하나의 운영 모드에 관한 정보 및 상기 전자 장치에서 콘텐트 표시를 위한 제어 정보 중 적어도 하나를 상기 제2 전자 장치로부터 수신하는 것을 포함하는 전자 장치.
  61. 제 59항에 있어서,
    상기 제3 그룹을 형성하기 위한 입력은 제스처, 터치, 사용자의 음성, 및 임계 값을 만족하는 적어도 두 개의 전자 장치 사이의 거리 중 적어도 하나를 포함하는 것인 전자 장치.
  62. 제 50항에 있어서,
    상기 하나 이상의 프로세서들은,
    제3 전자 장치와 연결을 수립하고, 상기 전자 장치 및 상기 제3 전자 장치를 통해 표시되는 각 콘텐트의 동기화를 위한 동기화 정보를 생성하며, 상기 동기화 정보를 상기 제3 전자 장치로 전송하는 것을 포함하는 전자 장치.
  63. 제 62항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제3 전자 장치를 통해 표시되는 콘텐트와 동시에 상기 콘텐트를 표시하는 것을 포함하는 전자 장치.
  64. 제 63항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제2 전자 장치에 의해 표시되는 콘텐트와 독립적으로 상기 콘텐트를 표시하는 것을 포함하는 전자 장치.
KR1020130104259A 2013-08-30 2013-08-30 콘텐트 표현 방법 및 시스템 KR102183413B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020130104259A KR102183413B1 (ko) 2013-08-30 2013-08-30 콘텐트 표현 방법 및 시스템
US14/471,411 US9696958B2 (en) 2013-08-30 2014-08-28 Method and system for presenting content
PCT/KR2014/008133 WO2015030545A1 (en) 2013-08-30 2014-09-01 Method and system for presenting content
EP14839381.2A EP3039530B1 (en) 2013-08-30 2014-09-01 Method and system for presenting content
CN201480047908.6A CN105493025B (zh) 2013-08-30 2014-09-01 用于展示内容的方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130104259A KR102183413B1 (ko) 2013-08-30 2013-08-30 콘텐트 표현 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20150027892A KR20150027892A (ko) 2015-03-13
KR102183413B1 true KR102183413B1 (ko) 2020-11-26

Family

ID=52582465

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130104259A KR102183413B1 (ko) 2013-08-30 2013-08-30 콘텐트 표현 방법 및 시스템

Country Status (5)

Country Link
US (1) US9696958B2 (ko)
EP (1) EP3039530B1 (ko)
KR (1) KR102183413B1 (ko)
CN (1) CN105493025B (ko)
WO (1) WO2015030545A1 (ko)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727298B2 (en) * 2013-05-28 2017-08-08 Sony Corporation Device and method for allocating data based on an arrangement of elements in an image
KR102144339B1 (ko) * 2014-02-11 2020-08-13 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US10365879B2 (en) * 2014-11-05 2019-07-30 Lg Electronics Inc. Image output device, mobile terminal, and method for controlling a plurality of image output devices
US9641622B2 (en) * 2014-12-04 2017-05-02 Apple Inc. Master device for using connection attribute of electronic accessories connections to facilitate locating an accessory
TWI506534B (zh) * 2014-12-09 2015-11-01 Awind Inc 具有低資料傳輸量的鏡射顯示系統及其方法
KR102336709B1 (ko) * 2015-03-11 2021-12-07 삼성디스플레이 주식회사 타일드 표시 장치 및 그 동기화 방법
US10356031B2 (en) * 2015-09-30 2019-07-16 Microsoft Technology Licensing, Llc Prioritized communication inbox
CN105472439A (zh) * 2015-12-15 2016-04-06 小米科技有限责任公司 一种显示图像数据的方法和装置
JP6579007B2 (ja) * 2016-03-18 2019-09-25 船井電機株式会社 制御装置
US20190311697A1 (en) * 2016-12-01 2019-10-10 Lg Electronics Inc. Image display device and image display system comprising same
DE102017123319A1 (de) * 2017-10-09 2019-04-11 Sennheiser Electronic Gmbh & Co. Kg Verfahren und System zur Erfassung und Synchronisation von Audio- und Videosignalen und Audio/Video-Erfassungs- und Synchronisationssystem
KR101969081B1 (ko) * 2017-11-13 2019-04-16 주식회사 카이 영상 장치 및 영상 장치의 동기화 방법
EP3509024A1 (en) * 2018-01-08 2019-07-10 Facebook, Inc. Multivision display
US10880685B2 (en) * 2018-01-08 2020-12-29 Facebook, Inc. Provisioning content across multiple devices
JP7173049B2 (ja) * 2018-01-10 2022-11-16 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US11467795B2 (en) * 2018-06-05 2022-10-11 Videri Inc. Systems and methods for mapping an orchestrated digital display system
FR3083041B1 (fr) * 2018-06-21 2023-05-12 Amadeus Sas Synchronisation d'afficheurs inter-dispositifs
US20200004489A1 (en) * 2018-06-29 2020-01-02 Microsoft Technology Licensing, Llc Ultrasonic discovery protocol for display devices
WO2020009683A1 (ru) * 2018-07-02 2020-01-09 Сергей Васильевич ДУБИНЕВИЧ Способ предоставления рекламной информации и система для его осуществления
US10614777B2 (en) * 2018-09-27 2020-04-07 Intel Corporation Methods and apparatus for synchronizing embedded display panels of mobile devices via programmable synchronization links
WO2020131059A1 (en) * 2018-12-20 2020-06-25 Rovi Guides, Inc. Systems and methods for recommending a layout of a plurality of devices forming a unified display
AU2020273377A1 (en) * 2020-06-30 2022-01-20 Scimian Pty Ltd Image Processing System

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060092095A1 (en) * 2004-11-02 2006-05-04 Industrial Technology Research Institute Multi-display system
JP2007026015A (ja) 2005-07-15 2007-02-01 Hitachi Ltd 情報表示方法
US20120206319A1 (en) 2011-02-11 2012-08-16 Nokia Corporation Method and apparatus for sharing media in a multi-device environment
US20120280898A1 (en) 2011-05-03 2012-11-08 Nokia Corporation Method, apparatus and computer program product for controlling information detail in a multi-device environment

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7242369B2 (en) 2004-10-26 2007-07-10 Benq Corporation Method of displaying text on multiple display devices
JP4914252B2 (ja) * 2006-03-23 2012-04-11 キヤノン株式会社 画像処理装置、表示画面送信方法、制御プログラム
US20090160731A1 (en) * 2007-12-20 2009-06-25 Motorola, Inc. Method for clustering displays of display devices
EP2299352B1 (en) * 2008-06-30 2018-12-19 NEC Corporation Information processing device, display control method, and recording medium
US8866840B2 (en) 2008-09-08 2014-10-21 Qualcomm Incorporated Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server
KR20100100414A (ko) * 2009-03-06 2010-09-15 엘지전자 주식회사 복합 디스플레이 시스템 및 그 제어 방법
US20100293502A1 (en) 2009-05-15 2010-11-18 Lg Electronics Inc. Mobile terminal equipped with multi-view display and method of controlling the mobile terminal
US20110109526A1 (en) 2009-11-09 2011-05-12 Qualcomm Incorporated Multi-screen image display
US20110239142A1 (en) 2010-03-25 2011-09-29 Nokia Corporation Method and apparatus for providing content over multiple displays
KR101881925B1 (ko) 2012-01-06 2018-07-26 삼성전자주식회사 복수의 휴대 단말들을 이용하여 멀티 비전 시스템을 구축하는 방법 및 이를 위한 장치
US20130222266A1 (en) 2012-02-24 2013-08-29 Dan Zacharias GÄRDENFORS Method and apparatus for interconnected devices
KR101644422B1 (ko) * 2012-03-13 2016-08-02 삼성전자주식회사 디스플레이 장치, 소스 장치 및 방법
US9235373B2 (en) * 2012-06-30 2016-01-12 At&T Intellectual Property I, L.P. Real-time management of content depicted on a plurality of displays

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060092095A1 (en) * 2004-11-02 2006-05-04 Industrial Technology Research Institute Multi-display system
JP2007026015A (ja) 2005-07-15 2007-02-01 Hitachi Ltd 情報表示方法
US20120206319A1 (en) 2011-02-11 2012-08-16 Nokia Corporation Method and apparatus for sharing media in a multi-device environment
US20120280898A1 (en) 2011-05-03 2012-11-08 Nokia Corporation Method, apparatus and computer program product for controlling information detail in a multi-device environment

Also Published As

Publication number Publication date
WO2015030545A1 (en) 2015-03-05
US20150061971A1 (en) 2015-03-05
CN105493025A (zh) 2016-04-13
EP3039530A1 (en) 2016-07-06
US9696958B2 (en) 2017-07-04
EP3039530B1 (en) 2021-11-17
CN105493025B (zh) 2018-11-30
KR20150027892A (ko) 2015-03-13
EP3039530A4 (en) 2017-04-05

Similar Documents

Publication Publication Date Title
KR102183413B1 (ko) 콘텐트 표현 방법 및 시스템
US20150067521A1 (en) Method and apparatus for presenting content using electronic devices
KR102221023B1 (ko) 이미지를 처리하는 전자장치 및 방법
KR102154800B1 (ko) 전자 장치의 데이터 스트리밍 방법 및 그 전자 장치
US10121449B2 (en) Method and apparatus for screen sharing
US9678705B2 (en) Displaying information on wearable devices
KR102275033B1 (ko) 데이터 처리 방법 및 그 전자 장치
US9747945B2 (en) Method for creating a content and electronic device thereof
EP2963889A1 (en) Method and apparatus for sharing data of electronic device
KR102160473B1 (ko) 볼륨을 제어하는 방법 및 전자 장치
KR102268540B1 (ko) 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
KR20150100394A (ko) 이미지 표시 방법 및 장치
KR20160089079A (ko) 데이터 송수신 방법 및 장치
KR20150133037A (ko) 콘텐츠 재생 방법 및 이를 구현하는 전자 장치
KR102226817B1 (ko) 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치
KR102131626B1 (ko) 미디어 데이터 싱크 방법 및 장치
KR102246645B1 (ko) 영상 획득을 위한 장치 및 방법
KR102213429B1 (ko) 사운드 제공 방법 및 이를 구현하는 전자 장치
KR20150059282A (ko) 데이터 처리 방법 및 그 전자 장치
US10983745B2 (en) Display device and display system including same
US9965246B2 (en) Method for outputting screen information through sound and electronic device for supporting the same
KR102157295B1 (ko) 이미지 처리 방법 및 그 전자 장치
US20150326630A1 (en) Method for streaming video images and electrical device for supporting the same
KR20160024188A (ko) 데이터 처리 방법 및 그 전자 장치

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)