KR102063952B1 - 멀티 디스플레이 장치 및 멀티 디스플레이 방법 - Google Patents

멀티 디스플레이 장치 및 멀티 디스플레이 방법 Download PDF

Info

Publication number
KR102063952B1
KR102063952B1 KR1020120112638A KR20120112638A KR102063952B1 KR 102063952 B1 KR102063952 B1 KR 102063952B1 KR 1020120112638 A KR1020120112638 A KR 1020120112638A KR 20120112638 A KR20120112638 A KR 20120112638A KR 102063952 B1 KR102063952 B1 KR 102063952B1
Authority
KR
South Korea
Prior art keywords
user
display unit
screen
display
input
Prior art date
Application number
KR1020120112638A
Other languages
English (en)
Other versions
KR20140046319A (ko
Inventor
김대명
곽지연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120112638A priority Critical patent/KR102063952B1/ko
Priority to JP2013212346A priority patent/JP2014078234A/ja
Priority to TW102136435A priority patent/TW201415295A/zh
Priority to US14/050,936 priority patent/US9696899B2/en
Priority to EP13188166.6A priority patent/EP2720110A3/en
Priority to CN201910488926.2A priority patent/CN110221655A/zh
Priority to CN201310470324.7A priority patent/CN103729160B/zh
Priority to US14/193,398 priority patent/US20140181700A1/en
Publication of KR20140046319A publication Critical patent/KR20140046319A/ko
Priority to US14/683,517 priority patent/US20150212647A1/en
Priority to US15/622,782 priority patent/US20170285906A1/en
Priority to US16/389,422 priority patent/US11360728B2/en
Application granted granted Critical
Publication of KR102063952B1 publication Critical patent/KR102063952B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

멀티 디스플레이 장치를 개시한다. 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 장치는, 제1 디스플레이부가 배치된 제1 바디와, 제2 디스플레이부가 배치된 제2 바디와, 제1 바디 및 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부와, 제1 디스플레이부 및 제2 디스플레이부가 구조화되지 않은 제1화면 및 제2화면을 각각 디스플레이하면, 제1 화면의 비결정적인 위치에 대한 제1 사용자 조작 및 제2 화면의 비결정적인 위치에 대한 제2 사용자 조작을 감지하는 센서부와, 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여 그 조합 결과에 대응되는 동작을 수행하도록 제어하는 제어부를 포함한다.

Description

멀티 디스플레이 장치 및 멀티 디스플레이 방법{MULTI DISPLAY APPARATUS AND MULTI DISPLAY METHOD}
본 발명은 멀티 디스플레이 장치에 관한 것으로, 보다 상세하게는 멀티 디스플레이 장치의 각 디스플레이부를 통해 입력을 수행하고, 그에 따른 출력을 수행하는 멀티 디스플레이 장치 및 멀티 디스플레이 방법에 관한 것이다.
최근 사용되고 있는 스마트 폰 등의 휴대용 전자기기는 하나의 디스플레이를 구비하는 경우가 일반적이다.
그러나, 휴대용 전자기기에 탑재되는 CPU의 성능이 향상되면서 다양한 어플리케이션을 동시에 실행할 수 있는 멀티 태스킹 환경이 갖추어지게 됨에 따라, 하나의 디스플레이만을 구비한 싱글 디스플레이 장치는 그 성능을 효과적으로 활용하기 어렵다는 문제에 직면하게 되었다.
또한, 배터리 기술과 발열 처리 시스템의 발달로 휴대용 전자기기가 반드시 하나의 디스플레이만을 구비해야 한다는 설계 패러다임은 더 이상 진리로 인정받기 어렵게 되었다.
아울러, 터치 스크린의 보급과 사용자 경험 중심의 인터페이스 환경에서 좀더 다양한 사용자 경험을 휴대용 전자기기에 도입할 필요성이 제기되었다.
이러한 배경하에 최근 2개 이상의 디스플레이를 구비하는 휴대용 전자기기 즉, 멀티 디스플레이 장치가 등장하고 있다.
멀티 디스플레이 장치는 강력한 하드웨어 성능을 바탕으로 멀티 디스플레이상에 여러 어플리케이션의 실행 결과를 표시하게 되므로, 멀티 태스킹 환경에 적합할 뿐 아니라, 사용자에게 복수의 디스플레이를 통해 다양하고 풍부한 정보를 제공하게 되어, 새로운 사용자 경험을 제공할 수 있게 되므로, 차세대 디스플레이 장치의 하나로 주목받고 있다.
멀티 디스플레이 장치에서는 복수의 디스플레이를 통해 출력뿐 아니라, 입력을 수행할 수도 있다. 따라서, 멀티 디스플레이 장치에서 각 디스플레이부를 통한 입력에 따라 좀더 다양한 입출력을 수행할 수 있는 기술에 대한 필요성이 대두되고 있다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은, 멀티 디스플레이 장치의 각 디스플레이부를 통해 구조화되지 않은 입력을 수행하고, 각 입력을 조합하여 대응되는 출력을 수행할 수 있는 멀티 디스플레이 장치 및 멀티 디스플레이 방법을 제공하기 위함이다.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치는, 제1 디스플레이부가 배치된 제1 바디와, 제2 디스플레이부가 배치된 제2 바디와, 상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부와, 상기 제1 디스플레이부 및 상기 제2 디스플레이부가 구조화되지 않은 제1화면 및 제2화면을 각각 디스플레이하면, 상기 제1 화면의 비결정적인 위치에 대한 제1 사용자 조작 및 상기 제2 화면의 비결정적인 위치에 대한 제2 사용자 조작을 감지하는 센서부 및 상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여 그 조합 결과에 대응되는 동작을 수행하도록 제어하는 제어부를 포함한다.
또한, 상기 제어부는, 상기 제1사용자 조작에 따라 상기 제2사용자 조작과 매칭되는 기능을 변경하고, 상기 제2사용자 조작이 감지되면, 상기 변경된 기능에 따라 동작을 수행하도록 제어할 수 있다.
이때 상기 제2사용자 조작은 드래그에 의한 선 입력이고, 상기 제어부는, 상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 입력되는 선의 굵기 또는 투명도를 증가시키고, 상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 입력되는 선의 굵기 또는 투명도를 감소시키며, 상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 선의 질감 또는 두께를 변경시킬 수 있다.
또한, 상기 제어부는, 상기 제1 사용자 조작은 터치&홀드 입력이고, 터치 입력에 의한 제2 사용자 조작이 상기 제1 사용자 조작과 함께 감지되면, 상기 제2 사용자 조작에 대응되는 메뉴를 디스플레이할 수 있다.
또한, 상기 제어부는, 상기 제1 사용자 조작이 감지되면 상기 제1 사용자 조작에 따라 상기 제2 디스플레이부에 표시된 화면을 변경하고, 상기 제2 사용자 조작이 감지되면 상기 제1 사용자 조작에 의해 변경되어 표시된 화면을 상기 제2 사용자 조작에 따라 변경할 수 있다.
또한, 상기 제어부는, 상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 제2 디스플레이부에 표시된 상기 화면을 확대하고, 상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 제2 디스플레이부에 표시된 상기 화면을 축소하고, 상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 제2 디스플레이부에 표시된 화면을 회전시킬 수 있다.
또한, 상기 제어부는, 상기 제1 사용자 조작이 감지되면, 상기 제1 디스플레이부에 표시된 콘텐츠를 추출하고, 상기 제2 사용자 조작이 감지되면, 상기 제2 디스플레이부 상에 상기 추출된 콘텐츠에 대응되는 화면을 표시할 수 있다.
또한, 상기 제어부는 상기 제1 사용자 조작에 따라 상기 제1 디스플레이부에 표시된 화면을 캡쳐하고, 상기 제2 디스플레이부에서 상기 제2 사용자 조작이 이루어진 위치에 상기 캡쳐된 화면을 표시할 수 있다.
상기 제1 사용자 조작이 감지되고 있는 중에 상기 제2 화면의 비결정적인 위치에 대한 제3 사용자 조작이 감지되는 경우,
본 발명의 다양한 실시 예에 따른 멀티 디스플레이 장치의 제어부는, 상기 제1 디스플레이부 및 상기 제2 디스플레이부에 표시된 콘텐츠를 추출하고, 상기 제2 사용자 조작이 감지되면, 상기 제2 디스플레이부 상에 상기 추출된 콘텐츠에 대응되는 화면을 표시할 수 있다.
상술한 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른 멀티 디스플레이 장치는 제1 디스플레이부가 배치된 제1 바디와, 제2 디스플레이부가 배치된 제2 바디와, 상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부와, 상기 제1 디스플레이부 및 상기 제2 디스플레이부가 구조화되지 않은 제1화면 및 제2화면을 각각 디스플레이하면, 상기 제1 화면의 비결정적인 위치에 대한 제1 사용자 조작 및 상기 제2 화면의 비결정적인 위치에 대한 제2 사용자 조작을 감지하는 센서부와, 상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 연결하여 하나의 사용자 제스쳐로 인식하고, 상기 사용자 제스쳐에 대응되는 실행 화면을 상기 제1 디스플레이부 및 상기 제2 디스플레이부 중 적어도 하나에 디스플레이하는 제어부를 포함한다.
이때, 상기 제1 사용자 조작은 사용자 신체를 이용하여 상기 제1 디스플레이부에 근접 또는 터치하는 입력이고, 상기 제2 사용자 조작은 입력펜(200)을 이용하여 상기 제2 디스플레이부에 근접 또는 터치하는 입력일 수 있다.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 멀티 디스플레이 방법은, 제1 디스플레이부가 배치된 제1 바디, 제2 디스플레이부가 배치된 제2 바디와, 상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부를 포함하는 멀티디스플레이 장치의 멀티 디스플레이 방법에 있어서, 상기 제1 디스플레이부 및 상기 제2 디스플레이부가 구조화되지 않은 제1화면 및 제2화면을 각각 디스플레이하면, 상기 제1 화면의 비결정적인 위치에 대한 제1 사용자 조작 및 상기 제2 화면의 비결정적인 위치에 대한 제2 사용자 조작을 감지하는 단계와, 상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여 그 조합 결과에 대응되는 동작을 수행하는 단계를 포함한다.
또한, 상기 동작을 수행하는 단계는, 상기 제1사용자 조작에 따라 상기 제2사용자 조작과 매칭되는 기능을 변경하는 단계와, 상기 제2사용자 조작이 감지되면, 상기 변경된 기능에 따라 동작을 수행하는 단계를 포함할 수 있다.
또한, 상기 제2사용자 조작은 드래그에 의한 선 입력이고, 상기 기능을 변경하는 단계는, 상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 입력된 선의 굵기를 증가시키고, 상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 입력된 선의 굵기를 감소시키며, 상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 선의 질감을 변경시킬 수 있다.
또한, 상기 동작을 수행하는 단계는, 상기 제1 사용자 조작은 터치&홀드 입력이고, 터치 입력에 의한 제2 사용자 조작이 상기 제1 사용자 조작과 함께 감지되면, 상기 제2 사용자 조작에 대응되는 메뉴를 디스플레이할 수 있다.
또한, 상기 동작을 수행하는 단계는, 상기 제1 사용자 조작이 감지되면 상기 제1 사용자 조작에 따라 상기 제2 디스플레이부에 표시된 화면을 변경하는 단계와, 상기 제2 사용자 조작이 감지되면 상기 제1 사용자 조작에 의해 변경되어 표시된 화면을 상기 제2 사용자 조작에 따라 변경하는 단계를 포함할 수 있다.
또한, 상기 화면을 변경하는 단계는, 상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 제2 디스플레이부에 표시된 상기 화면을 확대하고, 상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 제2 디스플레이부에 표시된 상기 화면을 축소하고, 상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 제2 디스플레이부에 표시된 화면을 회전시킬 수 있다.
또한, 상기 동작을 수행하는 단계는, 상기 제1 사용자 조작이 감지되면, 상기 제1 디스플레이부에 표시된 콘텐츠를 추출하는 단계와, 상기 제2 사용자 조작이 감지되면, 상기 제2 디스플레이부 상에 상기 추출된 콘텐츠에 대응되는 화면을 표시하는 단계를 포함할 수 있다.
또한, 상기 추출하는 단계는, 상기 제1 사용자 조작에 따라 상기 제1 디스플레이부에 표시된 화면을 캡쳐하고, 상기 화면을 표시하는 단계는, 상기 제2 디스플레이부에서 상기 제2 사용자 조작이 이루어진 위치에 상기 캡쳐된 화면을 표시할 수 있다.
상술한 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른 멀티 디스플레이 방법은, 제1 디스플레이부가 배치된 제1 바디, 제2 디스플레이부가 배치된 제2 바디와, 상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부를 포함하는 멀티디스플레이 장치의 멀티 디스플레이 방법에 있어서, 상기 제1 디스플레이부 및 상기 제2 디스플레이부가 구조화되지 않은 제1화면 및 제2화면을 각각 디스플레이하면, 상기 제1 화면의 비결정적인 위치에 대한 제1 사용자 조작 및 상기 제2 화면의 비결정적인 위치에 대한 제2 사용자 조작을 감지하는 단계와, 상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 연결하여 하나의 사용자 제스쳐로 인식하고, 상기 사용자 제스쳐에 대응되는 실행 화면을 상기 제1 디스플레이부 및 상기 제2 디스플레이부 중 적어도 하나에 디스플레이하는 단계를 포함한다.
또한, 상기 제1 사용자 조작은 사용자 신체를 이용하여 상기 제1디스플레이부에 근접 또는 터치하는 입력이고, 상기 제2 사용자 조작은 입력펜(200)을 이용하여 상기 제2디스플레이부에 근접 또는 터치하는 입력일 수 있다.
상기와 같은 본 발명의 다양한 실시 예에 따르면, 멀티 디스플레이 장치의 각 디스플레이부를 통해 구조화되지 않은 독립적인 입력을 수행하고, 각 입력을 조합하여 대응되는 출력을 수행할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치의 구성을 도시한 블록도,
도 2는 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치의 동작을 나타낸 흐름도,
도 3은 구조화된 화면의 다양한 예를 도시한 도면,
도 4는 제1 사용자 조작이 있는 경우, 제2 사용자 조작에 매칭되는 기능을 변경하는 멀티 디스플레이 장치의 동작을 설명하기 위한 흐름도,
도 5는 도 4의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 참고도,
도 6은 도 4의 다른 실시 예를 도시한 흐름도,
도 7은 도 6의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 참고도,
도 8은 도 4의 또 다른 실시 예를 도시한 흐름도,
도 9는 도 8의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 참고도,
도 10은 도 2의 구체적인 다른 실시 예를 도시한 흐름도,
도 11은 도 10의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 참고도.
도 12는 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 장치의 동작을 설명하기 위한 흐름도,
도 13은 도 12의 구체적인 일 실시 예를 도시한 흐름도,
도 14은 도 13의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 참고도,
도 15는 도 12의 구체적인 다른 실시 예를 도시한 흐름도,
도 16은 도 15의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 참고도,
도 17는 도 12의 구체적인 또 다른 실시 예를 도시한 흐름도,
도 18은 도 17의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 참고도,
도 19는 본 발명의 다양한 다른 실시 예에 따른 멀티 디스플레이 장치의 동작을 설명하기 위한 흐름도,
도 20은 도 19의 구체적인 일 실시 예를 도시한 흐름도,
도 21 및 22는 도 20의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 도면,
도 24는 도 19의 구체적인 다른 실시 예를 도시한 흐름도,
도 25는 도 24의 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 화면을 도시한 참고도,
도 26은 본 발명의 다양한 실시 예에 따른 멀티디스플레이 장치의 구성을 설명하기 위한 블럭도,
도 27은 제어부의 하드웨어 구성을 도시한 블록도,
도 28는 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치의 시스템 계층 구조를 설명하기 위한 도면,
도 29는 제1 디스플레이부 또는 제2 디스플레이부의 영상 출력부의 회로구성을 도시한 도면,
도 30은 도 29의 표시패널 내의 R, G, B 화소를 구성하는 회로 구조를 설명하기 위한 도면,
도 31은 터치스크린부를 포함하는 제1 디스플레이부 또는 제2 디스플레이부의 단면도,
도 32는 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치의 디스플레이 구동부를 도시한 블록도,
도 33은 본 발명의 다른 실시 예에 따른 디스플레이 구동부 구성을 도시한 블록도,
도 34는 본 발명의 일 실시 예에 따른 근접 터치를 설명하기 위한 도면,
도 35는 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치의 세부적인 사시도,
도 36 내지 도 38은 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치가 힌지부를 기준으로 다양하게 변형된 상태를 나타내는 사시도,
도 39 및 도 40은 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치가 다양한 방향으로 세워진 스탠딩 상태를 나타내는 사시도,
도 41 및 도 42은 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치의 두 개의 카메라 배치를 설명하기 위한 도면, 그리고,
도 43 내지 47은 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 방법을 도시한 흐름도이다.
이하에서는 본 발명의 다양한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 명세서에서는 멀티 디스플레이 장치는 하나 혹은 그 이상의 터치 스크린으로 구성된 디스플레이를 구비하며, 어플리케이션을 실행하거나 컨텐츠를 표시 가능하도록 구성되는 장치로써, 예를 들면, 태블릿(Tablet) 개인 컴퓨터(Personal Computer: PC), 휴대용 멀티미디어 재생 장치(Portable Multimedia Player: PMP), 개인 정보 단말기(Personal Digital Assistant: PDA), 스마트 폰(Smart Phone), 휴대폰, 디지털 액자 등을 포함할 수 있다. 하기에서는 셀룰러 폰 혹은 스마트 폰으로 구성되는 멀티 디스플레이 장치에 대해서 본 발명의 실시 예들을 설명할 것이나, 본 발명이 이러한 구성으로 한정되지 않음에 유의하여야 한다.
도 1은 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치(100)의 구성을 도시한 블록도이고, 도 2는 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치(100)의 동작을 나타낸 흐름도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치(100)는 제1바디(2), 제2바디(4), 힌지부(185), 센서부(150) 및 제어부(130)를 포함한다.
제1바디(2)는 멀티 디스플레이 장치(100)의 제1디스플레이부(190a)를 포함한다. 또한, 도 1에 도시된 것처럼 제1바디(2)는 후술하는 센서부(150), 제어부(130)를 포함할 수 있다. 다만, 센서부(150), 제어부(130)는 제2바디(3)에 포함되어도 무방할 것이다. 그 밖에도, 제1 바디(2)는 제1디스플레이부(190a)를 구동하기 위한 회로부품(미도시), 이들을 수용하기 위한 베젤(미도시)을 더 포함할 수 있으나, 설명의 편의를 위하여 더 이상의 구체적인 구성 및 설명은 생략한다.
제2바디(4)는 멀티 디스플레이 장치(100)의 제2디스플레이부(190b)를 포함한다. 그 밖에도, 제2 바디(4)는 제2디스플레이부(190b)를 구동하기 위한 회로부품(미도시)와 이들을 수용하기 위한 베젤(미도시)을 포함하는 구성이다. 상기 회로부품은 제1바디(2) 또는 제2바디(4) 어느 한 쪽에 포함될 수도 있고, 양쪽에 각각 포함될 수도 있다. 제1바디(2)와 제2바디(4)는 후술하는 힌지부에 의해 서로 연결된다.
힌지부(185)는 상기 제1바디(2) 및 상기 제2바디(4)를 연결하여 회전 가능하도록 지지하는 구성이다. 구체적으로, 힌지부(185)는 제1바디(2)와 제2바디(4)가 서로 연결될 수 있도록 물리적으로 결합하며, 결합된 상태에서 제1바디(2) 및 제2바디(4)가 각각 회전될 수 있도록 샤프트 역할을 한다. 제1 및 제2바디(4)와 힌지부(185)의 외관 구성에 대해서는 후술하는 부분에서 도면과 함께 구체적으로 설명하기로 한다. 다만, 힌지부(185)는 후술하는 구조 외에 플렉서블한(Flexible) 연결부, 혹은 플렉서블한 터치스크린의 일부로 구현 가능하다.
센서부(150)는 사용자 조작을 감지하는 구성이다. 예를 들어, 디스플레이부(190a, 190b)를 통해 사용자 객체의 터치 입력이 있는 경우, 터치 입력의 위치(좌표)와 입력 종류를 감지하는 역할을 수행한다. 특히, 센서부(150)는 도 2에 도시된 것처럼 제1 디스플레이부(190a) 및 제2 디스플레이부(190b)가 비구조화된 제1화면 및 제2화면을 각각 디스플레이하면, 제1 화면의 비결정적인 위치에 대한 제1 사용자 조작 및 제2 화면의 비결정적인 위치에 대한 제2 사용자 조작을 감지한다.
구조화란, 사용자가 선택 가능한 각종 메뉴나 기타 객체들이 기 설정된 레이아웃에 따라 배치된 상태를 의미한다. 즉, 구조화된 화면은 이러한 레이아웃에 의해 구조화된 인터페이스를 제공하는 화면이다. 구조화된 화면의 예로, 도 3에 도시된 것처럼 다양한 종류의 도형 모양의 템플릿(template)(310)이나, 숫자나 텍스트 데이터의 입력이 가능한 키패드(320), 툴바(330), 메뉴버튼(340), 스크롤 바(350) 등이 표시된 화면이 있다. 사용자는 화면상의 기 설정된 위치에 있는 메뉴의 버튼을 간단하게 터치하거나 터치한 상태에서 움직이는 동작(드래그)하는 등으로 입력을 수행할 수 있게 된다. 반면, 비 구조화된 화면이란, 구조화된 인터페이스를 제공하지 않는 화면을 의미한다. 구조화되지 않은 화면이 디스플레이된 상태에서는 사용자는 단지 화면의 비결정적 위치를 드래그하거나, 기 설정된 시간 동안 터치하여(터치&홀드 입력) 입력을 수행할 수 있게 된다. 후술하는 표 1 내지 3에서 다양한 사용자 입력 유형을 설명할 것이다.
여기서 비결정적 위치란, 화면 상의 임의의 위치를 의미한다. 다시 말하면, 비결정적 위치는 디스플레이부의 화면 상의 어느 위치에 입력을 수행해도 동일한 결과를 얻을 수 있는 경우의 위치를 의미한다.
본 발명의 다양한 실시 예에서 센서부(150)는 사용자 객체가 멀티 디스플레이장치(100)에 터치 또는 근접되었는지 여부와, 터치 또는 근접이 이루어진 위치를 감지할 수 있다. 또한, 사용자 객체가 사용자의 신체인 경우와 입력펜(200)인 경우를 구별할 수도 있다. 상술한 내용을 뒷받침할 수 있는 기술적 수단에 대해서는 본 명세서 후반부에서 자세히 설명한다.
제어부(130)는 제1 사용자 조작 및 제2 사용자 조작을 조합하여 그 조합 결과에 대응되는 제어 동작을 수행한다. 예를 들어, 제1 디스플레이부(190a)에 터치 입력이 있고, 제2 디스플레이부(190b)에 근접입력이 있는 경우, 제어부(130)는 터치 입력과 근접 입력 각각에 대응되는 동작을 수행할 수도 있지만, 터치 입력과 근접 입력을 조합하여, 그 조합 결과에 대응되는 연산을 수행할 수 있다. 그리고, 제1 디스플레이부(190a) 및 제2 디스플레이부(190b) 중 적어도 하나의 연산 결과에 해당하는 정보를 표시할 수 있다. 제어부(130)의 상세한 동작에 대해서는 이하에서 실시 예 별로 설명할 것이며, 제어부(130)를 구성하는 기술적 수단에 대해서는 뒤에서 자세히 설명하기로 한다.
- 입력 유형 -
먼저, 후술하는 실시 예에서 사용될 다양한 입력 유형을 설명한다. 여기서 사용자 객체를 이용한 입력은 터치, 근접 및 모션 등이 있다. 사용자 객체는 손가락, 손바닥 등과 같은 사용자의 신체 일부이거나, 입력 펜(200)과 같은 기타 물체가 될 수 있다. 입력 펜(200)은 금속과 같은 전도성 물체로 이루어질 수도 있지만, 그 밖의 물체로도 이루어질 수 있다. 가령 입력 펜(200)은 자기장 코일을 포함하고 멀티 디스플레이 장치(100)가 자기장 센서를 구비하는 형태로 구현될 수 있다.
이와 같이, 자기장 코일을 포함하는 입력 펜(200)도 사용자 객체가 될 수 있다. 이처럼 사용자 객체는 멀티 디스플레이 장치(100)가 접촉 또는 기설정 범위 내의 존재를 인식할 수 있는 모든 종류의 물체 또는 신체를 포함한다. 이들은 독자적으로 사용될 수도 있고, 혼용될 수도 있다.
터치는 멀티 디스플레이 장치(100)에 상술한 사용자 객체가 접촉하는 경우, 그 접촉이 있음을 인식할 수 있는 입력 유형을 의미한다. 예를 들어, 왼손과 오른손의 손가락(finger)(특히, 검지 손가락), 엄지(thumb) 또는 터치 스크린에 의해 감지 가능한 사용자 객체(예를 들어 스타일러스 펜)을 이용하여 터치스크린 상에서 하나의 위치 혹은 연속적인 복수의 위치들을 접촉하는 사용자의 동작이다. 터치를 인식하기 위한 기술적 수단에 대해서는 후술하기로 한다.
근접이란 멀티 디스플레이 장치(100)를 직접 터치하거나, 버튼을 누르지 않고, 멀티 디스플레이 장치(100)의 기설정된 범위 내의 사용자 객체를 위치시키는 경우, 기설정된 입력이 있는 것으로 인식할 수 있는 입력 유형을 의미한다. 본 발명의 다양한 실시 예는 상술한 근접과 터치를 구별함을 전제로 한다. 근접을 인식하기 위한 기술적 수단에 대해서는 뒤에서 자세히 설명하기로 한다.
모션이란, 멀티 디스플레이 장치(100)에 근접한 상태로 기설정된 식별가능한 움직임이 있는 경우, 기설정된 입력이 있는 것으로 인식할 수 있는 입력 유형을 의미한다. 모션은 넓은 범위에서 근접에 포함되므로 여기서는 상세한 설명은 생략한다.
이하 표를 참조하여 본 발명에서 사용되는 다양한 입력 유형을 살펴본다. 이하에서는 터치를 중심으로 설명하지만, 근접의 경우도 동일한 기준으로 입력 유형을 나눌 수 있을 것이다. 또한, 전술한 바와 같이 사용자 객체는 사용자의 신체 일부 또는 입력 펜(200)이 될 수 있다.
타입(Type) 마크(Mark)

Single
Finger
Gesture
탭(Tap)
Figure 112012082425682-pat00001
터치&홀드(Touch&Hold)
Figure 112012082425682-pat00002
더블 탭(Double Tap)
Figure 112012082425682-pat00003
드래그(Drag)
Figure 112012082425682-pat00004
드래그&드롭(Drag&Drop)
Figure 112012082425682-pat00005
플릭(Flick)
Figure 112012082425682-pat00006
표 1은 하나의 손가락을 이용한 제스처 타입에 대해 설명한다.
표 1을 참고하면, 하나의 손가락을 이용한 제스처 타입에는 탭(Tap), 터치&홀드(Touch&Hold), 더블 탭(Double Tap), 드래그(Drag), 드래그&드롭(Drag&Drop), 및 플릭(Flick) 등이 있다. 탭(Tap)은 사용자가 사용자 객체를 터치 스크린과 기설정된 시간 내에 접촉했다가 떨어진 동작을 의미 하고, 터치&홀드(Touch&Hold)는 사용자 객체가 터치 스크린과 기설정된 시간 이상 터치되는 동작이며, 더블 탭(Double Tap)은 사용자가 기설정된 시간 내에 빠르게 연속하여 두번 탭을 수행하는 동작을 의미한다. 그리고, 드래그(Drag)는 터치가 이루어진 상태에서 기설정된 방향으로 움직이는 동작이고, 드래그&드롭(Drag&Drop)은 터치 스크린 상의 임의의 객체를 터치한 후 드래그를 수행하여 기 설정된 위치까지 움직인 후 터치 스크린에서 떨어지는 동작이다. 플릭(Flick)은 빠르게 드래그하는 동작이다.
타입(Type) 마크(Mark)

Two
Finger
Gesture
투 핑거 탭(Two finger Tap)
Figure 112012082425682-pat00007
터치&스프레드(Touch&Spread)
Figure 112012082425682-pat00008
핀치 아웃(Pinch Out)
Figure 112012082425682-pat00009
핀치 인(Pinch In)
Figure 112012082425682-pat00010
투 핑거 드래그(Two finger Drag)
Figure 112012082425682-pat00011
크로쓰 투 핑거(Cross Two Finger)
Figure 112012082425682-pat00012
터치&로테이트(Touch&Rotate)
Figure 112012082425682-pat00013
표 2는 두 개의 손가락을 이용한 제스처 타입에 대해 설명한다. 다만 이하에서 사용자 객체의 일 예로 손가락을 설명하지만, 다른 사용자 객체가 사용되는 경우도 동일한 동작으로 정의된다.
표 2를 참고하면, 두 개의 손가락을 이용한 제스처 타입에는 투 핑거 탭(Two finger Tap), 터치&스프레드(Touch&Spread), 핀치 아웃(Pinch Out), 핀치 인(Pinch In), 투 핑거 드래그(Two finger Drag), 크로쓰 투 핑거(Cross Two Finger), 터치&로테이트(Touch&Rotate) 등이 있다. 투 핑거 탭은 두 손가락이 동시에 탭하는 동작이고, 터치&스프레드는 두 손가락이 동시에 터치 스크린을 누르고, 한쪽 손가락은 움직이지 않고, 다른 한쪽만 직선으로 움직이는 동작이다. 핀치 아웃은 동시에 두 손가락이 터치 스크린을 터치한 후 서로 멀어지는 방향으로 드래그하는 동작이며, 핀치 인은 동시에 두 손가락이 터치 스크린을 터치한 뒤 서로 가까워지는 방향으로 드래그하는 동작이다. 투 핑거 드래그는 두 손가락이 동일한 방향으로 드래그하는 동작이며, 크로스 투 핑거는 서로 가까워지는 방향으로 동시에 드래그되어, 엇갈려 다시 서로 멀어지는 방향으로 드래그하는 동작이다. 마지막으로 터치&로테이트는 한 손가락은 터치 스크린에 터치된 상태에서(터치&홀드) 움직이지 않고, 다른 한쪽만 고정된 한 손가락을 중심으로 터치 스크린에 터치된 상태에서 회전하는 동작을 의미한다.
타입(Type) 마크(Mark)
Multi
Finger
Gesture
쓰리 핑거 터치
Figure 112012082425682-pat00014
포 핑거 터치
Figure 112012082425682-pat00015
파이브 핑거 터치
Figure 112012082425682-pat00016
Palm 손바닥(Parm)
Figure 112012082425682-pat00017
표 3은 두 개 이상의 손가락을 이용한 제스처 및 손바닥을 이용한 제스처 타입에 대해 설명한다.
표 3을 참고하면, 두 개 이상의 손가락을 이용한 제스처 타입에는 쓰리 핑거 터치, 포 핑거 터치, 파이브 핑거 터치 등이 있다. 또한, 2개 이상의 손가락을 이용하여 상술한 표 1, 표 2에서와 같이 탭, 드래그, 로테이트 같은 제스처 동작을 수행할 수 있다.
센서부(150)는 상술한 표 1 내지 3의 각각의 입력 유형을 식별하고, 식별 정보를 제어부(130)로 전달한다. 상술한 각 입력 유형은 독립적으로 감지되어 제어부(130)로 전달될 수 있다. 제어부(130)는 센서부(150)가 감지한 각 입력 유형 또는 복수의 입력 유형을 조합한 결과에 대응되는 연산을 처리하여 제1디스플레이부(190a) 또는 제2디스플레이부(190b)에 연산 결과에 해당하는 정보를 표시할 수 있다.
상술한 멀티 디스플레이 장치(100)의 동작은 도 2의 흐름도에 따라 수행될 수 있다.
즉, 먼저 상기 제1 디스플레이부 및 상기 제2 디스플레이부가 구조화되지 않은 제1화면 및 제2화면을 각각 디스플레이한다(S210). 이러한 상태에서 멀티 디스플레이 장치(100)는 제1 화면 내에서 비결정적인 위치에서 이루어지는 제1 사용자 조작 및 제2 화면 내에서 비결정적인 위치에서 이루어지는 제2 사용자 조작을 각각 감지할 수 있다(S220, S230). 도 2에서는 제1 사용자 조작 감지가 먼저 이루어지고 제2 사용자 조작 감지가 다음에 이루어지는 것으로 설명하였으나, 제1 및 2 사용자 조작 감지는 개별적으로 이루어지고 감지될 수 있다. 제1 및 제2 사용자 조작이 각각 감지되면 멀티 디스플레이 장치(100)는 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여(S240), 그 조합 결과에 대응되는 하나 또는 두 개 이상의 동작을 수행한다(S250). 사용자 조작의 조합에 의해 수행되는 동작은 실시 예에 따라 다양하게 구현될 수 있다.
이하에서는, 비 결정적인 위치에서 이루어지는 제1 및 제2 사용자 조작에 의해 수행되는 동작들의 다양한 예들에 대하여 설명한다.
- 사용자 조작을 위한 셋팅 프로세스를 단축하는 실시 예 -
우선 멀티 디스플레이 장치(100)의 제1 디스플레이부(190a)를 통해 제1사용자 조작이 있는 경우, 제2사용자 조작에 매칭되는 기능을 변경하는 실시 예를 설명한다.
어떠한 작업을 수행하기 위해 디스플레이부에 사용자 조작을 수행하는 경우, 사용자 조작에 매칭되는 기능을 설정할 필요가 있다. 예를 들어, 디스플레이부의 화면 상에서 사용자 조작에 따라 선을 긋는 작업을 수행하는 경우, 상황에 따라 선의 두께를 조절할 필요가 생긴다. 이때, 구조화된 인터페이스를 통해 선의 두께를 조절하기 위한 메뉴화면으로 전환하여, 선의 두께를 조절할 수 있다. 하지만, 이러한 작업은 번거롭고, 사용자 조작에 매칭되는 기능의 변경이 잦은 경우, 불편을 초래한다. 따라서, 사용자 조작을 위한 셋팅 프로세스를 단축하는 방안이 요구된다.
도 4는 제1사용자 조작이 있는 경우, 제2사용자 조작에 매칭되는 기능을 변경하는 멀티 디스플레이 장치(100)의 동작을 설명하기 위한 흐름도이고, 도 5는 도 4의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시 한 참고도이다.
도 4를 참조하면, 먼저 센서부(150)는 제1 디스플레이부(190a) 또는 제2 디스플레이부(190b)에서 터치되는 지점을 센싱하여 제어부(130)로 통지한다. 제어부(130)는 터치 지점의 개수 및 위치에 따라 핀치 인 또는 핀치 아웃이 이루어졌는지를 판단한다(S410). 핀치 아웃이란 사용자가 두 손가락으로 화면을 터치한 후 터치 지점을 벌리는 동작을 의미하고, 핀치 인이란 두 손가락으로 화면을 터치한 후 터치 지점을 오므리는 동작을 의미한다. 제어부(130)는 두 개 이상의 지점에서 터치가 감지되고 감지된 좌표들 간의 직선 거리가 증가하면 핀치 아웃으로 판단하고, 감소하면 핀치 인으로 판단할 수 있다. 핀치 인, 핀치 아웃이 상술한 제1 사용자 조작이 될 수 있다.
제어부(130)는 판단된 핀치 입력에 대응되는 동작을 수행할 수 있다. 즉, 도 4에 도시된 바와 같이 핀치 입력에 따라 선의 굵기를 조절하거나, 투명도나 기타 속성을 변경할 수 있다.
이러한 상태에서, 다른 디스플레이부의 비 결정적인 위치에서 드래그가 이루어지면, 제어부(130)는 센서부(150)를 통해서 드래그 경로를 감지할 수 있다(S430). 여기서의 드래그는 상술한 제2 사용자 조작이 될 수 있다.
제어부(130)는 드래그 경로를 따라 선을 표시하는 동작을 수행한다(S440). 이 경우, 선의 두께나 투명도 등과 같은 표시 속성은 제1 사용자 조작에 의해 결정된 속성이 사용될 수 있다.
도 5의 (1)은 선의 두께를 조절하는 상태를 설명하기 위한 도면이다.
도 5의 (1)에 따르면, 왼쪽에 위치한 제1 디스플레이부(190a)는 구조화되지 않은 제1화면을 디스플레이하고, 센서부(150)는 제1화면의 비결정적 위치에 제1사용자 조작을 감지한다. 뒤에서 설명하겠지만, 이러한 동작은 터치 센서에 의해 수행된다. 그리고, 오른쪽에 위치한 제2 디스플레이부(190b) 역시 구조화되지 않은 제2 화면을 디스플레이한다.
도 5 에 도시된 바와 같이 사용자는 제1 디스플레이부(190a)에서 손가락을 이용해 핀치인 또는 핀치아웃과 같은 터치 입력을 수행할 수 있다. 이와 함께, 사용자는 제2 디스플레이부(190b)에서 입력펜(200)이나 자신의 손가락, 기타 객체 등을 이용하여 터치 입력을 수행할 수 있다. 설명의 편의를 위하여, 도 5에서는 입력펜(200)을 설명하는 경우로 한정하여 도시하였으며, 이하에서 설명할 다양한 실시 예에 있어도, 일 측 디스플레이부에 대해서 입력펜(200)을 이용하여 조작하고, 타 측 디스플레이부에 대해서는 사용자 신체를 이용하여 조작하는 경우로 한정하여 설명한다. 하지만, 상술한 바와 같이 양 디스플레이부 모두에 대해 입력펜(200)을 이용해 조작하거나, 사용자 신체만을 이용해 조작할 수도 있음은 물론이다. 이하에서는 구체적인 상황과 설명의 편의를 고려하여 설명할 것이지만, 설명하는 실시 예는 상술한 모든 종류의 조작 방법으로 수행될 수 있을 것이다.
도 5의 (1)의 실시 예에서 제어부(130)는 왼쪽 디스플레이부에 손가락을 이용해 핀치인에 의한 터치 입력이 있는 경우, 오른쪽 디스플레이부에 대한 입력펜(200)(또는 사용자 신체)의 입력 경로를 따라 변환된 두께에 따라 선을 표시한다. 따라서, 오른쪽 디스플레이부 상의 입력펜(200)의 드래그 경로를 따라 점점 더 얇은 선이 표시된다. 반면, 왼쪽 디스플레이부에 손가락을 이용해 핀치아웃에 의한 터치 입력이 있는 경우, 제어부(130)는 오른쪽 디스플레이부에 대한 입력펜(200)의 입력 경로에 따라 변환된 두께에 따라 선을 표시한다. 이에 따라 오른쪽 디스플레이부 상의 입력펜(200)의 드래그 경로를 따라 점점 더 두꺼운 선이 표시된다.
도 5의 (2)는 (1)과 유사한 실시 예로 제1사용자 조작이 핀치인 또는 핀치 아웃에 의한 터치 입력인 경우, 제2사용자 조작에 의해 출력되는 선의 투명도를 변경하는 멀티 디스플레이 장치(100)의 동작을 도시하고 있다. 예를 들어, 제1사용자 조작이 핀치인에 의한 터치 입력인 경우, 입력펜(200)에 의해 제2디스플레이부(190b)에 선을 긋는 작업을 수행하는 경우, 입력펜(200)의 의해 그어지는 선의 투명도가 낮아진다. 반면, 제1사용자 조작이 핀치아웃에 의한 터치 입력인 경우, 입력펜(200)의 의해 그어지는 선의 투명도가 높아진다. 물론, 핀치인과 핀치아웃에 대응되는 출력은 서로 반대로 설정되어도 무방할 것이다.
이러한 실시 예에서 사용자는 멀티 디스플레이 장치(100)의 제1디스플레이부(190a)에 간단하게 핀치인 또는 핀치아웃에 의한 터치 입력만으로 제2디스플레이부(190b)에 대한 입력 표현의 굵기나 투명도를 변경할 수 있게 된다. 즉, 제2사용자 조작에 매칭되는 기능을 변경하기 위해 별도의 구조화된 인터페이스를 이용하여 여러 단계의 조작을 수행할 필요가 없게 된다. 사용자는 구조화되지 않은 화면 상의 어느 지점에 입력을 수행함으로써, 사용자 조작에 대응되는 기능을 쉽게 변경할 수 있게 된다.
도 6은 도 4의 다른 실시 예를 도시한 흐름도이고, 도 7은 도 6의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시한 참고도이다.
도 6을 참조하면, 센서부(150)는 터치&홀드에 의한 터치 입력, 즉, 제1 디스플레이부(190a)에 최초 터치가 이루어지고 접촉이 떨어지지 않은 상태로 기 설정된 시간 이상 유지되는 제1 사용자 조작을 감지한다(S610). 즉, 제1 디스플레이부(190a)는 구조화되지 않은 제1화면을 디스플레이하고, 센서부(150)는 상기 제1화면의 비결정적 위치에 터치&홀드에 의한 터치 입력이 있음을 감지한다. 뒤에서 설명하겠지만, 이러한 동작은 터치 센서에 의해 수행된다.
이 경우 제어부(130)는 제1사용자 조작이 제2사용자 조작에 대응되는 도구를 전환하기 위한 것으로 인식하고, 제2사용자 조작은 드래그 경로를 따라 입력을 수행하기 위한 동작으로 인식한다(S630). 그리고, 변경된 도구에 따라 드래그 경로를 따라 입력을 수행한다(S640). 도 7의 실시 예에서 제어부(130)는 왼쪽 디스플레이부에 손가락을 이용해 터치&홀드에 의한 터치 입력이 있는 경우, 오른쪽 디스플레이부에 대한 입력펜(200)의 입력에 대응되는 도구를 지우개로 전환한다. 그리고, 오른쪽 디스플레이부 상의 입력펜(200)의 드래그 경로를 따라 지우개 입력이 있는 것을 인식하여, 경로 상에 있는 표시를 삭제한다.
위와 달리 사용자가 제1디스플레이부(190a)에 대한 터치&홀드 입력을 중지하는 경우, 즉, 손을 제1디스플레이부(190a)에서 떨어뜨리는 경우, 센서부(150)는 더이상 제1사용자 조작을 감지하지 않고, 제2사용자 조작만을 감지하므로, 제어부(130)는 제 2사용자 조작에 대응되는 동작만을 수행한다. 도 4의 실시 예에서 입력펜(200)의 입력에 대응되는 도구가 지우개에서 다시 원래의 도구로 돌아오고, 원래의 도구에 따라 입력이 수행된다.
이러한 실시 예에서 사용자는 멀티 디스플레이 장치(100)의 제1디스플레이부(190a)에 간단하게 터치&홀드에 의한 터치 입력만으로 제2디스플레이부(190b)에 대한 입력의 도구를 바꿀 수 있게 된다. 즉, 제2사용자 조작에 매칭되는 기능을 변경하기 위해 별도의 구조화된 인터페이스를 이용하여 여러 단계의 조작을 수행할 필요가 없게 된다. 사용자는 구조화되지 않은 화면상의 어느 지점에 입력을 수행함으로써, 사용자 조작에 대응되는 기능을 쉽게 변경할 수 있게 된다.
도 8은 도 4의 또 다른 실시 예를 도시한 흐름도이고, 도 9는 도 8의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시한 참고도이다.
도 8을 참조하면, 먼저 센서부(150)는 로테이션에 의한 터치 입력, 즉, 제1디스플레이부(190a)에 최초 터치가 이루어지고 일방향으로 회전에 의한 드래그가 이루어지는, 제1 사용자 조작을 감지한다(S810). 즉, 제1 디스플레이부(190a)는 구조화되지 않은 제1화면을 디스플레이하고, 센서부(150)는 상기 제1화면의 비결정적 위치에 로테이션에 의한 터치 입력이 있음을 감지한다.
제1사용자 조작이 감지된 후, 제2디스플레이부(190b)에 대한 드래그에 의한 터치 입력이 이루어지는 제2사용자 조작을 감지한다(S820). 여기서, 상기 드래그에 의한 터치 입력은 입력펜(200)에 의해 이루어질 수 있다. 도 9의 실시 예에서 입력펜(200)을 이용해서 오른쪽 디스플레이부에 드래그 입력을 수행하고 있다.
이 경우 제어부(130)는 제1사용자 조작이 제2사용자 조작에 의해 표시되는 선의 질감을 변환하기 위한 것으로 인식하고, 제2사용자 조작은 드래그 경로를 따라 입력을 수행하기 위한 동작으로 인식한다. 그리고, 양자를 조합하여 드래그 경로를 따라 질감이 변화된 선의 입력으로 인식한다(S830).
여기서 질감이란 재질의 특성이 표시되는 것을 의미한다. 예를 들어, 엠보싱(embossing)의 경우 돌출된 부분과 함입된 부분이 번갈아 존재하면서 각각 양각과 음각의 형태로 보이도록 표시하는 것을 의미한다. 다른 예로 얇은 붓의 터치를 표현하거나 굵은 붓의 터치를 표현하는 것이 될 수 있다.
도 9와 같이 제1사용자 조작이 일방향 로테이션(예를 들어 시계방향)에 의한 터치 입력인 경우, 입력펜(200)에 의해 제2디스플레이부(190b)에 표시되는 선 또는 점의 질감이 변형된다(S840). 반면, 제1사용자 조작이 타 방향 로테이션(예를 들어 시계 반대방향)에 의한 터치 입력인 경우, 입력펜(200)의 의해 표시되는 선 또는 점의 질감은 원상태로 돌아오거나, 다른 형태로 변형된다. 즉, 일방향 로테이션의 제1사용자 조작이 있는 경우, 입력펜(200)에 의해 제2 디스플레이부(190b)에 표시되는 선 또는 점이 수채화적인 붓 터치로 표현될 수 있고, 타 방향 로테이션의 제1사용자 조작이 있는 경우, 원상태로 돌아오거나, 좀더 정밀한 붓 터치의 효과가 나도록 표현될 수 있을 것이다. 다만, 이러한 동작은 일 실시 예에 불과하고, 다양한 질감의 표현이 가능할 것이다.
- 도구 메뉴 디스플레이를 구현한 실시 예 -
도 10은 도 2의 구체적인 다른 실시 예를 도시한 흐름도이고, 도 11은 도 10의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시한 참고도이다.
멀티 디스플레이 장치(100)에 터치 입력을 통해 그림을 그리는 작업을 수행하거나, 특정한 도구를 선택하여 작업을 수행하는 경우, 도구에 대한 설정을 변경할 필요가 생긴다. 도 10, 11은 이러한 경우, 손쉽게 도구에 대한 메뉴를 디스플레이할 수 있는 방법을 도시한 것이다.
도 10을 참조하면, 먼저 센서부(150)는 터치&홀드에 의한 터치 입력, 즉, 제1 디스플레이부(190a)에 최초 터치가 이루어지고 기 설정된 시간 이상 터치가 지속되는, 제1 사용자 조작을 감지한다(S1010). 제1 디스플레이부(190a)는 구조화되지 않은 제1화면을 디스플레이하고, 제어부(130)는 센서부(150)를 이용하여 제1화면의 비결정적 위치에 터치&홀드에 의한 터치 입력이 있음을 감지한다(S1010). 터치 앤 홀드 상태가 해제되지 않은 상태에서 제2 디스플레이부(190b)에 대한 탭에 의한 터치 입력이 이루어지는 제2 사용자 조작을 감지한다(S1020). 즉, 제2 디스플레이부(190b) 역시 구조화되지 않은 제2 화면을 디스플레이하고, 센서부(150)는 상기 제2화면의 비결정적 위치에 터치 입력이 있음을 감지한다. 여기서, 상기 탭에 의한 터치 입력은 도 11과 같이 입력펜(200)에 의해 이루어질 수 있다.
이 경우 제어부(130)는 도구에 대한 설정을 변경할 수 있는 메뉴(1110)를 디스플레이한다. 반대로 도구를 설정할 수 있는 메뉴(1110)가 디스플레이 된 상태에서 터치&홀드에 의한 제1 사용자 조작을 수행하고, 그 상태에서 제2 디스플레이부(190b)에 터치를 수행하는 제2 사용자 조작이 있는 경우, 이미 디스플레이되어 있는 도구에 대한 설정을 변경할 수 있는 메뉴(1110)를 화면에서 사라지게 한다.
도 11을 참조하여, 좀더 자세히 설명하면, 사용자가 입력펜(200)으로 그림을 그리던 중, 왼쪽 디스플레이부에 손으로 터치&홀드 입력을 수행하고, 그 상태에서 오른쪽 디스플레이부에 입력펜(200)으로 터치를 하게 되면(1), 입력펜(200)에 대응되는 도구를 설정할 수 있는 메뉴(1110)가 오른쪽 디스플레이부에 디스플레이된다(2). 사용자는 메뉴(1110)를 통해 입력펜(200)에 대응되는 도구에 대해 설정할 수 있다. 예를 들어, 입력펜(200)에 대응되는 도구가 색연필이라면, 색연필의 색상, 굵기를 조절할 수 있다. 그리고, 다시 왼쪽 디스플레이부에 손으로 터치&홀드 입력을 수행하고, 그 상태에서 오른쪽 디스플레이부에 입력펜(200)으로 터치를 하게 되면(3), 입력펜(200)에 대응되는 도구를 설정할 수 있는 메뉴(1110)가 오른쪽 디스플레이부에서 사라진다(4).
이와 같이, 복잡한 옵션 설정 동작 없이도 입력펜(200)에 대해 기능을 부여하여 사용할 수 있다.
- 제1사용자 조작에 따라 제2디스플레이부 표시를 변경하는 실시 예 -
이하에서는 멀티 디스플레이 장치(100)의 제1디스플레이부(190a)를 통해 입력이 감지되는 경우의 제2디스플레이부(190b)의 표시를 변경하는 멀티 디스플레이 장치(100)의 다양한 동작에 대해서 설명한다.
도 12는 본 발명의 다양한 다른 실시 예에 따른 멀티 디스플레이 장치(100) 의 동작을 설명하기 위한 흐름도이다.
도 12를 참조하면, 멀티 디스플레이 장치(100)의 센서부(150)는 제1 디스플레이부(190a) 상의 임의의 지점에서 제1 사용자 조작을 감지한다(S1210). 즉, 제1 디스플레이부(190a)가 구조화되지 않은 제1 화면을 디스플레이한 상태에서 사용자가 제1 화면의 비결정적 위치를 터치하여 제1 사용자 조작을 입력할 수 있다. 센서부(150)에 의해 터치 지점이 감지되면, 제어부(130)는 감지된 제1 사용자 조작에 따라 제2 디스플레이부(190b)에 표시된 화면을 변경하여 표시한다(S1220). 화면 변경 동작은 제1 사용자 조작의 유형에 따라 다양하게 구현될 수 있다. 가령, 제1 사용자 조작이 어떠한 형태로 이루어지는 지에 따라, 이전 화면으로 복귀하는 동작, 다음 화면으로 전환하는 동작, 메인 화면으로 복귀하는 동작 등이 선택적으로 수행될 수 있다.
이러한 상태에서, 사용자가 제2 디스플레이부(190b)를 터치하는 제2 사용자 조작을 수행하면, 센서부(150)는 상기 제2 사용자 조작을 감지하고(S1230), 제어부(130)는 제1 사용자 조작에 의해 변경되어 표시된 화면을 제2 사용자 조작에 따라 변경하여 제2 디스플레이부(190b)에 표시한다(S1240).
이하에서는 도 12의 실시 예를 좀더 구체적으로 설명한다. 도 13은 도 12의 구체적인 일 실시 예를 도시한 흐름도이고, 도 14는 도 13의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시한 참고도이다.
도 13을 참조하면, 멀티 디스플레이 장치(100)의 센서부(150)가 제1 디스플레이부(190a) 상에서 드래그와 같은 제1 사용자 조작을 감지하면(S1310), 제어부(130)는 감지된 제1 사용자 조작에 따라 제2 디스플레이부(190b)에 표시된 화면을 이전에 작업한 화면으로 변경하여 표시한다(S1320). 이러한 상태에서, 센서부(150)에 의해 제2 디스플레이부(190b)에서 탭과 같은 제2 사용자 조작이 감지되면 (S1330), 제어부(130)는 제2 디스플레이부(190b)에 표시된 이전에 작업한 화면을 상기 제2 사용자 조작 결과에 따라 변경하여 표시한다(S1340).
도 14에 따르면, 왼쪽 디스플레이부에 아래 방향으로 드래그에 의한 터치 입력을 수행하면(1,2), 오른쪽 디스플레이부에 저장된 그림 중 이전의 그림을 표시한다(3). 그리고, 표시된 그림에 대해 오른쪽 디스플레이부 상에서 입력펜(200)으로 새로운 입력을 수행하여 그림을 수정하는 등의 작업을 할 수 있게 된다.
이와 달리, 왼쪽 디스플레이부에 윗 방향으로 드래그에 의한 터치 입력을 수행하면(4), 오른쪽 디스플레이부에 현재의 그림 이후에 저장되어 있는 그림을 표시한다(5). 왼쪽 디스플레이부에 수행되는 드래그에 의한 터치 입력 방향은 다양할 수 있다. 일 실시 예로 왼쪽 디스플레이부에 왼쪽 방향으로 드래그에 의한 터치 입력이 있는 경우, 오른쪽 디스플레이부에 저장된 그림 중 이전의 그림을 표시하고, 오른쪽 방향으로 드래그에 의한 터치 입력이 있는 경우, 저장된 그림 중 현재 오른쪽 디스플레이부에 표시된 그림 이후의 그림을 오른쪽 디스플레이부에 표시하도록 구현될 수도 있다.
도 15는 도 12의 구체적인 다른 실시 예를 도시한 흐름도이고, 도 16은 도 15의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시한 참고도이다.
도 15를 참조하면, 멀티 디스플레이 장치(100)의 센서부(150)가 먼저 제1 디스플레이부(190a) 상의 임의의 지점에서 핀치인 또는 핀치아웃에 의한 터치입력을 수행하는 제1 사용자 조작을 감지하면(S1510), 제어부(130)는 감지된 제1 사용자 조작에 따라 제2 디스플레이부(190b)에 표시된 화면을 축소 또는 확대하여 표시한다(S1520). 구체적으로 상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력인 경우, 제어부(130)는, 핀치 아웃 입력에 의해 드래그가 이루어진 방향 및 길이에 따라 제2 디스플레이부(190b)에 표시된 화면을 확대하여 표시하고, 제1 사용자 조작이 핀치 인(pinch in) 입력인 경우, 제어부(130)는, 상기 핀치인 입력에 의해 드래그가 이루어진 방향 및 길이에 따라 제2 디스플레이부(190b)에 표시된 화면을 축소하여 표시한다. 그리고, 제어부(130)는 제2디스플레이부(190b)에 탭에 의한 터치 입력을 수행하는 등 제2 사용자 조작을 감지하고(S1530), 이 경우 제2 디스플레이부(190b)에 표시된 축소 또는 확대된 화면을 상기 제2 사용자 조작 결과에 따라 변경하여 표시한다(S1540).
도 16의 예에서 왼쪽 디스플레이부에 수평 방향으로 핀치아웃에 의한 터치 입력을 수행하면(1), 오른쪽 디스플레이부에 표시된 그림을 핀치 아웃 입력에 의해 드래그가 이루어진 방향 및 길이에 대응되도록 확대하여 표시한다(2). 그리고, 사용자는 확대되어 표시된 그림에 대해 오른쪽 디스플레이부 상에서 입력펜(200)으로 새로운 입력을 수행하여 그림을 수정하는 등의 작업을 할 수 있게 된다. 이와 달리, 왼쪽 디스플레이부에 핀치 인에 의한 터치 입력을 수행하면(3), 오른쪽 디스플레이부에 표시된 그림을 축소하여 표시한다. 도 17는 도 12의 구체적인 또 다른 실시 예를 도시한 흐름도이고, 도 18은 도 17의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시한 참고도이다.
도 17을 참조하면, 멀티 디스플레이 장치(100)의 센서부(150)가 먼저 제1 디스플레이부(190a) 상의 임의의 지점에서 터치&로테이트에 의한 터치입력을 수행하는 제1 사용자 조작을 감지하면(S1710), 제어부(130)는 감지된 제1 사용자 조작에 따라 제2 디스플레이부(190b)에 표시된 화면을 회전하여 표시한다(S1720). 구체적으로 제1 사용자 조작이 터치&로테이트(touch&rotate) 입력인 경우, 제어부(130)는, 터치가 있는 지점을 기준으로 로테이트 방향 및 길이에 따라 제2 디스플레이부(190b)에 표시된 화면을 회전시켜 표시하도록 제어한다. 그리고, 제어부(130)는 제2 디스플레이부(190b)에 탭에 의한 터치 입력을 수행하는 등 제2 사용자 조작을 감지하고(S1730), 이 경우 제2 디스플레이부(190b)에 회전된 화면을 상기 제2 사용자 조작 결과에 따라 변경하여 표시한다(S1740).
도 18의 예에서 왼쪽 디스플레이부에 가운데 지점을 터치한 상태에서 터치 지점을 중심으로 로테이트 입력을 수행하면(또는 터치 지점에서 기설정된 위치를 중심으로 로테이트 입력이 있는 경우), 오른쪽 디스플레이부에 표시된 그림이 상기 터치 지점에 대응되는 지점을 중심으로 로테이트 방향 및 길이에 대응하여 회전되어 제2디스플레이부(190b)에 표시된다(1). 사용자는 회전되어 표시된 그림에 대해 오른쪽 디스플레이부 상에서 입력펜(200)으로 새로운 입력을 수행하여 그림을 수정하는 등의 작업을 할 수 있게 된다(2,3). 이 경우, 왼쪽 디스플레이부에는 여전히 회전되지 않은 그림이 디스플레이되어 있으므로, 사용자는 전체 그림의 형태 및 색상을 확인하면서, 오른쪽 디스플레이부에 회전되어 표시된 그림 상에 원하는 작업을 수행할 수 있게 된다. 물론, 이와 달리, 왼쪽 디스플레이부에 표시된 그림도 회전될 수도 있을 것이다.
- 제1 사용자 조작으로 콘텐츠를 추출하여 표시하는 실시 예 -
이하에서는 제1사용자 조작에 의해 제1 디스플레이부(190a)로부터 콘텐츠를 추출하여, 제2사용자 조작에 의해 추출된 콘텐츠를 제2 디스플레이부(190b)에 표시하는 실시 예에 대해서 설명한다.
도 19는 본 발명의 다양한 다른 실시 예에 따른 멀티 디스플레이 장치(100)의 동작을 설명하기 위한 흐름도이다.
도 19를 참조하면, 멀티 디스플레이 장치(100)의 센서부(150)가 먼저 제1 디스플레이부(190a) 상의 임의의 지점에서 제1 사용자 조작을 감지한다(S1910). 즉,제1 디스플레이부(190a)는 구조화되지 않은 제1화면을 디스플레이하고, 센서부(150)는 상기 제1화면의 비결정적 위치에 제1사용자 조작이 있음을 감지한다.
제어부(130)는 감지된 제1 사용자 조작에 따라 제1 디스플레이부(190a)에 표시된 콘텐츠를 추출한다(S1920). 그리고, 센서부(150)는 제2 디스플레이부(190b) 상의 임의의 지점에 대한 제2 사용자 조작을 감지한다(S1930). 즉, 제2 디스플레이부(190b)는 구조화되지 않은 제2화면을 디스플레이하고, 센서부(150)는 상기 제2화면의 비결정적 위치에 제2사용자 조작이 있음을 감지한다. 제어부(130)는 제2 사용자 조작에 따라 제2 디스플레이부(190b) 상에 상기 추출된 콘텐츠에 대응되는 화면을 표시한다(S1940).
이하에서는 도 19의 실시 예를 좀더 구체화한 실시 예를 살펴본다.
도 20은 도 19의 구체적인 일 실시 예를 도시한 흐름도이고, 도 21 내지 23은 도 20의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시한 참고도이다.
도 20을 참조하면, 먼저 센서부(150)는 터치&홀드에 의한 터치 입력, 즉, 제1디스플레이부(190a)에 최초 터치가 이루어지고 기설정된 시간 동안 터치가 유지되는 제1 사용자 조작을 감지한다(S2010).
제어부(130)는 제1사용자 조작이 감지되면, 제1디스플레이부(190a)에 표시된 화면을 캡쳐한다(S2020).
제1사용자 조작이 감지된 후, 센서부(150)는 제2디스플레이부(190b)에 대한 더블탭 또는 드래그에 의한 터치 입력이 이루어지는 제2사용자 조작을 감지한다(S2030). 여기서, 상기 더블 탭 또는 드래그에 의한 터치 입력은 입력펜(200)에 의해 이루어질 수 있다.
이 경우 제어부(130)는 제2사용자 조작에 의해 터치가 이루어지는 제2디스플레이부(190b) 상의 기 설정된 지점에 캡쳐된 화면 또는 이와 관련된 화면을 디스플레이한다(S2040).
도 21의 예에서 왼쪽 디스플레이부에 어느 지점을 터치하고 기설정된 시간이 경과하는 경우, 왼쪽 디스플레이부의 화면이 캡쳐된다(1,2). 오른쪽 디스플레이부에 입력펜(200)으로 더블탭에 의한 터치입력을 하게 되면(3), 터치 지점에 캡쳐된 화면에 대한 이미지를 포함하는 메모장(2110)이 활성화된다(4). 사용자는 입력펜(200)으로 캡쳐 화면과 함께 필요한 내용을 기재하는 등 입력을 수행하고, 저장하거나, 메모장(2110)에 올리는 등의 작업을 수행할 수 있다.
도 22의 예에서는 왼쪽 디스플레이부에 어느 지점을 터치하고 기설정된 시간이 경과하는 경우(1,2), 왼쪽 디스플레이부의 화면이 캡쳐된다. 오른쪽 디스플레이부에 입력펜(200)으로 드래그에 의한 터치입력을 하게 되면(3), 터치 지점에 캡쳐된 화면에 대한 이미지가 메시지 입력 창L 2210)에 업로드된다(4).
도 23의 예에서는 왼쪽 디스플레이부에 어느 지점을 터치하고 기설정된 시간이 경과하는 경우(1,2) 왼쪽 디스플레이부의 화면이 캡쳐된다. 오른쪽 디스플레이부에 입력펜(200)으로 드래그에 의한 터치입력을 하게 되면(3), 캡쳐된 이미지와 유사한 이미지를 검색하여 오른쪽 디스플레이부에 검색결과 화면을 표시한다(4).
도 24는 도 19의 구체적인 다른 실시 예를 도시한 흐름도이고, 도 25는 도 24의 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 화면을 도시한 참고도이다.
도 24를 참조하면, 먼저 센서부(150)는 터치&홀드에 의한 터치 입력, 즉, 제1디스플레이부(190a)에 최초 터치가 이루어지고 기설정된 시간 동안 터치가 유지되는 제1 사용자 조작을 감지한다(S2410).
제어부(130)는 제1사용자 조작이 감지되면, 제1디스플레이부(190a)에 표시된 화면을 캡쳐한다(S2420). 제2디스플레이부(190b)에 터치&홀드에 의한 터치 입력이 이루어지는 제3사용자 조작이 감지되는 경우, 제어부(130)는 제1사용자 조작과 독립적으로 캡쳐 작업을 수행할 수 있다. 이 경우 제2디스플레이부(190b)는 구조화되지 않은 제3화면을 디스플레이하고, 제3화면의 비결정적 위치에 제3사용자 조작이 이루어진다. 이때 제1디스플레이부(190a) 및 제2디스플레이부(190b)에 표시된 화면이 모두 캡쳐된다.
제1사용자 조작이 감지된 후, 센서부(150)는 제2디스플레이부(190b)에 대한 더블탭에 의한 터치 입력이 이루어지는 제2사용자 조작을 감지한다(S2430). 여기서, 상기 더블 탭 또는 드래그에 의한 터치 입력은 입력펜(200)에 의해 이루어질 수 있다.
전술한 실시 예와 달리 제3사용자 조작이 존재하는 경우, 제어부(130)는 제2사용자 조작에 의해 터치가 이루어지는 제2디스플레이부(190b) 상의 지점에 각각 캡쳐된 두 개의 화면을 디스플레이한다(S2440).
도 25의 예에서 왼쪽 디스플레이부에 어느 지점을 터치하고 기설정된 시간이 경과하는 경우, 왼쪽 디스플레이부의 화면이 캡쳐된다. 이와 독립적으로 오른쪽 디스플레이부에 어느 지점을 터치하고 기설정된 시간이 경과하는 경우, 오른쪽 디스플레이부의 화면이 캡쳐된다(1). 오른쪽 디스플레이부에 입력펜(200)으로 더블탭에 의한 터치입력을 하게 되면, 터치 지점에 캡쳐된 각 화면에 대한 이미지를 포함하는 메모장(2510)이 활성화된다(2). 사용자는 입력펜(200)으로 캡쳐 화면과 함께 필요한 내용을 기재하는 등 입력을 수행하고, 저장하거나, sns(Social Network Service)에 올리는 등의 작업을 수행할 수 있다.
전술한 실시 예와 같이 제1사용자 조작이 있은 후, 제3사용자 조작이 있는 경우, 제3사용자 조작은 제2사용자 조작과 구별이 필요할 것이다. 즉, 제3사용자 조작을 위한 터치가 제2사용자 조작으로 판단될 가능성이 있으므로, 제2디스플레이부(190b)에 대한 터치입력이 기설정된 시간 이상 지속되는 경우 제3사용자 조작을 위한 터치로 판단하고, 기설정된 시간이 경과하기 전에 종료되는 경우, 제2사용자 조작을 위한 입력으로 판단한다.
상술한 실시 예와 달리, 제1사용자 조작과 제3사용자 조작이 동시에 입력되는 경우, 하나의 사용자 조작으로 인식할 수도 있다. 즉, 제1디스플레이부(190a)에 터치가 지속되는 상태에서 제2디스플레이부(190b)에 터치&홀드에 의한 터치 입력이 있는 경우, 사용자 조작에 의한 터치&홀드가 있는 디스플레이부 화면을 모두 캡쳐하여 상술한 동작을 수행한다.
한편, 상술한 도 2 내지 25의 실시 예에서, 제어부(130)는 감지된 제1사용자 조작과 제2사용자 조작을 연결하여 하나의 사용자 제스쳐로 인식하고, 상기 사용자 제스쳐에 대응되는 실행 화면을 상기 제1 디스플레이부 및 상기 제2 디스플레이부 중 적어도 하나에 디스플레이할 수도 있다.
즉, 이 경우 센서부(150)는 제1사용자 조작과 제2사용자 조작이 각각 감지하지만, 제어부(130)는 각각에 대해서 대응되는 동작이 수행되는 것이 아니라, 이들이 결합된 하나의 조작으로 인식한다. 그리고, 제어부(130)는 전술한 각 동작들을 수행할 수 있다.
예를 들어, 제1사용자 조작이 상기 제2사용자 조작과 매칭되는 기능을 변경하는 실시 예에서, 제어부(130)는 제1사용자 조작에 대응하여 제2사용자 조작과 매칭되는 기능을 변경하지 않을 수 있다. 제어부(130)는 제1사용자 조작이 있은 후 제2사용자 조작이 있는 경우 비로소 제2사용자 조작과 매칭되는 기능을 변경하고, 상기 변경된 기능에 따라 동작을 수행하도록 제어한다.
이처럼 제어부(130)는 제1사용자 조작, 제2사용자 조작, 제3사용자 조작을 조합한 결과에 따르는 하나의 사용자 조작을 인식하고, 조합된 결과에 따르는 사용자 조작에 대응되는 동작을 수행하도록 제어할 수 있다.
- 멀티 디스플레이 장치의 세부 구성 -
이하에서는 다양한 실시 예에 따라 다르게 구현될 수 있는 멀티 디스플레이 장치(100)의 세부 구성에 대해서 설명한다.
도 26은 본 발명의 다양한 실시 예에 따른 멀티디스플레이 장치의 구성을 설명하기 위한 블럭도이다.
도 26을 참조하면, 본 발명의 일 실시 예인 멀티디스플레이 장치(100)는 통신부(110), 멀티미디어부(120), 제어부(130), 촬상부(140), 센서부(150), 입/출력부(160), 저장부(170), 전원부(180) 및 제1,2 디스플레이부(190a, 190b)를 포함한다.
통신부(110)는 각종 유/무선 통신 방식을 이용하여 외부 장치와 정보를 송수신하는 구성이다. 여기서 외부장치는 다른 장치, 휴대폰, 스마트폰, 태블릿 PC(Personal), 컴퓨터 서버 및 디지털 TV 중 적어도 하나를 포함할 수 있고, 이들 장치는 통신 네트워크를 통해 멀티 디스플레이 장치(100)와 연결될 수도 있다.
통신부(110)는 셀룰러 통신모듈(111), 무선랜 모듈(112), 근거리 통신 모듈(113), GPS 통신 모듈(115), 방송통신 모듈(116) 등의 무선 통신 모듈과 HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), IEEE(Institute of Electrical and Eletronics Engineers) 1394 등의 유선통신모듈중 적어도 하나를 포함하는 커넥터(114)를 포함할 수 있다.
셀룰러 통신 모듈(111)은 제어부(130)의 제어에 따라 셀룰러 통신 프로토콜에 따른 무선 액세스 기술을 사용하여, 멀티 디스플레이 장치(100)가 적어도 하나 또는 복수의 안테나(도시되지 아니함)를 통해 외부 장치(특히 셀룰러 시스템의 기지국)와 연결되도록 한다.
또한, 셀룰러 통신 모듈(111)은 멀티 디스플레이 장치(100)에 입력되는 전화번호를 가지는 휴대폰, 스마트폰, 태블릿 PC 또는 다른 장치와 같은 통신 가능한 다른 기기와, 음성 통화, 화상 통화, 단문(Short Messaging Service: SMS) 메시지 또는 멀티미디어(Multimedia Messaging Service: MMS) 메시지를 담은 무선 신호를 송/수신한다.
무선랜 모듈(112)은 제어부(130)의 제어에 따라 기설정된 범위 내에 존재하는 무선 AP(access point)(도시되지 아니함)에 접속하여 인터넷과 연결되는 구성이다. 무선랜 모듈(112)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다.
근거리통신 모듈(113)은 제어부(130)의 제어에 따라 멀티 디스플레이 장치(100)와 외부 기기 사이에 무선으로 근거리 통신을 하는 구성이다. 근거리 통신모듈은 블루투스(bluetooth)모듈, 적외선 통신(IrDA, infrared data association)모듈, NFC(Near Field Communication)모듈, 와이파이(WIFI)모듈, 지그비(Zigbee) 모듈 중 적어도 하나를 포함할 수 있다.
이처럼 통신부(110)는 상술한 다양한 근거리 통신 방식에 의해 구현될 수 있고, 필요에 따라 본 명세서에 언급되지 않은 다른 통신 기술을 채용할 수 있다.
커넥터(114)는 USB 2.0, USB 3.0, HDMI, IEEE 1394 등 다양한 장치와의 인터페이스를 제공하는 구성이다.
커넥터(114)는 멀티디스플레이 장치(100)와 외부장치 또는 전원소스를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(130)의 제어에 따라 커넥터(114)에 연결된 유선 케이블을 통해 멀티디스플레이 장치(100)의 저장부(170)에 저장된 데이터를 외부 장치로 전송하거나 또는 외부 장치에서부터 데이터를 수신할 수 있다. 커넥터(114)에 연결된 유선 케이블을 통해 전원소스에서부터 전원이 입력되거나 배터리(도시되지 아니함)를 충전할 수 있다.
GPS 모듈(115)은 지구 궤도상에 있는 복수의 GPS위성들(도시되지 아니함)에서부터 전파를 수신하고, GPS위성들(도시되지 아니함)에서부터 멀티 디스플레이 장치(100)까지 전파도달시간(Time of Arrival) 및 GPS 파라미터들을 이용하여 멀티 디스플레이 장치(100)의 위치를 산출할 수 있다.
방송통신모듈(116)은 제어부(130)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다.
멀티미디어부(120)는 동영상 컨텐츠나 오디오 컨텐츠 기타 다양한 멀티미디어 컨텐츠를 재생하기 위한 구성요소이다. 멀티미디어부(120)는 파서나 코덱 등을 이용하여 멀티미디어 컨텐츠를 처리하여, 컨텐츠 재생을 수행한다. 멀티미디어부(120)는 오디오 재생 모듈(121) 및 비디오 재생 모듈(122)를 포함한다.
오디오재생 모듈(121)은 제어부(130)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(123)은 제어부(130)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다.
비디오 재생 모듈(122)은 디지털 비디오 파일을 재생할 수 있도록 다양한 형식의 코덱을 지원한다. 즉, 재생하려는 비디오 파일의 코덱 형식에 맞도록 기 저장된 코덱에 의해서 비디오 파일을 재생한다. 또한, 멀티미디어 모듈(120)의 오디오재생 모듈(122) 또는 동영상재생 모듈(123)은 제어부(130)에 포함될 수 있다.
제어부(130)는 통신부(110), 멀티미디어부(120), 촬상부(140), 센서부(150), 입/출력부(160), 저장부(170), 전원부(180) 및 제1, 2 디스플레이부(190a, 190b)를 제어하는 구성이다. 제어부(130)는 하드웨어에 클락을 제공하고, 제어신호를 송출하는 CPU와, 프로세스를 일시적으로 또는 반영구적으로 저장하기 위한 메모리, 그래픽 처리를 위한 GPU, 메모리와 CPU 및 GPU 사이에 데이터 전달을 위한 시스템 버스를 포함한다. 또한, 상기 하드웨어 구성을 구동하기 위한 운영체제(Operating System: OS), 운영체제 위에서 사용자 인터페이스를 제공하여 프레임워크로 전달하는 어플리케이션을 포함한다. 다만, 제어부(130)의 각 구성에 대해서는 뒤에서 상세히 설명한다.
촬상부(140)는 도 26에 도시된 것처럼 제1 카메라(141) 및 제2 카메라(142) 중 적어도 하나를 포함할 수 있다. 다만, 도 26에서는 제1 카메라(141)과 제2 카메라(142)만을 도시하였으나, 실시 예에 따라서 추가적인 카메라를 포함할 수 있다.
각 카메라는 셔터(미도시), 렌즈부(도 23의 5110 참조), 조리개(미도시) 및 CCD(Charge Coupled Device) 이미지 센서(미도시) 및 ADC(Analog/Digital Converter)를 포함한다. 셔터는 조리개와 함께 노광하는 빛의 양을 조절하는 기구이다. 렌즈부는 외부 광원으로부터 빛을 받아 영상을 처리한다. 이때, 조리개는 개폐 정도에 따라 입사되는 빛의 양(광량)을 조절한다. CCD 이미지 센서는 렌즈부를 통하여 입력되는 광량을 축적하고 그 축적된 광량에 따라 렌즈부에서 촬상된 영상을 수직 동기 신호에 맞추어 출력한다. 영상 획득은 피사체로부터 반사되어 나오는 빛을 전기적인 신호로 변환시켜 주는 CCD 이미지 센서에 의해 이루어진다. CCD 이미지 센서를 이용하여 컬러 영상을 얻기 위해서는 컬러 필터를 필요로 하며, CFA(Color filter array) 라는 필터를 채용할 수 있다. CFA는 한 픽셀마다 한 가지 컬러를 나타내는 빛만을 통과시키며 규칙적으로 배열된 구조를 가지고 있으며, 배열 구조에 따라 여러 가지 형태를 가지고 있다. ADC는 CCD 이미지 센서로부터 출력되는 아날로그 영상신호를 디지털 신호로 변환한다. 이러한 구성은 일 예에 불과하며, 각 카메라의 구성은 다양하게 변형될 수 있다. 가령, 각 카메라는 CCD 이미지 센서가 아닌 CMOS(Complementary Metal Oxide Semiconductor)이미지 센서를 이용하여 영상을 촬상할 수 있다.
제1 카메라(141) 및 제2 카메라(142)는 멀티 디스플레이 장치(100)의 하우징에 구비되거나 혹은 별도의 연결 수단을 사용하여 멀티 디스플레이 장치(100)에 연결될 수 있다. 제1 카메라(141) 및 제2 카메라(142) 중 적어도 하나는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))를 포함할 수 있다.
일 실시예로서, 제1 카메라(141)는 멀티 디스플레이 장치(100) 전면에 배치되고, 제2 카메라(142)는 멀티 디스플레이 장치(100)의 후면에 배치될 수 있다. 다른 실시예로서, 제1 카메라(141)와 제2 카메라(142)는 인접하게(예, 제1 카메라(141)와 제2 카메라(142)의 간격이 1 cm 보다 크고, 8 cm 보다는 작게) 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다. 또 다른 실시예로서, 제1 카메라(141)는 제1 패널부에 배치되고, 제2 카메라(142)는 제2 패널부에 배치될 수 있다.
촬상부(140)는 제1 카메라(141) 및 제2 카메라(142) 중 적어도 하나를 통해, 사용자의 움직임 혹은 형상을 감지(detect)하고, 이를 어플리케이션의 실행 혹은 제어를 위한 입력으로써 제어부(130)에게 전달할 수 있다. 일 예로서 사용자의 움직임이란 제1 혹은 제2 카메라를 통해 감지되는 사용자의 손의 움직임을 의미한다. 사용자의 형상이란 제1 혹은 제2 카메라를 통해 감지되는 사용자의 얼굴 형상을 의미할 수 있다.
또 다른 실시예로서 멀티 디스플레이 장치(100)는 적외선 감지기와 같은 다른 수단을 사용하여 사용자의 움직임을 감지하고, 상기 움직임에 응답하여 어플리케이션을 실행 혹은 제어할 수 있다.
센서부(150)는 멀티 디스플레이 장치(100)에 대한 사용자 터치, 사용자 움직임, 멀티 디스플레이 장치(100) 자체의 움직임 등과 같은 다양한 상태 변화를 센싱하기 위한 구성요소이다. 전술한 실시 예에서 센서부(150)의 일 예로 터치센서 또는 근접 센서를 설명하였다. 전술한 실시 예외에도 센서부(150)는 터치 센서(151), 지자기센서(152), 가속도 센서(153), 힌지 센서(154) 및 근접 센서(155) 중 적어도 하나를 포함할 수 있다.
터치 센서(151)는 멀티 디스플레이 장치(100)의 디스플레이부에 대한 사용자 객체의 접촉을 감지할 수 있는 센서이다. 즉, 터치 센서(151)는 손가락과 같은 신체 또는 감지 가능한 입력 수단으로 제1 또는 2 디스플레이부(190a, 190b)를 접촉하여 디스플레이 화면 상에 표시된 객체를 선택하는 입력을 감지할 수 있는 센서를 의미한다. 터치 센서(151)는 사용자의 터치를 감지하는 방식에 따라 정전 방식과 압전 방식으로 나뉠 수 있다. 본 발명의 일 실시예에 따른 터치 센서(151)는 두 가지 방식 중 어느 방식으로도 구현될 수 있다. 터치 센서(151)는 디스플레이 패널과 함께 디스플레이부에 포함되어 구성될 수 있다.
지자기 센서(152)는 자기장의 흐름을 검출하여 방위각을 탐지할 수 있는 센서이다. 지자기 센서(152)는 멀티 디스플레이 장치(100)의 방위좌표를 검출하게 되고, 방위좌표를 토대로 멀티 디스플레이 장치(100)가 놓여진 방향을 검출할 수 있다. 놓여진 방향은 그에 상응되는 제어 입력으로 인식되어 제어부(130)가 대응되는 출력을 수행한다.
가속도 센서(153)는 멀티 디스플레이 장치(100)의 가속도를 검출하는 센서로 멀티 디스플레이 장치(100) 상의 가상의 x,y,z축을 설정하고, 각 축의 기울어진 정도에 따라 변화하는 중력가속도값을 검출할 수 있다. 가속도 센서(5141)는 이동하는 물체의 가속도(동적인 가속도)를 검출하는데도 사용되지만, 주로 중력가속도를 검출하는데 활용되는 센서이다.
힌지 센서(156)는 힌지의 각도 또는 움직임 등을 검출할 수 있다. 근접 센서(155)는 사용자의 멀티 디스플레이 장치(100)에 대한 물체의 접근여부를 검출할 수 있다. 근접 센서에 대해서는 뒤에서 좀더 상세히 설명한다.
도 26에서 도시되지 않았지만, 멀티 디스플레이 장치(100)의 센서부(150)는 중력이 어느 방향으로 작용하는지 검출할 수 있는 중력 센서, 기존의 가속도 센서에 각각 회전을 넣어 총 6축을 인식할 수 있는 자이로센서, 이미지와 같은 컨텐츠의 가로, 세로 프레임을 자동으로 감지하여 컨텐츠를 자동 회전 및 정렬시킬 수 있는 오리엔테이션 센서, 멀티 디스플레이 장치(100) 주변의 빛의 양을 검출하는 조도 센서, 대기의 압력을 측정할 수 있는 고도 측정 센서, 물체의 색을 검출할 수 있는 RGB 센서, 초음파나 적외선을 이용하여 거리를 측정할 수 있는 거리 측정 센서, 자기장의 세기에 따른 전압 변화를 이용하는 홀 센서 중 적어도 하나를 더 포함할 수 있다.
센서부(150)의 각 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(130)로 전송할 수 있다. 센서부(150)의 센서는 멀티디스플레이 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.
입/출력부(160)는 화면이나 기타 외부 연결 포트를 이용하여 입/출력을 수행하기 위한 구성요소이다. 구체적으로는, 입/출력부(160)는 멀티 디스플레이 장치(100)에 연결된 마우스나 키보드, 조이스틱과 같은 입력 수단이나, 리모콘 등과 같은 무선 입력 수단으로부터 전송되는 입력 신호를 입력받아 제어부(130)로 전송할 수 있다. 또는, 제어부(130)에 의해 생성되는 각종 신호나 데이터를 외부 장치로 출력하여 줄 수도 있다. 입/출력부(160)는 버튼부(161), 마이크(162), 스피커(163) 및 진동모터(164)를 포함한다.
적어도 하나의 버튼부(161)은 멀티 디스플레이 장치(100)의 하우징의 전면, 측면 또는 후면에 푸쉬형 혹은 터치형으로 형성될 수 있으며, 전원/잠금 버튼, 볼륨 조절 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다. 버튼부(161)가 눌러지는 경우, 대응되는 제어명령이 생성되어 제어부(130)로 전달되고, 제어부(130)는 대응되는 제어명령에 따라 멀티 디스플레이 장치(100)의 동작을 제어한다.
마이크(162)는 제어부(130)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(130)의 제어에 따라 셀룰러 통신 모듈(111), 무선 랜 모듈(112), 근거리 통신 모듈(113), 멀티미디어부(120) 또는 촬상부(140)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 멀티 디스플레이 장치(100)의 외부로 출력할 수 있다.
스피커(163)는 멀티 디스플레이 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 멀티 디스플레이 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다. 일 예로 스피커(163)는 통화 중 사용자의 귀에 근접하기에 적합한 위치에 배치되는 내부 스피커 모듈과, 오디오/비디오 파일의 재생이나 방송의 시청 시에 사용되기에 적합한 보다 높은 출력을 가지며 멀티 디스플레이 장치(100)의 하우징의 적절한 위치에 배치되는 외부 스피커 모듈을 포함하여 구성될 수 있다.
진동 모터(164)는 제어부(130)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 멀티 디스플레이 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동 모터(164)가 동작한다. 진동 모터(164)는 멀티 디스플레이 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 모터(164)는 제1, 2 디스플레이부(190a, 190b) 상에서 감지되는 사용자의 터치 제스처 및 제1, 2 디스플레이부(190a, 190b) 상에서 감지되는 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
저장부(170)는 데이터를 저장하는 구성이다.
첫째, 저장부(170)는 멀티 디스플레이 장치(100)의 동작을 제어하기 위한 운영체제 프로그램을 저장한다. 저장된 운영체제는 멀티 디스플레이 장치(100)가 턴-온되는 경우, 저장부에서 읽혀지고, 컴파일되어 장치의 각 구성을 동작시킨다.
둘째, 저장부(170)는 운영체제에 의해 관리되고 운영체제의 자원을 이용하여 멀티 디스플레이 장치(100)의 동작을 수행하고 사용자 인터페이스를 제공하는 어플리케이션 프로그램을 저장한다. 어플리케이션 프로그램은 사용자의 실행 명령에 의해 운영체제에 의해 저장부에서 독출되어, 실행가능한 상태로 전이되어 다양한 동작을 수행한다.
셋째, 저장부(170)는 제어부(130)에 의해서 처리된 각종의 멀티미디어 데이터, 컨텐츠 데이터, 외부 소스로부터 수신된 데이터 등을 저장한다. 즉, 저장부(170)는 제어부(130)의 제어에 따라 셀룰러 통신 모듈(111), 무선 랜 모듈(112), 근거리 통신 모듈(113), 커넥터(114), GPS모듈(115), 멀티미디어부(120), 촬상부(140), 센서부(150), 입/출력부(160), 제1, 2 디스플레이부(190a, 190b)의 동작에 대응되게 입/출력되는 신호, 정보 또는 데이터를 저장할 수 있다.
저장부(170)는 롬(ROM), 램(RAM) 또는 멀티디스플레이 장치(100)에 탈착/장착 가능한 메모리 카드(예, SD 카드, 메모리 스틱), 비휘발성 메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나로 구현될 수 있다.
전원부(180)는 멀티디스플레이 장치(100)에서 사용되는 전원을 공급한다. 전원부(180)는 충전 가능한 배터리로 구현될 수 있고, 외부 공급 전원을 변환하여 충전 가능한 배터리에 공급하는 전압 변환기를 더 포함할 수 있다.
전원부(180)는 제어부(130)의 전원 관리 제어에 따라 멀티디스플레이 장치(100)에 최대 성능 모드, 일반 모드, 절전 모드, 대기 모드 등 다양한 모드로 전원을 공급할 수 있다.
제1,2 디스플레이부(190a,190b)는 전술한 것처럼 센서부(150)에 포함되며, 프레임버퍼에 저장된 영상을 출력하는 구성이다. 제1, 2 디스플레이부(190a, 190b)는 제어부(130)의 제어에 의해서 멀티미디어 컨텐츠, 이미지, 동영상, 텍스트 등을 표시한다.
제1 디스플레이부(190a)와 제2 디스플레이부(190b)는 물리적으로 서로 분리되어 있다. 제1 디스플레이부(190a)와 제2 디스플레이부(190b)에 표시되는 디스플레이 화면은 서로 독립적으로 제어할 수 있다. 예를 들어, 제1 디스플레이부(190a)의 해상도와 제2 디스플레이부(190b)의 해상도는 각각 개별적으로 설정할 수 있다. 또한, 제1 디스플레이부(190a)와 제2 디스플레이부(190b)에 표시되는 화면의 확대, 회전, 화면 이동, 화면 분할 등을 각각 개별적으로 실행할 수 있다.
또한, 제1 디스플레이부(190a) 및 제2 디스플레이부(190b)는 가상 통합 프레임 버퍼를 이용해서 단일 디스플레이 화면으로 표시할 수 있다.
제1,2 디스플레이부(190a, 190b)는 제어부(130)에 의해 실행될 수 있는 다양한 어플리케이션(예, 통화, 데이터 전송, 방송, 카메라 등)을 표시하고 그에 적응되게 구성된 사용자 인터페이스를 제공하는 디스플레이 장치이다. 제1, 2 디스플레이부(190a, 190b)는 전술한 터치센서(151)를 포함할 수 있고, 이 경우 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 감지 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치 제스처를 입력받을 수 있다.
이러한 사용자 인터페이스는 소정 터치 영역, 소프트 키 및 소프트 메뉴를 포함할 수 있다. 제1, 2 디스플레이부(190a, 190b)는 사용자 인터페이스를 통해 입력되는 적어도 하나의 터치 제스처에 대응되는 전자 신호를 LCD 컨트롤러(미도시)를 통해서 제1, 2 디스플레이부(190a, 190b)로 전송할 수 있다. 또한, 제1, 2디스플레이부(190a, 190b)는 터치의 연속적인 움직임을 감지하고, 터치의 연속적 혹은 불연속적인 움직임에 대응되는 전자 신호를 LCD 컨트롤러로 전송할 수 있다. 전술한 것처럼 터치센서(151)는 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
제1, 2 디스플레이부(190a, 190b)는 터치 센서를 통해서 감지된 사용자 동작에 관한 감지 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(130)로 전송한다. 제어부(130)는 수신된 디지털 신호를 이용하여 제1, 2디스플레이부(190a, 190b)를 통해서 입력된 사용자 동작에 대응하는 제어 동작을 수행할 수 있다. 예를 들어, 제어부(130)는 사용자 동작에 응답하여 제1, 2 디스플레이부(190a, 190b)에 표시된 소프트 키가 선택되게 하거나 또는 소프트 키에 대응하는 어플리케이션을 실행할 수 있다.
상술한 사용자 제스처는 제1, 2 디스플레이부(190a, 190b)와 사용자의 신체 또는 터치 가능한 입력 수단과의 직접적인 접촉(contact)에 한정되지 않고, 비접촉에 의한 방식도 포함한다. 제1, 2 디스플레이부(190a, 190b)에서 검출 가능한 사용자 동작의 감도는 멀티디스플레이 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.
멀티디스플레이 장치(100)는 저장부(170)에 저장되고 제어부(130)에 의해 실행 가능한 어플리케이션, 위젯(widget) 및 기능(function)을 터치 스크린을 통해 실행하는 기기이다. 통상 터치 스크린은 홈 화면 혹은 어플리케이션 메뉴 등을 통해 어플리케이션들, 위젯들, 기능들 및 그 그룹에 대응하는 그래픽 객체(즉 소프트 키 혹은 단축 아이콘)들을 제공하며, 멀티 디스플레이 장치(100)는 각 그래픽 객체 상에서의 사용자의 터치 제스처 검출에 응답하여 대응되는 어플리케이션, 위젯 혹은 기능을 실행한다.
여기서 위젯이란 사용자에 의해 다운로드되고 사용되거나, 혹은 사용자에 의해 생성될 수 있는 미니 어플리케이션을 의미하는 것으로서, 일 예로 날씨 위젯, 주식 위젯, 계산기 위젯, 알람 시계 위젯, 사전 위젯 등을 포함한다. 위젯의 실행을 위한 단축 아이콘은 해당하는 위젯 어플리케이션을 통해 간단한 사전 정보를 제공할 수 있다. 일 예로써 날씨 위젯의 아이콘은 현재의 기온과 날씨 심볼을 간단히 제공하며, 아이콘의 터치를 통해 실행되는 위젯 어플리케이션은 기간별/지역별 날씨와 같은 보다 많은 양의 정보를 제공한다. 본 명세서에서 어플리케이션이라 함은 위젯 기반의 어플리케이션과 비-위젯 기반의 어플리케이션을 포함한다.
제1 디스플레이부(190a)를 포함하는 센서부(150) 및 제2디스플레이부(190b)를 포함하는 제2바디(4)는 연결부에 의해 서로 연결될 수 있고, 전술한 실시예와 같이 센서부(150) 및 제2바디(4)는 상기 힌지부(185)를 중심으로 일정 각도만큼 접히거나(fold-in) 젖혀질(fold-out) 수 있다.
다만, 연결부는 힌지부(185) 외에도, 플렉서블한(Flexible) 연결부, 혹은 플렉서블한 터치스크린의 일부로 구현 가능하다.
이하에서는 도 27을 참조하여, 전술한 제어부(130)의 하드웨어 구성을 좀더 상세히 설명한다.
- 제어부의 하드웨어 구성 -
도 27은 제어부(130)의 하드웨어 구성을 도시한 블록도이다.
도 27을 참조하면, 멀티 디스플레이 장치(100)의 제어부(130)는 하드웨어 관점에서 CPU(131), GPU(133), RAM(135), ROM(137) 및 시스템 버스(139)를 포함하고, 소프트웨어 관점에서는 상기 하드웨어 구성을 구동하기 위한 운영체제(Operating System: OS), 운영체제 위에서 사용자 인터페이스를 제공하여 프레임워크로 전달하는 어플리케이션을 포함한다. 다만, 운영체제, 프레임워크, 어플리케이션에 대해서는 뒤에서 별도로 설명하기로 한다.
CPU(131)는 시스템 버스(139)를 통해서 각 블럭부와 데이터 통신을 수행하면서 각종 블럭부의 기능을 제어하고 그 제어 결과를 수집해서 이를 기초로 제어부(130)와 연결된 각종의 주변 장치로 제어 신호를 전송하여 주변 장치를 제어하는 기능을 수행한다. 또한, 램에서 각 프로세스별 명령(instruction)과, 데이터(argument)를 읽어와, 연산을 수행하도록 연산부를 제어한다.
우선, CPU(131)는 ROM(137)에 기 저장된 부팅 정보를 이용하여 부팅을 수행한다. 즉, 시스템의 전원이 온되는 경우, 각 하드웨어 구성을 동작하기 위한 명령을 ROM(137)으로 부터 읽어와, 명령에 따라 각 하드웨어에 제어신호를 송출한다. 또한, CPU(131)는 저장부(미도시)에 저장된 데이터를 RAM(135)으로 독출하여 RAM(135)에 저장되어 있는 데이터 중 그래픽 처리가 필요한 데이터를 GPU(133)으로 전달한다. CPU(131)는 GPU(133)에 의해서 그래픽 처리된 데이터를 수신하여 시스템 버스(139)와 연결된 LCD 컨트롤러(미도시)로 전달해서 디스플레이부에 이미지를 표시한다.
이때, CPU(131)는 GPU(133)에 의해서 처리된 이미지 데이터를 RAM(135)의 기 결정된 영역 상에 할당된 가상 프레임 버퍼(Virtual Frame Buffer) 영역에 일시 저장한다. CPU(131)는 디스플레이부의 최대 해상도(예를 들어, 1024*600)를 지원하도록 가상 프레임 버퍼의 영역을 할당한다. 2개의 디스플레이부일 경우에는 1024*1200 크기로 가상 프레임 버퍼의 영역을 할당한다.
CPU(131)는 가상 프레임 버퍼에 일시 저장된 데이터를 GPU(133)로 입력해서 디지털 신호 처리를 수행한다.
GPU(133)는 CPU(131)의 제어 하에서 입력된 데이터에 대한 그래픽 처리를 수행한다. 구체적으로는, GPU(133)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성할 수 있다. 연산부는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성 값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 버스(139)를 통해 제1 및 제2 디스플레이부(190a, 190b)로 전달되어 디스플레이 영역 내에 표시되거나, 저장부(170)에 저장될 수 있다.
CPU(131)는 GPU(133)에 의해서 그래픽 처리된 데이터를 제1 및 제2 디스플레이부(190a, 190b) 중 적어도 하나를 통해 디스플레이하거나, 저장부(170)에 저장하도록 제어할 수도 있으며, 또는 처리된 데이터를 디스플레이 컨트롤러(미도시)에 입력할 수 있다.
GPU(133)는 디코더(decoder), 렌더러(renderer), 스케일러(scaler) 등을 포함할 수 있다. 이에 따라, 저장된 컨텐츠를 디코딩하고, 디코딩된 컨텐츠 데이터를 렌더링하여 프레임을 구성하고, 구성된 프레임의 사이즈를 디스플레이 콘트롤러(미도시)의 제어에 의해 디스플레이 크기에 맞게 스케일링한다. 만약, 제1 및 제2 디스플레이부(190a, 190b) 중 하나에서 디스플레이되는 화면이라면 그 크기에 맞추어 스케일링하고, 두 디스플레이부 모두에서 디스플레이되는 화면이라면 전체 디스플레이 사이즈에 맞추어 스케일링한다. GPU(133)는 처리된 프레임을 디스플레이부에 제공하여 디스플레이한다.
제어부(130)는 이외에도 오디오 처리부 및 인터페이스부 등을 더 포함할 수 있다. 인터페이스부는 주변의 구성요소들과 인터페이싱을 하기 위한 구성요소이다.
오디오 처리부(미도시)는 오디오 인터페이스(미도시)를 통해서 멀티미디어부(120)와 인터페이스하고, 오디오 데이터를 처리하여 스피커와 같은 음향 출력 수단으로 제공하는 구성요소를 의미한다. 오디오 처리부는 저장부(170)에 저장된 오디오 데이터나 통신부(110)를 통해 수신된 오디오 데이터를 디코딩하고, 노이즈 필터링한 후, 적정 데시벨로 증폭하는 등의 오디오 신호 처리를 수행할 수 있다. 상술한 예에서, 재생되는 컨텐츠가 동영상 컨텐츠인 경우, 오디오 처리부는 동영상 컨텐츠로부터 디먹싱된 오디오 데이터를 처리하여 GPU(133)와 동기시켜 출력할 수 있도록 스피커로 제공할 수 있다.
ROM(137)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, CPU(131)는 ROM(137)에 저장된 명령어에 따라 저장부(170)에 저장된 O/S를 RAM(133)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(131)는 저장부(170)에 저장된 각종 어플리케이션 프로그램을 RAM(133)에 복사하고, RAM(133)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. 이상과 같이, CPU(131)는 저장부(170)에 저장된 어플리케이션 프로그램의 실행에 따라 다양한 동작을 수행할 수 있다.
상술한 바와 같이, 멀티 디스플레이 장치(100)에서 터치 및 기타 사용자 조작이 감지되면, 제어부(130)는 사용자 조작이 의도된 것인지 여부를 판단할 수 있다. 판단 결과 의도된 사용자 조작이라고 판단되면, 그 사용자 조작에 대응되는 동작에 대한 정보를 저장부(170)로부터 독출한 후, 그 정보에 대응되는 동작을 수행한다. 이상과 같은 제어부(130)의 동작은 저장부(170)에 저장된 각종 프로그램의 실행에 의해 구현될 수 있다.촬상부(140)는 사용자 조작에 따라 촬상 작업을 수행하는 구성요소이다. 촬상부(140)는 멀티 디스플레이 장치(100) 내에서 복수 개로 마련될 수 있다. 가령, 제1 디스플레이부(190a)가 마련된 센서부(150)에 제1 촬상부가 마련되고, 제2 디스플레이부(190b)가 마련된 제2바디(4)에 제2 촬상부가 마련될 수 있다. 제어부(130)는 촬상부(140)에 의해 촬상된 이미지를 저장하거나, 메일, 메신저, 메시지 등에 첨부하여 외부로 전송할 수 있다. 또는, 촬상부(140)에 의해 촬상된 이미지를 분석하여 사용자의 모션 제스쳐를 인식하고, 그 모션 제스쳐에 대응되는 제어 동작을 수행할 수도 있다.
CPU는 싱글 코어 프로세서, 멀티코어 프로세서, 트리플 코어 프로세서 및 쿼드 코어 프로세서 중 적어도 하나로 구현될 수 있다. 멀티코어 프로세서의 경우, 멀티코어 프로세서를 구성하는 각 프로세서는 각각 제1디스플레이부(190a), 제2디스플레이부(190b)를 독립적으로 제어할 수 있다.
- 제어부의 소프트웨어 구성 -
이하에서는 제어부(130)를 구성하는 소프트웨어 계층도를 설명한다.
도 28는 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치(100)의 시스템 계층 구조를 설명하기 위한 도면이다.
도 28을 참조하면, 멀티 디스플레이 장치(100)는 하드웨어(410)와 하드웨어를 구동하는 운영체제(Operating System: OS, 420)와, 운영체제에 의해 프로세스로 관리되고 자원을 이용하여 사용자 서비스를 제공하는 어플리케이션 계층(441~445)과, 운영체제와 어플리케이션을 중계하는 프레임워크계층(430)을 포함한다.
운영체제(Operating System: OS, 420)는 하드웨어(410)의 전반적인 동작을 제어하고 하드웨어(410) 및 각 어플리케이션에 대응되는 프로세스를 관리하는 기능을 수행한다. 즉, OS(420)는 하드웨어 관리와 메모리, 보안 등의 기본적인 기능을 담당하는 계층이다. OS(420)는 멀티디스플레이부를 구동시키기 위한 디스플레이 드라이버, 데이터 송수신을 위한 통신 드라이버, 카메라를 구동시키기 위한 카메라 드라이버, 오디오부를 구동시키기 위한 오디오 드라이버, 전원관리자 등의 모듈을 포함한다. 또한, 개발자가 접근할 수 있는 API 라이브러리와 런타임(runtime)이 포함될 수 있다. OS(420)는 어플리케이션의 호출을 처리하며, 처리결과에 따라 하드웨어를 동작시킨다.
OS (420)보다 상위 계층으로 프레임워크(frame work) 계층(430)이 존재한다. 프레임워크(430)는 어플리케이션 계층(440)과 OS 계층(420)을 연결하는 역할을 수행한다. 즉, 프레임워크 계층(430)은 로케이션 매니저(location manager), 알림 매니저(notification manager) 및 터치스크린부에 영상을 표시하기 위한 프레임 버퍼(frame buffer)를 포함한다.
프레임워크 계층(430) 상부 계층에는 멀티디스플레이 장치(100)의 다양한 기능을 구현되는 어플리케이션 계층(440)이 존재한다. 예로서, 통화 어플리케이션(441), 멀티미디어 어플리케이션(442), 카메라 어플리케이션(443), 브라우저 어플리케이션(444) 및 제스처 어플리케이션(445) 등 다양한 응용프로그램이 포함될 수 있다.
어플리케이션(441~445)은 사용자 인터페이스를 제공하며, 사용자로부터 명령을 수신하여 프레임워크를 통해 OS(420)로 전달하거나, OS(420)의 자원을 요청한다. OS(420)는 시스템 콜을 처리하며, 여러 어플리케이션의 작업을 관리한다. 그리고, 시스템 콜 처리결과에 따라 제1디스플레이부(190a) 및 제2디스플레이부(190b) 등과 같은 다양한 하드웨어들을 동작시킨다.
- 디스플레이부의 하드웨어 구성 -
이하에서는 디스플레이부의 하드웨어 구성을 살펴본다.
도 29는 제1디스플레이부(190a) 또는 제2디스플레이부(190b)의 영상 출력부의 회로구성을 도시한 도면이다. 이하에서는 제1디스플레이부(190a)를 기준으로 설명할 것이지만, 제2디스플레이부(190b)의 경우도 동일한 구성을 포함하고, 동일하게 동작할 것이다.
도 29에 따르면, 제1 디스플레이부(190a)의 영상 출력회로는 타이밍 컨트롤러(231), 게이트 드라이버(232), 데이터 드라이버(233), 전압 구동부(234), 표시패널(235)을 포함할 수 있다.
타이밍 컨트롤러(231)는 외부로부터 터치스크린부의 해상도에 적합한 클럭신호(DCLK)와 수평 동기 신호(Hsync), 수직 동기 신호(Vsync) 등을 입력받아 게이트 제어신호(주사 제어신호), 데이터 제어신호(데이터 신호)를 생성하고, 입력받은 R, G, B 데이터를 재정렬하여 데이터 드라이버(233)에 공급한다.
타이밍 컨트롤러(231)는 위의 게이트 제어신호와 관련하여 게이트 시프트 클럭(Gate Shift Clock: GSC), 게이트 출력 인에이블(Gate Output Enable: GOE), 게이트 시작 펄스(Gate Start Pulse: GSP) 등을 발생시킬 수 있는데, 여기서 GSC는 R, G, B 유기발광 소자(Organic Light Emitting Diode, OLED)와 같은 발광소자에 연결된 박막 트랜지스터(Thin Film Transistor: TFT)가 온/오프(On/Off)되는 시간을 결정하는 신호이고, GOE는 게이트 드라이버(232)의 출력을 제어하는 신호이며, GSP는 하나의 수직동기신호 중에서 화면의 첫 번째 구동라인을 알려주는 신호이다.
또한, 타이밍 컨트롤러(231)는 데이터 제어신호와 관련하여 소스 샘플링 클럭(Source Sampling Clock: SSC), 소스 출력 인에이블(Source Output Enable: SOE), 소스 시작 펄스(Source Start Pulse: SSP) 등을 생성할 수 있다. 여기서 SSC는 데이터 드라이버(233)에서 데이터를 래치(latch)시키기 위한 샘플링 클럭으로 사용되며, 데이터 드라이브 IC의 구동주파수를 결정한다. SOE는 SSC에 의해 래치된 데이터들을 표시패널(235)로 전달하게 된다. SSP는 하나의 수평 동기 기간 중에 데이터의 래치 또는 샘플링 시작을 알리는 신호이다.
게이트 드라이버(232)는 주사신호를 생성하는 구성으로, 주사선(S1, S2, S3,..., Sn)을 통해 표시패널(235)과 연결된다. 게이트 드라이버(232)는 타이밍 컨트롤러(231)에 의해 생성된 게이트 제어 신호에 따라 전압 구동부(234)로부터 제공받은 게이트 온/오프 전압(Vgh/Vgl)을 표시패널(235)로 인가한다. 게이트 온 전압(Vgh)은 표시패널(235)에 단위 프레임 영상의 구현을 위하여 게이트 라인 1(GL1)에서 게이트 라인 N(GLn)까지 순차적으로 제공된다.
데이터 드라이버(233)는 데이터 신호를 생성하는 구성으로, 데이터 선(D1, D2, D3,..., Dm)을 통해 표시패널(235)과 연결된다. 데이터 드라이버(233)는 타이밍 컨트롤러(231)에 의해 생성된 데이터 제어 신호에 따라 스케일링이 완료되고 영상 이미지 프레임의 RGB 데이터를 표시패널(235)에 입력한다. 데이터 드라이버(233)는 타이밍 컨트롤러(231)에서 직렬(serial)로 제공되는 RGB의 영상 데이터를 병렬(parallel)로 변환하고, 디지털 데이터를 아날로그 전압으로 변환하여 하나의 수평 라인 분에 해당되는 영상 데이터를 표시패널(235)에 제공한다. 이 과정은 각 수평라인 별로 순차적으로 이루어진다.
전압 구동부(234)는 게이트 드라이버(232), 데이터 드라이버(233), 표시패널(235) 등에 각각의 구동 전압을 생성하여 전달한다. 즉, 외부로부터의 상용전원, 즉 110V 또는 220V의 교류전압을 제공받아 표시패널(235)에 필요한 전원전압(VDD)을 생성하여 제공하거나, 접지전압(VSS)을 제공할 수 있다. 또한, 게이트 온 전압(Vgh)을 생성하여 게이트 드라이버(232)로 제공할 수 있다. 이를 위해 전압 구동부(234)는 개별적으로 동작하는 복수의 전압 구동 모듈(미도시)을 포함할 수 있다. 여기서, 복수의 전압 구동 모듈(미도시)은 제어부(130)의 제어에 따라 서로 다른 전압을 제공하도록 동작할 수 있으며, 제어부(130)는 기설정된 정보에 따라 복수의 전압 구동 모듈이 서로 다른 구동 전압을 제공하도록 전압 구동부(234)를 제어할 수 있다. 예를 들어, 복수의 전압 구동 모듈 각각은 제어부(130)의 제어에 따라 기설정된 정보에 따라 서로 다른 제1 전압 및 디폴트로 설정된 제2 전압을 제공할 수 있다.
일 실시 예에 따르면, 전압 구동부(234)는 복수 개의 영역으로 구분된 표시패널(235)의 각 영역에 대응되는 복수 개의 전압 구동 모듈을 포함할 수 있다. 이 경우, 제어부(130)는 복수 개의 영역 각각의 화면 정보(또는 입력 영상 정보)에 따라 서로 다른 제1 전압, 즉, ELVDD 전압을 제공하도록 복수 개의 전압 구동 모듈을 제어할 수 있다. 즉, 데이터 드라이버(233)에 입력되는 영상신호를 이용하여 ELVDD 전압의 크기를 제어할 수 있다. 여기서, 화면 정보는, 입력 영상의 휘도 및 계조 정보 중 적어도 하나가 될 수 있다.
표시패널(235)은 서로 교차하여 화소 영역을 정의하기 위한 다수의 게이트 라인(GL1~GLn)과 데이터 라인(DL1~DLn)이 형성되고, 그 교차하는 화소영역(236)에는 OLED와 같은 R, G, B의 발광소자가 형성될 수 있다. 그리고 화소영역(236)의 일 영역, 더 정확하게는 모서리에는 스위칭소자 즉 TFT가 형성된다. 이러한 TFT의 턴-온 동작시 데이터 드라이버(233)로부터 계조 전압이 각각의 R, G, B의 발광소자로 제공된다. 이때 R, G, B의 발광소자들은 계조 전압에 근거하여 제공된 전류량에 상응하여 빛을 제공하게 된다. 즉 R, G, B의 발광소자들은 많은 전류량이 제공되면 그만큼 많은 빛을 제공하게 되는 것이다.
도 30은 도 29의 표시패널을 구성하는 R, G, B 화소를 구성하는 회로 구조를 설명하기 위한 도면이다.
도 30을 참고하면, 표시패널(235)은 3개의 R,G,B 화소영역(236)을 포함한다. R, G, B의 화소영역(236)은 스캔 신호(S1), 게이트 온 전압(Vgh)에 의해 동작하는 스위칭소자 (M11, M21, M31), 데이터 라인(DL1~DLn)으로 제공되는 변경된 고계조값을 포함하는 화소값에 근거하여 전류를 출력하는 스위칭소자 (M12, M22, M32), 그리고 타이밍 컨트롤러(231)에서 제공되는 제어 신호에 따라 스위칭소자 (M12, M22, M23)에서 R, G, B의 발광소자로 제공되는 전류량을 조절하는 스위칭소자 (M13, M23, M33)를 포함할 수 있다. 그리고, 이러한 스위칭 소자 (M13, M23, M33)는 유기발광소자(OLED)와 연결되어 OLED로 전류를 공급한다. 여기서, OLED는 형광 또는 인광 유기물 박막에 전류를 흘리면 전기장 발광의 원리를 이용해 자체적으로 빛을 발하는 디스플레이를 말한다. OLED의 애노드(anode)전극은 화소회로에 접속되고, 캐소드(cathode)전극은 ELVSS에 접속된다. 이와 같은 OLED는 화소회로로부터 공급되는 전류에 대응하여 소정 휘도의 빛을 생성한다. 여기서, 스위칭 소자 (M11, M21, M31)의 게이트 전극은 주사선(S1)에 접속되고, 소스 전극 및 드레인 전극 중 어느 하나는 데이터선(D1)에 접속된다. 이처럼 표시패널(235)은 AM-OLED(Active Matrix Organic Light-Emitting Diode) 패널로 구현될 수 있다. 다만, 상술한 실시 예는 본 발명의 일 실시 예에 불과하며, 본 발명이 하나의 라인이 동시에 발광하여 구동하는 방식인 PM OLED(Passive Matrix Organic Light-Emitting Diode)을 배제하지 않음은 물론이다.
이처럼 멀티 디스플레이 장치(100)의 디스플레이부(190)를 OLED로 구현하는 경우, 별도의 발광수단(백라이트)을 구비할 필요가 없게 되어, 디스플레이 장치의 두께를 얇게 할 수 있고, 무게를 줄일 수 있는 장점이 있다. 또한, 구성을 단순화시킬 수 있는 이점도 생긴다.
다만, 상기 실시 예에서는 OLED를 설명했지만, 디스플레이부는 액정 디스플레이 패널(Liquid Crystal Display Panel: LCD Panel), 플라즈마 디스플레이 패널(Plasma Display Panel: PDP), VFD(Vacuum Fluorescent Display), FED(Field EmissionDisplay), ELD(Electro Luminescence Display) 등 다양한 디스플레이 기술로 구현될 수 있다.
도 31은 터치스크린부를 포함하는 제1디스플레이부(190a) 또는 제2디스플레이부(190b)의 단면도이다.
도 31을 참고하면, 제1디스플레이부(190a)는 영상 출력부(191)와 터치스크린부(192)를 포함한다.
영상 출력부(191)는 상부 기판(362)과 하부 기판(361)이 밀착된 표시 패널부(360)와, 표시 패널부(360)의 상부 기판(362)에 마련된 상부 편광판(300)과, 상부 편광판(300) 가장자리 영역에 마련된 하부 전극(310)을 포함한다. 그리고, 영상 출력부는 하부 기판(361)에 마련된 하부 편광판(301)을 포함한다.
상술한 상부 기판(362)과 하부 기판(361)의 사이 영역에는 액정층(363)이 마련될 수 있다. 상부 기판(362)과 하부 기판(361)은 화상을 표시하는 표시 영역과 표시 영역의 가장자리에 마련된 주변 영역을 포함한다. 하부 기판(361)의 표시 영역에는 도시되지 않았지만, 복수의 게이트 라인과 복수의 데이터 라인 그리고 복수의 게이트 라인과 데이터 라인의 교차 영역에 마련된 박막 트랜지스터와, 상기 박막 트랜지스터에 접속된 화소 전극이 마련된다. 상기 화소 전극과 그 일부가 중첩되는 유지 전극이 마련된다. 그리고, 하부 기판(361)의 주변 영역에는 상기 게이트 라인 및 데이터 라인에 접속된 복수의 패드부가 마련될 수 있다.
상부 기판(362)과 하부 기판(361)은 실란트와 같은 밀봉 부재(364)를 이용하여 밀봉되는 것이 바람직하다. 밀봉 부재(364)는 상부 기판(362)과 하부 기판(361)의 주변 영역에 마련되는 것이 효과적이다.
터치스크린부(192)는 하부 전극(310)과 접속되고 상부 편광판(300) 상에 마련된 하부 투명 전극(330)과, 상부 투명 전극(342)이 마련되고 상부 기판(362)에 부착된 터치 패드부(340)와, 상부 투명 전극(342)과 하부 투명 전극(330) 사이에 마련된 돌기부(350)를 포함한다.
터치 패드부(340)는 베이스 필름(341)과, 베이스 필름(341)상에 마련된 상부 투명 전극(342)과, 상부 투명 전극 상에 마련된 상부 전극(343)을 포함한다.
외부에서 터치 패드부(340)를 소정의 힘으로 누를 경우, 힘이 인가된 영역의 돌기부(350)가 하부 투명 전극(330)에 밀착되고, 이로 인해 하부 투명 전극(330)과 상부 투명 전극(342) 간이 전기적으로 접속하게 된다. 전기적 접속을 통해 상부 투명 전극(342) 및/또는 하부 투명 전극(330)을 흐르는 전류가 변화하게 되고, 이러한 변화를 별도의 감지 수단(미도시)을 통해 감지한다. 감지 수단은 감지된 신호를 별도로 구비된 제어부(130)에 전달된다. 제어부(130)는 감지된 신호를 이용하여 전류의 흐름이 변화된 영역의 좌표를 생성하고, 이를 소정의 드라이버(미도시)에 전달한다. 드라이버는 입력된 좌표에 대응하여 표시 패널부(360)에 표시된 화상을 마우스와 같은 입력 도구를 이용하여 조작한 것과 동일한 동작을 수행할 수 있다.
- 멀티 디스플레이의 프레임 버퍼링 방식 -
한편, 멀티 디스플레이 장치(100)의 특성상 영상 프레임 버퍼를 다양한 방식으로 구비할 수 있다. 이하에서는 다양한 방식의 영상 프레임 버퍼에 대해서 설명한다.
도 32는 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치(100)의 디스플레이 구동부(134)를 도시한 블록도이고, 도 33은 본 발명의 다른 실시 예에 따른 디스플레이 구동부(134')의 구성을 도시한 블록도이다.
도 32에 따르면, 디스플레이 구동부(134)는 제1 프레임 버퍼(134a-1) , 제1 디스플레이 드라이버(134a-2), 제2 프레임 버퍼(134b-1) 및 제2 디스플레이 드라이버(134b-2)를 포함한다. 즉, 각 디스플레이부(190a, 190b) 별로 별도의 프레임 버퍼(134a-1, 134b-1)와, 디스플레이 드라이버(134a-2, 134b-2)를 구비할 수 있다.
제1 프레임 버퍼(134a-1)는 제1 디스플레이부(190a)에 디스플레이될 이미지 프레임을 버퍼링하기 위한 구성이고, 제2 프레임 버퍼(134b-1)는 제2 디스플레이부(190b)에 디스플레이될 이미지 프레임을 버퍼링하기 위한 구성이다.
가령, GPU(133)에 의해서 디지털 신호 처리된 이미지 프레임은 제1, 2 프레임버퍼(134a-1, 134b-1)에 비트맵 형태로 저장된다. 이 경우, 각 프레임 버퍼(134a-1, 134b-1)의 버퍼링 영역은 각 디스플레이부 (190a, 190b)에서 지원 가능한 최대 픽셀 크기에 맞게 할당된다. 제1 디스플레이 드라이버(134a-2)는 제1 프레임 버퍼(134a-1)에 저장된 이미지 프레임을 분석해서 제1 이미지 소스 신호로 변환한다. 제1 디스플레이 드라이버(134a-2)는 제1 이미지 소스 신호를 제1 디스플레이부(190a)로 제공하여, 제1 디스플레이부(190a)가 이미지 프레임을 디스플레이하도록 구동시킨다.
마찬가지로, 제2 디스플레이 드라이버(134b-2)는 제2 프레임 버퍼(134b-1)에 저장된 이미지 프레임을 분석해서 제2 이미지 소스 신호로 변환하고, 이를 제2 디스플레이부(190b)에 제공하여 디스플레이시킨다.
이러한 두 개의 프레임 버퍼는 각 디스플레이부(190a, 190b)에 대한 영상 프레임을 병렬적으로 처리하는 경우에 적합할 수 있다. 병렬 프로세서가 각 디스플레이부(190a, 190b)에 대한 영상 신호를 출력하는 경우, 영상 출력 효율을 높일 수 있다.
그러나 이와 달리 도 33에 도시된 것처럼 각 디스플레이부(190a, 190b)에 대응되는 제1 프레임 버퍼(134a-1)와 제2 프레임 버퍼(134b-1)가 별도로 마련된 것이 아니라, 하나의 통합 프레임 버퍼(134-1)를 사용할 수도 있다.
도 33은 통합 프레임 버퍼(134-1)를 이용하여 각 디스플레이부(190a, 190b)의 동작을 제어하는 멀티 디스플레이 장치(100)의 구성을 나타내는 블럭도이다. 프레임 버퍼가 통합 프레임 버퍼(134-1) 형태로 구현될 경우, 제1, 2디스플레이부의 최대 해상도보다 큰 크기로 통합 프레임 버퍼(134-1)의 크기를 할당하여 구현할 수 있다.
예를 들어, 제1, 2디스플레이부가 각각 최대 1024*800의 해상도를 디스플레이할 수 있는 경우, 통합 프레임 버퍼(134-1)는 1024*1600의 해상도를 디스플레이할 수 있는 프레임 버퍼 크기로 저장 영역을 할당한다. 통합 프레임 버퍼(134-1)의 제1 영역에는 제1 디스플레이부(190a)에 디스플레이되는 제1 이미지 프레임이 저장되고, 제2 영역에는 제2 디스플레이부(190b)에 디스플레이되는 제2 이미지 프레임이 저장된다.
디스플레이 드라이버(134-2)는 통합 프레임 버퍼(134-1)에 저장된 제1 이미지 프레임과 제2 이미지 프레임의 어드레스를 이용하여 제1 디스플레이부(190a) 또는 제2 디스플레이부(190b)로 제1, 2 이미지 프레임을 제공하여 각각의 디스플레이부를 구동시킨다.
- 근접 센싱 수단 -
전술한 것처럼 멀티 디스플레이 장치(100)의 센서부(150)는 근접센서(155)를 포함할 수 있다. 이하에서는 근접 센서(155)의 구성 및 동작을 설명한다.
도 34는 본 발명의 일 실시예에 따른 근접 터치를 설명하기 위한 도면이다.
사용자는 터치 스크린을 직접 터치하지 않고, 손가락이나 기타 객체를 접근시키는 동작 만으로 멀티 디스플레이 장치(100)에 제어 명령을 입력시킬 수 있다. 멀티 디스플레이 장치는 근접 센서(155)를 이용하여 근접 터치를 센싱할 수 있다. 근접 터치는 터치 스크린을 직접 터치하지 않고 공간상의 일정한 유효 인식 범위에서 움직임이 인식되는 경우 하나의 터치 제스처로 인식하는 것을 의미한다.
도 34를 참조하면, 디스플레이부(290)의 상부에는 근접 터치 인식을 위한 적외선 소스부(291)가 위치하고 디스플레이부(290)의 하부에는 적외선 센싱부(292)를 포함한다.
적외선 소스부(291)는 디스플레이부(290)의 표면 방향으로 적외선을 조사한다. 구체적으로, 적외선 소스부(291)는 영상 또는 이미지를 표시하는 디스플레이부(290)의 하부에 배치되며, 적외선을 디스플레이부(290)의 표면 방향으로 조사할 수 있다. 디스플레이부(290)의 표면 위로 사용자 객체(50)의 접근을 인식할 수 있는 일정한 영역이 존재한다. 이 영역이 근접 터치를 인식할 수 있는 유효 인식 영역(5)이다.
사용자 객체의 의미는 멀티 디스플레이 장치(100)에 명령을 입력하기 위한 수단을 의미하는 것으로써, 예를 들어, 손과 같은 신체의 일부가 될 수 있다.
사용자 객체(50)가 유효 인식 영역(5) 안으로 근접하면 적외선 센싱부(292)는 사용자 객체(50)의 근접에 의하여 반사되는 적외선을 감지하여 적외선 스캔 이미지를 생성한다. 구체적으로 적외선 센싱부(292)는 어레이 형태로 배치되는 복수의 적외선 센싱 소자를 이용하여, 사용자 객체(50)의 접근에 의하여 반사되는 적외선에 대응되는 적외선 스캔 이미지를 생성할 수 있다. 멀티 디스플레이 장치(100)는 생성된 적외선 스캔 이미지를 이용하여 근접 터치 입력을 감지할 수 있다.
- 멀티 디스플레이 장치의 외관 구성 -
이하에서는 본 발명의 일 실시 예에 따른 멀티 디스플레이 장치(100)의 외관을 첨부된 사시도와 함께 설명한다.
도 35는 본 발명의 일 실시예에 따른 멀티 디스플레이 장치(100)의 세부적인 사시도이다. 여기에서는 멀티 디스플레이 장치(100)가 힌지부(185)로 결합되는 2개의 디스플레이부(190a, 190b)를 구비하는 경우의 구성을 도시하였다.
도 35를 참조하면, 멀티 디스플레이 장치(100)는 제1 및 제2 바디(body)(2, 4)로 구성되며, 제1 및 제2 바디(2, 4)는 힌지부(185)에 의해 연결되어 상대적으로 이동 가능하도록 구성된다. 제1 바디(2)의 일면에는 제1 디스플레이부(190a)가 구비되고, 제1 디스플레이부(190a)의 일 측면에는 적어도 하나의 물리적 버튼(161)이 배치될 수 있다. 제2 바디(4)의 일면에는 제2 디스플레이부(190b)가 구비되며, 제2 디스플레이부(190b)의 일 측면에는 적어도 하나의 물리적 버튼(161')이 배치될 수 있다. 상기 물리적 버튼(161, 161')은 푸쉬 버튼 및 터치 버튼 중 적어도 하나를 포함한다. 일 실시예로서, 스피커(163) 및 마이크(162)를 구비한 제1 바디(2)에 배치되는 제1 디스플레이부(190a)는 메인 스크린으로 동작하며, 그렇지 않은 제2 바디(4)에 배치되는 제2 디스플레이부(190b)은 서브 스크린으로 동작할 수 있다. 일 실시예로서 제1 바디(2)는 제1 카메라(141)를 구비하며, 제2 바디(4)는 제2 카메라(142)를 구비한다.
도 35에 도시된 바와 같이 멀티 디스플레이 장치(100)가 놓여진 상태에서 각각의 디스플레이부(190a, 190b)는 랜드 스케이프 모드로 화면을 표시한다.
멀티 디스플레이 장치(100)는 제1 바디(2) 및 제2 바디(4)가 힌지부(185)에 의해 연결되어 상대 이동 가능하도록 구성된다면, 휴대폰, 노트북, 태블릿 PC, PMP 등 어떠한 기기도 될 수 있다. 제1 디스플레이부(190a)와 제2 디스플레이부(190b)가 제1 바디(2) 및 제2 바디(4)에 각각 구비되는 것으로 설명하였으나, 후술되는 설명은 두 개의 패널 중 어느 하나의 패널에만 터치 스크린 디스플레이가 제공되는 기기에도 적용 가능하다. 또한, 각 디스플레이부(190a, 190b) 측면의 기능버튼(161) 중 적어도 하나는 생략될 수도 있다. 더 나아가, 제1 바디(2)와 제2 바디(4)의 연결은 힌지부(185)에 의한 것을 예로 들어 도시하였지만, 제1 바디(2)와 제2 바디(4)가 상대적 이동을 통해 접힐 수 있게 구성되기만 한다면 다른 구성요소의 연결로도 대체 가능하다.
한편, 힌지부(185)는 도 35에 도시된 바와 같이 제1 바디(2) 및 제2 바디(4)의 연결부 상 하측에 배치된 2개의 힌지로 구성될 수 있다. 또한 힌지부(185)는 제1 바디(2) 및 제2 바디(4)의 연결부 전체에 배치된 1개의 힌지로 구성될 수도 있다.
멀티 디스플레이 장치(100)는 물리적 혹은 그래픽적으로 분리되는 제1 디스플레이부(190a)과 제2 디스플레이부(190b)로 구성된 디스플레이 장치를 구비하고, 두 개의 디스플레이부(190a, 190b)을 활용하여 하기 도 11 내지 도 15와 같은 다양한 스크린 모드(Screen Mode)를 지원할 수 있다.
도 35 내지 도 40은 본 발명의 일 실시예에 따른 멀티 디스플레이 장치(100)의 제1 바디(2)와 제2 바디(4) 사이의 상대 각도에 따른 다양한 스크린 모드들을 도시한 도면이다.
상대 각도(θ)는 제1 바디(2)에 대해 소정 방향(일 예로 반시계 방향)으로 회전된 제2 바디(4) 사이의 회전각도이다.
구체적으로, 상대 각도(θ)는 힌지부(185) 자체에 내장된 힌지 센서를 이용하여 검출할 수 있다. 힌지 센서는 홀 센서, 압력 센서, 유도 검출 센서, 전기 컨텍트 센서 및 광학 센서 중 어느 하나로 이루어져 힌지의 움직임 및 상대적인 위치를 검출하여 상대 각도(θ)를 인식할 수 있다.
또한, 상대 각도(θ)는 힌지 센서 이외에도 지자기 센서, 가속도 센서로 제1 및 제2 바디(2, 4) 각각의 위치를 검출하여 상대 각도(θ)를 인식할 수 있다.
도 36은 본 발명의 일 실시예에 따른 접혀진 멀티 디스플레이 장치(100)를 나타내는 사시도이다. 도 36에 도시된 바와 같이, 제1 바디(2)와 제2 바디(4)상의 제1 및 제2 디스플레이부(190a, 190b)가 각각 서로 대향하고 있는 상태로, 제1 바디(2)와 제2 바디(4)가 맞닿아 있다. 즉, 제1 디스플레이부(190a)의 반대쪽에 제2 디스플레이부(190b)가 위치하게 된다. 사용자가 제1 디스플레이부(190a)를 보면 제2 디스플레이부(190b)는 반대쪽에 위치하게 되므로 사용자는 직접 볼 수가 없다. 이렇게 사용자가 하나의 디스플레이부만을 볼 수 있다.
이때의 상대 각도(θ)는 0도로 정의한다. 일 예로서 제1 및 제2 바디(2,4) 간의 상대 각도가 0도 내지 60도 사이일 때 멀티 디스플레이 장치(100)는 싱글 모드로 인지한다. 싱글 모드는 멀티 디스플레이 장치(100)가 사용되지 않는 잠금 상태일 때 및 통화(call) 어플리케이션에서 유용하게 사용될 수 있다. 싱글 모드에서는 전면의 제1 디스플레이부(190a)가 적어도 하나의 어플리케이션에 의한 작업 화면을 표시하며, 후면의 제2 디스플레이부(190b)는 턴-오프 될 수 있다. 일부 어플리케이션은 옵션 메뉴를 사용하여 후면의 제2 디스플레이부(190b)를 턴-온 할 수 있다. 싱글 모드일 경우에는 사용자가 하나의 디스플레이 화면만을 볼 수 있으므로, 제어부(130)는 하나의 디스플레이부만을 제어한다. 즉, 제어부(130)는 사용자가 현재 바라보고 있는 디스플레이부에 대해서만 제어 신호를 전송한다. 제어부(130)에 의해서 제어되고 있지 않은 디스플레이부에 대해서는 별도의 제어 신호 및 데이터 신호를 전송하지 않음으로써 전력 소비를 줄여준다.
이때 실질적으로 제어 신호 및 데이터 신호를 공급받지 않는 디스플레이부는 슬립 모드로 동작하고, 제어부(130)에 의해서 슬립 모드에서 벗어나는 신호가 인가되거나 사용자가 멀티 디스플레이 장치(100)의 방향을 회전하여 슬립 모드 중인 디스플레이부를 바라볼 경우에는 슬립 모드에서 벗어난다.
도 37는 제1 바디(2)와 제2 바디(4)가 나란히 평행한 상태로서 상대 각도(θ)가 180도 혹은 소정 범위 내에서 180도에 근접한 상태, 즉 펼친(unfolded) 상태를 도시한다. 이하에서 이를 익스펜딩 모드로 칭한다. 일 예로서, 제1 및 제2 바디(2,4) 간의 상대 각도가 175도-185도의 범위에 있을 때 멀티 디스플레이 장치(100)는 제1 및 제2 바디(2,4)가 펼쳐져 있는 것으로 간주할 수 있다. 익스펜딩 모드는 두 개의 어플리케이션에 대한 두 개의 작업 화면을 각각 디스플레이부(109a, 190b)에 표시하거나, 하나의 어플리케이션에 대한 하나의 화면을 두 개의 디스플레이부(190a, 190b)에 표시하거나, 혹은 1개의 어플리케이션에 대한 두 개의 작업 화면을 두 개의 디스플레이부(190a, 190b)에 표시할 수 있다. 어느 하나의 디스플레이부에 아무런 어플리케이션도 표시하지 않을 수 도 있지만, 디폴트된 홈 화면을 표시할 수 있다. 익스펜딩 모드는 E-book, 동영상 플레이어 어플리케이션, 웹 브라우징 화면에서 유용하게 사용될 수 있다.
제어부(130)는 제1 디스플레이부(190a)에 제1 웹 브라우징 화면을 표시하고, 제2 디스플레이부(190b)에 제2 웹 브라우징 화면을 표시할 수 있다. 이때, 제1 웹 브라우징 화면과 제2 웹 브라우징 화면은 서로 관련성이 있고, 제2 웹 브라우징 화면과 관련된 제3 웹 브라우징 화면을 제1 디스플레이부(190a)에 표시하고, 제3 웹 브라우징 화면과 관련된 제4 웹 브라우징 화면을 제2 디스플레이부(190b)에 표시할 수 있다.
제어부(130)는 제1 디스플레이부(190a) 및 제2 디스플레이부(190b)에 표시되는 웹 브라우징 화면을 교번적으로 표시할 수 있고, 각각의 디스플레이부(190a, 190b)에 표시된 복수의 웹 브라우징 사이의 화면 전환을 할 수 있으며, 제1 디스플레이부(190a)에 표시되는 웹 브라우징과 제2 디스플레이부(190b)에 표시되는 웹 브라우징을 서로 다른 레이아웃으로 디스플레이할 수 있다.
도 38은 제1 바디(2)에 대한 제2 바디(4)의 상대 각도(θ)가 180도를 초과하는 상태, 즉 두 디스플레이부(190a, 190b)가 안쪽으로 약간 접힌 상태를 도시한 것으로서, 툴 킷 모드(Tool Kit Mode)라 칭한다. 일 예로서 제1 및 제2 바디(2,4) 간의 상대 각도가 185도 내지 265도 사이인 경우 툴 킷 모드로 인지한다. 툴 킷 모드는 두 디스플레이부(190a, 190b)가 안쪽을 향하도록 약간 접힌 상태로서 멀티 디스플레이 장치(100)가 노트북과 유사한 형태로 사용될 때 유용하다. 일 예로, 어느 하나의 디스플레이부(190a)에 작업 화면을 표시하고, 다른 하나의 디스플레이부(190b)에는 키보드 등의 툴(Tool)을 표시하는 등 다양한 작업 환경을 제공할 수 있다.
도 39는 제1 바디(2)에 대한 제2 바디(4)의 상대 각도(θ)가 180도 미만인 상태, 즉 두 디스플레이부(190a, 190b)가 서로 거의 반대방향을 향하도록 바깥쪽으로 거의 접힌 상태를 도시한 것으로서 스탠딩 모드(Standing Mode)라 칭한다. 일 예로서 제1 및 제2 바디(2,4) 간의 상대 각도가 30도 내지 90도 사이인 경우, 멀티 디스플레이 장치(100)는 스탠딩 모드로 인지한다. 스탠딩 모드는 두 디스플레이부(190a, 190b)가 바깥쪽을 향하도록 접힌 구조로서, 멀티 디스플레이 장치(100)를 바닥에 삼각형 모양으로 세워 놓을 수 있어서, 충전 시, 멀티 디스플레이 장치(100)를 디지털 시계 혹은 액자로 사용시, 개인 방송, 영화, 동영상 등을 장시간 시청시에 유용하게 사용될 수 있다. 다른 실시예로서 스탠딩 모드는 2명 이상의 사용자에 의한 협력 혹은 상호작용을 필요로 하는 어플리케이션, 일 예로 화상 회의, 협업 게임(Collaborative Game) 등에 적용될 수 있다. 일부 어플리케이션은 스탠딩 모드에서 전면의 제1 디스플레이부(190a)에만 작업 화면을 표시하며, 후면의 제2 디스플레이부(190b)를 턴-오프 할 수 있다. 일부 어플리케이션은 옵션 메뉴를 사용하여 후면 제2 디스플레이부(190b)를 턴-온 할 수 있다.
도 40은 도 39에서 설명한 스탠딩 모드의 다른 실시 예로서, 힌지의 일부분이 바닥에 닿도록 멀티 디스플레이 장치(100)를 세워 둔 상태를 도시한 것으로서 세로보기 모드라 칭한다. 세로보기 모드는 제1 및 제2 바디(2, 4) 간의 상대각도가 30도 내지 90도 사이이고, 가속도 센서에 의해 멀티 디스플레이 장치(100)가 세로로 세워져 있다고 판단되는 경우, 세로보기 모드로 인지한다.
구체적으로, 가속도 센서는 멀티 디스플레이 장치(100)의 회전을 감지한다. 가속도 센서는 멀티 디스플레이 장치(100)의 제1 및 제2 디스플레이부(190a, 190b)가 좌우측에 배치되는 세로보기 모드와 제1 및 제2 디스플레이부(190a, 190b)가 상하측에 배치되는 가로보기 모드 간의 전환을 감지한다.
세로보기 모드는 2명 이상의 사용자에게 각각 다른 영상을 제공할 필요가 있는 어플리케이션, 일 예로 화상 회의, 멀티 동영상 플레이어 등에 적용될 수 있다.
도 41 및 도 42은 본 발명의 일 실시예에 따른 멀티 디스플레이 장치(100)의 두 개의 카메라 배치를 설명하기 위한 도면이다. 도 41 및 도 42는 멀티 디스플레이 장치(100)를 정면에서 바라본 모습이다. 카메라의 배치를 설명하기 위한 도면이므로 카메라 외의 다른 부분은 생략되었다.
먼저, 도 41을 참조하면 멀티 디스플레이 장치(100)는 제1 바디(2) 및 제2 바디(4)로 구성되며, 제1 바디(2)는 제1 디스플레이부(190a)를 포함하고, 제2 바디(4)는 제2 디스플레이부(190b)를 포함한다. 제1 바디(2) 및 제2 바디(4)는 힌지부(185)에 의해 연결되어 상대적으로 이동 가능하도록 구성된다. 제1 카메라(141)는 제1 바디(2)의 가장자리 영역 중 상기 힌지부(185)의 맞은 편 가장자리 영역의 중앙부에 배치될 수 있다. 제2 카메라(142)는 제2 바디(4)의 가장자리 영역 중 상기 힌지의 맞은 편 가장자리 영역의 중앙부에 배치될 수 있다.
다음으로, 도 42를 참조하여 카메라의 배치를 설명하도록 한다. 설명의 편의를 위해 사용자가 멀티 디스플레이 장치(100)를 바라보는 방향을 기준으로 설명한다. 제1 카메라(141')는 제1 바디(2) 좌측 가장자리 영역의 중앙면에 배치될 수 있고, 제2 카메라(142')는 제2 바디(4) 좌측 가장자리 영역의 중앙면에 배치될 수 있다. 다른 실시예로는 제1 및 제2 카메라는 각각 제1 및 제2 바디(2, 4)의 우측 가장자리 영역의 중앙면에 배치될 수 있다. 또 다른 실시예로는 제1 및 제2 카메라는 각각 제1 및 제2 바디(2, 4)의 모서리 영역에 배치될 수 있다. 멀티 디스플레이 장치(100)는 전술한 바와 같이 가로 방향으로 사용 가능할 뿐만 아니라 세로 방향으로도 사용 가능하다.
- 멀티 디스플레이 방법 -
이하에서는 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 방법을 설명한다.
도 43 내지 47은 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 방법을 도시한 흐름도이다.
이하에서 설명하는 멀티 디스플레이 방법은 전술한 멀티 디스플레이 장치(100)의 동작에 대한 설명 중 중복되는 범위에서 기재를 생략한다.
도 43과 같은 멀티 디스플레이 방법은 제1 디스플레이부가 배치된 제1 바디, 제2 디스플레이부가 배치된 제2 바디와, 상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부를 포함하는 멀티디스플레이 장치에서 수행될 수 있다.
구체적으로는, 멀티 디스플레이 장치(100)가 제1 디스플레이부 및 상기 제2 디스플레이부를 통해서 구조화되지 않은 제1화면 및 제2화면을 각각 디스플레이한 상태에서, 사용자가 각 화면에 대해 사용자 조작을 수행할 수 있다. 이에 따라 제1 화면의 비결정적인 위치에 대한 제1 사용자 조작이 감지되고 (S4310), 제2 화면의 비결정적인 위치에 대한 제2 사용자 조작이 감지되면 단계(S4320)와, 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여 그 조합 결과에 대응되는 동작을 수행한다(S4330).
도 44를 참조하면, 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 방법은 전술한 동작을 수행하는 단계(S4330)는, 상기 제1사용자 조작에 따라 상기 제2사용자 조작과 매칭되는 기능을 변경하는 단계(S4420) 및 상기 제2사용자 조작이 감지되면, 상기 변경된 기능에 따라 동작을 수행하는 단계(S4430)를 포함할 수 있다.
즉, 제1사용자 조작을 감지하고(S4410), 상기 제1사용자 조작에 따라 상기 제2사용자 조작과 매칭되는 기능을 변경하고(S4420), 제2사용자 조작을 감지하고(S4430), 상기 변경된 기능에 따라 동작을 수행하는 과정(S4430)으로 이루어질 수 있다.
이때 상기 제2사용자 조작은 드래그에 의한 선 입력이고, 상기 기능을 변경하는 단계(S4420)는, 상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 입력된 선의 굵기를 증가시키고, 상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 입력된 선의 굵기를 감소시키며, 상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 선의 질감을 변경시킬 수 있다.
또한, 도 43의 실시 예에서 상기 동작을 수행하는 단계(S4330)는, 상기 제1 사용자 조작은 터치&홀드 입력이고, 터치 입력에 의한 제2 사용자 조작이 상기 제1 사용자 조작과 함께 감지되면, 상기 제2 사용자 조작에 대응되는 메뉴를 디스플레이할 수 있다.
또한, 도 45를 참조하면, 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 방법은 제1사용자 조작을 감지하는 단계(S4510), 상기 제1 사용자 조작이 감지되면 상기 제1 사용자 조작에 따라 상기 제2 디스플레이부에 표시된 화면을 변경하는 단계(S4520), 제2사용자 조작을 감지하는 단계(S4530), 상기 제2 사용자 조작이 감지되면 상기 제1 사용자 조작에 의해 변경되어 표시된 화면을 상기 제2 사용자 조작에 따라 변경하는 단계(S4540)를 포함한다.
이때 화면을 변경하는 단계(S4520)는, 상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 제2 디스플레이부에 표시된 상기 화면을 확대하고, 상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 제2 디스플레이부에 표시된 상기 화면을 축소하고, 상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 제2 디스플레이부에 표시된 화면을 회전시킬 수 있다.
또한, 도 46을 참조하면, 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 방법은 제1사용자 조작을 감지하는 단계(S4610), 상기 제1 사용자 조작이 감지되면, 상기 제1 디스플레이부에 표시된 콘텐츠를 추출하는 단계(S4620), 제2사용자 조작을 감지하는 단계(S4630), 상기 제2 사용자 조작이 감지되면, 상기 제2 디스플레이부 상에 상기 추출된 콘텐츠에 대응되는 화면을 표시하는 단계(S4640)를 포함할 수 있다.
이때 상기 추출하는 단계(S4620)는, 상기 제1 사용자 조작에 따라 상기 제1 디스플레이부에 표시된 화면을 캡쳐하고, 상기 화면을 표시하는 단계(S4640)는, 상기 제2 디스플레이부에서 상기 제2 사용자 조작이 이루어진 위치에 상기 캡쳐된 화면을 표시할 수 있다.
또한, 도 47을 참조하면, 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 방법은 제1 디스플레이부가 배치된 제1 바디, 제2 디스플레이부가 배치된 제2 바디와, 상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부를 포함하는 멀티디스플레이 장치의 멀티 디스플레이 방법에 있어서, 상기 제1 디스플레이부 및 상기 제2 디스플레이부가 구조화되지 않은 제1화면 및 제2화면을 각각 디스플레이하면, 상기 제1 화면의 비결정적인 위치에 대한 제1 사용자 조작을 감지하는 단계(S4710), 상기 제2 화면의 비결정적인 위치에 대한 제2 사용자 조작을 감지하는 단계(S4720), 그리고, 상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 연결하여 하나의 사용자 제스쳐로 인식하고, 상기 사용자 제스쳐에 대응되는 실행 화면을 상기 제1 디스플레이부 및 상기 제2 디스플레이부 중 적어도 하나에 디스플레이하는 단계(S4730)를 포함할 수 있다.
상술한 본 발명의 다양한 실시 예에 따른 멀티 디스플레이 방법에서 상기 제1 사용자 조작은 사용자 신체를 이용하여 상기 제1디스플레이부에 근접 또는 터치하는 입력이고, 상기 제2 사용자 조작은 입력 펜을 이용하여 상기 제 2 디스플레이부에 근접 또는 터치하는 입력일 수 있다.
한편, 이상과 같은 다양한 멀티 디스플레이 방법은 복수의 디스플레이부 각각에 대해 이루어지는 비 구조화된 사용자 조작을 각각 인식하여 그에 따라 수행되는 동작들에 대하여 설명하였다. 하지만, 본 발명의 사상은 이에 한정되지 않고, 복수의 디스플레이부 각각에 대해 이루어지는 비 구조화된 사용자 조작을 하나의 사용자 조작으로 인식하여 그에 대응되는 동작을 수행하는 실시 예로도 구현될 수 있다.
가령, 사용자가 제1 디스플레이부(190a)의 화면의 임의의 지점을 터치한 상태에서 제2 디스플레이부(190b) 까지 연속적으로 드래깅을 수행하면, 제1 디스플레이부(190a) 및 제2 디스플레이부(190b)에서 각각 사용자 조작이 감지된다. 제어부(130)는 제1 및 제2 디스플레이부(190a, 190b)에서 사용자 조작이 감지된 시점이 기 설정된 시간 범위 이내이고, 제1 디스플레이부(190a)에서의 드래깅 궤적과, 제2 디스플레이부(190b)에서의 드래깅 궤적이 연속성을 가지면, 하나의 드래깅 조작으로 인식한다. 이에 따라, 그 드래깅 조작에 매칭된 동작을 수행한다. 가령, 제어부(130)는 최초 드래깅이 시작된 제1 디스플레이부(190a)에 표시되어 있던 제1 화면을 제2 디스플레이부(190b)까지 확장하는 동작, 하나의 화면을 분할하여 제1 및 제2 디스플레이부(190a, 190b)에 표시하는 동작, 하나의 공통 화면을 제1 및 제2 디스플레이부(190a, 190b)에 각각 표시하는 동작, 제1 및 제2 디스플레이부(190a, 190b)를 동시에 활성화 또는 비활성화시키는 동작, 멀티 디스플레이 장치의 전원을 턴온또는 턴오프시키는 동작 등과 같이 다양한 동작을 수행할 수 있다.
전술한 멀티 디스플레이 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램으로 구현될 수 있고, 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 멀티 디스플레이 장치
110 : 통신부 120 : 멀티미디어부
130 : 제어부 140 : 촬상부
150 : 센서부 160 : 입/출력부
170 : 저장부 180 : 전원부
190 : 디스플레이부

Claims (21)

  1. 제1 디스플레이부가 배치된 제1 바디;
    제2 디스플레이부가 배치된 제2 바디;
    상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부;
    상기 제1 디스플레이부에 디스플레이된 비 구조화된 제1 화면의 비 결정적인 위치에서 이루어지는 제1 사용자 조작 및 상기 제2 디스플레이부에 디스플레이된 비구조화된 제2 화면의 비 결정적인 위치에서 이루어지는 제2 사용자 조작을 각각 감지하는 센서부; 및
    상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여 그 조합 결과에 대응되는 동작을 수행하는 제어부;를 포함하고,
    상기 제어부는,
    상기 제2 사용자 조작이 감지되는 동안 감지되는 상기 제1 사용자 조작에 따라, 상기 제2 사용자 조작의 결과를 변경하고,
    상기 비구조화된 제1 화면상에 감지된 상기 제1 사용자 조작의 위치 및 상기 비구조화된 제2 화면상에 감지된 제2 사용자 조작의 위치와 관계없이, 상기 변경된 제2 사용자 조작의 결과를 획득하는, 멀티 디스플레이 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 제1사용자 조작에 따라 상기 제2사용자 조작과 매칭되는 기능을 변경하고,
    상기 제2사용자 조작이 감지되면, 상기 변경된 기능에 따라 상기 제2 사용자 조작에 대응되는 동작을 수행하도록 제어하는 것을 특징으로 하는 멀티 디스플레이 장치.
  3. 제2항에 있어서,
    상기 제2사용자 조작은 드래그에 의한 선 입력이고,
    상기 제어부는,
    상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 입력되는 선의 굵기 또는 투명도를 증가시키고,
    상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 입력되는 선의 굵기 또는 투명도를 감소시키고,
    상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 선의 질감 또는 두께를 변경시키는 것을 특징으로 하는 멀티 디스플레이 장치.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 제1 사용자 조작은 터치&홀드 입력이고 상기 제2 사용자 조작은 터치 입력이고,
    상기 제1 사용자 조작과 상기 제2 사용자 조작이 동시에 감지되면,
    상기 제2 사용자 조작에 대응되는 메뉴를 디스플레이하는 것을 특징으로 하는 멀티 디스플레이 장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 제1 사용자 조작이 감지되면 상기 제1 사용자 조작에 따라 상기 제2 디스플레이부에 디스플레이된 상기 제2 화면을 변경하고,
    상기 제2 사용자 조작이 감지되면 상기 제1 사용자 조작에 의해 변경되어 디스플레이된 상기 제2 화면을 상기 제2 사용자 조작에 따라 변경하는 것을 특징으로 하는 멀티 디스플레이 장치.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 제2 디스플레이부에 디스플레이된 상기 제2 화면을 확대하고,
    상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 제2 디스플레이부에 디스플레이된 상기 제2 화면을 축소하고,
    상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 제2 디스플레이부에 디스플레이된 상기 제2 화면을 회전시키는 것을 특징으로 하는 멀티 디스플레이 장치.
  7. 제1항에 있어서,
    상기 제어부는,
    상기 제1 사용자 조작이 감지되면, 상기 제1 디스플레이부에 표시된 콘텐츠를 추출하고,
    상기 제2 사용자 조작이 감지되면, 상기 제2 디스플레이부 상에 상기 추출된 콘텐츠에 대응되는 화면을 표시하는 것을 특징으로 하는 멀티 디스플레이 장치.
  8. 제7항에 있어서,
    상기 제어부는
    상기 제1 사용자 조작에 따라 상기 제1 디스플레이부에 디스플레이된 상기 제1 화면을 캡쳐하고,
    상기 제2 디스플레이부에서 상기 제2 사용자 조작이 이루어진 위치에 상기 캡쳐된 제1 화면을 디스플레이하는 것을 특징으로 하는 멀티 디스플레이 장치.
  9. 제7항에 있어서,
    상기 제1 사용자 조작이 감지되고 있는 중에 상기 제2 화면의 비결정적인 위치에서 이루어지는 제3 사용자 조작이 감지되는 경우,
    상기 제어부는, 상기 제1 디스플레이부 및 상기 제2 디스플레이부에 표시된 콘텐츠를 추출하고,
    상기 제2 사용자 조작이 감지되면, 상기 제2 디스플레이부 상에 상기 추출된 콘텐츠에 대응되는 화면을 표시하는 것을 특징으로 하는 멀티 디스플레이 장치.
  10. 제1 디스플레이부가 배치된 제1 바디;
    제2 디스플레이부가 배치된 제2 바디;
    상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부;
    상기 제1 디스플레이부 및 상기 제2 디스플레이부가 비구조화된 제1화면 및 제2화면을 각각 디스플레이하면,
    상기 제1 화면의 비 결정적인 위치에서 이루어지는 제1 사용자 조작 및 상기 제2 화면의 비 결정적인 위치에서 이루어지는 제2 사용자 조작을 감지하는 센서부; 및
    상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여 하나의 사용자 제스쳐로 인식하고, 상기 하나의 사용자 제스쳐에 대응되는 실행 화면을 상기 제1 디스플레이부 및 상기 제2 디스플레이부 중 적어도 하나에 디스플레이하는 제어부; 를 포함하고,
    상기 제어부는,
    상기 제2 사용자 조작이 감지되는 동안 감지되는 상기 제1 사용자 조작에 따라, 상기 제2 사용자 조작의 결과를 변경하고,
    상기 비구조화된 제1 화면 상에 감지된 상기 제1 사용자 조작의 위치 및 상기 비구조화된 제2 화면 상에 감지된 제2 사용자 조작의 위치와 관계없이, 상기 변경된 제2 사용자 조작의 결과를 획득하는, 멀티 디스플레이 장치.
  11. 제1항에 있어서,
    상기 제1 사용자 조작은 사용자 신체를 이용하여 상기 제1 디스플레이부에 근접 또는 터치하는 입력이고, 상기 제2 사용자 조작은 입력펜을 이용하여 상기 제2디스플레이부에 근접 또는 터치하는 입력인 것을 특징으로 하는 멀티 디스플레이 장치.
  12. 제1 디스플레이부가 배치된 제1 바디, 제2 디스플레이부가 배치된 제2 바디와, 상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부를 포함하는 멀티디스플레이 장치의 멀티 디스플레이 방법에 있어서,
    상기 제1 디스플레이부 및 상기 제2 디스플레이부가 각각 비구조화된 제1 화면 및 제2 화면을 디스플레이하는 단계;
    상기 제1 화면내에서의 비결정적인 위치에서 이루어지는 제1 사용자 조작 및 상기 제2 화면내에서의 비결정적인 위치에서 이루어지는 제2 사용자 조작을 각각 감지하는 단계; 및
    상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여 그 조합 결과에 대응되는 동작을 수행하는 단계;를 포함하고,
    상기 조합 결과에 대응되는 동작을 수행하는 단계는,
    상기 제2 사용자 조작이 감지되는 동안 감지되는 상기 제1 사용자 조작에 따라, 상기 제2 사용자 조작의 결과를 변경하고,
    상기 비구조화된 제1 화면상에 감지된 상기 제1 사용자 조작의 위치 및 상기 비구조화된 제2 화면상에 감지된 제2 사용자 조작의 위치와 관계없이, 상기 변경된 제2 사용자 조작의 결과를 획득하는, 멀티 디스플레이 방법.
  13. 제12항에 있어서,
    상기 동작을 수행하는 단계는,
    상기 제1사용자 조작에 따라 상기 제2사용자 조작과 매칭되는 기능을 변경하는 단계; 및
    상기 제2사용자 조작이 감지되면, 상기 변경된 기능에 따라 상기 제2 사용자 조작에 대응되는 동작을 수행하는 단계;를 포함하는 것을 특징으로 하는 멀티 디스플레이 방법.
  14. 제13항에 있어서,
    상기 제2사용자 조작은 드래그에 의한 선 입력이고,
    상기 기능을 변경하는 단계는,
    상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 입력된 선의 굵기를 증가시키고,
    상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 입력된 선의 굵기를 감소시키고,
    상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 선의 질감을 변경시키는 것을 특징으로 하는 멀티 디스플레이 방법.
  15. 제12항에 있어서,
    상기 동작을 수행하는 단계는,
    상기 제1 사용자 조작은 터치&홀드 입력이고 상기 제2 사용자 조작은 터치 입력이고,
    상기 제1 사용자 조작과 상기 제2 사용자 조작이 동시에 감지되면,
    상기 제2 사용자 조작에 대응되는 메뉴를 디스플레이하는 것을 특징으로 하는 멀티 디스플레이 방법.
  16. 제12항에 있어서,
    상기 제1 사용자 조작이 감지되면 상기 제1 사용자 조작에 따라 상기 제2 디스플레이부에 디스플레이된 상기 제2 화면을 변경하는 단계;를 더 포함하고,
    상기 동작을 수행하는 단계는,
    상기 제2 사용자 조작이 감지되면 상기 제1 사용자 조작에 의해 변경되어 표시된 상기 제2 화면을 상기 제2 사용자 조작에 따라 변경하는 것을 특징으로 하는 멀티 디스플레이 방법.
  17. 제16항에 있어서,
    상기 화면을 변경하는 단계는,
    상기 제1 사용자 조작이 핀치 아웃(pinch out) 입력이면, 상기 제2 디스플레이부에 디스플레이된 상기 제2 화면을 확대하고,
    상기 제 1 사용자 조작이 핀치 인(pinch in) 입력이면 상기 제2 디스플레이부에 디스플레이된 상기 제2 화면을 축소하고,
    상기 제 1 사용자 조작이 터치&로테이트(touch&rotate) 입력이면 상기 제2 디스플레이부에 디스플레이된 상기 제2 화면을 회전시키는 것을 특징으로 하는 멀티 디스플레이 방법.
  18. 제12항에 있어서,
    상기 제1 사용자 조작이 감지되면, 상기 제1 디스플레이부에 표시된 콘텐츠를 추출하는 단계;를 더 포함하고,
    상기 동작을 수행하는 단계는,
    상기 제2 사용자 조작이 감지되면, 상기 제2 디스플레이부 상에 상기 추출된 콘텐츠에 대응되는 화면을 표시하는 것을 특징으로 하는 멀티 디스플레이 방법.
  19. 제18항에 있어서,
    상기 추출하는 단계는,
    상기 제1 사용자 조작에 따라 상기 제1 디스플레이부에 디스플레이된 상기 제1 화면을 캡쳐하고,
    상기 화면을 표시하는 단계는,
    상기 제2 디스플레이부에서 상기 제2 사용자 조작이 이루어진 위치에 상기 캡쳐된 상기 제1 화면을 표시하는 것을 특징으로 하는 멀티 디스플레이 방법.
  20. 제1 디스플레이부가 배치된 제1 바디, 제2 디스플레이부가 배치된 제2 바디와, 상기 제1 바디 및 상기 제2 바디를 연결하여 회전 가능하도록 지지하는 힌지부를 포함하는 멀티디스플레이 장치의 멀티 디스플레이 방법에 있어서,
    상기 제1 디스플레이부 및 상기 제2 디스플레이부가 비구조화된 제1화면 및 제2화면을 각각 디스플레이하면,
    상기 제1 화면의 비결정적인 위치에서 이루어지는 제1 사용자 조작 및 상기 제2 화면의 비결정적인 위치에서 이루어지는 제2 사용자 조작을 감지하는 단계; 및
    상기 감지된 제1 사용자 조작 및 제2 사용자 조작을 조합하여 하나의 사용자 제스쳐로 인식하고, 상기 하나의 사용자 제스쳐에 대응되는 실행 화면을 상기 제1 디스플레이부 및 상기 제2 디스플레이부 중 적어도 하나에 디스플레이하는 단계;를 포함하고,
    상기 하나의 사용자 제스쳐에 대응되는 실행 화면을 디스플레이하는 단계는,
    상기 제2 사용자 조작이 감지되는 동안 감지되는 상기 제1 사용자 조작에 따라, 상기 제2 사용자 조작의 결과를 변경하고,
    상기 비구조화된 제1 화면 상에 감지된 상기 제1 사용자 조작의 위치 및 상기 비구조화된 제2 화면 상에 감지된 제2 사용자 조작의 위치와 관계없이, 상기 변경된 제2 사용자 조작의 결과를 획득하는, 멀티 디스플레이 방법.
  21. 제12항에 있어서,
    상기 제1 사용자 조작은 사용자 신체를 이용하여 상기 제1디스플레이부에 근접 또는 터치하는 입력이고, 상기 제2 사용자 조작은 입력펜을 이용하여 상기 제2디스플레이부에 근접 또는 터치하는 입력인 것을 특징으로 하는 멀티 디스플레이 방법.





KR1020120112638A 2012-10-10 2012-10-10 멀티 디스플레이 장치 및 멀티 디스플레이 방법 KR102063952B1 (ko)

Priority Applications (11)

Application Number Priority Date Filing Date Title
KR1020120112638A KR102063952B1 (ko) 2012-10-10 2012-10-10 멀티 디스플레이 장치 및 멀티 디스플레이 방법
TW102136435A TW201415295A (zh) 2012-10-10 2013-10-09 多顯示裝置以及多顯示方法
JP2013212346A JP2014078234A (ja) 2012-10-10 2013-10-09 マルチディスプレイ装置及びマルチディスプレイ方法
EP13188166.6A EP2720110A3 (en) 2012-10-10 2013-10-10 Display apparatus and display method
US14/050,936 US9696899B2 (en) 2012-10-10 2013-10-10 Multi display apparatus and multi display method
CN201910488926.2A CN110221655A (zh) 2012-10-10 2013-10-10 多显示设备和多显示方法
CN201310470324.7A CN103729160B (zh) 2012-10-10 2013-10-10 多显示设备和多显示方法
US14/193,398 US20140181700A1 (en) 2012-10-10 2014-02-28 Multi display apparatus and multi display method
US14/683,517 US20150212647A1 (en) 2012-10-10 2015-04-10 Head mounted display apparatus and method for displaying a content
US15/622,782 US20170285906A1 (en) 2012-10-10 2017-06-14 Multi display apparatus and multi display method
US16/389,422 US11360728B2 (en) 2012-10-10 2019-04-19 Head mounted display apparatus and method for displaying a content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120112638A KR102063952B1 (ko) 2012-10-10 2012-10-10 멀티 디스플레이 장치 및 멀티 디스플레이 방법

Publications (2)

Publication Number Publication Date
KR20140046319A KR20140046319A (ko) 2014-04-18
KR102063952B1 true KR102063952B1 (ko) 2020-01-08

Family

ID=49513716

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120112638A KR102063952B1 (ko) 2012-10-10 2012-10-10 멀티 디스플레이 장치 및 멀티 디스플레이 방법

Country Status (6)

Country Link
US (3) US9696899B2 (ko)
EP (1) EP2720110A3 (ko)
JP (1) JP2014078234A (ko)
KR (1) KR102063952B1 (ko)
CN (2) CN110221655A (ko)
TW (1) TW201415295A (ko)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
KR101515629B1 (ko) 2012-01-07 2015-04-27 삼성전자주식회사 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US20140191980A1 (en) * 2013-01-04 2014-07-10 Qualcomm Mems Technologies, Inc. System for reuse of touch panel and controller by a secondary display
EP2980692B1 (en) * 2013-03-27 2019-01-09 Nec Corporation Information terminal, display control method, and program therefor
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
JP6244655B2 (ja) * 2013-05-16 2017-12-13 ソニー株式会社 画像処理装置および画像処理方法
KR20150007910A (ko) 2013-07-11 2015-01-21 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
KR102022729B1 (ko) * 2013-08-29 2019-09-19 매그나칩 반도체 유한회사 플립 커버형 디스플레이 단말
US9665206B1 (en) * 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
TWI502474B (zh) * 2013-11-28 2015-10-01 Acer Inc 使用者介面的操作方法與電子裝置
US9733807B2 (en) * 2014-04-30 2017-08-15 Cisco Technology, Inc. Techniques to handle multimedia questions from attendees in an online meeting
US10222824B2 (en) 2014-05-12 2019-03-05 Intel Corporation Dual display system
WO2015179754A1 (en) * 2014-05-22 2015-11-26 Woundmatrix, Inc. Systems, methods, and computer-readable media for touch-screen tracing input
US10949067B2 (en) 2014-05-29 2021-03-16 Hexagon Technology Center Gmbh Apparatus and method of displaying objects in configurable window groups
KR20160005899A (ko) 2014-07-08 2016-01-18 엘지전자 주식회사 디지털 이미지 처리 장치, 시스템 및 제어 방법
KR102172216B1 (ko) * 2014-07-17 2020-10-30 삼성전자주식회사 전자 장치
KR101794872B1 (ko) * 2014-09-28 2017-11-09 주식회사 가난한동지들 초과 펼쳐짐이 가능한 플렉시블 표시장치
KR102348947B1 (ko) 2014-10-30 2022-01-11 삼성전자 주식회사 전자장치의 화면 표시 제어 방법 및 장치
KR102399589B1 (ko) * 2014-11-05 2022-05-18 삼성전자주식회사 디바이스에 오브젝트를 디스플레이 하는 방법, 그 디바이스 및 기록매체
USD760738S1 (en) * 2015-01-15 2016-07-05 SkyBell Technologies, Inc. Display screen or a portion thereof with a graphical user interface
US11676518B2 (en) 2015-04-29 2023-06-13 Intel Corporation Imaging for foldable displays
TWI630472B (zh) 2015-06-01 2018-07-21 仁寶電腦工業股份有限公司 可攜式電子裝置及其操作方法
KR20170008071A (ko) * 2015-07-13 2017-01-23 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
DE102015011649A1 (de) * 2015-09-11 2017-03-30 Audi Ag Bedienvorrichtung mit Zeicheneingabe und Löschfunktion
KR102363605B1 (ko) 2015-10-20 2022-02-17 오리온디스플레이 주식회사 다중 영상시스템의 개별영상기기 식별부호 설정방법
CN105259990A (zh) * 2015-11-26 2016-01-20 上海斐讯数据通信技术有限公司 一种手持终端的背面显示装置及显示方法
WO2017111837A1 (en) 2015-12-26 2017-06-29 Intel Corporation Bendable and foldable display screen to provide continuous display
US10310668B2 (en) * 2016-01-18 2019-06-04 Coretronic Corporation Touch screen display system and a method for controlling a touch screen display system
KR102526860B1 (ko) * 2016-03-18 2023-05-02 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US10061427B2 (en) 2016-03-24 2018-08-28 Microsoft Technology Licensing, Llc Selecting first digital input behavior based on a second input
CN105867533B (zh) * 2016-03-28 2020-06-23 联想(北京)有限公司 一种电子设备
CN107329602A (zh) * 2016-04-28 2017-11-07 珠海金山办公软件有限公司 一种触摸屏轨迹识别方法及装置
CN107636573A (zh) * 2016-07-27 2018-01-26 深圳市柔宇科技有限公司 防止误操作的显示界面控制方法、装置及终端
AU2017100879B4 (en) * 2016-07-29 2017-09-28 Apple Inc. Systems, devices, and methods for dynamically providing user interface controls at touch-sensitive secondary display
JP2018031884A (ja) * 2016-08-24 2018-03-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、画面表示方法、及びプログラム
KR102636648B1 (ko) * 2016-09-13 2024-02-15 삼성전자주식회사 플렉서블 디스플레이 전자 장치
US11073980B2 (en) 2016-09-29 2021-07-27 Microsoft Technology Licensing, Llc User interfaces for bi-manual control
KR102568386B1 (ko) * 2016-09-30 2023-08-21 삼성디스플레이 주식회사 터치 센서를 포함하는 표시 장치
US10650727B2 (en) * 2016-10-04 2020-05-12 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device, display device, and electronic device
KR102529828B1 (ko) * 2016-10-31 2023-05-08 엘지디스플레이 주식회사 표시장치 및 다면 표시장치
CN206894705U (zh) * 2017-04-14 2018-01-16 中兴通讯股份有限公司 一种双屏终端
US10788934B2 (en) 2017-05-14 2020-09-29 Microsoft Technology Licensing, Llc Input adjustment
US20180329521A1 (en) * 2017-05-15 2018-11-15 Microsoft Technology Licensing, Llc Application program mode based on device orientation
CN107368274A (zh) * 2017-07-20 2017-11-21 三星半导体(中国)研究开发有限公司 移动终端及其显示控制方法
US11093197B2 (en) * 2017-07-31 2021-08-17 Stmicroelectronics, Inc. System and method to increase display area utilizing a plurality of discrete displays
US11079995B1 (en) * 2017-09-30 2021-08-03 Apple Inc. User interfaces for devices with multiple displays
US10712840B2 (en) * 2017-10-13 2020-07-14 Dell Products L.P. Active pen system
JP6973025B2 (ja) * 2017-12-20 2021-11-24 コニカミノルタ株式会社 表示装置、画像処理装置及びプログラム
CN110058784B (zh) 2018-01-18 2020-08-04 杭州海康威视***技术有限公司 存储数据的方法和装置
CN115733910A (zh) 2018-03-19 2023-03-03 华为技术有限公司 电子设备
CN110505510B (zh) * 2018-05-16 2020-10-09 杭州海康威视***技术有限公司 大屏***中的视频画面显示方法、装置及存储介质
US11422765B2 (en) 2018-07-10 2022-08-23 Apple Inc. Cross device interactions
CN109471688B (zh) * 2018-09-29 2021-10-12 努比亚技术有限公司 一种显示控制方法、双屏终端及计算机可读存储介质
CN109669655A (zh) * 2018-12-25 2019-04-23 杭州达现科技有限公司 一种基于多用户的目录交换方法和装置
JP6778735B2 (ja) * 2018-12-26 2020-11-04 本田技研工業株式会社 表示装置、表示方法、およびプログラム
US10649713B1 (en) * 2019-01-11 2020-05-12 Dell Products L.P. Calibrating multiple displays of a computing device to have a similar perceived appearance
JP7132859B2 (ja) * 2019-01-21 2022-09-07 株式会社Nttドコモ 表示装置
WO2020171288A1 (ko) * 2019-02-19 2020-08-27 엘지전자 주식회사 이동 단말기 및 이동 단말기를 구비한 전자장치
JP7146951B2 (ja) 2019-02-19 2022-10-04 エルジー エレクトロニクス インコーポレイティド 移動端末機および移動端末機を備える電子機器
CN110996034A (zh) * 2019-04-25 2020-04-10 华为技术有限公司 一种应用控制方法及电子装置
CN110519446A (zh) * 2019-07-30 2019-11-29 宇龙计算机通信科技(深圳)有限公司 移动终端屏幕切换方法、装置及移动终端
US20210096738A1 (en) * 2019-10-01 2021-04-01 Microsoft Technology Licensing, Llc Predictive gesture optimizations for moving objects across display boundaries
KR20210045891A (ko) * 2019-10-17 2021-04-27 삼성전자주식회사 전자 장치 및 전자 장치의 화면 캡쳐 운용 방법
CN112835493B (zh) * 2019-11-22 2022-07-22 华为技术有限公司 截屏显示方法、装置和终端设备
CN111228793B (zh) * 2020-01-21 2021-11-19 腾讯科技(深圳)有限公司 交互界面的显示方法和装置、存储介质及电子装置
CN111414047B (zh) * 2020-03-05 2021-08-17 联想(北京)有限公司 一种触屏控制方法、电子设备及存储介质
KR20210117540A (ko) * 2020-03-19 2021-09-29 삼성전자주식회사 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법 및 저장 매체
US11385734B2 (en) 2020-06-23 2022-07-12 Microsoft Technology Licensing, Llc Multi-panel display device
TWI778732B (zh) * 2020-09-04 2022-09-21 瑞鼎科技股份有限公司 多屏顯示裝置
US11554323B2 (en) * 2020-09-11 2023-01-17 Riot Games, Inc. System and method for precise positioning with touchscreen gestures
JP2022065419A (ja) * 2020-10-15 2022-04-27 セイコーエプソン株式会社 表示方法、及び表示装置
US20220155948A1 (en) * 2020-11-13 2022-05-19 Adobe Inc. Offset touch screen editing
WO2022118151A1 (ja) * 2020-12-06 2022-06-09 株式会社半導体エネルギー研究所 表示システム、及び電子機器

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110310031A1 (en) * 2010-06-22 2011-12-22 Microsoft Corporation Stylus settings

Family Cites Families (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2796768B2 (ja) 1992-11-20 1998-09-10 株式会社ピーエフユー マルチディスプレイ装置
US5522025A (en) 1993-10-25 1996-05-28 Taligent, Inc. Object-oriented window area display system
CA2139094C (en) 1994-12-23 1999-04-13 Abdel Naser Al-Karmi Optical character recognition of handwritten or cursive text
JP3462986B2 (ja) 1998-08-31 2003-11-05 株式会社日立製作所 カメラ付きペン型入力装置
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
JP2001021972A (ja) 1999-07-07 2001-01-26 Minolta Co Ltd ペンシル型のデジタルスチルカメラ
JP2001209470A (ja) 2000-01-26 2001-08-03 Fujitsu Ltd 表示インターフェイス方法及び装置並びにプログラム記憶媒体
US7120317B1 (en) 2001-03-01 2006-10-10 Silicon Motion, Inc. Method and system for a programmable image transformation
JP2002281135A (ja) 2001-03-21 2002-09-27 Nec Viewtechnology Ltd 携帯電話
US7929185B2 (en) 2002-03-25 2011-04-19 Transpacific Systems, Llc System and method for switching screens from overview and preview
US6904737B2 (en) 2002-08-01 2005-06-14 General Mills, Inc. Dispensing apparatus and method of dispensing
KR20040035019A (ko) 2002-10-18 2004-04-29 엘지전자 주식회사 휴대용 컴퓨터의 스피커 시스템 및 스피커 구동방법
KR20040091272A (ko) 2003-04-21 2004-10-28 홍충식 더블 폴더 휴대폰
US9213365B2 (en) * 2010-10-01 2015-12-15 Z124 Method and system for viewing stacked screen displays using gestures
US8984440B2 (en) 2010-10-01 2015-03-17 Z124 Managing expose views in dual display communication devices
US9182937B2 (en) * 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
KR20040104777A (ko) 2003-06-04 2004-12-13 주식회사 팬택앤큐리텔 듀얼 카메라 장착 단말기
KR100557074B1 (ko) * 2003-08-08 2006-03-03 삼성전자주식회사 휴대 단말기의 화면 표시 장치 및 방법
KR20050068127A (ko) 2003-12-29 2005-07-05 엘지전자 주식회사 입체사진 촬영이 가능한 휴대용 단말기
KR100959796B1 (ko) 2004-01-31 2010-05-28 엘지전자 주식회사 부분 윈도우 화면 표시방법
JP3738358B2 (ja) 2004-04-20 2006-01-25 カシオ計算機株式会社 ウィンドウ表示制御装置
KR101117835B1 (ko) 2004-05-06 2012-03-22 다카토시 야나세 윈도우 표시시스템, 윈도우 표시방법, 프로그램 개발지원장치 및 서버장치
JP4177434B2 (ja) 2004-05-06 2008-11-05 隆敏 柳瀬 ウィンドウ表示システム、情報処理システム、クライアント装置、電話機、情報機器、家電機器及び機器
KR20050109190A (ko) 2004-05-14 2005-11-17 주식회사 팬택 듀얼 카메라를 이용한 와이드 이미지 생성 장치 및 방법
JP2006030379A (ja) 2004-07-13 2006-02-02 Toshiba Corp マルチディスプレイシステム及びコンピュータ
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7561737B2 (en) 2004-09-22 2009-07-14 Microsoft Corporation Mathematical expression recognition
KR100606797B1 (ko) 2004-11-12 2006-08-02 엘지전자 주식회사 듀얼 카메라를 갖는 이동통신 단말기
KR101094769B1 (ko) 2004-12-21 2011-12-16 엘지전자 주식회사 듀얼 카메라를 구비한 이동통신 단말기의 파노라마 영상표시 방법
WO2006086508A2 (en) 2005-02-08 2006-08-17 Oblong Industries, Inc. System and method for genture based control system
KR20060092621A (ko) 2005-02-18 2006-08-23 최기훈 듀얼액정이 구비되는 전자책 단말기
KR20070014586A (ko) 2005-07-29 2007-02-01 삼성전자주식회사 Pip 표시 제어방법
KR100653965B1 (ko) 2005-08-01 2006-12-05 심재용 휴대용 단말기의 서로 다른 카메라를 이용한 3차원입체영상 처리 장치
KR100773853B1 (ko) 2005-08-22 2007-11-06 캐논 가부시끼가이샤 오브젝트 조작 장치 및 오브젝트 조작방법
KR100742588B1 (ko) 2005-11-14 2007-07-25 주식회사 디엔피시스템 듀얼 모니터의 모니터간 데이터 공유 방법
US20070220108A1 (en) 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US8587526B2 (en) 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
JP2008033686A (ja) 2006-07-28 2008-02-14 Fujitsu Frontech Ltd 電子ブック
US20080148165A1 (en) * 2006-11-22 2008-06-19 Sony Computer Entertainment America Inc. System and method of providing assistance over a network
US8516393B2 (en) 2006-12-18 2013-08-20 Robert Pedersen, II Apparatus, system, and method for presenting images in a multiple display environment
KR100803504B1 (ko) 2007-01-16 2008-02-14 (주)케이티에프테크놀로지스 듀얼 카메라를 구비한 휴대용 단말기
CN101286310A (zh) 2007-04-13 2008-10-15 群康科技(深圳)有限公司 显示器屏幕显示控制***及其操作方法
KR100936816B1 (ko) 2007-05-26 2010-01-14 이문기 카메라와 마크 출력에의한 포인팅 장치
KR20080113832A (ko) 2007-06-26 2008-12-31 (주)이에스비 액정표시장치상의 특정 패턴을 촬영하는 카메라를 내장하여위치를 판독하는 전자펜과 이를 이용한 전자칠판
KR101164738B1 (ko) 2007-08-29 2012-07-12 교세라 가부시키가이샤 전자 기기 및 입력 인터페이스 전환 방법
US8600816B2 (en) * 2007-09-19 2013-12-03 T1visions, Inc. Multimedia, multiuser system and associated methods
KR20090065040A (ko) 2007-12-17 2009-06-22 삼성전자주식회사 동작과 터치를 이용한 이중 포인팅 장치 및 방법
KR100942783B1 (ko) 2008-02-27 2010-02-18 웹싱크 주식회사 통합 프레임 버퍼를 사용하는 디지털 멀티비전 시스템
EP2313820B1 (en) * 2008-07-15 2017-04-05 Immersion Corporation Systems and methods for physics-based tactile messaging
KR101592296B1 (ko) * 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
US8836611B2 (en) 2008-09-08 2014-09-16 Qualcomm Incorporated Multi-panel device with configurable interface
US8803816B2 (en) 2008-09-08 2014-08-12 Qualcomm Incorporated Multi-fold mobile device with configurable interface
US9009984B2 (en) 2008-09-08 2015-04-21 Qualcomm Incorporated Multi-panel electronic device
US8866840B2 (en) 2008-09-08 2014-10-21 Qualcomm Incorporated Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server
US8860765B2 (en) 2008-09-08 2014-10-14 Qualcomm Incorporated Mobile device with an inclinometer
US8860632B2 (en) 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel device with configurable interface
US8933874B2 (en) 2008-09-08 2015-01-13 Patrik N. Lundqvist Multi-panel electronic device
US20100073306A1 (en) 2008-09-25 2010-03-25 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Dual-view touchscreen display system and method of operation
US8957835B2 (en) 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
KR101021857B1 (ko) 2008-12-30 2011-03-17 삼성전자주식회사 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
KR101569776B1 (ko) 2009-01-09 2015-11-19 삼성전자주식회사 접히는 표시부를 가지는 휴대 단말기 및 이의 운용 방법
US8330733B2 (en) 2009-01-21 2012-12-11 Microsoft Corporation Bi-modal multiscreen interactivity
KR101544364B1 (ko) 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
KR101564108B1 (ko) 2009-03-20 2015-10-28 엘지전자 주식회사 듀얼 디스플레이부를 구비한 이동 통신 단말기에서의 아이템 제어 방법 및 이를 적용한 이동 통신 단말기
US20100251112A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Bimodal touch sensitive digital notebook
US8446377B2 (en) 2009-03-24 2013-05-21 Microsoft Corporation Dual screen portable touch sensitive computing system
KR101510484B1 (ko) * 2009-03-31 2015-04-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP5229083B2 (ja) 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20100115547A (ko) 2009-04-20 2010-10-28 에스케이 텔레콤주식회사 컨텐츠 주밍 방법과 그를 위한 터치 스크린 단말기 및 컴퓨터로 읽을 수 있는 기록매체
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
KR101556329B1 (ko) 2009-05-11 2015-10-01 에스케이텔레콤 주식회사 단말기에서의 모드별 다중 스피커 제어 방법 및 그 장치
KR101578005B1 (ko) 2009-06-10 2015-12-16 엘지전자 주식회사 이동 단말기 및 이것에 구비된 카메라를 이용한 사용자 동작 입력 방법
JP5212310B2 (ja) 2009-08-17 2013-06-19 株式会社リコー ネットワークシステム、サーバ装置、及びグループウェアプログラム
KR101240060B1 (ko) 2009-09-03 2013-03-06 퀄컴 인코포레이티드 경사계를 갖는 모바일 디바이스
JP5653920B2 (ja) 2009-09-03 2015-01-14 クゥアルコム・インコーポレイテッドQualcomm Incorporated グラフィカルユーザインターフェース要素の配置および方向を示すための方法
US8681124B2 (en) 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
US20110102314A1 (en) 2009-10-30 2011-05-05 Xerox Corporation Dual-screen electronic reader with tilt detection for page navigation
KR101710545B1 (ko) 2009-11-05 2017-02-27 엘지전자 주식회사 이동 단말기 및 이를 이용한 정보 제공 방법
JP5898842B2 (ja) * 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
US8261213B2 (en) * 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US8724301B2 (en) 2010-01-29 2014-05-13 Mohamed K. Mahmoud Laptop book
US20110191704A1 (en) 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8751970B2 (en) * 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US8473870B2 (en) * 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US8707174B2 (en) * 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US9075522B2 (en) * 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
JP2011221229A (ja) 2010-04-08 2011-11-04 Sharp Corp 表示システム、表示方法、およびディスプレイ
KR101196253B1 (ko) 2010-04-20 2012-11-05 주식회사 유니온앤이씨 기업 정보 관리를 위한 가상 컨텐츠 공급 장치 및 방법
JP5138833B2 (ja) * 2010-06-08 2013-02-06 パナソニック株式会社 映像生成装置、方法及び集積回路
US9009594B2 (en) 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
KR101686866B1 (ko) 2010-06-30 2016-12-15 엘지전자 주식회사 이동 단말기
KR101701839B1 (ko) 2010-07-13 2017-02-02 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101718027B1 (ko) 2010-09-09 2017-03-20 엘지전자 주식회사 이동 단말기 및 그의 메모 관리방법
US20120084737A1 (en) * 2010-10-01 2012-04-05 Flextronics Id, Llc Gesture controls for multi-screen hierarchical applications
KR101798965B1 (ko) 2010-10-14 2017-11-17 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US20120154295A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Cooperative use of plural input mechanisms to convey gestures
KR20120091975A (ko) 2011-02-10 2012-08-20 삼성전자주식회사 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법
KR101229699B1 (ko) 2011-05-12 2013-02-05 주식회사 케이티 애플리케이션 간의 콘텐츠 이동 방법 및 이를 실행하는 장치
KR101802760B1 (ko) * 2011-06-27 2017-12-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8810533B2 (en) * 2011-07-20 2014-08-19 Z124 Systems and methods for receiving gesture inputs spanning multiple input devices
US9075561B2 (en) * 2011-07-29 2015-07-07 Apple Inc. Systems, methods, and computer-readable media for managing collaboration on a virtual work of art
TWI498778B (zh) * 2012-03-19 2015-09-01 Wistron Corp 校正不同觸控系統的方法
KR102164453B1 (ko) 2012-04-07 2020-10-13 삼성전자주식회사 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체
US8842088B2 (en) * 2012-07-27 2014-09-23 Apple Inc. Touch gesture with visible point of interaction on a touch screen
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10108256B2 (en) 2014-10-30 2018-10-23 Mediatek Inc. Systems and methods for processing incoming events while performing a virtual reality session

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110310031A1 (en) * 2010-06-22 2011-12-22 Microsoft Corporation Stylus settings

Also Published As

Publication number Publication date
EP2720110A2 (en) 2014-04-16
CN110221655A (zh) 2019-09-10
CN103729160B (zh) 2019-06-28
TW201415295A (zh) 2014-04-16
US20170285906A1 (en) 2017-10-05
KR20140046319A (ko) 2014-04-18
US9696899B2 (en) 2017-07-04
US20140101579A1 (en) 2014-04-10
US20140181700A1 (en) 2014-06-26
JP2014078234A (ja) 2014-05-01
CN103729160A (zh) 2014-04-16
EP2720110A3 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
KR102063952B1 (ko) 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US11360728B2 (en) Head mounted display apparatus and method for displaying a content
US9348504B2 (en) Multi-display apparatus and method of controlling the same
US9317198B2 (en) Multi display device and control method thereof
US9406281B2 (en) Multi-display device and method of controlling thereof
US9335887B2 (en) Multi display device and method of providing tool therefor
KR102061881B1 (ko) 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
EP2720140A1 (en) Display apparatus, input pen, display apparatus controlling method and display system
US20140101535A1 (en) Multi-display apparatus and method of controlling display thereof
US20140327634A1 (en) Portable terminal and method for protecting a displayed object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant