KR102327205B1 - 콘텐트를 공유하는 방법 및 콘텐트 공유 시스템 - Google Patents

콘텐트를 공유하는 방법 및 콘텐트 공유 시스템 Download PDF

Info

Publication number
KR102327205B1
KR102327205B1 KR1020150158126A KR20150158126A KR102327205B1 KR 102327205 B1 KR102327205 B1 KR 102327205B1 KR 1020150158126 A KR1020150158126 A KR 1020150158126A KR 20150158126 A KR20150158126 A KR 20150158126A KR 102327205 B1 KR102327205 B1 KR 102327205B1
Authority
KR
South Korea
Prior art keywords
content
captured image
information
execution information
displayed
Prior art date
Application number
KR1020150158126A
Other languages
English (en)
Other versions
KR20160056827A (ko
Inventor
바이후이 장
쥔웨이 리우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/518,625 priority Critical patent/US10921954B2/en
Priority to PCT/KR2015/012116 priority patent/WO2016076627A1/ko
Publication of KR20160056827A publication Critical patent/KR20160056827A/ko
Application granted granted Critical
Publication of KR102327205B1 publication Critical patent/KR102327205B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9577Optimising the visualization of content, e.g. distillation of HTML documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/08Annexed information, e.g. attachments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00209Transmitting or receiving image data, e.g. facsimile data, via a computer, e.g. using e-mail, a computer network, the internet, I-fax
    • H04N1/00222Transmitting or receiving image data, e.g. facsimile data, via a computer, e.g. using e-mail, a computer network, the internet, I-fax details of image data generation or reproduction, e.g. scan-to-email or network printing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32229Spatial or amplitude domain methods with selective or adaptive application of the additional information, e.g. in selected regions of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

디바이스가 콘텐트를 공유하는 방법은 다른 디바이스의 화면을 캡처한 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로부터 수신하는 단계, 캡처 이미지를 디스플레이하는 단계, 및 캡처 이미지에서 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 실행하는 단계를 포함한다.

Description

콘텐트를 공유하는 방법 및 콘텐트 공유 시스템 {Content Share Method and Content Share System}
콘텐트를 공유하는 방법 및 콘텐트 공유 시스템에 관한 발명이다. 구체적으로, 콘텐트를 실행하기 위한 실행 정보를 콘텐트 공유 시스템에 포함된 디바이스들로 전송하는 방법 및 그 실행 정보를 이용하여 콘텐트를 실행하는 방법에 관한 발명이다.
디바이스와 관련된 기술이 계속적으로 발전함에 따라, 디바이스들 간에 교환되는 정보의 양은 증가하고 있다. 예를 들어, 다양한 타입의 파일들이 디바이스들 간에 전송되고 있다.
최근에는, 디바이스들 간에 파일들이 송수신할 때, 수신 디바이스가 전송 디바이스로부터 어떠한 파일들이 전송되는지를 인지할 필요성이 있는 경우, 전송 디바이스는 전송할 파일들의 리스트를 보여주기 위한 스크린샷(screenshot)을 먼저 전송한다. 이후, 전송 디바이스는 리스트에 포함된 파일들 각각을 수신 디바이스로 전송한다. 이는, 디바이스들 간에 비효율적인 정보 전송을 야기한다.
콘텐트를 공유하는 방법 및 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 제공하는데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
상술한 과제를 해결하기 위한 개시된 실시예의 제 1 측면은, 다른 디바이스의 화면을 캡처한 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로부터 수신하는 단계, 캡처 이미지를 디스플레이하는 단계, 및 캡처 이미지에서 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 실행하는 단계를 포함하는 콘텐트 공유 방법을 제공한다.
또한, 다른 디바이스는, 채팅 어플리케이션을 이용하여 디바이스와 메시지를 송수신 중일 수 있으며, 캡처 이미지는 채팅 어플리케이션의 채팅 창에 표시될 수 있다.
또한, 콘텐트를 실행하는 단계는, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 다른 디바이스로 요청하는 단계, 및 콘텐트를 다른 디바이스로부터 수신하는 단계를 포함할 수 있다.
또한, 캡처 이미지 내의 객체의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 수신하는 단계를 더 포함할 수 있다.
또한, 수신된 매핑 테이블에 기초하여, 객체가 표시된 영역의 좌표 정보에 대응되는 실행 정보를 식별하는 단계를 더 포함할 수 있으며, 실행하는 단계는, 식별된 실행 정보를 이용하여 콘텐트를 실행하는 것일 수 있다.
또한, 실행 정보는, 콘텐트 파일, 콘텐트 파일의 식별 정보 및 콘텐트를 다운로드하기 위한 링크 정보 중 적어도 하나일 수 있다.
또한, 실행하는 단계는, 콘텐트를 디바이스에 저장하기 위한 GUI(graphic user interface)를 디스플레이하는 단계를 포함할 수 있다.
또한, 객체는 캡처 이미지 내의 복수의 객체들 중에서, 다른 디바이스의 사용자에 의해 선택된 객체이며, 객체는 캡처 이미지 내에서 강조되어 표시될 수 있다.
개시된 실시예의 제 2 측면은, 디바이스의 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성하는 단계, 및 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로 전송하는 단계를 포함하는 콘텐트 공유 방법을 제공한다.
또한, 캡처 이미지 내의 객체의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 다른 디바이스로 전송하는 단계를 더 포함할 수 있다.
또한, 캡처 이미지 내의 복수의 객체들 중에서 객체를 선택하는 사용자 입력을 수신하는 단계;를 더 포함하며, 객체는, 캡처 이미지 내에서 강조되어 표시될 수 있다.
개시된 실시예의 제 3 측면은, 다른 디바이스의 화면을 캡처한 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로부터 수신하는 통신부; 캡처 이미지를 디스플레이하는 디스플레이부, 및 캡처 이미지에서 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 실행하는 제어부를 포함하는 디바이스를 제공한다.
또한, 다른 디바이스는, 채팅 어플리케이션을 이용하여 디바이스와 메시지를 송수신 할 수 있으며, 디스플레이부는, 채팅 어플리케이션의 채팅 창에서 캡처 이미지를 디스플레이할 수 있다.
또한, 통신부는, 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 다른 디바이스로 요청하고, 콘텐트를 다른 디바이스로부터 수신할 수 있다.
또한, 통신부는, 캡처 이미지 내의 객체의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 수신할 수 있다.
또한, 제어부는, 수신된 매핑 테이블에 기초하여, 객체가 표시된 영역의 좌표 정보에 대응되는 실행 정보를 식별하고, 식별된 실행 정보를 이용하여 콘텐트를 실행할 수 있다.
또한, 디스플레이부는, 콘텐트를 디바이스에 저장하기 위한 GUI(graphic user interface)를 디스플레이할 수 있다.
또한, 객체는 캡처 이미지 내의 복수의 객체들 중에서, 다른 디바이스의 사용자에 의해 선택된 객체이며, 객체는 캡처 이미지 내에서 강조되어 표시될 수 있다.
개시된 실시예의 제 4 측면은, 디바이스의 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성하는 제어부, 및 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로 전송하는 통신부를 포함하는 디바이스를 제공한다.
개시된 실시예의 제 5 측면은, 개시된 실시예의 제 1 및 제 2 측면의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체를 제공한다.
도 1은 콘텐트 공유 시스템의 개요도이다.
도 2는 실시예에 따라 콘텐트 공유 시스템에서 제 1 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스로 전송하는 방법을 설명하는 흐름도이다.
도 3은 콘텐트 공유 시스템에서 캡처 이미지와 실행 정보를 포함하는 전송 파일을 생성하는 일례이다.
도 4는 캡처 이미지에서 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보를 생성하는 일례이다.
도 5는 콘텐트 공유 시스템에서 매핑 테이블을 생성하는 일례이다.
도 6은 콘텐트 공유 시스템에서 제 1 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스로 전송하는 다른 방법을 설명하는 흐름도이다.
도 7은 콘텐트 공유 시스템에서 제 1 디바이스가 캡처 이미지와 실행 정보를 포함하는 전송 파일을 생성하는 다른 일례이다.
도 8을 콘텐트 공유 시스템에서 제 2 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 1 디바이스로부터 수신하는 방법을 설명하는 흐름도이다.
도 9는 도 5의 매핑 테이블을 이용하여 콘텐트를 실행하는 일례이다.
도 10은 제 2 디바이스가 실행 정보를 이용하여 콘텐트를 저장하는 일례이다.
도 11은 제 2 디바이스가 디스플레이하는 캡처 이미지의 일례이다.
도 12는 콘텐트 공유 시스템의 다른 동작 방법을 설명하는 흐름도이다.
도 13은 콘텐트 공유 시스템에서 제 1 디바이스가 캡처 이미지와 콘텐트 식별 정보를 포함하는 전송 파일을 제 2 디바이스로 전송하는 일례이다.
도 14는 콘텐트 공유 시스템에서 매핑 테이블을 생성하는 다른 일례이다.
도 15는 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.
도 16은 음성 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다.
도 17은 또 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.
도 18은 텍스트 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다.
도 19는 또 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.
도 20은 비디오 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다.
도 21은 콘텐트 공유 시스템에서 제 1 디바이스 및 제 2 디바이스의 구성을 도시한 도면이다.
도 22는 디바이스의 상세한 구성을 설명하는 도면이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 콘텐트 공유 시스템의 개요도이다. 도 1을 참조하면, 콘텐트 공유 시스템은 제 1 디바이스(100) 및 제 2 디바이스(200)를 포함한다.
제 1 디바이스(100)와 제 2 디바이스(200)는 채팅 어플리케이션을 실행하여 메시지를 송수신하는 컴퓨팅 장치일 수 있다. 예를 들어, 제 1 디바이스(100) 및 제 2 디바이스(200)는 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 제 1 디바이스(100) 및 제 2 디바이스(200)는 전자 칠판, 터치 테이블 등과 같이 다양한 장치를 포함할 수 있다. 또한, 제 1 디바이스(100) 및 제 2 디바이스(200)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지일 수 있다. 그러나, 이에 제한되지 않으며, 제 1 디바이스(100) 및 제 2 디바이스(200)는 네트워크를 통하여 데이터를 송수신할 수 있는 모든 종류의 기기를 포함할 수 있다.
실시예에 따라 제 1 디바이스(100)는 제 2 디바이스(200)와 메시지를 송수신하는 중에 콘텐트를 제 2 디바이스(200)로 전송할 수 있다. 제 1 디바이스(100)는 전송할 콘텐트를 나타내는 객체(예를 들어, 콘텐트 파일의 아이콘, 명칭 등)가 표시된 화면을 캡처(capture)할 수 있다. 제 1 디바이스(100)는 캡처 이미지에 표시된 객체들에 대응되는 콘텐트 파일을 캡처 이미지와 함께 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 복수의 콘텐트를 동시에 전송하기 위해, 전송하고자 하는 콘텐트 파일들이 나열된 파일 리스트가 표시된 화면을 캡처할 수 있다. 따라서, 제 1 디바이스(100)의 사용자는 용이하게 복수의 콘텐트 파일들을 제 2 디바이스(200)로 전송할 수 있다.
또는, 제 1 디바이스(100)는 제 2 디바이스(200)와 메시지를 송수신하는 중에 웹 페이지를 공유할 수 있다. 실시예에 따라 제 1 디바이스(100)는 공유할 웹 페이지를 나타내는 객체(예를 들어, 웹 페이지의 실행창, 특정 웹 페이지에 접속하기 위한 바로가기 아이콘 등)가 표시된 화면을 캡처할 수 있다. 제 1 디바이스(100)는 캡처 이미지에 표시된 객체들에 대응되는 웹 페이지를 다운로드할 수 있는 링크 정보를 캡처 이미지와 함께 제 2 디바이스(200)로 전송할 수 있다.
제 1 디바이스(100)가 전송한 캡처 이미지는 제 1 디바이스(100)와 제 2 디바이스(200)가 메시지를 송수신하는 채팅 어플리케이션의 채팅 창 내에 디스플레이될 수 있다. 제 2 디바이스(200)는 채팅 창을 통해 캡처 이미지를 수신하고, 캡처 이미지에 표시된 객체를 선택하는 사용자 입력에 응답하여, 제 1 디바이스(100)가 전송하는 콘텐트 파일을 선택적으로 수신 및 저장할 수 있다.
한편, 도 1에 도시된 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다.
이하의 도 2 내지 도 14에서는, 제 1 디바이스(100)가 제 2 디바이스(200)로 캡처 이미지와 함께 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스(200)로 전송하는 방법에 대하여 상세히 설명한다. 또한, 도 15 내지 도 20 에서는, 제 1 디바이스(100)가 사용자로부터 수신되는 오디오, 텍스트 및 비디오 데이터에 포함된 콘텐트 정보를 이용하여, 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스(200)로 전송하는 방법에 대하여 상세히 설명한다.
또한, 설명의 편의를 위해 제 1 디바이스(100)가 제 2 디바이스(200)로 캡처 이미지 및 콘텐트를 실행하기 위한 실행 정보를 전송하는 것으로 가정하였으나, 제 2 디바이스(200)가 제 1 디바이스(100)로 캡처 이미지 등을 전송할 수 있음은 개시된 실시예에 따른 기술 분야의 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다.
도 2는 실시예에 따라 콘텐트 공유 시스템에서 제 1 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스로 전송하는 방법을 설명하는 흐름도이다.
도 2를 참조하면, s210 단계에서, 제 1 디바이스(100)는 제 1 디바이스(100)의 화면을 캡처(capture)하는 사용자 입력에 응답하여, 캡처 이미지를 생성할 수 있다. 이때, 제 1 디바이스(100)는 채팅 어플리케이션을 실행 중일 수 있으며, 채팅 어플리케이션을 통해 제 2 디바이스(200)와 메시지를 송수신하는 중일 수 있다.
구체적으로, 제 1 디바이스(100)는 채팅 어플리케이션을 통해 제 2 디바이스(200)와 메시지를 송수신하는 중, 다른 어플리케이션의 실행 화면, 홈 화면 또는 메뉴 화면 등을 포그라운드(foreground)로 실행할 수 있다. 이때, 채팅 어플리케이션은 백그라운드(background)로 실행될 수 있다. 또한, 다른 어플리케이션은 예를 들어, 탐색기 어플리케이션, 사진첩 어플리케이션, 주소록 어플리케이션, 웹 서버 어플리케이션, 브라우저 어플리케이션 등일 수 있다.
제 1 디바이스(100)의 사용자는 채팅 어플리케이션을 통해 제 2 디바이스(200)로 전송 가능한 콘텐트를 나타내는 객체가 표시된 다른 어플리케이션의 실행 화면 등을 캡처할 수 있다 예를 들어, 제 1 디바이스(100)는 제 2 디바이스(200)로 전송할 사진의 아이콘이 표시된 사진첩 어플리케이션의 실행 화면을 캡처하는 사용자 입력을 수신할 수 있다. 또는, 제 1 디바이스(100)는 제 2 디바이스(200)로 전송할 연락처 정보가 표시된 주소록 어플리케이션의 실행 화면을 캡처하는 사용자 입력을 수신할 수 있다. 또는, 제 1 디바이스(100)는 제 2 디바이스(200)로 전송할 어플리케이션의 아이콘이 표시된 메뉴 화면을 캡처하는 사용자 입력을 수신할 수 있다.
또는, 제 1 디바이스(100)는 서로 다른 경로에 저장된 콘텐트들을 나타내는 아이콘, 이미지 및/또는 텍스트를 임시 저장 공간으로 복사한 후, 임시 저장 공간을 캡처하는 사용자 입력을 수신할 수도 있다. 이때, 임시 저장 공간은 채팅 어플리케이션이 제공하는 클립보드(clipboard)일 수 있으며, 제 1 디바이스(100)의 화면에 디스플레이될 수 있다.
또한, 화면을 터치하기 위한 사용자 입력은 사용자의 손, 스타일러스펜 등을 이용하는 터치 입력 또는 제 1 디바이스(100)에 구비된 버튼을 이용하는 버튼 입력일 수도 있으며, 이들의 조합일 수도 있다.
제 1 디바이스(100)는 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성할 수 있다.
s220 단계에서, 제 1 디바이스(100)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 여기서 실행 정보는, 예를 들어, 캡처 이미지에 표시된 객체에 대응되는 콘텐트의 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보일 수 있다. 또한, 실행 정보는 예를 들어, 콘텐트의 식별 정보일 수도 있으나, 이에 제한되지 않는다.
구체적으로, 제 1 디바이스(100)는 캡처 이미지를 분석하여, 캡처 이미지에 포함된 객체들을 식별할 수 있다. 또한, 제 1 디바이스(100)는 식별된 객체들이 콘텐트를 나타내는지 여부를 판단할 수 있다. 예를 들어, 객체가 텍스트인 경우, 제 1 디바이스(100)는 상기 텍스트와 동일한 파일명을 갖는 콘텐트 파일을 검색할 수 있다. 또는, 객체가 이미지인 경우, 제 1 디바이스(100)는 상기 이미지와 동일한 아이콘을 갖는 콘텐트 파일을 검색할 수 있다. 이때, 제 1 디바이스(100)는 제 1 디바이스(100) 또는 외부 서버에 저장된 콘텐트 파일을 검색할 수 있다. 만약, 콘텐트 파일이 제 1 디바이스(100)에 존재하는 경우, 제 1 디바이스(100)는 콘텐트 파일을 실행 정보로 할 수 있으며, 콘텐트 파일이 외부 서버에 존재하는 경우, 제 1 디바이스(100)는 외부 서버에 콘텐트 파일이 저장된 링크 정보를 실행 정보로 할 수 있다.
제 1 디바이스(100)는 캡처 이미지 및 실행 정보를 포함하는 전송 파일을 생성하고, 전송 파일을 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 MHTML(Multipurpose Internet Mail Extension HTML) 또는 EML(Election Markup Language) 파일 포맷을 갖는 전송 파일을 생성할 수 있다.
또한, 실시예에 따라 제 1 디바이스(100)는 캡처 이미지에서 실행 정보에 대응되는 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보를 생성할 수 있다. 예를 들어, 제 1 디바이스(100)는 하나의 객체가 하나의 실행 정보에 대응되는 경우, 캡처 이미지에서 하나의 객체가 표시된 영역에 대한 좌표 정보를 생성할 수 있다. 또는, 제 1 디바이스(100)는 복수의 객체들이 동일한 실행 정보에 대응되는 경우, 캡처 이미지에서 복수의 객체들을 포함하는 영역에 대한 좌표 정보를 생성할 수 있다. 제 1 디바이스(100)는 객체에 대응되는 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 캡처 이미지, 실행 정보 및 매핑 테이블을 포함하는 전송 파일을 제 2 디바이스(200)로 전송할 수 있다.
실행 정보가 콘텐트 파일의 식별 정보인 경우, 제 2 디바이스(200)는 제 1 디바이스(100)로 콘텐트 파일의 식별 정보를 이용하여 콘텐트를 요청할 수 있다. 여기서, 콘텐트 파일의 식별 정보는 콘텐트 파일의 명칭, 콘텐트 파일이 저장된 주소 정보 등일 수 있다. 이 경우, 제 1 디바이스(100)는 제 2 디바이스(200)로부터 요청이 수신되면, 콘텐트 파일을 전송할 수 있다.
한편, 위 설명에서는 제 1 디바이스(100)가 채팅 어플리케이션을 실행 중에 캡처 이미지를 생성하는 것으로 설명하였으나, 이에 제한되는 것은 아니다. 제 1 디바이스(100)는 채팅 어플리케이션의 실행 여부와 관계 없이, 캡처 이미지를 생성할 수 있다. 이 경우, 제 1 디바이스(100)는 채팅 어플리케이션에서 기 저장된 캡처 이미지를 이용할 수 있다. 예를 들어, 제 1 디바이스(100)가 캡처 이미지를 생성하면, 채팅 어플리케이션이 실행될 수 있다.
또는, 실시예에 따라 채팅 어플리케이션은 다른 어플리케이션의 실행 화면 등을 캡처할 수 있는 GUI(graphic user interface)를 제공할 수 있다. 이 경우, 제 1 디바이스(100)는 채팅 어플리케이션이 제공하는 GUI를 이용하여 캡처 이미지를 생성할 수 있다.
도 3은 콘텐트 공유 시스템에서 캡처 이미지와 실행 정보를 포함하는 전송 파일을 생성하는 일례이다.
도 3을 참조하면, 제 1 디바이스(100)는 제 1 디바이스(100)의 화면의 전부 또는 일부를 캡처하는 사용자 입력(310)을 수신함에 따라, 캡처 이미지(320)를 생성할 수 있다. 또한, 제 1 디바이스(100)는 캡처 이미지(320)에 표시된 객체(321, 322, 323, 324 등)들에 대응되는 콘텐트들(즉, ‘이미지 1’ 내지 ‘이미지 5’)을 실행하기 위한 실행 정보(330)를 획득할 수 있다. 예를 들어, 실행 정보(330)는 제 1 디바이스(100)에 저장된 콘텐트 파일들(즉, 이미지 1.jpg 내지 이미지 5.jpg)을 포함할 수 있다.
또한, 제 1 디바이스(100)는 캡처 이미지(320)와 실행 정보(330)를 포함하는 전송 파일(350)을 생성할 수 있다. 또한, 전송 파일(350)은 매핑 테이블(340)을 더 포함할 수도 있다. 매핑 테이블(340)은 캡처 이미지(320)에서 객체(321 등)에 대응되는 좌표 정보 및 좌표 정보에 대응되는 실행 정보(330)를 포함할 수 있다. 매핑 테이블(340)을 생성하는 방법에 대해서는 도 4 및 도 5를 참조하여 상세히 설명한다.
도 4는 캡처 이미지에서 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보를 생성하는 일례이다.
도 4를 참조하면, 제 1 디바이스(100)는 복수의 객체들(321)이 동일한 실행 정보(즉, 이미지 1)에 대응되는 경우, 복수의 객체들(321, 322)을 포함하는 소정 영역(410)에 대한 좌표 정보를 생성할 수 있다. 예를 들어, 제 1 디바이스(100)는 소정 영역(410)의 대각선 방향의 양 끝 지점의 좌표 정보(즉, (x11,y11),(x12,y12))를 생성할 수 있다.
또는, 제 1 디바이스(100)는 하나의 객체(324)가 하나의 실행 정보(즉, 이미지 5)에 대응되는 경우, 하나의 객체(324)를 포함하는 소정 영역(420)에 대한 좌표 정보(즉, (x51,y51),(x52,y52))를 생성할 수 있다.
도 5는 콘텐트 공유 시스템에서 매핑 테이블을 생성하는 일례이다.
도 5를 참조하면, 제 1 디바이스(100)는 적어도 하나의 객체를 포함하는 소정 영역의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블(340)을 생성할 수 있다. 또한, 제 1 디바이스(100)는 매핑 테이블(340)을 제 2 디바이스(200)로 전송할 수 있다. 제 2 디바이스(200)는 매핑 테이블(340)을 이용하여 캡처 이미지(320)에 표시된 객체에 대응되는 콘텐트를 실행할 수 있다.
실시예에 따라 매핑 테이블(340)은 제 2 디바이스(200)가 생성할 수도 있다. 이 경우, 도 4 및 도 5의 실시예는 제 2 디바이스(200)에 의해 수행될 수 있다.
도 6은 콘텐트 공유 시스템에서 제 1 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스로 전송하는 다른 방법을 설명하는 흐름도이다.
도 6을 참조하면, s610 단계에서, 제 1 디바이스(100)는 화면을 캡처하는 사용자 입력에 응답하여 캡처 이미지를 생성할 수 있다. 예를 들어, 제 1 디바이스(100)는 사진첩 어플리케이션, 탐색기 어플리케이션, 사진첩 어플리케이션, 주소록 어플리케이션, 웹 서버 어플리케이션, 브라우저 어플리케이션 등의 실행 화면 또는 홈 화면, 메뉴 화면 등을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성할 수 있다.
s620 단계에서, 제 1 디바이스(100)는 캡처 이미지에 표시된 객체들 중에서 일부를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 제 1 디바이스(100)는 캡처 이미지를 분석하여, 캡처 이미지에 포함된 객체들을 식별할 수 있다. 또한, 제 1 디바이스(100)는 식별된 객체들 중에서 일부를 선택하는 GUI를 제공할 수 있다. 또한, 제 1 디바이스(100)는 캡처 이미지 내에서 선택된 객체를 강조하여 표시할 수 있다. 예를 들어, 제 1 디바이스(100)는 선택된 객체를 굵은 선으로 표시하거나 특정 색상으로 표시할 수 있다. 또는, 제 1 디바이스(100)는 캡처 이미지 내에 선택된 객체와 동일한 콘텐트를 나타내는 다른 객체가 존재하는 경우, 동일한 콘텐트를 나타내는 서로 다른 객체들을 포함하는 소정 영역을 강조하여 표시할 수도 있다.
s630 단계에서, 제 1 디바이스(100)는 캡처 이미지 및 선택된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 선택된 객체에 대응되는 콘텐트를 제 1 디바이스(100) 또는 외부 서버에서 검색하여, 선택된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다.
제 1 디바이스(100)는 캡처 이미지 및 실행 정보를 포함하는 전송 파일을 생성하고, 전송 파일을 제 2 디바이스(200)로 전송할 수 있다.
또한, 제 1 디바이스(100)는 캡처 이미지에서 선택된 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보를 생성할 수 있다. 이 경우, 제 1 디바이스(100)는 선택된 객체를 포함하는 소정 영역에 대한 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 생성할 수 있다.
이와 같이, 제 1 디바이스(100)는 캡처 이미지를 이용하여, 콘텐트를 실행하기 위한 실행 정보를 선택적으로 전송할 수 있다.
도 7은 콘텐트 공유 시스템에서 제 1 디바이스가 캡처 이미지와 실행 정보를 포함하는 전송 파일을 생성하는 다른 일례이다.
도 7을 참조하면, 제 1 디바이스(100)는 캡처 영역(710)에 표시된 모든 객체들에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득하는 ‘all’ 버튼 이미지(701)와 캡처 영역(710)에 표시된 객체들 중 일부 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득하는 ‘select’ 버튼 이미지(703)를 제공할 수 있다. 제 1 디바이스(100)의 사용자가 ‘all’ 버튼 이미지(701)를 터치 하면, 제 1 디바이스(100)는 도 3의 전송 파일(350)을 생성한 후, 제 2 디바이스(200)로 전송 파일(350)을 전송할 수 있다.
또는, 제 1 디바이스(100)는 캡처 영역(710)에 표시된 객체들 중 일부 객체(713, 715)를 선택하는 사용자 입력(717, 719)을 수신한 후, ‘select’버튼 이미지(703)에 대한 사용자 입력을 수신할 수도 있다. 이 경우, 제 1 디바이스(100)는 사용자 입력(717, 719)에 따라 선택된 객체(713, 715)에 대응되는 콘텐트(예를 들어, ‘이미지 1’ 및 ‘이미지 5’)를 실행하기 위한 실행 정보(730)를 획득할 수 있다. 여기서, 실행 정보(730)는 제 1 디바이스(100)에 저장된 콘텐트 파일들(예를 들어, 이미지 1.jpg 및 이미지 5.jpg)을 포함할 수 있다.
또한, 제 1 디바이스(100)는 캡처 이미지(720)에서 선택된 객체(715)를 포함하는 제 1 영역(723)을 강조하여 표시할 수 있다. 또는, 제 1 디바이스(100)는 선택된 객체(713)에 대응되는 콘텐트(예를 들어, ‘이미지 1’)를 나타내는 다른 객체(711)가 캡처 이미지(720)에 존재하는 경우, 동일한 콘텐트를 나타내는 복수의 객체들(711, 713)을 포함하는 제 2 영역(721)을 강조하여 표시할 수도 있다. 따라서, 제 2 디바이스(200)의 사용자는, 수신된 캡처 이미지(720)에 표시된 객체들 중에서 실행 정보(730)에 대응되는 객체들(711, 713, 715)을 용이하게 인지할 수 있다.
또한, 제 1 디바이스(100)는 캡처 이미지(720)와 실행 정보(730)를 포함하는 전송 파일(750)을 포함할 수 있으며, 매핑 테이블(740)을 더 포함하는 전송 파일(750)을 생성할 수도 있다. 매핑 테이블(740)은 캡처 이미지(720)에서 선택된 객체를 포함하는 제 1 및 제 2 영역(721, 723)의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함할 수 있다.
도 8은 콘텐트 공유 시스템에서 제 2 디바이스가 콘텐트를 실행하기 위한 실행 정보를 제 1 디바이스로부터 수신하는 방법을 설명하는 흐름도이다.
도 8을 참조하면, s810 단계에서, 제 2 디바이스(200)는 제 1 디바이스(100)의 화면을 캡처한 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 제 1 디바이스(100)로부터 수신할 수 있다. 이때, 제 2 디바이스(200)는 채팅 어플리케이션을 실행 중일 수 있으며, 채팅 어플리케이션을 통해 제 1 디바이스(100)와 메시지를 송수신 중일 수 있다.
여기서, 캡처 이미지에 표시된 객체는, 콘텐트를 나타내는 아이콘, 텍스트 및/또는 이미지일 수 있다. 또한, 콘텐트는 제 1 디바이스(100)에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터(예를 들어, 바이너리 데이터)를 포함할 수 있으며, 외부 서버에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터일 수 있다.
또한, 실행 정보는 예를 들어, 캡처 이미지에 표시된 객체에 대응되는 콘텐트의 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보일 수 있다. 예를 들어, 제 2 디바이스(200)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 콘텐트 파일을 수신할 수 있다. 또는, 제 2 디바이스(200)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 콘텐트 파일을 다운로드 할 수 있는 링크 정보를 수신할 수도 있다. 그러나, 이에 제한되는 것은 아니며, 제 2 디바이스(200)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 콘텐트 파일이 저장된 제 1 디바이스(100)의 메모리 주소 정보일 수도 있다. 이 경우, 제 2 디바이스(200)가 콘텐트를 실행하는 방법에 대해서는 도 12 내지 14 를 참조하여 상세히 후술한다.
한편, 캡처 이미지 및 실행 정보는 MHTML(Multipurpose Internet Mail Extension HTML) 또는 EML(Election Markup Language) 파일 포맷으로 전송될 수 있다.
s820 단계에서, 제 2 디바이스(200)는 캡처 이미지를 디스플레이할 수 있다. 예를 들어, 제 2 디바이스(200)는 채팅 어플리케이션의 채팅 창에서 캡처 이미지를 디스플레이할 수 있다.
s830 단계에서, 제 2 디바이스(200)는 캡처 이미지에서 객체가 표시된 디스플레이 영역에 대한 사용자 입력에 응답하여, 실행 정보를 이용하여 객체에 대응되는 콘텐트를 실행할 수 있다.
예를 들어, 제 2 디바이스(200)는 캡처 이미지를 분석하여, 캡처 이미지에 표시된 객체를 식별할 수 있다. 또한, 제 2 디바이스(200)는 식별된 객체가 표시된 디스플레이 영역에 대한 사용자의 손, 스타일러스 펜 등을 이용한 터치 입력을 수신할 수 있다. 제 2 디바이스(200)는 터치 입력이 수신된 디스플레이 영역에 대응되는 객체를 식별하고, 객체에 대응되는 실행 정보를 이용하여 콘텐트를 실행할 수 있다.
또는, 제 2 디바이스(200)는 캡처 이미지 내에서 객체를 포함하는 소정 영역의 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 제 1 디바이스(100)로부터 수신할 수 있다. 이 경우, 제 2 디바이스(200)는 사용자 입력이 수신된 영역의 좌표 정보와 매핑 테이블의 좌표 정보 및 실해 정보를 이용하여, 콘텐트를 실행할 수 있다. 예를 들어, 제 2 디바이스(200)는 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보와 매칭되는 매핑 테이블의 좌표 정보를 식별하고, 좌표 정보에 대응되는 실행 정보를 식별할 수 있다. 여기서, 매칭된다는 것은, 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보가 매핑 테이블의 좌표 정보에 따른 영역에 포함되거나 일치하는 것을 의미할 수 있다. 제 2 디바이스(200)는 식별된 실행 정보를 이용하여 콘텐트를 실행할 수 있다.
또한, 실시예에 따라 실행 정보가 콘텐트 파일의 식별 정보인 경우, 제 2 디바이스(200)는 사용자 입력에 응답하여, 제 1 디바이스(100)로 콘텐트 파일을 요청할 수 있다. 제 2 디바이스(200)는 제 1 디바이스(100)로부터 콘텐트 파일이 수신되면, 콘텐트 파일을 이용하여 콘텐트를 실행할 수 있다.
실시예에 따라 제 2 디바이스(200)는 사용자 입력에 응답하여 콘텐트를 바로 실행하는 대신, 콘텐트를 제 2 디바이스(200)에 저장하기 위한 GUI(graphic user interface)를 제공할 수도 있다. 제 2 디바이스(200)의 콘텐트를 저장하는 사용자 입력을 선택하는 경우, 제 2 디바이스(200)는 제 2 디바이스(200)에 콘텐트를 저장한 후 실행 할 수 있다. 이때, 콘텐트가 저장되는 위치는 제 2 디바이스(200)에 미리 설정되어 있을 수 있으며, 콘텐트의 저장 위치를 지정하기 위한 GUI를 더 제공할 수도 있다.
도 9는 도 5의 매핑 테이블을 이용하여 콘텐트를 실행하는 일례이다.
도 9를 참조하면, 제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 캡처 이미지(920)를 채팅 어플리케이션의 채팅 창(910)에서 표시할 수 있다. 캡처 이미지(920)가 축소되어 표시되는 경우, 제 2 디바이스(200)는 캡처 이미지(920)를 확대하는 사용자 입력(923)을 수신할 수 있다.
제 2 디바이스(200)는 캡처 이미지(920)에 표시된 객체들(911 내지 919) 중에서 하나의 객체(915)에 대한 사용자 입력을 수신할 수 있다. 제 2 디바이스(200)는 매핑 테이블(340)의 좌표 정보 중에서 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보 (x_in, y_in) 에 매칭되는 좌표 정보로서 {(x31, y31), (x32, y32)}를 식별할 수 있다. 또한, 제 2 디바이스(200)는 매핑 테이블(340)을 이용하여 식별된 좌표 정보 {(x31, y31), (x32, y32)}에 대응되는 “이미지 3.jpg"를 식별할 수 있다. 한편, 제 2 디바이스(200)는 매핑 테이블(340)의 좌표 정보를 제 2 디바이스(200)의 좌표 시스템에 매칭되도록 보상(compensation)할 수 있다.
제 2 디바이스(200)는 식별된 실행 정보를 이용하여 ‘이미지 3.jpg’ 파일에 포함된 이미지 데이터(930)를 디스플레이할 수 있다.
이와 같이, 제 1 디바이스(100) 및 제 2 디바이스(200)는 채팅 창(910)을 통해 공유되는 캡처 이미지(920)를 이용하여 콘텐트를 공유할 수 있다. 한편, 위에서는 제 1 디바이스(100) 및 제 2 디바이스(200)가 콘텐트를 공유하는 것으로 설명하였으나, 개시된 실시예는 채팅 창(910)을 통해 메시지를 송수신하는 복수의 디바이스들 간에도 적용될 수 있다. 이 경우, 제 1 디바이스(100)는 복수의 디바이스들로 캡처 이미지 및 실행 정보를 전송할 수 있다.
도 10은 제 2 디바이스가 실행 정보를 이용하여 콘텐트를 저장하는 일례이다.
도 10을 참조하면, 제 2 디바이스(200)는 캡처 이미지(920)에서 객체(915)가 표시된 영역에 대한 사용자 입력(1030)을 수신하면, 객체(915)에 대응되는 콘텐트를 저장하는 GUI(1040)를 제공할 수 있다. 예를 들어, GUI(1040)는 콘텐트를 저장하는 ‘저장’ 버튼 이미지 및 콘텐트를 바로 실행하는 ‘실행’ 버튼 이미지를 포함할 수 있다. 따라서, 제 2 디바이스(200)는 GUI(1040)에 대한 사용자 입력에 응답하여, 제 1 디바이스(100)로부터 수신된 실행 정보를 이용하여 획득된 콘텐트를 저장한 후 실행하거나, 실행 정보를 이용하여 바로 콘텐트를 실행할 수 있다.
도 11은 제 2 디바이스가 디스플레이하는 캡처 이미지의 일례이다.
도 11에 도시된 바와 같이, 제 2 디바이스(200)는 일부 객체들을 포함하는 소정 영역(1101, 1103)이 강조되어 표시된 캡처 이미지(1110)를 수신할 수 있다. 이 경우, 제 2 디바이스(200)는 강조되어 표시된 소정 영역(1101, 1103)에 포함된 객체들에 대응되는 콘텐트를 실행할 수 있다. 만약, 제 2 디바이스(200)의 사용자가 캡처 이미지(1110)에서 강조되지 표시되지 않은 객체를 포함하는 영역(1120)을 선택하면, 제 2 디바이스(200)는 선택된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 없다.
도 12는 콘텐트 공유 시스템의 동작 방법을 설명하는 흐름도이다.
도 12를 참조하면, s1210 단계에서, 제 1 디바이스(100)는 제 1 디바이스(100)의 화면을 캡처하는 사용자 입력에 응답하여, 캡처 이미지를 생성할 수 있다.
s1220 단계에서, 제 1 디바이스(100)는 캡처 이미지에 표시된 객체에 대응되는 콘텐트 식별 정보를 획득할 수 있다. 여기서, 콘텐트 식별 정보는, 콘텐트의 명칭, 콘텐트의 고유 번호, 콘텐트가 저장된 주소 정보 등을 포함할 수 있다.
예를 들어, 제 1 디바이스(100)는 캡처 이미지를 분석하여, 캡처 이미지에 표시된 객체들을 식별할 수 있다. 또한, 제 1 디바이스(100)는 식별된 객체에 대응되는 콘텐트의 식별 정보를 획득할 수 있다.
s1230 단계에서, 제 1 디바이스(100)는 캡처 이미지 및 캡처 이미지에 표시된 객체에 대응되는 콘텐트의 식별 정보를 제 2 디바이스(200)로 전송할 수 있다. 이때, 제 2 디바이스(200)는 제 1 디바이스(100)와 채팅 어플리케이션의 채팅 창을 통해 메시지를 송수신하는 외부의 디바이스일 수 있다.
또한, 제 1 디바이스(100)는 캡처 이미지에서 객체에 대응되는 소정 영역에 대한 좌표 정보를 생성할 수 있다. 제 1 디바이스(100)는 객체에 대응되는 소정 영역의 좌표 정보 및 좌표 정보에 대응되는 콘텐트 식별 정보를 포함하는 매핑 테이블을 제 2 디바이스(200)로 전송할 수 있다.
s1240 단계에서, 제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 캡처 이미지를 디스플레이할 수 있다. 예를 들어, 제 2 디바이스(200)는 채팅 어플리케이션의 채팅 창에서 캡처 이미지를 디스플레이할 수 있다.
s1250 단계에서, 제 2 디바이스(200)는 캡처 이미지에서 객체가 표시된 영역에 대한 사용자 입력을 수신할 수 있다. 예를 들어, 제 2 디바이스(200)는 사용자의 손, 스타일러스펜 등을 이용하는 터치 입력을 수신할 수 있다.
s1260 단계에서, 제 2 디바이스(200)는 영역에 대응되는 콘텐트 식별 정보를 이용하여, 콘텐트를 실행하기 위한 콘텐트 파일 또는 콘텐트를 다운로드하기 위한 링크 정보를 제 1 디바이스(100)로 요청할 수 있다. 예를 들어, 제 2 디바이스(200)는 사용자 입력이 수신된 영역의 좌표 정보와 매핑 테이블의 좌표 정보 및 콘텐트 식별 정보를 이용하여, 콘텐트 파일을 제 1 디바이스(100)로 요청할 수 있다.
s1270 단계에서, 제 1 디바이스(100)는 콘텐트 식별 정보를 이용하여, 콘텐트 파일을 획득할 수 있다.
s1280 단계에서, 제 1 디바이스(100)는 획득된 콘텐트 파일을 제 2 디바이스(200)로 전송할 수 있다.
s1290 단계에서, 제 2 디바이스(200)는 콘텐트를 실행할 수 있다.
도 13은 콘텐트 공유 시스템에서 제 1 디바이스가 캡처 이미지와 콘텐트 식별 정보를 포함하는 전송 파일을 제 2 디바이스로 전송하는 일례이다.
도 13을 참조하면, 제 1 디바이스(100)는 제 1 디바이스(100)의 화면의 전부 또는 일부를 캡처하는 사용자 입력(1310)을 수신함에 따라 캡처 이미지(1320)를 생성할 수 있다. 또한, 제 1 디바이스(100)는 캡처 이미지(1320)에 표시된 객체(1321, 1322, 1323, 1324 등)들에 대응되는 콘텐트들의 콘텐트 식별 정보(즉, ‘제 1 메모리 주소 정보’ 내지 ‘제 5 메모리 주소 정보’)를 획득할 수 있다.
또한, 제 1 디바이스(100)는 캡처 이미지(1320)와 콘텐트 식별 정보(1330)를 포함하는 전송 파일(1350)을 생성할 수 있다. 또한, 전송 파일(1350)은 매핑 테이블(1340)을 더 포함할 수 있다. 매핑 테이블(1340)은 도 14에 도시된 바와 같이, 캡처 이미지(1320)에서 적어도 하나의 객체를 포함하는 소정 영역에 대한 좌표 정보(1410) 및 좌표 정보(1410)에 대응되는 콘텐트 식별 정보(1330)를 포함할 수 있다.
도 15는 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.
도 15를 참조하면, s1510 단계에서, 제 1 디바이스(100)는 사용자로부터 음성 데이터를 수신할 수 있다. 예를 들어, 제 1 디바이스(100)는 제 2 디바이스(200)와 특정 콘텐트를 공유하기 위한 음성 명령을 사용자로부터 수신할 수 있다. 예를 들어, 채팅 어플리케이션은 채팅 창에서 사용자로부터 음성 데이터를 수신하는 GUI(graphic user interface)를 제공할 수 있다. 제 1 디바이스(100)는 GUI에 대한 사용자 입력에 응답하여, 제 1 디바이스(100)에 구비된 마이크부(도 22의 2270 참조)를 활성화시키고 마이크부(2270)를 통해 음성 데이터를 수신할 수 있다.
s1520 단계에서, 제 1 디바이스(100)는 수신된 음성 데이터에 따라, 제 2 디바이스(200)와 공유할 콘텐트의 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 음성 데이터에서 콘텐트의 식별 값을 추출하고, 콘텐트의 식별 값에 대응되는 콘텐트 파일 또는 콘텐트를 다운로드하기 위한 링크 정보를 획득할 수 있다. 이때, 콘텐트는 예를 들어, 제 1 디바이스(100)에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터(예를 들어, 바이너리 데이터)를 포함할 수 있으며, 외부 서버에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터일 수 있다.
또한, 제 1 디바이스(100)는 콘텐트의 실행 정보를 디스플레이할 수 있다. 예를 들어, 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창에서 콘텐트의 실행 정보를 디스플레이할 수 있다. 따라서, 제 1 디바이스(100)의 사용자는 제 1 디바이스(100)가 콘텐트의 실행 정보를 제대로 획득했는지 여부를 확인할 수 있다.
s1530 단계에서, 제 1 디바이스(100)는 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 음성 데이터 수신이 종료되면, 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 또는, 제 1 디바이스(100)는 실행 정보를 제 2 디바이스(200)로 전송하는 사용자 입력이 수신되면, 실행 정보를 제 2 디바이스(200)로 전송할 수 있다.
s1540 단계에서, 제 2 디바이스(200)는 수신된 실행 정보에 대응되는 콘텐트를 실행하기 위한 GUI를 디스플레이할 수 있다. 예를 들어, 제 2 디바이스(200)는 채팅 어플리케이션의 채팅 창에서 콘텐트를 실행하기 위한 GUI를 디스플레이할 수 있다.
s1550 단계에서, 제 2 디바이스(200)는 GUI에 대한 사용자 입력이 수신되면, 실행 정보를 이용하여 콘텐트를 실행할 수 있다. 한편, GUI는 실행 정보를 이용하여 제 2 디바이스(200)에서 콘텐트를 저장하거나 실행하기 위한 메뉴를 포함할 수 있다.
도 16은 음성 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다.
도 16을 참조하면, 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창(1610-1)에서 콘텐트를 공유하기 위한 음성 데이터를 수신하는 GUI(1615)에 대한 사용자 입력(1620)이 수신되면, 사용자(300)로부터 음성 데이터를 수신할 수 있다. 예를 들어, 제 1 디바이스(100)는 사용자(300)로부터 “AAA 파일을 공유해”라는 음성 데이터를 수신할 수 있다.
제 1 디바이스(100)는 음성 데이터가 수신됨에 따라, 음성 데이터에 포함된 콘텐트(예를 들어, ‘AAA’)의 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 ‘AAA’를 파일 명칭으로 갖는 콘텐트 파일(1630)을 획득할 수 있다.
제 1 디바이스(100)는 획득된 콘텐트 파일(1630)를 제 1 디바이스(100)의 채팅 창(1610-1)에서 디스플레이할 수 있다. 또한, 제 1 디바이스(100)는 획득된 실행 정보(1630)를 제 2 디바이스(200)와 공유하기 위한 사용자 입력(1640)을 수신할 수 있다. 이에 따라, 제 1 디바이스(100)는 콘텐트 파일(즉, ‘AAA.txt’)(1630)을 제 2 디바이스(200)로 전송할 수 있다.
제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 콘텐트 파일(1630)을 이용하여 콘텐트를 저장(save) 또는 실행(play)하기 위한 GUI(1650)를 채팅 창(1610-2)에서 제공할 수 있다.
도 17은 또 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.
도 17을 참조하면, s1710 단계에서, 제 1 디바이스(100)는 사용자로부터 텍스트 데이터를 수신할 수 있다. 예를 들어, 채팅 어플리케이션은 채팅 창에서 사용자로부터 텍스트 데이터를 수신하는 GUI(예를 들어, 키보드 GUI 등)를 제공할 수 있다.
s1720 단계에서, 제 1 디바이스(100)는 수신된 텍스트 데이터에 따라, 제 2 디바이스(200)와 공유할 콘텐트의 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 텍스트 데이터에 포함된 콘텐트 식별 값을 추출하고, 추출된 콘텐트 식별 값에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. 이때, 텍스트 식별 값은 콘텐트 파일의 명칭, 콘텐트 파일 저장 위치, 콘텐트를 다운로드 할 수 있는 서버 명칭, 콘텐트를 다운로드 할 수 있는 링크 주소 등을 포함할 수 있다. 또한, 실행 정보는 예를 들어, 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보 등일 수 있다.
또한, 제 1 디바이스(100)는 획득된 실행 정보를 디스플레이할 수 있다. 예를 들어, 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창에서 획득된 실행 정보를 디스플레이할 수 있다. 따라서, 제 1 디바이스(100)의 사용자는 제 1 디바이스(100)가 실행 정보를 올바르게 획득했는지 여부를 확인할 수 있다.
s1730 단계에서, 제 1 디바이스(100)는 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 디바이스(100)는 텍스트 데이터의 수신이 종료(예를 들어, 엔터 키, 전송 키 입력 등)되면, 실행 정보를 제 2 디바이스(200)로 전송할 수 있다.
s1740 단계에서, 제 1 디바이스(100)는 수신된 실행 정보에 대응되는 콘텐트를 실행하기 위한 GUI를 디스플레이할 수 있다. 예를 들어, 제 2 디바이스(200)는 채팅 어플리케이션의 채팅 창에서 콘텐트를 저장 또는 실행하기 위한 GUI를 디스플레이할 수 있다.
s1750 단계에서, 제 2 디바이스(200)는 GUI에 대한 사용자 입력이 수신되면, 실행 정보를 이용하여 콘텐트를 실행할 수 있다.
도 18은 텍스트 데이터를 이용하여 콘텐트의 실행 정보를 공유하는 일례이다.
도 18을 참조하면, 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창(1810-1)에서 제공되는 키보드 GUI(1815)에 대한 사용자 입력을 통해 텍스트 데이터가 수신되면, 텍스트 데이터에 포함된 콘텐트 식별 값(즉, ‘AAA’)에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 ‘AAA’를 파일 명칭으로 갖는 콘텐트 파일(1820)을 획득할 수 있다.
제 1 디바이스(100)는 획득된 콘텐트 파일(1820)을 제 1 디바이스(100)의 채팅 창(1810-1)에서 디스플레이할 수 있다. 또한, 제 1 디바이스(100)는 획득된 콘텐트 파일(1820)을 제 2 디바이스(200)와 공유하기 위한 사용자 입력(1830)을 수신할 수 있다. 이에 따라, 제 1 디바이스(100)는 콘텐트 파일(즉, ‘AAA.txt’)(1820)을 제 2 디바이스(200)로 전송할 수 있다.
제 2 디바이스(200)는 제 1 디바이스(100)로부터 수신된 콘텐트 파일(1820)을 이용하여, 콘텐트를 저장(save) 또는 실행(play)하기 위한 GUI(1840)를 채팅 창(1810-2)에서 제공할 수 있다.
도 19는 또 다른 실시예에 따라 콘텐트 공유 시스템에서 콘텐트를 공유하는 방법을 설명하는 흐름도이다.
도 19를 참조하면, s1910 단계에서, 제 1 디바이스(100)는 사용자로부터 비디오 데이터를 수신할 수 있다. 예를 들어, 채팅 어플리케이션은 채팅 창에서 비디오 데이터를 수신하는 GUI를 제공할 수 있다. 제 1 디바이스(100)는 GUI에 대한 사용자 입력이 수신되면, 제 1 디바이스(100)의 전면 또는 후면에 구비된 촬상부(도 22의 2275 참조)를 활성화하고, 촬상부(2275)를 통해 비디오 데이터를 획득할 수 있다.
s1920 단계에서, 제 1 디바이스(100)는 수신된 비디오 데이터에 따라, 제 2 디바이스(200)와 공유할 콘텐트의 실행 정보를 획득할 수 있다. 예를 들어, 제 1 디바이스(100)는 비디오 데이터에 포함된 콘텐트의 식별 값을 추출하고, 추출된 콘텐트 식별 값을 이용하여 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. 이때, 콘텐트 식별 값은, 비디오 데이터에 포함된 이미지, 제스처, 아이콘, 로고, 텍스트 이미지 등을 포함할 수 있다. 또한, 실행 정보는 예를 들어, 콘텐트를 실행하기 위한 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보 등일 수 있다.
s1930 단계에서, 제 1 디바이스(100)는 비디오 데이터 및 콘텐트의 실행 정보를 제 2 디바이스(200)로 전송할 수 있다. 또한, 제 1 디바이스(100)는 비디오 데이터에서 콘텐트의 식별 값이 재생되는 시간 정보 및 콘텐트의 식별 값이 나타나는 영역의 좌표 정보를 포함하는 매핑 테이블을 제 2 디바이스(200)로 전송할 수 있다.
s1940 단계에서, 제 2 디바이스(200)는 수신된 콘텐트의 실행 정보에 대응되는 콘텐트를 저장 또는 실행하기 위한 GUI를 디스플레이할 수 있다. 도 20을 참조하면, 제 2 디바이스(200)는 비디오 데이터(2010)를 재생하면서, 제 1 디바이스(100)로부터 수신된 실행 정보를 이용하여, 비디오 데이터에 포함된 콘텐트(즉, 하트 이미지 데이터)(2030)를 실행하기 위한 GUI(2040)를 디스플레이할 수 있다. 이때, 콘텐트의 식별 값은 하트 손 모양 제스처(2020)일 수 있다.
s1950 단계에서, 제 2 디바이스(200)는 GUI에 대한 사용자 입력이 수신되면, 실행 정보를 이용하여 콘텐트를 실행할 수 있다. 또는, 제 2 디바이스(200)는 실행 정보를 이용하여 콘텐트를 저장할 수도 있다.
도 21 내지 도 22 는 실시예에 따른 디바이스를 설명하기 위한 도면들이다. 이하에서는, 도 21 내지 도 22와 함께 도 1 내지 도 21을 참조하여 개시된 실시예들에 따른 디바이스를 설명한다. 특별한 언급이 없더라도 앞서 설명한 구체적인 내용들 및 기술적 사상은 도 21 내지 도 22의 디바이스에도 동일하게 적용되는 것으로 본다. 따라서, 도 1 내지 도 21 에서와 중복되는 설명은 생략한다.
도 21은 콘텐트 공유 시스템에서 제 1 디바이스 및 제 2 디바이스의 구성을 도시한 도면이다.
도 21을 참조하면, 제 1 디바이스(100)는 제 1 디스플레이부(2110), 제 1 제어부(2120) 및 제 1 통신부(2130)를 포함한다.
제 1 디스플레이부(2110)는 제 1 디바이스(100)에서 처리되는 정보를 화면에 디스플레이할 수 있다. 예를 들어, 제 1 디바이스(100)는 제 1 디바이스(100)에서 포그라운드(foreground)로 실행되는 어플리케이션의 실행 화면을 디스플레이할 수 있다. 제 1 디바이스(100)는 채팅 어플리케이션의 채팅 창을 디스플레이할 수 있으며, 사진첩 어플리케이션 등의 실행 화면을 디스플레이할 수 있다.
제 1 제어부(2120)는 제 1 디바이스(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제 1 제어부(2120)는 제 1 디스플레이부(2110)를 제어하여 어플리케이션의 실행 화면이 제 1 디스플레이부(2110)에 표시되도록 할 수 있다.
또한, 제 1 제어부(2120)는 제 1 디바이스(100)의 화면을 캡처하는 사용자 입력에 응답하여 제 1 디스플레이부(2110)에 표시된 객체들을 포함하는 캡처 이미지를 생성할 수 있다.
또한, 제 1 제어부(2120)는 캡처 이미지에 표시된 객체들에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다. 여기서, 콘텐트는 제 1 디바이스(100)에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터(예를 들어, 바이너리 데이터)를 포함할 수 있으며, 외부 서버에 저장된 텍스트 데이터, 오디오 데이터, 비디오 데이터 및/또는 어플리케이션 실행 데이터일 수 있다. 또한, 콘텐트를 나타내는 객체는 콘텐트를 대표하는 아이콘, 텍스트 및/또는 이미지일 수 있다. 또한, 실행 정보는, 캡처 이미지에 표시된 객체에 대응되는 콘텐트의 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드 할 수 있는 링크 정보일 수 있다.
제 1 제어부(2120)는 캡처 이미지를 분석하여, 캡처 이미지에 포함된 객체들을 식별할 수 있다. 또한, 제 1 제어부(2120)는 식별된 객체들이 콘텐트를 나타내는지 여부를 판단할 수 있다. 예를 들어, 객체가 텍스트인 경우, 제 1 제어부(2120)는 상기 텍스트와 동일한 파일명을 갖는 콘텐트 파일을 검색할 수 있다. 이때, 제 1 제어부(2120)는 제 1 디바이스(100) 또는 외부 서버에 저장된 콘텐트 파일을 검색할 수 있다. 만약, 콘텐트 파일이 제 1 디바이스(100)에 존재하는 경우, 제 1 제어부(2120)는 콘텐트 파일을 실행 정보로 할 수 있으며, 콘텐트 파일이 외부 서버에 존재하는 경우, 제 1 제어부(2120)는 외부 서버에 콘텐트 파일이 저장된 링크 정보를 실행 정보로 할 수 있다.
또한, 제 1 제어부(2120)는 캡처 이미지에서 실행 정보에 대응되는 객체 또는 이미지 영역에 대한 좌표 정보를 생성할 수 있다. 예를 들어, 제 1 제어부(2120)는 하나의 객체가 하나의 실행 정보에 대응되는 경우, 캡처 이미지에서 객체가 표시된 이미지 영역에 대한 좌표 정보를 생성할 수 있다. 또는, 제 1 제어부(2120)는 복수의 객체들이 동일한 실행 정보에 대응되는 경우, 캡처 이미지에서 복수의 객체들을 포함하는 이미지 영역에 대한 좌표 정보를 생성할 수 있다.
또한, 제 1 제어부(2120)는 캡처 이미지에 표시된 객체들 중에서 일부를 선택하는 사용자 입력에 응답하여, 선택된 객체를 강조하여 표시하기 위한 표시자(indicator)를 캡처 이미지에 삽입할 수 있다. 예를 들어, 제 1 제어부(2120)는 선택된 객체를 굵은 선으로 표시하거나 선택된 객체를 특정 색상으로 표시할 수 있다. 이 경우, 제 1 제어부(2120)는 선택된 객체를 실행하기 위한 실행 정보만을 획득할 수 있다.
제 1 통신부(2130)는 제 1 디바이스(100)가 제 2 디바이스(200) 또는 다른 외부 디바이스들과 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 제 1 통신부(2130)는 와이파이 칩(미도시), 블루투스 칩(미도시), 무선 통신 칩(미도시), NFC 칩(미도시) 중 적어도 하나를 포함할 수 있다. 제 1 제어부(2120)는 제 1 통신부(2130)를 이용하여 제 2 디바이스(200) 또는 다른 외부 디바이스들과 데이터를 송수신할 수 있다.
제 1 통신부(2130)는 제 1 제어부(2120)의 제어에 의해, 캡처 이미지 및 실행 정보를 포함하는 전송 파일을 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 통신부(2130)는 MHTML(Multipurpose Internet Mail Extension HTML) 또는 EML(Election Markup Language) 파일 포맷을 갖는 전송 파일을 제 2 디바이스(200)로 전송할 수 있다.
또한, 제 1 통신부(2130)는 제 1 제어부(2120)의 제어에 의해, 캡처 이미지에 표시된 객체에 대응되는 좌표 정보 및 좌표 정보에 대응되는 실행 정보를 포함하는 매핑 테이블을 제 2 디바이스(200)로 전송할 수 있다. 예를 들어, 제 1 통신부(2130)는 제 1 제어부(2120)의 제어에 의해, 캡처 이미지, 실행 정보 및 매핑 테이블을 포함하는 전송 파일을 제 2 디바이스(200)로 전송할 수 있다.
제 2 디바이스(200)는 제 2 디스플레이부(2140), 제 2 제어부(2150) 및 제 2 통신부(2160)를 포함한다.
제 2 통신부(2160)는 제 2 디바이스(200)가 제 1 디바이스(100) 또는 다른 외부 디바이스들과 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 제 2 통신부(2160)는 와이파이 칩(미도시), 블루투스 칩(미도시), 무선 통신 칩(미도시), NFC 칩(미도시) 중 적어도 하나를 포함할 수 있다.
제 2 통신부(2160)는 제 1 디바이스(100)가 전송하는 캡처 이미지 및 캡처 이미지에 표시된 객체들에 대응되는 콘텐트를 실행하기 위한 정보를 포함하는 전송 파일을 수신할 수 있다. 또한, 제 2 통신부(2160)는 캡처 이미지 및 실행 파일 외에도, 매핑 테이블을 더 포함하는 전송 파일을 수신할 수 있다.
제 2 디스플레이부(2140)는 제 2 디바이스(200)에서 처리되는 정보를 화면에 디스플레이할 수 있다. 제 2 디스플레이부(2140)는 제 2 통신부(2160)를 통해 제 1 디바이스(100)로부터 수신된 캡처 이미지를 디스플레이할 수 있다. 예를 들어, 제 2 디스플레이부(2140)는 채팅 어플리케이션의 채팅 창에서 수신된 캡처 이미지를 디스플레이할 수 있다. 이때, 캡처 이미지는 제 1 디바이스(100)의 사용자에 의해 선택된 객체들이 강조되어 표시된 것일 수 있다.
제 2 제어부(2150)는 제 2 디바이스(200)의 전반적인 동작을 제어할 수 있다. 제 2 제어부(2150)는 캡처 이미지를 분석하여, 캡처 이미지에 표시된 객체를 식별할 수 있다. 또한, 제 2 제어부(2150)는 식별된 객체가 표시된 영역에 대한 사용자 입력에 응답하여, 사용자 입력이 수신된 영역에 대응되는 객체를 식별하고, 객체에 대응되는 실행 정보를 이용하여 콘텐트를 실행할 수 있다.
또는, 제 2 제어부(2150)는 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보와 매핑 테이블의 좌표 정보 및 실행 정보를 이용하여, 콘텐트를 실행할 수 있다. 예를 들어, 제 2 제어부(2150)는 사용자 입력에 대응되는 객체가 표시된 영역의 좌표 정보에 매칭되는 매핑 테이블의 좌표 정보를 식별하고, 좌표 정보에 대응되는 실행 정보를 식별할 수 있다. 제 2 제어부(2150)는 식별된 실행 정보를 이용하여 콘텐트를 실행할 수 있다. 또한, 제 2 디스플레이부(2140)는 콘텐트의 실행 화면을 디스플레이할 수 있다.
또는, 제 2 제어부(2150)는 콘텐트를 제 2 디바이스(200)에 저장하기 위한 GUI를 제공할 수도 있다. GUI에 대한 사용자 입력이 수신되면, 제 2 제어부(2150)는 콘텐트를 저장할 수 있다.
한편, 위 설명에서는 콘텐트 공유 시스템의 제 1 디바이스(100) 및 제 2 디바이스(200)의 동작들을 각각 설명하였으나, 제 1 디바이스(100) 및 제 2 디바이스(200)가 전술한 콘텐트 공유 시스템의 모듈들 및 함수들을 수행할 수 있음은, 개시된 실시예에 따른 기술 분야의 전문가가 용이하게 이해할 수 있을 것이다. 예를 들어, 제 2 디바이스(200)의 제 2 제어부(2150)가 캡처 이미지를 생성하고, 캡처 이미지에 표시된 객체들에 대응되는 콘텐트를 실행하기 위한 실행 정보를 획득할 수 있다.
도 22는 디바이스의 상세한 구성을 설명하는 도면이다.
도 22를 참조하면, 제 1 디바이스(100) 또는 제 2 디바이스(200)에 대응되는 디바이스(2200)는 제어부(2210), 디스플레이부(2220) 및 통신부(2240) 외에도, 메모리(2230), 센서부(2235), 입력부(2250), 마이크부(2270), 촬상부(2275), 스피커부(2280)를 더 포함할 수 있다.
제어부(2210)는 도 21의 제 1 제어부(2120) 또는 제 2 제어부(2150)에 대응될 수 있다. 또한, 제어부(2210)는 디바이스(2200)의 디스플레이부(2220), 통신부(2240), 센서부(2235), 입력부(2250), 마이크부(2270), 촬상부(2275), 스피커부(2280) 등을 전반적으로 제어할 수 있다.
제어부(2210)는 RAM(Random Access Memory)(2211), ROM(Read-Only Memory)(2212), CPU(2213), GPU(Graphic Processing Unit)(2214) 및 버스(2215) 중 적어도 하나를 포함 할 수 있다. RAM(2211), ROM(2212), CPU(2213) 및 GPU(2214) 등은 버스(2215)를 통해 서로 연결될 수 있다. 그러나, 이에 제한되는 것은 아니며, RAM(2211), ROM(2212) 및 GPU(2214) 중 적어도 하나는 제어부(2210)의 외부에 위치할 수도 있다. 또한, 제어부(2210)는 퀄컴(qualcomm)의 스냅드래곤(SNAPDRAMON™)과 같은 ARM(Advanced RISC Machine) 프로세서일 수 있다.
CPU(2213)는 메모리(2230)에 액세스하여, 메모리(2230)에 저장된 운영체제를 이용하여 부팅을 수행한다. 그리고, 메모리(2230)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(2212)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 예로, 디바이스(2200)는 턴온 명령이 입력되어 전원이 공급되면, CPU(2213)가 ROM(2212)에 저장된 명령어에 따라 메모리(2230)에 저장된 운영체제(OS)를 RAM(2211)에 복사하고, OS를 실행시켜 시스템을 부팅시킬 수 있다. 부팅이 완료되면, CPU(2213)는 메모리(2230)에 저장된 각종 프로그램을 RAM(2211)에 복사하고, RAM(2211)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. GPU(2214)는 디바이스(2200)의 부팅이 완료되면, 디스플레이부(2220)의 영역에 UI 화면을 디스플레이한다. 또한, GPU(2214)에서 생성된 화면은 디스플레이부(2820)로 제공되어, 디스플레이부(2820)의 각 영역에 각각 표시될 수 있다.
디스플레이부(2820)는 도 21의 제 1 디스플레이부(2110) 또는 제 2 디스플레이부(2140)에 대응될 수 있다. 또한, 디스플레이부(2220)는 디스플레이 패널(2221) 및 디스플레이 패널(2221)을 제어하는 컨트롤러(미도시)를 포함할 수 있다. 디스플레이 패널(2221)에는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이 패널(2221)은 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이부(1020)는 입력부(2250)의 터치 패널(2252)과 결합되어 터치 스크린(미도시)으로 제공될 수 있다. 예를 들어, 터치 스크린(미도시)은 디스플레이 패널(2221)과 터치 패널(2252)이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다. 또한, 터치 스크린은 디스플레이 패널(2221)과 터치 패널(2252)이 적층 구조로 결합된 일체형 모듈의 일부에 감압식 센서를 더 포함할 수도 있다.
메모리(2230)는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다.
내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다.
일 실시예에 의하면, 제어부(2210)는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 제어부(2210)는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다.
외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.
또한, 메모리(2230)는 콘텐트 파일 등을 저장할 수 있다. 예를 들어, 메모리(2230)는 디바이스(2200)의 동작 등에 사용되는 각종 어플리케이션 실행 데이터, 오디오 데이터, 비디오 데이터, 이미지 데이터 및 텍스트 데이터를 저장할 수 있다.
통신부(2240)는 도 21의 제 1 통신부(2130) 또는 제 2 통신부(2160)에 대응될 수 있다. 통신부(2240)는 와이파이 칩(2241), 블루투스 칩(2242), 무선 통신 칩(2243), NFC 칩(2244) 중 적어도 하나를 포함할 수 있다. 제어부(2210)는 통신부(2240)를 이용하여 외부 디바이스와 데이터를 송수신할 수 있다.
와이파이 칩(2241), 블루투스 칩(2242)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩(2241)이나 블루투스 칩(2242)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다.
무선 통신 칩(2243)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(2244)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.
입력부(2250)는 사용자로부터 다양한 명령어를 입력 받을 수 있다. 사용자 입력부(2250)는 키(2251), 터치 패널(2252) 및 펜 인식 패널(2253) 중 적어도 하나를 포함할 수 있다.
터치 패널(2252)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 일 실시예에 의하면, 터치 패널(2252)은 사용자의 탭, 터치 앤드 홀드, 더블 탭, 드래그, 패닝, 플릭 및 드래그 앤드 드롭 중 적어도 하나를 포함하는 터치 입력을 수신할 수 있다. 터치 패널(2252)이 디스플레이 패널(2221)과 결합하여 터치 스크린(미도시)을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다.
정전식은 터치 스크린 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 터치 스크린 표면에 터치되었을 때 사용자의 인체로 야기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 터치 스크린에 내장된 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 터치 스크린에서 발생하는 터치 이벤트는 주로 사람의 손가락에 의하여 생성될 수 있으나, 정전 용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 생성될 수 있다.
키(2251)는 디바이스(2200)의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다.
펜 인식 패널(2253)은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen), 디지타이저 펜(digitizer pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널(2253)은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 상세하게는 펜 인식 패널(2253)은 그리드 구조를 가지는 전자 유도 코일 센서(미도시)와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부(미도시)를 포함하여 구성될 수 있다. 이러한 펜 인식 패널(2253)의 루프 코일 근방에 공진회로를 내장하는 펜이 존재하면, 해당 루프 코일로부터 송신되는 자계가 펜 내의 공진회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이 전류를 기초로 하여, 펜 내의 공진 회로를 구성하는 코일로부터 유도 자계가 발생하게 되고, 펜 인식 패널(2253)은 이 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 펜의 접근 위치 또는 터치 위치가 감지될 수 있다. 펜 인식 패널(2253)은 디스플레이 패널(2221)의 하부에 일정 면적, 예를 들어, 디스플레이 패널(2221)의 표시 영역을 커버할 수 있는 면적을 가지고 마련될 수 있다.
마이크부(2270)는 사용자 음성이나 기타 소리를 입력 받아 오디오 데이터로 변환할 수 있다. 제어부(2210)는 마이크부(2270)를 통해 입력되는 사용자 음성을 통화 동작에서 이용하거나, 오디오 데이터로 변환하여 메모리(2230)에 저장할 수 있다.
촬상부(2275)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상할 수 있다. 촬상부(2275)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수도 있다.
촬상부(2275) 및 마이크부(2270)가 마련된 경우, 제어부(2210)는 마이크부(2270)를 통해 입력되는 사용자 음성이나 촬상부(2275)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 예컨대, 디바이스(2200)는 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 제어부(2210)는 촬상부(2275)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다. 음성 제어 모드로 동작하는 경우 제어부(2210)는 마이크부(2270)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수 있다.
스피커부(2280)는 제어부(2210)의 제어에 의해 오디오 데이터를 출력할 수 있다. 일부 실시예에 따라 스피커부(2280)는, 애플리케이션 리스트 내의 애플리케이션을 선택하는 사용자 입력이 입력부(2250)를 통해 수신되면, 선택된 애플리케이션의 소비전력 등급 별로 구별되는 알림음을 출력할 수 있다.
그 밖에, 도 22에 도시하지는 않았으나, 실시예에는, 디바이스(2200) 내에 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩, 다양한 센서 등을 더 포함할 수 있다.
또한, 디바이스(2200)는 디바이스(2200)를 진동시키기 위한 진동부(미도시)를 더 포함할 수 있다. 일부 실시예에 따라 디바이스(2200)는 애플리케이션 리스트 내의 애플리케이션을 선택하는 사용자 입력이 입력부(2250)를 통해 수신되면, 선택된 애플리케이션의 소비전력 등급 별로 구별되는 진동을 출력하는 진동부(미도시)를 더 구비할 수 있다.
또한, 전술한 디바이스(2200)의 구성 요소들의 명칭은 실시예에 따라서 달라질 수 있다.
한편, 상술한 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 컴퓨터의 프로세서는 컴퓨터의 통신 모듈(예: 유선 및/또는 무선 통신 모듈)을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신할 수 있는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 정보를 더 포함할 수 있다.
그리고, 개시된 실시예들을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 시스템 환경 등을 고려하여, 개시된 실시예들이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.
이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다.
또한 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는 네트워크로 커넥션된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 이 경우, 다수의 분산된 컴퓨터 중 어느 적어도 하나의 컴퓨터는 상기에 제시된 기능들 중 일부를 실행하고, 그 결과를 다른 분산된 컴퓨터들 중 적어도 하나에 그 실행 결과를 전송할 수 있으며, 그 결과를 전송 받은 컴퓨터 역시 상기에 제시된 기능들 중 일부를 실행하여, 그 결과를 역시 다른 분산된 컴퓨터들에 제공할 수 있다.
이상에서, 개시된 실시예들을 구성하는 모든 구성요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 명세서에 따른 권리 범위가 반드시 이러한 실시예들로 한정되는 것은 아니다. 즉, 개시된 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 개시된 실시예들이 속하는 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 명세서의 실시예들을 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.
이상의 설명은 본 명세서의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자라면, 발명의 본질적인 특성에서 벗어나지 않는 범위에서, 개시된 실시예들에 대한 다양한 수정 및 변형이 가능할 것이다. 따라서, 개시된 실시예들은 본 명세서에 기술된 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 개시된 실시예들에 의하여 발명의 기술 사상의 범위가 한정되는 것은 아니다. 개시된 실시예들에 따른 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 개시된 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (20)

  1. 디바이스가 콘텐트를 공유하는 방법에 있어서,
    다른 디바이스의 화면을 캡처한 캡처 이미지 및 상기 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 상기 다른 디바이스로부터 수신하는 단계;
    상기 캡처 이미지 내의 상기 객체의 좌표 정보 및 상기 좌표 정보에 대응되는 상기 실행 정보를 포함하는 매핑 테이블을 수신하는 단계;
    상기 수신된 매핑 테이블에 기초하여, 상기 객체가 표시된 영역의 좌표 정보에 대응되는 실행 정보를 식별하는 단계;
    상기 객체에 대응되는 시각적으로 강조된 부분을 포함하는 상기 캡처 이미지를 디스플레이하는 단계; 및
    상기 캡처 이미지에서 상기 시각적으로 강조된 부분에 대한 사용자 입력에 기초하여, 상기 식별된 실행 정보를 이용하여 상기 객체에 대응되는 상기 콘텐트를 실행하는 단계;를 포함하고,
    상기 객체는 상기 캡처 이미지에 표시된 복수의 객체들 중에서, 상기 다른 디바이스의 사용자에 의해 선택된 객체인 것인, 콘텐트 공유 방법.
  2. 제 1 항에 있어서,
    상기 다른 디바이스는, 채팅 어플리케이션을 이용하여 상기 디바이스와 메시지를 송수신 중인 것이며,
    상기 캡처 이미지는, 상기 채팅 어플리케이션의 채팅 창에 표시되는 것인, 콘텐트 공유 방법.
  3. 제 1 항에 있어서,
    상기 콘텐트를 실행하는 단계는,
    상기 실행 정보를 이용하여 상기 객체에 대응되는 상기 콘텐트를 상기 다른 디바이스로 요청하는 단계; 및
    상기 콘텐트를 상기 다른 디바이스로부터 수신하는 단계;를 포함하는, 콘텐트 공유 방법.
  4. 제 1 항에 있어서,
    상기 실행 정보는, 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드하기 위한 링크 정보 중 적어도 하나인, 콘텐트 공유 방법.
  5. 제 1 항에 있어서,
    상기 실행하는 단계는,
    상기 콘텐트를 상기 디바이스에 저장하기 위한 GUI(graphic user interface)를 디스플레이하는 단계;를 포함하는, 콘텐트 공유 방법.
  6. 제 1 항에 있어서,
    상기 객체는, 이미지를 디스플레이하기 위한 객체, 음악을 재생하기 위한 객체, 영상을 재생하기 위한 객체 또는 어플리케이션을 실행하기 위한 객체 중 적어도 하나를 포함하는 것인, 콘텐트 공유 방법.
  7. 디바이스가 콘텐트를 공유하는 방법에 있어서,
    상기 디바이스의 화면을 캡처하는 사용자 입력에 기초하여, 캡처 이미지를 생성하는 단계;
    상기 캡처 이미지에 표시된 복수의 객체들 중에서 상기 객체를 선택하는 사용자 입력을 수신하는 단계;
    상기 객체에 대응되는 시각적으로 강조된 부분을 포함하는 상기 캡처 이미지 및 상기 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로 전송하는 단계; 및
    상기 캡처 이미지 내의 상기 객체의 좌표 정보 및 상기 좌표 정보에 대응되는 상기 실행 정보를 포함하는 매핑 테이블을 상기 다른 디바이스로 전송하는 단계;를 포함하는, 콘텐트 공유 방법.
  8. 제 7 항에 있어서,
    상기 다른 디바이스로부터 상기 객체에 대응되는 상기 콘텐트에 대한 요청을 수신하는 단계; 및
    상기 콘텐트를 상기 다른 디바이스에게 전송하는 단계;를 더 포함하는, 콘텐트 공유 방법.
  9. 제 7 항에 있어서,
    상기 실행 정보는, 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드하기 위한 링크 정보 중 적어도 하나인, 콘텐트 공유 방법.
  10. 제 7 항에 있어서,
    상기 객체는, 이미지를 디스플레이하기 위한 객체, 음악을 재생하기 위한 객체, 영상을 재생하기 위한 객체 또는 어플리케이션을 실행하기 위한 객체 중 적어도 하나를 포함하는 것인, 콘텐트 공유 방법.
  11. 디바이스에 있어서,
    디스플레이부; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    다른 디바이스의 화면을 캡처한 캡처 이미지 및 상기 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 상기 다른 디바이스로부터 수신하고,
    상기 캡처 이미지 내의 상기 객체의 좌표 정보 및 상기 좌표 정보에 대응되는 상기 실행 정보를 포함하는 매핑 테이블을 수신하고,
    상기 수신된 매핑 테이블에 기초하여, 상기 객체가 표시된 영역의 좌표 정보에 대응되는 실행 정보를 식별하고,
    상기 객체에 대응되는 시각적으로 강조된 부분을 포함하는 상기 캡처 이미지를 디스플레이하도록 상기 디스플레이부를 제어하고,
    상기 캡처 이미지에서 상기 시각적으로 강조된 부분에 대한 사용자 입력에 기초하여, 상기 식별된 실행 정보를 이용하여 상기 객체에 대응되는 상기 콘텐트를 실행하는, 디바이스.
  12. 제 11 항에 있어서,
    상기 다른 디바이스는, 채팅 어플리케이션을 이용하여 상기 디바이스와 메시지를 송수신 중이며,
    상기 캡처 이미지는, 상기 채팅 어플리케이션의 채팅 창에 표시되는 것인, 디바이스.
  13. 제 11 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 사용자 입력에 기초하여, 상기 실행 정보를 이용하여 상기 객체에 대응되는 콘텐트를 상기 다른 디바이스로 요청하고, 상기 콘텐트를 상기 다른 디바이스로부터 수신하는, 디바이스.
  14. 제 11 항에 있어서,
    상기 실행 정보는, 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드하기 위한 링크 정보 중 적어도 하나인, 디바이스.
  15. 제 11 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 콘텐트를 상기 디바이스에 저장하기 위한 GUI(graphic user interface)를 디스플레이하도록 상기 디스플레이부를 제어하는, 디바이스.
  16. 제 11 항에 있어서,
    상기 객체는, 이미지를 디스플레이하기 위한 객체, 음악을 재생하기 위한 객체, 영상을 재생하기 위한 객체 또는 어플리케이션을 실행하기 위한 객체 중 적어도 하나를 포함하는 것인, 디바이스.
  17. 디바이스에 있어서,
    디스플레이부; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 디바이스의 화면을 캡처하는 사용자 입력에 기초하여, 캡처 이미지를 생성하고,
    상기 캡처 이미지에 표시된 복수의 객체들 중에서 상기 객체를 선택하는 사용자 입력을 수신하고,
    상기 객체에 대응되는 시각적으로 강조된 부분을 포함하는 상기 캡처 이미지 및 상기 캡처 이미지에 표시된 객체에 대응되는 콘텐트를 실행하기 위한 실행 정보를 다른 디바이스로 전송하고,
    상기 캡처 이미지 내의 상기 객체의 좌표 정보 및 상기 좌표 정보에 대응되는 상기 실행 정보를 포함하는 매핑 테이블을 상기 다른 디바이스로 전송하는, 디바이스.
  18. 제 17 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 다른 디바이스로부터 상기 객체에 대응되는 상기 콘텐트에 대한 요청을 수신하고,
    상기 콘텐트를 상기 다른 디바이스에게 전송하는, 디바이스.
  19. 제 17 항에 있어서,
    상기 실행 정보는, 콘텐트 파일, 콘텐트 파일의 식별 정보 또는 콘텐트를 다운로드하기 위한 링크 정보 중 적어도 하나인, 디바이스.
  20. 제 17 항에 있어서,
    상기 객체는, 이미지를 디스플레이하기 위한 객체, 음악을 재생하기 위한 객체, 영상을 재생하기 위한 객체 또는 어플리케이션을 실행하기 위한 객체 중 적어도 하나를 포함하는 것인, 디바이스.
KR1020150158126A 2014-11-12 2015-11-11 콘텐트를 공유하는 방법 및 콘텐트 공유 시스템 KR102327205B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/518,625 US10921954B2 (en) 2014-11-12 2015-11-11 Method for sharing content and content sharing system
PCT/KR2015/012116 WO2016076627A1 (ko) 2014-11-12 2015-11-11 콘텐트를 공유하는 방법 및 콘텐트 공유 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410637551.9A CN104410768B (zh) 2014-11-12 2014-11-12 信息传输方法和装置
CN201410637551.9 2014-11-12

Publications (2)

Publication Number Publication Date
KR20160056827A KR20160056827A (ko) 2016-05-20
KR102327205B1 true KR102327205B1 (ko) 2021-11-16

Family

ID=52648360

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150158126A KR102327205B1 (ko) 2014-11-12 2015-11-11 콘텐트를 공유하는 방법 및 콘텐트 공유 시스템

Country Status (4)

Country Link
US (1) US10921954B2 (ko)
EP (1) EP3220346B1 (ko)
KR (1) KR102327205B1 (ko)
CN (1) CN104410768B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024005299A1 (ko) * 2022-06-28 2024-01-04 삼성전자 주식회사 미디어 콘텐트를 포함하는 메시지를 교환하기 위한 전자 장치 및 그 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2548316A (en) * 2015-12-01 2017-09-20 Zaptobuy Ltd Methods and systems for identifying an object in a video image
CN109739450B (zh) * 2018-04-08 2020-03-27 北京字节跳动网络技术有限公司 一种交互方法及装置
US11669215B2 (en) * 2020-09-11 2023-06-06 Future Dial, Inc. Computing device identifier retrieval
US11323653B1 (en) * 2020-11-05 2022-05-03 Snap Inc. Screen recording camera mode
US11671387B2 (en) * 2021-06-06 2023-06-06 Apple Inc. User interfaces for messaging conversations

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001337995A (ja) 2000-05-26 2001-12-07 Noritsu Koki Co Ltd 画像管理装置および方法、ならびに、画像データを管理するプログラムを記録したコンピュータ読み取り可能な記録媒体
US20020145756A1 (en) * 2001-04-06 2002-10-10 Stoecker Steven D. Passport photograph generation system
US7154535B2 (en) * 2001-07-13 2006-12-26 Matsushita Electric Industrial Co., Ltd. Digital camera capable of directly accessing images recorded on another digital camera
US8964054B2 (en) * 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
US9241056B2 (en) 2006-06-22 2016-01-19 Sony Corporation Image based dialing
JP4609398B2 (ja) 2006-08-23 2011-01-12 カシオ計算機株式会社 撮像装置及びプログラム
EP1998543A1 (en) * 2007-05-29 2008-12-03 Research In Motion Limited System and Method for Integrating Image Upload Objects with a Message List
JP2009044602A (ja) * 2007-08-10 2009-02-26 Olympus Imaging Corp 撮像装置、撮像システム及び撮像方法
US8037425B2 (en) * 2007-12-14 2011-10-11 Scenera Technologies, Llc Methods, systems, and computer readable media for controlling presentation and selection of objects that are digital images depicting subjects
TW201031149A (en) 2009-02-03 2010-08-16 Acer Inc Instant data sharing system and machine readable medium thereof
US20100211865A1 (en) 2009-02-19 2010-08-19 Microsoft Corporation Cross-browser page visualization generation
KR101584304B1 (ko) 2009-07-20 2016-01-11 삼성전자주식회사 콘텐츠 요청 장치 및 방법
KR101583088B1 (ko) 2009-11-11 2016-01-07 엘지전자 주식회사 화상 회의 시스템에서 데이터를 공유하는 방법 및 장치
US9111255B2 (en) * 2010-08-31 2015-08-18 Nokia Technologies Oy Methods, apparatuses and computer program products for determining shared friends of individuals
CN102438153B (zh) * 2010-09-29 2015-11-25 华为终端有限公司 多摄像机图像校正方法和设备
PL395376A1 (pl) * 2011-06-22 2013-01-07 Google Inc. Wykonywanie, po stronie klienta, przyblizonych zrzutów ekranu stron sieci web
KR20130009446A (ko) 2011-07-15 2013-01-23 에스케이플래닛 주식회사 동영상 컨텐츠 공유 시스템 및 방법, 이를 위한 장치 및 기록매체
TWI479866B (zh) 2012-05-15 2015-04-01 Awind Inc 分享螢幕截圖之發送裝置、方法以及其電腦可讀取之媒體
US9176703B2 (en) 2012-06-29 2015-11-03 Lg Electronics Inc. Mobile terminal and method of controlling the same for screen capture
KR101987463B1 (ko) * 2012-06-29 2019-06-11 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US8774536B1 (en) * 2012-07-03 2014-07-08 Google Inc. Efficient processing of streams of images within a moving window session
KR102088382B1 (ko) * 2012-09-07 2020-03-12 삼성전자주식회사 애플리케이션 실행 방법, 콘텐트 공유 제어 방법 및 디스플레이 장치
US20140189576A1 (en) 2012-09-10 2014-07-03 Applitools Ltd. System and method for visual matching of application screenshots
KR101527039B1 (ko) 2012-11-01 2015-06-08 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US10523454B2 (en) * 2013-06-13 2019-12-31 Evernote Corporation Initializing chat sessions by pointing to content
US20150058369A1 (en) 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Electronic device and method for using captured image in electronic device
US20150128017A1 (en) * 2013-11-06 2015-05-07 International Business Machines Corporation Enabling interactive screenshots within collaborative applications
KR102056193B1 (ko) * 2014-01-22 2019-12-16 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10120542B2 (en) * 2014-10-08 2018-11-06 International Business Machines Corporation Reproducing state of source environment when image was screen captured on a different computing device using resource location, resource navigation and positional metadata embedded in image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024005299A1 (ko) * 2022-06-28 2024-01-04 삼성전자 주식회사 미디어 콘텐트를 포함하는 메시지를 교환하기 위한 전자 장치 및 그 방법

Also Published As

Publication number Publication date
US20170235444A1 (en) 2017-08-17
KR20160056827A (ko) 2016-05-20
CN104410768A (zh) 2015-03-11
EP3220346A4 (en) 2017-11-01
US10921954B2 (en) 2021-02-16
EP3220346B1 (en) 2019-06-26
CN104410768B (zh) 2018-08-10
EP3220346A1 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
US11886252B2 (en) Foldable device and method of controlling the same
US10841265B2 (en) Apparatus and method for providing information
KR102327205B1 (ko) 콘텐트를 공유하는 방법 및 콘텐트 공유 시스템
KR102156603B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
AU2018203008B2 (en) Foldable electronic apparatus and interfacing method thereof
US10452333B2 (en) User terminal device providing user interaction and method therefor
JP6478181B2 (ja) 携帯端末と外部表示装置の連結運用方法及びこれを支援する装置
KR102080146B1 (ko) 휴대단말과 외부 표시장치 연결 운용 방법 및 이를 지원하는 장치
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
CA2835526C (en) Mobile apparatus displaying end effect and control method thereof
KR102307215B1 (ko) 데이터 처리 방법 및 전자 디바이스
KR20150047451A (ko) 메시지 표시방법, 장치, 단말기장치, 프로그램 및 기록매체
US9426606B2 (en) Electronic apparatus and method of pairing in electronic apparatus
US10481790B2 (en) Method and apparatus for inputting information by using on-screen keyboard
KR102215178B1 (ko) 전자장치에서 사용자 입력 방법 및 장치
US20150370786A1 (en) Device and method for automatic translation
CN108780400B (zh) 数据处理方法及电子设备
US20150325254A1 (en) Method and apparatus for displaying speech recognition information
US20210223920A1 (en) Shortcut Key Control Method and Terminal
KR20200107274A (ko) 전자 장치 및 그의 어플리케이션 제어 방법
US11893226B2 (en) Display method, graphical interference, and related apparatus
US20150234794A1 (en) Electronic device and method of displaying electronic documents linked with link objects for the same

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant