KR20200101055A - 콘텐츠와 관련된 시각적 객체를 표시하는 방법 및 이를 지원하는 전자 장치 - Google Patents

콘텐츠와 관련된 시각적 객체를 표시하는 방법 및 이를 지원하는 전자 장치 Download PDF

Info

Publication number
KR20200101055A
KR20200101055A KR1020190019213A KR20190019213A KR20200101055A KR 20200101055 A KR20200101055 A KR 20200101055A KR 1020190019213 A KR1020190019213 A KR 1020190019213A KR 20190019213 A KR20190019213 A KR 20190019213A KR 20200101055 A KR20200101055 A KR 20200101055A
Authority
KR
South Korea
Prior art keywords
content
processor
display
electronic device
input
Prior art date
Application number
KR1020190019213A
Other languages
English (en)
Inventor
박상민
김경태
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190019213A priority Critical patent/KR20200101055A/ko
Priority to US16/795,424 priority patent/US20200264750A1/en
Priority to EP20759046.4A priority patent/EP3891592A4/en
Priority to PCT/KR2020/002436 priority patent/WO2020171613A1/en
Publication of KR20200101055A publication Critical patent/KR20200101055A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 다양한 실시 예는 콘텐츠와 관련된 시각적 객체를 표시하는 장치 및 방법에 관한 것이다.
다양한 실시 예들에 따른 전자 장치는, 디스플레이; 및 프로세서를 포함하고, 상기 프로세서는, 상기 디스플레이 내에서의 사용자 인터페이스 내에, 복수의 콘텐츠 중 제1 콘텐츠를 표시하고, 상기 사용자 인터페이스 내에서 수행되는 사용자 입력을 식별하고, 상기 사용자 입력의 식별에 응답하여, 상기 표시된 적어도 하나의 제1 콘텐츠와 구별되는 제2 콘텐츠를 표시하고; 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하고, 상기 정보의 식별에 응답하여, 상기 사용자 인터페이스 내에. 상기 식별된 정보에 대응하는 시각적 객체를(visual object)를 표시하도록 설정될 수 있다.

Description

콘텐츠와 관련된 시각적 객체를 표시하는 방법 및 이를 지원하는 전자 장치{METHOD FOR DISPLAYING VISUAL OBJECT REGARDING CONTENTS AND ELECTRONIC DEVICE THEREOF}
다양한 실시 예들은, 콘텐츠와 관련된 시각적 객체를 표시하기 위한 방법 및 이를 지원하는 전자 장치에 관한 것이다.
전자 장치는 다양한 어플리케이션을 통해 다양한 기능을 지원하고 있다. 전자 장치는 다양한 어플리케이션을 이용하여 메신저 기능, 파일 관리 기능을 제공하고 있다. 전자 장치는 다양한 기능을 실행하는 동안 복수의 콘텐츠들을 화면 상에 표시할 수 있다.
전자 장치에서 복수의 콘텐츠가 나열되어 표시되는 경우, 전자 장치의 사용자는 찾고 싶은 콘텐츠에 대하여 검색이 어려울 수 있다. 전자 장치의 사용자에게 콘텐츠의 요약 정보 또는 키워드 정보를 제공하여 검색을 용이하게 수행할 수 있는 방안(solution)이 요구될 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시 예들에 따른 전자 장치는, 디스플레이; 및 프로세서를 포함하고, 상기 프로세서는, 상기 디스플레이 내에서의 사용자 인터페이스 내에, 복수의 콘텐츠 중 제1 콘텐츠를 표시하고, 상기 사용자 인터페이스 내에서 수행되는 사용자 입력을 식별하고, 상기 사용자 입력의 식별에 응답하여, 상기 표시된 적어도 하나의 제1 콘텐츠와 구별되는 제2 콘텐츠를 표시하고; 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하고, 상기 정보의 식별에 응답하여, 상기 사용자 인터페이스 내에. 상기 식별된 정보에 대응하는 시각적 객체(visual object)를 표시하도록 설정될 수 있다.
다양한 실시 예들에 따른 전자 장치(electronic device)는, 콘텐츠와 관련된 시각적 객체를 표시할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 복수개의 콘텐츠의 적어도 일부와 관련된 시각적 객체를 표시할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 사용자의 입력에 따라 복수개의 콘텐츠들을 적어도 대표하는 객체를 표시할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 사용자 입력에 기반하여 결정되는 범위의 콘텐츠들과 관련된 시각적 객체를 표시할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 사용자 입력에 기반하여 결정되는 범위의 콘텐츠들을 대표하는 객체를 표시할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은, 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 다양한 실시 예들에 따른 전자 장치의 기능적 구성의 예를 도시한다.
도 3a는 다양한 실시 예들에 따른 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 표시하기 위한 전자 장치의 예를 설명하기 위한 흐름도를 도시한다.
도 3b는 다양한 실시 예들에 따른 콘텐츠의 일부를 표시하기 위한 전자 장치의 예를 설명하기 위한 흐름도를 도시한다.
도 4a는 다양한 실시 예들에 따른 전자 장치의 사용자 인터페이스의 예를 도시한다.
도 4b는 다양한 실시 예들에 따른 전자 장치에서 사용자 입력에 따른 콘텐츠와 관련된 정보를 획득하는 범위를 설명하기 위한 도면이다.
도 5는 다양한 실시 예들에 따른 전자 장치에서 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별하기 위한 동작의 예를 도시한다.
도 6은 다양한 실시 예들에 따른 전자 장치의 사용자 인터페이스의 다른 예를 도시한다.
도 7은 다양한 실시 예들에 따른 전자 장치에서 콘텐츠의 중요도에 따라 스크롤 속도를 조절하기 위한 흐름도를 도시한다.
도 8은 다양한 실시 예들에 따른 콘텐츠의 중요도에 따라 스크롤 속도를 조절하기 위한 동작의 다른 예를 도시한다.
도 9는 다양한 실시 예들에 따른 전자 장치의 사용자 인터페이스의 다른 또 다른 예를 도시한다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이, 터치 스크린 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예:스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어(인스트럭션)들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는 다양한 실시 예들에 따른 전자 장치의 기능적 구성의 예를 도시한다.
도 2를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))는 수행 대상 모듈(210), 스크롤 입력 모듈(220), 콘텐츠 요약 모듈(230), 스크롤 수행 모듈(240) 또는 요약 정보 모듈(250)을 더 포함할 수 있다. 도 2에 도시된 구성요소들은 각각 별개의 구성요소로서 구현되거나 도 1에 도시된 구성요소(예: 도 1의 프로세서(120) 및/또는 메모리(130))의 일부로서 임베디드되어 구현될 수도 있다. 일 실시 예에 따르면, 전자 장치(101)는 복수의 콘텐츠를 한 화면에 모두 표시할 수 없는 전자 장치(예: 스마트폰(smart phone))를 포함할 수 있다.
일 실시 예에 따르면, 수행 대상 모듈(210)은 전자 장치(101) 내에서 복수의 콘텐츠를 표시하기 위한 어플리케이션을 포함할 수 있다. 일 실시 예에 따르면, 수행 대상 모듈(210)은 다이얼로그 모듈(211) 또는 갤러리 모듈(212)을 포함할 수 있다. 또한, 수행 대상 모듈(210)은 전자 장치(101)에서 복수의 콘텐츠를 한 화면에 표시할 수 없는 경우, 사용자의 입력에 따라 복수의 콘텐츠의 일부를 화면에 표시하기 위한 어플리케이션 또는 어플리케이션 내의 일부 기능을 포함할 수 있다.
일 실시 예에 따르면, 수행 대상 모듈(210)은 사용자 간의 대화를 수행하기 위한 다이얼로그 모듈(211), 전자 장치(101) 내의 복수의 이미지들을 표시하기 위한 갤러리 모듈(212)을 포함할 수 있다. 일 실시 예에 따르면, 다이얼로그 모듈(211)은 문자메시지 어플리케이션, 채팅 어플리케이션 또는 상기 어플리케이션 내의 대화 인터페이스를 포함할 수 있다. 일 실시 예에 따르면, 갤러리 모듈(212)은 전자 장치(101) 내에 저장된 복수의 이미지들(또는 멀티미디어 콘텐츠)을 표시하기 위한 어플리케이션을 포함할 수 있다. 예를 들면, 갤러리 모듈(212)는 사진 뷰어(photo viewer), 이미지 뷰어(image viewer), 동영상 재생 어플리케이션 또는 상기 어플리케이션 내의 영상 썸네일 화면을 포함할 수 있다.
일 실시 예에 따르면, 수행 대상 모듈(210)은 스크롤 가능한 콘텐츠의 적어도 일부를 전자 장치(101)의 표시 장치(예: 도 1의 표시장치(160))를 통해 표시할 수 있다. 예를 들면, 수행 대상 모듈(210)은 채팅 다이얼로그의 일 부분을 표시 장치(160)를 통해 표시할 수 있다.
일 실시 예에 따르면, 스크롤 입력 모듈(220)은 전자 장치(101)의 사용자 입력을 수신할 수 있다. 스크롤 입력 모듈(220)은 수신된 사용자 입력을 분석하여 분석된 정보를 스크롤 수행 모듈(240)으로 송신할 수 있다. 일 실시 예에 따르면, 스크롤 입력 모듈(220)은 스크롤 입력부(221), 스크롤 속도 측정부(222) 또는 스크롤 범위 설정부(223)를 포함할 수 있다.
일 실시 예에 따르면, 스크롤 입력부(221)는 전자 장치(101)의 입력 장치(150)로부터 사용자 입력을 수신할 수 있다. 스크롤 입력부(221)는 전자 장치(101)의 입력 장치(예: 도 1의 입력 장치(150))가 사용자 입력을 수신하였는지 여부를 판단할 수 있다. 일 실시 예에 따르면, 사용자 입력은 스크롤 입력을 포함하며, 예를 들어 스와이프 업/다운(swipe up/down) 입력, 터치 앤 드래그(touch and drag) 입력, 음성(voice) 입력, 제스처(gesture) 입력, 비접촉식 스크롤(contactless scroll) 입력, 펜을 통한 스크롤 입력, 눈동자를 통한 입력 방식 중 적어도 하나를 포함할 수 있다. 사용자 입력은 입력 장치(150)의 임의의 위치에서 다양한 방식의 스크롤 입력과 표시 장치(160)에 표시된 객체(예: 스크롤 바)에 대한 단순 터치 또는 터치 앤 드래그 방식의 스크롤 입력을 포함한다.
일 실시 예에 따르면, 스크롤 입력부(221)는 사용자 입력이 전자 장치(101)의 디스플레이의 제1 위치에서 시작됨을 식별할 수 있다. 스크롤 입력부(221)는 사용자 입력이 전자 장치(101)의 디스플레이의 제2 위치에서 종료됨을 식별할 수 있다. 일 실시 예에 따르면, 스크롤 입력부(221)는 복수의 사용자 입력들이 발생하는 경우, 사용자 입력들이 연속적으로 발생하는지 여부를 식별할 수 있다. 스크롤 입력부(221)는 복수의 사용자 입력들 간의 시간 간격을 식별할 수 있다. 예를 들면, 스크롤 입력부(221)는 전자 장치(101)의 사용자가 전자 장치(101)의 디스플레이에 스크롤 입력을 반복해서 수행하는 것을 식별할 수 있다. 프로세서(120)는 스크롤 입력 간의 시간 간격을 식별할 수 있다.
일 실시 예에 따르면, 스크롤 속도 측정부(222)는 사용자의 입력(예: 스크롤 입력 또는 드래그 입력)의 속도를 측정할 수 있다. 일 실시 예에 따르면, 사용자 입력이 전자 장치(101)의 디스플레이의 제1 위치에서 시작하고, 제2 위치에서 종료되는 것에 응답하여, 스크롤 속도 측정부(222)는 사용자 입력의 속도를 식별할 수 있다. 일 실시 예에 따르면, 스크롤 속도 측정부(222)는 사용자 입력의 속도가 지정된 속도 보다 빠른 지 또는 느린 지 여부를 식별할 수 있다. 스크롤 속도 측정부(222)는 식별된 정보를 스크롤 범위 설정부(223)에게 송신할 수 있다.
일 실시 예에 따르면, 스크롤 범위 설정부(223)는 스크롤 속도 측정부(222)로부터 사용자 입력의 속도에 관한 정보를 수신할 수 있다. 스크롤 범위 설정부(223)는 사용자 입력의 속도에 기반하여 전자 장치(101)의 디스플레이내에서의 사용자 인터페이스(UI, user interface) 내에 표시되는 제1 콘텐츠에서 제2 콘텐츠로, 표시되는 범위를 결정할 수 있다. 예를 들면, 전자 장치(101) 내의 사용자 인터페이스 내에서 다이얼로그(또는 대화 내용) 중 일부를 표시되는 경우, 스크롤 범위 설정부(223)는 사용자 입력의 속도가 빠를수록 더 많은 콘텐츠를 이동하여 전자 장치(101)의 사용자 인터페이스 내에 표시될 제2 콘텐츠를 결정할 수 있다. 다른 예를 들면 스크롤 범위 설정부(223)는 사용자 입력의 속도가 느릴수록 더 적은 콘텐츠를 이동하여 사용자 인터페이스 내에 표시될 제2 콘텐츠를 결정할 수 있다.
일 실시 예에 따르면, 스크롤 범위 설정부(223)는 사용자 입력의 속도에 기반하여 전자 장치(101)의 사용자 인터페이스(UI, user interface)에 표시될 컨텐츠의 범위를 결정할 수 있다.
일 실시 예에 따르면, 콘텐츠 요약 모듈(230)은 콘텐츠 추출부(231), 콘텐츠 요약부(232) 또는 콘텐츠 중요도 판단부(233)를 포함할 수 있다. 일 실시 예에 따르면, 콘텐츠 요약 모듈(230)은 제1 콘텐츠 및 제2 콘텐츠에 기반하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 일 실시 예에 따르면, 콘텐츠 요약 모듈(230)은 제1 콘텐츠 및 제2 콘텐츠에 기반하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 일 실시 예에 따르면, 콘텐츠 요약 모듈(230)은 제1 콘텐츠 및 제2 콘텐츠에 공통적으로 포함된 정보를 식별할 수 있다. 일 실시 예에 따르면, 콘텐츠 요약 모듈(230)은 콘텐츠와 연관된 단어, 구, 문장, 및/또는 심볼을 결정 또는 추출할 수 있다. 콘텐츠 요약 모듈(230)은 추출된 제1 콘텐츠 및 제2 콘텐츠와 연관된 단어, 구, 문장 및/또는 심볼로부터 공통적으로 포함된 정보를 식별할 수 있다. 일 실시예에 따르면 콘텐츠 요약 모듈은 키워드 검출 (keyword spotting) 알고리즘을 포함할 수 있다.
일 실시 예에 따르면, 콘텐츠 추출부(231)는 제1 콘텐츠 및 제2 콘텐츠에 포함된 정보 간의 관계를 추출할 수 있다. 일 실시 예에 따르면, 콘텐츠 추출부(231)는 제1 콘텐츠 및 제2 콘텐츠의 메타 데이터를 식별할 수 있다. 콘텐츠 추출부(231)는 제1 콘텐츠 및 제2 콘텐츠의 메타 데이터 간의 관계를 추출할 수 있다. 일 실시 예에 따르면, 콘텐츠 추출부(231)는 제1 콘텐츠 및 제2 콘텐츠가 이미지인 경우, 제1 콘텐츠에 포함된 객체 및 제2 콘텐츠에 포함된 객체의 관계를 추출할 수 있다.
일 실시 예에 따르면, 콘텐츠 추출부(231)는 콘텐츠에 포함된 정보를 식별할 수 있다. 콘텐츠에 포함된 정보는 사람, 장소, 물건, 사건, 또는 개념을 정의할 수 있는 것에 관한 정보를 포함할 수 있다. 예를 들면, 콘텐츠 추출부(231)는 콘텐츠가 텍스트인 경우 명사에 해당하는 주어 또는 목적어를 콘텐츠에 포함된 정보로 식별할 수 있다. 일 실시 예에 따르면, 제1 콘텐츠 및 제2 콘텐츠가 다이얼로그 중 일부인 경우, 제1 콘텐츠 내에 포함된 단어(또는 키워드) 및 제2 콘텐츠 내에 포함된 단어(또는 키워드) 간의 관계를 추출할 수 있다. 예를 들면, 제1 콘텐츠는 "자전거 타러 가자"와 같은 대화 내용이고, 제2 콘텐츠는 "2시에 만나자"와 같은 대화 내용에 해당하는 경우, 콘텐츠 추출부(231)는 제1 콘텐츠로부터 "자전거", 제2 콘텐츠로부터 "2시"를 추출할 수 있다. 콘텐츠 추출부(231)는 "자전거"는 행동의 대상이며, "2시"는 시간에 해당함을 식별할 수 있다. 일 실시 예에 따르면, 콘텐츠 추출부(231)는 식별된 정보를 콘텐츠 요약부(232)로 송신할 수 있다.
일 실시 예에 따르면, 콘텐츠 추출부(231)는 제1 콘텐츠 및 제2 콘텐츠에 포함된 정보 간의 관계를 추출할 수 있다. 일 실시 예에 따르면, 제1 콘텐츠 및 제2 콘텐츠에 포함된 정보 간의 관계는 물체 간에는 위치상의 포함 관계를 포함할 수 있다. 일 실시 예에 따르면, 제1 콘텐츠 및 제2 콘텐츠에 포함된 정보 간의 관계는 사람 간에는 가족 관계, 또는 친구 관계를 포함할 수 있다.
일 실시 예에 따르면, 콘텐츠 요약부(232)는 콘텐츠 추출부(231)로부터 식별된 정보를 수신할 수 있다. 콘텐츠 요약부(232)는 식별된 정보를 조합할 수 있다. 예를 들면. 콘텐츠 요약부(232)는 "자전거" 또는 "2시"와 같은 식별된 정보를 "2시에 자전거 타기"로 조합할 수 있다.
일 실시 예에 따르면, 콘텐츠 중요도 판단부(233)는 중요도 판단 알고리즘을 통해 콘텐츠의 중요도를 식별할 수 있다. 일 실시 예에 따르면, 콘텐츠 중요도 판단부(233)는 중요도 판단 알고리즘을 수행할 수 있다. 일 실시 예에 따르면, 중요도 판단 알고리즘은 주제 검출(topic detection) 알고리즘 또는 텍스트 요약 (text summarization) 알고리즘의 일부를 포함할 수 있다. 일 실시 예에 따르면, 콘텐츠 중요도 판단부(233)는 복수의 콘텐츠를 중요도에 따라서 구분할 수 있다. 일 실시 예에 따르면, 콘텐츠 중요도 판단부(233)는 다이얼로그에 포함된 복수의 콘텐츠의 중요도를 식별할 수 있다. 예를 들면, 콘텐츠 중요도 판단부(233)는 다이얼로그의 일상 대화와 관련된 콘텐츠의 중요도를 낮게 설정할 수 있다. 다른 예를 들면, 콘텐츠 중요도 판단부(233)는 다이얼로그의 약속 장소 결정과 관련된 콘텐츠의 중요도를 높게 설정할 수 있다.
일 실시 예에 따르면, 스크롤 수행 모듈(240)은 스크롤 속도와 관련된 전반적인 동작을 수행할 수 있다. 일 실시 예에 따르면, 스크롤 수행 모듈(240)은 스크롤 수행 속도 조절부(241) 또는 스크롤 실행부(242)를 포함할 수 있다.
일 실시 예에 따르면, 스크롤 수행 속도 조절부(241)는 콘텐츠 중요도 판단부(233)로부터 복수의 콘텐츠의 중요도에 관한 정보를 수신할 수 있다. 스크롤 수행 속도 조절부(241)는 복수의 콘텐츠의 중요도에 기반하여, 스크롤 수행 속도를 결정할 수 있다. 예를 들면, 스크롤 수행 속도 조절부(241)는 중요도가 높은 콘텐츠는 스크롤 속도를 낮게 결정할 수 있다. 다른 예를 들면, 스크롤 수행 속도 조절부(241)는 중요도가 낮은 콘텐츠는 스크롤 속도를 빠르게 결정할 수 있다. 일 실시 예에 따르면, 스크롤 수행 속도 조절부(241)는 결정된 스크롤 수행 속도에 관한 정보를 스크롤 실행부(242)에게 송신할 수 있다.
일 실시 예에 따르면, 스크롤 실행부(242)는 스크롤 속도 조절부(241)로부터 스크롤 수행 속도에 관한 정보를 수신할 수 있다. 스크롤 실행부(242)는 스크롤 수행 속도 조절부(241)에서 결정된 스크롤 수행 속도에 기반하여 전자 장치(101)에서 컨텐츠 별로 스크롤 속도를 조절할 수 있다. 예를 들면, 스크롤 실행부(242)는 동일한 사용자 입력을 수신한 경우, 중요도가 낮은 콘텐츠에서는 스크롤을 빠르게 수행할 수 있고, 중요도가 높은 콘텐츠에서는 스크롤을 느리게 수행할 수 있다.
일 실시 예에 따르면, 요약 정보 모듈(250)은 요약 정보 표시부(251), 요약정보 저장부(252), 요약 정보 선택 입력부(253) 또는 요약 정보 선택 수행부(254)를 포함할 수 있다.
일 실시 예에 따르면, 요약 정보 표시부(251)는 콘텐츠 요약 모듈(230)을 통해 결정된 콘텐츠와 연관된 단어, 구, 문장 및/또는 심볼을 사용자 인터페이스 내에 표시할 수 있다.
일 실시 예에 따르면, 요약 정보 표시부(251)는 콘텐츠가 표시되는 동안 적어도 하나의 콘텐츠에 중첩하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 시각적 객체의 형태로 표시할 수 있다. 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보는 요약 정보, 키워드 정보를 포함할 수 있다. 일 실시 예에 따르면, 요약 정보 표시부(251)는 사용자 입력에 응답하여, 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 팝업창의 형태로 사용자 인터페이스 내에 표시할 수 있다. 일 실시 예에 따르면, 요약 정보 표시부(251)는 사용자 입력이 유지되는 것에 응답하여, 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 팝업창의 형태로 사용자 인터페이스 내에서 표시할 수 있다. 일 실시 예에 따르면, 요약 정보 표시부(251)는 복수의 콘텐츠 중 적어도 일부가 표시되는 중, 복수의 콘텐츠에 중첩되어 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 표시할 수 있다. 일 실시 예에 따르면, 요약 정보 표시부(251)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 지정된 시간동안 유지할 수 있다. 요약 정보 표시부(251)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 지정된 시간동안 유지한 후, 페이드 아웃(fade out)시킬 수 있다. 일 실시 예에 따르면, 요약 정보 표시부(251)는 사용자 입력이 유지되는 것에 응답하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 표시할 수 있다.
일 실시 예에 따르면, 요약 정보 저장부(252)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보(예: 요약 정보, 키워드 정보)를 저장할 수 있다. 요약 정보 저장부(252)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보가 획득되는 것에 기반하여, 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 저장할 수 있다. 요약 정보 저장부(252)는 제3 콘텐츠 및 제4 콘텐츠와 관련된 정보가 획득되는 것에 기반하여, 제3 콘텐츠 및 제4 콘텐츠와 관련된 정보를 저장할 수 있다. 일 실시 예에 따르면, 요약 정보 저장부(252)는 제1 콘텐츠 및 제4 콘텐츠와 관련된 정보를 저장할 수 있다. 예를 들면, 요약 정보 저장부(252)는 다이얼로그에 포함된 복수의 콘텐츠와 관련된 정보를 저장할 수 있다. 다이얼로그는 제1 대화(또는 로그), 제2 대화(또는 로그), 제3 대화(또는 로그), 제4 대화(또는 로그) 순으로 구성될 수 있다. 요약 정보 저장부(252)는 제1 대화 및 제2 대화와 관련된 정보(요약 정보, 키워드 정보)를 저장할 수 있다. 요약 정보 저장부(252)는 제1 대화 및 제3 대화와 관련된 정보(요약 정보, 키워드 정보)를 저장할 수 있다. 요약 정보 저장부(252)는 제1 대화 및 제4 대화와 관련된 정보(요약 정보, 키워드 정보)를 저장할 수 있다. 요약 정보 저장부(252)는 제2 대화 및 제3 대화와 관련된 정보(요약 정보, 키워드 정보)를 저장할 수 있다. 요약 정보 저장부(252)는 제2 대화 및 제4 대화와 관련된 정보(요약 정보, 키워드 정보)를 저장할 수 있다. 요약 정보 저장부(252)는 제3 대화 및 제4 대화와 관련된 정보(요약 정보, 키워드 정보)를 저장할 수 있다. 일 실시 예에 따르면, 요약 정보 저장부(252)는 저장된 정보를 요약 정보 표시부(251)에게 송신할 수 있다.
일 실시 예에 따르면, 요약정보 선택 입력부(253)는 사용자로부터 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 선택하는 입력을 수신할 수 있다. 요약 정보 선택 수행부(254)는 사용자가 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 선택하는 입력을 수신하는 것에 기반하여 제1 콘텐츠 또는 제2 콘텐츠를 표시할 수 있다. 예를 들면, 요약 정보 선택 수행부(254)는 전자 장치(101)의 디스플레이에 제3 콘텐츠를 표시하는 중, 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 선택하는 입력에 기반하여 제1 콘텐츠 또는 제2 콘텐츠를 표시할 수 있다.
도시하진 않았으나, 프로세서(120)는 전자 장치(101)의 전반적인 동작을 제어할 수 있다. 프로세서(120)는 전자 장치(101)의 전반적인 동작을 제어하기 위해, 수행 대상 모듈(210), 스크롤 입력 모듈(220), 콘텐츠 요약 모듈(230), 스크롤 수행 모듈(240) 또는 요약 정보 모듈(250)과 같은 전자 장치(101) 내의 다른 구성 요소와 작동적으로 결합될 수 있다.
일 실시 예에 따르면, 프로세서(120)는, 다른 구성 요소들(예: 수행 대상 모듈(210), 스크롤 입력 모듈(220), 콘텐츠 요약 모듈(230), 스크롤 수행 모듈(240) 또는 요약 정보 모듈(250))의 명령을 수신할 수 있다. 프로세서(120)는 수신된 명령을 해석할 수 있다. 프로세서(120)는 해석된 명령에 따라서 계산을 수행할 수 있고, 데이터를 처리할 수 있다. 프로세서(120)는, 소프트웨어로 구현될 수도 있고, 칩(chip), 회로(circuitry) 등과 같은 하드웨어로 구현될 수도 있으며, 소프트웨어 및 하드웨어의 집합체로 구현될 수도 있다. 프로세서(120)는, 하나일 수도 있고, 복수의 프로세서들의 집합체일 수도 있다.
다양한 실시 예들에 따르면, 프로세서(120)는 수행 대상 모듈(210), 스크롤 입력 모듈(220), 콘텐츠 요약 모듈(230), 스크롤 수행 모듈(240) 또는 요약 정보 모듈(250)로부터 수신되는 메시지, 데이터, 명령어 또는 신호를 해석할 수 있다. 프로세서(120)는 수행 대상 모듈(210), 스크롤 입력 모듈(220), 콘텐츠 요약 모듈(230), 스크롤 수행 모듈(240) 또는 요약 정보 모듈(250)로부터 수신되는 메시지, 데이터, 명령어 또는 신호를 가공할 수 있다. 프로세서(120)는 수신된 메시지, 데이터, 명령어, 또는 신호에 기반하여 새로운 메시지, 데이터, 명령어, 또는 신호를 생성할 수 있다. 프로세서(120)는 가공되거나 생성된 메시지, 데이터, 명령어, 또는 신호를 수행 대상 모듈(210), 스크롤 입력 모듈(220), 콘텐츠 요약 모듈(230), 스크롤 수행 모듈(240) 또는 요약 정보 모듈(250)에게 제공할 수 있다. 도 3 내지 도 9의 전자 장치(101)의 동작은 전자 장치(101)의 프로세서(120)에 의해 수행되고 제어될 수 있다.
상술한 바와 같은 다양한 실시 예들에 따른 전자 장치(예: 전자 장치(101))는, 디스플레이(예: 표시 장치(160)) 및 프로세서(예: 프로세서(120))를 포함하고, 상기 프로세서는, 상기 디스플레이 내에서의 사용자 인터페이스 내에, 복수의 콘텐츠 중 제1 콘텐츠를 표시하고, 상기 사용자 인터페이스 내에서 수행되는 사용자 입력을 식별하고, 상기 사용자 입력의 식별에 응답하여, 상기 표시된 적어도 하나의 제1 콘텐츠와 구별되는 제2 콘텐츠를 표시하고, -상기 제1 콘텐츠의 상기 사용자 인터페이스 내에서의 위치는 상기 식별된 사용자 입력에 의해 스크롤됨-, 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하고, 상기 정보의 식별에 응답하여, 상기 사용자 인터페이스 내에. 상기 식별된 정보에 대응하는 시각적 객체(visual object)를 표시하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서(예: 프로세서(120))는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 공통적으로 포함된 정보를 식별하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서(예: 프로세서(120))는, 상기 제2 콘텐츠를 표시하기 위한 상기 사용자 인터페이스에 중첩하여 상기 식별된 정보에 대응하는 시각적 객체를 표시하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서(예: 프로세서(120))는, 상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 메타 정보를 식별하고, 상기 식별된 메타 정보에 기반하여 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하도록 설정될 수 있다.
상술한 바와 같은 다양한 실시 예들에 따른 전자 장치(예: 전자 장치(101))는, 터치 스크린 디스플레이(예: 표시 장치(160)), 무선 통신 회로(예: 통신 모듈(190)), 상기 디스플레이 및 상기 통신 회로에 작동적으로 연결되는 프로세서(예: 프로세서(120)) 및 상기 프로세서에 작동적으로 연결되는 메모리(예: 메모리(130))를 포함하며, 상기 메모리는, 실행될 때 상기 프로세서로 하여금, 스크롤 가능한 콘텐츠의 제1 부분을 상기 디스플레이 상에 표시하고, 상기 터치 스크린 디스플레이를 통해, 상기 콘텐츠를 스크롤 하도록 하는 제1 제스처 입력을 수신하고, 상기 제1 제스처 입력에 적어도 일부 기반하여, 상기 콘텐츠의 제2 부분을 결정하고, 상기 결정된 제2 부분과 연관된 단어, 구, 문장, 및/또는 심볼을 결정 또는 추출하고, 상기 제2 부분의 적어도 일부, 및 상기 단어, 구, 문장, 및/또는 심볼을 상기 디스플레이 상에 표시하도록 할 수 있다.
다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 프로세서(예: 프로세서(120))가, 상기 제1 제스처 입력에 적어도 일부 기반하여, 상기 콘텐츠에 대한 제1 스크롤 속도를 결정하고, 상기 제1 스크롤 속도에 적어도 일부 기반하여, 상기 제2 부분을 결정하도록 할 수 있다.
다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 프로세서(예: 프로세서(120))가, 상기 제1 제스처 입력에 따라 상기 콘텐츠가 스크롤되는 동안 상기 추출된 단어, 구 또는 문장을 상기 터치 스크린 디스플레이(예: 표시 장치(160))의 적어도 일부에 표시하도록 할 수 있다.
다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 프로세서(예: 프로세서(120))가, 상기 터치 스크린 디스플레이(예: 표시 장치(160))를 통해, 상기 화면을, 상기 제1 속도와 다른 제2 속도로 스크롤 하기 위한 제2 제스처 입력을 수신하면, 상기 제2 속도에 기반하여, 적어도 하나의 콘텐츠를 포함하는, 상기 제1 범위와는 다른, 상기 전체 콘텐츠의 제2 범위를 결정하고, 상기 제2 범위의 상기 적어도 하나의 콘텐츠와 연관된 단어, 구 또는 문장을 추출하도록 할 수 있다.
다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 프로세서(예: 프로세서(120))가, 상기 콘텐츠가 스크롤되는 동안, 상기 터치 스크린 디스플레이(예: 표시 장치(160))의 선택된 위치에, 상기 추출된 단어, 구, 문장, 및/또는 심볼을 표시하도록 할 수 있다.
다양한 실시 예들에 따르면, 상기 인스트럭션들은 상기 프로세서(예: 프로세서(120))가, 상기 콘텐츠의 스크롤이 정지된 이후, 상기 추출된 단어, 구 또는 문장 표시를 화면에서 제거하도록 할 수 있다.
도 3a는 다양한 실시 예들에 따른 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 표시하기 위한 전자 장치의 예를 설명하기 위한 흐름도(300-1)를 도시한다.
도 3a를 참조하면, 동작 301에서, 프로세서(예: 도 1의 프로세서(120))는 복수의 콘텐츠 중 적어도 제1 콘텐츠를 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 문자메시지 어플리케이션, 채팅 어플리케이션 또는 갤러리 어플리케이션의 사용자 인터페이스(UI, user interface) 내에서 복수의 콘텐츠 중 제1 콘텐츠를 표시할 수 있다. 복수의 콘텐츠는 대화 다이얼로그, 채팅 다이얼로그 또는 복수의 이미지들을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠와 함께 복수의 콘텐츠를 표시하기 위한 스크롤을 입력 받기 위한 객체(예: 스크롤 바)를 표시할 수 있다.
동작 303에서, 프로세서(120)는 사용자 입력을 식별할 수 있다. 일 실시 예에 따르면, 사용자 입력은 스와이프 업/다운(swipe up/down) 입력, 터치 앤 드래그(touch and drag) 입력, 음성(voice) 입력, 제스처(gesture) 입력, 비접촉식 스크롤(contactless scroll) 입력, 펜을 통한 스크롤 입력, 눈동자를 통한 입력 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 사용자 입력은 복수의 콘텐츠의 탐색을 위한 사용자 입력을 포함할 수 있다. 예를 들면, 사용자 입력은 제1 콘텐츠를 표시하는 중 제2 콘텐츠로 표시를 변환하기 위한 입력을 포함할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 사용자 입력이 디스플레이의 제1 위치에서 시작됨을 식별할 수 있다. 프로세서(120)는 사용자 입력이 디스플레이의 제2 위치에서 종료됨을 식별할 수 있다. 프로세서(120)는 사용자 입력의 시작 시점부터 종료 시점까지의 시간을 식별할 수 있다. 프로세서(120)는 사용자 입력의 속도를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력들이 연속적으로 수신되는 것을 식별할 수 있다. 프로세서(120)는 사용자 입력들 간의 시간 간격을 식별할 수 있다. 예를 들면, 프로세서(120)는 전자 장치(101)의 사용자가 전자 장치(101)의 디스플레이에 스크롤 입력을 반복해서 수행하는 것을 식별할 수 있다. 프로세서(120)는 스크롤 입력 간의 시간 간격을 식별할 수 있다.
동작 305에서, 프로세서(120)는 사용자 입력의 식별에 응답하여 표시된 적어도 하나의 제1 콘텐츠와 구별되는 제2 콘텐츠를 표시할 수 있다. 제1 콘텐츠의 상기 UI 내에서의 위치는, 상기 식별된 사용자 입력에 따라 이동될 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력의 속도 또는 사용자 입력들 간의 시간 간격에 기반하여, 표시될 제2 콘텐츠를 결정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력의 속도가 빠르거나 사용자 입력들 간의 시간 간격이 짧을수록 화면 스크롤 동작을 더 많이 수행하여, 표시될 제2 콘텐츠를 결정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력의 속도가 느리거나 사용자 입력들 간의 시간 간격이 클수록 화면 스크롤 동작을 더 적게 수행하여, 표시될 제2 콘텐츠를 결정할 수 있다. 프로세서(120)는 결정된 제2 콘텐츠를 사용자 인터페이스 내에서 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제2 콘텐츠를 표시할 때, 제1 콘텐츠에 스크롤 동작을 수행하여 사용자 인터페이스 내에서 표시하지 않을 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제2 콘텐츠를 표시할 때, 제1 콘텐츠에 스크롤 동작을 수행하여 사용자 인터페이스 내에서 표시할 수 있다. 예를 들면, 프로세서(120)는 사용자의 아래 방향으로의 스크롤 입력을 수신하는 것에 응답하여, 제1 콘텐츠를 사용자 인터페이스 내의 하단, 제2 콘텐츠를 사용자 인터페이스 상단에 표시할 수 있다.
동작 307에서, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠뿐만 아니라, 제1 콘텐츠 및 제2 콘텐츠 사이의 콘텐츠와 관련된 정보를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 콘텐츠에 포함된 정보를 식별할 수 있다. 콘텐츠에 포함된 정보는 사람, 장소, 물건, 사건, 또는 개념을 정의할 수 있는 것에 관한 정보를 포함할 수 있다. 예를 들면, 프로세서(120)는 콘텐츠가 텍스트인 경우 명사로 주어 또는 목적어를 콘텐츠에 포함된 정보로 식별할 수 있다. 일 실시 예에 따르면, 제1 콘텐츠 및 제2 콘텐츠가 다이얼로그 중 일부인 경우, 제1 콘텐츠 내에 포함된 단어(또는 키워드) 및 제2 콘텐츠 내에 포함된 단어(또는 키워드) 간의 관계를 추출할 수 있다. 예를 들면, 제1 콘텐츠는 "자전거 타러 가자"와 같은 대화 내용이고, 제2 콘텐츠는 "2시에 만나자"와 같은 대화 내용에 해당하는 경우, 프로세서(120)는 제1 콘텐츠로부터 "자전거", 제2 콘텐츠로부터 "2시"를 추출할 수 있다. 프로세서(120)는 "자전거"는 행동의 대상이며, "2시"는 시간에 해당함을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠에 포함된 정보 간의 관계를 추출할 수 있다. 일 실시 예에 따르면, 제1 콘텐츠 및 제2 콘텐츠에 포함된 정보 간의 관계는 물체 간에는 위치상의 포함 관계를 포함할 수 있다. 일 실시 예에 따르면, 제1 콘텐츠 및 제2 콘텐츠에 포함된 정보 간의 관계는 사람 간에는 가족 관계, 또는 친구 관계를 포함할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 콘텐츠의 중요도를 식별할 수 있다. 프로세서(120)는 텍스트 요약(text summarization), 문단 구조(paragraph structure)를 식별할 수 있다. 프로세서(120)는 어텐션(attention) 알고리즘을 통해 콘텐츠의 중요도를 식별할 수 있다. 프로세서(120)는 복수의 콘텐츠의 중요도를 각각 식별할 수 있다. 일 실시 예에 따르면, 복수의 콘텐츠의 중요도를 각각 식별하는 동작은 전자 장치(101)의 백그라운드(background)에서 수행될 수 있다.
일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 때 발췌 (extractive) 방식 또는 추상화(abstractive) 방식을 수행할 수 있다. 예를 들면, 프로세서(120)는 extractive 방식을 수행하는 경우, 제1 콘텐츠 또는 제2 콘텐츠에서 중요한 키워드를 추출(keyword spotting)하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 다른 예를 들면, 프로세서(120)는 abstractive 방식을 수행하는 경우, 제1 콘텐츠 또는 제2 콘텐츠를 기반으로 의미를 분석하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 다양한 모달 내부 데이터를 축약해서 압축된 형태로 식별할 수 있다. 예를 들면, 프로세서(120)는 제1 콘텐츠가 식사 준비 소리를 포함하고, 제2 콘텐츠가 식사 소리를 포함하는 경우 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식사 시간으로 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 멀티 모달을 축약해서 압축된 형태로 식별할 수 있다. 예를 들면, 프로세서(120)는 제1 콘텐츠가 식사 준비 소리를 포함하고 제2 콘텐츠가 식탁 위의 음식을 나타내는 이미지를 포함하는 경우, 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식사 시간으로 식별할 수 있다.
일 실시 예에 따르면, 동작 307은 사용자 입력을 수신한 후에 수행되는 것으로 도시되었으나, 프로세서(120)는 사용자 입력이 없는 경우에도 전자 장치(101)의 백그라운드(background)에서 동작 307을 수행할 수 있다.
동작 309에서, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별하는 것에 응답하여, 사용자 인터페이스 내에 식별된 정보에 대응하는 시각적 객체(visual object)를 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제2 콘텐츠가 표시되는 동안, 사용자 인터페이스 내에서 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 시각적 객체의 형태로 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 팝업창의 형태로 사용자 인터페이스 내에 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력이 유지되는 것에 응답하여, 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 팝업창의 형태로 사용자 인터페이스 내에서 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 복수의 콘텐츠 중 적어도 일부가 표시되는 중, 복수의 콘텐츠 중 적어도 일부에 중첩되어 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 지정된 시간동안 유지할 수 있다. 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 지정된 시간동안 유지한 후, 페이드 아웃(fade out)시킬 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력이 유지되는 것에 응답하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체를 표시할 수 있다.
도 3b는 다양한 실시 예들에 따른 콘텐츠의 일부를 표시하기 위한 전자 장치의 예를 설명하기 위한 흐름도(300-2)를 도시한다.
도 3b를 참조하면, 동작 310에서, 프로세서(예: 도 1의 프로세서(120))는 스크롤 가능한 콘텐츠의 제1 부분을 전자 장치(예: 도 1의 전자 장치(101))의 표시 장치(예: 도 1의 표시 장치(160))(예: 디스플레이, 터치스크린 디스플레이)를 통해 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 문자 메시지 어플리케이션, 채팅 어플리케이션 또는 갤러리 어플리케이션의 사용자 인터페이스 내에서 콘텐츠의 제1 부분을 표시할 수 있다. 예를 들면, 프로세서(120)는 채팅 다이얼로그의 일부분을 표시 장치(160)를 통해 표시할 수 있다.
동작 330에서, 프로세서(120)는, 콘텐츠를 스크롤 하도록 하는 제1 제스처 입력을 수신할 수 있다. 일 실시 예에 따르면, 제1 제스처 입력은, 스와이프 업/다운(swipe up/down) 입력, 터치 앤 드래그(touch and drag) 입력, 음성(voice) 입력, 제스처(gesture) 입력, 비접촉식 스크롤(contactless scroll) 입력, 펜을 통한 스크롤 입력 또는 눈동자를 통한 입력 중 적어도 하나를 포함할 수 있다.
동작 350에서, 프로세서(120)는 제1 제스처 입력에 적어도 일부 기반하여, 콘텐츠의 제2 부분을 결정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 제스처 입력이 제1 위치에서 시작됨을 식별할 수 있다. 프로세서(120)는 제1 제스처 입력이 제2 위치에서 종료됨을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는, 제1 제스처 입력이 제1 위치에서 시작하고, 제2 위치에서 종료되는 것에 응답하여(제1 제스처 입력에 적어도 일부 기반하여), 제1 제스처 입력의 속도(제1 스크롤 속도)를 식별할 수 있다. 프로세서(120)는 제1 제스처 입력의 속도에 기반하여, 콘텐츠의 제2 부분을 결정할 수 있다. 예를 들면, 프로세서(120)는 채팅 다이얼로그의 제1 부분에서의 제1 제스처 입력에 기반하여, 표시될 채팅 다이얼로그의 제2 부분을 식별할 수 있다. 일 예로, 프로세서(120)는 채팅 다이얼로그의 5월 25일자 채팅 기록을 표시할 수 있다. 프로세서(120)는 제1 제스처 입력에 기반하여 채팅 다이얼로그의 5월 26일자 채팅 기록을 식별할 수 있다. 프로세서(120)는 채팅 다이얼로그의 5월 26일자 채팅 기록을 표시 장치(160)를 통해 표시할 제2 부분으로 결정할 수 있다.
동작 370에서, 프로세서(120)는 결정된 제2 부분과 연관된 단어, 구, 문장, 및/또는 심볼(symbol)을 결정 또는 추출할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 콘텐츠의 제2 부분을 요약하여 단어, 구, 문장, 및/또는 심볼을 결정 또는 추출할 수 있다. 예를 들면, 프로세서(120)는 복수의 이미지들을 포함하는 이미지 어플리케이션에서 제2 부분을 식별할 수 있다. 프로세서(120)는 이미지 어플리케이션 내의 제2 부분에 포함된 복수의 이미지들을 요약하여 단어, 구, 문장, 및/또는 심볼을 결정 또는 추출할 수 있다. 일 예로, 프로세서(120)는 이미지 어플리케이션 내의 제2 부분에 포함된 복수의 이미지가 논문 발표에 관한 이미지임을 식별할 수 있다. 프로세서(120)는 제2 부분에 포함된 복수의 이미지를 요약하여 "논문 발표"로 키워드(예: 단어, 구, 문장 또는 심볼)을 결정할 수 있다.
한편, 프로세서(120)는 콘텐츠를 스크롤 하도록 하는 제2 제스처 입력을 수신할 수 있다. 일 실시 예에 따르면, 제2 제스처 입력은, 제1 제스처 입력의 제1 속도와 다른 제2 속도로 입력될 수 있다. 제2 제스처 입력은, 콘텐츠를 제2 속도로 스크롤 하기 위한 것일 수 있다. 프로세서(120)는 제2 제스처 입력을 수신하면, 제2 제스처 입력의 제2 속도에 기반하여, 전체 콘텐츠의 제2 범위를 결정할 수 있다. 프로세서(120)는 제2 범위의 적어도 하나의 콘텐츠를 요약하여 연관된 단어, 구, 문장, 및/또는 심볼을 결정 또는 추출할 수 있다.
동작 390에서, 프로세서(120)는 콘텐츠의 제2 부분의 적어도 일부 및 상기 콘텐츠의 제2 부분과 연관된 단어, 구, 문장, 및/또는 심볼을 표시 장치(160)(예: 디스플레이, 터치스크린 디스플레이)를 통해 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 콘텐츠의 제2 부분의 적어도 일부 및 상기 콘텐츠의 제2 부분과 연관된 단어, 구, 문장, 및/또는 심볼을 시각적 객체를 통해 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상기 시각적 객체의 표시를 지정된 시간동안 유지할 수 있다. 프로세서(120)는 상기 시각적 객체의 표시를 지정된 시간동안 유지한 후, 상기 시각적 객체의 표시를 제거할 수 있다. 예를 들면, 프로세서(120)는 상기 사긱적 개체의 표시를 지정된 시간 동안 유지한 후, 페이드 아웃(fade out) 시킬 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상기 시각적 객체를 제1 제스처 입력에 따라 콘텐츠가 스크롤 되는 동안 표시 장치(160)(예: 디스플레이, 터치스크린 디스플레이)의 적어도 일부에 표시할 수 있다. 프로세서(120)는 콘텐츠가 스크롤되는 동안, 상기 시각적 객체를 지정된 위치 또는 선택된 위치에 표시할 수 있다. 프로세서(120)는 콘텐츠의 스크롤이 정지된 이후, 상기 시각적 객체의 표시를 제거할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상기 시각적 객체를 제1 제스처 입력이 유지되는 동안 표시할 수 있다.
도 4a는 다양한 실시 예들에 따른 전자 장치의 사용자 인터페이스의 예를 도시한다.
도 4a를 참조하면, 프로세서(120)는 메신저 어플리케이션을 통해 복수의 콘텐츠(예: 대화 다이얼로그)를 포함하는 사용자 인터페이스(410)을 표시할 수 있다. 프로세서(120)는 복수의 콘텐츠 중 제1 콘텐츠를 사용자 인터페이스(410) 내에 표시할 수 있다. 일 실시 예에 따르면, 제1 콘텐츠는 "이번주 주말에 동창끼리 모여서 축구하러 갈까?"와 같은 제1 대화를 포함할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 제1 사용자 입력을 수신할 수 있다. 제1 사용자 입력은 스와이프 업/다운(swipe up/down) 입력, 터치 앤 드래그(touch and drag) 입력, 음성(voice) 입력, 제스처(gesture) 입력, 비접촉식 스크롤(contactless scroll) 입력, 펜을 통한 스크롤 입력, 눈동자를 통한 입력 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면 프로세서(120)는 사용자 입력에 기반하여 표시될 제2 콘텐츠를 결정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 결정된 제2 콘텐츠를 사용자 인터페이스(420)을 통해 표시할 수 있다. 예를 들면, 제2 콘텐츠는 "공원에서 만나자"와 같은 제2 대화를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력의 속도 또는 방향에 기반하여 표시될 제2 콘텐츠를 결정할 수 있다. 예를 들면, 프로세서(120)는 사용자 인터페이스(410)에서 빠른 속도의 스와이프 업(swipe up) 입력을 수신할 수 있다. 프로세서(120)는 제1 대화 보다 이후의 제2 대화를 표시하도록 결정할 수 있다. 프로세서(120)는 사용자 인터페이스(420)에서 제2 대화를 표시할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보뿐만 아니라, 제1 콘텐츠부터 제2 콘텐츠 사이의 콘텐츠와 관련된 정보를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠로부터 "주말", "축구", "동창"의 키워드들을 식별할 수 있다. 프로세서(120)는 제2 콘텐츠로부터 "공원"의 키워드를 식별할 수 있다. 프로세서(120)는 식별된 "주말", "축구", "동창" 또는 "공원"의 키워드들에 기반하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 프로세서(120)는 "공원에서 축구"를 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보로 식별할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 사용자 인터페이스(420) 내에 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체(421)을 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 사용자 입력에 응답하여, 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체(421)를 사용자 인터페이스(420) 내에 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 사용자 입력이 유지되는 것에 응답하여, 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체(421)를 사용자 인터페이스(420) 내에 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 인터페이스(420)내에 표시된 복수의 콘텐츠에 중첩되어 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체(421)을 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체(421)를 지정된 시간동안 유지할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 나타내는 시각적 객체(421)를 지정된 시간동안 유지한 후, 페이드 아웃(fade out)시킬 수 있다.
일 실시 예에 따르면, 프로세서(120)는 제2 사용자 입력을 수신할 수 있다. 프로세서(120)는 제2 사용자 입력에 응답하여 표시되는 제3 콘텐츠를 식별할 수 있다. 제3 콘텐츠는 "너 ㅇㅇ방송 봤니? 그 김ㅁㅁ 정말 재밌더라"와 같은 제3 대화를 포함할 수 있다. 프로세서(120)는 제2 사용자 입력에 기반하여 최종적으로 표시되는 제4 콘텐츠를 식별할 수 있다. 제4 콘텐츠는 "김ㅁㅁ 재밌어~"와 같은 제4 대화를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제3 콘텐츠로부터 "ㅇㅇ방송" 또는 "김ㅁㅁ"의 키워드들을 식별할 수 있다. 프로세서(120)는 제4 콘텐츠로부터 "김ㅁㅁ"의 키워드를 식별할 수 있다. 프로세서(120)는 식별된 "ㅇㅇ방송" 또는 "김ㅁㅁ"의 키워드들에 기반하여 제3 콘텐츠 및 제4 콘텐츠와 관련된 정보를 식별할 수 있다. 프로세서(120)는 "ㅇㅇ방송 김ㅁㅁ"를 제3 콘텐츠 및 제4 콘텐츠와 관련된 정보로 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제3 콘텐츠 및 제4 콘텐츠와 관련된 정보를 나타내는 시각적 객체(431)을 사용자 인터페이스(430) 내에 표시할 수 있다.
도 4b는 다양한 실시 예들에 따른 전자 장치에서 사용자 입력에 따른 콘텐츠와 관련된 정보를 획득하는 범위를 설명하기 위한 도면이다.
도 4b를 참조하면, 프로세서(120)는 복수의 콘텐츠를 포함하는 다이얼로그(460)를 식별할 수 있다. 프로세서(120)는 제1 영역(440)이전의 콘텐츠를 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 스와이프 다운(swipe down)의 제1 사용자 입력을 수신할 수 있다. 프로세서(120)는 제1 사용자 입력이 제1 위치에서 시작됨을 식별할 수 있다. 프로세서(120)는 제1 사용자 입력이 제2 위치에서 종료됨을 식별할 수 있다. 프로세서(120)는 제1 사용자 입력의 시작 시점부터 종료 시점까지의 시간을 식별할 수 있다. 프로세서(120)는 제1 사용자 입력의 속도를 식별할 수 있다. 프로세서(120)는 제1 사용자 입력에 기반하여 제1 영역(440)을 스크롤하여 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 영역(440)에 포함된 콘텐츠와 관련된 정보를 식별할 수 있다. 예를 들면, 프로세서(120)는 제1 영역(440)에 포함된 대화에서 키워드를 추출할 수 있다. 프로세서(120)는 제1 영역(440)에서 추출된 키워드에 기반하여 키워드 정보를 식별할 수 있다. 프로세서(120)는 식별된 키워드를 나타내는 시각적 객체를 전자 장치(101)의 사용자 인터페이스 내에 표시할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 제1 사용자 입력보다 빠른 속도의 제1 사용자 입력과 구별되는, 제2 사용자 입력을 수신할 수 있다. 프로세서(120)는 제2 사용자 입력에 기반하여 제2 영역(450)을 스크롤하여 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제2 영역(450)에 포함된 콘텐츠와 관련된 정보를 식별할 수 있다. 예를 들면, 프로세서(120)는 제2 영역(450)에 포함된 대화에서 키워드를 추출할 수 있다. 프로세서(120)는 제2 영역(450)에서 추출된 키워드에 기반하여 키워드 정보를 식별할 수 있다. 프로세서(120)는 식별된 키워드를 나타내는 시각적 객체를 전자 장치(101)의 사용자 인터페이스 내에 표시할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 사용자 입력이 빠르게 수신되는 것에 기반하여 콘텐츠와 관련된 정보를 추출하기 위한 영역을 넓게 설정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력이 느리게 수신되는 것에 기반하여 콘텐츠와 관련된 정보를 추출하기 위한 영역을 좁게 설정할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 사용자 입력들이 연속적으로 수신되고, 사용자 입력들 간의 시간 간격이 짧게 수신되는 것에 기반하여, 콘텐츠와 관련된 정보를 추출하기 위한 영역을 넓게 설정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 입력들이 연속적으로 수신되고, 사용자 입력들 간의 시간 간격이 길게 수신되는 것에 기반하여, 콘텐츠와 관련된 정보를 추출하기 위한 영역을 좁게 설정할 수 있다.
도 5는 다양한 실시 예들에 따른 전자 장치에서 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별하기 위한 동작의 예를 도시한다. 도 5의 동작 510 내지 동작 520은 도 3의 동작 307과 관련될 수 있다.
도 5를 참조하면, 동작 510에서, 프로세서(120)는 제1 콘텐츠 또는 제2 콘텐츠로부터 이미지 메타 정보 및 시각 정보를 추출할 수 있다. 제1 콘텐츠 또는 제2 콘텐츠는 사진 또는 동영상을 포함하는 멀티미디어 콘텐츠를 포함할 수 있다. 제1 콘텐츠 또는 제2 콘텐츠는 이미지 메타 정보를 포함할 수 있다. 일 실시 예에 따르면, 이미지 메타 정보는 촬영 장소, 촬영 날짜, 촬영 시간 또는 촬영 온도를 지시하는 정보를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 콘텐츠 또는 제2 콘텐츠로부터 이미지 분석을 통해 시각 정보를 식별할 수 있다. 예를 들면, 프로세서(120)는 제1 사진 또는 제2 사진으로부터 이미지 분석을 통해 촬영 대상, 얼굴 인식에 관한 정보를 식별할 수 있다.
동작 520에서, 프로세서(120)는 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 동작 520은 도 3a의 동작 307에 상응할 수 있다. 프로세서(120)는 제1 콘텐츠 또는 제2 콘텐츠의 이미지 메타 정보 및 시각 정보에 기반하여 제1 콘텐츠 및 제2 콘텐츠와 관련된 정보를 식별할 수 있다. 예를 들면, 프로세서(120)는 제1 콘텐츠의 촬영 장소, 제2 콘텐츠의 촬영 시간 또는 촬영 대상에 기반하여 요약 정보를 식별할 수 있다.
도 6은 다양한 실시 예들에 따른 전자 장치의 사용자 인터페이스의 다른 예를 도시한다.
도 6을 참조하면, 프로세서(120)는 갤러리 어플리케이션에서 사진 목록을 사용자 인터페이스(610)을 통해 표시할 수 있다. 프로세서(120)는 사용자 인터페이스(610)이 표시되는 중, 제1 사용자 입력을 수신할 수 있다. 프로세서(120)는 제1 사용자 입력에 응답하여, 스크롤 되어 표시되는 위치를 결정할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 이미지 분석을 통해 시각 정보를 식별할 수 있다. 프로세서(120)는 사용자 인터페이스(610) 또는 사용자 인터페이스(620)에서 표시되는 복수의 사진들 중 적어도 일부의 이미지 메타 정보 및 시각 정보를 추출할 수 있다. 프로세서(120)는 복수의 사진들 중 적어도 일부는 포스터 세션에 관한 사진에 해당함을 식별할 수 있다. 프로세서(120)는 복수의 사진들이 포스터 세션에 관한 것임을 나타내는 시각적 객체(621)를 사용자 인터페이스(620) 내에 표시할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 제2 사용자 입력을 수신할 수 있다. 프로세서(120)는 제2 사용자 입력에 응답하여, 스크롤 되어 표시되는 위치를 결정할 수 있다. 프로세서(120)는 제2 사용자 입력에 응답하여 사용자 인터페이스(630)을 표시할 수 있다. 프로세서(120)는 사용자 인터페이스(630)에서 표시되는 복수의 사진들 중 적어도 일부의 이미지 메타 정보 및 시각 정보를 추출할 수 있다. 프로세서(120)는 사용자 인터페이스(630)에서 표시되는 복수의 사진들 중 적어도 일부는 프레젠테이션(presentation)에 관한 사진에 해당함을 식별할 수 있다. 프로세서(120)는 사용자 인터페이스(630)에서 표시되는 복수의 사진들이 프레젠테이션에 관한 것임을 나타내는 시각적 객체(631)를 사용자 인터페이스(630) 내에 표시할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 사용자 입력과 관계없이 전자 장치(101)에 저장된 복수의 이미지들의 메타 정보 및 시각 정보를 추출할 수 있다. 프로세서(120)는 복수의 이미지들의 메타 정보 및 시각 정보에 기반하여 복수의 이미지들을 적어도 하나의 그룹으로 구분할 수 있다. 프로세서(120)는 적어도 하나의 그룹에 포함된 적어도 하나의 이미지와 관련된 정보(예: 요약 정보, 키워드 정보)를 결정하여 적어도 하나의 그룹과 함께 저장할 수 있다. 프로세서(120)는 사용자 입력을 수신하는 것에 응답하여 적어도 하나의 그룹이 표시되는 경우 적어도 하나의 그룹에 포함된 적어도 하나의 이미지와 관련된 정보를 나타내는 시각적 객체를 표시할 수 있다.
도 7은 다양한 실시 예들에 따른 전자 장치에서 콘텐츠의 중요도에 따라 스크롤 속도를 조절하기 위한 흐름도(700)를 도시한다.
도 7을 참조하면, 동작 710에서 프로세서(120)는 콘텐츠의 중요도를 식별할 수 있으며, 중요도의 정도에 따라 스크롤 속도를 조정하도록 할 수 있다. 예를 들면, 프로세서(120)는 다이얼로그에 포함된 복수의 콘텐츠들의 중요도를 식별할 수 있다. 다른 예를 들면, 프로세서(120)는 전자 장치(101)에 저장된 사진 목록에 포함된 복수의 이미지들의 중요도를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 어텐션(attention) 알고리즘을 이용하여 중요도를 식별할 수 있다. 프로세서(120)는 전자 장치(101)의 환경 정보에 기반하여 콘텐츠의 중요도를 식별할 수 있다. 예를 들면, 프로세서(120)는 전자 장치(101)의 사용자가 복수의 콘텐츠 중 적어도 일부의 표시를 오래 유지하는 것을 식별할 수 있다. 프로세서(120)는 오랫동안 표시되는 상기 복수의 콘텐츠 중 적어도 일부의 중요도가 높은 것으로 식별할 수 있다. 다른 예를 들면, 프로세서(120)는 전자 장치(101)의 사용자가 검색한 키워드를 저장할 수 있다. 프로세서(120)는 복수의 콘텐츠 중 상기 사용자가 검색한 키워드와 관련된 콘텐츠의 중요도가 높은 것으로 식별할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 콘텐츠의 중요도가 식별되는 것에 기반하여, 콘텐츠에 중요도가 높음을 표시할 수 있다. 예를 들면, 프로세서(120)는 중요도가 높은 콘텐츠를 나타내는 객체의 테두리를 중요도가 낮은 콘텐츠를 나타내는 객체의 테두리보다 더 두껍게 변경하여 표시할 수 있다. 다른 예를 들면, 프로세서(120)는 중요도가 높은 콘텐츠를 나타내는 객체 옆에 중요 표시를 지시하는 별 모양의 객체를 더 표시할 수 있다. 또 다른 예를 들면, 프로세서(120)는 중요도가 높은 콘텐츠의 색상, 폰트 종류, 크기를 변경하거나, 특수 효과(예: 깜빡임)를 부가할 수 있다.
동작 720에서, 프로세서(120)는 복수의 콘텐츠 중 중요도가 낮은 것으로 식별된 콘텐츠에 대해서 고속 스크롤을 설정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 복수의 콘텐츠 중 중요도가 낮은 콘텐츠를 표시하는 경우, 동일한 사용자 입력에도 빠르게 스크롤 동작을 수행하도록 설정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 복수의 콘텐츠 중 중요도가 낮은 콘텐츠를 포함하는 영역에서 빠르게 스크롤 동작을 수행하도록 설정할 수 있다.
동작 730에서, 프로세서(120)는 복수의 콘텐츠 중 중요도가 높은 것으로 식별된 콘텐츠에 대해서 저속 스크롤을 설정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 복수의 콘텐츠 중 중요도가 높은 콘텐츠를 표시하는 경우, 동일한 사용자 입력에도 불구하고 느리게 스크롤 동작을 수행하도록 설정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 복수의 콘텐츠 중 중요도가 높은 콘텐츠를 포함하는 영역에서 느리게 스크롤 동작을 수행하도록 설정할 수 있다.
동작 740에서, 프로세서(120)는 동작 720 및 동작 730에서 설정된 스크롤 속도에 기반하여, 각각의 콘텐츠에 따라 스크롤 속도를 조정할 수 있다. 프로세서(120)는 전자 장치(101)의 복수의 콘텐츠를 스크롤하기 위한 사용자 입력을 수신하는 것에 기반하여 스크롤 실행부(242)를 이용하여 스크롤 속도를 조정할 수 있다.
도 8은 다양한 실시 예들에 따른 콘텐츠의 중요도에 따라 스크롤 속도를 조절하기 위한 동작의 다른 예를 도시한다.
도 8을 참조하면, 프로세서(120)는 복수의 콘텐츠를 포함하는 다이얼로그를 식별할 수 있다. 프로세서(120)는 복수의 콘텐츠 각각의 중요도를 식별할 수 있다. 예를 들면, 프로세서(120)는 다이얼로그에서 일상적인 대화를 포함하는 영역을 식별할 수 있다. 프로세서(120)는 일상적인 대화가 아닌 대화를 포함하는 영역을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 중요도 판단을 위한 알고리즘을 통해 복수의 콘텐츠 중 중요도가 높은 콘텐츠를 식별할 수 있다. 프로세서(120)는 중요도 판단을 위한 알고리즘을 통해 복수의 콘텐츠 중 중요도가 낮은 콘텐츠를 식별할 수 있다. 프로세서(120)는 중요도가 높은 콘텐츠를 포함하는 영역을 식별할 수 있다. 프로세서(120)는 중요도가 낮은 콘텐츠를 포함하는 영역을 식별할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 중요도가 낮은 콘텐츠를 포함하는 영역(810) 또는 영역(830)을 식별할 수 있다. 프로세서(120)는 중요도가 높은 콘텐츠를 포함하는 영역(820)을 식별할 수 있다. 프로세서(120)는 동일한 사용자 입력에 응답하여, 영역(810) 또는 영역(830)에서는 빠르게 스크롤을 수행할 수 있다. 프로세서(120)는 동일한 사용자 입력에 응답하여 영역(820)에서는 느리게 스크롤을 수행할 수 있다. 프로세서(120)는 동일한 사용자 입력에 응답하여 복수의 콘텐츠가 각각 다른 속도로 스크롤되도록 스크롤 속도를 변경 또는 조정할 수 있다.
도 9는 다양한 실시 예들에 따른 전자 장치의 사용자 인터페이스의 다른 또 다른 예를 도시한다. 도 9를 참조하면, 프로세서(120)는 갤러리 어플리케이션에서 사진 목록을 사용자 인터페이스(910)을 통해 표시할 수 있다. 프로세서(120)는 사용자 인터페이스(910)이 표시되는 중, 제1 사용자 입력을 수신할 수 있다. 프로세서(120)는 제1 사용자 입력에 응답하여, 사진 목록이 스크롤 되어 사용자 인터페이스(910)를 통해 표시될 사진들을 결정할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 이미지 분석을 통해 시각 정보를 식별할 수 있다. 프로세서(120)는 사용자 인터페이스(910) 또는 사용자 인터페이스(920)에서 표시되는 복수의 사진들 중 적어도 일부의 이미지 메타 정보 및 시각 정보를 추출할 수 있다. 프로세서(120)는 복수의 사진들 중 적어도 일부는 8월 14일에 찍은 포스터 세션에 관한 사진에 해당함을 식별할 수 있다. 프로세서(120)는 복수의 사진들이 8월 14일에 찍은 포스터 세션에 관한 것임을 나타내는 시각적 객체(921)를 사용자 인터페이스(920) 내에 표시할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 제2 사용자 입력을 수신할 수 있다. 프로세서(120)는 제2 사용자 입력에 응답하여, 사진 목록이 스크롤 되어 표시될 사진들을 결정할 수 있다. 프로세서(120)는 제2 사용자 입력에 응답하여 사용자 인터페이스(930)을 표시할 수 있다. 프로세서(120)는 사용자 인터페이스(930)에서 표시되는 복수의 사진들 중 적어도 일부의 이미지 메타 정보 및 시각 정보를 추출할 수 있다. 프로세서(120)는 사용자 인터페이스(930)에서 표시되는 복수의 사진들 중 적어도 일부는 8월 16일에 찍은 프레젠테이션(presentation)에 관한 사진에 해당함을 식별할 수 있다. 프로세서(120)는 사용자 인터페이스(930)에서 표시되는 복수의 사진들이 8월 16일에 찍은 프레젠테이션에 관한 것임을 나타내는 시각적 객체(931)를 사용자 인터페이스(630) 내에 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 시각적 객체(921)의 위치를 사용자 인터페이스(930) 상단으로 옮겨 표시를 유지할 수 있다. 프로세서(120)는 시각적 객체(921)에 대한 사용자 입력을 수신하는 것에 응답하여, 사용자 인터페이스(920)으로 화면을 스크롤하여 표시할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 연속적인 사용자 입력들을 수신할 수 있다. 프로세서(120)는 제2 사용자 입력에 따라 변경되는 사용자 인터페이스와 유사하게, 시각적 객체(941), 시각적 객체(951), 시각적 객체(961)을 누적하여 표시할 수 있다. 일 실시 예에 따르면, 복수의 시각적 객체들(921, 931, 941, 951, 961) 중 하나를 선택하는 사용자 입력을 수신하는 것에 기반하여, 프로세서(120)는 선택된 시각적 객체와 관련된 적어도 하나의 사진을 스크롤하여 표시할 수 있다. 예를 들면, 프로세서(120)는 사용자 인터페이스(940)에서, 시각적 객체(951)에 대한 입력을 수신할 수 있다. 프로세서(120)는 상기 시각적 객체(951)에 대한 입력을 수신하는 것에 기반하여, 상기 시각적 객체(951)과 관련된 8월 18일에 강아지와 놀면서 찍은 사진을 표시할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 사용자 입력과 관계없이 전자 장치(101)에 저장된 복수의 이미지들의 메타 정보 및 시각 정보를 추출할 수 있다. 프로세서(120)는 복수의 이미지들의 메타 정보 및 시각 정보에 기반하여 복수의 이미지들을 적어도 하나의 그룹으로 구분할 수 있다. 프로세서(120)는 적어도 하나의 그룹에 포함된 적어도 하나의 이미지와 관련된 정보(예: 요약 정보, 키워드 정보)를 결정하여 적어도 하나의 그룹과 함께 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 복수의 이미지들 중 일부를 표시하며 사용자 인터페이스(940)과 함께, 적어도 하나의 그룹에 포함된 적어도 하나의 이미지와 관련된 정보를 나타내는 시각적 객체를 표시할 수 있다.
상술한 바와 같은 다양한 실시 예들에 따른 전자 장치(예: 전자 장치(101))의 방법은, 상기 전자 장치의 디스플레이(예: 표시 장치(160)) 내에서의 사용자 인터페이스 내에, 복수의 콘텐츠 중 제1 콘텐츠를 표시하는 동작, 상기 사용자 인터페이스 내에서 수행되는 사용자 입력을 식별하는 동작, 상기 사용자 입력의 식별에 응답하여, 상기 표시된 적어도 하나의 제1 콘텐츠와 구별되는 제2 콘텐츠를 표시하는 동작, -상기 제1 콘텐츠의 상기 사용자 인터페이스 내에서의 위치는 상기 식별된 사용자 입력에 의해 스크롤됨-, 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하는 동작, 및 상기 정보의 식별에 응답하여, 상기 사용자 인터페이스 내에, 상기 식별된 정보에 대응하는 시각적 객체(visual object)를 표시하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하는 동작은, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 공통적으로 포함된 정보를 식별하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 방법은, 상기 사용자 인터페이스 내에, 상기 식별된 정보에 대응하는 시각적 객체를 표시하는 동작은, 상기 제2 콘텐츠를 표시하기 위한 상기 사용자 인터페이스에 중첩하여 상기 식별된 정보에 대응하는 시각적 객체를 표시하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하는 동작은, 상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 메타 정보를 식별하는 동작, 및 상기 식별된 메타 정보에 기반하여 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 방법은, 제2 사용자 입력의 식별에 응답하여, 상기 시각적 객체의 표시를 유지하며, 제3 콘텐츠를 표시하는 동작을 더 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 방법은, 상기 시각적 객체에 대한 제3 사용자 입력을 식별하는 것에 응답하여, 상기 제3 콘텐츠에서 상기 제2 콘텐츠로 스크롤하여 표시하는 동작을 더 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 방법은, 상기 복수의 콘텐츠 중 적어도 일부 콘텐츠의 중요도를 식별하는 동작. 및 상기 복수의 콘텐츠 중 적어도 일부 콘텐츠의 중요도에 기반하여, 상기 복수의 콘텐츠를 탐색하기 위한 스크롤 속도를 조정하는 동작을 더 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 복수의 콘텐츠 중 적어도 일부 콘텐츠의 중요도에 기반하여, 상기 복수의 콘텐츠를 탐색하기 위한 스크롤 속도를 조정하는 동작은, 상기 복수의 콘텐츠 중 적어도 일부 콘텐츠의 중요도가 높음을 식별하는 동작, 및 상기 복수의 콘텐츠 중 적어도 일부 콘텐츠를 포함하는 영역의 스크롤 속도를 느리게 설정하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 사용자 입력은, 스와이프 업/다운(swipe up/down) 입력, 터치 앤 드래그(touch and drag) 입력, 음성(voice) 입력, 제스처(gesture) 입력, 비접촉식 스크롤(contactless scroll) 입력, 펜을 통한 스크롤 입력, 사용자의 눈동자를 통한 입력 중 적어도 하나를 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 제1 콘텐츠 또는 상기 제2 콘텐츠는, 멀티미디어 콘텐츠를 포함할 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 전자 장치의 방법에 있어서,
    상기 전자 장치의 디스플레이내에서의 사용자 인터페이스 내에, 복수의 콘텐츠 중 제1 콘텐츠를 표시하는 동작;
    상기 사용자 인터페이스 내에서 수행되는 사용자 입력을 식별하는 동작;
    상기 사용자 입력의 식별에 응답하여, 상기 표시된 적어도 하나의 제1 콘텐츠와 구별되는 제2 콘텐츠를 표시하는 동작,
    상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하는 동작; 및
    상기 정보의 식별에 응답하여, 상기 사용자 인터페이스 내에, 상기 식별된 정보에 대응하는 시각적 객체(visual object)를 표시하는 동작;
    을 포함하는 방법.
  2. 제1 항에 있어서, 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하는 동작은,
    상기 제1 콘텐츠 및 상기 제2 콘텐츠에 공통적으로 포함된 정보를 식별하는 동작을 포함하는 방법.
  3. 제1 항에 있어서, 상기 사용자 인터페이스 내에, 상기 식별된 정보에 대응하는 시각적 객체를 표시하는 동작은,
    상기 제2 콘텐츠를 표시하기 위한 상기 사용자 인터페이스에 중첩하여 상기 식별된 정보에 대응하는 시각적 객체를 표시하는 동작을 포함하는 방법.
  4. 제1 항에 있어서, 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하는 동작은,
    상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 메타 정보를 식별하는 동작; 및
    상기 식별된 메타 정보에 기반하여 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하는 동작을 포함하는 방법.
  5. 제1 항에 있어서,
    제2 사용자 입력의 식별에 응답하여, 상기 시각적 객체의 표시를 유지하며, 제3 콘텐츠를 표시하는 동작을 더 포함하는 방법.
  6. 제5 항에 있어서,
    상기 시각적 객체에 대한 제3 사용자 입력을 식별하는 것에 응답하여, 상기 제3 콘텐츠에서 상기 제2 콘텐츠로 스크롤하여 표시하는 동작을 더 포함하는 방법.
  7. 제1 항에 있어서,
    상기 복수의 콘텐츠 중 적어도 일부 콘텐츠의 중요도를 식별하는 동작; 및
    상기 복수의 콘텐츠 중 적어도 일부 콘텐츠의 중요도에 기반하여, 상기 복수의 콘텐츠를 탐색하기 위한 스크롤 속도를 조정하는 동작을 더 포함하는 방법.
  8. 제7 항에 있어서, 상기 복수의 콘텐츠 중 적어도 일부 콘텐츠의 중요도에 기반하여, 상기 복수의 콘텐츠를 탐색하기 위한 스크롤 속도를 조정하는 동작은,
    상기 복수의 콘텐츠 중 적어도 일부 콘텐츠의 중요도가 높음을 식별하는 동작; 및
    상기 중요도가 높은 콘텐츠를 포함하는 영역의 스크롤 속도를 느리게 설정하는 동작을 포함하는 방법.
  9. 제1 항에 있어서, 상기 사용자 입력은,
    스와이프 업/다운(swipe up/down) 입력, 터치 앤 드래그(touch and drag) 입력, 음성(voice) 입력, 제스처(gesture) 입력, 비접촉식 스크롤(contactless scroll) 입력, 펜을 통한 스크롤 입력, 사용자의 눈동자를 통한 입력 중 적어도 하나를 포함하는 방법.
  10. 제1 항에 있어서, 상기 제1 콘텐츠 또는 상기 제2 콘텐츠는,
    멀티미디어 콘텐츠를 포함하는 방법.
  11. 전자 장치에 있어서,
    디스플레이; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 디스플레이 내에서의 사용자 인터페이스 내에, 복수의 콘텐츠 중 제1 콘텐츠를 표시하고,
    상기 사용자 인터페이스 내에서 수행되는 사용자 입력을 식별하고,
    상기 사용자 입력의 식별에 응답하여, 상기 표시된 적어도 하나의 제1 콘텐츠와 구별되는 제2 콘텐츠를 표시하고,
    상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하고,
    상기 정보의 식별에 응답하여, 상기 사용자 인터페이스 내에. 상기 식별된 정보에 대응하는 시각적 객체(visual object)를 표시하도록 설정된 전자 장치.
  12. 제11 항에 있어서, 상기 프로세서는,
    상기 제1 콘텐츠 및 상기 제2 콘텐츠에 공통적으로 포함된 정보를 식별하도록 설정된 전자 장치.
  13. 제11 항에 있어서, 상기 프로세서는,
    상기 제2 콘텐츠를 표시하기 위한 상기 사용자 인터페이스에 중첩하여 상기 식별된 정보에 대응하는 시각적 객체를 표시하도록 설정된 전자 장치.
  14. 제11 항에 있어서, 상기 프로세서는,
    상기 제1 콘텐츠 또는 상기 제2 콘텐츠의 메타 정보를 식별하고,
    상기 식별된 메타 정보에 기반하여 상기 제1 콘텐츠 및 상기 제2 콘텐츠와 관련된 정보를 식별하도록 설정된 전자 장치.
  15. 전자 장치에 있어서,
    터치 스크린 디스플레이;
    무선 통신 회로;
    상기 디스플레이 및 상기 통신 회로에 작동적으로 연결되는 프로세서; 및
    상기 프로세서에 작동적으로 연결되는 메모리를 포함하며,
    상기 메모리는, 실행될 때 상기 프로세서로 하여금,
    스크롤 가능한 콘텐츠의 제1 부분을 상기 디스플레이 상에 표시하고,
    상기 터치 스크린 디스플레이를 통해, 상기 콘텐츠를 스크롤 하도록 하는 제1 제스처 입력을 수신하고,
    상기 제1 제스처 입력에 적어도 일부 기반하여, 상기 콘텐츠의 제2 부분을 결정하고,
    상기 결정된 제2 부분과 연관된 단어, 구, 문장, 및/또는 심볼을 결정 또는 추출하고,
    상기 제2 부분의 적어도 일부, 및 상기 단어, 구, 문장, 및/또는 심볼을 상기 디스플레이 상에 표시하도록 하는 인스트럭션들을 저장하는 전자 장치.
  16. 제15 항에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 제1 제스처 입력에 적어도 일부 기반하여, 상기 콘텐츠에 대한 제1 스크롤 속도를 결정하고,
    상기 제1 스크롤 속도에 적어도 일부 기반하여, 상기 제2 부분을 결정하도록 하는 전자 장치.
  17. 제16 항에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 제1 제스처 입력에 따라 상기 콘텐츠가 스크롤되는 동안 상기 추출된 단어, 구 또는 문장을 상기 터치 스크린 디스플레이의 적어도 일부에 표시하도록 하는 전자장치.
  18. 제16 항에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 터치 스크린 디스플레이를 통해, 상기 화면을, 상기 제1 속도와 다른 제2 속도로 스크롤 하기 위한 제2 제스처 입력을 수신하면,
    상기 제2 속도에 기반하여, 적어도 하나의 콘텐츠를 포함하는, 상기 제1 범위와는 다른, 상기 전체 콘텐츠의 제2 범위를 결정하고,
    상기 제2 범위의 상기 적어도 하나의 콘텐츠와 연관된 단어, 구 또는 문장을 추출하도록 하는 전자 장치.
  19. 제16 항에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 콘텐츠가 스크롤되는 동안, 상기 터치 스크린 디스플레이의 선택된 위치에, 상기 추출된 단어, 구, 문장, 및/또는 심볼을 표시하도록 하는 전자장치.
  20. 제18 항에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 콘텐츠의 스크롤이 정지된 이후, 상기 추출된 단어, 구 또는 문장 표시를 화면에서 제거하도록 하는 전자장치.
KR1020190019213A 2019-02-19 2019-02-19 콘텐츠와 관련된 시각적 객체를 표시하는 방법 및 이를 지원하는 전자 장치 KR20200101055A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190019213A KR20200101055A (ko) 2019-02-19 2019-02-19 콘텐츠와 관련된 시각적 객체를 표시하는 방법 및 이를 지원하는 전자 장치
US16/795,424 US20200264750A1 (en) 2019-02-19 2020-02-19 Method for displaying visual object regarding contents and electronic device thereof
EP20759046.4A EP3891592A4 (en) 2019-02-19 2020-02-19 METHOD FOR DISPLAYING A VISUAL OBJECT RELATING TO CONTENT AND ASSOCIATED ELECTRONIC DEVICE
PCT/KR2020/002436 WO2020171613A1 (en) 2019-02-19 2020-02-19 Method for displaying visual object regarding contents and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190019213A KR20200101055A (ko) 2019-02-19 2019-02-19 콘텐츠와 관련된 시각적 객체를 표시하는 방법 및 이를 지원하는 전자 장치

Publications (1)

Publication Number Publication Date
KR20200101055A true KR20200101055A (ko) 2020-08-27

Family

ID=72043239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190019213A KR20200101055A (ko) 2019-02-19 2019-02-19 콘텐츠와 관련된 시각적 객체를 표시하는 방법 및 이를 지원하는 전자 장치

Country Status (4)

Country Link
US (1) US20200264750A1 (ko)
EP (1) EP3891592A4 (ko)
KR (1) KR20200101055A (ko)
WO (1) WO2020171613A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022191418A1 (ko) * 2021-03-11 2022-09-15 삼성전자 주식회사 전자 장치 및 미디어 콘텐츠의 재생구간 이동 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7437005B2 (en) * 2004-02-17 2008-10-14 Microsoft Corporation Rapid visual sorting of digital files and data
KR101791540B1 (ko) * 2009-06-08 2017-10-30 엘지전자 주식회사 이동 단말기 및 이동 단말기의 정보 표시 방법
US8839128B2 (en) * 2009-11-25 2014-09-16 Cooliris, Inc. Gallery application for content viewing
KR101710547B1 (ko) * 2012-01-10 2017-02-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR102049784B1 (ko) * 2012-08-31 2020-01-22 삼성전자 주식회사 데이터 표시 방법 및 장치
KR20140122292A (ko) * 2013-03-28 2014-10-20 삼성전자주식회사 디스플레이 장치의 디스플레이 방법 및 디스플레이 장치
KR102221034B1 (ko) * 2013-08-28 2021-02-26 삼성전자주식회사 컨텐츠 표시 제어 방법 및 그 전자 장치
US10346023B2 (en) * 2014-02-27 2019-07-09 Dropbox, Inc. Selectively emphasizing digital content
US11385726B2 (en) * 2020-06-01 2022-07-12 Science House LLC Systems, methods, and apparatus for enhanced presentation remotes

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022191418A1 (ko) * 2021-03-11 2022-09-15 삼성전자 주식회사 전자 장치 및 미디어 콘텐츠의 재생구간 이동 방법

Also Published As

Publication number Publication date
US20200264750A1 (en) 2020-08-20
EP3891592A1 (en) 2021-10-13
EP3891592A4 (en) 2022-01-19
WO2020171613A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
WO2019095962A1 (zh) 推荐内容显示方法、装置及***
KR20200067567A (ko) 전자 장치의 상태 정보에 기반하여 동작을 수행하는 전자 장치 및 전자 장치의 동작 방법
KR102199786B1 (ko) 콘텐트를 기반으로 하는 정보 제공 방법 및 장치
KR102599383B1 (ko) 분할된 화면 상에서 실행 가능한 어플리케이션 리스트를 디스플레이하는 전자 장치 및 전자 장치의 동작 방법
US10921958B2 (en) Electronic device supporting avatar recommendation and download
US11705120B2 (en) Electronic device for providing graphic data based on voice and operating method thereof
KR102625254B1 (ko) 입력기를 통해 이미지와 관련된 정보를 어플리케이션에 제공하는 전자 장치 및 방법
KR102543695B1 (ko) 영상 처리 방법 및 이를 지원하는 전자 장치
KR102569032B1 (ko) 전자 장치 및 그의 컨텐트 제공 방법
KR102519637B1 (ko) 문자를 입력하기 위한 전자 장치 및 그의 동작 방법
US20210405767A1 (en) Input Method Candidate Content Recommendation Method and Electronic Device
US20220408164A1 (en) Method for editing image on basis of gesture recognition, and electronic device supporting same
CN113411680A (zh) 多媒体资源播放方法、装置、终端及存储介质
US20200319848A1 (en) Electronic device and method for executing function according to stroke input
EP3664464A1 (en) Electronic device for generating video comprising character and method thereof
US20200264750A1 (en) Method for displaying visual object regarding contents and electronic device thereof
CN112764600A (zh) 资源处理方法、装置、存储介质及计算机设备
KR20200117183A (ko) 메시지를 표시하는 전자 장치 및 그의 동작 방법
US12008221B2 (en) Method for providing tag, and electronic device for supporting same
KR102616156B1 (ko) 컨텐츠를 생성하기 위한 전자 장치
CN115905374A (zh) 应用功能的展示方法、装置、终端及存储介质
KR102467041B1 (ko) 전자 장치 및 전자 장치에서 방송 콘텐트와 관련된 서비스 정보 제공 방법
US11216147B2 (en) Electronic device and content display method
KR20200012133A (ko) 사용자 입력을 지원하는 전자 장치 및 전자 장치의 제어 방법
CN115379113B (zh) 拍摄处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal