KR101949308B1 - 미디어 내의 오브젝트와 관련된 감정 정보 - Google Patents

미디어 내의 오브젝트와 관련된 감정 정보 Download PDF

Info

Publication number
KR101949308B1
KR101949308B1 KR1020147003314A KR20147003314A KR101949308B1 KR 101949308 B1 KR101949308 B1 KR 101949308B1 KR 1020147003314 A KR1020147003314 A KR 1020147003314A KR 20147003314 A KR20147003314 A KR 20147003314A KR 101949308 B1 KR101949308 B1 KR 101949308B1
Authority
KR
South Korea
Prior art keywords
media
user input
emotion
amount
input data
Prior art date
Application number
KR1020147003314A
Other languages
English (en)
Other versions
KR20140063590A (ko
Inventor
베네딕트 존 데이비스
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Publication of KR20140063590A publication Critical patent/KR20140063590A/ko
Application granted granted Critical
Publication of KR101949308B1 publication Critical patent/KR101949308B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4756End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4758End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

감정 입력을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 표시 및 감정 식별자를 포함하는 사용자 입력 데이터를 수신하기 위한 방법, 시스템, 그리고 장치가 제공되는바, 여기에는 컴퓨터 판독가능 매체 상에 인코딩되는 컴퓨터 프로그램이 포함된다. 사용자 입력 데이터는 미디어와 관련되고, 그 관련된 미디어는 복수의 오브젝트들을 포함한다. 각각의 사용자 입력 데이터에 대해, 사용자 입력 데이터는 관련된 미디어의 일부분과 관련된다. 관련된 미디어의 일부분에 근거하여 사용자 입력 데이터가 집합된다. 디스플레이되는 오브젝트들 중 적어도 하나의 오브젝트에 대한 감정 입력을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 표시 및 감정 식별자에 근거하여 평균 감정 값이 결정된다.

Description

미디어 내의 오브젝트와 관련된 감정 정보{SENTIMENTAL INFORMATION ASSOCIATED WITH AN OBJECT WITHIN MEDIA}
인터넷은 광범위한 콘텐츠에 대한 액세스를 제공한다. 예를 들어, 수많은 서로 다른 주제에 대한 미디어(media)(예컨대, 이미지(images), 오디오(audio), 비디오(video), 웹 페이지(web pages))가 인터넷을 통해 액세스가능하다. 사용자들은 다양한 디바이스들을 통해 이러한 미디어에 액세스할 수 있다. 예를 들어, 사용자는 미디어에 액세스하여 미디어를 재생시키기 위해 셀 폰과 같은 핸드 헬드 디바이스(hand held devices)를 사용할 수 있다. 미디어를 보는 사람들은 또한 미디어와 관련된 데이터를 생성시킬 수 있다. 이러한 미디어를 보는 것에 대해 순위를 정하는 것, 혹은 이것을 사회 관계망 사이트에 링크 혹은 게재하는 것은 사용자들이 미디어와 관련된 데이터를 생성시킬 수 있는 예시적인 방법이다. 그러나, 이러한 데이터는 전형적으로 미디어 전체에 관한 것이지, 미디어 특정 부분에 관한 것은 아니며, 또는 미디어 내에 존재하는 인물/오브젝트와 관련되어 있지 않다.
일반적으로, 본 명세서에서 설명되는 주된 내용의 일 실시형태는 감정 입력(sentimental input)을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 표시 및 감정 식별자를 포함하는 사용자 입력 데이터를 수신하기 위한 방법으로 구현될 수 있다. 사용자 입력 데이터는 미디어(media)와 관련되고, 관련된 미디어는 복수의 오브젝트(object)들을 포함한다. 각각의 사용자 입력 데이터에 대해, 사용자 입력 데이터는 관련된 미디어의 일부분과 관련된다. 관련된 미디어의 일부분에 근거하여 사용자 입력 데이터가 집합(aggregate)된다. 디스플레이되는 오브젝트들 중 적어도 하나의 오브젝트에 대한 감정 입력을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 표시 및 감정 식별자에 근거하여 평균 감정 값이 결정된다. 이러한 실시형태의 다른 구현예들은 이러한 방법의 동작들을 수행하도록 구성된, 대응하는 시스템, 장치 및 컴퓨터-판독가능 매체를 포함한다.
본 명세서에서 설명되는 주된 내용의 하나 이상의 구현예들의 세부사항이 첨부되는 도면 및 아래의 설명에서 제시된다. 주된 내용의 다른 특징, 실시형태 및 장점은 이러한 설명, 도면 및 특허청구범위로부터 명백하게 될 것이다.
도 1은 예시적 구현예에 따른, 미디어와 관련된 데이터가 생성, 저장 및 사용될 수 있는 예시적 환경을 나타낸 블록도이다.
도 2a는 예시적 구현예에 따른, 미디어를 재생시킬 수 있고 감정 정보를 기록할 수 있는 디바이스를 나타낸다.
도 2b는 예시적 구현예에 따른, 미디어를 재생시킬 수 있는 제 1 디바이스와 감정 정보를 기록할 수 있는 제 2 디바이스를 나타낸다.
도 3은 예시적 구현예에 따른, 감정 정보를 기록하기 위한 프로세스의 흐름도이다.
도 4는 예시적 구현예에 따른, 감정 정보를 미디어와 관련된 디스플레이되는 오브젝트와 관련시키는 프로세스의 흐름도이다.
도 5는 예시적 구현예에 따른, 미디어와 관련된 복수의 사용자들의 긍정적 감정과 부정적 감정을 나타내는 예시적인 보고서이다.
도 6은 예시적 구현예에 따른, 컴퓨터 시스템의 블록도이다.
다양한 도면에서 동일한 참조 번호 및 명칭은 동일한 요소를 표시한다.
미디어를 보는 사람들은 이들이 미디어의 특정 부분을 얼마나 많이 싫어하는지/좋아하는지에 근거하여 입력을 제공할 수 있다. 미디어의 예들은 스트리밍 오디오(streaming audio), 스트리밍 비디오(streaming video), 오디오 파일들(audio files) 및 비디오 파일들(and video files)을 포함할 수 있지만 이러한 것에만 한정되는 것은 아니다. 입력은 미디어의 일부분 내의 특정 오브젝트 혹은 인물과 관련될 수 있다. 감정 정보가 수집되면, 사용자는 가장 좋아하는, 가장 재미있는, 가장 무서운, 가장 싫어하는 등등의 미디어 클립(media clip)들의 목록(list)을 동적으로 생성할 수 있다. 추가적으로, 오브젝트, 인물, 혹은 미디어가 얼마나 잘 받아들여졌는지를 결정하기 위해 복수의 사용자들로부터의 감정 정보를 사용하여 보고서들이 발생될 수 있다.
본 명세서 전체에 걸쳐 사용되는 바와 같이, 감정 입력(sentimental input)은 사용자로 하여금 감정을 기록하게 할 수 있는 컴포넌트이다. 감정 입력은 하나 이상의 감정과 관련된다. 감정 입력은 사용자로 하여금 감정 양(sentimental amount)을 특정하게 할 수 있다. 예를 들어, 감정 양은 사용자로 하여금 이들이 미디어의 일부분이 단지 괜찮았다고 생각했는지, 혹은 이들이 그것을 좋아했다고 생각했는지, 혹은 이들이 그것을 매우 좋아했다고 생각했는 지를 특정하게 할 수 있다. 감정 양은 감정의 수준을 표시한다. 감정 식별(sentimental identification)은 다양한 가능한 감정들(예를 들어, 긍정적인 감정, 부정적인 감정, 재미있는 감정, 무서운 감정 등)을 구별하는데 사용된다. 감정 정보는 사용자의 감정의 특정 기록과 관련된 데이터의 집합체이다. 이것은 다양한 데이터, 예를 들어 감정 양, 감정 식별, 미디어 식별, 사용자 입력의 시작 시간, 사용자 입력의 종료 시간, 사용자의 입력과 관련된 미디어 내의 위치, 인구통계학적 데이터(demographic data) 등을 포함할 수 있지만 이러한 것에만 한정되지는 않는다.
도 1은 예시적 구현예에 따른, 미디어와 관련된 데이터가 생성, 저장 및 사용될 수 있는 예시적 환경을 나타낸 블록도이다. 예시적 환경(100)은, 로컬 영역 네트워크(Local Area Network, LAN), 와이드 영역 네트워크(Wide Area Network, WAN), 인터넷, 혹은 이들의 조합과 같은, 네트워크(102)를 포함한다. 네트워크(102)는 미디어 서버들(104), 미디어 플레이어들(108), 감정 입력 모듈들(110), 그리고 감정 서버들(106)을 연결시킨다. 예시적 환경(100)은 수천 개의 미디어 서버들(104), 미디어 플레이어들(108), 감정 서버들(106), 감정 입력 모듈들(110)을 포함할 수 있다.
미디어 서버들(104)은 미디어에 대한 액세스를 미디어 플레이어들(108)에게 제공한다. 미디어는 음악 파일, 비디오, 영화 등을 포함할 수 있지만 이러한 것에만 한정되는 것은 아니다. 미디어는 미디어 플레이어 상에서 렌더링(rendering)될 수 있다. 미디어는 미디어 서버들(104) 상에 혹은 미디어 서버에 의해 액세스가능한 또 다른 디바이스(미도시) 상에 미디어 파일들로 저장될 수 있다. 미디어 및 미디어 파일들은 본 발명의 기술분야에서 숙련된 자들에게 알려진 다양한 프로토콜들(예를 들어, 하이퍼텍스트 전송 프로토콜(HyperText Transfer Protocol, HTTP), 피어-투-피어(Peer-to-Peer, P2P) 프로토콜, 등)을 사용하여 네트워크(102)를 통해 액세스가능하다.
미디어 플레이어들(108)은 보기/듣기를 위해 미디어를 렌더링할 수 있다. 사용자는 감정 입력 모듈(110)을 사용하여 이들이 특정 미디어, 혹은 그 미디어의 일부분, 혹은 미디어 내의 오브젝트를 얼마나 많이 좋아했는지 또는 싫어했는지를 표시할 수 있다. 미디어의 일부분은, 전체 미디어, 미디어에서의 특정 시간 혹은 주기, 비디오 내에서의 디스플레이되는 오브젝트들, 또는 오디오 미디어 내에서의 청취가능한 오브젝트들을 말할 수 있다. 비디오에서의 디스플레이되는 오브젝트들은 인물, 프롭(prop), 청취가능한 부분(예를 들어, 나레이터(narrator)), 또는 특정 비디오 내에 시각적으로 혹은 청각적으로 존재하는 임의의 다른 아이템과 같은 비디오 내에서의 디스플레이되는 오브젝트들을 포함할 수 있다. 오디오 파일에서의 오브젝트는 악기, 가수, 나레이터, 등과 같은 청취가능한 오브젝트들을 포함할 수 있다. 일 구현예에서, 감정 입력 모듈들(110)은 미디어 플레이어(108)에 통합된다. 또 하나의 다른 구현예에서, 감정 입력 모듈들(110)은 미디어 플레이어(108)와는 별개인 제2의 디바이스에 통합된다. 예를 들면, 감정 입력 모듈(110)은 셀 폰, 노트북, 테이블, 개인 휴대 단말기(Personal Digital Assistant, PDA) 등에 통합될 수 있다. 사용자로부터의 입력은 하나 이상의 감정 서버들(106)로 전송될 수 있다. 일 구현예에서, 미디어 서버(104)의 기능과 감정 서버(106)의 기능은 단일 서버 내에 통합될 수 있다. 감정 서버(106)는 수신된 입력을 저장소(112)에 저장할 수 있다. 저장소(112)는, 본 발명의 기술분야에서 숙련된 자들에게 알려진 임의의 저장소일 수 있는바, 예를 들면, 데이터베이스, 하드 드라이브, 원격 데이터 저장소 등일 수 있다. 아래에서 더 상세히 설명되는 바와 같이, 저장된 사용자 입력은 다양한 목적으로 사용될 수 있다.
도 2a는 예시적 구현예에 따른, 미디어를 재생시킬 수 있고 감정 정보를 기록할 수 있는 디바이스를 나타낸다. 미디어는 하나 이상의 미디어 서버들(104)로부터 검색될 수 있거나 스트리밍될 수 있다. 일 구현예에서, 미디어 플레이어는 비디오 미디어를 디스플레이하기 위기 위해 스크린을 구비한다. 디바이스(200)는 스크린의 보는 부분(206)에 비디오를 재생시킬 수 있다. 미디어와 관련된 정보는 스크린의 정보 부분(202)에 디스플레이될 수 있다. 정보는 미디어 자체 내에 포함될 수 있거나, 미디어로부터 분리되어 저장될 수 있거나, 혹은 미디어 서버(104)와 같은 원격 서버로부터 검색될 수 있다. 스크린의 감정 부분(204)은 사용자로부터의 감정 값과 같은 입력을 수집하는데 사용될 수 있다.
긍정적인 라벨(214)로 표시된 긍정적인 감정 입력(210)은 특정 미디어의 특정 부분을 얼마나 많이 좋아했는지를 기록할 수 있다. 유사하게, 부정적인 라벨(216)로 표시된 부정적인 감정 입력(212)은 해당 미디어의 특정 부분을 얼마나 많이 싫어했는지를 기록할 수 있다. 다른 라벨들, 예를 들면, 상향 엄지손가락 아이콘 및 하향 엄지손가락 아이콘, 다른 문구 등이 사용될 수 있다. 입력 버튼들(210, 212)은 사용자 입력을 수신하도록 구성될 수 있고, 디바이스(200)는 이에 응답하여 감정 입력, 예를 들면, 좋아요/싫어요 양상 및 선택에 따라서는 좋아요/싫어요의 양(quantity)을 나타내는 데이터가 포함된 메시지를 발생시킬 수 있고 전송할 수 있다. 일 구현예에서, 스크린의 감정 부분(204)은 터치 스크린을 포함한다. 터치 스크린은 감정 입력을 선택하기 위해 사용되는 압력을 캡처할 수 있다. 특정 감정 입력을 선택하기 위해 사용된 압력은 미디어의 특정 부분을 좋아했던/싫어했던 양에 대응할 수 있다. 예를 들면, 사용자는 사용자가 약간 싫어했던 영화에서의 장면 동안 부정적인 감정 입력(212)을 약간 누를 수 있다. 사용자가 매우 좋아하는 영화의 또 다른 장면에서는, 긍정적인 감정 입력(210)이 더 큰 압력의 양을 사용하여 눌려질 수 있다. 일 구현예에서, 임의의 특정 감정 입력을 누르기 위해 사용되는 압력의 양은 터치 스크린에 의해 검출되고, 기록되며, 시각화될 수 있다. 예를 들면, 압력의 양이 증가함에 따라, 강조되는 고리의 개수가 증가할 수 있다. 추가적으로 혹은 대안적으로, 라벨들(214 및 216)은 또한 이러한 압력의 양에 근거하여 변할 수 있다. 예를 들면, 긍정적인 라벨(214)은, 긍정적인 감정 입력(210)과 관련된 압력의 양에 근거하여, "좋아함"으로부터 "매우 좋아함" 및 "아주 좋아함!"으로 변할 수 있다. 미디어 플레이어(220)는 예를 들면, 네트워크(102)를 사용하여 감정 정보를 감정 서버(106)에 전송할 수 있다.
또 하나의 다른 구현예에서, 스크린의 감정 부분(204)은 각각의 부분이 감정에 대응하게 되는 둘 이상의 부분들로 나누어진다. 일 구현예에서, 감정 부분(204)은 긍정적인 부분과 부정적인 부분으로 나누어진다. 사용자가 긍정적인 부분을 누름에 따라, 긍정적인 부분의 배경색의 색깔이 변할 수 있다. 유사하게, 부정적인 부분의 배경색의 색깔도 또한 부정적인 부분에 가해진 압력의 양에 근거하여 변할 수 있다. 이러한 배경에 사용된 색깔들은 특정 감정과 관련될 수 있다. 예를 들면, 초록색, 파랑색 및 보라색은 긍정적인 감정과 관련될 수 있고, 노랑색, 주황색 및 빨강색은 부정적인 감정과 관련될 수 있다.
감정 입력들은 또한 긍정적 감정 혹은 부정적 감정이 아닌 감정에 관한 정보를 캡처하기 위해 사용될 수 있다. 예를 들어, 특정 미디어의 일부분들이 얼마나 무서운지 혹은 역겨운지가 캡처 및 기록될 수 있다. 원하는 감정들을 캡처하기 위해 임의 개수의 감정 입력들이 결합될 수 있다. 일 구현예에서는, 가능한 감정 입력들 중 어느 것도 눌려지지 않은 경우, 중립적 감정이 가정될 수 있다.
또 하나의 다른 예에서는, 단일 감정 부분(204)이 제공되며, 긍정적인 감정 혹은 부정적인 감정과 같은 감정 식별을 결정하기 위해 제스처가 사용된다. 일 구현예에서, 긍정적인 감정은 감정 부분(204)을 누르고 좌측으로 움직임으로써 기록될 수 있고, 부정적인 감정은 감정 부분(204)을 누르고 우측으로 움직임으로써 기록될 수 있다. 물론, 다른 제스처들이 가능하며 제스처들은 또한 다른 감정들로 맵핑될 수 있다.
다른 구현예들에서, 감정 양은 감정 입력에 가해진 압력의 양과는 다른 무엇인가에 근거할 수 있다. 예를 들어, 특정 감정 입력을 누른 시간의 양이 사용자가 미디어의 일부분을 얼마나 많이 좋아했는지/싫어했는지를 표시하기 위해 사용된다. 또 하나의 다른 구현예에서, 감정의 양을 표시하기 위해 다이얼(dials) 혹은 슬라이더(sliders)가 사용될 수 있다.
도 2b는 예시적 구현예에 따른, 미디어를 재생시킬 수 있는 제 1 디바이스와 감정 정보를 기록할 수 있는 제 2 디바이스를 나타낸다. 이러한 구현예에서, 미디어 플레이어(220)는 감정 입력 모듈을 포함하는 디바이스와는 별개의 디바이스이다. 예를 들어, 미디어 플레이어(220)는 미디어 신호를 재생시킬 수 있는 텔레비젼, 노트북, 태블릿, 패드 등일 수 있다. 미디어 플레이어(220)는 스크린의 보는 부분(206)을 포함하고, 정보 부분(202)을 또한 포함할 수 있다. 일부 구현예들에서, 정보 부분(202)은 제시되지 않는다. 디바이스(230)는 앞서 설명된 디바이스(200)와 유사한 방식으로 감정 입력을 캡처하는데 사용된다. 일 구현예에서, 미디어 플레이어(220)는 네트워크(102)와 같은 네트워크를 통해 혹은 개인 영역 네트워크를 통해 디바이스(230)와 통신할 수 있다. 일 구현예에서, 디바이스(230)는 미디어 플레이어(220)에 감정 정보를 전달할 수 있고, 이후 미디어 플레이어(220)는 이러한 감정 정보를 감정 서버(106)에 전송할 수 있다. 또 하나의 다른 구현예에서는, 디바이스(230)가 감정 정보를 감정 서버(106)에 전달할 수 있다.
디바이스(230)는 또한 미디어와 관련된 정보를 디스플레이하기 위한 정보 부분(232)을 포함할 수 있다. 디바이스(230)의 피드백 부분(234)은 기록된 감정 정보에 관한 정보를 디스플레이하기 위해 사용될 수 있다. 예를 들어, 피드백 부분(234)은 사용자에게 특정 미디어에 대한 그들의 감정 정보의 히스토리를 제공할 수 있다. 디바이스(230)는 또한 다른 사용자들로부터 감정 정보를 수신할 수 있고 평균 감정 값을 디스플레이할 수 있다. 일 구현예에서, 감정 정보는 생중계되는 텔레비젼 프로그램과 같은 미디어의 생방송과 관련되며, 디바이스(232)는 다른 사용자들로부터의 집합된 감정 정보를 수신한다. 이것은 사용자에게 생방송에 대한 평균 감정 값의 생생한 피드백을 제공한다. 디바이스(232)는 또한 수신된 감정 정보에 근거하여 사용자에게 촉각적 피드백(haptic feedback)을 제공할 수 있다. 예를 들어, 감정 양에 있어서 큰 변화가 검출될 때, 디바이스(232)는 떨릴 수 있다. 측각적 피드백은 또한, 사용자의 친구가 감정 정보를 입력할 때 제공될 수 있다.
도 3은 예시적 구현예에 따른, 감정 정보를 기록하기 위한 프로세스의 흐름도이다. 프로세스(300)는 미디어 플레이어(108) 상에서 구현될 수 있거나, 혹은 감정 입력 모듈(110)의 일부분 상에서 구현될 수 있다. 일 구현예에서, 프로세스(300)는 명령들을 포함하는 컴퓨터-판독가능 매체 상에 인코딩되는바, 여기서 명령들은 컴퓨팅 디바이스에 의해 실행될 때 컴퓨팅 디바이스로 하여금 프로세스(300)의 동작들을 수행하게 한다.
감정 입력의 기록은 사용자 입력이 검출될 때 시작한다(302). 일 구현예에서, 사용자 입력은 사용자가 감정 입력을 누르는 것에 대응한다. 사용자 입력이 검출되는 경우, 이러한 입력과 관련된 정보가 기록될 수 있다. 예를 들어, 입력과 관련된 정보는, 사용자 입력이 검출된 시간, 사용자 입력과 관련된 스크린 상의 위치, 감정 식별, 감정 입력에 가해진 압력의 양, 등을 포함할 수 있다. 사용자가 입력을 계속 제공하는 동안, 입력과 관련된 정보가 기록된다(304). 궁극적으로는, 사용자 입력의 끝이 검출된다(306). 예를 들어, 사용자 입력의 끝은 감정 입력을 누르는 것을 해제하는 것과 관련될 수 있거나, 혹은 감정 입력에 가해진 압력이 없어지는 것과 관련될 수 있다. 사용자 입력의 끝이 검출되면, 사용자 입력과 관련된 기록된 정보에 부분적으로 근거하여 다양한 감정 정보가 결정될 수 있다. 예를 들어, 감정 입력에 가해진 압력의 양이 감정의 양을 계산하는데 사용될 수 있다(308). 감정 양은 다양한 방식으로 계산될 수 있는바, 예를 들어, 감정 입력에 가해진 압력의 최대의 양 혹은 감정 입력에 가해진 평균 압력을 계산하고 이것을 감정의 양과 상관시킴으로써 계산될 수 있다. 긍정적 감정 혹은 부정적 감정과 같은 감정 식별이 또한 결정될 수 있다(310). 예를 들어, 사용자 입력의 위치, 눌려진 감정 입력의 표시, 혹은 사용자 입력의 움직임이 사용자 입력과 관련된 감정 값을 결정하는데 사용될 수 있다. 이러한 값들이 계산된 이후에, 감정 정보는 하나 이상의 감정 서버들(312)에 전송될 수 있다. 일 구현예에서, 감정 식별, 감정의 양, 미디어 식별 정보, 그리고 사용자 식별 정보가 감정 서버에 전송될 수 있다. 사용자 식별 데이터는, 익명화(anonymize)될 수 있는 그리고 사용자 명칭과는 연결되지 않는, 고유 식별자(unique identifier) 혹은 준-고유 식별자(semi-unique identifier)를 포함할 수 있다. 또 하나의 다른 구현예에서, 감정 정보는 기록된 데이터의 일부분들, 예를 들어, 사용자 입력의 움직임 및 위치를 포함할 수 있다. 이러한 구현예에서, 감정 서버는 감정의 양과 감정 값을 계산할 수 있거나 혹은 다시 계산할 수 있다.
도 4는 예시적 구현예에 따른, 감정 입력을 미디어와 관련된 디스플레이되는 오브젝트와 관련시키는 프로세스의 흐름도이다. 감정 서버(106)와 같은 서버가 감정 정보를 수신한다(402). 서버는 다양한 미디어에 관해 수많은 사용자들로부터 감정 정보를 수신할 수 있다. 감정 정보는 이러한 감정 정보를 사용자와 관련시키기 위해 사용되는 익명의 사용자 식별자를 포함할 수 있다. 감정 정보에 포함될 수 있는 미디어 식별자는 감정 정보를 특정 미디어와 관련시키기 위해 사용될 수 있다. 감정 양은 일반적으로 미디어와 관련될 수 있거나 혹은 미디어의 특정 부분과 관련될 수 있다. 감정 정보 내의 데이터는 감정 정보를 미디어 내에서의 시간과 관련시키는데 사용될 수 있다(404). 데이터는, 예를 들어, 미디어 내에서의 시간 혹은 시간 주기, 프레임 번호, 프레임 번호의 범위 등과 같은(하지만, 이러한 것에만 한정되지는 않는) 미디어 내에서의 시간 혹은 위치를 표시하는데 사용되는 임의의 데이터일 수 있다. 미디어의 일부분이 결정되었다면, 그 특정 부분과 관련된 오브젝트들이 참조될 수 있다. 비디오 파일에 있어서, 오브젝트는 인물, 이벤트, 디스플레이되는 오브젝트, 말하는 사람 등일 수 있다. 오디오 파일에 있어서, 오브젝트는 악기, 노랫말, 가수, 말하는 사람 등일 수 있다. 감정 정보와 관련될 하나 이상의 오브젝트가 결정된다(406).
일 구현예에서, 감정 정보는 트랜스크립트(transcript) 혹은 클로즈드 캡션 정보(closed caption information)에 근거하여 오브젝트와 관련된다. 이러한 구현예에서, 시간 정보는 미디어의 일부분 내에서의 오브젝트를 결정하는데 사용된다. 오브젝트는, 가장 많은 이야기를 하고 있는 인물, 관련된 시간 주기 동안 가장 긴 시간 말하는 인물, 큰 소리로 말하는 인물, 혹은 일정 시간 주기 동안 재생되고 있는 음악일 수 있다. 또 하나의 다른 구현예에서, 말하는 사람을 인식하는 것은 특정 클립(clip) 동안 말하고 있는 인물을 결정하는데 사용될 수 있다. 말하는 사람을 인식하는 것은 미디어 플레이어 혹은 또 하나의 다른 디바이스 상에서 수행될 수 있고, 인식된 말하는 사람은 감정 정보에 포함될 수 있다. 또 하나의 다른 구현예에서, 말하는 사람을 인식하는 것은 감정 서버(106)와 같은 서버에서 사전에 수행되게 되며, 시간 정보는 일정 시간 주기 동안 누가 가장 많은 이야기를 하고 있었는지, 누가 가장 길게 말하고 있었는지, 그리고/또는 누가 가장 크게 말하고 있었는지를 결정하는데 사용될 수 있다. 이러한 인물은 감정 입력에 대한 관련된 오브젝트가 되게 된다. 비디오의 일부분에 존재하는 인물들을 결정하기 위해 안면 인식이 또한 사용될 수 있다. 인물의 입의 움직임은 비디오의 특정 부분들에서 어떤 인물들이 말하고 있는지를 표시할 수 있다. 안면 인식 정보는 말하는 사람을 인식하는 것과 유사한 방식으로 결정될 수 있다. 일 구현예에서, 미디어 플레이어 혹은 또 하나의 다른 디바이스 그리고 인식된 말하는 사람이 감정 정보에 포함될 수 있다. 또 하나의 다른 구현예에서, 안면 인식은 감정 서버(106)와 같은 서버에서 사전에 수행되게 되며, 시간 정보는 일정 시간 주기 동안 누가 가장 많은 이야기를 하고 있었는지, 누가 가장 길게 말하고 있었는지, 그리고/또는 누가 가장 크게 말하고 있었는지를 결정하는데 사용될 수 있다. 미디어의 일부분들에서의 오브젝트들의 지각된 위치는 또한, 감정 입력을 오브젝트와 관련시키는데 사용될 수 있다. 일 구현예에서, 비디오의 전면(foreground)에서의 인물들 혹은 다른 시각적 오브젝트들은 감정 입력과 관련된 오브젝트를 식별하는데 사용될 수 있다.
감정 입력과 관련된 오브젝트는 또한, 하나 이상의 사용자들로부터의 감정 정보의 집합(aggregation)에 근거하여 추론될 수 있다. 일 구현예에서, 특정 미디어 혹은 이 미디어의 일부분에 걸쳐 수집된 다양한 감정 정보는 이러한 감정 정보 중 일부 혹은 모두와 관련된 오브젝트를 결정하기 위해 분석된다. 예를 들어, 인물이 특정 라인을 말하거나 소개를 하는 미디어의 일부분이 분석될 수 있다. 만약 미디어의 일부분 동안 감정 정보를 기록한 사용자들의 수가 소정의 임계치보다 크다면, 해당 인물은 그 감정 정보와 관련된 오브젝트일 수 있다. 추가적으로, 미디어의 복수의 부분들이 분석될 수 있다. 예를 들어, 특정 인물 혹은 오브젝트를 포함하는 미디어의 일부분들이 분석될 수 있다. 만약 사용자가 이러한 부분들 중 둘 이상의 부분과 일치하는 감정 정보를 갖는다면, 특정 인물 혹은 오브젝트는 이 감정 정보와 관련될 수 있다. 예를 들면, 만약 사용자가 특정 인물의 입장 혹은 특정 오브젝트를 포함하는 부분들 대부분에 대해 부정적인 감정을 입력한다면, 그 인물 혹은 오브젝트는 사용자의 부정적인 감정과 관련될 수 있다. 또 하나의 다른 구현예에서, 동일한 감정 식별자를 포함하는 하나 이상의 사용자들로부터의 감정 정보는 이러한 감정 정보 중 하나 이상의 감정 정보와 관련된 오브젝트를 결정하는데 사용된다. 각각의 감정 정보에 대해, 그 감정 정보와 관련된 미디어의 일부분이 결정된다. 그 다음에, 미디어의 일부분과 관련된 오브젝트들이 결정되고, 그리고 각각의 오브젝트와 관련된 실행중인 카운터(counter)가 증분된다. 각각의 감정 정보에 대해 이러한 것이 반복된다. 카운트(count)가 가장 높은 오브젝트는 관련된 오브젝트인 것으로 결정되고, 그 결정된 오브젝트를 포함하는 미디어 부분과 관련된 각각의 감정 정보와 관련된다.
또 하나의 다른 소스로부터 수신된 정보도 또한, 사용자 감정과 관련된 오브젝트를 결정하는데 사용될 수 있다. 예를 들어, 시상식 쇼의 생방송을 가정한다. 이러한 쇼 동안, 복수의 감정 정보가 사용자들에 의해 입력될 수 있고 감정 서버들에 의해 수신될 수 있다. 감정 입력은 감정 정보가 언제 프로그램 내에 기록되었는지에 관한 타이밍 정보를 포함할 수 있다. 시상식 쇼의 방송과 관련된 시간에 검색 결과 및/또는 소셜 미디어 사이트를 모니터링하는 경우, 사람의 이름의 사용 증가는 감정 정보와 관련된 오브젝트로서 사용될 수 있다. 데이터의 양을 제한하기 위해, 필터링(filtering)이 사용될 수 있다. 일 예에서, 검색 결과 또는 소셜 미디어 데이터는 시상식 쇼 혹은 다른 미디어의 식별자에 근거하여 필터링된다. 이러한 필터링은 분석되는 데이터의 양을 감소시키며, 감정 입력을 오브젝트와 관련시킴에 있어 정확도를 또한 증가시킨다.
또 하나의 다른 구현예에서, 미디어 플레이어 혹은 다른 디바이스 상에서 눌려진 위치는 감정 정보를 오브젝트와 관련시키는데 사용될 수 있다. 일 구현예에서는, 터치 스크린을 구비한 미디어 플레이어 혹은 다른 디바이스가 사용된다. 전용 감정 입력을 사용하는 대신에, 사용자는 인물 혹은 오브젝트를 직접 누름으로써 감정 데이터를 입력한다. 이러한 실시예에서, 인물 혹은 오브젝트가 감정 입력이다. 사용자는, 누른 상태에서 긍정에 대해서는 위로 움직이고 부정에 대해서는 아래로 움직이는 것과 같은, 제스처를 통해 감정 식별자를 표시할 수 있다. 사용자가 스크린을 누른 위치는 어떤 인물 혹은 오브젝트를 감정 정보와 관련시킬지를 결정하는데 사용될 수 있다. 일 구현예에서, 스크린 상의 사용자의 입력의 상대적 위치는 감정 정보의 일부로서 감정 서버에 전송된다. 감정 서버는 미디어 내의 인물들 및/또는 오브젝트들의 위치를 설명하는 데이터에 근거하여 사용자의 입력 가까이 있는 가장 가까운 오브젝트를 결정할 수 있다.
감정 서버가 감정 데이터를 수집하면, 감정 데이터는 다양한 방식으로 사용될 수 있다. 보고서를 발생시키는 것이 하나의 예이다. 도 5는 예시적 구현예에 따른, 미디어와 관련된 복수의 사용자들의 긍정적 감정과 부정적 감정을 나타내는 예시적인 보고서이다. 보고서(500)는 미디어를 재생시키는 하나 이상의 사용자들에 걸처 계산된 평균 긍정 감정(504) 및 부정 감정(506)을 포함한다. 평균 감정들(504 및 506)은 미디어의 단일 재생, 복수 재생, 혹은 모든 재생에 걸쳐 계산될 수 있다. 추가적으로, 보고서는 단일 사용자에 근거할 수 있거나 혹은 복수의 사용자들을 포함할 수 있다. 일 구현예에서, 사용자들은 나이, 지리적 위치, 재생 시간, 재생 날짜 등과 같은 공통 특성을 공유한다. 보고서(500)는 감정들(504 및 506)의 일부분들과 관련된 하나 이상의 오브젝트들의 표시를 포함할 수 있다. 아이콘들(510, 512, 514, 및 516)은 특정 인물과 관련된 감정을 표시할 수 있다. 아이콘을 클릭하는 것 혹은 아이콘 위에서의 호버링(hovering)하는 것과 같이, 아이콘을 선택하는 것은 인물과 관련된 정보 및 미디어 내의 특정 포인트와 관련된 정보를 불러 올 수 있다. 일 구현예에서, 아이콘을 선택하는 것은 링크를 디스플레이할 수 있거나, 혹은 감정 데이터와 관련된 비디오 클립으로 직접 링크시킨다. 예를 들어, 아이콘(512)을 클릭함으로써, 낮은 감정 정보를 기록하기 바로 전에 있는 미디어 내의 일부분으로 가게 될 수 있다. 아이콘(518)은 사용자 감정에서의 증가가 인물과는 다른 무엇인가와 관련되어 있음을 표시할 수 있다. 예를 들어, 아이콘(518)은 감정 정보가 행복한 결말, 갈등의 해결, 등과 관련되어 있음을 표시할 수 있다. 보고서(500)는 또한, 앞서와 같은 것에 근거하여 둘 이상의 제공된 감정들의 평균 감정을 포함할 수 있다.
또 하나의 다른 구현예에서, 보고서는 미디어 내의 특정 인물 혹은 오브젝트에 대해 발생될 수 있다. 예를 들어, 보고서는 특정 인물 혹은 오브젝트가 언제 미디어 내에 존재했는지를 표시할 수 있다. 인물 혹은 오브젝트를 포함한 미디어의 각각의 부분에 대한 평균 감정이 디스플레이될 수 있다. 보고서들은, 미디어의 일부분들과 관련된 모든 감정 정보, 특정 인물 혹은 오브젝트와 관련된 감정 정보, 그리고 특정 인물 혹은 오브젝트와 관련되지 않은 감정 정보 중 하나 이상을 포함할 수 있다. 피크 감정 양(peak sentimental amount)들이 또한 보고서에 제시될 수 있다. 보고서들은 미디어 내에 포함된 하나 이상의 오브젝트들에 대해 발생될 수 있다. 이러한 보고서들은 서로 비교될 수 있고, 보는 사람들이 특정 오브젝트 및/또는 인물을 얼마나 많이 좋아하는지/싫어하는지에 관한 표시를 제공할 수 있다.
감정 정보는 또한 웃음 소리(laugh track)를 생성 혹은 수정하는데 사용될 수 있다. 예를 들어, 초기 웃음 소리가 특정 미디어에 대해 생성될 수 있다. 미리정해진 양의 감정 정보가 수신된 이후, 이러한 감정 정보에 근거하여 웃음 소리가 수정될 수 있다. 웃음 소리는 수신된 감정 정보에 근거하여 계속 변할 수 있다. 예를 들어, 웃음 소리는 수신된 감정 정보의 양, 수신된 감정 정보에서의 변화, 등에 근거하여 시간 스케쥴(time schedule) 상에서 업데이트될 수 있다. 일 예에서, 미디어의 예시적인 싫어하는 부분들이 결정될 수 있다. 야유(boos) 소리, 히싱(hissing) 소리 혹은 어떤 다른 부정적인 사운드 클립이 감정 정보와 부합하도록 웃음 소리에 삽입될 수 있다. 웃음 소리는 또한 관련된 시간에 야유 소리, 히싱 소리 등의 볼륨을 증가시키도록 수정될 수 있다. 추가적으로, 긍정적인 감정의 피크들에 대응하는 비디오의 일부분들(예를 들어, 좋아하는 부분 혹은 재미있는 부분)은 웃음, 박수 등을 삽입하거나 혹은 그 볼륨을 증가시키는데 사용될 수 있다. 웃음, 야유 소리, 등의 볼륨 및/또는 양은 또한, 수신된 감정 입력에 근거하여 감소될 수 있다. 미디어는 하나 이상의 웃음 소리를 가질 수 있다. 예를 들어, 미디어에 대해 단일 웃음 소리가 사용될 수 있다. 또 하나의 다른 구현예에서, 웃음 소리는 수집된 감정 입력에 근거하여 특정 사용자 혹은 사용자들의 그룹에 대해 발생될 수 있다. 일 예에서, 특정 미디어를 좋아하는 사용자들의 그룹은 특정 미디어를 싫어하는 그룹과 비교하여 더 많은 그리고/또는 더 큰 박수/웃음을 포함하는 웃음 소리를 가질 수 있다. 특정 미디어를 싫어하는 사용자들의 그룹에게는 더 적은 그리고/또는 더 작은 박수/웃음을 갖는 또 다른 웃음 소리가 제공될 수 있다.
감정 정보는 또한 하나 이상의 사용자들에 대한 미디어 클립들의 목록을 생성하는데 사용될 수 있다. 예를 들어, 해당 사용자의 감정 정보에 근거하여 가장 좋아하는 비디오 클립들과 가장 싫어하는 비디오 클립들의 목록이 생성될 수 있다. 또 다른 구현예에서, 이러한 목록은 사용자의 친구들의 감정 입력과 같은 하나 이상의 사용자들에 근거하여 발생될 수 있다. 감정 정보를 사용하여, 다른 비디오 클립들이 사용자에게 추천될 수 있다. 일 예로서, 사용자가 선호하는 비디오 클립들이 결정되고, 이러한 비디오 클립들 중 하나 이상을 비슷하게 좋아했던 다른 사용자들이 결정된다. 다른 사용자들이 또한 좋아했던 비디오 클립들이 사용자에게 추천될 수 있다. 또 다른 구현예에서, 사용자가 가장 재미있어 한 비디오 클립들과 관련된 인물들 및/또는 오브젝트들이 결정될 수 있다. 이러한 인물들 및/또는 오브젝트들을 포함하는 다른 비디오 클립들이 사용자에게 추천될 수 있다.
하나 이상의 사용자들로부터의 감정 정보가 또한 미디어를 현재 재생하고 있는 사용자에게 제공될 수 있다. 도 2b에 예시된 디바이스(230)의 피드백 부분(234)에 제시된 바와 같이, 현재 재생되고 있는 미디어에 대응하는 감정 정보의 그래프가 제공될 수 있다. 이러한 정보는 미디어를 보는 사람으로 하여금 자신의 감정 정보를 제공하도록 자극할 수 있다.
도 6은 예시적 구현예에 따른 컴퓨터 시스템의 블록도이다. 컴퓨터 시스템 혹은 컴퓨팅 디바이스(600)는 미디어 플레이어(108), 감정 입력 모듈(110), 미디어 서버(104), 그리고/또는 감정 서버(106)를 구현하기 위해 사용될 수 있다. 컴퓨팅 시스템(600)은 정보를 전달하기 위한 버스(605) 혹은 다른 통신 컴포넌트, 그리고 정보를 프로세싱하기 위해 버스(605)에 결합되는 프로세서(610)를 포함한다. 컴퓨팅 시스템(600)은 또한 정보 그리고 프로세서(610)에 의해 실행될 명령들을 저장하기 위해 버스(605)에 결합되는 메인 메모리(615)(예를 들어, 랜덤 액세스 메모리(RAM) 또는 다른 동적 저장 디바이스)를 포함한다. 메인 메모리(615)는 또한 프로세서(610)에 의한 명령들의 실행 동안 위치 정보, 임시 변수들, 혹은 다른 중간 정보를 저장하기 위해 사용될 수 있다. 컴퓨팅 시스템(600)은 또한, 프로세서(610)를 위한 명령들 및 정적 정보를 저장하기 위해 버스(605)에 결합되는 판독 전용 메모리(ROM)(610) 혹은 다른 정적 저장 디바이스를 포함할 수 있다. 솔리드 스테이트 디바이스(solid state device), 자기 디스크 혹은 광학 디스크와 같은 저장 디바이스(625)는 정보 및 명령들을 지속적으로 저장하기 위해 버스(605)에 결합된다.
컴퓨팅 시스템(600)은 사용자에게 정보를 디스플레이하기 위해 버스(605)를 통해 디스플레이(635)(예를 들어, 액정 디스플레이(liquid crystal display), 혹은 능동 매트릭스 디스플레이(active matrix display))에 결합될 수 있다. 입력 디바이스(630)(예를 들어, 알파뉴메릭 키(alphanumeric key)들 및 다른 키들을 포함하는 키보드)는 프로세서(610)에 정보 및 커맨드 선택을 전달하기 위해 버스(605)에 결합될 수 있다. 또 다른 구현예에서, 입력 디바이스(630)는 터치 스크린 디스플레이(635)를 갖는다. 입력 디바이스(630)는, 방향 정보 및 커맨드 선택을 프로세서(610)에 전달하기 위해 그리고 디스플레이(635) 상의 커서 움직임을 제어하기 위해, 마우스, 트랙볼, 혹은 커서 방향 키와 같은 커서 제어부를 포함할 수 있다.
다양한 구현예들에 따르면, 본 명세서에서 설명되는 예시적인 구현예들을 실현시키는 프로세스들은, 프로세서(610)가 메인 메모리(615)에 포함된 일정 배열의 명령들을 실행하는 것에 응답하여, 컴퓨팅 시스템(600)에 의해 구현될 수 있다. 이러한 명령들은 저장 디바이스(625)와 같은 또 다른 컴퓨터-판독가능 매체로부터 메인 메모리(615)로 판독될 수 있다. 메인 메모리(615)에 포함된 일정 배열의 명령들의 실행은 컴퓨팅 시스템(600)으로 하여금 본 명세서에서 설명되는 예시적인 프로세스들을 수행하도록 한다. 메인 메모리(615)에 포함된 명령들을 실행하기 위해 다중-프로세싱 구성의 하나 이상의 프로세서들이 또한 사용될 수 있다. 대안적 구현예들에서는, 하드-와이어링된 회로(hard-wired circuitry)가 예시적 구현예들을 실행하기 위해 소프트웨어 명령과 함께 혹은 소프트웨어 명령 대신에 사용될 수 있다. 따라서, 구현예들은 하드웨어 회로와 소프트웨어의 임의의 특정 조합으로만 한정되지 않는다.
예시적 컴퓨팅 시스템이 도 6에서 설명되었지만, 본 명세서에서 설명되는 주된 내용 및 기능적 동작들의 구현예들은 다른 타입의 디지털 전자 회로 내에서 구현될 수 있거나, 혹은 컴퓨터 소프트웨어, 펌웨어, 혹은 하드웨어로 구현될 수 있는바, 여기에는 본 명세서에서 개시되는 구조들 및 그 구조적 등가물이 포함되며, 또는 이들의 하나 이상의 조합으로 구현될 수 있다.
본 명세서에서 설명되는 주된 내용 및 동작들의 구현예들은 디지털 전자 회로 내에서 구현될 수 있거나, 혹은 컴퓨터 소프트웨어, 펌웨어, 혹은 하드웨어로 구현될 수 있는바, 여기에는 본 명세서에서 개시되는 구조들 및 그 구조적 등가물이 포함되며, 또는 이들의 하나 이상의 조합으로 구현될 수 있다. 본 명세서에서 설명되는 주된 내용의 구현예들은 하나 이상의 컴퓨터 프로그램으로서 구현될 수 있는바, 즉, 데이터 프로세싱 장치에 의한 실행을 위해 혹은 데이터 프로세싱 장치의 동작을 제어하기 위해 하나 이상의 컴퓨터 저장 매체에 인코딩되는 컴퓨터 프로그램 명령들의 하나 이상의 모듈들로서 구현될 수 있다. 대안적으로 혹은 추가적으로, 프로그램 명령들은 인위적으로-발생된 전파 신호에 인코딩될 수 있는바, 예를 들어, 머신에 의해 발생되는 전기적, 광학적, 혹은 전자기적 신호에 인코딩될 수 있고, 이러한 신호는 데이터 프로세싱 장치에 의한 실행을 위해서 적절한 수신기 장치로 전송하기 위해 정보를 인코딩하도록 발생된다. 컴퓨터 저장 매체는, 컴퓨터-판독가능 저장 디바이스, 컴퓨터-판독가능 저장 기판, 랜덤 혹은 직렬 액세스 메모리 어레이 혹은 디바이스, 또는 이들의 하나 이상의 조합일 수 있거나 이들 디바이스들에 포함될 수 있다. 더욱이, 컴퓨터 저장 매체가 전파 신호가 아닌 경우에, 컴퓨터 저장 매체는 인위적으로-발생된 전파 신호에 인코딩되는 컴퓨터 프로그램 명령들의 소스 또는 목적지일 수 있다. 컴퓨터 저장 매체는 또한 하나 이상의 개별적인 컴포넌트들 또는 매체들(예를 들어, 복수의 CD들, 디스크들, 혹은 다른 저장 디바이스들)일 수 있거나 이들 매체에 포함될 수 있다. 이에 따라, 컴퓨터 저장 매체는 유형의 저장 매체임과 동시에 비일시적 저장 매체이다.
본 명세서에 설명되는 동작들은 하나 이상의 컴퓨터-판독가능한 저장 디바이스에 저장되거나 또는 다른 소스로부터 수신된 데이터에 관해 데이터 프로세싱 장치에 의해 수행되는 동작들로 구현될 수 있다.
용어 "데이터 프로세싱 장치" 또는 "컴퓨팅 디바이스"는 데이터를 프로세싱하기 위한 모든 종류의 장치, 디바이스 및 머신을 포괄하는바, 예를 들어, 여기에는 프로그래밍가능한 프로세서, 컴퓨터, 하나의 칩 또는 다수의 칩 상의 시스템, 또는 이들의 조합이 포함된다. 이러한 장치는 특수 목적 로직 회로, 예를 들어, FPGA(Field Programmable Gate Array) 또는 ASIC(Application-Specific Integrated Circuit)을 포함할 수 있다. 이러한 장치는, 하드웨어에 추가하여, 해당 컴퓨터 프로그램에 대한 실행 환경을 생성하는 코드를 포함할 수 있는바, 예를 들어, 프로세서 펌웨어, 프로토콜 스택(protocol stack), 데이터베이스 관리 시스템, 오퍼레이팅 시스템(operating system), 크로스-플랫폼 런타임 환경(cross-platform runtime environment), 가상 머신(virtual machine), 또는 이들의 하나 이상의 조합을 구성하는 코드를 포함할 수 있다. 이러한 장치 및 실행 환경은 웹 서비스, 분산형 컴퓨팅 인프라스트럭처(distributed computing infrastructure) 및 그리드 컴퓨팅 인프라스트럭처(grid computing infrastructure)와 같은 여러 가지 상이한 컴퓨팅 모델 인프라스트럭처를 실현할 수 있다.
(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 스크립트, 또는 코드로서 또한 알려진) 컴퓨터 프로그램은 컴파일링 혹은 해석된 언어들, 또는 선언 혹은 절차 언어들을 포함하는 임의 형태의 프로그래밍 언어로 기입될 수 있고, 이러한 프로그램은 임의의 형태로 배치될 수 있는바, 예를 들어, 독립 프로그램으로서 배치될 수 있거나 또는 모듈, 컴포넌트, 서브루틴, 오브젝트 혹은 컴퓨팅 환경에서의 사용에 대해 적합한 다른 유닛으로서 배치될 수 있다. 컴퓨터 프로그램은 파일 시스템 내에서의 파일에 대응할 수는 있지만 반드시 대응할 필요는 없다. 프로그램은 다른 프로그램 또는 데이터(예를 들어, 마크업 언어 문서로 저장된 하나 이상의 스크립트)를 보유하는 파일의 일부에 저장될 수 있거나, 해당 프로그램 전용의 단일 파일에 저장될 수 있거나, 또는 다수의 조정된 파일들(예를 들어, 하나 이상의 모듈들, 서브-프로그램들, 또는 코드 부분을 저장하는 파일들)에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 또는 다수의 사이트들에 걸쳐 분산되어 있는 그리고 통신 네트워크에 의해 상호연결된 다수의 컴퓨터들에서 실행되거나 또는 하나의 컴퓨터에서 실행되도록 배치될 수 있다.
컴퓨터 프로그램을 실행하는데 적합한 프로세서들은, 예를 들어, 범용 및 특수 목적 마이크로프로세서들 그리고 임의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독-전용 메모리 또는 랜덤 액세스 메모리 또는 이들 둘 모두로부터 명령들 및 데이터를 수신한다. 컴퓨터의 본질적인 요소는 명령에 따라 동작을 수행하는 프로세서, 그리고 명령 및 데이터를 저장하는 하나 이상의 메모리 디바이스이다. 일반적으로, 컴퓨터는 또한 데이터를 저장하기 위한 하나 이상의 대용량 저장 디바이스들(예를 들어, 자기 디스크, 광자기 디스크 또는 광디스크)을 포함하거나 또는 이들 디바이스로부터 데이터를 수신하거나 또는 이들 디바이스에 데이터를 전달하거나 또는 이들 디바이스에 이러한 두 가지 동작 모두를 수행하도록 동작가능하게 결합된다. 그러나, 컴퓨터는 이러한 디바이스들을 구비할 필요가 없을 수도 있다. 더욱이, 컴퓨터는 또 하나의 다른 디바이스, 예를 들어, 단지 몇 가지 언급하면, 모바일 전화기, 개인 휴대 단말기(Personal Digital Assistant, PDA), 모바일 오디오 혹은 비디오 플레이어, 게임 콘솔(game console), 위성 위치확인 시스템(Global Positioning System, GPS) 수신기, 또는 휴대용 저장 디바이스(예를 들어, 범용 직렬 버스(Universal Serial Bus, USB) 플래시 드라이브)에 매립될 수 있다. 컴퓨터 프로그램 명령들 및 데이터를 저장하는데 적합한 디바이스들은 모든 형태의 비휘발성 메모리, 매체 및 메모리 디바이스들을 포함하는바, 여기에는 예를 들어, 반도체 메모리 디바이스, 예컨대, EPROM, EEPROM 및 플래시 메모리 디바이스들; 자기 디스크, 예컨대, 내부 하드 디스크 또는 탈착가능 디스크; 광자기 디스크; 그리고 CD-ROM 및 DVD-ROM 디스크가 포함된다. 이러한 프로세서 및 메모리는 특수 목적 로직 회로에 의해 보충될 수 있거나 혹은 특수 목적 로직 회로에 통합될 수 있다.
사용자와의 상호대화를 제공하기 위해, 본 명세서에 설명되는 주된 내용의 구현예들은 정보를 사용자에게 디스플레이하기 위한 디스플레이 디바이스, 예를 들어, CRT(Cathode Ray Tube) 또는 LCD(Liquid Crystal Display) 모니터, 그리고 사용자로 하여금 컴퓨터에 입력을 제공할 수 있게 하는 키보드 및 포인팅 디바이스(pointing device), 예를 들어, 마우스 또는 트랙볼을 구비하는 컴퓨터 상에서 구현될 수 있다. 다른 종류의 디바이스들이 또한 사용자와의 상호대화를 제공하기 위해 사용될 수 있는바, 예를 들어, 사용자에게 제공되는 피드백은 임의 형태의 감각적 피드백, 예를 들어, 시각적 피드백, 청각적 피드백, 또는 촉각적 피드백일 수 있고, 그리고 사용자로부터의 입력은 음향적, 음성적 또는 촉각적 입력을 포함하는 임의의 형태로 수신될 수 있다.
본 명세서가 다수의 특정 구현예의 세부사항들을 포함하고 있지만, 이것은 임의의 발명의 범위 혹은 청구될 수 있는 것의 범위에 관한 한정적 의미로서 해석돼서는 안 되며, 오히려 이것은 특정 발명의 특정 구현예들에 특정된 특징들을 설명하는 것으로서 해석돼야 한다. 개별적 구현예들에 관해서 본 명세서에서 설명된 어떤 특징들은 또한 조합되어 단일 구현예로 구현될 수 있다. 역으로, 단일 구현예에 관해서 설명된 다양한 특징들은 또한 다수의 구현예들로 개별적으로 구현될 수 있거나 혹은 임의의 적절한 서브조합으로 구현될 수 있다. 더욱이, 이러한 특징들이 앞에서 특정 조합으로 동작하는 것으로서 설명될 수 있고, 심지어 처음에 이와 같이 기재될 수 있을지라도, 기재된 조합으로부터의 하나 이상의 특징들은 일부 경우에 있어서 이러한 조합으로부터 배제될 수 있고, 기재된 조합은 서브조합 혹은 서브조합의 변형에 관한 것일 수 있다.
마찬가지로, 도면에서는 동작들이 특정 순서로 제시되고 있지만, 이러한 동작들이 바람직한 결과를 달성하기 위해 제시된 특정 순서로 수행되어야 함 또는 순차적으로 수행되어야 함 또는 예시된 모든 동작들이 수행되어야 함을 요구하는 것으로서 이해돼서는 안 된다. 특정 상황에서는, 멀티태스킹(multitasking) 및 병렬 프로세싱(parallel processing)이 이로울 수 있다. 더욱이, 앞서 설명된 구현예들에서의 다양한 시스템 컴포넌트들의 분리는 모든 구현예들에서 이러한 분리를 요구하는 것으로서 이해돼서는 안 되며, 설명되는 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품에 함께 통합될 수 있거나 혹은 다수의 소프트웨어 제품들에 패키징될 수 있음을 이해해야 한다.
이에 따라, 본 명세서의 주된 내용의 특정 구현예들이 기술되었다. 아래의 특허청구범위 내에서 다른 구현예들이 존재한다. 일부 경우에 있어서, 청구항에 기재되는 동작들은 서로 다른 순서로 수행될 수 있으며, 여전히 바람직한 결과를 달성할 수 있다. 추가적으로, 첨부되는 도면에서 제시되는 프로세스들은 바람직한 결과의 달성을 위해 그 제시된 특정 순서 혹은 순차적 순서를 반드시 요구하지 않는다. 특정 구현예들에서는, 멀티태스킹 및 병렬 프로세싱이 이로울 수 있다.

Claims (20)

  1. 감정 입력(sentimental input)을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 표시 및 감정 식별자를 포함하는 사용자 입력 데이터를 수신하는 단계와, 여기서 상기 사용자 입력 데이터는 미디어(media)와 관련되고, 상기 관련된 미디어는 복수의 오브젝트(object)들을 포함하며;
    각각의 사용자 입력 데이터에 대해, 상기 사용자 입력 데이터를 상기 관련된 미디어의 일부분과 관련시키는 단계와;
    상기 관련된 미디어의 상기 일부분에 근거하여 상기 사용자 입력 데이터를 집합(aggregating)시키는 단계와; 그리고
    디스플레이되는 상기 오브젝트들 중 적어도 하나의 오브젝트에 대한 감정 입력을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 상기 표시 및 상기 감정 식별자에 근거하여 평균 감정 값을 프로세싱 회로(processing circuit)를 사용하여 결정하는 단계를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 평균 감정 값은 긍정적인 감정 식별자와 관련된 사용자 데이터만을 포함하는 것을 특징으로 하는 방법.
  3. 제1항에 있어서,
    상기 평균 감정 값은 부정적인 감정 식별자와 관련된 사용자 데이터만을 포함하는 것을 특징으로 하는 방법.
  4. 제1항에 있어서,
    상기 미디어를 연속된 시간 부분들로 분할하는 단계와; 그리고
    감정 입력을 선택하기 위해 사용된 시간의 양 혹은 압력의 양을 나타내는 상기 표시 및 상기 감정 식별자에 근거하여 상기 미디어의 각각의 시간 부분에 대한 평균 감정 값을 결정하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  5. 제1항에 있어서,
    각각의 사용자 입력 데이터에 대해, 상기 사용자 입력 데이터와 관련된 오브젝트를 결정하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  6. 제5항에 있어서,
    상기 사용자 입력과 관련된 오브젝트를 결정하는 단계는,
    상기 관련된 미디어의 상기 일부분에서 말하고 있는 인물을 결정하는 것과; 그리고
    상기 사용자 입력을 상기 말하고 있는 인물과 관련시키는 것을 포함하는 것을 특징으로 하는 방법.
  7. 제5항에 있어서,
    상기 사용자 입력과 관련된 오브젝트를 결정하는 단계는,
    동일한 감정 식별자를 갖는 사용자 입력의 세트를 수집하는 것과, 여기서 사용자 입력의 상기 세트는 상기 미디어와 관련되며;
    상기 세트 내의 각각의 사용자 입력에 대해, 상기 사용자 입력과 관련된 상기 미디어의 상기 일부분에 존재하는 모든 오브젝트들을 결정하는 것과;
    각각의 오브젝트에 대해, 상기 오브젝트와 관련된 카운터(counter)를 증분(incrementing)시키는 것과; 그리고
    상기 세트 내의 각각의 사용자 입력을 가장 큰 카운터와 관련된 오브젝트와 관련시키는 것을 포함하는 것을 특징으로 하는 방법.
  8. 제5항에 있어서,
    상기 사용자 입력과 관련된 오브젝트를 결정하는 단계는,
    다른 복수의 사용자들로부터의 정보를 원격 자원(remote resource)으로부터 수신하는 것과, 여기서 상기 원격 자원과 상기 미디어는 서로 다른 것이며;
    상기 정보에서 참조되는 오브젝트를 결정하는 것과; 그리고
    상기 사용자 입력을 상기 결정된 오브젝트와 관련시키는 것을 포함하는 것을 특징으로 하는 방법.
  9. 제5항에 있어서,
    상기 사용자 입력과 관련된 오브젝트를 결정하는 단계는,
    상기 감정 입력이 선택된 위치를 나타내는 표시를 수신하는 것과; 그리고
    상기 위치와 관련된 오브젝트를 식별하는 것을 포함하는 것을 특징으로 하는 방법.
  10. 제1항에 있어서,
    상기 집합된 사용자 입력에 근거하여 웃음 소리(laugh track)를 발생시키는 단계를 더 포함하는 것을 특징으로 하는 방법.
  11. 제1항에 있어서,
    집합된 사용자 입력에 근거하여 미디어 클립(media clip)들의 목록(list)을 발생시키는 단계를 더 포함하는 것을 특징으로 하는 방법.
  12. 제1항에 있어서,
    상기 집합된 사용자 입력에 근거하여 긍정적인 감정 라인(positive sentiment line)과 부정적인 감정 라인(negative sentiment line)을 포함하는 상기 관련된 미디어의 타임 라인(time line)을 발생시키는 단계를 더 포함하는 것을 특징으로 하는 방법.
  13. 하나 이상의 프로세서들을 포함하는 시스템으로서,
    상기 프로세서들은,
    감정 입력을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 표시 및 감정 식별자를 포함하는 사용자 입력 데이터를 수신하고, 여기서 상기 사용자 입력 데이터는 미디어와 관련되며, 상기 관련된 미디어는 복수의 오브젝트들을 포함하고;
    각각의 사용자 입력 데이터에 대해, 상기 사용자 입력 데이터를 상기 관련된 미디어의 일부분과 관련시키고;
    상기 관련된 미디어의 상기 일부분에 근거하여 상기 사용자 입력 데이터를 집합시키고; 그리고
    상기 오브젝트들 중 적어도 하나의 오브젝트에 대한 감정 입력을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 상기 표시 및 상기 감정 식별자에 근거하여 평균 감정 값을 결정하도록 되어 있는 것을 특징으로 하는 시스템.
  14. 제13항에 있어서,
    상기 하나 이상의 프로세서들은 또한, 각각의 사용자 입력 데이터에 대해 상기 사용자 입력 데이터와 관련된 오브젝트를 결정하도록 되어 있는 것을 특징으로 하는 시스템.
  15. 제13항에 있어서,
    상기 하나 이상의 프로세서들은 또한,
    상기 관련된 미디어의 상기 일부분에서 말하고 있는 인물을 결정하고; 그리고
    상기 사용자 입력을 상기 말하고 있는 인물과 관련시키도록 되어 있는 것을 특징으로 하는 시스템.
  16. 제13항에 있어서,
    상기 하나 이상의 프로세서들은 또한,
    다른 복수의 사용자들로부터의 정보를 원격 자원으로부터 수신하고, 여기서 상기 원격 자원과 상기 미디어는 서로 다른 것이며;
    상기 정보에서 참조되는 오브젝트를 결정하고; 그리고
    상기 사용자 입력을 상기 결정된 오브젝트와 관련시키도록 되어 있는 것을 특징으로 하는 시스템.
  17. 제13항에 있어서,
    상기 하나 이상의 프로세서들은 또한,
    상기 감정 입력이 선택된 위치를 나타내는 표시를 수신하고; 그리고
    상기 위치와 관련된 오브젝트를 식별하도록 되어 있는 것을 특징으로 하는 시스템.
  18. 명령들이 저장되어 있는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령들은,
    감정 입력을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 표시 및 감정 식별자를 포함하는 사용자 입력 데이터를 수신하기 위한 명령들과, 여기서 상기 사용자 입력 데이터는 미디어와 관련되며, 상기 관련된 미디어는 복수의 오브젝트들을 포함하고;
    각각의 사용자 입력 데이터에 대해, 상기 사용자 입력 데이터를 상기 관련된 미디어의 일부분과 관련시키기 위한 명령들과;
    상기 관련된 미디어의 상기 일부분에 근거하여 상기 사용자 입력 데이터를 집합시키기 위한 명령들과; 그리고
    상기 오브젝트들 중 적어도 하나의 오브젝트에 대한 감정 입력을 선택하기 위해 사용된 시간의 양과 압력의 양 중 적어도 하나의 양을 나타내는 상기 표시 및 상기 감정 식별자에 근거하여 평균 감정 값을 결정하기 위한 명령들을 포함하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능 매체.
  19. 제18항에 있어서,
    상기 명령들은, 각각의 사용자 입력 데이터에 대해 상기 사용자 입력 데이터와 관련된 오브젝트를 결정하기 위한 명령들을 더 포함하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능 매체.
  20. 제18항에 있어서,
    상기 명령들은,
    상기 관련된 미디어의 상기 일부분에서 말하고 있는 인물을 결정하고; 그리고
    상기 사용자 입력을 상기 말하고 있는 인물과 관련시키기 위한 명령들을 더 포함하는 것을 특징으로 하는 비일시적 컴퓨터 판독가능 매체.
KR1020147003314A 2011-08-08 2012-08-07 미디어 내의 오브젝트와 관련된 감정 정보 KR101949308B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/205,240 US8719277B2 (en) 2011-08-08 2011-08-08 Sentimental information associated with an object within a media
US13/205,240 2011-08-08
PCT/US2012/049838 WO2013022879A1 (en) 2011-08-08 2012-08-07 Sentimental information associated with an object within media

Publications (2)

Publication Number Publication Date
KR20140063590A KR20140063590A (ko) 2014-05-27
KR101949308B1 true KR101949308B1 (ko) 2019-02-18

Family

ID=47668879

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147003314A KR101949308B1 (ko) 2011-08-08 2012-08-07 미디어 내의 오브젝트와 관련된 감정 정보

Country Status (5)

Country Link
US (4) US8719277B2 (ko)
EP (1) EP2742490A4 (ko)
KR (1) KR101949308B1 (ko)
CN (1) CN103703465A (ko)
WO (1) WO2013022879A1 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013033375A (ja) * 2011-08-02 2013-02-14 Sony Corp 情報処理装置、情報処理方法、および、プログラム
US8789120B2 (en) * 2012-03-21 2014-07-22 Sony Corporation Temporal video tagging and distribution
US9483118B2 (en) * 2013-12-27 2016-11-01 Rovi Guides, Inc. Methods and systems for selecting media guidance functions based on tactile attributes of a user input
JP6484079B2 (ja) * 2014-03-24 2019-03-13 株式会社 ハイディープHiDeep Inc. 感性伝達方法及びそのための端末機
US9438480B2 (en) * 2014-03-24 2016-09-06 Ca, Inc. Generating a representation of the status of a data processing system based on empirical operations metrics and derived sentiment metrics
EP3179354B1 (en) 2014-08-26 2020-10-21 Huawei Technologies Co., Ltd. Method and terminal for processing media file
CN107111359B (zh) * 2014-11-07 2022-02-11 索尼公司 信息处理***、控制方法和计算机可读存储介质
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
US20160182954A1 (en) 2014-12-18 2016-06-23 Rovi Guides, Inc. Methods and systems for generating a notification
US20160191957A1 (en) * 2014-12-31 2016-06-30 Opentv, Inc. Lull management for content delivery
EP3278543A4 (en) 2015-03-30 2019-02-13 Twiin Inc. SYSTEMS AND METHODS FOR GENERATING ASSIGNMENT OF CONSCIOUSNESS
US10796319B2 (en) 2015-04-07 2020-10-06 International Business Machines Corporation Rating aggregation and propagation mechanism for hierarchical services and products
CN104853257A (zh) * 2015-04-30 2015-08-19 北京奇艺世纪科技有限公司 字幕显示方法和装置
US9571891B2 (en) * 2015-06-30 2017-02-14 Brooke Curtis PALMER System and apparatus enabling conversation between audience and broadcast or live-streamed media
US9916866B2 (en) * 2015-12-22 2018-03-13 Intel Corporation Emotional timed media playback
CN109660853B (zh) * 2017-10-10 2022-12-30 腾讯科技(北京)有限公司 视频直播中的互动方法、装置及***
CN111414506B (zh) * 2020-03-13 2023-09-19 腾讯科技(深圳)有限公司 基于人工智能情绪处理方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100153210A1 (en) 2008-12-15 2010-06-17 Electronics And Telecommunications Research Institute Apparatus and method for selecting online advertisement based on contents sentiment and intention analysis

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4646145A (en) * 1980-04-07 1987-02-24 R. D. Percy & Company Television viewer reaction determining systems
US5778135A (en) * 1994-12-30 1998-07-07 International Business Machines Corporation Real-time edit control for video program material
KR100347710B1 (ko) * 1998-12-05 2002-10-25 엘지전자주식회사 등장인물들의관계중심동영상검색데이터구성방법및검색방법
US8302127B2 (en) * 2000-09-25 2012-10-30 Thomson Licensing System and method for personalized TV
US20060129458A1 (en) 2000-10-12 2006-06-15 Maggio Frank S Method and system for interacting with on-demand video content
US6985913B2 (en) * 2000-12-28 2006-01-10 Casio Computer Co. Ltd. Electronic book data delivery apparatus, electronic book device and recording medium
US20020140804A1 (en) * 2001-03-30 2002-10-03 Koninklijke Philips Electronics N.V. Method and apparatus for audio/image speaker detection and locator
US20020143901A1 (en) * 2001-04-03 2002-10-03 Gtech Rhode Island Corporation Interactive media response processing system
GB2379016A (en) 2001-07-27 2003-02-26 Hewlett Packard Co Portable apparatus monitoring reaction of user to music
US6585521B1 (en) * 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
RU24303U1 (ru) 2002-02-12 2002-07-27 Открытое акционерное общество "Телекомпания НТВ" Система для голосования
US8896575B2 (en) * 2002-11-04 2014-11-25 Neonode Inc. Pressure-sensitive touch screen
US8229888B1 (en) * 2003-10-15 2012-07-24 Radix Holdings, Llc Cross-device playback with synchronization of consumption state
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
US7672864B2 (en) 2004-01-09 2010-03-02 Ricoh Company Ltd. Generating and displaying level-of-interest values
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US20070214471A1 (en) * 2005-03-23 2007-09-13 Outland Research, L.L.C. System, method and computer program product for providing collective interactive television experiences
WO2006126116A2 (en) * 2005-05-23 2006-11-30 Koninklijke Philips Electronics N.V. Processing a user input signal for determining a content selection criterion
US7831112B2 (en) * 2005-12-29 2010-11-09 Mavs Lab, Inc. Sports video retrieval method
US7844482B1 (en) * 2006-02-28 2010-11-30 Intuit Inc. Mechanism for collecting feedback from users
WO2007115224A2 (en) * 2006-03-30 2007-10-11 Sri International Method and apparatus for annotating media streams
CN101454771A (zh) * 2006-03-31 2009-06-10 依玛奇灵控股有限公司 基于使用多媒体调查特征匹配以划分和标记个体的***和方法
US8572169B2 (en) * 2006-08-28 2013-10-29 Myspace, Llc System, apparatus and method for discovery of music within a social network
US8099084B2 (en) * 2006-12-31 2012-01-17 Ektimisi Semiotics Holdings, Llc Method, system, and computer program product for creating smart services
JP4539712B2 (ja) * 2007-12-03 2010-09-08 ソニー株式会社 情報処理端末、情報処理方法、およびプログラム
US8091103B2 (en) 2007-07-22 2012-01-03 Overlay.Tv Inc. Server providing content directories of video signals and linkage to content information sources
US8275764B2 (en) 2007-08-24 2012-09-25 Google Inc. Recommending media programs based on media program popularity
US8347326B2 (en) 2007-12-18 2013-01-01 The Nielsen Company (US) Identifying key media events and modeling causal relationships between key events and reported feelings
US8621502B2 (en) 2007-12-21 2013-12-31 Microsoft Corporation Obtaining user reactions to video
US7889073B2 (en) 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
US9152258B2 (en) * 2008-06-19 2015-10-06 Neonode Inc. User interface for a touch screen
US8925001B2 (en) * 2008-09-12 2014-12-30 At&T Intellectual Property I, L.P. Media stream generation based on a category of user expression
US8225348B2 (en) * 2008-09-12 2012-07-17 At&T Intellectual Property I, L.P. Moderated interactive media sessions
CN102224500A (zh) 2008-09-24 2011-10-19 法国电信公司 用于简化内容分析的利用简约描述调色板的内容分类
US9129008B1 (en) * 2008-11-10 2015-09-08 Google Inc. Sentiment-based classification of media content
US8301444B2 (en) * 2008-12-29 2012-10-30 At&T Intellectual Property I, L.P. Automated demographic analysis by analyzing voice activity
US8386935B2 (en) 2009-05-06 2013-02-26 Yahoo! Inc. Content summary and segment creation
KR101604693B1 (ko) * 2009-07-01 2016-03-18 엘지전자 주식회사 이동 단말기 및 이것의 멀티미디어 콘텐츠 제어 방법
KR20110028834A (ko) * 2009-09-14 2011-03-22 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 터치 압력을 이용한 사용자 인터페이스 제공 방법 및 장치
US8438592B2 (en) * 2009-12-22 2013-05-07 Qualcomm Incorporated Dynamic live content promoter for digital broadcast TV
KR101084782B1 (ko) * 2010-05-06 2011-11-21 삼성전기주식회사 터치스크린 장치
US20110295848A1 (en) * 2010-05-28 2011-12-01 Peters Michael D Computer-implemented system and method for determining a response to a stimulus
US8650635B2 (en) * 2010-12-16 2014-02-11 Blackberry Limited Pressure sensitive multi-layer passwords
US8543454B2 (en) * 2011-02-18 2013-09-24 Bluefin Labs, Inc. Generating audience response metrics and ratings from social interest in time-based media
WO2012135048A2 (en) * 2011-04-01 2012-10-04 Votini Llc Systems and methods for capturing event feedback
US8508494B2 (en) * 2011-06-01 2013-08-13 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US9137573B2 (en) * 2011-06-06 2015-09-15 Netgear, Inc. Systems and methods for managing media content based on segment-based assignment of content ratings
US20150106155A1 (en) * 2011-06-08 2015-04-16 Maria Guadalupe Castellanos Determining and Visualizing Social Media Expressed Sentiment
US8976128B2 (en) * 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
KR101943436B1 (ko) * 2012-04-18 2019-01-31 삼성전자주식회사 압력 감지 방식의 터치 패널 및 이를 구비한 휴대 단말

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100153210A1 (en) 2008-12-15 2010-06-17 Electronics And Telecommunications Research Institute Apparatus and method for selecting online advertisement based on contents sentiment and intention analysis

Also Published As

Publication number Publication date
CN103703465A (zh) 2014-04-02
US20190228029A1 (en) 2019-07-25
KR20140063590A (ko) 2014-05-27
EP2742490A4 (en) 2015-04-08
US11947587B2 (en) 2024-04-02
US20130041905A1 (en) 2013-02-14
US11080320B2 (en) 2021-08-03
US20140207797A1 (en) 2014-07-24
EP2742490A1 (en) 2014-06-18
US8719277B2 (en) 2014-05-06
WO2013022879A1 (en) 2013-02-14
US20210357446A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
KR101949308B1 (ko) 미디어 내의 오브젝트와 관련된 감정 정보
TWI558186B (zh) 基於環境感測之視訊選擇
US9734153B2 (en) Managing related digital content
US9703781B2 (en) Managing related digital content
US20140255003A1 (en) Surfacing information about items mentioned or presented in a film in association with viewing the film
TW201304521A (zh) 提供視訊呈現評論
CN106462623B (zh) 基于内容项使用的歌曲推荐
US9838824B2 (en) Social media processing with three-dimensional audio
CN104769954A (zh) 用于确定观看者对内容元素的反应的方法、装置和***
US11609738B1 (en) Audio segment recommendation
EP3690674A1 (en) Method for recommending video content
CN112883209A (zh) 多媒体数据的推荐方法和处理方法、装置、设备及可读介质
CN108476336A (zh) 识别内容频道的听众的查看特性
WO2023075945A1 (en) Visual tagging and heat-mapping of emotion
CN103942247B (zh) 多媒体资源的信息提供方法及装置
CN104185064B (zh) 媒体文件标识方法和装置
JP6367748B2 (ja) 認識装置、映像コンテンツ提示システム
CN106250533B (zh) 一种面向智能机器人的富媒体播放数据处理方法和装置
CN101460918A (zh) 音乐或者其它内容的一击选择
US9436947B2 (en) Systems and methods for conducting surveys
Uno et al. MALL: A life log based music recommendation system and portable music player
CN110442867B (zh) 图像处理方法、装置、终端及计算机存储介质
Nishida et al. Conversation quantization
Chorianopoulos et al. Social video retrieval: research methods in controlling, sharing, and editing of web video
de Andrade et al. Edge emotion recognition: applying fast Fourier transform on speech Mel spectrograms to classify emotion on a Raspberry Pi for near real-time analytics

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant