KR101562834B1 - context and activity-driven content delivery and interaction - Google Patents

context and activity-driven content delivery and interaction Download PDF

Info

Publication number
KR101562834B1
KR101562834B1 KR1020090117513A KR20090117513A KR101562834B1 KR 101562834 B1 KR101562834 B1 KR 101562834B1 KR 1020090117513 A KR1020090117513 A KR 1020090117513A KR 20090117513 A KR20090117513 A KR 20090117513A KR 101562834 B1 KR101562834 B1 KR 101562834B1
Authority
KR
South Korea
Prior art keywords
content
user
context
management system
package
Prior art date
Application number
KR1020090117513A
Other languages
Korean (ko)
Other versions
KR20100062940A (en
Inventor
빅토리아 엠. 벨로티
Original Assignee
팔로 알토 리서치 센터 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41612390&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR101562834(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 팔로 알토 리서치 센터 인코포레이티드 filed Critical 팔로 알토 리서치 센터 인코포레이티드
Publication of KR20100062940A publication Critical patent/KR20100062940A/en
Application granted granted Critical
Publication of KR101562834B1 publication Critical patent/KR101562834B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명의 일 실시예는 개별-규정 콘텍스트-기반 콘텐트를 사용자에게 전달하는 컴퓨팅 디바이스(computing device)를 제공한다. 이 컴퓨팅 디바이스는 사용자에 관한 콘텍스트 정보의 세트를 수신하고 현재 콘텍스트의 몇몇 양태가 사용자에 의해 수행되는 가능한 액티비티와 연관될 수 있는지의 여부를 결정하기 위해 콘텍스트 정보를 처리한다. 그 다음 컴퓨팅 디바이스는 사용자의 콘텍스트와 현재 액티비티 중 어느 하나 또는 둘 모두가 사용자에 의해 이전에 규정되었던 트리거 조건을 만족하는지의 여부를 결정한다. 만약 그렇다면, 컴퓨팅 디바이스는 콘텍스트 또는 활동에 기초하여 콘텐트 데이터베이스로부터 콘텐트를 선택하여 사용자에게 제공하고, 선택된 콘텐트를 제공한다.One embodiment of the present invention provides a computing device that communicates individual-provision context-based content to a user. The computing device receives the set of contextual information about the user and processes the contextual information to determine whether some aspects of the current context may be associated with a possible activity performed by the user. The computing device then determines whether either or both of the user's context and the current activity satisfy the trigger condition previously prescribed by the user. If so, the computing device selects the content from the content database based on the context or activity, provides it to the user, and provides the selected content.

콘텍스트-기반 콘텐트, 컴퓨팅 디바이스, 콘텍스트 정보, 콘텐트 데이터베이스 Context-based content, computing devices, context information, content databases

Description

콘텍스트 및 액티비티―구동 콘텐트 전달 및 상호작용{CONTEXT AND ACTIVITY-DRIVEN CONTENT DELIVERY AND INTERACTION}CONTEXT AND ACTIVITY-DRIVEN CONTENT DELIVERY AND INTERACTION [0002]

본 발명은 콘텍스트 및 액티비티-구동 콘텐트 전달 및 상호작용에 관한 것이다.The present invention relates to context and activity-driven content delivery and interaction.

본 발명의 일 실시예는 개별-규정 콘텍스트-기반 콘텐트를 사용자에게 전달하는 컴퓨팅 디바이스(computing device)를 제공한다. 이 컴퓨팅 디바이스는 사용자에 관한 콘텍스트 정보의 세트를 수신하고 현재 콘텍스트의 몇몇 양태가 사용자에 의해 수행되는 가능한 액티비티와 연관될 수 있는지의 여부를 결정하기 위해 콘텍스트 정보를 처리한다. 그 다음 컴퓨팅 디바이스는 사용자의 콘텍스트와 현재 액티비티 중 어느 하나 또는 둘 모두가 사용자에 의해 이전에 규정되었던 트리거 조건을 만족하는지의 여부를 결정한다. 만약 그렇다면, 컴퓨팅 디바이스는 콘텍스트 또는 활동에 기초하여 콘텐트 데이터베이스로부터 콘텐트를 선택하여 사용자에게 제공하고, 선택된 콘텐트를 제공한다.One embodiment of the present invention provides a computing device that communicates individual-provision context-based content to a user. The computing device receives the set of contextual information about the user and processes the contextual information to determine whether some aspects of the current context may be associated with a possible activity performed by the user. The computing device then determines whether either or both of the user's context and the current activity satisfy the trigger condition previously prescribed by the user. If so, the computing device selects the content from the content database based on the context or activity, provides it to the user, and provides the selected content.

이런 실시예에 대한 변형으로, 컴퓨팅 디바이스는 사용자가 사용자-규정 콘 텍스트 또는 액티비티-구동 트리거 조건과 연관된 콘텐트를 생성하게 한다. 이렇게 함으로써, 컴퓨팅 디바이스는 사용자에 의해 제공되는 콘텐트를 기록하고, 기록된 콘텐트에 대한 콘텐트 데이터베이스에 콘텐트 엔트리를 생성하고, 콘텐트 엔트리는 다수의 트리거 조건들과 연관될 수 있다. 그 다음, 컴퓨팅 디바이스는 사용자-규정 콘텍스트 또는 액티비티와 콘텐트 엔트리에 대한 트리거 조건을 연관시킨다. 컴퓨팅 디바이스는 사용자 및/또는 사용자 액티비티의 진행 콘텍스트와 콘텐트 엔트리에 대한 미리-규정된 트리거 조건들을 계속 비교한다. 트리거 조건이 충족될 때, 컴퓨팅 디바이스는 연관된 콘텐트를 검색하고 이를 사용자에게 제공한다.In a variation on this embodiment, the computing device allows a user to generate content associated with a user-defined con- text or activity-driven trigger condition. By doing so, the computing device records the content provided by the user, creates a content entry in the content database for the recorded content, and the content entry can be associated with a number of trigger conditions. The computing device then associates a trigger condition for the content with the user-defined context or activity. The computing device continues to compare pre-defined trigger conditions for the content entry with the user's and / or user's activity's progress context. When the trigger condition is met, the computing device retrieves the associated content and provides it to the user.

또 다른 변형에서, 컴퓨팅 디바이스는 사용자가 공유가능한 콘텐트를 생성하게 한다. 이렇게 하기 위해, 컴퓨팅 디바이스는 사용자에 의해 제공되는 콘텐트를 기록하고, 기록된 콘텐트에 대한 콘텐트 패키지를 생성한다. 이 콘텐트 패키지는 기록된 콘텐트를 포함할 수 있고, 다수의 사용자-규정 트리거 조건들을 포함할 수 있다. 사용자는 콘텐트 패키지를 다른 사용자들에게 분배하고/분배하거나 콘텐트 패키지를 공용 서버에 업로딩(uploading)함으로써 다른 사용자들과 콘텐트 패키지를 공유할 수 있다. 또한, 콘텐트 패키지를 다운로드하거나 수신하는 다른 사용자들은 콘텐트 패키지로부터 콘텐트 또는 트리거 조건들을 삽입, 수정, 및/또는 제거하게 한다.In another variation, a computing device allows a user to create shareable content. To do this, the computing device records the content provided by the user and creates a content package for the recorded content. The content package may include recorded content and may include a number of user-defined trigger conditions. A user may share a content package with other users by distributing and / or distributing the content package to other users or by uploading the content package to a public server. In addition, other users downloading or receiving the content package may insert, modify, and / or remove content or trigger conditions from the content package.

이런 실시예들에 대한 변형에서, 컴퓨팅 디바이스는 콘텍스트 또는 콘텍스트 관리자의 액티비티 엔트리를 생성함으로써 콘텍스트를 규정하고, 하나의 세트의 콘텍스트 정보와 콘텍스트 또는 액티비티 엔트리를 연관시킨다.In a variation on these embodiments, the computing device defines the context by creating an activity entry of the context or context manager, and associates the context or activity entry with a set of context information.

본 발명의 실시예들은 사용자에 의해 수행되는 액티비티들에 응답하고, 사용자와 연관된 다수의 환경 팩터들(factors)에 응답하여 사용자에게 오디오 및 비쥬얼 콘텐트의 패키지들을 구성 및 전달하기 위한 콘텐트 관리 시스템을 제공한다. 콘텐트 관리 시스템으로부터 응답을 트리거링(triggering)하는 사용자 액티비티들 및 환경 팩터들은 콘텐트의 주어진 패키지를 인에이블링하기 전에 사용자에 의해 규정된다. 이 콘텐트 관리 시스템은 사용자가 그들의 콘텐트 및 그들의 스케쥴에 관한 책임들을 관리하는데 도움을 주도록 의도된다. 작동 전에, 사용자는 콘텍스트들의 범위에서 전달을 위하여 적당한 음악, 공부 자료, 할일 목록(to-do list), RSS 피드(feed) 또는 임의의 다른 콘텐트일 수 있는 콘텐트를 콘텐트 관리 시스템에 업로드하거나 입력할 수 있다. 그 다음 사용자는 콘텐트가 제공될 수 있는 조건들을, 감지된 콘텍스트 정보(예를 들면, 온도) 또는 사용자-규정 콘텍스트(예를 들면, 사용자 액티비티) 양태에서 지정할 수 있다. 이들 조건들은 콘텐트를 제공하기 위한 트리거들을 표현하고, 하루 중 시간, 일주일 중 날짜, 위치 식별기(예를 들면 "홈") 또는 운송 양식(예를 들면, "기차"), 기타 등과 같은 사용자에게 의미있는 용어들을 사용하여 라벨링(labeling)된다. 사용자는 사용자 및/또는 다른 사용자들 같은, 콘텐트 프리젠테이션에 대한 타켓 청중을 또한 지정할 수 있다.Embodiments of the present invention provide a content management system for responding to activities performed by a user and configuring and delivering packages of audio and visual content to a user in response to a number of environmental factors associated with the user do. User activities and environmental factors that trigger a response from the content management system are defined by the user prior to enabling a given package of content. This content management system is intended to help users manage their content and responsibilities regarding their schedules. Prior to operation, the user may upload or enter content that may be appropriate music, study material, to-do list, RSS feed or any other content for delivery in a range of contexts to the content management system . The user can then specify conditions in which the content may be provided, in the context of sensed context information (e.g., temperature) or in a user-defined context (e.g., user activity). These conditions may represent triggers for providing content and may be meaningful to the user, such as time of day, date of the week, location identifier (e.g., "home") or transportation form Lt; RTI ID = 0.0 > terms. ≪ / RTI > The user may also specify a target audience for the content presentation, such as a user and / or other users.

몇몇 실시예들에서, 사용자는 사용자와 연관되는 낮은-레벨 콘텍스트 정보 양태에서 콘텍스트들 또는 액티비티들을 규정할 수 있다. "콘텍스트" 및 "액티비티들"은 필수적으로 상호 배타적이지 않다. 하나의 실시예에서, 콘텍스트는 하나 이상의 사용자 액티비티들에 기초하거나 포함할 수 있다. 예를 들면, 만약 콘텐트 관 리 시스템이 움직임, 위치, 및 하루의 날짜를 감지할 수 있다면, 사용자는 하루의 특정한 시간에서 하나의 위치로부터 다른 위치로 걸어가기 위한 콘텍스트를 규정할 수 있고, 인간에게 의미있는 용어들(예를 들면, "일하기 위한 걸음", 또는 "몰 주변 걸음")을 사용하여 콘텍스트를 라벨링한다. 또 다른 실시예에서, 사용자는 구내 둘레를 움직이기 위한 콘텍스트를 규정할 수 있고, 인간에게 의미있는 용어인 "원예(gardening)"를 사용하여 콘텍스트를 라벨링한다. 몇몇 실시예들에서, 사용자는 "집중(concentrating)", "감수성이 풍부한(receptive)", 또는 "활동적인(active)" 같은 높은 레벨의 조건들 카테고리 양태의 액티비티를 규정한다. 예를 들면, 사용자는 부주의한 임무들(예를 들면, "일하기 위한 걸음", "몰 주변 걸음")과 연관된 다수의 사용자 규정 콘텍스트들에 기초하여 "감수성이 풍부한"이라 라벨링된 콘텍스트를 규정할 수 있다. 다른 한편, 사용자는 물리적 액티비티들(예를 들면, "조깅", "원예")과 연관된 다수의 사용자 규정 콘텍스트들에 기초하여 "활동적인"으로 라벨링된 콘텍스트를 규정할 수 있다. 그 다음, 사용자는 몇몇 낮은 레벨 콘텍스트들을 포함하는 높은 레벨 조건 카테고리에 기초하여 임의의 콘텐트에 대한 트리거 조건을 규정할 수 있다.In some embodiments, a user may define contexts or activities in a low-level contextual information aspect associated with the user. The "context" and "activities" are not necessarily mutually exclusive. In one embodiment, the context may be based on or comprise one or more user activities. For example, if the content management system can detect movement, location, and day of the day, the user can define a context for walking from one location to another at a particular time of day, Labels the context using meaningful terms (e.g., "step to work", or "mall circumference"). In another embodiment, the user may define a context for moving the perimeter of the premises, and label the context using "gardening " which is a meaningful term for the human being. In some embodiments, a user defines activities of a high level of conditions category aspect, such as "concentrating "," receptive ", or "active ". For example, a user may define a context labeled "susceptible" based on a number of user-defined contexts associated with inattentive tasks (e.g., "steps to work" can do. On the other hand, a user may define an "active" labeled context based on a number of user-defined contexts associated with physical activities (e.g., "jogging" The user can then define a trigger condition for any content based on a high level condition category that includes some low level contexts.

작동 동안, 콘텐트 관리 시스템은 사용자와 연관된 기본 정보를 반영하는 다수의 출력 소스들(예를 들면, 글로벌 위치 결정 시스템(GPS) 디바이스, 또는 가속도계)로부터 낮은 레벨 콘텍스트 정보를 모을 수 있다. 그 다음, 콘텐트 관리 시스템은 사용자와 연관된 이벤트 또는 환경 팩터(예를 들면, "5 P.M. 이후의 기차를 타는")를 설명하는 인간에게 의미있는 용어들로 규정된 추론된 콘텍스트를 결정하 기 위해 이 콘텍스트 정보를 처리한다. 몇몇 실시예들에서, 콘텐트 관리 시스템은 사용자-규정 콘텍스트에 응답하여 제공될 준비가 된 콘텐트를 식별하기 위해 이 콘텍스트를 사용할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템은 원하는 콘텍스트에서 사용자에게 제공될 수 있는 콘텐트를 검색 및/또는 생성하기 위해 사용자-규정된 콘텍스트를 사용할 수 있다.During operation, the content management system may collect low level context information from a number of output sources (e.g., a Global Positioning System (GPS) device, or accelerometer) that reflects the basic information associated with the user. The content management system is then used to determine the inferred context stipulated in terms that are meaningful to humans that describe an event or environment factor associated with the user (e.g., "riding a train after 5 PM & And processes the context information. In some embodiments, the content management system may use this context to identify content that is ready to be provided in response to a user-defined context. In other embodiments, the content management system may use a user-defined context to retrieve and / or generate content that can be presented to a user in a desired context.

콘텐트 관리 시스템의 능력들은 다수의 애플리케이션들에 적용될 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템은 주어진 사용자-규정 콘텍스트 하에서 명령 콘텐트를 제공할 수 있다. 예를 들면, 콘텐트 관리 시스템은 사용자가 버스 또는 기차에서 일하기 위해 통근할 때 사용자에게 비쥬얼 강의들 또는 상호작용식 수업들을 제공할 수 있다. 유사하게, 콘텐트 관리 시스템은 사용자가 일하기 위하여 운전하거나 조깅할 때 사용자에게 오디오-기반 명령 콘텐트를 제공할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템은 사용자가 오랜 날짜의 작업 후 그 또는 그녀의 거실에 들어올 때 사용자에게 엔터테인먼트 콘텐트를 제공할 수 있다.The capabilities of the content management system can be applied to multiple applications. In some embodiments, the content management system may provide command content under a given user-defined context. For example, the content management system may provide visual lectures or interactive lessons to the user when the user commutes to work on a bus or train. Similarly, the content management system may provide audio-based command content to the user when the user is driving or jogging to work. In other embodiments, the content management system may provide entertainment content to the user when the user enters his or her living room after a long day of work.

몇몇 실시예들에서, 사용자는 모바일 디바이스 또는 퍼스널 컴퓨터(PC) 상의 콘텐트 관리 시스템을 사용하여 공유가능한 콘텐트를 생성할 수 있다. 공유가능한 콘텐트는 사용자가 다른 콘텐트 관리 시스템들로부터 다운로드, 수정, 및 공유할 수 있는 콘텐트 패키지이다. 몇몇 실시예들에서, 사용자는 콘텐트 관리 시스템을 사용하여 사용자 생성 또는 수정된 콘텐트를 공유하기 위해 인터넷 웹사이트 상에 콘텐트 패키지를 업로드할 수 있다. 몇몇 다른 실시예들에서, 사용자는 인터넷 웹사이트로부터 콘텐트 패키지를 다운로드할 수 있고, 콘텐트 패키지로부터 콘텐트를 삽입, 수정, 및/또는 제거하기 위해 콘텐트 패키지를 수정할 수 있다.In some embodiments, a user may create a shareable content using a mobile device or a content management system on a personal computer (PC). Shareable content is a content package that a user can download, modify, and share from other content management systems. In some embodiments, a user may upload a content package on an Internet website to share user created or modified content using a content management system. In some other embodiments, a user may download a content package from an Internet web site and modify the content package to insert, modify, and / or remove content from the content package.

몇몇 실시예들에서, 콘텐트 관리 시스템은 원격 계산 장치와 콘텐트를 공유할 수 있다. 예를 들면, 사용자는 콘텐트 관리 시스템 상에 명령 또는 엔터테인먼트 콘텐트 패키지를 생성할 수 있고, 콘텐트가 제공될 수 있을 때 사용자 규정 콘텍스트를 지정하고, 다른 콘텐트 관리 시스템들과 콘텐트 패키지를 공유할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템은 주어진 사용자 규정 콘텍스트 하에서 원격 디바이스에 콘텐트를 통신할 수 있다. 예를 들면, 콘텐트 관리 시스템은 사용자가 늦게 일하는 것을 배우자에게 경고하기 위해 사용자의 배우자의 모바일 전화에 텍스트 메시지 또는 오디오 스트림을 전송할 수 있다. In some embodiments, the content management system may share content with the remote computing device. For example, a user may create a command or entertainment content package on a content management system, specify a user-defined context when the content can be provided, and share the content package with other content management systems. In other embodiments, the content management system may communicate content to a remote device under a given user provisioning context. For example, the content management system may send a text message or audio stream to the user's spouse's mobile phone to warn the spouse that the user is late working.

도 1은 본 발명의 일 실시예에 따른 콘텐트 관리 시스템(100)을 도시한다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 사용자에 의해 수행되는 행동들(actions), 또는 사용자와 연관되는 다른 정보에 응답하여 사용자에게 콘텐트(112)를 제공할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템(100)은 사용자가 콘텐트를 생성 및 저장하게 하고, 콘텐트를 주어진 사용자 규정 콘텍스트와 연관시킨다. 하나의 예에서, 콘텐트 관리 시스템(100)은 "조깅"이라 라벨링된 낮은 레벨 콘텍스트를 포함하는 "활동적인"이라 라벨링된 높은 레벨 콘텍스트에 기초하여 사용자가 조깅할 때 사용자에게 주어진 등급의 정보를 제공할 수 있다. 제 2 예에서, 콘텐트 관리 시스템(100)은 사용자가 일한 후 식품점을 지나 운전할 때 사용자가 식품들을 사도록 리마인드(remind)할 수 있다. 또한, 콘텐트 관리 시스 템(100)은 사용자가 식품점의 대응 통로를 가로질러 걸어갈 때 사용자에게 식품 목록 상의 특수 아이템들을 읽을 수 있다.Figure 1 illustrates a content management system 100 in accordance with an embodiment of the present invention. In some embodiments, content management system 100 may provide content 112 to a user in response to actions performed by the user, or other information associated with the user. In other embodiments, the content management system 100 allows a user to create and store content, and associates the content with a given user-defined context. In one example, the content management system 100 provides the user with a given class of information when the user is jogging based on a high level context labeled "Active" that includes a low level context labeled " can do. In a second example, the content management system 100 may remind the user to buy the food when driving through the food store after the user has worked. In addition, the content management system 100 can read the special items on the food list to the user as the user walks across the response path of the grocery store.

몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 입력 메커니즘(input mechanism)(102), 콘텍스트 관리자(104), 콘텐트 데이터베이스(106), 및 콘텐트 전달 메커니즘(108)을 포함한다. 입력 메커니즘(102)은 입력 디바이스(예를 들면, 키보드 또는 터치 스크린)를 통하여 사용자에 의해 제공된 정보를 포함할 수 있거나, 다수의 입력 소스들(예를 들면, 마이크로폰, 카메라, 움직임 센서, 글로벌 위치 결정 메커니즘, 또는 인터넷 서버)로부터 모아진 콘텍스트 정보를 포함할 수 있는 사용자 입력부(110)를 수용한다.In some embodiments, the content management system 100 includes an input mechanism 102, a context manager 104, a content database 106, and a content delivery mechanism 108. The input mechanism 102 may include information provided by a user via an input device (e.g., a keyboard or touch screen) or may include a plurality of input sources (e.g., a microphone, a camera, A decision mechanism, or an Internet server). ≪ / RTI >

콘텍스트 관리자(104)는 콘텐트(112)가 콘텐트 데이터베이스(106)에 저장되는 방법, 및 콘텐트(112)가 재생을 위해 콘텐트 데이터베이스(106)로부터 선택되는 방법을 제어할 수 있다. 몇몇 실시예들에서, 콘텍스트 관리자(104)는 콘텐트(112)를 포함하는 저장될 콘텐트 패키지 및 콘텐트(112)가 제공될 수 있을 때를 설명하는 대응하는 사용자 규정 콘텍스트를 가진 콘텐트 데이터베이스(106)를 제공함으로써 콘텐트(112)를 생성한다. 응답하여, 콘텐트 데이터베이스(106)는 콘텐트(112)를 저장하고, 특수화된 사용자 규정 콘텍스트와 콘텐트(112)를 연관시킨다. 다른 실시예들에서, 콘텍스트 관리자(104)는 사용자에 의해 수행되는 행동들을 설명하는 사용자 규정 콘텍스트를 가진 콘텐트 데이터베이스(106)를 제공하고, 그 다음 콘텐트 데이터베이스(106)로부터 대응 콘텐트를 수신함으로써 콘텐트 데이터베이스(106)로부터 콘텐트(112)를 검색한다.The context manager 104 may control how the content 112 is stored in the content database 106 and how the content 112 is selected from the content database 106 for playback. In some embodiments, the context manager 104 includes a content database 106 with a content package 112 to be stored that contains the content 112 and a corresponding user provisioning context that describes when the content 112 may be provided. Thereby generating the content 112. [ In response, the content database 106 stores the content 112 and associates the content 112 with a specialized user defined context. In other embodiments, the context manager 104 provides a content database 106 with a user-defined context describing the actions performed by the user, and then receives corresponding content from the content database 106, (112) from the server (106).

콘텐트 전달 메커니즘(108)은 콘텐트(112)가 사용자에게 제공되는 방법을 제어할 수 있다. 몇몇 실시예들에서, 콘텐트 전달 메커니즘(108)은 콘텍스트 관리자(104)가 재생을 위한 콘텐트(112)를 선택할 때 사용자에게 콘텐트(112)를 제공한다. 이들 실시예들의 몇몇 변형들에서, 콘텐트 전달 메커니즘(108)은 사용자에 의해 수행된 행동들, 또는 사용자로부터 수신된 상호작용들에 응답하여 콘텐트(112)를 제공할 수 있다. 예를 들면, 콘텐트 전달 메커니즘(108)이 사용자에 의해 수행된 행동들을 모니터링하고, 사용자가 주어진 임무를 완료하면 후속 임무를 제공하기 위해 진행하도록 콘텐트 전달 메커니즘(108)은 수행하기 위한 임무들의 시퀀스를 사용자에게 제공할 수 있다. 콘텍스트 관리자(104)는 주어진 임무의 완료를 확인하는 사용자의 구두 발언을 모으는 마이크로폰 같은, 입력 메커니즘(102)에 의해 모아진 정보를 모니터링함으로써 사용자가 임무를 완료할 시기를 결정하도록 구성될 수 있다. 제 2 예에서, 콘텐트 전달 메커니즘(108)은 콘텐트 전달 메커니즘(108)이 콘텐트(112)를 제공할 때 사용자로부터의 구두 요청들 또는 응답들에 반응할 수 있다.The content delivery mechanism 108 may control how the content 112 is presented to the user. In some embodiments, the content delivery mechanism 108 provides the content 112 to the user when the context manager 104 selects the content 112 for playback. In some variations of these embodiments, the content delivery mechanism 108 may provide the content 112 in response to actions performed by the user, or interactions received from the user. For example, the content delivery mechanism 108 may be configured to send a sequence of tasks to perform to allow the content delivery mechanism 108 to monitor the actions performed by the user and to proceed to provide a follow-on mission when the user completes a given task Can be provided to the user. The context manager 104 may be configured to determine when the user will complete the task by monitoring information gathered by the input mechanism 102, such as a microphone collecting the user's verbal utterances confirming the completion of a given task. In a second example, the content delivery mechanism 108 may respond to verbal requests or responses from a user when the content delivery mechanism 108 provides the content 112.

모바일 디바이스들은 그들 사용자의 일상 루틴에 이들 디바이스들의 통합을 용이하게 하는 다수의 정보 기반 능력들을 종종 포함한다. 이들 능력들은 사용자와 연관된 콘텍스트 정보를 결정하도록 구성될 수 있고, 모바일 디바이스들은 사용자에게 정보를 제공할 시기 및 방법을 결정하기 위해 이 콘텍스트 정보를 이용하도록 구성될 수 있다. 하나의 실시예에서, "콘텍스트 정보"는 다수의 입력 소스들로부터 컴퓨팅 디바이스에 의해 모아진 입력 데이터로서 규정되고, 사용자와 연관된 기본 정보 및/또는 컴퓨팅 디바이스의 동작 환경을 반영한다. 본 발명의 몇몇 실시예들에서, 콘텍스트 정보는 컴퓨팅 디바이스에 의해 해석되지 않고 다수의 입력 소스들로부터 기록된 데이터이다.Mobile devices often include a number of information-based capabilities that facilitate integration of these devices into their routine. These capabilities may be configured to determine contextual information associated with a user, and mobile devices may be configured to use the contextual information to determine when and how to provide information to the user. In one embodiment, "context information" is defined as input data collected by a computing device from a plurality of input sources, and reflects the basic information associated with the user and / or the operating environment of the computing device. In some embodiments of the invention, the context information is data interpreted by a computing device and recorded from multiple input sources.

본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 사용자와 연관된 콘텍스트 정보를 결정할 수 있고, 상기 정보는 하기 항목을 포함한다:In some embodiments of the present invention, the content management system 100 may determine context information associated with a user, the information comprising:

* 하루의 시간 - 콘텐트 관리 시스템(100)은 시간 및 날짜 정보를 기록할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 시간 서버(예를 들면, 네트워크 시간 프로토콜(NTP)을 사용하여)와 그의 시간 및 날짜 정보를 동기화할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 정보를 전달할 때 콘텍스트 팩터 같은 하루의 시간, 1주의 날짜, 날짜, 주말들, 등을 이용할 수 있다. * Time of day - The content management system 100 can record time and date information. In some embodiments, the content management system 100 may synchronize its time and date information with a time server (e.g., using the Network Time Protocol (NTP)). In some embodiments, the content management system 100 may utilize a time of day, such as a context factor, a week of the week, a date, weekends, etc., when communicating information.

* 지리적 위치 - 위치 지각은 모바일 디바이스들의 현저한 특징이 된다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 GPS, 셀룰러 타워 삼각 측량, Wi-Fi 삼각 측량, 또는 지금 공지되거나 추후 개발된 다른 수단에 의해 그의 지리적 위치를 결정할 수 있다.* Geolocation - Position perception is a salient feature of mobile devices. In some embodiments, the content management system 100 may determine its geographic location by GPS, cellular tower triangulation, Wi-Fi triangulation, or other means now known or later developed.

* 움직임 검출 - 몇몇 모바일 디바이스들은 움직임(즉, 그들이 움직이는지, 흔드는지, 기울었는지, 등)을 검출할 수 있다. 콘텐트 관리 시스템(100)은 가속도계, 자이로스코프, 또는 지금 공지되거나 추후 개발된 다른 수단을 사용함으로써 움직임 검출을 달성할 수 있다.Motion Detection - Some mobile devices can detect motion (ie, they are moving, rocking, tilting, etc.). The content management system 100 may achieve motion detection by using an accelerometer, gyroscope, or other means now known or later developed.

* 사운드 검출 - 모바일 디바이스들은 종종 사운드들을 캡쳐(capture)하기 위한 마이크로폰을 포함하거나, 주변 디바이스로서 마이크로폰을 이용할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 사용자의 구두 언급들을 캡쳐하기 위해 마이크로폰을 사용할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템(100)은 주변 사운드들을 캡쳐하기 위해 마이크로폰을 사용할 수 있다.Sound detection - Mobile devices often include a microphone for capturing sounds, or a microphone as a peripheral device. In some embodiments, the content management system 100 may use a microphone to capture verbal comments of a user. In other embodiments, the content management system 100 may use a microphone to capture ambient sounds.

* 이미지 검출 - 모바일 디바이스들은 종종 사진들 및/또는 비디오를 기록하기 위한 카메라를 포함하거나, 주변 카메라를 이용할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 조명 레벨들을 결정하기 위해 카메라를 사용할 수 있다.* Image Detection - Mobile devices often include cameras for recording photos and / or video, or may use peripheral cameras. In some embodiments, the content management system 100 may use the camera to determine the illumination levels.

* 인터넷 정보 - 모바일 디바이스들은 종종 Wi-Fi 접속 및/또는 셀룰러 네트워크를 통해 인터넷에 액세스한다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 공용 콘텍스트 및 콘텐트 정보를 모으기 위해 인터넷 접속을 이용한다. 이 콘텍스트 정보는 날씨 보고, 주식 보고, 뉴스 이벤트, 및 인터넷으로부터 접속가능한 임의의 다른 트리거 이벤트를 포함할 수 있다. 이 콘텐트 정보는 오디오 클립, 이미지, 비디오 스트림, 언어 레슨, 이메일, 날씨 보고, 캘린더 리마인더, 뉴스 공급, 풍부한 사이트 요약(RSS) 공급, 인터넷 블로그, 및 인터넷으로부터 액세스가능한 임의의 다른 콘텐트를 포함할 수 있다.Internet Information - Mobile devices often access the Internet via a Wi-Fi connection and / or a cellular network. In some embodiments, the content management system 100 uses an Internet connection to collect public context and content information. This context information may include weather reports, stock reports, news events, and any other trigger event that is accessible from the Internet. This content information may include audio clips, images, video streams, language lessons, emails, weather reports, calendar reminders, news feeds, rich site summary (RSS) feeds, internet blogs, and any other content accessible from the Internet have.

본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 위치, 움직임, 사운드, 구두 언급들(예를 들면, 스피치), 주변 음성들(예를 들면, 텔레비젼 또는 라디오로부터), 키보드 소리, 조명, 뇌 액티비티 독서들, 속도, 걷기, 운전, 사용자 입력, 사용자 행동의 루틴들 또는 패턴들, 및 선동 및/또는 자극을 나타내는 목소리 변화들 또는 생물 측정 독서들을 포함하는 사용자의 거동(behavior)에 대한 기 본 콘텍스트 정보를 검출하도록 설계되지만, 이것으로 제한되지 않는다.In some embodiments of the present invention, the content management system 100 may be implemented in a variety of forms including, but not limited to, location, motion, sound, verbal comments (e.g., speech), ambient voices (e.g. from a television or radio) The user's behavior, including the lighting, brain activity readings, speed, walking, driving, user input, routine or patterns of user behavior, and voice changes or biometric readings indicative of agitation and / But is not limited to, detecting the default context information.

몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 연속적인 작동을 유지할 수 있고, 작동 동안 사용자와 연관된 콘텍스트 정보의 지각을 유지할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(100)은 사용자에 관련하여 콘텍스트 정보를 모으기 위해 입력 메커니즘(102)을 사용하는 다수의 센서들 및/또는 입력 디바이스들을 모니터링한다. 다른 변형들에서, 센서 또는 입력 디바이스는 센서 또는 입력 디바이스로부터 새로운 콘텍스트 정보를 모으기 위해 콘텐트 관리 시스템(100)의 특수 소프트웨어 처리를 개시할 수 있다. 또 다른 실시예들에서, 콘텐트 관리 시스템(100)은 그의 현재 콘텍스트를 투표하기 위해 미리 결정된 시간 간격들에서 작동의 슬리핑 모드로부터 깨어날 수 있고 콘텍스트가 데이터베이스(106)의 콘텐트와 연관된 트리거 조건들을 만족하는지의 여부를 결정한다. 만약 관련 콘텍스트 트리거들이 콘텍스트에 의해 만족되지 않으면, 콘텐트 관리 시스템(100)은 작동의 슬리핑 모드로 리턴할 수 있다.In some embodiments, the content management system 100 can maintain continuous operation and maintain perception of contextual information associated with the user during operation. In some variations on these embodiments, the content management system 100 monitors a number of sensors and / or input devices that use the input mechanism 102 to gather contextual information relative to the user. In other variations, the sensor or input device may initiate special software processing of the content management system 100 to gather new contextual information from the sensor or input device. In yet other embodiments, the content management system 100 may wake up from a sleeping mode of operation at predetermined time intervals to vote on its current context and determine whether the context meets trigger conditions associated with the content of the database 106 . If the associated context triggers are not satisfied by the context, the content management system 100 may return to the sleeping mode of operation.

몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 사용자와 연관된 콘텍스트 및/또는 콘텍스트 정보에 기초하여 모바일 디바이스의 동작 조건들을 결정할 수 있다. 입력 메커니즘(102)이 다수의 소스들로부터 기본 콘텍스트 정보를 모을때마다, 콘텍스트 관리자(104)는 다수의 사용자 규정 콘텍스트들을 추론하기 위해 기본 콘텍스트 정보를 해석할 수 있다. 콘텍스트는 사용자와 연관된 이벤트 또는 환경 팩터 또는 콘텐트 관리 시스템(100)의 작동 환경을 설명하는 데이터 세트이다. 이들 실시예들의 몇몇 변형들에서, 콘텍스트는 입력 메커니즘(102)에 의해 모아진 콘텍 스트 정보로부터 추론될 수 있다. 다른 변형들에서, 콘텍스트는 콘텍스트 정보로부터 추론되었던 다수의 콘텍스트들로부터 추론될 수 있다. 콘텍스트는 콘텍스트들 및 콘텍스트 정보의 조합으로부터 또한 추론될 수 있다.In some embodiments, the content management system 100 may determine the operating conditions of the mobile device based on the context and / or context information associated with the user. Each time the input mechanism 102 collects basic context information from multiple sources, the context manager 104 may interpret the basic context information to infer multiple user defined contexts. The context is a set of data describing the event or environment factor associated with the user or the operating environment of the content management system 100. In some variations of these embodiments, the context can be deduced from the context information gathered by the input mechanism 102. [ In other variations, the context may be inferred from a number of contexts that have been inferred from the context information. A context may also be deduced from a combination of contexts and context information.

예를 들면, 콘텐트 관리 시스템(100)은 사용자가 자리에 앉아있는지, TV를 시청하는지, 잠자는지, 정신을 차리고 있는지, 대화중인지, 홈 스터디 컴퓨터 또는 사무실에서 타이핑하는지, 집 주변을 걷는지, 집 밖을 걷는지, 운전중인지, 또는 집안 액티비티(예를 들면, 요리, 또는 일할 준비)를 수행하는지의 여부를 포함하는 콘텍스트 정보에 기초하여 사용자에 관한 특수 콘텍스트들을 추론하도록 프로그래밍될 수 있지만, 이것으로 제한되지 않는다. 다른 예들에서, 콘텐트 관리 시스템(100)은 사용자 패턴들 및 선호도들(예를 들면, 날씨가 나쁠 때 걷는 것보다 오히려 버스를 타는), 가능한 위험들(예를 들면, 어두움, 날씨 경고들, 범죄 영역들로의 접근), 및 사용자의 정신 상태(예를 들면, 무드, 또는 집중 레벨)를 추론하도록 프로그래밍될 수 있다.For example, the content management system 100 may be configured to allow a user to view content, such as whether the user is seated, watching TV, sleeping, being moody, talking, typing in a home study computer or office, Can be programmed to infer special contexts about the user based on context information that includes whether to walk outside, drive, or perform house activities (e.g., cooking, or ready to work) It is not limited. In other instances, the content management system 100 may be configured to detect user patterns and preferences (e.g., riding the bus rather than walking when the weather is bad), possible hazards (e.g., darkness, weather alerts, (E. G., Mood, or concentration level) of the user. ≪ / RTI >

모바일 디바이스들은 종종 오디오 및/또는 비디오 콘텐트를 재생하기 위한 프리젠테이션 메커니즘들을 포함한다. 본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 주어진 콘텍스트에 의해 트리거링된 본 콘텐트에 대해 이들 프리젠테이션 메커니즘들을 사용한다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(100)은 사용자에게 상호작용 콘텐트를 제공하고, 여기서 사용자는 콘텐트 관리 시스템(100)의 입력 메커니즘(102)(예를 들면, 버튼들 누름, 터치 스크린의 위치를 터치, 또는 마이크로폰에 구두 언급들을 통신)을 사용하여 상호작용 콘 텐트와 상호작용할 수 있다.Mobile devices often include presentation mechanisms for playing audio and / or video content. In some embodiments of the present invention, the content management system 100 uses these presentation mechanisms for this content triggered by a given context. In some variations on these embodiments, the content management system 100 provides the user with interactive content, wherein the user can interact with the input mechanism 102 of the content management system 100 (e.g., , Touching the location of the touch screen, or communicating verbal comments to the microphone) to interact with the interaction content.

콘텐트 관리 시스템(100)이 사용자와 연관되는 사용자 규정 콘텍스트를 추론할 때, 콘텐트 관리 시스템(100)은 콘텐트 데이터베이스(106)의 콘텐트를 검색하기 위해 추론된 콘텍스트를 사용할 수 있고, 주어진 콘텍스트하에서 제공될 수 있는 콘텐트를 검색할 수 있다. 몇몇 실시예들에서, 콘텐트 데이터베이스(106)는 콘텐트 패키지들의 세트를 저장하고, 여기서 콘텐트 패키지는 콘텐트의 수집부(collection)를 포함하고, 콘텐트 패키지의 콘텐트를 제공하기 위해 콘텐트 관리 시스템(100)을 트리거링할 수 있는 다수의 콘텍스트들을 포함한다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 패키지는 콘텐트가 제공되는 방법을 제어할 수 있는 스크립트 또는 실행가능한 코드를 또한 포함할 수 있고, 콘텐트의 프리젠테이션 동안 사용자와 상호작용하는 소프트웨어 메커니즘들을 구현할 수 있다.When the content management system 100 inferences a user defined context associated with a user, the content management system 100 may use the inferred context to retrieve the content of the content database 106, The content can be retrieved. In some embodiments, the content database 106 stores a set of content packages, wherein the content package includes a collection of content, and includes a content management system 100 to provide the content of the content package. And includes a number of contexts that can be triggered. In some variations on these embodiments, the content package may also include script or executable code that may control how the content is provided, and may implement software mechanisms for interacting with the user during presentation of the content .

본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)의 콘텐트 전달 메커니즘(108)은 사용자와 연관된 콘텍스트에 응답하여 사용자에게 콘텐트를 제공할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템(100)은 사용자와 연관된 콘텍스트에 응답하여 원격 디바이스에 콘텐트를 전송할 수 있다.In some embodiments of the invention, the content delivery mechanism 108 of the content management system 100 may provide the content to the user in response to a context associated with the user. In other embodiments, the content management system 100 may send content to a remote device in response to a context associated with the user.

본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 센트럴 퍼블리셔(central publisher)(예를 들면, 미리 결정된 서버)에 의해 제공되는 콘텐트를 제공할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템(100)은 사용자에 의해 생성된 콘텐트를 제공할 수 있다. 이들 실시예들에 대한 변형에서, 콘텐트 관리 시스템(100)은 원격 디바이스에 대해 생성되고, 원격 디바이스의 사용자에 의해 공유되 는 콘텐트를 제공할 수 있다. 예를 들면, 식품점 쪽으로 운전하는 사용자의 콘텐트 관리 시스템(100)은 그녀의 콘텐트 관리 시스템을 사용하는 그 날짜보다 더 이르게 그의 부인이 그녀 자신을 위해 생성한 식품 리스트를 자동으로 수신할 수 있다. 일단 사용자가 식품점을 입력하면, 그의 콘텐트 관리 시스템(100)은 식품 리스트 목록들 및 그녀의 식품 리스트 목록들을 포함하는 조합된 식품 리스트를 제공할 수 있다.In some embodiments of the present invention, the content management system 100 may provide content provided by a central publisher (e.g., a predetermined server). In other embodiments, the content management system 100 may provide content generated by a user. In a variation on these embodiments, the content management system 100 may be created for a remote device and provide content that is shared by a user of the remote device. For example, the content management system 100 of a user driving towards a grocery store may automatically receive a list of foods her wife has created for herself earlier than that date using her content management system. Once the user enters the grocery store, his content management system 100 may provide a combined food list that includes lists of food lists and lists of her food lists.

이들 실시예들의 몇몇 변형들에서, 콘텐트 관리 시스템(100)은 다수의 애플리케이션들에 대한 사용자 규정 콘텍스트에 응답하여 콘텐트를 제공하도록 프로그래밍될 수 있고; 상기 콘텐트는: 여가 시간 동안 학습(예를 들면, 청취, 반복, 검사, 등에 의한 외국어), 중요 이메일의 자동 검색(예를 들면, 사용자의 주의 기간에 영향을 미치고/마치거나 콘텐트의 위급 레벨), 정각에 그리고 정위치에 있는 리마인더들의 수신(예를 들면, 심부름들, 구매들), 원하는 위치로의 방향들의 수신, 사용자의 콘텍스트에 적당한 음악 플레이, 및 선택 단위 프리젠테이션 레이아웃을 생성함으로써 스피치 또는 프리젠테이션을 제공하기 위한 준비를 포함한다. 예를 들면, 선생님은 학생이 공적 운송 모드를 사용할 때 아침, 밤, 및 주말들 동안 학생에게 공부 자료를 제공하도록 설계된 콘텐트 패키지(예를 들면, "오디오 공부 카드들"의 세트)를 준비할 수 있다. 또한, 선생님은 콘텐트 패키지의 프리젠테이션에 대한 타이밍(timing) 및 페이스(pace)를 규정하고, 콘텐트 패키지로부터 프롬프트들 또는 질문들에 대한 학생으로부터의 요구된 응답들을 규정하고, 및/또는 주어진 프롬프트 또는 질문이 사용자로부터 올바른 응답인 후 제공될 수 있을 시기에 대한 지연 기간을 규정하도록 콘텐트 패키지를 구성할 수 있다.In some variations of these embodiments, the content management system 100 may be programmed to provide content in response to a user-defined context for multiple applications; The content may include: learning during leisure time (e.g., in a foreign language by listening, repeating, checking, etc.), automatic retrieval of critical emails (e.g. affecting / ending a user's attention period, (E. G., Errands, purchases), reception of directions to a desired location, music play appropriate to the user ' s context, and a selection unit presentation layout, And preparation for providing presentations. For example, a teacher can prepare a content package (eg, a set of "audio study cards") designed to provide students with study material during the morning, night, and weekends when the student uses public transportation mode have. The teacher can also define timing and pace for the presentation of the content package, define the required responses from the student to the prompts or questions from the content package, and / The content package may be configured to define a delay period for when a question may be served after a correct response from the user.

도 2a는 본 발명의 실시예에 따라 사용자에게 콘텐트를 전달하는 것과 연관된 콘텐트 관리 시스템(200)에 대한 데이터 흐름을 예시한다. 콘텐트 관리 시스템(200)은 콘텍스트 관리자(201), 입력 메커니즘(204), 콘텐트 데이터베이스(206), 및 콘텐트 전달 메커니즘(208)을 포함한다. 입력 메커니즘(204)은 환경 및 사용자 액티비티들에 관한 감지된 정보를 포함하는 콘텍스트 정보(210)를 모으고, 콘텍스트 관리자(201)의 분석 메커니즘(202)에 콘텍스트 정보(210)를 전송한다. 분석 메커니즘(202)은 콘텍스트 정보(210)로부터 콘텍스트(214)(사용자 액티비티를 포함할 수 있는)를 유도하고, 콘텍스트 관리자(201)는 콘텐트 데이터베이스(206)로부터 대응 콘텐트 패키지(216)를 검색하기 위해 콘텍스트(214)를 사용한다. 그 다음, 콘텍스트 관리자(201)는 프리젠테이션을 위한 콘텐트 패키지(216)를 콘텐트 전달 메커니즘(208)에 제공한다. 이들 실시예들의 몇몇 변형들에서, 콘텐트 데이터베이스(206)는 콘텐트 전달 메커니즘(208)에 직접적으로 콘텐트 패키지(216)를 제공할 수 있다.2A illustrates a data flow for a content management system 200 associated with delivering content to a user in accordance with an embodiment of the present invention. The content management system 200 includes a context manager 201, an input mechanism 204, a content database 206, and a content delivery mechanism 208. The input mechanism 204 collects the context information 210 that includes sensed information about the environment and user activities and sends the context information 210 to the analysis mechanism 202 of the context manager 201. The analysis mechanism 202 derives the context 214 (which may include user activity) from the context information 210 and the context manager 201 retrieves the corresponding content package 216 from the content database 206 Use context 214. < RTI ID = 0.0 > The context manager 201 then provides the content delivery mechanism 208 with a content package 216 for presentation. In some variations of these embodiments, the content database 206 may provide the content package 216 directly to the content delivery mechanism 208.

다음, 콘텐트 전달 메커니즘(208)은 콘텐트 패키지(216)를 사용자에게 제공한다. 이렇게 하여, 콘텐트 전달 메커니즘(208)은 사용자로부터 사용자 상호작용들(212)을 수신하고, 사용자 상호작용들(212)에 응답하여 콘텐트 패키지(216)로부터 콘텐트(218 내지 220)를 제공한다.The content delivery mechanism 208 then provides the content package 216 to the user. The content delivery mechanism 208 thus receives the user interactions 212 from the user and provides the content 218-220 from the content package 216 in response to the user interactions 212. [

작동 동안, 콘텍스트 관리자(201)는 콘텍스트(214)가 하나 이상의 콘텐트 패키지에 대응하는지를 결정할 수 있다. 즉, 콘텍스트(214)는 하나 이상의 콘텐트 패 키지를 제공하기 위한 조건들을 만족한다. 본 발명의 몇몇 실시예들에서, 콘텍스트 관리자(201)는 콘텍스트(214)가 하나 이상의 콘텐트 패키지에 대응할 때 세트로부터 제공하도록 하나의 콘텐트 패키지를 사용자가 선택하도록 프롬프팅(prompting)한다. 다른 실시예들에서, 콘텍스트 관리자(201)는 미리 규정된 우선순위들 또는 콘텐트 패키지들에 대한 변화하는 가중치들에 기초한 하나의 세트로부터 제공하기 위해 하나의 콘텐트 패키지를 선택한다. 예를 들면, 콘텍스트 관리자(201)는 제공될 가장 늦은 콘텐트 패키지를 선택할 수 있고(예를 들면, 콘텐트 패키지들의 세트로부터 가장 오래된 재생 시간 스탬프를 가짐), 또는 제공될 가장 최신인 콘텐트 패키지를 선택할 수 있다. 또 다른 실시예에서, 콘텍스트 관리자(201)는 최소의 횟수들(예를 들면, 콘텐트 패키지가 제공된 후 증가하는 콘텐트 패키지의 세트로부터 가장 낮은 가중치를 가짐)로 제공된 세트로부터 콘텐트 패키지를 선택할 수 있거나, 최대 횟수들로 제공된 콘텐트 패키지를 선택할 수 있다.During operation, the context manager 201 may determine if the context 214 corresponds to one or more content packages. That is, the context 214 satisfies the conditions for providing one or more content packages. In some embodiments of the present invention, the context manager 201 prompts the user to select one content package to provide from the set when the context 214 corresponds to one or more content packages. In other embodiments, the context manager 201 selects one content package to provide from one set based on predefined priorities or varying weights for the content packages. For example, the context manager 201 can select the latest content package to be provided (e.g., having the oldest playback time stamp from a set of content packages), or select the most recent content package to be provided have. In another embodiment, context manager 201 may select a content package from a set provided with a minimum number of times (e.g., with the lowest weight from a set of increasing content packages after the content package is provided) You can select the content package provided with the maximum number of times.

도 2b는 본 발명의 실시예에 따른 콘텐트(253)를 사용자가 생성하게 하는 것과 연관된 콘텐트 관리 시스템(240)에 대한 데이터 흐름을 예시한다. 몇몇 실시예들에서, 사용자는 모바일 디바이스 또는 개인용 컴퓨터(PC) 상의 콘텐트 관리 시스템(240)을 사용하여 콘텐트(253)를 생성할 수 있다. 콘텐트 관리 시스템(240)은 콘텍스트 관리자(241), 입력 메커니즘(244), 및 콘텐트 데이터베이스(246)를 포함한다. 입력 메커니즘(244)은 콘텐트 스트림(248) 및 사용자 상호작용들(250)을 모으고, 콘텍스트 관리자(241)의 분석 메커니즘(242)에 콘텐트 스트림(248) 및 사용자 상호작용들(250)을 전송한다. 이들 실시예들에 대한 몇몇 변형들에서, 사용자 상호 작용들(250)은 콘텐트 관리 시스템(240)의 음성 기반 사용자 인터페이스(UI)와 상호작용하기 위해 사용자에 의해 언급된 구두 명령들일 수 있다. 다른 변형들에서, 사용자 상호작용들(250)은 키보드, 마우스, 터치 스크린, 또는 임의의 다른 입력 디바이스를 사용하여 입력된 데이터를 포함하는, 그래픽 사용자 인터페이스(GUI)를 통하여 사용자에 의해 제공된 데이터일 수 있다.FIG. 2B illustrates a data flow for a content management system 240 associated with causing a user to generate content 253 in accordance with an embodiment of the present invention. In some embodiments, a user may create content 253 using a mobile device or a content management system 240 on a personal computer (PC). The content management system 240 includes a context manager 241, an input mechanism 244, and a content database 246. The input mechanism 244 collects the content stream 248 and user interactions 250 and sends the content stream 248 and user interactions 250 to the analysis mechanism 242 of the context manager 241 . In some variations on these embodiments, user interactions 250 may be verbal instructions referred to by the user for interacting with a voice-based user interface (UI) of the content management system 240. In other variations, user interactions 250 may include data provided by a user via a graphical user interface (GUI), including data entered using a keyboard, mouse, touch screen, or any other input device. .

분석 메커니즘(242)은 사용자 상호작용들(250)에 기초하여 콘텍스트(254)에 대한 규정을 생성하거나, 미리 규정된 콘텍스트(254)를 선택한다. 또한, 분석 메커니즘(242)은 콘텐트 스트림(248) 및 사용자 상호작용들(250)에 기초하여 콘텐트(253)를 생성한다. 다음, 콘텍스트 관리자(241)는 콘텐트(253) 및 콘텍스트(254)를 포함하는 콘텐트 패키지(252)를 생성하고, 콘텐트 패키지(252)를 콘텐트 데이터베이스(246)에 제공한다. 그 다음 콘텐트 데이터베이스(246)는 콘텐트 패키지(252)에 대한 엔트리(entry)를 생성한다.The analysis mechanism 242 generates a provision for the context 254 based on the user interactions 250 or selects a predefined context 254. The analysis mechanism 242 also generates the content 253 based on the content stream 248 and user interactions 250. The context manager 241 then generates a content package 252 that includes the content 253 and the context 254 and provides the content package 252 to the content database 246. The content database 246 then creates an entry for the content package 252.

몇몇 실시예들에서, 사용자는 콘텐트 패키지(252)를 제공하기 위한 하나의 세트의 규칙들을 생성하는 단계를 포함하는 콘텐트 관리 시스템(240)을 사용하여 콘텐트 패키지(252)를 생성할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(240)은 콘텐트, 콘텍스트, 또는 프리젠테이션 파라미터들을 위한 다수의 컬럼들, 및 대응하는 파라미터에 대한 데이터를 사용자가 입력하게 하는 다수의 로우(row)들을 포함하는 스프레드시트와 유사한 콘텐트 패키지(252)를 생성하기 위한 GUI를 포함한다. 다른 변형들에서, 콘텐트 관리 시스템(240)은 상이한 GUI 레이아웃을 사용하는 동안 여기에 설명된 스프레드시트 GUI와 동일한 기능성을 달 성할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 패키지(252)는 주어진 스프레드시트의 데이터를 포함하도록 생성된다. 다른 실시예들에서, 콘텐트 패키지(252)는 스프레드시트의 각각의 로우에 대해 생성된다.In some embodiments, a user may create a content package 252 using the content management system 240, which includes generating a set of rules for providing the content package 252. [ In some variations on these embodiments, the content management system 240 includes a number of columns for content, context, or presentation parameters, and a number of rows (for example, and a GUI for creating a content package 252 that is similar to a spreadsheet that includes a plurality of rows. In other variations, the content management system 240 may achieve the same functionality as the spreadsheet GUI described herein while using different GUI layouts. In some variations on these embodiments, the content package 252 is generated to include data for a given spreadsheet. In other embodiments, a content package 252 is created for each row of the spreadsheet.

작동 동안, 사용자는 GUI의 콘텐트 헤딩(heading) 아래의 엔트리를 클릭함으로써 콘텐트 패키지(252)에 콘텐트(253)를 삽입할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 컬럼 엔트리의 클릭은 사용자가 콘텐트 스트림(248)을 기록하게 하고, 다른 변형들에서, 콘텐트 컬럼 엔트리의 클릭은 사용자가 콘텐트 컬럼 엔트리에 대한 미리 기록된 콘텐트(253)를 선택하게 한다. 유사하게, 사용자는 엔트리에 대한 값을 입력하기 위해 콘텐트 패키지(252)의 다른 컬럼 헤딩들 중 임의의 컬럼 헤딩 아래의 엔트리를 클릭할 수 있다. 콘텐트 패키지(252)를 생성하기 위한 컬럼 헤딩들은 콘텐트, 시간, 위치, 상태, 응답, 올바른 행동, 및 올바르지 않은 행동을 포함하지만, 이것으로 제한되지 않는다. 몇몇 실시예들에서, 컬럼 헤딩들인 시간, 위치, 및 상태 아래 엔트리들은 콘텐트(253)를 제공하기 위한 콘텍스트들을 규정하기 위해 사용될 수 있고, 컬럼 헤딩 응답, 올바른 행동, 올바르지 않은 행동 아래의 엔트리들은 프리젠테이션 규칙들을 규정하기 위해 사용될 수 있다.During operation, the user may insert the content 253 into the content package 252 by clicking on the entry under the content heading of the GUI. In some variations on these embodiments, a click of the content column entry causes the user to record the content stream 248, and in other variations, the click of the content column entry causes the user to enter a pre- To select the content 253. Similarly, the user may click an entry under any column heading of the other column headings of the content package 252 to enter a value for the entry. The column headings for creating the content package 252 include, but are not limited to, content, time, location, status, response, correct behavior, and incorrect behavior. In some embodiments, entries under column headings such as time, location, and status may be used to define contexts for providing content 253, and entries under a column heading response, correct action, Can be used to define the rules of the rules.

일반적으로, 콘텍스트 또는 활동이 "일하기 위한 통근" 같은, 높은 레벨 추상 개념들의 관점에서 규정될 수 있다는 것이 주의된다. 높은 레벨 추상 개념은 일주의 날짜, 하루의 시간, GPS 트레이스들의 시리즈, 또는 가속도계 판독들 같은, 다수의 낮은 레벨 콘텍스트 정보 값들의 조합에 대응할 수 있다. 일 실시예에서, 낮은 레벨 콘텍스트 정보 값은 하나 이상의 측정가능한 물리적 파라미터들에 대응 할 수 있다. 또한, 프리젠테이션 규칙은 "일하기 위한 통근 및 일로부터의 통근 동안의 플레이" 같은, 하나 이상의 높은 레벨 추상 개념들의 관점에서 규정될 수 있다. 게다가, 사용자는 또 다른 사용자와 프리젠테이션 규칙을 공유할 수 있다. 제 2 사용자는 대응하는 높은 레벨 추상 개념들에 대한 그의 개인적인 낮은 레벨 콘텍스트 정보 값들을 수용하기 위해 공유된 규칙을 재규정할 수 있다.It is noted that in general, a context or activity can be defined in terms of high-level abstraction concepts, such as "commuting to work ". The high level abstraction concept may correspond to a combination of a number of low level context information values, such as the date of the week, the time of day, a series of GPS traces, or accelerometer readings. In one embodiment, the low level context information value may correspond to one or more measurable physical parameters. In addition, the presentation rules can be defined in terms of one or more high level abstraction concepts, such as "play during commuting from work and work from work ". In addition, the user can share presentation rules with another user. The second user may redefine the shared rule to accommodate its personal low level context information values for the corresponding high level abstraction concepts.

콘텐트Content 시간time 위치location 상태condition 응답answer 올바른 행동Correct behavior 올바르지 않은 행동Incorrect behavior JpI.mp3JpI.mp3 임의의random 임의의 random 이동move 모방copy 7-일-연기7-day-acting 5-분-연기5-minute-acting JpHello.mp3JpHello.mp3 임의의random 임의의 random 이동move 모방copy 7-일-연기7-day-acting 5-분-연기5-minute-acting JpHowDoYouDo.mp3JpHowDoYouDo.mp3 임의의random 임의의 random 이동move 모방copy 7-일-연기7-day-acting 5-분-연기5-minute-acting JpGoodnight.mp3JpGoodnight.mp3 >21:00> 21:00 침실bedroom 이동move 모방copy 7-일-연기7-day-acting 5-분-연기5-minute-acting JpGoodmorning.mp3JpGoodmorning.mp3 <10:00<10:00 침실bedroom 이동move 모방copy 7-일-연기7-day-acting 5-분-연기5-minute-acting

테이블 1Table 1

테이블 1은 본 발명의 일 실시예에 따라 사용자에게 콘텐트 패키지(252)를 제공하기 위한 일 예시적인 규칙들의 세트를 예시한다. 테이블 1에 의해 예시된 엔트리들은 다수의 단어들로 발음들을 연습하기 위하여 일본에서 다수의 오디오 클립들에 대응한다. 시간 컬럼은 콘텐트(253)가 제공되고, 시간 예일 수 있거나, 시간 범위일 수 있는 날의 시간을 사용자가 지정하게 한다. 위치 컬럼은 콘텐트(253)가 제공될 수 있는 위치를 사용자가 지정하게 하고, 상태 컬럼은 콘텐트(253)가 제공될 때 사용자가 수행할 수 있는 행동을 사용자가 지정하게 한다. 예를 들면, 일본어를 학습하는 사용자는 사용자가 10AM 이전에 침실 주변을 움직일 때 일본어의 "굿모닝"을 플레이하고, 사용자가 9PM 이후 침실에 들어가거나 주위를 움직일 때 일 본어의 "굿 나이트"를 플레이하도록 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다.Table 1 illustrates one exemplary set of rules for providing a content package 252 to a user in accordance with one embodiment of the present invention. The entries illustrated by Table 1 correspond to a number of audio clips in Japan for practicing pronunciations with multiple words. The time column allows the user to specify the time of day in which the content 253 is provided, may be a time example, or may be a time range. The location column allows the user to specify where the content 253 can be provided, and the status column allows the user to specify what the user can do when the content 253 is presented. For example, a user learning Japanese may play the Japanese "Good Morning" when the user moves around the bedroom before 10 am, and play the Japanese "Good Night" when the user enters the bedroom after 9 PM or moves around The content management system 240 may be programmed.

응답 컬럼은 사용자가 콘텐트(253)의 프리젠테이션에 대한 예상 응답을 지정하게 한다. 올바른 행동 컬럼은 만약 사용자가 올바른 응답을 제공하면 콘텐트 관리 시스템(240)이 수행할 수 있는 행동들을 사용자가 지정하게 한다. 올바르지 않은 행동 컬럼은 만약 사용자가 올바른 응답을 제공하지 못하면 콘텐트 관리 시스템(240)이 수행할 수 있는 행동들을 사용자가 지정하게 한다. 예를 들면, 사용자는 만약 사용자가 일본어의 어구를 올바르게 모방하면 7일 동안 주어진 어구에 대한 오디오 클립을 연기하도록 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 사용자는 사용자가 적당한 발음으로 어구를 모방하지 못하면 5분 후 상기 어구를 반복하도록 콘텐트 관리 시스템(240)을 또한 프로그래밍할 수 있어서, 사용자가 일본어 어구의 적당한 발음을 달성할 때까지 반복적으로 상기 어구를 사용자가 연습하게 한다.The response column allows the user to specify an expected response to the presentation of the content 253. The correct action column allows the user to specify actions that the content management system 240 can perform if the user provides a correct response. The incorrect action column allows the user to specify actions that the content management system 240 can perform if the user fails to provide a correct response. For example, a user may program the content management system 240 to post an audio clip for a given phrase for 7 days if the user correctly mimics the Japanese phrase. The user may also program the content management system 240 to repeat the phrase five minutes later if the user does not imitate the phrase with proper pronunciation so that the user repeatedly tries to repeat the phrase until the user achieves proper pronunciation of the Japanese phrase Allow the user to practice.

몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 콘텐트 엔트리에 대한 원하는 이름을 제공하게 한다. 예를 들면, 사용자는 일본어 어구를 기록할 수 있고, 상기 어구에 대한 영어 번역을 사용하여 파일을 명명할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 사용자는 구어 스피치 같은 이름을 콘텐트 관리 시스템(240)에 제공할 수 있고, 콘텐트 관리 시스템(240)은 스피치를 텍스트로 전환함으로써 이름에 대한 텍스트 문자열을 생성한다. 다른 변형들에서, 사용자는 콘텐트 관리 시스템(240)의 입력 디바이스를 사용하여 이름을 타이핑(typing)할 수 있 다. 사용자가 기록에 이름을 제공하지 못하는 경우, 콘텐트 관리 시스템(240)은 "노트1" 같은, 디폴트 파일 이름을 사용하여 기록을 명명할 수 있다.In some embodiments, the content management system 240 allows a user to provide a desired name for a content entry. For example, a user may record a Japanese phrase and use the English translation of the phrase to name the file. In some variations on these embodiments, the user may provide a name, such as spoken speech, to the content management system 240, and the content management system 240 generates a text string for the name by converting the speech to text do. In other variations, a user may use the input device of the content management system 240 to type a name. If the user fails to provide a name for the record, the content management system 240 may name the record using the default file name, such as "Note 1 ".

몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 컬럼 엔트리를 탭(tap)하거나 클릭할 때 드롭-다운 메뉴를 제공함으로써 컬럼 엔트리에 사용자가 하나의 값을 설정하게 한다. 이런 드롭-다운 메뉴는 사용자가 선택하기 위한 허용가능한 값들의 수직 리스트를 디스플레이하고, 사용자가 원하는 값을 클릭 또는 탭핑함으로써 사용자가 하나의 값을 선택하게 한다. 다른 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 컬럼 엔트리에 상기 값을 타이핑하게 함으로써 사용자가 컬럼 엔트리에 하나의 값을 설정하게 한다.In some embodiments, the content management system 240 allows the user to set a single value in the column entry by providing a drop-down menu when the user taps or clicks on the column entry. This drop-down menu displays a vertical list of allowable values for the user to select and allows the user to select a value by clicking or tapping the desired value. In other embodiments, the content management system 240 allows the user to set a value in the column entry by having the user type the value into the column entry.

몇몇 실시예들에서, 사용자는 주어진 컬럼(예를 들면, 테이블 1에 제공된 시간, 위치, 상태, 또는 응답 컬럼들)의 엔트리들에 대해 허용가능한 값들의 리스트(예를 들면, 이름들 또는 태그들, 및 대응 콘텍스트 정보)를 콘텐트 관리 시스템(240)에게 제공할 수 있다. 예를 들면, 위치 컬럼 엔트리는 사용자에 의해 선택된 지리적 위치들의 데이터베이스로부터 허용가능한 값들의 세트를 획득할 수 있다. 몇몇 실시예들에서, 사용자는 사용자가 현재 지리적 위치를 저장하기 위해 콘텐트 관리 시스템(240)을 통지하고, 저장된 지리적 위치(예를 들면, "홈" 또는 "침실")에 대한 이름을 지정함으로써 원하는 위치에 있을 때 콘텐트 관리 시스템(240)의 현재 또는 추후 사용을 위한 지리적 위치를 규정할 수 있다. 다른 실시예들에서, 사용자는 맵으로부터 위치를 선택하고, 지리적 위치의 거리 어드레스를 콘텐트 관리 시스템(240)에게 제공하거나, 원하는 위치의 지리적 좌표들을 콘텐트 관리 시 스템(240)에 제공하고, 그 다음 지리적 위치에 대한 이름 또는 태그를 지정함으로써 지리적 위치를 지정할 수 있다. 몇몇 실시예들에서, 사용자에 의해 수행된 루틴들 및 콘텍스트 정보에 기초하여, 콘텐트 관리 시스템(240)은 사용자에게 중요한 지리적 위치들, 및 이들 위치들에 대한 적당한 이름을 자동적으로 추론할 수 있다.In some embodiments, the user may select a list of allowable values (e.g., names or tags) for entries of a given column (e.g., the time, position, status, or response columns provided in Table 1) , And corresponding context information) to the content management system 240. For example, the location column entry may obtain a set of allowable values from a database of geographic locations selected by the user. In some embodiments, the user may request the content management system 240 by notifying the content management system 240 to store the current geographic location and specifying the name for the stored geographic location (e.g., "home" or "bedroom"). Location of the content management system 240 for current or future use. In other embodiments, the user may select a location from the map, provide the street address of the geographic location to the content management system 240, provide the geographic coordinates of the desired location to the content management system 240, You can specify a geographic location by specifying a name or tag for the geographic location. In some embodiments, based on the routines and context information performed by the user, the content management system 240 may automatically infer the important geographic locations to the user, and appropriate names for those locations.

컬럼 엔트리는 사용자에 의해 편집될 수 있는 미리-설정된 값들을 가진 미리 규정된 이름들 또는 태그들의 데이터베이스로부터 허용가능한 값들의 세트를 또한 획득할 수 있다. 예를 들면, 상태 컬럼 엔트리의 "이동" 값은 움직임 검출 메커니즘에 의해 트리거링될 수 있는 미리 규정된 콘텍스트(254)에 대응하는 식별자일 수 있다.The column entry may also obtain a set of allowable values from the database of predefined names or tags with pre-set values that can be edited by the user. For example, the "move" value of the status column entry may be an identifier corresponding to a predefined context 254 that may be triggered by a motion detection mechanism.

몇몇 실시예들에서, 콘텐트 패키지(252)는 주어진 유형의 하나 이상의 컬럼을 포함할 수 있다. 예를 들면, 콘텐트 패키지(252)는 미리 결정된 규칙들에 따라 제공될 대응하는 영어 번역 엔트리들에 대한 일본 엔트리들에 대한 컬럼 및 또 다른 컬럼을 포함할 수 있다. 몇몇 실시예들에서, 이들 미리 결정된 규칙들은 또 다른 컬럼에 지정될 수 있고, 대응 영어 번역이 제공되게 하는 조건들(예를 들면, 시간 지연, 콘텍스트 조건, 또는 사용자 응답)을 규정할 수 있다. 또 다른 변형에서, 사용자는 콘텐트(253)에 대한 보다 정확한 콘텍스트 트리거 조건들을 규정하기 위해 하나 이상의 상태 컬럼들을 예시할 수 있다. 예를 들면, 사용자는 두 개의 상태 컬럼들을 예시할 수 있고, 각 상태 컬럼에 대한 미리 규정된 또는 사용자-규정된 상태(예를 들면, 걷기 및 쇼핑)를 선택할 수 있다.In some embodiments, content package 252 may include one or more columns of a given type. For example, the content package 252 may include columns and other columns for Japanese entries for corresponding English translation entries to be provided according to predetermined rules. In some embodiments, these predetermined rules may be specified in another column and may specify conditions (e.g., time delay, context condition, or user response) that will cause a corresponding English translation to be provided. In another variation, a user may illustrate one or more status columns to define more accurate context trigger conditions for the content 253. For example, a user may illustrate two state columns and select a predefined or user-defined state (e.g., walking and shopping) for each state column.

응답 컬럼 엔트리는 오디오 스트림 또는 텍스트 문자열 형태로 사용자로부터 의 예상된 응답을 설명하는 값을 획득할 수 있다. 몇몇 실시예들에서, 응답 컬럼 엔트리는 콘텐트(253)가 콘텐트 컬럼 엔트리를 위해 제공되는 것과 동일한 방식으로 값을 획득할 수 있고, 여기서 사용자는 예상된 응답을 기록할 수 있거나 미리 기록된 응답을 선택할 수 있다. 다른 실시예들에서, 응답 컬럼 엔트리는 인용 표시들에 의해 요약된 텍스트 문자열 형태로 사용자로부터 값을 획득할 수 있고, 여기서 사용자에 의한 구두 응답 및 텍스트 형태로 제공된 예상된 응답은 텍스트-대-스피치 및/또는 스피치-대-텍스트 기술들을 사용하여 비교된다. 다른 실시예들에서, 하나의 값 모방을 가진 응답 컬럼 엔트리는 사용자에 의해 제공된 응답이 콘텐트 컬럼 하의 대응 엔트리에 의해 식별된 콘텐트를 모방하여야 하는 것을 콘텐트 관리 시스템(240)에게 통지한다.The response column entry may obtain a value that describes the expected response from the user in the form of an audio stream or text string. In some embodiments, the response column entry may obtain a value in the same manner as content 253 is provided for a content column entry, where the user may record the expected response or may select a pre- . In other embodiments, the response column entry may obtain a value from the user in the form of a text string summarized by the quotation marks, where the verbal response by the user and the expected response provided in textual form are the text- And / or speech-to-text techniques. In other embodiments, the response column entry with one value mimic notifies the content management system 240 that the response provided by the user should mimic the content identified by the corresponding entry under the content column.

콘텐트 관리 시스템(240)은 사용자 응답 또는 콘텐트(253)의 프리젠테이션과 상호작용에 응답하는 행동을 수행할 수 있다. 올바른 행동 컬럼 엔트리(action correct column entry)는 사용자가 예상된 응답을 제공하는 경우 콘텐트 관리 시스템(240)에 의해 수행될 행동을 지정하는 값을 획득할 수 있다. 게다가, 올바르지 않은 행동 컬럼 엔트리(action incorrect column entry)는 사용자가 예상된 응답을 제공하지 않는 경우 콘텐트 관리 시스템(240)에 의해 수행될 행동을 지정하는 값을 획득할 수 있다. 예를 들면, 콘텐트 관리 시스템(240)은 주어진 시간 기간 동안 콘텐트(253)의 재생을 연기할 수 있거나, 콘텐트 엔트리를 삭제할 수 있다.The content management system 240 may perform actions responsive to user responses or to the presentation and interaction of the content 253. A correct action column entry may obtain a value that specifies an action to be performed by the content management system 240 if the user provides an expected response. In addition, an incorrect action column entry may obtain a value that specifies an action to be performed by the content management system 240 if the user does not provide the expected response. For example, the content management system 240 may defer the playback of the content 253 for a given time period, or may delete the content entry.

몇몇 실시예들에서, 올바른 행동 컬럼 또는 올바르지 않은 행동 컬럼 하의 엔트리는 콘텐트 관리 시스템(240)의 미리 규정된 능력이다. 다른 실시예들에서, 올바른 행동 컬럼 또는 올바르지 않은 행동 컬럼 하의 엔트리는 사용자에 의해 제공된 스크립트 또는 실행가능한 프로그램이다. 사용자는 작동들의 시퀀스를 수행하는, 스크립트 또는 실행가능한 프로그램을 생성할 수 있고, 시간 기간에 걸쳐 사용자 응답들로부터 모아진 상태 정보를 저장 및 액세스할 수 있다. 예를 들면, 사용자는 사용자가 3개의 연속적인 시도들에서 정확하게 콘텐트(253)를 모방할 때 대응 콘텐트 엔트리를 삭제하거나 변경하는(예를 들면, 다시 콘텐트를 프리젠팅하기 위한 시간 조건을 변경함으로써) 스크립트 또는 실행가능한 프로그램을 올바른 행동 컬럼에 제공할 수 있다.In some embodiments, an entry under the correct action column or an incorrect action column is a predefined capability of the content management system 240. In other embodiments, the entry under the correct action column or the incorrect action column is a script or executable program provided by the user. A user may create a script or executable program that performs a sequence of actions, and may store and access collected status information from user responses over a period of time. For example, the user may delete or change the corresponding content entry (e.g., by changing the time condition for presenting the content again) when the user correctly imitates the content 253 in three consecutive attempts. You can provide scripts or executable programs to the correct action column.

몇몇 실시예들에서, 콘텐트 컬럼에 대한 엔트리는 이메일, 인터넷 블로그 업데이트들, 인터넷 RSS 공급들, 트위트들(tweets), 텍스트-기반 노트들 및 리마인더들(reminders), 또는 콘텐트에 대한 컴퓨터-판독가능한 포인터들을 포함하지만 이에 제한되지 않는 텍스트-기반 콘텐트(253)를 가질 수 있다. 이들 실시예들의 몇몇 변형들에서, 컴퓨터-판독가능한 포인터는 특수 콘텐트를 참조할 수 있다. 다른 변형들에서, 컴퓨터-판독가능한 포인터는 메타데이터(예를 들면, 날짜, 지오태그(geotag), 또는 콘텐트 카테고리에 대한 텍스트 디스크립션)에 기초하여 규정되고, 다수의 데이터베이스들로부터 모아질 수 있는 메타데이터와 연관된 콘텐트를 참조하기 위해 사용된다.In some embodiments, the entry for the content column may be a computer-readable record of e-mail, Internet blog updates, Internet RSS feeds, tweets, text-based notes and reminders, Based content 253 including, but not limited to, pointers. In some variations of these embodiments, the computer-readable pointers may reference special content. In other variations, the computer-readable pointer is defined based on metadata (e.g., date, geotag, or text description for the content category), metadata that can be aggregated from multiple databases Is used to refer to the content associated with &lt; / RTI &gt;

이들 실시예들의 몇몇 변형들에서, 콘텐트 관리 시스템(240)은 콘텐트 관리 시스템(240)의 스크린 상에 디스플레이함으로써 텍스트-기반 콘텐트를 제공할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(240)은 텍스트-대-스피치 기술들을 사 용하여 콘텐트(253)를 오디오로 전환하고, 오디오를 재생함으로써 텍스트-기반 콘텐트(253)를 제공할 수 있다. 또한, 콘텐트 관리 시스템(240)은 텍스트-기반 콘텐트(253)를 제공하기 위한 하나의 세트의 규칙들을 적용할 수 있다. 예를 들면, 콘텐트 관리 시스템(240)은 하루의 어떤 시간에서, 또는 주어진 콘텍스트(254) 하에서 사람의 미리 규정된 세트로부터 사용자에게 이메일들을 제공할 수 있다.In some variations of these embodiments, the content management system 240 may provide text-based content by displaying it on the screen of the content management system 240. In other variations, the content management system 240 may provide the text-based content 253 by using the text-to-speech techniques to convert the content 253 to audio and playing back the audio. In addition, content management system 240 may apply a set of rules for providing text-based content 253. For example, the content management system 240 may provide emails to a user from a predefined set of people at any time of the day, or under a given context 254.

테이블 2는 본 발명의 일 실시예에 따라 사용자에게 리마인더 콘텐트 패키지(252)를 제공하기 위한 일 예시적인 규칙들의 세트를 예시한다. 콘텐트 컬럼 하의 엔트리가 텍스트 형태로 리마인더를 식별하고, 다른 컬럼들은 사용자에게 리마인더를 제공하기 위한 하나의 세트의 규칙들을 설명한다. 예를 들면, 사용자는 만약 사용자가 이동하면(예를 들면, 걷거나, 조깅) 특정 날 및 시간에 제 1 리마인더를 제공하도록 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 만약 사용자가 "OK"를 언급함으로써 콘텐트(253)에 응답하면, 콘텐트 관리 시스템(240)은 콘텐트 엔트리를 삭제한다. 그렇지 않고, 사용자가 "OK"를 언급하지 않으면, 콘텐트 관리 시스템(240)은 15분 동안 콘텐트 엔트리의 콘텐트(253)를 연기한다.Table 2 illustrates one exemplary set of rules for providing a reminder content package 252 to a user in accordance with one embodiment of the present invention. An entry under the content column identifies a reminder in the form of a text, and the other columns describe a set of rules for providing a reminder to the user. For example, the user may program the content management system 240 to provide a first reminder at a particular date and time if the user moves (e.g., walk or jog). If the user responds to the content 253 by mentioning "OK ", the content management system 240 deletes the content entry. Otherwise, if the user does not mention "OK ", the content management system 240 defer the content 253 of the content entry for 15 minutes.

제 2 실시예에서, 사용자는 특정 날 및 시간 이후, 및 사용자가 운전하는 동안 제 2 리마인더를 제공하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 만약 사용자가 "OK"를 언급함으로써 콘텐트(253)에 응답하면, 콘텐트 관리 시스템(240)은 콘텐트 엔트리를 삭제한다. 그렇지 않고, 만약 사용자가 "OK"를 언급하지 않으면, 콘텐트 관리 시스템(240)은 15분 동안 콘텐트(253)를 연기한다.In the second embodiment, the user may program the content management system 240 to provide a second reminder after a certain date and time, and during a user's operation. If the user responds to the content 253 by mentioning "OK ", the content management system 240 deletes the content entry. Otherwise, if the user does not mention "OK &quot;, the content management system 240 defer the content 253 for 15 minutes.

제 3 실시예에서, 사용자는 특정 날 및 시간 이후, 그리고 사용자가 도서관 에서 움직이지 않는 동안(즉, 도서관에서 공부하거나 독서함) 제 3 리마인더를 제공하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(240)은 사용자가 도서관에 있는 동안 사용자에 대해 오디오 콘텐트(253)를 재생하기 전에 사용자가 헤드폰들을 착용하고 있는지를 결정할 수 있다. 만약 사용자가 콘텐트 관리 시스템(240)에 플러그(plug)된 헤드폰들을 가지지 않으면, 콘텐트 관리 시스템(240)은 사용자가 헤드폰 잭에 헤드폰들을 플러그 인하거나, 도서관 밖으로 나가는 것을 요구하는 비쥬얼 메시지를 사용자에게 플래시할 수 있다. 이들 실시예들에 대한 다른 변형들에서, 콘텐트 관리 시스템(240)은 사용자가 도서관에 있을 때 텍스트로서 콘텐트(253)를 재생할 수 있다. 만약 콘텐트(253)가 구두 언급들을 포함하면, 콘텐트 관리 시스템(240)은 텍스트와 같은 구두 언급들을 재생하기 위해 스피치-대-텍스트 메커니즘을 사용할 수 있다.In the third embodiment, the user can program the content management system 240 to provide a third reminder after a certain date and time, and while the user is not moving in the library (i.e., studying or reading in the library) have. In some variations on these embodiments, the content management system 240 may determine whether the user is wearing headphones before playing the audio content 253 for the user while the user is at the library. If the user does not have the headphones plugged into the content management system 240, the content management system 240 may flash a visual message to the user requesting that the user plug the headphones into the headphone jack or leave the library can do. In other variations on these embodiments, the content management system 240 may play the content 253 as text when the user is at the library. If the content 253 includes verbal comments, the content management system 240 may use a speech-to-text mechanism to reproduce verbal comments, such as text.

콘텐트Content 시간time 위치location 상태condition 응답answer 올바른 행동Correct behavior 올바르지 않은 행동Incorrect behavior 노트1 텍스트Note 1 text =20070929:18:00= 20070929: 18: 00 임의의 random 이동move "OK""OK" 삭제delete 15-분-연기15-minute - acting 노트2 텍스트Note 2 text >20071001:09:00> 20071001: 09: 00 임의의random 운전driving "OK""OK" 삭제delete 15-분-연기15-minute - acting 노트3 텍스트Note 3 text >20071001:12:10> 20071001: 12: 10 도서관library 정지stop "OK""OK" 삭제delete 1-일-연기1-day-acting 노트4 텍스트Note 4 text =20071002:10:00= 20071002: 10: 00 사무실office 이동move "OK""OK" 삭제delete 15-분-연기15-minute - acting 노트5 텍스트Note 5 text >20071003:18:00> 20071003: 18: 00 사무실office 이동move "OK""OK" 삭제delete 15-분-연기15-minute - acting

테이블 2Table 2

콘텐트 관리 시스템(240)은 무선 주파수 식별(RFID) 태그들을 판독하거나, 짧은 거리에서 다른 NFC 디바이스들과 상호작용하기 위해 사용될 수 있는 근거리 통신(Near Field Communication; NFC) 같은 짧은 범위 통신 프로토콜들을 지원하는 입력 메커니즘(244)을 포함할 수 있다. NFC 프로토콜을 지원하는 콘텐트 관리 시스템(240)은 오브젝트들(objects)에 부착된 RFID 태그들에 기초하여 물리적 오브젝트들을 식별할 수 있고, 콘텐트(253)를 제공하기 위한 콘텍스트 정보로서 모아진 정보를 사용하거나, 사용자 상호작용(250)으로서 검출된 NFC 신호를 사용할 수 있다.Content management system 240 may support short range communication protocols such as Near Field Communication (NFC) that can be used to read radio frequency identification (RFID) tags or interact with other NFC devices at short distances An input mechanism 244 may be included. The content management system 240 supporting the NFC protocol can identify physical objects based on RFID tags attached to objects and use collected information as context information to provide the content 253 , The user interaction 250 may use the detected NFC signal.

예를 들면, 사용자가 집 밖으로 걸어가려고 하는 것을 콘텐트 관리 시스템(240)이 검출할 때 사용자가 우산을 가져가도록 하고, 그날 늦게 비가 오는 것을 인터넷 예보 서비스로부터 결정하고, 사용자의 우산을 식별하는 RFID 태그를 검출하지 않도록 하는 통지를 사용자에게 제공하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 또 다른 예에서, 사용자는 사용자가 밤 동안 직장 또는 차의 문틀 상의 RFID 태그를 통과할 때 사용자가 집에 오는 것을 사용자의 아내에게 통지하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다.For example, when the content management system 240 detects that the user is about to walk out of the house, the user may take the umbrella, determine from the Internet forecast service that it will rain later that day, The content management system 240 may be programmed to provide a notification to the user not to detect the content. In another example, the user may program the content management system 240 to notify the user's wife that the user is coming home when the user is passing through the RFID tag on the work or car door during the night.

오디오-기반 Audio-based 콘텐트Content 생성 produce

몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 오디오-기반 사용자 인터페이스(UI)를 제공한다. 예를 들면, 사용자는 이동하는 동안 새로운 리마인더 콘텐트를 생성할 때 오디오-기반 UI를 사용하여 콘텐트 관리 시스템(240)과 상호작용할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(240)에 대한 오디오-기반 UI는 콘텐트 관리 시스템(240)에 대한 GUI에 필적하는 언어학 방식을 따른다. 콘텐트 관리 시스템(240)의 GUI와 유사한 오디오-기반 UI는 사용자가 대응하는 GUI와 이미 유사할 때 사용자가 오디오-기반 UI에 용이하게 순응되게 한다. 예를 들면, 콘텐트 관리 시스템(240)을 위한 오디오-기반 UI는 다음 대화를 사용하여 새로운 리마인더를 생성하는 사용자와 상호작용할 수 있다: In some embodiments, the content management system 240 provides an audio-based user interface (UI). For example, a user may interact with the content management system 240 using an audio-based UI when creating new reminder content while moving. In some variations on these embodiments, the audio-based UI for the content management system 240 follows a linguistic approach comparable to the GUI for the content management system 240. An audio-based UI similar to the GUI of the content management system 240 allows the user to easily adapt to the audio-based UI when the user is already similar to the corresponding GUI. For example, an audio-based UI for the content management system 240 may interact with a user creating a new reminder using the following conversation:

사용자: "할일들, 새로운 노트"User: "Things to do, new notes"

시스템: "할일 기록 시작"System: "Start recording to do"

사용자: "[구두 언급들]...[일시중지]"User: "[verbal comments] ... [pause]"

시스템: "기록 완료"System: "Recorded"

사용자: "시스템, 기록 계속, [많은 구어 언급들]...[일시 중지]"User: "System, Continue recording, [many spoken references] ... [Pause]"

시스템: "계속된 기록 완료"System: "Continued recording completed"

사용자: "임의의 시간에 나에게 위치 홈, 상태 고정을 제공, 응답 OK, [일시 중지]"User: "At any time, give me a home position, fixed status, answer OK, [pause]"

시스템: "노트 완료"System: "Notes Complete"

이들 실시예들에 대한 몇몇 변형들에서, 사용자는 파라미터(예를 들면, "임의의 시간, 홈, 고정, 응답 OK")에 대한 값을 언급할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(240)은 각 컬럼 엔트리에 대한 값을 지정(예를 들면, "시간 조건 지정")하기 위해 사용자에게 오디오 프롬프트를 제공할 수 있다. 또 다른 변형들에서, 사용자는 콘텐트 생성 GUI의 컬럼과 연관된 매 엔트리에 대한 값을 통신할 필요가 없다. 사용자가 콘텐트 생성 GUI의 주어진 컬럼에 대한 값을 제공하지 않는 경우, 콘텐트 관리 시스템(240)은 디폴트 값으로 대응하는 엔트리를 채울 것이다. 예를 들면, 사용자는 콘텐트 관리 시스템(240)을 구성할 수 있어 디폴트 위치는 사용자의 현재 위치이다. 제 2 실시예에서, 사용자는 콘텐트 관리 시스템(240)을 구 성할 수 있어 디폴트 위치는 임의의 값이다. 또 다른 실시예에서, 사용자는 임의의 값으로 콘텐트(253)를 제공하기 위한 디폴트 시간을 설정할 수 있고, "OK"로 콘텐트(253)에 디폴트 응답을 설정할 수 있다.In some variations on these embodiments, the user may refer to a value for a parameter (e.g., "any time, home, fixed, response OK"). In other variations, the content management system 240 may provide an audio prompt to the user to specify a value for each column entry (e.g., "time condition designation"). In yet other variations, the user does not need to communicate values for every entry associated with a column of the content creation GUI. If the user does not provide a value for a given column of the content creation GUI, the content management system 240 will populate the corresponding entry with a default value. For example, the user may configure the content management system 240 so that the default location is the user's current location. In the second embodiment, the user can configure the content management system 240 so that the default location is any value. In another embodiment, the user can set a default time to provide the content 253 with any value and set a default response to the content 253 with "OK &quot;.

또 다른 실시예에서, 콘텐트 관리 시스템(240)에 대한 오디오-기반 UI는 다음 대화를 사용하여 프리젠테이션 레이아웃을 생성하는 사용자와 상호작용할 수 있다:In another embodiment, the audio-based UI for the content management system 240 may interact with a user creating a presentation layout using the following dialog:

사용자: "프리젠테이션[프리젠테이션 이름], 1 슬라이드, [일시 중지]"User: "Presentation [presentation name], 1 slide, [pause]"

시스템: "프리젠테이션 기록 시작"System: "Start recording presentation"

사용자: "1 슬라이드, 1 포인트, [슬라이드 콘텐트의 리마인더를 말함], [일시 중지]"User: "1 slide, 1 point, [Reminder for slide content], [Pause]"

시스템: "기록 완료"System: "Recorded"

사용자: "시스템, 기록 계속, 2 슬라이드, [일시 중지]"User: "System, Continue recording, 2 slides, [Pause]"

시스템: "프리젠테이션 기록 계속"System: "Keep recording your presentation"

사용자: "2 슬라이드, [슬라이드 콘텐트의 리마인더를 말함], [일시 중지]"User: "2 Slide, [Reminder for slide content], [Pause]"

시스템: "계속된 기록 완료"System: "Continued recording completed"

본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자와 연관된 콘텍스트 정보로부터 사용자와 연관된 콘텍스트(254)를 추론할 수 있고, 다수의 방식으로 추론된 콘텍스트(254)에 콘텐트(253)를 매칭할 수 있다.In some embodiments of the invention, the content management system 240 may deduce a context 254 associated with the user from the context information associated with the user and may include content 253 in the inferred context 254 in a number of ways. Can be matched.

몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 주어진 콘텐트(253)를 수용하는지를 결정할 수 있고, 사용자에 의해 수행된 액티비티의 결과로 서 콘텐트(253)의 특정 유형에 대한 선호도를 제공할 수 있다. 예를 들면, 튜터링 콘텐트(tutoring content)를 제공하기 위해 콘텐트 관리 시스템(240)을 구성한 사용자는 사용자가 일하기 위해 통근할 때 일본어 학습을 위한 튜터링 레슨들을 수신하기를 원할 수 있다. 특히, 콘텐트 관리 시스템(240)은 사용자가 일하기 위해 운전할 때 사용자에게 오디오-기반 일본어 레슨들을 제공할 수 있고, 사용자가 일하기 위해 기차에 승차할 때 사용자에게 일본어 읽기 및 쓰기 레슨들을 제공할 수 있다. 또 다른 실시예에서, 콘텐트 관리 시스템(240)은 사용자가 걷고 학습을 수용할 때 사용자에게 레슨들을 제공할 수 있고, 사용자가 텔레비젼을 시청하거나 대화를 하는데 전념할 수 있기 때문에 청취가능한 스피치를 검출할 때 레슨들을 제공하는 것을 방지할 수 있다. In some embodiments, the content management system 240 may determine whether a user accepts a given content 253 and provide preferences for a particular type of content 253 as a result of an activity performed by the user . For example, a user who has configured the content management system 240 to provide tutoring content may wish to receive tutoring lessons for Japanese learning when the user commutes to work. In particular, the content management system 240 may provide audio-based Japanese lessons to the user when the user is driving to work and may provide the user with Japanese reading and writing lessons when the user rides the train to work have. In yet another embodiment, the content management system 240 may provide lessons to the user when the user is walking and accepting learning, and may detect audible speech because the user may be willing to watch the television or engage in conversation It is possible to prevent providing lessons.

몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 하나 이상의 콘텐트 패키지(252)로 프로그래밍될 수 있다. 효과적으로, 사용자는 콘텍스트(254)의 상이한 값들에 대해 제공된 콘텐트(253)의 유형들을 가변시키기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 예를 들면, 사용자는 특정한 지리적 또는 지리적 공간 위치로 언어 레슨들을 제한하고, 평일들 또는 밤들에 기술적 레슨들을 제한하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다.In some embodiments, content management system 240 may be programmed with one or more content packages 252. [ Effectively, the user can program the content management system 240 to vary the types of content 253 provided for different values of the context 254. For example, the user may program the content management system 240 to limit language lessons to a particular geographic or geographic location and to limit technical lessons on weekdays or even nights.

몇몇 실시예들에서, 사용자는 사용자의 현재 특정 거동에 관련하는 콘텐트(253)를 제공하기 위해 콘텐트 관리 시스템(240)을 구성할 수 있다. 예를 들면, 만약 사용자가 걸을 때, 콘텐트 관리 시스템(240)은 일본어로 사용자에게 걷는 행동을 설명함으로써 언어 레슨을 제공할 수 있거나, 사용자가 걷는 위치에 관련하는 콘텐트(253)를 일본어로 제공할 수 있다. 또 다른 실시예에서, 만약 사용자가 부엌에 있고 아침인 것을 콘텐트 관리 시스템(240)이 결정하면, 콘텐트 관리 시스템(240)은 사용자가 아침식사를 준비하거나 아침식사를 먹는 것을 추론할 수 있고, 아침식사-관련 일본 언어 레슨들을 제공할 수 있다. 다른 예들에서, 콘텐트 관리 시스템(240)은 음악, 히스토리 레슨들, 인터넷 블로그들, 텍스트-대-스피치 이메일, 등등 같은 콘텐트 유형들을 포함하는, 추론된 콘텐트(254)에 기초한 다른 유형들의 콘텐트(253)를 제공할 수 있다.In some embodiments, the user may configure the content management system 240 to provide content 253 related to the user's current specific behavior. For example, if the user is walking, the content management system 240 may provide a language lesson by explaining the user's walking behavior in Japanese, or may provide the content 253 related to the user's walking position in Japanese . In another embodiment, if the content management system 240 determines that the user is in the kitchen and is in the morning, the content management system 240 may deduce that the user is preparing breakfast or eating breakfast, Meal-related Japanese language lessons. In other instances, content management system 240 may include other types of content 253 based on inferred content 254, including content types such as music, history lessons, Internet blogs, text-to-speech email, ). &Lt; / RTI &gt;

몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 수행하고자 하는 행동의 예측 레슨들을 제공할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(240)은 사용자에게 미리 리마인더 콘텐트(253)를 제공할 수 있어 사용자는 그 또는 그녀의 계획들을 조절할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(240)은 적당한 문법적 시제로 언어 레슨들을 제공함으로써 사용자에게 자연적인 문법 레슨들을 제공할 수 있다. 예를 들면, 콘텐트 관리 시스템(240)은 주어진 행동을 수행하는 사용자에 기초하여 사용자에게 문법을 가르칠 수 있다. 사용자가 그 또는 그녀의 걸음 상태를 변화시킬 때, 콘텐트 관리 시스템(240)은 "나는 걸을 것이다", "나는 걷는 중이다" 또는 "나는 걸었다"와 같은, 대응하는 콘텐트(253)를 생성할 수 있다. 또 다른 예에서, 콘텐트 관리 시스템(240)은 사용자가 평일 아침 버스 또는 기차에 입장할 때 사용자에게 미래 시제로 사람에게 인사에 관련한 일본어 언어 레슨들을 제공할 수 있다. 즉, 콘텐트 관리 시스템(240)은 액티비티의 예측, 시작, 계속 및 완료와 매칭하는 콘텐트(253)의 시퀀스를 제공하기 위하여 문법 규칙들을 사용할 수 있다.In some embodiments, the content management system 240 may provide predictive lessons of the behavior the user wishes to perform. In some variations on these embodiments, the content management system 240 may provide the user with reminder content 253 in advance so that the user can adjust his or her plans. In other variations, the content management system 240 may provide natural grammar lessons to the user by providing language lessons in the appropriate grammatical tense. For example, the content management system 240 may teach the user a grammar based on a user performing a given action. When the user changes his or her pace state, the content management system 240 may generate corresponding content 253, such as "I will walk", "I am walking" or "I have walked" . In another example, the content management system 240 may provide the user with Japanese language lessons related to greetings to the user in the future tense when the user enters the bus or train on weekday morning. That is, the content management system 240 may use grammar rules to provide a sequence of content 253 that matches the prediction, start, continue, and completion of the activity.

몇몇 실시예들에서, 사용자는 모바일 디바이스 또는 PC 상에서 콘텐트 관리 시스템(240)을 사용하여 공유가능한 콘텐트를 생성할 수 있다. 공유가능한 콘텐트는 사용자가 다른 관리 시스템들로 다운로드, 수정, 및 공유할 수 있는 콘텐트 패키지(252)이다. 또한, 콘텐트 패키지(252)는 텍스트, 그래픽들, 오디오, 및/또는 비디오 콘텐트(253)에 대한 다수의 콘텐트 엔트리 필드들을 포함할 수 있다.In some embodiments, a user may use the content management system 240 on a mobile device or PC to create shareable content. Shareable content is a content package 252 that a user can download, modify, and share with other management systems. The content package 252 may also include a number of content entry fields for text, graphics, audio, and / or video content 253.

일단 사용자가 콘텐트 패키지(252)를 생성하는데 초기 노력을 투자하면, 콘텐트 패키지(252)는 다른 사용자들에 의해 쉽게 공유 및 수정될 수 있다. 몇몇 실시예들에서, 사용자는 콘텐트 패키지(252)를 공적으로 이용가능하게 하기 위해 인터넷 웹사이트 상에 콘텐트 패키지(252)를 업로드할 수 있다. 몇몇 다른 실시예들에서, 사용자는 인터넷 웹사이트로부터 콘텐트 패키지(252)를 다운로드할 수 있고, 콘텐트 패키지(252)로부터 콘텐트(253)를 삽입, 수정, 및/또는 제거하기 위해 콘텐트 패키지(252)를 수정할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 사용자는 콘텐트 패키지(252)로부터의 프리젠테이션 규칙들을 삽입, 수정, 및/또는 제거하기 위해 콘텐트 패키지(252)를 수정할 수 있다.Once the user has invested an initial effort in creating the content package 252, the content package 252 can be easily shared and modified by other users. In some embodiments, the user may upload the content package 252 on the Internet website to make the content package 252 publicly available. In some other embodiments, a user may download a content package 252 from an Internet web site and download content package 252 to insert, modify, and / or remove content 253 from content package 252. [ Can be modified. In some variations on these embodiments, the user may modify the content package 252 to insert, modify, and / or remove presentation rules from the content package 252.

몇몇 실시예들에서, 콘텍스트 조건(예를 들면, "홈" 또는 "쇼핑")에 대한 요약 이름 또는 태그는 콘텐트 관리 시스템에 의해 인식될 수 있고, 사용자들이 이들 이름들 또는 태그들과 연관된 특정 콘텍스트 정보를 재규정하지 않고 사용자들 사이에서 쉽게 공유될 수 있다. 예를 들면, 제 1 사용자는 특정 거리 어드레스를 참조하도록 홈 위치 이름을 규정할 수 있고, 제 2 사용자는 상이한 거리 어드레스를 참조하도록 홈 위치 이름을 규정할 수 있다. 그러므로, 제 1 사용자가 제 2 사용자와 콘텐트 패키지(252)를 공유할 때, 콘텐트 패키지의 홈 위치 이름에 대한 임의의 참조는 제 2 사용자의 거리 어드레스로 자동적으로 번역될 것이다. 제 2 사용자는 콘텐트 패키지(252)의 홈 위치 이름과 연관된 콘텍스트 정보를 재규정할 필요가 없다.In some embodiments, a summary name or tag for a context condition (e.g., "home" or "shopping") can be recognized by the content management system, It can be easily shared among users without redefining the information. For example, a first user may define a home location name to reference a particular street address, and a second user may specify a home location name to reference a different street address. Therefore, when a first user shares a content package 252 with a second user, any reference to the home location name of the content package will automatically be translated to the street address of the second user. The second user does not need to redefine the context information associated with the home location name of the content package 252. [

몇몇 실시예들에서, 사용자는 완전하지 않을 때 콘텐트 패키지(252)를 공유할 수 있다. 콘텐트 패키지(252)는 콘텐트 패키지(252)의 하나 이상의 엔트리 필드들이 대응하는 콘텐트(253)를 가지지 않을 때 완전하지 않다. 불완전한 콘텐트 패키지(252)를 공유하는 것은 다수의 사용자들이 공유가능한 콘텐트를 생성하는데 협력하게 하고, 다수의 사용자들이 서로 학습하게 한다.In some embodiments, the user may share the content package 252 when it is incomplete. The content package 252 is not complete when one or more entry fields of the content package 252 do not have corresponding content 253. Sharing the incomplete content package 252 allows multiple users to collaborate in creating content that is shareable, allowing multiple users to learn from each other.

예를 들면, 사용자는 영어의 단어들 및 어구들의 광대한 리스트를 생성함으로써 일본어 튜터링에 대한 콘텐트 패키지(252)를 생성하기 위한 상당한 노력을 할 수 있고, 심지어 대응하는 엔트리들의 일부에 대한 일본어 번역들을 포함할 수 있다. 이들 영어 및 일본어 엔트리들은 오디오 콘텐트(253)이거나, 텍스트로 기록될 수 있다. 그 다음, 사용자는 콘텐트 패키지(252)를 공용으로 이용가능하게 할 수 있고, 다른 사용자들이 콘텐트 패키지(252)를 다운로드하고 개선시키게 한다. 다른 사용자들은 보다 우수한 발음을 가진 오디오 기록들로 초기 일본어 번역들을 대체할 수 있고, 대응하는 일본어 오디오 번역을 가지지 않는 영어 단어들 및 어구들에 대한 일본어 오디오 기록들을 포함할 수 있다. 또한, 일본어-스피킹 사용자들은 그들이 영어 번역을 좋아하는 단어들 및/또는 어구들에 대한 일본어의 새로운 엔트리 들을 콘텐트 패키지(252)에 삽입할 수 있어, 영어-스피킹 사용자가 영어의 대응하는 오디오 기록을 제공하게 한다. For example, a user can make a considerable effort to create a content package 252 for Japanese tutoring by creating a vast list of words and phrases in English, and even make Japanese translations for some of the corresponding entries . These English and Japanese entries may be audio content 253 or written as text. The user can then make the content package 252 publicly available and allow other users to download and enhance the content package 252. [ Other users may replace the initial Japanese translations with audio records with better pronunciation and may include Japanese audio records for English words and phrases that do not have corresponding Japanese audio translation. In addition, the Japanese-speaking users can insert new Japanese entries into the content package 252 for words and / or phrases they like to translate in English so that the English- .

본 발명의 몇몇 실시예들에서, 콘텐트 엔트리 또는 콘텐트 패키지(252)의 콘텐트 엔트리들의 세트는 하나 이상의 콘텐트 유형 디스크립션 엔트리들을 가진다. 콘텐트 유형 디스크립션은 엔트리(예를 들면, "리마인더", "여행 정보", 또는 "일본 동시 taberu의 동사 활용들")의 콘텐트(253) 특성을 설명하는 텍스트 문자열(text string)일 수 있다. 몇몇 변형들에서, 콘텐트 엔트리에 대한 콘텐트 유형 디스크립션은 미리 규정될 수 있다. 몇몇 다른 변형들에서, 콘텐트 유형 디스크립션은 관련된 콘텍스트 정보(예를 들면, 시간, 위치, 사용자 액티비티, 등)에 기초하여 콘텐트 관리 시스템에 의해 규정될 수 있다. 또 다른 변형들에서, 콘텐트 유형 디스크립션은 사용자에 의해 규정될 수 있다.In some embodiments of the invention, the content entry or set of content entries in the content package 252 has one or more content type description entries. The content type description may be a text string describing the content 253 characteristics of the entry (e.g., "reminder", "travel information", or "verb utilities in Japanese concurrent taberu"). In some variations, the content type description for the content entry may be predefined. In some other variations, the content type description may be defined by the content management system based on the associated context information (e.g., time, location, user activity, etc.). In yet other variations, the content type description may be specified by the user.

몇몇 실시예들에서, 콘텐트 패키지(252)의 콘텐트 유형 디스크립션 엔트리들은 그들이 포함하는 콘텐트 유형에 기초하여 콘텐트 패키지들의 수집물을 분류하기 위해 사용될 수 있다. 콘텐트 유형 디스크립션들은 콘텐트 데이터베이스(246)에 저장된 매칭하거나 관련된 콘텐트 유형 디스크립션을 가진 콘텐트(253) 또는 임의의 다른 데이터베이스 또는 콘텐트의 소스를 검색하기 위해 사용될 수 있다. 예를 들면, 사용자는 "일본어 동사 taberu의 동사 활용들" 또는 일본어 동사들의 활용들"으로서 규정된 콘텐트 엔트리들을 검색할 수 있다.In some embodiments, the content type description entries of the content package 252 may be used to classify a collection of content packages based on the content type they contain. The content type descriptions may be used to search for a source of content 253 or any other database or content having a matching or related content type description stored in the content database 246. [ For example, a user may search for content entries defined as "verb utilities in Japanese verb taberu" or utilities in Japanese verbs.

본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자에게 맞추어진 콘텐트 패키지(252)를 생성하기 위해 인공 지능을 사용할 수 있다. 이들 실시 예들에 대한 하나의 변형에서, 콘텐트 관리 시스템(240)은 사용자에 의해 입력된 텍스트를 파싱(parsing)하기 위해 자연 언어 처리(natural language processing; NLP)를 사용한다.In some embodiments of the invention, the content management system 240 may use artificial intelligence to create a content package 252 tailored to the user. In one variation on these embodiments, the content management system 240 uses natural language processing (NLP) to parse the text entered by the user.

예를 들면, 콘텐트 관리 시스템(240)은 어휘 및 문법 규칙들을 포함하는 데이터베이스에 결합된 HTML 및 XML-구조화 콘텐트(253)를 가진 인터넷 웹사이트 형태로 있을 수 있다. 콘텐트 관리 시스템(240)은 단어들, 시제 및 다른 변형들이 자동으로 가변될 수 있어, 사용자가 예를 들면, 문법 규칙들을 학습하는 것을 연습할 수 있는 문장들을 생성하기 위해 사용자가 텍스트 UI와 상호작용하게 할 수 있다. 콘텐트 관리 시스템(240) 및 사용자 사이의 상호작용들에 기초하여, 콘텐트 관리 시스템(240)은 다수의 규칙들에 대한 많은 변형들을 사용자가 연습하게 하는 레슨을 구현하는 콘텐트 패키지(252)를 생성할 수 있어 사용자가 연습을 통해 규칙들을 학습할 수 있다. For example, the content management system 240 may be in the form of an Internet website with HTML and XML-structured content 253 coupled to a database containing vocabulary and grammar rules. The content management system 240 can automatically change words, tenses, and other variations so that the user can interact with the text UI to create sentences that the user can, for example, . Based on the interactions between the content management system 240 and the user, the content management system 240 generates a content package 252 that implements a lesson that allows the user to practice many variations on a number of rules Users can learn the rules through practice.

또 다른 예에서, 만약 사용자가 일본어의 수동 문장 구조를 사용하는 방법을 학습하기를 원하면, 사용자는 "앨리스가 선생님에 의해 꾸중을 들었다"라는 일 예시적인 영어 텍스트 엔트리를 콘텐트 관리 시스템(240)에 제공할 수 있다. 그 다음, 사용자는 일본어 번역들과 쌍인 영어의 문법적으로 유사한 결과들을 포함하는 콘텐트 패키지들(252) 또는 콘텐트 엔트리들에 대한 검색을 지정하기 위해 GUI를 사용할 수 있다. 응답하여, 콘텐트 관리 시스템(240)은 아마도 주어, 목적어, 동사, 및 시제를 가변시키기 위한 옵션을 가진 문법적으로 등가의 문장들을 생성할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 그의 언어 심화 구조를 결정하기 위해 사용자-입력 영어 문장을 우선 파싱함으로써 문법적으로 등가의 문장들을 생성할 수 있다. 그 다음, 콘텐트 관리 시스템(240)은 사용자-입력 영어 문장에 기초하여 시스템-규정 콘텐트 유형 디스크립션 문자열을 생성할 수 있고, 임의의 또는 모든 주어, 목적어, 동사 및 시제를 가변시키면서, 어구의 심화 구조의 몇몇 사용자-지정 양태와 매칭하는 콘텐트 유형 디스크립션들을 가진 영어-일본어 콘텐트 쌍들을 검색할 수 있다. 예를 들면, 콘텐트 관리 시스템(240)은 하기 수동 구성을 사용하여 문법적으로 유사한 문장들을 생성할 수 있다:In another example, if the user wishes to learn how to use the Japanese passive sentence structure, the user may send an exemplary English text entry to the content management system 240 "Alice was scolded by the teacher" . The user may then use the GUI to specify the search for content packages 252 or content entries that contain grammatically similar results with Japanese translations. In response, the content management system 240 may generate grammatically equivalent sentences with options to vary subject, subject, verb, and tense. In some embodiments, the content management system 240 may generate grammatically equivalent sentences by first parsing a user-entered English sentence to determine its linguistic structure. The content management system 240 may then generate a system-defined content type description string based on the user-entered English sentence, and may include any or all of subject, object, verb, and tense, May search for English-Japanese content pairs with content type descriptions that match some user-specified aspects of the content. For example, the content management system 240 may generate grammatically similar sentences using the following manual configuration: &lt; RTI ID = 0.0 &gt;

"개는 엄마에게 꾸중을 들었다""The dog was scolded by her mother"

"매리는 교수님에게 칭찬을 들었다""Mary heard the praise from the professor"

"폴은 저널리스트와 인터뷰중이다""Paul is interviewing journalists."

"존은 국장에 의해 호출될 것이다""John will be called by the director."

"아이들은 아버지에게 꾸중을 듣곤 했었다""The children used to be scolded by their father"

"사과는 사라가 먹을 것이다""The apple will eat Sarah"

이들 실시예들에 대한 몇몇 변형들에서, 문법적으로 등가의 문장들은 다른 사용자들에 의해 쉽게 기록된 오디오-기반 콘텐트(253)일 수 있고, 여기서 주어진 오디오 기록은 기록된 콘텐트에 대한 콘텐트 유형 디스크립션 텍스트 문자열과 연관된다. 콘텐트 관리 시스템(240)은 연관된 콘텐트 유형 디스크립션 텍스트 문자열과 그 데이터베이스에서 콘텐트에 대한 매칭들을 발견하기 위해 사용자에 의해 입력된 문장의 문법적 심화 구조를 분석할 수 있다. 따라서, 콘텐트 관리 시스템(240)은 새로운 콘텐트 패키지(252)에 매칭하는 데이터베이스로부터 기록들, 콘 텐트 엔트리들, 및/또는 전체 콘텐트 패키지들을 어셈블(assemble)할 수 있다.In some variations on these embodiments, the grammatically equivalent sentences may be audio-based content 253 that is easily recorded by other users, wherein the given audio record is a content type description text for the recorded content It is associated with a string. The content management system 240 may analyze the grammar deepening structure of the sentence entered by the user to find matches for the content in the content type description text string and the content in the database. Thus, the content management system 240 can assemble the records, content entries, and / or the entire content packages from a database that matches the new content package 252.

도 3은 본 발명의 일 실시예에 따라 사용자에게 콘텍스트-기반 콘텐트를 전달하기 위한 처리를 도시하는 흐름도를 제공한다. 콘텐트 관리 시스템은 콘텍스트 정보를 수신하고(작동 310), 콘텍스트를 결정하기 위해 콘텍스트 정보를 처리(작동 320)함으로써 시작한다. 다음, 콘텐트 관리 시스템은 콘텍스트가 트리거 조건을 만족하는지의 여부를 결정한다(작동 330). 만약 그렇다면, 콘텐트 관리 시스템은 콘텍스트에 기초하여 콘텐트 데이터베이스로부터 콘텐트를 선택하고(작동 340), 선택된 콘텐트를 사용자에게 제공한다(작동 350).3 provides a flow diagram illustrating a process for delivering context-based content to a user in accordance with an embodiment of the present invention. The content management system receives context information (act 310) and begins by processing (act 320) the context information to determine the context. Next, the content management system determines whether the context satisfies the trigger condition (act 330). If so, the content management system selects (operation 340) the content from the content database based on the context and provides the selected content to the user (act 350).

도 4는 본 발명의 일 실시예에 따른 콘텍스트-기반 콘텐트를 생성하기 위한 처리를 도시하는 흐름도를 제공한다. 콘텐트 관리 시스템은 사용자에 의해 제공된 콘텐트를 기록함으로써 시작한다(작동 410). 그 다음, 콘텐트 관리 시스템은 기록된 콘텐트에 대한 콘텐트 데이터베이스에 콘텐트 엔트리를 생성한다(작동 420). 다음, 시스템은 콘텐트 엔트리에 대한 하나 이상의 트리거 조건들을 지정함으로써 미리 규정된 콘텍스트와 콘텐트 엔트리를 연관시킨다(작동 430). 몇몇 변형들에서, 사용자는 미리 규정된 콘텍스트와 콘텐트 엔트리를 수동적으로 연관시킬 수 있다.4 provides a flow diagram illustrating a process for generating context-based content in accordance with an embodiment of the present invention. The content management system begins by recording the content provided by the user (act 410). The content management system then creates a content entry in the content database for the recorded content (act 420). Next, the system associates a content entry with a predefined context by specifying one or more trigger conditions for the content entry (act 430). In some variations, a user may manually associate a content entry with a predefined context.

도 5는 본 발명의 일 실시예에 따른 콘텍스트-기반 콘텐트를 생성 및 전달하게 하는 일 예시적인 컴퓨팅 디바이스(502)를 도시한다.FIG. 5 illustrates an exemplary computing device 502 for creating and delivering context-based content in accordance with an embodiment of the invention.

컴퓨팅 디바이스(502)는 처리기(504), 메모리(506), 및 저장 디바이스(508)를 포함한다. 또한, 컴퓨팅 디바이스(502)는 디스플레이(510), 네트워크 인터페이스(512), 진동 메커니즘(514), 다수의 센서들(516), 입력 디바이스(518), 스피 커(520), 마이크로폰(522), 및 카메라(524)를 포함한다. 또한, 컴퓨팅 디바이스(502)는 네트워크 인터페이스(512)를 통해 네트워크(526)에 결합된다. 하나의 실시예에서, 네트워크(526)는 셀룰러 네트워크를 포함한다. 또 다른 실시예에서, 네트워크(526)는 인터넷을 포함한다.The computing device 502 includes a processor 504, a memory 506, and a storage device 508. The computing device 502 also includes a display 510, a network interface 512, a vibration mechanism 514, a plurality of sensors 516, an input device 518, a speaker 520, a microphone 522, And a camera 524. In addition, the computing device 502 is coupled to the network 526 via a network interface 512. In one embodiment, the network 526 includes a cellular network. In another embodiment, the network 526 includes the Internet.

저장 디바이스(508)는 오퍼레이팅 시스템(528), 콘텐트 관리 시스템(530), 콘텍스트 규정부들(context definitions)(542), 및 콘텐트(544)를 저장한다. 또한, 콘텐트 관리 시스템(530)은 사용자 인터페이스(UI)(532), 입력 메커니즘(534), 콘텍스트 관리자(536), 콘텐트 데이터베이스(538), 및 콘텐트 전달 메커니즘(540)을 포함한다. 하나의 실시예에서, UI(532)는 그래픽 사용자 인터페이스(GUI)이다. 또 다른 실시예에서, UI(532)는 음성-기반 사용자 인터페이스이다.The storage device 508 stores an operating system 528, a content management system 530, context definitions 542, and content 544. The content management system 530 also includes a user interface (UI) 532, an input mechanism 534, a context manager 536, a content database 538, and a content delivery mechanism 540. In one embodiment, the UI 532 is a graphical user interface (GUI). In another embodiment, the UI 532 is a voice-based user interface.

작동 동안, 콘텐트 관리 시스템(530)은 저장 디바이스(508)로부터 메모리(506)로 로딩되고 처리기(504)에 의해 실행된다. 본 발명의 하나의 실시예에서, 콘텐트 관리 시스템(530)은 사용자와 연관된 콘텍스트에 기초하여 사용자에 콘텐트를 제공한다. 이렇게 하기 위해, 콘텐트 관리 시스템(530)의 입력 메커니즘(534)은 다수의 입력 소스들(예를 들면, 네트워크 인터페이스(512), 센서들(516), 입력 디바이스(518), 마이크로폰(522), 및/또는 카메라(524))로부터 사용자와 연관된 콘텍스트 정보를 모으고, 콘텐트 관리 시스템(530)의 콘텍스트 관리자(536)는 사용자와 연관된 이벤트 또는 환경 팩터를 설명하는 콘텍스트 규정들(542)로부터 사용자-규정 콘텍스트를 추론하기 위해 기본 콘텍스트 정보를 해석한다. 그 다음 콘텍스트 관리자(536)는 다수의 추론된 콘텍스트들에 의해 트리거링된 콘텐트 데이터베이 스(538)에서 콘텐트 패키지를 검색하고, 콘텐트 관리 시스템(530)의 콘텐트 전달 메커니즘(540)은 선택된 콘텐트 패키지를 제공한다.During operation, the content management system 530 is loaded into the memory 506 from the storage device 508 and executed by the processor 504. In one embodiment of the present invention, the content management system 530 provides content to the user based on the context associated with the user. To this end, the input mechanism 534 of the content management system 530 includes a plurality of input sources (e.g., network interface 512, sensors 516, input device 518, microphone 522, And the context manager 536 of the content management system 530 collects context information associated with the user from the context rules 542 that describe the event or environment factor associated with the user, Interpret basic context information to infer context. The context manager 536 then retrieves the content package in the content database 538 triggered by the multiple inferred contexts and the content delivery mechanism 540 of the content management system 530 retrieves the selected content package to provide.

본 발명의 또 다른 실시예에서, 콘텐트 관리 시스템(530)은 사용자가 콘텐트 패키지를 생성하게 한다. 이렇게 하기 위해, 입력 메커니즘(534)은 다수의 입력 소스들로부터 콘텐트 스트림 및 사용자 상호작용들을 모으고, 콘텍스트 관리자(536)에게 콘텐트 스트림 및 사용자 상호작용들을 전송한다. 콘텍스트 관리자(536)는 사용자 상호작용들에 기초하여 콘텍스트 규정을 생성하거나, 콘텍스트 규정들(542)로부터 사용자-규정 콘텍스트를 선택한다. 또한, 콘텍스트 관리자(536)는 콘텐트 스트림 및 사용자 상호작용들에 기초하여 콘텐트 파일을 생성하고, 콘텐트 파일 및 콘텍스트를 포함하는 콘텐트 패키지를 생성한다. 다음, 콘텍스트 관리자(536)는 콘텐트 패키지를 콘텐트 데이터베이스(538)에게 제공하고, 콘텐트 데이터베이스(538)는 콘텐트 패키지에 대한 엔트리를 생성한다.In another embodiment of the present invention, the content management system 530 allows a user to create a content package. To do this, the input mechanism 534 collects the content streams and user interactions from a number of input sources and sends the content stream and user interactions to the context manager 536. The context manager 536 creates a context specification based on user interactions or selects a user-defined context from context specifications 542. [ In addition, the context manager 536 generates a content file based on the content stream and user interactions, and creates a content package that includes the content file and the context. Next, the context manager 536 provides the content package to the content database 538, and the content database 538 creates an entry for the content package.

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 상기 설명된 메커니즘들에 기초하여 예를 들면, 사용자에게 문법 규칙들을 가르치기 위해, 사용자에 의해 구성될 수 있다. 이렇게 할 때, 콘텐트 관리 시스템(530)은 사용자와 연관된 콘텍스트(예를 들면, 저녁을 먹으러 밖으로 감 또는 차 운전 같은 행동들)를 검출하고, 콘텍스트에 적당한 타켓 언어, 및 정확한 시간에서의 표현들을 포함하는 오디오 콘텐트를 제공한다. 예를 들면, 콘텐트 관리 시스템(530)은 적당한 콘텍스트 하에서 다음 오디오 콘텐트를 제공할 수 있다:In some embodiments, the content management system 530 may be configured by the user, for example, to teach the user grammar rules based on the mechanisms described above. In doing so, the content management system 530 detects the context associated with the user (e.g., behaviors such as going out to dinner or car driving), including the target language appropriate for the context, and expressions at the correct time Lt; / RTI &gt; For example, the content management system 530 may provide the following audio content under appropriate context:

사용자가 주차장에 진입하거나 차 문을 개방할 때: "나는 내 차를 운전할 것 이다"When the user enters the parking lot or opens the car door: "I will drive my car"

사용자가 운전하기 시작할 때: "나는 내 차를 운전하는 중이다"When the user starts driving: "I'm driving my car"

사용자가 차를 떠날 때: "나는 내 차를 운전했다"When the user leaves the car: "I drove my car"

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 사용자에게 지리적 위치에 적당한 콘텐트를 제공하기 위해 서버로부터 지오태그된(geotagged) 콘텐트를 검색할 수 있다. 예를 들면, 상기 설명된 메커니즘들에 기초하여, 유명 여행 위치를 방문하는 사용자들은 위치에 관한 보다 많은 다른 학습들을 돕기 위해 위치에 관한 정보를 설명하는 지오태그된 콘텐트를 생성할 수 있고, 이 콘텐트를 공용 데이터베이스에 업로드할 수 있다. 또한, 다수의 사용자들은 다수의 언어들로 위치에 관한 지오태그된 콘텐트를 업로드할 수 있다. 그 다음, 또 다른 사용자가 이 지리적 위치를 방문할 때, 콘텐트 관리 시스템(530)은 이 위치로 지오태그된 콘텐트를 다운로드할 수 있고, 콘텐트를 사용자에게 제공할 수 있다. 새로운 언어를 학습중인 사용자는 그 언어에서 콘텐트를 검색하기 위해 상기 설명된 메커니즘들에 기초하여 콘텐트 관리 시스템(530)을 구성할 수 있어, 사용자의 액티비티들에 적당한 언어 예들을 듣는다.In some embodiments, the content management system 530 may retrieve geotagged content from a server to provide the user with content suitable for the geographic location. For example, based on the mechanisms described above, users visiting a famous travel location can generate geotagged content that describes information about the location to aid in further learning about the location, To a public database. In addition, multiple users may upload geotagged content about the location in multiple languages. Then, when another user visits this geographic location, the content management system 530 may download the geotagged content to this location and provide the content to the user. A user learning a new language may configure the content management system 530 based on the mechanisms described above to retrieve the content in that language to hear the language examples appropriate for the user's activities.

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 원격 디바이스에 전자 메시지 또는 리마인더를 생성 및 전송할 수 있어 원격 디바이스가 주어진 사용자-규정 콘텍스트 하에서 콘텐트를 제공한다. 전자 메시지들 및 리마인더들은 텍스트, 또는 오디오 콘텐트 형태일 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(530)은 텍스트-대-스피치 기술을 사용하여 텍스트 메시지들 및 리마인더 들을 오디오 콘텐트로 전환할 수 있다. 이들 실시예들은 중요 정보를 수신자에 전송하기 위한 새로운 매체를 사용자에게 제공할 수 있고 수신자는 수신자가 적합한 콘텍스트 및 활동 상태에 있고, 임무를 완료할 수 있을 때 콘텐트를 수신할 것을 보장할 수 있다.In some embodiments, the content management system 530 may create and transmit an electronic message or reminder to the remote device so that the remote device provides the content under a given user-defined context. Electronic messages and reminders may be in the form of text, or audio content. In some variations on these embodiments, the content management system 530 may convert text messages and reminders to audio content using a text-to-speech technique. These embodiments can provide the user with new media for sending critical information to the recipient and the recipient can ensure that the recipient is in the appropriate context and activity state and receives the content when it can complete the mission.

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 개별적으로 서로 알지 못하는 사용자들 사이에서 콘텐트를 통신할 수 있다. 예를 들면, 콘텐트 관리 시스템(530)은 튜터링 서비스를 구현하기 위해 사용될 수 있고, 여기서 학생들은 콘텐트 관리 시스템(530)을 사용하여 튜터링 서비스에 공유가능한 콘텐트 패키지를 제출할 수 있고, 튜터링 서비스는 주어진 주제에 대한 콘텐트 패키지를 튜터(tutor)에 전달한다. 몇몇 변형들에서, 튜터링 서비스는 콘텐트 관리 시스템(530)의 분배된 버전에 의해 구현될 수 있고, 여기서 학생들 및 선생님들에 대한 콘텐트 관리 시스템들은 콘텐트 요청들 및 콘텐트 패키지들을 서로에 전달한다. 몇몇 다른 변형들에서, 튜터링 서비스는 인터넷 서비스로서 구현될 수 있고, 여기서 학생들 및 선생님들은 콘텐트 패키지들을 업로드 및 다운로드할 수 있고 관련 콘텐트 패키지들에 대한 요청들을 수행할 수 있다.In some embodiments, the content management system 530 can communicate content between users who do not know each other individually. For example, the content management system 530 may be used to implement a tutoring service, where the students may submit a content package that is shareable to the tutoring service using the content management system 530, To the tutor. &Lt; / RTI &gt; In some variations, the tutoring service may be implemented by a distributed version of the content management system 530, wherein content management systems for students and teachers deliver content requests and content packages to each other. In some other variations, the tutoring service may be implemented as an Internet service, where students and teachers can upload and download content packages and perform requests for related content packages.

튜터는 다른 사용자들에 의해 제출되고 주어진 콘텐트 유형 디스크립션에 관련된 콘텐트 요청들 및 불완전한 콘텐트 패키지들을 모니터링하는 처리에 가입하기 위해 튜터링 서비스를 사용할 수 있다. 튜터가 학생으로부터 콘텐트 요청 또는 불완전한 콘텐트 패키지를 통지받을 때, 튜터는 튜터로부터의 요청들에 대한 응답을 포함하는 새로운 콘텐트 패키지를 생성함으로써 학생에게 피드백을 제공할 수 있거 나, 콘텐트 패키지에 피드백 콘텐트를 삽입하기 위해 콘텐트 패키지를 수정할 수 있다. 그 다음, 튜터의 콘텐트 관리 시스템(530)은 학생에게 새로운 또는 수정된 콘텐트 패키지를 이용가능하게 할 수 있다. 그 다음, 튜터의 새로운 콘텐트는 콘텐트 관리 시스템(530)의 학생의 개인 버전에 의해 튜터링 서비스를 통해 검색될 수 있다.The tutor can use the tutoring service to subscribe to the process of submitting by other users and monitoring incomplete content packages and content requests related to a given content type description. When a tutor is notified of a content request or incomplete content package from a student, the tutor may provide feedback to the student by creating a new content package that includes a response to requests from the tutor, or may provide feedback content to the content package You can modify the content package to insert it. The tutor's content management system 530 may then enable the student to make a new or modified content package. The new content of the tutor may then be retrieved via the tutoring service by the student's personal version of the content management system 530. [

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 콘텐트 패키지를 제공할 때 사용자로부터 상호작용들과 연관된 상태 정보를 저장할 수 있다. 예를 들면, 사용자에게 상호작용 레슨들을 제공하는 콘텐트 패키지는 사용자에 대한 정확한 정보를 기록할 수 있다. 콘텐트 관리 시스템(530)은 진행 분석들을 수행하고, 사용자에 대한 목표들 및 학습 속도에 응답하여 레슨 계획의 페이스 및 어려움을 변경하기 위해 이 정보를 이용할 수 있다. 콘텐트 관리 시스템(530)은 학습에 어려움을 가진 사용자에게 부-주제(sub-topic)에 보다 많은 레슨들을 가진 특정 부-주제를 제공할 수 있고, 비교적 쉽게 자료를 학습하는 사용자에 대한 페이스 또는 어려움을 증가시킬 수 있다. 또한, 만약 주어진 사용자가 특정 주제를 공부하기 위하여 정해진 데드라인을 갖고, 사용자가 레슨들보다 뒤지면, 콘텐트 관리 시스템(530)은 사용자가 데드라인에 의해 준비됨을 보장하기 위해 레슨 계획의 페이스를 증가시킬 수 있다.In some embodiments, content management system 530 may store status information associated with interactions from a user when providing a content package. For example, a content package that provides interactive lessons to a user may record accurate information about the user. The content management system 530 may perform progress analyzes and use this information to change the pace and difficulty of lesson planning in response to goals and learning rates for the user. The content management system 530 can provide a specific sub-topic with more lessons to a sub-topic to a user having difficulty in learning, and can provide a relatively easy-to- Can be increased. Also, if a given user has a deadline set for studying a particular topic, and the user is behind a lesson, the content management system 530 increments the face of the lesson plan to ensure that the user is prepared by the deadline .

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 적당한 콘텍스트 내의 레슨 콘텐트를 제공하는 것과, 임의의 적당한 콘텍스트 외의 레슨 콘텐트를 제공하는 것 사이의 변경에 의해 주어진 레슨 계획에 대한 사용자의 메모리를 강화시킬 수 있 다. 몇몇 경우들에서, 콘텐트 관리 시스템(530)은 사용자가 학습에 가장 유효한 콘텍스트의 레슨들을 사용자에게 제공할 수 있다. 다른 경우들에서, 콘텐트 관리 시스템(530)은 사용자가 의존할 수 있는 임의의 콘텍스트 큐들(cues) 또는 리마인더들로부터 레슨 콘텐트를 근본적으로 분리하기 위해 부적당하고/부적당하거나 불편한 콘텍스트들의 레슨들을 사용자에게 제공할 수 있다.In some embodiments, the content management system 530 may be configured to enhance the user's memory for a given lesson plan by changing between providing lesson content in the appropriate context and providing lesson content in any suitable context It is possible. In some cases, the content management system 530 may provide the user with lessons of the context most effective for learning. In other instances, the content management system 530 may provide lessons of inappropriate / inappropriate or inconvenient contexts to the user in order to fundamentally separate the lesson content from any context cues or reminders the user may rely on. can do.

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 사용자에 레슨 계획을 전달하기 위한 방법을 발전시킬 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(530)은 사용자가 레슨 자료를 알고자 할 때 질문에 대한 올바른 응답을 사용자가 제공하기 전에 기다리는 시간 기간을 길게 할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(530)은 질문에 대한 응답을 제공하기 위해 감소하는 시간 기간을 사용자에게 허용할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(530)은 사용자가 주제의 진보된 이해 레벨에 도달할 때 요구하는 질문들의 명료함을 감소시킬 수 있다.In some embodiments, the content management system 530 may develop a method for delivering a lesson plan to a user. In some variations on these embodiments, the content management system 530 may lengthen the period of time that the user waits before providing a correct answer to the question when the user wants to know the lesson material. In other variations, the content management system 530 may allow the user a reduced time period to provide a response to the query. In other variations, the content management system 530 may reduce the clarity of the questions that the user requires when reaching an advanced understanding level of the subject.

몇몇 실시예들에서, 퍼블리셔들은 콘텐트 관리 시스템(530)에 대한 콘텐트 패키지들로서 인터넷 상에 그들의 콘텐트를 생성 및 퍼블리시할 수 있다. 새로운 언어를 학습하는 사용자는 언어 예들을 제공하는 다수의 콘텐트 패키지들을 모으는데 상당한 노력을 소비하는 것과 반대로 전문적으로 생성 및 진보된 언어 레슨에 대해 더 보상할 수 있다. In some embodiments, the publishers may create and publish their content on the Internet as content packages for the content management system 530. A user learning a new language can further compensate for professionally generated and advanced language lessons as opposed to spending considerable effort collecting multiple content packages that provide language examples.

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 명령 레슨을 상보하기 위해 스피치 승인(speech recognition)을 사용할 수 있다. 예를 들면, 콘텐트 관리 시스 템(530)은 사용자의 문법 및 발음에 대한 상시 피드백을 가진 새로운 언어를 학습하는 사용자에 공급하기 위한 스피치 승인을 사용할 수 있다. 또 다른 예에서, 콘텐트 관리 시스템(530)은 사용자가 타겟 청중에 대한 그/그녀의 통신 스타일을 변경하는 것을 돕도록 스피치 승인을 사용할 수 있다. 또 다른 예에서, 사용자가 다른 것들에 대한 기본적인 제 2 언어 교육 유형을 생성할 때, 콘텐트 관리 시스템(530)은 사용자가 이해를 위해 외국인에게 보다 간단한 언어를 사용하여야 하는 힌트들을 사용자에게 제공하기 위해, 스피치 또는 텍스트 승인, 및 심화 문장 구조 승인을 사용할 수 있다. 예를 들면, 콘텐트 관리 시스템(530)은 보다 공통의 명사들, 동사들, 및 보다 간단한 문장 구성들을 제안할 수 있다.In some embodiments, the content management system 530 may use speech recognition to complement the instructional lesson. For example, the content management system 530 may use speech recognition to supply a user learning a new language with constant feedback on the user's grammar and pronunciation. In another example, the content management system 530 may use speech recognition to help the user change his or her communication style for the target audience. In another example, when a user creates a basic second language training type for others, the content management system 530 may be configured to provide the user with hints that the user should use a simpler language for a foreigner for understanding , Speech or text approval, and deepening sentence structure approval. For example, the content management system 530 may suggest more common nouns, verbs, and simpler sentence structures.

몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 주어진 시간, 일주의 날짜, 또는 일녀의 날짜의 위치에서 모아지는 콘텍스트 정보에 기초하여 지리적으로 또는 시간적으로 규정된 상황에 대한 콘텍스트-기반 추론들을 구축할 수 있다. 콘텐트 관리 시스템(530)의 사용자가 하나의 상황에 직면할 때, 사용자는 그 상황에 특정한 방식으로 상황과 상호작용하고자 할 것이다. 콘텐트 관리 시스템(530)은 그 상황과 연관된 콘텍스트를 추론하기 위해 동일한 상황에서 다수의 사용자들로부터 모아진 거동들의 그의 관찰들을 이용할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 특정 사용자와 연관된 개인 정보를 저장할 필요가 없고, 단지 검출하는 미리 규정된 또는 사용자-규정된 거동 디스크립션들(예를 들면, "움직임", "걷기", "커피 브레이크", 등)을 저장할 필요가 있다. 예를 들면, 사용자가 콘텐트 관리 시스템(530)을 사용하는 동안 커피 숍을 여는 시간 동안 커피 숍에 앉아있을 때, 사용자는 "커피", "빈(beans)", "페이스트리", "와이-파이(Wi-Fi)", "핫-스팟(hot-spot)", "쉬고 있는(relaxing)", "큰컵의 커피(great cup of coffee)", "맛있는 쿠키들", "인터넷 액세스" 및 "인터넷 카페"를 포함하는, 커피 숍과 연관된 용어들 및 어구들을 언급하고자 할 수 있다. 미리 규정되거나 사용자-규정된 액티비티들 및/또는 검출되고 관찰된 단어들 및 어구들에 기초하여, 콘텐트 관리 시스템(530)은 사용자의 현재 상황이 용어 "커피"(예를 들면, 사용자가 현재 커피 숍에 있다)와 연관되는 것을 결정할 수 있다.In some embodiments, the content management system 530 builds context-based inferences for a geographically or temporally defined situation based on context information gathered at a given time, a week's date, can do. When a user of the content management system 530 encounters a situation, the user will want to interact with the situation in a manner that is specific to the situation. The content management system 530 may utilize its observations of behaviors gathered from multiple users in the same situation to infer the context associated with the situation. In some embodiments, the content management system 530 does not need to store personal information associated with a particular user, but only stores predefined or user-defined behavioral descriptions (e.g., "motion", " "," Coffee break ", etc.). For example, when a user is sitting at a coffee shop during the time of opening a coffee shop while using the content management system 530, the user may select one of the "coffee", "beans", "pastries", " Hot-spot, "" relaxing, "" great cup of coffee, "" delicious cookies, "" internet access, "and" Quot ;, " Internet Cafe ", " Internet Cafe " Based on predefined or user-defined activities and / or detected and observed words and phrases, the content management system 530 determines whether the user's current status is the term "coffee" (e.g., Which is in the shop).

이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(530)은 주어진 콘텍스트 하에서 검출된 사용자 액티비티들 또는 언급들로부터 모은 키워드들의 수집을 가진 공용 콘텍스트 데이터베이스를 제공할 수 있어, 공용 콘텍스트 데이터베이스의 콘텍스트 지식의 풀(pool)에 기여한다. 공용 콘텍스트 데이터베이스는 주어진 콘텍스트 하에서 가장 일반적인 용어들 및 어구들을 식별하고, 이들 키워드들 및 어구들을 콘텍스트와 연관시킴으로써 다수의 콘텐트 관리 시스템들에 의해 제공된 키워드들로부터 학습할 수 있다.In some variations on these embodiments, the content management system 530 may provide a public context database with collections of keywords collected from user activities or references detected under a given context, such that the context of the public context database It contributes to a pool of knowledge. The public context database can learn from the keywords provided by multiple content management systems by identifying the most common terms and phrases under a given context and associating these keywords and phrases with the context.

몇몇 다른 변형들에서, 콘텐트 관리 시스템(530)은 콘텍스트-특정 키워드들을 모으기 위한 다수의 애플리케이션들에 대해, 그의 콘텍스트 모니터링 능력(콘텍스트 정보(310) 수신)의 일부로서 사용자에 의해 전달된 텍스트 및 스피치를 모니터링한다. 예를 들면, 사용자는 모바일 디바이스에 대한 다수의 애플리케이션들(예를 들면, 이메일, 인터넷 검색 엔진들, 텍스트 메시지들, 모바일 웹 2.0, 등)을 사용하여 정보를 전달할 수 있다. 이들 변형들은 관련된 키워드들로 콘텍스트를 태그 하지 않고, 사용자들이 공용 콘텍스트 데이터베이스에 콘텍스트-특정 키워드들 및 어구들을 제공하게 한다. 몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 사용자로부터 캡쳐된 특정 키 워드들을 저장하지 않고, 단어들이 주어진 상황 내에서 검출될 때 공지된 워드들의 미리의 워드 엔트리에 대한 가중의 단위를 부가할 수 있다. 시간에 걸쳐, 공용 콘텍스트 데이터베이스는 주어진 상황에서 가장 공통적으로 나타나는 키워드들 및 어구들에 대한 선호도를 제공할 것이고, 대응하는 상황들과 특정 키워드들 및 어구들을 연관시키는 이들 키워드들을 데이터베이스 내에 포함할 수 있다.In some other variations, the content management system 530 is configured to send context-specific keywords to a plurality of applications for collecting context-specific keywords, text and speech delivered by the user as part of its context monitoring capability (receiving context information 310) Lt; / RTI &gt; For example, a user may convey information using multiple applications (e. G., Email, Internet search engines, text messages, mobile web 2.0, etc.) to the mobile device. These variants allow users to provide context-specific keywords and phrases to the public context database without tagging the context with related keywords. In some embodiments, the content management system 530 does not store specific key words captured from a user, but adds weighted units for a prior word entry of known words when words are detected in a given situation . Over time, the public context database will provide preferences for the most commonly occurring keywords and phrases in a given situation, and may include these keywords in the database that associate specific keywords and phrases with corresponding situations .

이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(530)은 구두 언급들을 검출할 때 스피치를 텍스트로 전환하기 위해 스피치-대-텍스트 메커니즘을 사용하는 음성-활성화된 키워드 룩업 메커니즘(voice-activated keyword lookup mechanism)을 포함한다. 콘텐트 관리 메커니즘(530)은 사용자의 현재 지리적 위치를 식별하기 위해 사용될 수 있는 콘텍스트를 추론하기 위해 공용 콘텍스트 데이터베이스에서 검색하기 위한 이들 구두 언급들로부터 생성된 텍스트를 사용한다. 이들 실시예들에 대한 몇몇 변형들에서, 키워드 룩업 메커니즘은 마이크로폰을 사용하여 환경으로부터 키워드들을 모을 수 있고/모을 수 있거나 사용자가 시작한 전화 대화으로부터 키워드들을 모을 수 있다. 몇몇 다른 변형들에서, 키워드 룩업 메커니즘은 텍스트 메시지, 이메일, 또는 임의의 다른 통신 메커니즘으로부터 단어들을 포함하는, 콘텐트 관리 시스템(530)을 사용하여 사용자가 수신 또는 전송하는 용어들 및 어구들로부터 키워드들을 모을 수 있다.In some variations on these embodiments, the content management system 530 may include a voice-activated keyword lookup mechanism using a speech-to-text mechanism to convert speech to text when detecting verbal comments, activated keyword lookup mechanism). The content management mechanism 530 uses text generated from these oral references to search in the public context database to deduce the context that may be used to identify the user's current geographic location. In some variations on these embodiments, the keyword lookup mechanism can collect and / or aggregate keywords from the environment using a microphone or collect keywords from a user initiated phone conversation. In some other variations, the keyword lookup mechanism may use the content management system 530, which includes words from a text message, e-mail, or any other communication mechanism, to retrieve keywords from terms and phrases received or transmitted by the user Can gather.

도 1은 본 발명의 일 실시예에 따른 콘텐트 관리 시스템(100)을 도시한 도면.1 illustrates a content management system 100 in accordance with an embodiment of the present invention.

도 2a는 본 발명의 실시예에 따라 사용자에게 콘텐트를 전달하는 것과 연관된 콘텐트 관리 시스템에 대한 데이터 흐름을 예시한 도면.2A illustrates a data flow for a content management system associated with delivering content to a user in accordance with an embodiment of the present invention.

도 2b는 본 발명의 실시예에 따른 콘텐트를 사용자가 생성하게 하는 것과 연관된 콘텐트 관리 시스템에 대한 데이터 흐름을 예시한 도면.Figure 2B illustrates a data flow for a content management system associated with causing a user to create content according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따라 사용자에게 콘텍스트-기반 콘텐트를 전달하기 위한 처리를 도시하는 흐름도.3 is a flow diagram illustrating a process for delivering context-based content to a user in accordance with an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 콘텍스트-기반 콘텐트를 생성하기 위한 처리를 도시하는 흐름도.4 is a flow diagram illustrating a process for generating context-based content in accordance with an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 콘텍스트-기반 콘텐트를 생성 및 전달하게 하는 일 예시적인 컴퓨팅 디바이스를 도시한 도면.Figure 5 illustrates one exemplary computing device for creating and delivering context-based content in accordance with an embodiment of the present invention.

Claims (18)

콘텍스트-기반 콘텐트(context-based content)를 제 1 사용자에게 전달하기 위한 방법에 있어서:A method for delivering context-based content to a first user, the method comprising: 수신 메커니즘에 의해 적어도 하나의 콘텐트 패키지를 수신하는 단계로서, 상기 콘텐트 패키지는 적어도 하나의 콘텐트 및 상기 콘텐트 패키지와 연관된 하나의 세트의 규칙을 포함하고, 상기 하나의 세트의 규칙은 트리거(trigger) 조건 및 예상된 응답을 포함하고, 상기 트리거 조건은 상기 콘텐트의 프리젠테이션을 트리거하는 콘텍스트를 지정하는, 상기 적어도 하나의 콘텐트 패키지 수신 단계;Receiving at least one content package by a receiving mechanism, the content package comprising at least one content and a set of rules associated with the content package, the one set of rules including a trigger condition And an expected response, wherein the trigger condition specifies a context that triggers a presentation of the content; the at least one content package receiving step; 입력 메커니즘에 의해 상기 제 1 사용자에 관한 하나의 세트의 콘텍스트 정보를 수신하는 단계;Receiving a set of contextual information about the first user by an input mechanism; 콘텍스트 관리자에 의해 상기 제 1 사용자를 위한 현재의 콘텍스트를 결정하기 위해 상기 콘텍스트 정보를 처리하는 단계;Processing the context information by the context manager to determine a current context for the first user; 상기 콘텍스트 관리자에 의해 상기 현재의 콘텍스트가 상기 트리거 조건을 만족하는지의 여부를 결정하는 단계;Determining by the context manager whether the current context meets the trigger condition; 상기 트리거 조건이 만족되는 것에 응답하여, 콘텐트 전달 메커니즘에 의해 상기 제 1 사용자에게 상기 콘텐트를 제공하는 단계를 포함하고,In response to the trigger condition being satisfied, providing the content to the first user by a content delivery mechanism, 상기 콘텐트 전달 메커니즘은 다음의 단계들:The content delivery mechanism comprises the steps of: 제공된 상기 콘텐트에 대응하는 상기 제 1 사용자로부터의 응답을 수신하는 단계;Receiving a response from the first user corresponding to the provided content; 수신된 상기 응답이 상기 예상된 응답과 일치하는지의 여부를 결정하는 단계; 및Determining whether the response received is consistent with the expected response; And 상기 결정의 결과에 기초하여 행동(action)을 수행하는 단계를 수행하는, 콘텍스트-기반 콘텐트 전달 방법.And performing an action based on a result of the determination. 제 1 항에 있어서, The method according to claim 1, 상기 콘텍스트 관리자에 의해 상기 제 1 사용자에 대한 상기 콘텐트 패키지를 생성하는 단계를 추가로 포함하고,Further comprising generating the content package for the first user by the context manager, 상기 콘텐트 패키지를 생성하는 단계는,Wherein creating the content package comprises: 상기 제 1 사용자에 의해 제공되는 상기 콘텐트를 기록하는 단계;Recording the content provided by the first user; 기록된 상기 콘텐트에 대한 콘텐트 데이터베이스의 엔트리(entry)를 생성하는 단계로서, 상기 엔트리가 하나 이상의 트리거 조건들을 포함하는, 상기 엔트리 생성 단계; 및Generating an entry of a content database for the recorded content, the entry including one or more trigger conditions; And 상기 엔트리에 대한 상기 하나 이상의 트리거 조건들과 사용자-규정된 콘텍스트를 연관시키는 단계를 추가로 포함하고,Further comprising associating the user-defined context with the one or more trigger conditions for the entry, 상기 콘텍스트 관리자에 의해, 상기 제 1 사용자의 진행 콘텍스트와 상기 엔트리에 대한 이전에 규정된 트리거 조건들을 계속 비교하는 단계; 및Continuously comparing, by the context manager, the progress context of the first user with previously defined trigger conditions for the entry; And 상기 하나 이상의 트리거 조건들이 만족되는 것에 응답하여, 상기 콘텍스트 관리자에 의해 상기 콘텐트를 검색하고 상기 콘텐트 전달 메커니즘에 의해 상기 제 1 사용자에게 검색된 상기 콘텐트를 제공하는 단계를 추가로 포함하는, 콘텍스트-기반 콘텐트 전달 방법.Further comprising: in response to the one or more trigger conditions being satisfied, retrieving the content by the context manager and providing the content retrieved to the first user by the content delivery mechanism. Delivery method. 제 2 항에 있어서, 3. The method of claim 2, 상기 콘텍스트 관리자에 의해 상기 제 1 사용자에 대한 공유가능한 콘텐트를 생성하는 단계를 추가로 포함하고,Further comprising generating, by the context manager, shareable content for the first user, 상기 공유가능한 콘텐트를 생성하는 단계는,Wherein the generating the shareable content comprises: 상기 제 1 사용자에 의해 제공되는 상기 공유가능한 콘텐트를 기록하는 단계; 및Recording the shareable content provided by the first user; And 기록된 상기 공유가능한 콘텐트에 대한 콘텐트 패키지를 생성하는 단계로서, 상기 콘텐트 패키지는 기록된 상기 공유가능한 콘텐트를 포함하고, 상기 콘텐트 패키지는 하나 이상의 트리거 조건들을 포함하는, 상기 콘텐트 패키지 생성 단계를 포함하고,Creating a content package for the recorded shareable content, wherein the content package comprises the recorded shareable content and the content package comprises one or more trigger conditions; , 상기 콘텐트 패키지는 상기 콘텐트 패키지의 수신자가 상기 콘텐트 패키지로부터의 콘텐트 또는 트리거 조건들을 삽입, 수정, 및 제거하는 것을 허용하는, 콘텍스트-기반 콘텐트 전달 방법.Wherein the content package allows a recipient of the content package to insert, modify, and remove content or trigger conditions from the content package. 제 1 항에 있어서, The method according to claim 1, 상기 콘텍스트 관리자에 의해,By the context manager, 콘텍스트 관리자에 하나 이상의 콘텍스트 엔트리들을 생성하고;Create one or more context entries in the context manager; 하나의 세트의 콘텍스트 정보와 각각의 콘텍스트 엔트리를 연관시킴으로써, 콘텍스트를 규정하는 단계를 추가로 포함하는, 콘텍스트-기반 콘텐트 전달 방법.Further comprising defining a context by associating each context entry with a set of context information. &Lt; Desc / Clms Page number 21 &gt; 제 4 항에 있어서,5. The method of claim 4, 상기 콘텍스트 관리자에 의해, 상기 콘텐트 데이터베이스의 엔트리들을 업데이트하고 상기 제 1 사용자에 의해 수행되는 행동들에 응답하는 상기 콘텍스트 관리자의 상기 콘텍스트 엔트리들을 업데이트하는 단계를 추가로 포함하는, 콘텍스트-기반 콘텐트 전달 방법.Further comprising, by the context manager, updating entries in the content database and updating the context entries in the context manager in response to actions performed by the first user. . 제 1 항에 있어서,The method according to claim 1, 상기 콘텍스트는 하나 이상의 하위-레벨 콘텍스트 정보 값들에 대응하는 적어도 상위-레벨 요약의 조합으로서 규정되며, 상기 하위-레벨 콘텍스트 정보 값들은 하나 이상의 측정가능한 파라미터에 대응할 수 있는, 콘텍스트-기반 콘텐트 전달 방법.Wherein the context is defined as a combination of at least a high-level summary corresponding to one or more low-level context information values, the low-level context information values corresponding to one or more measurable parameters. 제 1 항에 있어서,The method according to claim 1, 각각의 규칙은 하나 이상의 상위-레벨 요약들로 규정되는, 콘텍스트-기반 콘텐트 전달 방법.Wherein each rule is defined as one or more higher-level summaries. 제 7 항에 있어서,8. The method of claim 7, 상기 제 1 사용자가 상기 규칙들을 제 2 사용자와 공유하는 것을 허용하는 단계를 추가로 포함하고, 상기 제 2 사용자는 상기 제 2 사용자의 낮은-레벨 콘텍스트 파라미터들에 기초하여 공유된 상기 규칙들을 재규정할 수 있는, 콘텍스트-기반 콘텐트 전달 방법.Further comprising: allowing the first user to share the rules with a second user, the second user re-defining the shared rules based on the low-level context parameters of the second user A method of delivering context-based content. 제 1 항에 있어서,The method according to claim 1, 상기 콘텐트를 제공하는 것은 상기 콘텐트를 원격 디바이스와 공유하는 것을 포함하는, 콘텍스트-기반 콘텐트 전달 방법.Wherein providing the content comprises sharing the content with a remote device. 제 1 항에 있어서,The method according to claim 1, 상기 콘텍스트 정보는 시간, 날짜, 위치, 시스템-감지가능 태그(tag)의 접근, 디바이스 방향성, 속도, 방향, 거리, 진동, 고도, 온도, 압력, 습도, 소리, 광도, 카메라 이미지, 및 비디오 스트림 중 하나 이상을 포함하는, 콘텍스트-기반 콘텐트 전달 방법.The context information may include time, date, location, system-detectable tag access, device direction, speed, direction, distance, vibration, altitude, temperature, pressure, humidity, sound, brightness, camera image, The content-based content delivery method comprising: 제 1 항에 있어서,The method according to claim 1, 상기 콘텐트는 오디오 클립, 이미지, 비디오 스트림, 언어 교습, 이메일(e-mail), 날씨 보고, 캘린더 리마인더, 뉴스 제공, 풍부한 사이트 요약(RSS) 제공, 웹 2.0 정보 업데이트 애플리케이션, 및 인터넷 블로그 중 하나 이상을 포함하는, 콘텍스트-기반 콘텐트 전달 방법.The content may include at least one of an audio clip, an image, a video stream, a language tutorial, an e-mail, a weather report, a calendar reminder, a news feed, a rich site summary (RSS) Based content delivery method. 콘텍스트-기반 콘텐트를 제 1 사용자에게 전달하기 위한 장치에 있어서,An apparatus for delivering context-based content to a first user, 프로세서;A processor; 상기 제 1 사용자와 연관된 하나의 세트의 콘텍스트 정보를 수신하도록 구성된 입력 메커니즘;An input mechanism configured to receive a set of context information associated with the first user; 적어도 하나의 콘텐트 패키지를 수신하도록 구성된 수신 메커니즘으로서, 상기 콘텐트 패키지는 적어도 하나의 콘텐트 및 상기 콘텐트 패키지와 연관된 하나의 세트의 규칙을 포함하고, 상기 하나의 세트의 규칙은 트리거 조건 및 예상된 응답을 포함하고, 상기 트리거 조건은 상기 콘텐트의 프리젠테이션을 트리거하는 콘텍스트를 지정하는, 상기 수신 메커니즘;A receiving mechanism configured to receive at least one content package, the content package comprising at least one content and a set of rules associated with the content package, wherein the one set of rules includes a trigger condition and an expected response Wherein the trigger condition specifies a context that triggers a presentation of the content; the receiving mechanism; 상기 콘텍스트-기반 콘텐트를 제 1 사용자에게 제공하도록 구성된 콘텐트 전달 메커니즘; 및A content delivery mechanism configured to provide the context-based content to a first user; And 상기 제 1 사용자를 위한 현재의 콘텍스트를 결정하기 위해 상기 콘텍스트 정보를 처리하고 상기 현재의 콘텍스트가 상기 트리거 조건을 만족하는지의 여부를 결정하도록 구성된 콘텍스트 관리자를 포함하고,And a context manager configured to process the context information to determine a current context for the first user and to determine whether the current context meets the trigger condition, 상기 트리거 조건이 만족되는 것에 응답하여, 상기 콘텐트 전달 메커니즘은 상기 제 1 사용자에게 상기 콘텐트를 제공하도록 구성되고,Wherein in response to the trigger condition being satisfied, the content delivery mechanism is configured to provide the content to the first user, 상기 제 1 사용자에게 상기 콘텐트를 제공하는 동안, 상기 콘텐트 전달 메커니즘은:While providing the content to the first user, the content delivery mechanism comprises: 제공된 상기 콘텐트에 대응하는 상기 제 1 사용자로부터의 응답을 수신하고,Receiving a response from the first user corresponding to the provided content, 수신된 상기 응답이 상기 예상된 응답과 일치하는지의 여부를 결정하고,Determining whether the received response matches the expected response, 상기 결정의 결과에 기초하여 행동을 수행하도록 추가로 구성되는, 콘텍스트-기반 콘텐트 전달 장치.And wherein the context-based content delivery device is further configured to perform an action based on a result of the determination. 제 12 항에 있어서,13. The method of claim 12, 상기 제 1 사용자에 대한 상기 콘텐트 패키지를 생성하도록 구성된 콘텐트 관리자 메커니즘을 추가로 포함하고,Further comprising a content manager mechanism configured to create the content package for the first user, 상기 콘텐트 패키지를 생성하는 것은:Creating the content package comprises: 상기 제 1 사용자에 의해 제공되는 상기 콘텐트를 기록하고;Record the content provided by the first user; 기록된 상기 콘텐트에 대한 콘텐트 데이터베이스의 엔트리를 생성하는 것으로서, 상기 엔트리는 하나 이상의 트리거 조건들을 포함하는, 상기 엔트리를 생성하고;Generating an entry of a content database for the recorded content, wherein the entry comprises one or more trigger conditions; 상기 엔트리에 대한 상기 하나 이상의 트리거 조건들과 사용자-규정된 콘텍스트를 연관시키고;Associating the one or more trigger conditions for the entry with a user-defined context; 상기 제 1 사용자의 진행 콘텍스트와 상기 엔트리에 대한 이전에 규정된 트리거 조건들을 계속 비교하며;Continuously comparing the progress context of the first user with previously defined trigger conditions for the entry; 상기 하나 이상의 트리거 조건들이 만족되는 것에 응답하여, 상기 콘텐트를 검색하고 상기 제 1 사용자에 검색된 상기 콘텐트를 제공하는 것을 포함하는, 콘텍스트-기반 콘텐트 전달 장치.In response to the one or more trigger conditions being satisfied, retrieving the content and providing the retrieved content to the first user. 제 13 항에 있어서,14. The method of claim 13, 상기 제 1 사용자에 대한 공유가능한 콘텐트를 생성하도록 추가로 구성되고,Further configured to generate shareable content for the first user, 상기 공유가능한 콘텐트를 생성하는 것은:Generating the shareable content comprises: 상기 제 1 사용자에 의해 제공되는 상기 공유가능한 콘텐트를 기록하고;Record the shareable content provided by the first user; 기록된 상기 공유가능한 콘텐트에 대한 콘텐트 패키지를 생성하는 것으로서, 상기 콘텐트 패키지는 기록된 상기 공유가능한 콘텐트를 포함하고, 상기 콘텐트 패키지는 하나 이상의 트리거 조건들을 포함하는, 상기 콘텐트 패키지 생성을 포함하고,Generating a content package for the recorded shareable content, wherein the content package comprises the recorded shareable content, and wherein the content package includes one or more trigger conditions, 상기 콘텐트 패키지는 상기 콘텐트 패키지의 수신자가 상기 콘텐트 패키지로부터의 콘텐트 또는 트리거 조건들을 삽입, 수정, 및 제거하는 것을 허용하는, 콘텍스트-기반 콘텐트 전달 장치.Wherein the content package allows a recipient of the content package to insert, modify, and remove content or trigger conditions from the content package. 제 12 항에 있어서,13. The method of claim 12, 상기 콘텍스트 관리자는, The context manager, 하나 이상의 콘텍스트 엔트리들을 생성하고;Create one or more context entries; 하나의 세트의 콘텍스트 정보와 각각의 콘텍스트 엔트리를 연관시킴으로써, 콘텍스트를 규정하는, 콘텍스트-기반 콘텐트 전달 장치.And associates each context entry with a set of context information. &Lt; Desc / Clms Page number 21 &gt; 제 15 항에 있어서,16. The method of claim 15, 상기 콘텐트 데이터베이스의 엔트리들을 업데이트하고 상기 제 1 사용자에 의해 수행되는 행동들에 응답하여 상기 콘텍스트 관리자 내의 상기 콘텍스트 엔트리들을 업데이트하도록 추가로 구성되는, 콘텍스트-기반 콘텐트 전달 장치.Update the entries in the content database and update the context entries in the context manager in response to actions performed by the first user. 제 12 항에 있어서,13. The method of claim 12, 상기 콘텍스트 정보는 시간, 날짜, 위치, 시스템-감지가능 태그(tag)의 접근, 디바이스 방향성, 속도, 방향, 거리, 진동, 고도, 온도, 압력, 습도, 소리, 광도, 카메라 이미지, 및 비디오 스트림 중 하나 이상을 포함하는, 콘텍스트-기반 콘텐트 전달 장치.The context information may include time, date, location, system-detectable tag access, device direction, speed, direction, distance, vibration, altitude, temperature, pressure, humidity, sound, brightness, camera image, The content-based content delivery device comprising: 제 12 항에 있어서,13. The method of claim 12, 상기 콘텐트는 오디오 클립, 이미지, 비디오 스트림, 언어 교습, 이메일, 날씨 보고, 캘린더 리마인더, 뉴스 제공, 풍부한 사이트 요약(RSS) 제공, 웹 2.0 정보 업데이트 애플리케이션, 및 인터넷 블로그 중 하나 이상을 포함하는, 콘텍스트-기반 콘텐트 전달 장치.The content may include at least one of an audio clip, an image, a video stream, a language tutorial, an email, a weather report, a calendar reminder, a news feed, a rich site summary (RSS) Based content delivery device.
KR1020090117513A 2008-12-02 2009-12-01 context and activity-driven content delivery and interaction KR101562834B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/326,457 US8489599B2 (en) 2008-12-02 2008-12-02 Context and activity-driven content delivery and interaction
US12/326,457 2008-12-02

Publications (2)

Publication Number Publication Date
KR20100062940A KR20100062940A (en) 2010-06-10
KR101562834B1 true KR101562834B1 (en) 2015-10-26

Family

ID=41612390

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090117513A KR101562834B1 (en) 2008-12-02 2009-12-01 context and activity-driven content delivery and interaction

Country Status (5)

Country Link
US (1) US8489599B2 (en)
EP (1) EP2194472A1 (en)
JP (1) JP5607917B2 (en)
KR (1) KR101562834B1 (en)
CN (2) CN101751467A (en)

Families Citing this family (281)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8788588B2 (en) * 2006-05-03 2014-07-22 Samsung Electronics Co., Ltd. Method of providing service for user search, and apparatus, server, and system for the same
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US10002034B2 (en) 2008-02-25 2018-06-19 Georgetown University System and method for detecting, collecting, analyzing, and communicating event-related information
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10504124B2 (en) 2008-04-21 2019-12-10 Verizon Patent And Licensing Inc. Aggregation and use of information relating to a users context for personalized advertisements
US20090265764A1 (en) * 2008-04-21 2009-10-22 Verizon Business Network Services Inc. Aggregation and use of information relating to a users context
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US9587949B2 (en) * 2009-03-31 2017-03-07 Verizon Patent And Licensing Inc. Position-based tags, reminders, and messaging
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20120309363A1 (en) * 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US9350817B2 (en) * 2009-07-22 2016-05-24 Cisco Technology, Inc. Recording a hyper text transfer protocol (HTTP) session for playback
US8306641B2 (en) * 2009-12-04 2012-11-06 Sony Mobile Communications Ab Aural maps
US8572753B2 (en) * 2009-12-22 2013-10-29 Ncr Corporation Methods and apparatus for selecting and delivering content
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
DE202011111062U1 (en) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Device and system for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
FR2960730A1 (en) * 2010-05-31 2011-12-02 France Telecom METHODS OF CONTROLLING AND MANAGING AN INTERACTIVE DIALOGUE, PLATFORM AND APPLICATION SERVER EMPLOYING THEM
US9081767B2 (en) * 2010-07-26 2015-07-14 Radiant Logic, Inc. Browsing of contextual information
US8068011B1 (en) 2010-08-27 2011-11-29 Q Street, LLC System and method for interactive user-directed interfacing between handheld devices and RFID media
US9135086B2 (en) * 2010-09-22 2015-09-15 Rosetta Stone, Ltd. Performing a computerized language teaching lesson using a main computer and a mobile device
US8612600B2 (en) * 2010-12-07 2013-12-17 Nec Laboratories America, Inc. Negotiation tool and method for cloud infrastructure data sharing
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9501531B2 (en) * 2011-05-18 2016-11-22 Microsoft Technology Licensing, Llc Contextual relevance engine for activity feeds
US20120310642A1 (en) 2011-06-03 2012-12-06 Apple Inc. Automatically creating a mapping between text data and audio data
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
JP5608610B2 (en) * 2011-06-28 2014-10-15 ヤフー株式会社 Portable advertisement display device, method and program
US8949212B1 (en) * 2011-07-08 2015-02-03 Hariharan Dhandapani Location-based informaton display
KR101467023B1 (en) * 2011-08-23 2014-12-03 주식회사 케이티 System and method to deliver contents using dynamic context in the distributed network
KR102006741B1 (en) 2011-08-24 2019-09-02 삼성전자 주식회사 Method and system sharing activity of a device
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8606655B2 (en) * 2011-09-15 2013-12-10 Ziplist, Inc. Methods and apparatus for managing a universal list system
KR101912088B1 (en) * 2011-10-12 2018-10-26 삼성전자 주식회사 Apparatus and method for extending a default model of terminal, and a computer-readable storage medium
EP2581842A1 (en) * 2011-10-13 2013-04-17 Gface GmbH Method for creating a keyword-based user-personalized webpage
KR101925057B1 (en) * 2011-12-12 2019-02-28 삼성전자주식회사 System and method for sharing content by using context information
GB2497793A (en) * 2011-12-21 2013-06-26 Ninian Solutions Ltd Pre-emptive caching of potentially relevant content from a collaborative workspace at a client device
JP5938951B2 (en) * 2012-03-01 2016-06-22 株式会社リコー Information processing system, information processing apparatus, and program
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9008688B2 (en) * 2012-05-07 2015-04-14 Qualcomm Incorporated Calendar matching of inferred contexts and label propagation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US8429103B1 (en) 2012-06-22 2013-04-23 Google Inc. Native machine learning service for user adaptation on a mobile platform
US8510238B1 (en) 2012-06-22 2013-08-13 Google, Inc. Method to predict session duration on mobile devices using native machine learning
US8886576B1 (en) 2012-06-22 2014-11-11 Google Inc. Automatic label suggestions for albums based on machine learning
US9479465B2 (en) * 2012-06-26 2016-10-25 International Business Machines Corporation Gathering context information for a communication
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9311412B2 (en) * 2012-07-16 2016-04-12 International Business Machines Corporation Automatically notifying a computer user of internet content
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR102070196B1 (en) * 2012-09-20 2020-01-30 삼성전자 주식회사 Method and apparatus for providing context aware service in a user device
US10042603B2 (en) 2012-09-20 2018-08-07 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
US11468243B2 (en) 2012-09-24 2022-10-11 Amazon Technologies, Inc. Identity-based display of text
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US20140181715A1 (en) * 2012-12-26 2014-06-26 Microsoft Corporation Dynamic user interfaces adapted to inferred user contexts
US9396502B2 (en) * 2013-01-23 2016-07-19 Facebook, Inc. Enabling delayed interactions with content items presented by a social networking system
US9426242B2 (en) * 2013-01-29 2016-08-23 Apple Inc. Determining an invitational content item type based on predicted user attention
CN113470640B (en) 2013-02-07 2022-04-26 苹果公司 Voice trigger of digital assistant
US10649619B2 (en) * 2013-02-21 2020-05-12 Oath Inc. System and method of using context in selecting a response to user device interaction
WO2014138175A1 (en) * 2013-03-05 2014-09-12 Perkin Sean Interactive digital content sharing among users
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US20140272891A1 (en) * 2013-03-15 2014-09-18 Joseph Saladino System and method for remote fitness training
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014144949A2 (en) 2013-03-15 2014-09-18 Apple Inc. Training an at least partial voice command system
US20140280186A1 (en) * 2013-03-15 2014-09-18 International Business Machines Corporation Crowdsourcing and consolidating user notes taken in a virtual meeting
US20140316849A1 (en) * 2013-04-22 2014-10-23 Kiosked Oy Method and system for determining item specific user interest
CN104969185B (en) * 2013-04-29 2018-10-12 安提特软件有限责任公司 Storage medium, the system and method by unstructured logout within a context
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
WO2014200728A1 (en) 2013-06-09 2014-12-18 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
US11074618B2 (en) * 2013-06-13 2021-07-27 Blackberry Limited Method and apparatus pertaining to history-based content-sharing recommendations
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
US20150095771A1 (en) * 2013-09-30 2015-04-02 Lenovo (Singapore) Pte. Ltd. Journal launch based on context
US10055756B2 (en) 2013-10-18 2018-08-21 Apple Inc. Determining user engagement
KR102122771B1 (en) * 2013-10-25 2020-06-26 삼성전자주식회사 Artificial intelligence audio apparatus and operation method thereof
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US20150162000A1 (en) * 2013-12-10 2015-06-11 Harman International Industries, Incorporated Context aware, proactive digital assistant
US9225522B2 (en) * 2013-12-27 2015-12-29 Linkedin Corporation Techniques for populating a content stream on a mobile device
US20150200891A1 (en) * 2014-01-16 2015-07-16 Sony Corporation Computer ecosystem with context-specific messaging
US9444735B2 (en) 2014-02-27 2016-09-13 Cisco Technology, Inc. Contextual summarization tag and type match using network subnetting
KR102469752B1 (en) * 2014-07-31 2022-11-22 삼성전자주식회사 Wearable device and method for controlling the same
EP2945108A1 (en) * 2014-05-13 2015-11-18 Thomson Licensing Method and apparatus for handling digital assets in an assets-based workflow
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
WO2015195671A1 (en) * 2014-06-16 2015-12-23 Baker Richard L Dynamic mobile platform functionalities employing proximal variants and advanced personalization methods for structure, navigation, theme, content, and functionality
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
WO2016018044A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of controlling the same
CN105373555B (en) * 2014-08-26 2018-11-13 鸿富锦精密工业(深圳)有限公司 Multimedia equipment and multimedia situation processing method
TWI545943B (en) 2014-08-26 2016-08-11 鴻海精密工業股份有限公司 Multimedia Device and Method for Processing Multimedia Scenario
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
CN105430032A (en) 2014-09-17 2016-03-23 阿里巴巴集团控股有限公司 Method of pushing information by combining geographic position of terminal, and server
US20160094866A1 (en) * 2014-09-29 2016-03-31 Amazon Technologies, Inc. User interaction analysis module
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9692867B2 (en) * 2014-12-05 2017-06-27 Here Global B.V. Event accessory item location
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US10454865B2 (en) * 2014-12-19 2019-10-22 International Business Machines Corporation Social network activity modes
US10430421B2 (en) 2014-12-29 2019-10-01 Facebook, Inc. Recommending content items in a social network using delayed interaction
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9467718B1 (en) 2015-05-06 2016-10-11 Echostar Broadcasting Corporation Apparatus, systems and methods for a content commentary community
CN104853249A (en) * 2015-05-12 2015-08-19 天脉聚源(北京)传媒科技有限公司 Program recommendation method and terminal
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10564794B2 (en) * 2015-09-15 2020-02-18 Xerox Corporation Method and system for document management considering location, time and social context
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10268689B2 (en) * 2016-01-28 2019-04-23 DISH Technologies L.L.C. Providing media content based on user state detection
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10824932B2 (en) 2016-04-29 2020-11-03 Microsoft Technology Licensing, Llc Context-aware digital personal assistant supporting multiple accounts
US10984036B2 (en) 2016-05-03 2021-04-20 DISH Technologies L.L.C. Providing media content based on media element preferences
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US11477302B2 (en) * 2016-07-06 2022-10-18 Palo Alto Research Center Incorporated Computer-implemented system and method for distributed activity detection
US10223067B2 (en) * 2016-07-15 2019-03-05 Microsoft Technology Licensing, Llc Leveraging environmental context for enhanced communication throughput
US11227020B2 (en) * 2016-08-11 2022-01-18 International Business Machines Corporation Displaying content based on a user's status
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10764381B2 (en) 2016-12-23 2020-09-01 Echostar Technologies L.L.C. Communications channels in media systems
US11196826B2 (en) 2016-12-23 2021-12-07 DISH Technologies L.L.C. Communications channels in media systems
US10390084B2 (en) 2016-12-23 2019-08-20 DISH Technologies L.L.C. Communications channels in media systems
US11409463B2 (en) 2016-12-28 2022-08-09 Microsoft Technology Licensing, Llc Systems and methods for contextual memory capture and recall
US10593329B2 (en) 2016-12-30 2020-03-17 Google Llc Multimodal transmission of packetized data
US10708313B2 (en) 2016-12-30 2020-07-07 Google Llc Multimodal transmission of packetized data
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US20180270178A1 (en) 2017-03-09 2018-09-20 Agt International Gmbh Method and apparatus for sharing materials in accordance with a context
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. User interface for correcting recognition errors
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. Low-latency intelligent automated assistant
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. Multi-modal interfaces
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. Far-field extension for digital assistant services
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10176808B1 (en) * 2017-06-20 2019-01-08 Microsoft Technology Licensing, Llc Utilizing spoken cues to influence response rendering for virtual assistants
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10671338B2 (en) * 2017-09-29 2020-06-02 Spotify Ab Systems and methods of associating media content with contexts
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11330029B2 (en) 2018-03-27 2022-05-10 Lenovo (Singapore) Pte. Ltd. Sharing content with a detected device
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
CN108696635A (en) * 2018-04-24 2018-10-23 广东美的制冷设备有限公司 User behavior detection method, device, system and electronic equipment
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. Virtual assistant operation in multi-device environments
DK179822B1 (en) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
US20190385341A1 (en) * 2018-06-15 2019-12-19 Life Impact Solutions, Llc Dynamic visual and audio geotagged photo filter
CN108597273A (en) * 2018-06-22 2018-09-28 南阳理工学院 A kind of intelligent tutoring system for English study
US10878202B2 (en) * 2018-08-03 2020-12-29 International Business Machines Corporation Natural language processing contextual translation
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11037550B2 (en) 2018-11-30 2021-06-15 Dish Network L.L.C. Audio-based link generation
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
WO2020219331A1 (en) * 2019-04-26 2020-10-29 Verint Americas Inc. Dynamic web content based on natural language processing (nlp) inputs
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. User activity shortcut suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11250071B2 (en) * 2019-06-12 2022-02-15 Microsoft Technology Licensing, Llc Trigger-based contextual information feature
JPWO2020255767A1 (en) * 2019-06-20 2020-12-24
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US11256526B2 (en) * 2019-10-11 2022-02-22 Lenovo (Singapore) Pte. Ltd. Contextual item management
US11902091B2 (en) * 2020-04-29 2024-02-13 Motorola Mobility Llc Adapting a device to a user based on user emotional state
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
CN111709362B (en) * 2020-06-16 2023-08-08 百度在线网络技术(北京)有限公司 Method, device, equipment and storage medium for determining important learning content
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11567812B2 (en) 2020-10-07 2023-01-31 Dropbox, Inc. Utilizing a natural language model to determine a predicted activity event based on a series of sequential tokens
US11568018B2 (en) 2020-12-22 2023-01-31 Dropbox, Inc. Utilizing machine-learning models to generate identifier embeddings and determine digital connections between digital content items

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555376A (en) * 1993-12-03 1996-09-10 Xerox Corporation Method for granting a user request having locational and contextual attributes consistent with user policies for devices having locational attributes consistent with the user request
US7076737B2 (en) * 1998-12-18 2006-07-11 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US7630986B1 (en) * 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
JP2001265809A (en) * 2000-03-23 2001-09-28 Nec Corp System and method for communication and recording medium
AU2001253161A1 (en) * 2000-04-04 2001-10-15 Stick Networks, Inc. Method and apparatus for scheduling presentation of digital content on a personal communication device
JP2002279028A (en) * 2001-03-19 2002-09-27 Pioneer Electronic Corp System, method and device for supporting information, and information terminal device
US20020144259A1 (en) * 2001-03-29 2002-10-03 Philips Electronics North America Corp. Method and apparatus for controlling a media player based on user activity
US20070038603A1 (en) * 2005-08-10 2007-02-15 Guha Ramanathan V Sharing context data across programmable search engines
US20040002958A1 (en) * 2002-06-26 2004-01-01 Praveen Seshadri System and method for providing notification(s)
AU2003260923A1 (en) * 2002-10-21 2004-05-04 Koninklijke Philips Electronics N.V. Method of and system for presenting media content to a user or group of users
JP2004151292A (en) * 2002-10-30 2004-05-27 Yokogawa Electric Corp Database type learning apparatus
JP4429815B2 (en) * 2004-06-09 2010-03-10 株式会社エヌ・ティ・ティ・ドコモ Multicast group creation method and creation apparatus, and content selection method and selection apparatus
JP2006059094A (en) * 2004-08-19 2006-03-02 Ntt Docomo Inc Service selection support system and method
US7631007B2 (en) * 2005-04-12 2009-12-08 Scenera Technologies, Llc System and method for tracking user activity related to network resources using a browser
WO2006111935A1 (en) 2005-04-21 2006-10-26 Koninklijke Philips Electronics, N.V. Activity-related document mangement
JP4870943B2 (en) * 2005-05-18 2012-02-08 株式会社エヌ・ティ・ティ・ドコモ Mobile terminal, context management server, application registration server, and application execution method
JP5105802B2 (en) * 2005-09-07 2012-12-26 株式会社リコー Information processing device
US20070124721A1 (en) * 2005-11-15 2007-05-31 Enpresence, Inc. Proximity-aware virtual agents for use with wireless mobile devices
WO2007115224A2 (en) * 2006-03-30 2007-10-11 Sri International Method and apparatus for annotating media streams
US20070288247A1 (en) * 2006-06-11 2007-12-13 Michael Mackay Digital life server
US9015301B2 (en) * 2007-01-05 2015-04-21 Digital Doors, Inc. Information infrastructure management tools with extractor, secure storage, content analysis and classification and method therefor
US8295542B2 (en) * 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
JP2008203217A (en) * 2007-02-22 2008-09-04 Kenwood Corp Device for implementing vehicle onboard caretaking activities, technique, and program
US20090265764A1 (en) * 2008-04-21 2009-10-22 Verizon Business Network Services Inc. Aggregation and use of information relating to a users context
JP5232733B2 (en) * 2008-08-11 2013-07-10 シャープ株式会社 Problem questioning apparatus and question questioning method

Also Published As

Publication number Publication date
US8489599B2 (en) 2013-07-16
CN101751467A (en) 2010-06-23
US20100138416A1 (en) 2010-06-03
JP2010136370A (en) 2010-06-17
JP5607917B2 (en) 2014-10-15
EP2194472A1 (en) 2010-06-09
CN107038197A (en) 2017-08-11
KR20100062940A (en) 2010-06-10

Similar Documents

Publication Publication Date Title
KR101562834B1 (en) context and activity-driven content delivery and interaction
KR102541523B1 (en) Proactive incorporation of unsolicited content into human-to-computer dialogs
JP6625418B2 (en) Human-computer interaction method, apparatus and terminal equipment based on artificial intelligence
Pechenkina Developing a typology of mobile apps in higher education: A national case-study
WO2019091131A1 (en) Method for recommending teachers in online teaching system
US9213940B2 (en) Cyberpersonalities in artificial reality
US10680993B2 (en) Sonic social network
US20130262365A1 (en) Educational system, method and program to adapt learning content based on predicted user reaction
WO2008001350A2 (en) Method and system of providing a personalized performance
Sadiq et al. Mobile application based on CCI standards to help children learn English as a foreign language
Jameson Systems that adapt to their users
US9792825B1 (en) Triggering a session with a virtual companion
US10140882B2 (en) Configuring a virtual companion
Ismail et al. Review of personalized language learning systems
CN110546701A (en) Course assessment tool with feedback mechanism
Lin et al. Design guidelines of social-assisted robots for the elderly: a mixed method systematic literature review
Creighton The secret reasons why teachers are not using Web 2.0 tools and what school librarians can do about it
WO2020149031A1 (en) Response processing device and response processing method
Toh et al. A FRAMEWORK OF KNOWLEDGE PERSONALIZATION IN MOBILE LEARNING.
Yau A mobile context-aware learning schedule framework with Java learning objects
US11699037B2 (en) Systems and methods for morpheme reflective engagement response for revision and transmission of a recording to a target individual
Al-Khafaji The development of a theoretical framework for designing smart and ubiquitous learning environments for outdoor cultural heritage.
Ding Understanding mobile app addiction and promoting physical activities
Holster et al. An entertainment-education policy approach to teach campus literacy, safety, and social norms
Bradley A user-centred design framework for context-aware computing

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181015

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 5