KR101562834B1 - context and activity-driven content delivery and interaction - Google Patents
context and activity-driven content delivery and interaction Download PDFInfo
- Publication number
- KR101562834B1 KR101562834B1 KR1020090117513A KR20090117513A KR101562834B1 KR 101562834 B1 KR101562834 B1 KR 101562834B1 KR 1020090117513 A KR1020090117513 A KR 1020090117513A KR 20090117513 A KR20090117513 A KR 20090117513A KR 101562834 B1 KR101562834 B1 KR 101562834B1
- Authority
- KR
- South Korea
- Prior art keywords
- content
- user
- context
- management system
- package
- Prior art date
Links
- 238000012384 transportation and delivery Methods 0.000 title claims description 28
- 230000000694 effects Effects 0.000 title abstract description 31
- 230000003993 interaction Effects 0.000 title description 20
- 238000000034 method Methods 0.000 claims abstract description 32
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000007246 mechanism Effects 0.000 claims description 65
- 230000004044 response Effects 0.000 claims description 55
- 230000009471 action Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 2
- 238000002716 delivery method Methods 0.000 claims 3
- 238000007726 management method Methods 0.000 description 229
- 230000006399 behavior Effects 0.000 description 13
- 230000001755 vocal effect Effects 0.000 description 11
- 235000013305 food Nutrition 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 230000014616 translation Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013515 script Methods 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 235000021152 breakfast Nutrition 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 1
- 244000046052 Phaseolus vulgaris Species 0.000 description 1
- 238000013019 agitation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 238000010413 gardening Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 235000014594 pastries Nutrition 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
- G06F16/4387—Presentation of query results by the use of playlists
- G06F16/4393—Multimedia presentations, e.g. slide shows, multimedia albums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/435—Filtering based on additional data, e.g. user or group profiles
- G06F16/436—Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Information Transfer Between Computers (AREA)
- Electrically Operated Instructional Devices (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
본 발명의 일 실시예는 개별-규정 콘텍스트-기반 콘텐트를 사용자에게 전달하는 컴퓨팅 디바이스(computing device)를 제공한다. 이 컴퓨팅 디바이스는 사용자에 관한 콘텍스트 정보의 세트를 수신하고 현재 콘텍스트의 몇몇 양태가 사용자에 의해 수행되는 가능한 액티비티와 연관될 수 있는지의 여부를 결정하기 위해 콘텍스트 정보를 처리한다. 그 다음 컴퓨팅 디바이스는 사용자의 콘텍스트와 현재 액티비티 중 어느 하나 또는 둘 모두가 사용자에 의해 이전에 규정되었던 트리거 조건을 만족하는지의 여부를 결정한다. 만약 그렇다면, 컴퓨팅 디바이스는 콘텍스트 또는 활동에 기초하여 콘텐트 데이터베이스로부터 콘텐트를 선택하여 사용자에게 제공하고, 선택된 콘텐트를 제공한다.One embodiment of the present invention provides a computing device that communicates individual-provision context-based content to a user. The computing device receives the set of contextual information about the user and processes the contextual information to determine whether some aspects of the current context may be associated with a possible activity performed by the user. The computing device then determines whether either or both of the user's context and the current activity satisfy the trigger condition previously prescribed by the user. If so, the computing device selects the content from the content database based on the context or activity, provides it to the user, and provides the selected content.
콘텍스트-기반 콘텐트, 컴퓨팅 디바이스, 콘텍스트 정보, 콘텐트 데이터베이스 Context-based content, computing devices, context information, content databases
Description
본 발명은 콘텍스트 및 액티비티-구동 콘텐트 전달 및 상호작용에 관한 것이다.The present invention relates to context and activity-driven content delivery and interaction.
본 발명의 일 실시예는 개별-규정 콘텍스트-기반 콘텐트를 사용자에게 전달하는 컴퓨팅 디바이스(computing device)를 제공한다. 이 컴퓨팅 디바이스는 사용자에 관한 콘텍스트 정보의 세트를 수신하고 현재 콘텍스트의 몇몇 양태가 사용자에 의해 수행되는 가능한 액티비티와 연관될 수 있는지의 여부를 결정하기 위해 콘텍스트 정보를 처리한다. 그 다음 컴퓨팅 디바이스는 사용자의 콘텍스트와 현재 액티비티 중 어느 하나 또는 둘 모두가 사용자에 의해 이전에 규정되었던 트리거 조건을 만족하는지의 여부를 결정한다. 만약 그렇다면, 컴퓨팅 디바이스는 콘텍스트 또는 활동에 기초하여 콘텐트 데이터베이스로부터 콘텐트를 선택하여 사용자에게 제공하고, 선택된 콘텐트를 제공한다.One embodiment of the present invention provides a computing device that communicates individual-provision context-based content to a user. The computing device receives the set of contextual information about the user and processes the contextual information to determine whether some aspects of the current context may be associated with a possible activity performed by the user. The computing device then determines whether either or both of the user's context and the current activity satisfy the trigger condition previously prescribed by the user. If so, the computing device selects the content from the content database based on the context or activity, provides it to the user, and provides the selected content.
이런 실시예에 대한 변형으로, 컴퓨팅 디바이스는 사용자가 사용자-규정 콘 텍스트 또는 액티비티-구동 트리거 조건과 연관된 콘텐트를 생성하게 한다. 이렇게 함으로써, 컴퓨팅 디바이스는 사용자에 의해 제공되는 콘텐트를 기록하고, 기록된 콘텐트에 대한 콘텐트 데이터베이스에 콘텐트 엔트리를 생성하고, 콘텐트 엔트리는 다수의 트리거 조건들과 연관될 수 있다. 그 다음, 컴퓨팅 디바이스는 사용자-규정 콘텍스트 또는 액티비티와 콘텐트 엔트리에 대한 트리거 조건을 연관시킨다. 컴퓨팅 디바이스는 사용자 및/또는 사용자 액티비티의 진행 콘텍스트와 콘텐트 엔트리에 대한 미리-규정된 트리거 조건들을 계속 비교한다. 트리거 조건이 충족될 때, 컴퓨팅 디바이스는 연관된 콘텐트를 검색하고 이를 사용자에게 제공한다.In a variation on this embodiment, the computing device allows a user to generate content associated with a user-defined con- text or activity-driven trigger condition. By doing so, the computing device records the content provided by the user, creates a content entry in the content database for the recorded content, and the content entry can be associated with a number of trigger conditions. The computing device then associates a trigger condition for the content with the user-defined context or activity. The computing device continues to compare pre-defined trigger conditions for the content entry with the user's and / or user's activity's progress context. When the trigger condition is met, the computing device retrieves the associated content and provides it to the user.
또 다른 변형에서, 컴퓨팅 디바이스는 사용자가 공유가능한 콘텐트를 생성하게 한다. 이렇게 하기 위해, 컴퓨팅 디바이스는 사용자에 의해 제공되는 콘텐트를 기록하고, 기록된 콘텐트에 대한 콘텐트 패키지를 생성한다. 이 콘텐트 패키지는 기록된 콘텐트를 포함할 수 있고, 다수의 사용자-규정 트리거 조건들을 포함할 수 있다. 사용자는 콘텐트 패키지를 다른 사용자들에게 분배하고/분배하거나 콘텐트 패키지를 공용 서버에 업로딩(uploading)함으로써 다른 사용자들과 콘텐트 패키지를 공유할 수 있다. 또한, 콘텐트 패키지를 다운로드하거나 수신하는 다른 사용자들은 콘텐트 패키지로부터 콘텐트 또는 트리거 조건들을 삽입, 수정, 및/또는 제거하게 한다.In another variation, a computing device allows a user to create shareable content. To do this, the computing device records the content provided by the user and creates a content package for the recorded content. The content package may include recorded content and may include a number of user-defined trigger conditions. A user may share a content package with other users by distributing and / or distributing the content package to other users or by uploading the content package to a public server. In addition, other users downloading or receiving the content package may insert, modify, and / or remove content or trigger conditions from the content package.
이런 실시예들에 대한 변형에서, 컴퓨팅 디바이스는 콘텍스트 또는 콘텍스트 관리자의 액티비티 엔트리를 생성함으로써 콘텍스트를 규정하고, 하나의 세트의 콘텍스트 정보와 콘텍스트 또는 액티비티 엔트리를 연관시킨다.In a variation on these embodiments, the computing device defines the context by creating an activity entry of the context or context manager, and associates the context or activity entry with a set of context information.
본 발명의 실시예들은 사용자에 의해 수행되는 액티비티들에 응답하고, 사용자와 연관된 다수의 환경 팩터들(factors)에 응답하여 사용자에게 오디오 및 비쥬얼 콘텐트의 패키지들을 구성 및 전달하기 위한 콘텐트 관리 시스템을 제공한다. 콘텐트 관리 시스템으로부터 응답을 트리거링(triggering)하는 사용자 액티비티들 및 환경 팩터들은 콘텐트의 주어진 패키지를 인에이블링하기 전에 사용자에 의해 규정된다. 이 콘텐트 관리 시스템은 사용자가 그들의 콘텐트 및 그들의 스케쥴에 관한 책임들을 관리하는데 도움을 주도록 의도된다. 작동 전에, 사용자는 콘텍스트들의 범위에서 전달을 위하여 적당한 음악, 공부 자료, 할일 목록(to-do list), RSS 피드(feed) 또는 임의의 다른 콘텐트일 수 있는 콘텐트를 콘텐트 관리 시스템에 업로드하거나 입력할 수 있다. 그 다음 사용자는 콘텐트가 제공될 수 있는 조건들을, 감지된 콘텍스트 정보(예를 들면, 온도) 또는 사용자-규정 콘텍스트(예를 들면, 사용자 액티비티) 양태에서 지정할 수 있다. 이들 조건들은 콘텐트를 제공하기 위한 트리거들을 표현하고, 하루 중 시간, 일주일 중 날짜, 위치 식별기(예를 들면 "홈") 또는 운송 양식(예를 들면, "기차"), 기타 등과 같은 사용자에게 의미있는 용어들을 사용하여 라벨링(labeling)된다. 사용자는 사용자 및/또는 다른 사용자들 같은, 콘텐트 프리젠테이션에 대한 타켓 청중을 또한 지정할 수 있다.Embodiments of the present invention provide a content management system for responding to activities performed by a user and configuring and delivering packages of audio and visual content to a user in response to a number of environmental factors associated with the user do. User activities and environmental factors that trigger a response from the content management system are defined by the user prior to enabling a given package of content. This content management system is intended to help users manage their content and responsibilities regarding their schedules. Prior to operation, the user may upload or enter content that may be appropriate music, study material, to-do list, RSS feed or any other content for delivery in a range of contexts to the content management system . The user can then specify conditions in which the content may be provided, in the context of sensed context information (e.g., temperature) or in a user-defined context (e.g., user activity). These conditions may represent triggers for providing content and may be meaningful to the user, such as time of day, date of the week, location identifier (e.g., "home") or transportation form Lt; RTI ID = 0.0 > terms. ≪ / RTI > The user may also specify a target audience for the content presentation, such as a user and / or other users.
몇몇 실시예들에서, 사용자는 사용자와 연관되는 낮은-레벨 콘텍스트 정보 양태에서 콘텍스트들 또는 액티비티들을 규정할 수 있다. "콘텍스트" 및 "액티비티들"은 필수적으로 상호 배타적이지 않다. 하나의 실시예에서, 콘텍스트는 하나 이상의 사용자 액티비티들에 기초하거나 포함할 수 있다. 예를 들면, 만약 콘텐트 관 리 시스템이 움직임, 위치, 및 하루의 날짜를 감지할 수 있다면, 사용자는 하루의 특정한 시간에서 하나의 위치로부터 다른 위치로 걸어가기 위한 콘텍스트를 규정할 수 있고, 인간에게 의미있는 용어들(예를 들면, "일하기 위한 걸음", 또는 "몰 주변 걸음")을 사용하여 콘텍스트를 라벨링한다. 또 다른 실시예에서, 사용자는 구내 둘레를 움직이기 위한 콘텍스트를 규정할 수 있고, 인간에게 의미있는 용어인 "원예(gardening)"를 사용하여 콘텍스트를 라벨링한다. 몇몇 실시예들에서, 사용자는 "집중(concentrating)", "감수성이 풍부한(receptive)", 또는 "활동적인(active)" 같은 높은 레벨의 조건들 카테고리 양태의 액티비티를 규정한다. 예를 들면, 사용자는 부주의한 임무들(예를 들면, "일하기 위한 걸음", "몰 주변 걸음")과 연관된 다수의 사용자 규정 콘텍스트들에 기초하여 "감수성이 풍부한"이라 라벨링된 콘텍스트를 규정할 수 있다. 다른 한편, 사용자는 물리적 액티비티들(예를 들면, "조깅", "원예")과 연관된 다수의 사용자 규정 콘텍스트들에 기초하여 "활동적인"으로 라벨링된 콘텍스트를 규정할 수 있다. 그 다음, 사용자는 몇몇 낮은 레벨 콘텍스트들을 포함하는 높은 레벨 조건 카테고리에 기초하여 임의의 콘텐트에 대한 트리거 조건을 규정할 수 있다.In some embodiments, a user may define contexts or activities in a low-level contextual information aspect associated with the user. The "context" and "activities" are not necessarily mutually exclusive. In one embodiment, the context may be based on or comprise one or more user activities. For example, if the content management system can detect movement, location, and day of the day, the user can define a context for walking from one location to another at a particular time of day, Labels the context using meaningful terms (e.g., "step to work", or "mall circumference"). In another embodiment, the user may define a context for moving the perimeter of the premises, and label the context using "gardening " which is a meaningful term for the human being. In some embodiments, a user defines activities of a high level of conditions category aspect, such as "concentrating "," receptive ", or "active ". For example, a user may define a context labeled "susceptible" based on a number of user-defined contexts associated with inattentive tasks (e.g., "steps to work" can do. On the other hand, a user may define an "active" labeled context based on a number of user-defined contexts associated with physical activities (e.g., "jogging" The user can then define a trigger condition for any content based on a high level condition category that includes some low level contexts.
작동 동안, 콘텐트 관리 시스템은 사용자와 연관된 기본 정보를 반영하는 다수의 출력 소스들(예를 들면, 글로벌 위치 결정 시스템(GPS) 디바이스, 또는 가속도계)로부터 낮은 레벨 콘텍스트 정보를 모을 수 있다. 그 다음, 콘텐트 관리 시스템은 사용자와 연관된 이벤트 또는 환경 팩터(예를 들면, "5 P.M. 이후의 기차를 타는")를 설명하는 인간에게 의미있는 용어들로 규정된 추론된 콘텍스트를 결정하 기 위해 이 콘텍스트 정보를 처리한다. 몇몇 실시예들에서, 콘텐트 관리 시스템은 사용자-규정 콘텍스트에 응답하여 제공될 준비가 된 콘텐트를 식별하기 위해 이 콘텍스트를 사용할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템은 원하는 콘텍스트에서 사용자에게 제공될 수 있는 콘텐트를 검색 및/또는 생성하기 위해 사용자-규정된 콘텍스트를 사용할 수 있다.During operation, the content management system may collect low level context information from a number of output sources (e.g., a Global Positioning System (GPS) device, or accelerometer) that reflects the basic information associated with the user. The content management system is then used to determine the inferred context stipulated in terms that are meaningful to humans that describe an event or environment factor associated with the user (e.g., "riding a train after 5 PM & And processes the context information. In some embodiments, the content management system may use this context to identify content that is ready to be provided in response to a user-defined context. In other embodiments, the content management system may use a user-defined context to retrieve and / or generate content that can be presented to a user in a desired context.
콘텐트 관리 시스템의 능력들은 다수의 애플리케이션들에 적용될 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템은 주어진 사용자-규정 콘텍스트 하에서 명령 콘텐트를 제공할 수 있다. 예를 들면, 콘텐트 관리 시스템은 사용자가 버스 또는 기차에서 일하기 위해 통근할 때 사용자에게 비쥬얼 강의들 또는 상호작용식 수업들을 제공할 수 있다. 유사하게, 콘텐트 관리 시스템은 사용자가 일하기 위하여 운전하거나 조깅할 때 사용자에게 오디오-기반 명령 콘텐트를 제공할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템은 사용자가 오랜 날짜의 작업 후 그 또는 그녀의 거실에 들어올 때 사용자에게 엔터테인먼트 콘텐트를 제공할 수 있다.The capabilities of the content management system can be applied to multiple applications. In some embodiments, the content management system may provide command content under a given user-defined context. For example, the content management system may provide visual lectures or interactive lessons to the user when the user commutes to work on a bus or train. Similarly, the content management system may provide audio-based command content to the user when the user is driving or jogging to work. In other embodiments, the content management system may provide entertainment content to the user when the user enters his or her living room after a long day of work.
몇몇 실시예들에서, 사용자는 모바일 디바이스 또는 퍼스널 컴퓨터(PC) 상의 콘텐트 관리 시스템을 사용하여 공유가능한 콘텐트를 생성할 수 있다. 공유가능한 콘텐트는 사용자가 다른 콘텐트 관리 시스템들로부터 다운로드, 수정, 및 공유할 수 있는 콘텐트 패키지이다. 몇몇 실시예들에서, 사용자는 콘텐트 관리 시스템을 사용하여 사용자 생성 또는 수정된 콘텐트를 공유하기 위해 인터넷 웹사이트 상에 콘텐트 패키지를 업로드할 수 있다. 몇몇 다른 실시예들에서, 사용자는 인터넷 웹사이트로부터 콘텐트 패키지를 다운로드할 수 있고, 콘텐트 패키지로부터 콘텐트를 삽입, 수정, 및/또는 제거하기 위해 콘텐트 패키지를 수정할 수 있다.In some embodiments, a user may create a shareable content using a mobile device or a content management system on a personal computer (PC). Shareable content is a content package that a user can download, modify, and share from other content management systems. In some embodiments, a user may upload a content package on an Internet website to share user created or modified content using a content management system. In some other embodiments, a user may download a content package from an Internet web site and modify the content package to insert, modify, and / or remove content from the content package.
몇몇 실시예들에서, 콘텐트 관리 시스템은 원격 계산 장치와 콘텐트를 공유할 수 있다. 예를 들면, 사용자는 콘텐트 관리 시스템 상에 명령 또는 엔터테인먼트 콘텐트 패키지를 생성할 수 있고, 콘텐트가 제공될 수 있을 때 사용자 규정 콘텍스트를 지정하고, 다른 콘텐트 관리 시스템들과 콘텐트 패키지를 공유할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템은 주어진 사용자 규정 콘텍스트 하에서 원격 디바이스에 콘텐트를 통신할 수 있다. 예를 들면, 콘텐트 관리 시스템은 사용자가 늦게 일하는 것을 배우자에게 경고하기 위해 사용자의 배우자의 모바일 전화에 텍스트 메시지 또는 오디오 스트림을 전송할 수 있다. In some embodiments, the content management system may share content with the remote computing device. For example, a user may create a command or entertainment content package on a content management system, specify a user-defined context when the content can be provided, and share the content package with other content management systems. In other embodiments, the content management system may communicate content to a remote device under a given user provisioning context. For example, the content management system may send a text message or audio stream to the user's spouse's mobile phone to warn the spouse that the user is late working.
도 1은 본 발명의 일 실시예에 따른 콘텐트 관리 시스템(100)을 도시한다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 사용자에 의해 수행되는 행동들(actions), 또는 사용자와 연관되는 다른 정보에 응답하여 사용자에게 콘텐트(112)를 제공할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템(100)은 사용자가 콘텐트를 생성 및 저장하게 하고, 콘텐트를 주어진 사용자 규정 콘텍스트와 연관시킨다. 하나의 예에서, 콘텐트 관리 시스템(100)은 "조깅"이라 라벨링된 낮은 레벨 콘텍스트를 포함하는 "활동적인"이라 라벨링된 높은 레벨 콘텍스트에 기초하여 사용자가 조깅할 때 사용자에게 주어진 등급의 정보를 제공할 수 있다. 제 2 예에서, 콘텐트 관리 시스템(100)은 사용자가 일한 후 식품점을 지나 운전할 때 사용자가 식품들을 사도록 리마인드(remind)할 수 있다. 또한, 콘텐트 관리 시스 템(100)은 사용자가 식품점의 대응 통로를 가로질러 걸어갈 때 사용자에게 식품 목록 상의 특수 아이템들을 읽을 수 있다.Figure 1 illustrates a
몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 입력 메커니즘(input mechanism)(102), 콘텍스트 관리자(104), 콘텐트 데이터베이스(106), 및 콘텐트 전달 메커니즘(108)을 포함한다. 입력 메커니즘(102)은 입력 디바이스(예를 들면, 키보드 또는 터치 스크린)를 통하여 사용자에 의해 제공된 정보를 포함할 수 있거나, 다수의 입력 소스들(예를 들면, 마이크로폰, 카메라, 움직임 센서, 글로벌 위치 결정 메커니즘, 또는 인터넷 서버)로부터 모아진 콘텍스트 정보를 포함할 수 있는 사용자 입력부(110)를 수용한다.In some embodiments, the
콘텍스트 관리자(104)는 콘텐트(112)가 콘텐트 데이터베이스(106)에 저장되는 방법, 및 콘텐트(112)가 재생을 위해 콘텐트 데이터베이스(106)로부터 선택되는 방법을 제어할 수 있다. 몇몇 실시예들에서, 콘텍스트 관리자(104)는 콘텐트(112)를 포함하는 저장될 콘텐트 패키지 및 콘텐트(112)가 제공될 수 있을 때를 설명하는 대응하는 사용자 규정 콘텍스트를 가진 콘텐트 데이터베이스(106)를 제공함으로써 콘텐트(112)를 생성한다. 응답하여, 콘텐트 데이터베이스(106)는 콘텐트(112)를 저장하고, 특수화된 사용자 규정 콘텍스트와 콘텐트(112)를 연관시킨다. 다른 실시예들에서, 콘텍스트 관리자(104)는 사용자에 의해 수행되는 행동들을 설명하는 사용자 규정 콘텍스트를 가진 콘텐트 데이터베이스(106)를 제공하고, 그 다음 콘텐트 데이터베이스(106)로부터 대응 콘텐트를 수신함으로써 콘텐트 데이터베이스(106)로부터 콘텐트(112)를 검색한다.The
콘텐트 전달 메커니즘(108)은 콘텐트(112)가 사용자에게 제공되는 방법을 제어할 수 있다. 몇몇 실시예들에서, 콘텐트 전달 메커니즘(108)은 콘텍스트 관리자(104)가 재생을 위한 콘텐트(112)를 선택할 때 사용자에게 콘텐트(112)를 제공한다. 이들 실시예들의 몇몇 변형들에서, 콘텐트 전달 메커니즘(108)은 사용자에 의해 수행된 행동들, 또는 사용자로부터 수신된 상호작용들에 응답하여 콘텐트(112)를 제공할 수 있다. 예를 들면, 콘텐트 전달 메커니즘(108)이 사용자에 의해 수행된 행동들을 모니터링하고, 사용자가 주어진 임무를 완료하면 후속 임무를 제공하기 위해 진행하도록 콘텐트 전달 메커니즘(108)은 수행하기 위한 임무들의 시퀀스를 사용자에게 제공할 수 있다. 콘텍스트 관리자(104)는 주어진 임무의 완료를 확인하는 사용자의 구두 발언을 모으는 마이크로폰 같은, 입력 메커니즘(102)에 의해 모아진 정보를 모니터링함으로써 사용자가 임무를 완료할 시기를 결정하도록 구성될 수 있다. 제 2 예에서, 콘텐트 전달 메커니즘(108)은 콘텐트 전달 메커니즘(108)이 콘텐트(112)를 제공할 때 사용자로부터의 구두 요청들 또는 응답들에 반응할 수 있다.The
모바일 디바이스들은 그들 사용자의 일상 루틴에 이들 디바이스들의 통합을 용이하게 하는 다수의 정보 기반 능력들을 종종 포함한다. 이들 능력들은 사용자와 연관된 콘텍스트 정보를 결정하도록 구성될 수 있고, 모바일 디바이스들은 사용자에게 정보를 제공할 시기 및 방법을 결정하기 위해 이 콘텍스트 정보를 이용하도록 구성될 수 있다. 하나의 실시예에서, "콘텍스트 정보"는 다수의 입력 소스들로부터 컴퓨팅 디바이스에 의해 모아진 입력 데이터로서 규정되고, 사용자와 연관된 기본 정보 및/또는 컴퓨팅 디바이스의 동작 환경을 반영한다. 본 발명의 몇몇 실시예들에서, 콘텍스트 정보는 컴퓨팅 디바이스에 의해 해석되지 않고 다수의 입력 소스들로부터 기록된 데이터이다.Mobile devices often include a number of information-based capabilities that facilitate integration of these devices into their routine. These capabilities may be configured to determine contextual information associated with a user, and mobile devices may be configured to use the contextual information to determine when and how to provide information to the user. In one embodiment, "context information" is defined as input data collected by a computing device from a plurality of input sources, and reflects the basic information associated with the user and / or the operating environment of the computing device. In some embodiments of the invention, the context information is data interpreted by a computing device and recorded from multiple input sources.
본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 사용자와 연관된 콘텍스트 정보를 결정할 수 있고, 상기 정보는 하기 항목을 포함한다:In some embodiments of the present invention, the
* 하루의 시간 - 콘텐트 관리 시스템(100)은 시간 및 날짜 정보를 기록할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 시간 서버(예를 들면, 네트워크 시간 프로토콜(NTP)을 사용하여)와 그의 시간 및 날짜 정보를 동기화할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 정보를 전달할 때 콘텍스트 팩터 같은 하루의 시간, 1주의 날짜, 날짜, 주말들, 등을 이용할 수 있다. * Time of day - The
* 지리적 위치 - 위치 지각은 모바일 디바이스들의 현저한 특징이 된다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 GPS, 셀룰러 타워 삼각 측량, Wi-Fi 삼각 측량, 또는 지금 공지되거나 추후 개발된 다른 수단에 의해 그의 지리적 위치를 결정할 수 있다.* Geolocation - Position perception is a salient feature of mobile devices. In some embodiments, the
* 움직임 검출 - 몇몇 모바일 디바이스들은 움직임(즉, 그들이 움직이는지, 흔드는지, 기울었는지, 등)을 검출할 수 있다. 콘텐트 관리 시스템(100)은 가속도계, 자이로스코프, 또는 지금 공지되거나 추후 개발된 다른 수단을 사용함으로써 움직임 검출을 달성할 수 있다.Motion Detection - Some mobile devices can detect motion (ie, they are moving, rocking, tilting, etc.). The
* 사운드 검출 - 모바일 디바이스들은 종종 사운드들을 캡쳐(capture)하기 위한 마이크로폰을 포함하거나, 주변 디바이스로서 마이크로폰을 이용할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 사용자의 구두 언급들을 캡쳐하기 위해 마이크로폰을 사용할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템(100)은 주변 사운드들을 캡쳐하기 위해 마이크로폰을 사용할 수 있다.Sound detection - Mobile devices often include a microphone for capturing sounds, or a microphone as a peripheral device. In some embodiments, the
* 이미지 검출 - 모바일 디바이스들은 종종 사진들 및/또는 비디오를 기록하기 위한 카메라를 포함하거나, 주변 카메라를 이용할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 조명 레벨들을 결정하기 위해 카메라를 사용할 수 있다.* Image Detection - Mobile devices often include cameras for recording photos and / or video, or may use peripheral cameras. In some embodiments, the
* 인터넷 정보 - 모바일 디바이스들은 종종 Wi-Fi 접속 및/또는 셀룰러 네트워크를 통해 인터넷에 액세스한다. 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 공용 콘텍스트 및 콘텐트 정보를 모으기 위해 인터넷 접속을 이용한다. 이 콘텍스트 정보는 날씨 보고, 주식 보고, 뉴스 이벤트, 및 인터넷으로부터 접속가능한 임의의 다른 트리거 이벤트를 포함할 수 있다. 이 콘텐트 정보는 오디오 클립, 이미지, 비디오 스트림, 언어 레슨, 이메일, 날씨 보고, 캘린더 리마인더, 뉴스 공급, 풍부한 사이트 요약(RSS) 공급, 인터넷 블로그, 및 인터넷으로부터 액세스가능한 임의의 다른 콘텐트를 포함할 수 있다.Internet Information - Mobile devices often access the Internet via a Wi-Fi connection and / or a cellular network. In some embodiments, the
본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 위치, 움직임, 사운드, 구두 언급들(예를 들면, 스피치), 주변 음성들(예를 들면, 텔레비젼 또는 라디오로부터), 키보드 소리, 조명, 뇌 액티비티 독서들, 속도, 걷기, 운전, 사용자 입력, 사용자 행동의 루틴들 또는 패턴들, 및 선동 및/또는 자극을 나타내는 목소리 변화들 또는 생물 측정 독서들을 포함하는 사용자의 거동(behavior)에 대한 기 본 콘텍스트 정보를 검출하도록 설계되지만, 이것으로 제한되지 않는다.In some embodiments of the present invention, the
몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 연속적인 작동을 유지할 수 있고, 작동 동안 사용자와 연관된 콘텍스트 정보의 지각을 유지할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(100)은 사용자에 관련하여 콘텍스트 정보를 모으기 위해 입력 메커니즘(102)을 사용하는 다수의 센서들 및/또는 입력 디바이스들을 모니터링한다. 다른 변형들에서, 센서 또는 입력 디바이스는 센서 또는 입력 디바이스로부터 새로운 콘텍스트 정보를 모으기 위해 콘텐트 관리 시스템(100)의 특수 소프트웨어 처리를 개시할 수 있다. 또 다른 실시예들에서, 콘텐트 관리 시스템(100)은 그의 현재 콘텍스트를 투표하기 위해 미리 결정된 시간 간격들에서 작동의 슬리핑 모드로부터 깨어날 수 있고 콘텍스트가 데이터베이스(106)의 콘텐트와 연관된 트리거 조건들을 만족하는지의 여부를 결정한다. 만약 관련 콘텍스트 트리거들이 콘텍스트에 의해 만족되지 않으면, 콘텐트 관리 시스템(100)은 작동의 슬리핑 모드로 리턴할 수 있다.In some embodiments, the
몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 사용자와 연관된 콘텍스트 및/또는 콘텍스트 정보에 기초하여 모바일 디바이스의 동작 조건들을 결정할 수 있다. 입력 메커니즘(102)이 다수의 소스들로부터 기본 콘텍스트 정보를 모을때마다, 콘텍스트 관리자(104)는 다수의 사용자 규정 콘텍스트들을 추론하기 위해 기본 콘텍스트 정보를 해석할 수 있다. 콘텍스트는 사용자와 연관된 이벤트 또는 환경 팩터 또는 콘텐트 관리 시스템(100)의 작동 환경을 설명하는 데이터 세트이다. 이들 실시예들의 몇몇 변형들에서, 콘텍스트는 입력 메커니즘(102)에 의해 모아진 콘텍 스트 정보로부터 추론될 수 있다. 다른 변형들에서, 콘텍스트는 콘텍스트 정보로부터 추론되었던 다수의 콘텍스트들로부터 추론될 수 있다. 콘텍스트는 콘텍스트들 및 콘텍스트 정보의 조합으로부터 또한 추론될 수 있다.In some embodiments, the
예를 들면, 콘텐트 관리 시스템(100)은 사용자가 자리에 앉아있는지, TV를 시청하는지, 잠자는지, 정신을 차리고 있는지, 대화중인지, 홈 스터디 컴퓨터 또는 사무실에서 타이핑하는지, 집 주변을 걷는지, 집 밖을 걷는지, 운전중인지, 또는 집안 액티비티(예를 들면, 요리, 또는 일할 준비)를 수행하는지의 여부를 포함하는 콘텍스트 정보에 기초하여 사용자에 관한 특수 콘텍스트들을 추론하도록 프로그래밍될 수 있지만, 이것으로 제한되지 않는다. 다른 예들에서, 콘텐트 관리 시스템(100)은 사용자 패턴들 및 선호도들(예를 들면, 날씨가 나쁠 때 걷는 것보다 오히려 버스를 타는), 가능한 위험들(예를 들면, 어두움, 날씨 경고들, 범죄 영역들로의 접근), 및 사용자의 정신 상태(예를 들면, 무드, 또는 집중 레벨)를 추론하도록 프로그래밍될 수 있다.For example, the
모바일 디바이스들은 종종 오디오 및/또는 비디오 콘텐트를 재생하기 위한 프리젠테이션 메커니즘들을 포함한다. 본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 주어진 콘텍스트에 의해 트리거링된 본 콘텐트에 대해 이들 프리젠테이션 메커니즘들을 사용한다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(100)은 사용자에게 상호작용 콘텐트를 제공하고, 여기서 사용자는 콘텐트 관리 시스템(100)의 입력 메커니즘(102)(예를 들면, 버튼들 누름, 터치 스크린의 위치를 터치, 또는 마이크로폰에 구두 언급들을 통신)을 사용하여 상호작용 콘 텐트와 상호작용할 수 있다.Mobile devices often include presentation mechanisms for playing audio and / or video content. In some embodiments of the present invention, the
콘텐트 관리 시스템(100)이 사용자와 연관되는 사용자 규정 콘텍스트를 추론할 때, 콘텐트 관리 시스템(100)은 콘텐트 데이터베이스(106)의 콘텐트를 검색하기 위해 추론된 콘텍스트를 사용할 수 있고, 주어진 콘텍스트하에서 제공될 수 있는 콘텐트를 검색할 수 있다. 몇몇 실시예들에서, 콘텐트 데이터베이스(106)는 콘텐트 패키지들의 세트를 저장하고, 여기서 콘텐트 패키지는 콘텐트의 수집부(collection)를 포함하고, 콘텐트 패키지의 콘텐트를 제공하기 위해 콘텐트 관리 시스템(100)을 트리거링할 수 있는 다수의 콘텍스트들을 포함한다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 패키지는 콘텐트가 제공되는 방법을 제어할 수 있는 스크립트 또는 실행가능한 코드를 또한 포함할 수 있고, 콘텐트의 프리젠테이션 동안 사용자와 상호작용하는 소프트웨어 메커니즘들을 구현할 수 있다.When the
본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)의 콘텐트 전달 메커니즘(108)은 사용자와 연관된 콘텍스트에 응답하여 사용자에게 콘텐트를 제공할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템(100)은 사용자와 연관된 콘텍스트에 응답하여 원격 디바이스에 콘텐트를 전송할 수 있다.In some embodiments of the invention, the
본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(100)은 센트럴 퍼블리셔(central publisher)(예를 들면, 미리 결정된 서버)에 의해 제공되는 콘텐트를 제공할 수 있다. 다른 실시예들에서, 콘텐트 관리 시스템(100)은 사용자에 의해 생성된 콘텐트를 제공할 수 있다. 이들 실시예들에 대한 변형에서, 콘텐트 관리 시스템(100)은 원격 디바이스에 대해 생성되고, 원격 디바이스의 사용자에 의해 공유되 는 콘텐트를 제공할 수 있다. 예를 들면, 식품점 쪽으로 운전하는 사용자의 콘텐트 관리 시스템(100)은 그녀의 콘텐트 관리 시스템을 사용하는 그 날짜보다 더 이르게 그의 부인이 그녀 자신을 위해 생성한 식품 리스트를 자동으로 수신할 수 있다. 일단 사용자가 식품점을 입력하면, 그의 콘텐트 관리 시스템(100)은 식품 리스트 목록들 및 그녀의 식품 리스트 목록들을 포함하는 조합된 식품 리스트를 제공할 수 있다.In some embodiments of the present invention, the
이들 실시예들의 몇몇 변형들에서, 콘텐트 관리 시스템(100)은 다수의 애플리케이션들에 대한 사용자 규정 콘텍스트에 응답하여 콘텐트를 제공하도록 프로그래밍될 수 있고; 상기 콘텐트는: 여가 시간 동안 학습(예를 들면, 청취, 반복, 검사, 등에 의한 외국어), 중요 이메일의 자동 검색(예를 들면, 사용자의 주의 기간에 영향을 미치고/마치거나 콘텐트의 위급 레벨), 정각에 그리고 정위치에 있는 리마인더들의 수신(예를 들면, 심부름들, 구매들), 원하는 위치로의 방향들의 수신, 사용자의 콘텍스트에 적당한 음악 플레이, 및 선택 단위 프리젠테이션 레이아웃을 생성함으로써 스피치 또는 프리젠테이션을 제공하기 위한 준비를 포함한다. 예를 들면, 선생님은 학생이 공적 운송 모드를 사용할 때 아침, 밤, 및 주말들 동안 학생에게 공부 자료를 제공하도록 설계된 콘텐트 패키지(예를 들면, "오디오 공부 카드들"의 세트)를 준비할 수 있다. 또한, 선생님은 콘텐트 패키지의 프리젠테이션에 대한 타이밍(timing) 및 페이스(pace)를 규정하고, 콘텐트 패키지로부터 프롬프트들 또는 질문들에 대한 학생으로부터의 요구된 응답들을 규정하고, 및/또는 주어진 프롬프트 또는 질문이 사용자로부터 올바른 응답인 후 제공될 수 있을 시기에 대한 지연 기간을 규정하도록 콘텐트 패키지를 구성할 수 있다.In some variations of these embodiments, the
도 2a는 본 발명의 실시예에 따라 사용자에게 콘텐트를 전달하는 것과 연관된 콘텐트 관리 시스템(200)에 대한 데이터 흐름을 예시한다. 콘텐트 관리 시스템(200)은 콘텍스트 관리자(201), 입력 메커니즘(204), 콘텐트 데이터베이스(206), 및 콘텐트 전달 메커니즘(208)을 포함한다. 입력 메커니즘(204)은 환경 및 사용자 액티비티들에 관한 감지된 정보를 포함하는 콘텍스트 정보(210)를 모으고, 콘텍스트 관리자(201)의 분석 메커니즘(202)에 콘텍스트 정보(210)를 전송한다. 분석 메커니즘(202)은 콘텍스트 정보(210)로부터 콘텍스트(214)(사용자 액티비티를 포함할 수 있는)를 유도하고, 콘텍스트 관리자(201)는 콘텐트 데이터베이스(206)로부터 대응 콘텐트 패키지(216)를 검색하기 위해 콘텍스트(214)를 사용한다. 그 다음, 콘텍스트 관리자(201)는 프리젠테이션을 위한 콘텐트 패키지(216)를 콘텐트 전달 메커니즘(208)에 제공한다. 이들 실시예들의 몇몇 변형들에서, 콘텐트 데이터베이스(206)는 콘텐트 전달 메커니즘(208)에 직접적으로 콘텐트 패키지(216)를 제공할 수 있다.2A illustrates a data flow for a
다음, 콘텐트 전달 메커니즘(208)은 콘텐트 패키지(216)를 사용자에게 제공한다. 이렇게 하여, 콘텐트 전달 메커니즘(208)은 사용자로부터 사용자 상호작용들(212)을 수신하고, 사용자 상호작용들(212)에 응답하여 콘텐트 패키지(216)로부터 콘텐트(218 내지 220)를 제공한다.The
작동 동안, 콘텍스트 관리자(201)는 콘텍스트(214)가 하나 이상의 콘텐트 패키지에 대응하는지를 결정할 수 있다. 즉, 콘텍스트(214)는 하나 이상의 콘텐트 패 키지를 제공하기 위한 조건들을 만족한다. 본 발명의 몇몇 실시예들에서, 콘텍스트 관리자(201)는 콘텍스트(214)가 하나 이상의 콘텐트 패키지에 대응할 때 세트로부터 제공하도록 하나의 콘텐트 패키지를 사용자가 선택하도록 프롬프팅(prompting)한다. 다른 실시예들에서, 콘텍스트 관리자(201)는 미리 규정된 우선순위들 또는 콘텐트 패키지들에 대한 변화하는 가중치들에 기초한 하나의 세트로부터 제공하기 위해 하나의 콘텐트 패키지를 선택한다. 예를 들면, 콘텍스트 관리자(201)는 제공될 가장 늦은 콘텐트 패키지를 선택할 수 있고(예를 들면, 콘텐트 패키지들의 세트로부터 가장 오래된 재생 시간 스탬프를 가짐), 또는 제공될 가장 최신인 콘텐트 패키지를 선택할 수 있다. 또 다른 실시예에서, 콘텍스트 관리자(201)는 최소의 횟수들(예를 들면, 콘텐트 패키지가 제공된 후 증가하는 콘텐트 패키지의 세트로부터 가장 낮은 가중치를 가짐)로 제공된 세트로부터 콘텐트 패키지를 선택할 수 있거나, 최대 횟수들로 제공된 콘텐트 패키지를 선택할 수 있다.During operation, the
도 2b는 본 발명의 실시예에 따른 콘텐트(253)를 사용자가 생성하게 하는 것과 연관된 콘텐트 관리 시스템(240)에 대한 데이터 흐름을 예시한다. 몇몇 실시예들에서, 사용자는 모바일 디바이스 또는 개인용 컴퓨터(PC) 상의 콘텐트 관리 시스템(240)을 사용하여 콘텐트(253)를 생성할 수 있다. 콘텐트 관리 시스템(240)은 콘텍스트 관리자(241), 입력 메커니즘(244), 및 콘텐트 데이터베이스(246)를 포함한다. 입력 메커니즘(244)은 콘텐트 스트림(248) 및 사용자 상호작용들(250)을 모으고, 콘텍스트 관리자(241)의 분석 메커니즘(242)에 콘텐트 스트림(248) 및 사용자 상호작용들(250)을 전송한다. 이들 실시예들에 대한 몇몇 변형들에서, 사용자 상호 작용들(250)은 콘텐트 관리 시스템(240)의 음성 기반 사용자 인터페이스(UI)와 상호작용하기 위해 사용자에 의해 언급된 구두 명령들일 수 있다. 다른 변형들에서, 사용자 상호작용들(250)은 키보드, 마우스, 터치 스크린, 또는 임의의 다른 입력 디바이스를 사용하여 입력된 데이터를 포함하는, 그래픽 사용자 인터페이스(GUI)를 통하여 사용자에 의해 제공된 데이터일 수 있다.FIG. 2B illustrates a data flow for a
분석 메커니즘(242)은 사용자 상호작용들(250)에 기초하여 콘텍스트(254)에 대한 규정을 생성하거나, 미리 규정된 콘텍스트(254)를 선택한다. 또한, 분석 메커니즘(242)은 콘텐트 스트림(248) 및 사용자 상호작용들(250)에 기초하여 콘텐트(253)를 생성한다. 다음, 콘텍스트 관리자(241)는 콘텐트(253) 및 콘텍스트(254)를 포함하는 콘텐트 패키지(252)를 생성하고, 콘텐트 패키지(252)를 콘텐트 데이터베이스(246)에 제공한다. 그 다음 콘텐트 데이터베이스(246)는 콘텐트 패키지(252)에 대한 엔트리(entry)를 생성한다.The
몇몇 실시예들에서, 사용자는 콘텐트 패키지(252)를 제공하기 위한 하나의 세트의 규칙들을 생성하는 단계를 포함하는 콘텐트 관리 시스템(240)을 사용하여 콘텐트 패키지(252)를 생성할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(240)은 콘텐트, 콘텍스트, 또는 프리젠테이션 파라미터들을 위한 다수의 컬럼들, 및 대응하는 파라미터에 대한 데이터를 사용자가 입력하게 하는 다수의 로우(row)들을 포함하는 스프레드시트와 유사한 콘텐트 패키지(252)를 생성하기 위한 GUI를 포함한다. 다른 변형들에서, 콘텐트 관리 시스템(240)은 상이한 GUI 레이아웃을 사용하는 동안 여기에 설명된 스프레드시트 GUI와 동일한 기능성을 달 성할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 패키지(252)는 주어진 스프레드시트의 데이터를 포함하도록 생성된다. 다른 실시예들에서, 콘텐트 패키지(252)는 스프레드시트의 각각의 로우에 대해 생성된다.In some embodiments, a user may create a
작동 동안, 사용자는 GUI의 콘텐트 헤딩(heading) 아래의 엔트리를 클릭함으로써 콘텐트 패키지(252)에 콘텐트(253)를 삽입할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 컬럼 엔트리의 클릭은 사용자가 콘텐트 스트림(248)을 기록하게 하고, 다른 변형들에서, 콘텐트 컬럼 엔트리의 클릭은 사용자가 콘텐트 컬럼 엔트리에 대한 미리 기록된 콘텐트(253)를 선택하게 한다. 유사하게, 사용자는 엔트리에 대한 값을 입력하기 위해 콘텐트 패키지(252)의 다른 컬럼 헤딩들 중 임의의 컬럼 헤딩 아래의 엔트리를 클릭할 수 있다. 콘텐트 패키지(252)를 생성하기 위한 컬럼 헤딩들은 콘텐트, 시간, 위치, 상태, 응답, 올바른 행동, 및 올바르지 않은 행동을 포함하지만, 이것으로 제한되지 않는다. 몇몇 실시예들에서, 컬럼 헤딩들인 시간, 위치, 및 상태 아래 엔트리들은 콘텐트(253)를 제공하기 위한 콘텍스트들을 규정하기 위해 사용될 수 있고, 컬럼 헤딩 응답, 올바른 행동, 올바르지 않은 행동 아래의 엔트리들은 프리젠테이션 규칙들을 규정하기 위해 사용될 수 있다.During operation, the user may insert the
일반적으로, 콘텍스트 또는 활동이 "일하기 위한 통근" 같은, 높은 레벨 추상 개념들의 관점에서 규정될 수 있다는 것이 주의된다. 높은 레벨 추상 개념은 일주의 날짜, 하루의 시간, GPS 트레이스들의 시리즈, 또는 가속도계 판독들 같은, 다수의 낮은 레벨 콘텍스트 정보 값들의 조합에 대응할 수 있다. 일 실시예에서, 낮은 레벨 콘텍스트 정보 값은 하나 이상의 측정가능한 물리적 파라미터들에 대응 할 수 있다. 또한, 프리젠테이션 규칙은 "일하기 위한 통근 및 일로부터의 통근 동안의 플레이" 같은, 하나 이상의 높은 레벨 추상 개념들의 관점에서 규정될 수 있다. 게다가, 사용자는 또 다른 사용자와 프리젠테이션 규칙을 공유할 수 있다. 제 2 사용자는 대응하는 높은 레벨 추상 개념들에 대한 그의 개인적인 낮은 레벨 콘텍스트 정보 값들을 수용하기 위해 공유된 규칙을 재규정할 수 있다.It is noted that in general, a context or activity can be defined in terms of high-level abstraction concepts, such as "commuting to work ". The high level abstraction concept may correspond to a combination of a number of low level context information values, such as the date of the week, the time of day, a series of GPS traces, or accelerometer readings. In one embodiment, the low level context information value may correspond to one or more measurable physical parameters. In addition, the presentation rules can be defined in terms of one or more high level abstraction concepts, such as "play during commuting from work and work from work ". In addition, the user can share presentation rules with another user. The second user may redefine the shared rule to accommodate its personal low level context information values for the corresponding high level abstraction concepts.
테이블 1Table 1
테이블 1은 본 발명의 일 실시예에 따라 사용자에게 콘텐트 패키지(252)를 제공하기 위한 일 예시적인 규칙들의 세트를 예시한다. 테이블 1에 의해 예시된 엔트리들은 다수의 단어들로 발음들을 연습하기 위하여 일본에서 다수의 오디오 클립들에 대응한다. 시간 컬럼은 콘텐트(253)가 제공되고, 시간 예일 수 있거나, 시간 범위일 수 있는 날의 시간을 사용자가 지정하게 한다. 위치 컬럼은 콘텐트(253)가 제공될 수 있는 위치를 사용자가 지정하게 하고, 상태 컬럼은 콘텐트(253)가 제공될 때 사용자가 수행할 수 있는 행동을 사용자가 지정하게 한다. 예를 들면, 일본어를 학습하는 사용자는 사용자가 10AM 이전에 침실 주변을 움직일 때 일본어의 "굿모닝"을 플레이하고, 사용자가 9PM 이후 침실에 들어가거나 주위를 움직일 때 일 본어의 "굿 나이트"를 플레이하도록 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다.Table 1 illustrates one exemplary set of rules for providing a
응답 컬럼은 사용자가 콘텐트(253)의 프리젠테이션에 대한 예상 응답을 지정하게 한다. 올바른 행동 컬럼은 만약 사용자가 올바른 응답을 제공하면 콘텐트 관리 시스템(240)이 수행할 수 있는 행동들을 사용자가 지정하게 한다. 올바르지 않은 행동 컬럼은 만약 사용자가 올바른 응답을 제공하지 못하면 콘텐트 관리 시스템(240)이 수행할 수 있는 행동들을 사용자가 지정하게 한다. 예를 들면, 사용자는 만약 사용자가 일본어의 어구를 올바르게 모방하면 7일 동안 주어진 어구에 대한 오디오 클립을 연기하도록 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 사용자는 사용자가 적당한 발음으로 어구를 모방하지 못하면 5분 후 상기 어구를 반복하도록 콘텐트 관리 시스템(240)을 또한 프로그래밍할 수 있어서, 사용자가 일본어 어구의 적당한 발음을 달성할 때까지 반복적으로 상기 어구를 사용자가 연습하게 한다.The response column allows the user to specify an expected response to the presentation of the
몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 콘텐트 엔트리에 대한 원하는 이름을 제공하게 한다. 예를 들면, 사용자는 일본어 어구를 기록할 수 있고, 상기 어구에 대한 영어 번역을 사용하여 파일을 명명할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 사용자는 구어 스피치 같은 이름을 콘텐트 관리 시스템(240)에 제공할 수 있고, 콘텐트 관리 시스템(240)은 스피치를 텍스트로 전환함으로써 이름에 대한 텍스트 문자열을 생성한다. 다른 변형들에서, 사용자는 콘텐트 관리 시스템(240)의 입력 디바이스를 사용하여 이름을 타이핑(typing)할 수 있 다. 사용자가 기록에 이름을 제공하지 못하는 경우, 콘텐트 관리 시스템(240)은 "노트1" 같은, 디폴트 파일 이름을 사용하여 기록을 명명할 수 있다.In some embodiments, the
몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 컬럼 엔트리를 탭(tap)하거나 클릭할 때 드롭-다운 메뉴를 제공함으로써 컬럼 엔트리에 사용자가 하나의 값을 설정하게 한다. 이런 드롭-다운 메뉴는 사용자가 선택하기 위한 허용가능한 값들의 수직 리스트를 디스플레이하고, 사용자가 원하는 값을 클릭 또는 탭핑함으로써 사용자가 하나의 값을 선택하게 한다. 다른 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 컬럼 엔트리에 상기 값을 타이핑하게 함으로써 사용자가 컬럼 엔트리에 하나의 값을 설정하게 한다.In some embodiments, the
몇몇 실시예들에서, 사용자는 주어진 컬럼(예를 들면, 테이블 1에 제공된 시간, 위치, 상태, 또는 응답 컬럼들)의 엔트리들에 대해 허용가능한 값들의 리스트(예를 들면, 이름들 또는 태그들, 및 대응 콘텍스트 정보)를 콘텐트 관리 시스템(240)에게 제공할 수 있다. 예를 들면, 위치 컬럼 엔트리는 사용자에 의해 선택된 지리적 위치들의 데이터베이스로부터 허용가능한 값들의 세트를 획득할 수 있다. 몇몇 실시예들에서, 사용자는 사용자가 현재 지리적 위치를 저장하기 위해 콘텐트 관리 시스템(240)을 통지하고, 저장된 지리적 위치(예를 들면, "홈" 또는 "침실")에 대한 이름을 지정함으로써 원하는 위치에 있을 때 콘텐트 관리 시스템(240)의 현재 또는 추후 사용을 위한 지리적 위치를 규정할 수 있다. 다른 실시예들에서, 사용자는 맵으로부터 위치를 선택하고, 지리적 위치의 거리 어드레스를 콘텐트 관리 시스템(240)에게 제공하거나, 원하는 위치의 지리적 좌표들을 콘텐트 관리 시 스템(240)에 제공하고, 그 다음 지리적 위치에 대한 이름 또는 태그를 지정함으로써 지리적 위치를 지정할 수 있다. 몇몇 실시예들에서, 사용자에 의해 수행된 루틴들 및 콘텍스트 정보에 기초하여, 콘텐트 관리 시스템(240)은 사용자에게 중요한 지리적 위치들, 및 이들 위치들에 대한 적당한 이름을 자동적으로 추론할 수 있다.In some embodiments, the user may select a list of allowable values (e.g., names or tags) for entries of a given column (e.g., the time, position, status, or response columns provided in Table 1) , And corresponding context information) to the
컬럼 엔트리는 사용자에 의해 편집될 수 있는 미리-설정된 값들을 가진 미리 규정된 이름들 또는 태그들의 데이터베이스로부터 허용가능한 값들의 세트를 또한 획득할 수 있다. 예를 들면, 상태 컬럼 엔트리의 "이동" 값은 움직임 검출 메커니즘에 의해 트리거링될 수 있는 미리 규정된 콘텍스트(254)에 대응하는 식별자일 수 있다.The column entry may also obtain a set of allowable values from the database of predefined names or tags with pre-set values that can be edited by the user. For example, the "move" value of the status column entry may be an identifier corresponding to a
몇몇 실시예들에서, 콘텐트 패키지(252)는 주어진 유형의 하나 이상의 컬럼을 포함할 수 있다. 예를 들면, 콘텐트 패키지(252)는 미리 결정된 규칙들에 따라 제공될 대응하는 영어 번역 엔트리들에 대한 일본 엔트리들에 대한 컬럼 및 또 다른 컬럼을 포함할 수 있다. 몇몇 실시예들에서, 이들 미리 결정된 규칙들은 또 다른 컬럼에 지정될 수 있고, 대응 영어 번역이 제공되게 하는 조건들(예를 들면, 시간 지연, 콘텍스트 조건, 또는 사용자 응답)을 규정할 수 있다. 또 다른 변형에서, 사용자는 콘텐트(253)에 대한 보다 정확한 콘텍스트 트리거 조건들을 규정하기 위해 하나 이상의 상태 컬럼들을 예시할 수 있다. 예를 들면, 사용자는 두 개의 상태 컬럼들을 예시할 수 있고, 각 상태 컬럼에 대한 미리 규정된 또는 사용자-규정된 상태(예를 들면, 걷기 및 쇼핑)를 선택할 수 있다.In some embodiments,
응답 컬럼 엔트리는 오디오 스트림 또는 텍스트 문자열 형태로 사용자로부터 의 예상된 응답을 설명하는 값을 획득할 수 있다. 몇몇 실시예들에서, 응답 컬럼 엔트리는 콘텐트(253)가 콘텐트 컬럼 엔트리를 위해 제공되는 것과 동일한 방식으로 값을 획득할 수 있고, 여기서 사용자는 예상된 응답을 기록할 수 있거나 미리 기록된 응답을 선택할 수 있다. 다른 실시예들에서, 응답 컬럼 엔트리는 인용 표시들에 의해 요약된 텍스트 문자열 형태로 사용자로부터 값을 획득할 수 있고, 여기서 사용자에 의한 구두 응답 및 텍스트 형태로 제공된 예상된 응답은 텍스트-대-스피치 및/또는 스피치-대-텍스트 기술들을 사용하여 비교된다. 다른 실시예들에서, 하나의 값 모방을 가진 응답 컬럼 엔트리는 사용자에 의해 제공된 응답이 콘텐트 컬럼 하의 대응 엔트리에 의해 식별된 콘텐트를 모방하여야 하는 것을 콘텐트 관리 시스템(240)에게 통지한다.The response column entry may obtain a value that describes the expected response from the user in the form of an audio stream or text string. In some embodiments, the response column entry may obtain a value in the same manner as
콘텐트 관리 시스템(240)은 사용자 응답 또는 콘텐트(253)의 프리젠테이션과 상호작용에 응답하는 행동을 수행할 수 있다. 올바른 행동 컬럼 엔트리(action correct column entry)는 사용자가 예상된 응답을 제공하는 경우 콘텐트 관리 시스템(240)에 의해 수행될 행동을 지정하는 값을 획득할 수 있다. 게다가, 올바르지 않은 행동 컬럼 엔트리(action incorrect column entry)는 사용자가 예상된 응답을 제공하지 않는 경우 콘텐트 관리 시스템(240)에 의해 수행될 행동을 지정하는 값을 획득할 수 있다. 예를 들면, 콘텐트 관리 시스템(240)은 주어진 시간 기간 동안 콘텐트(253)의 재생을 연기할 수 있거나, 콘텐트 엔트리를 삭제할 수 있다.The
몇몇 실시예들에서, 올바른 행동 컬럼 또는 올바르지 않은 행동 컬럼 하의 엔트리는 콘텐트 관리 시스템(240)의 미리 규정된 능력이다. 다른 실시예들에서, 올바른 행동 컬럼 또는 올바르지 않은 행동 컬럼 하의 엔트리는 사용자에 의해 제공된 스크립트 또는 실행가능한 프로그램이다. 사용자는 작동들의 시퀀스를 수행하는, 스크립트 또는 실행가능한 프로그램을 생성할 수 있고, 시간 기간에 걸쳐 사용자 응답들로부터 모아진 상태 정보를 저장 및 액세스할 수 있다. 예를 들면, 사용자는 사용자가 3개의 연속적인 시도들에서 정확하게 콘텐트(253)를 모방할 때 대응 콘텐트 엔트리를 삭제하거나 변경하는(예를 들면, 다시 콘텐트를 프리젠팅하기 위한 시간 조건을 변경함으로써) 스크립트 또는 실행가능한 프로그램을 올바른 행동 컬럼에 제공할 수 있다.In some embodiments, an entry under the correct action column or an incorrect action column is a predefined capability of the
몇몇 실시예들에서, 콘텐트 컬럼에 대한 엔트리는 이메일, 인터넷 블로그 업데이트들, 인터넷 RSS 공급들, 트위트들(tweets), 텍스트-기반 노트들 및 리마인더들(reminders), 또는 콘텐트에 대한 컴퓨터-판독가능한 포인터들을 포함하지만 이에 제한되지 않는 텍스트-기반 콘텐트(253)를 가질 수 있다. 이들 실시예들의 몇몇 변형들에서, 컴퓨터-판독가능한 포인터는 특수 콘텐트를 참조할 수 있다. 다른 변형들에서, 컴퓨터-판독가능한 포인터는 메타데이터(예를 들면, 날짜, 지오태그(geotag), 또는 콘텐트 카테고리에 대한 텍스트 디스크립션)에 기초하여 규정되고, 다수의 데이터베이스들로부터 모아질 수 있는 메타데이터와 연관된 콘텐트를 참조하기 위해 사용된다.In some embodiments, the entry for the content column may be a computer-readable record of e-mail, Internet blog updates, Internet RSS feeds, tweets, text-based notes and reminders, Based
이들 실시예들의 몇몇 변형들에서, 콘텐트 관리 시스템(240)은 콘텐트 관리 시스템(240)의 스크린 상에 디스플레이함으로써 텍스트-기반 콘텐트를 제공할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(240)은 텍스트-대-스피치 기술들을 사 용하여 콘텐트(253)를 오디오로 전환하고, 오디오를 재생함으로써 텍스트-기반 콘텐트(253)를 제공할 수 있다. 또한, 콘텐트 관리 시스템(240)은 텍스트-기반 콘텐트(253)를 제공하기 위한 하나의 세트의 규칙들을 적용할 수 있다. 예를 들면, 콘텐트 관리 시스템(240)은 하루의 어떤 시간에서, 또는 주어진 콘텍스트(254) 하에서 사람의 미리 규정된 세트로부터 사용자에게 이메일들을 제공할 수 있다.In some variations of these embodiments, the
테이블 2는 본 발명의 일 실시예에 따라 사용자에게 리마인더 콘텐트 패키지(252)를 제공하기 위한 일 예시적인 규칙들의 세트를 예시한다. 콘텐트 컬럼 하의 엔트리가 텍스트 형태로 리마인더를 식별하고, 다른 컬럼들은 사용자에게 리마인더를 제공하기 위한 하나의 세트의 규칙들을 설명한다. 예를 들면, 사용자는 만약 사용자가 이동하면(예를 들면, 걷거나, 조깅) 특정 날 및 시간에 제 1 리마인더를 제공하도록 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 만약 사용자가 "OK"를 언급함으로써 콘텐트(253)에 응답하면, 콘텐트 관리 시스템(240)은 콘텐트 엔트리를 삭제한다. 그렇지 않고, 사용자가 "OK"를 언급하지 않으면, 콘텐트 관리 시스템(240)은 15분 동안 콘텐트 엔트리의 콘텐트(253)를 연기한다.Table 2 illustrates one exemplary set of rules for providing a
제 2 실시예에서, 사용자는 특정 날 및 시간 이후, 및 사용자가 운전하는 동안 제 2 리마인더를 제공하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 만약 사용자가 "OK"를 언급함으로써 콘텐트(253)에 응답하면, 콘텐트 관리 시스템(240)은 콘텐트 엔트리를 삭제한다. 그렇지 않고, 만약 사용자가 "OK"를 언급하지 않으면, 콘텐트 관리 시스템(240)은 15분 동안 콘텐트(253)를 연기한다.In the second embodiment, the user may program the
제 3 실시예에서, 사용자는 특정 날 및 시간 이후, 그리고 사용자가 도서관 에서 움직이지 않는 동안(즉, 도서관에서 공부하거나 독서함) 제 3 리마인더를 제공하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(240)은 사용자가 도서관에 있는 동안 사용자에 대해 오디오 콘텐트(253)를 재생하기 전에 사용자가 헤드폰들을 착용하고 있는지를 결정할 수 있다. 만약 사용자가 콘텐트 관리 시스템(240)에 플러그(plug)된 헤드폰들을 가지지 않으면, 콘텐트 관리 시스템(240)은 사용자가 헤드폰 잭에 헤드폰들을 플러그 인하거나, 도서관 밖으로 나가는 것을 요구하는 비쥬얼 메시지를 사용자에게 플래시할 수 있다. 이들 실시예들에 대한 다른 변형들에서, 콘텐트 관리 시스템(240)은 사용자가 도서관에 있을 때 텍스트로서 콘텐트(253)를 재생할 수 있다. 만약 콘텐트(253)가 구두 언급들을 포함하면, 콘텐트 관리 시스템(240)은 텍스트와 같은 구두 언급들을 재생하기 위해 스피치-대-텍스트 메커니즘을 사용할 수 있다.In the third embodiment, the user can program the
테이블 2Table 2
콘텐트 관리 시스템(240)은 무선 주파수 식별(RFID) 태그들을 판독하거나, 짧은 거리에서 다른 NFC 디바이스들과 상호작용하기 위해 사용될 수 있는 근거리 통신(Near Field Communication; NFC) 같은 짧은 범위 통신 프로토콜들을 지원하는 입력 메커니즘(244)을 포함할 수 있다. NFC 프로토콜을 지원하는 콘텐트 관리 시스템(240)은 오브젝트들(objects)에 부착된 RFID 태그들에 기초하여 물리적 오브젝트들을 식별할 수 있고, 콘텐트(253)를 제공하기 위한 콘텍스트 정보로서 모아진 정보를 사용하거나, 사용자 상호작용(250)으로서 검출된 NFC 신호를 사용할 수 있다.
예를 들면, 사용자가 집 밖으로 걸어가려고 하는 것을 콘텐트 관리 시스템(240)이 검출할 때 사용자가 우산을 가져가도록 하고, 그날 늦게 비가 오는 것을 인터넷 예보 서비스로부터 결정하고, 사용자의 우산을 식별하는 RFID 태그를 검출하지 않도록 하는 통지를 사용자에게 제공하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 또 다른 예에서, 사용자는 사용자가 밤 동안 직장 또는 차의 문틀 상의 RFID 태그를 통과할 때 사용자가 집에 오는 것을 사용자의 아내에게 통지하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다.For example, when the
오디오-기반 Audio-based 콘텐트Content 생성 produce
몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 오디오-기반 사용자 인터페이스(UI)를 제공한다. 예를 들면, 사용자는 이동하는 동안 새로운 리마인더 콘텐트를 생성할 때 오디오-기반 UI를 사용하여 콘텐트 관리 시스템(240)과 상호작용할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(240)에 대한 오디오-기반 UI는 콘텐트 관리 시스템(240)에 대한 GUI에 필적하는 언어학 방식을 따른다. 콘텐트 관리 시스템(240)의 GUI와 유사한 오디오-기반 UI는 사용자가 대응하는 GUI와 이미 유사할 때 사용자가 오디오-기반 UI에 용이하게 순응되게 한다. 예를 들면, 콘텐트 관리 시스템(240)을 위한 오디오-기반 UI는 다음 대화를 사용하여 새로운 리마인더를 생성하는 사용자와 상호작용할 수 있다: In some embodiments, the
사용자: "할일들, 새로운 노트"User: "Things to do, new notes"
시스템: "할일 기록 시작"System: "Start recording to do"
사용자: "[구두 언급들]...[일시중지]"User: "[verbal comments] ... [pause]"
시스템: "기록 완료"System: "Recorded"
사용자: "시스템, 기록 계속, [많은 구어 언급들]...[일시 중지]"User: "System, Continue recording, [many spoken references] ... [Pause]"
시스템: "계속된 기록 완료"System: "Continued recording completed"
사용자: "임의의 시간에 나에게 위치 홈, 상태 고정을 제공, 응답 OK, [일시 중지]"User: "At any time, give me a home position, fixed status, answer OK, [pause]"
시스템: "노트 완료"System: "Notes Complete"
이들 실시예들에 대한 몇몇 변형들에서, 사용자는 파라미터(예를 들면, "임의의 시간, 홈, 고정, 응답 OK")에 대한 값을 언급할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(240)은 각 컬럼 엔트리에 대한 값을 지정(예를 들면, "시간 조건 지정")하기 위해 사용자에게 오디오 프롬프트를 제공할 수 있다. 또 다른 변형들에서, 사용자는 콘텐트 생성 GUI의 컬럼과 연관된 매 엔트리에 대한 값을 통신할 필요가 없다. 사용자가 콘텐트 생성 GUI의 주어진 컬럼에 대한 값을 제공하지 않는 경우, 콘텐트 관리 시스템(240)은 디폴트 값으로 대응하는 엔트리를 채울 것이다. 예를 들면, 사용자는 콘텐트 관리 시스템(240)을 구성할 수 있어 디폴트 위치는 사용자의 현재 위치이다. 제 2 실시예에서, 사용자는 콘텐트 관리 시스템(240)을 구 성할 수 있어 디폴트 위치는 임의의 값이다. 또 다른 실시예에서, 사용자는 임의의 값으로 콘텐트(253)를 제공하기 위한 디폴트 시간을 설정할 수 있고, "OK"로 콘텐트(253)에 디폴트 응답을 설정할 수 있다.In some variations on these embodiments, the user may refer to a value for a parameter (e.g., "any time, home, fixed, response OK"). In other variations, the
또 다른 실시예에서, 콘텐트 관리 시스템(240)에 대한 오디오-기반 UI는 다음 대화를 사용하여 프리젠테이션 레이아웃을 생성하는 사용자와 상호작용할 수 있다:In another embodiment, the audio-based UI for the
사용자: "프리젠테이션[프리젠테이션 이름], 1 슬라이드, [일시 중지]"User: "Presentation [presentation name], 1 slide, [pause]"
시스템: "프리젠테이션 기록 시작"System: "Start recording presentation"
사용자: "1 슬라이드, 1 포인트, [슬라이드 콘텐트의 리마인더를 말함], [일시 중지]"User: "1 slide, 1 point, [Reminder for slide content], [Pause]"
시스템: "기록 완료"System: "Recorded"
사용자: "시스템, 기록 계속, 2 슬라이드, [일시 중지]"User: "System, Continue recording, 2 slides, [Pause]"
시스템: "프리젠테이션 기록 계속"System: "Keep recording your presentation"
사용자: "2 슬라이드, [슬라이드 콘텐트의 리마인더를 말함], [일시 중지]"User: "2 Slide, [Reminder for slide content], [Pause]"
시스템: "계속된 기록 완료"System: "Continued recording completed"
본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자와 연관된 콘텍스트 정보로부터 사용자와 연관된 콘텍스트(254)를 추론할 수 있고, 다수의 방식으로 추론된 콘텍스트(254)에 콘텐트(253)를 매칭할 수 있다.In some embodiments of the invention, the
몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 주어진 콘텐트(253)를 수용하는지를 결정할 수 있고, 사용자에 의해 수행된 액티비티의 결과로 서 콘텐트(253)의 특정 유형에 대한 선호도를 제공할 수 있다. 예를 들면, 튜터링 콘텐트(tutoring content)를 제공하기 위해 콘텐트 관리 시스템(240)을 구성한 사용자는 사용자가 일하기 위해 통근할 때 일본어 학습을 위한 튜터링 레슨들을 수신하기를 원할 수 있다. 특히, 콘텐트 관리 시스템(240)은 사용자가 일하기 위해 운전할 때 사용자에게 오디오-기반 일본어 레슨들을 제공할 수 있고, 사용자가 일하기 위해 기차에 승차할 때 사용자에게 일본어 읽기 및 쓰기 레슨들을 제공할 수 있다. 또 다른 실시예에서, 콘텐트 관리 시스템(240)은 사용자가 걷고 학습을 수용할 때 사용자에게 레슨들을 제공할 수 있고, 사용자가 텔레비젼을 시청하거나 대화를 하는데 전념할 수 있기 때문에 청취가능한 스피치를 검출할 때 레슨들을 제공하는 것을 방지할 수 있다. In some embodiments, the
몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 하나 이상의 콘텐트 패키지(252)로 프로그래밍될 수 있다. 효과적으로, 사용자는 콘텍스트(254)의 상이한 값들에 대해 제공된 콘텐트(253)의 유형들을 가변시키기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다. 예를 들면, 사용자는 특정한 지리적 또는 지리적 공간 위치로 언어 레슨들을 제한하고, 평일들 또는 밤들에 기술적 레슨들을 제한하기 위해 콘텐트 관리 시스템(240)을 프로그래밍할 수 있다.In some embodiments,
몇몇 실시예들에서, 사용자는 사용자의 현재 특정 거동에 관련하는 콘텐트(253)를 제공하기 위해 콘텐트 관리 시스템(240)을 구성할 수 있다. 예를 들면, 만약 사용자가 걸을 때, 콘텐트 관리 시스템(240)은 일본어로 사용자에게 걷는 행동을 설명함으로써 언어 레슨을 제공할 수 있거나, 사용자가 걷는 위치에 관련하는 콘텐트(253)를 일본어로 제공할 수 있다. 또 다른 실시예에서, 만약 사용자가 부엌에 있고 아침인 것을 콘텐트 관리 시스템(240)이 결정하면, 콘텐트 관리 시스템(240)은 사용자가 아침식사를 준비하거나 아침식사를 먹는 것을 추론할 수 있고, 아침식사-관련 일본 언어 레슨들을 제공할 수 있다. 다른 예들에서, 콘텐트 관리 시스템(240)은 음악, 히스토리 레슨들, 인터넷 블로그들, 텍스트-대-스피치 이메일, 등등 같은 콘텐트 유형들을 포함하는, 추론된 콘텐트(254)에 기초한 다른 유형들의 콘텐트(253)를 제공할 수 있다.In some embodiments, the user may configure the
몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자가 수행하고자 하는 행동의 예측 레슨들을 제공할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(240)은 사용자에게 미리 리마인더 콘텐트(253)를 제공할 수 있어 사용자는 그 또는 그녀의 계획들을 조절할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(240)은 적당한 문법적 시제로 언어 레슨들을 제공함으로써 사용자에게 자연적인 문법 레슨들을 제공할 수 있다. 예를 들면, 콘텐트 관리 시스템(240)은 주어진 행동을 수행하는 사용자에 기초하여 사용자에게 문법을 가르칠 수 있다. 사용자가 그 또는 그녀의 걸음 상태를 변화시킬 때, 콘텐트 관리 시스템(240)은 "나는 걸을 것이다", "나는 걷는 중이다" 또는 "나는 걸었다"와 같은, 대응하는 콘텐트(253)를 생성할 수 있다. 또 다른 예에서, 콘텐트 관리 시스템(240)은 사용자가 평일 아침 버스 또는 기차에 입장할 때 사용자에게 미래 시제로 사람에게 인사에 관련한 일본어 언어 레슨들을 제공할 수 있다. 즉, 콘텐트 관리 시스템(240)은 액티비티의 예측, 시작, 계속 및 완료와 매칭하는 콘텐트(253)의 시퀀스를 제공하기 위하여 문법 규칙들을 사용할 수 있다.In some embodiments, the
몇몇 실시예들에서, 사용자는 모바일 디바이스 또는 PC 상에서 콘텐트 관리 시스템(240)을 사용하여 공유가능한 콘텐트를 생성할 수 있다. 공유가능한 콘텐트는 사용자가 다른 관리 시스템들로 다운로드, 수정, 및 공유할 수 있는 콘텐트 패키지(252)이다. 또한, 콘텐트 패키지(252)는 텍스트, 그래픽들, 오디오, 및/또는 비디오 콘텐트(253)에 대한 다수의 콘텐트 엔트리 필드들을 포함할 수 있다.In some embodiments, a user may use the
일단 사용자가 콘텐트 패키지(252)를 생성하는데 초기 노력을 투자하면, 콘텐트 패키지(252)는 다른 사용자들에 의해 쉽게 공유 및 수정될 수 있다. 몇몇 실시예들에서, 사용자는 콘텐트 패키지(252)를 공적으로 이용가능하게 하기 위해 인터넷 웹사이트 상에 콘텐트 패키지(252)를 업로드할 수 있다. 몇몇 다른 실시예들에서, 사용자는 인터넷 웹사이트로부터 콘텐트 패키지(252)를 다운로드할 수 있고, 콘텐트 패키지(252)로부터 콘텐트(253)를 삽입, 수정, 및/또는 제거하기 위해 콘텐트 패키지(252)를 수정할 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 사용자는 콘텐트 패키지(252)로부터의 프리젠테이션 규칙들을 삽입, 수정, 및/또는 제거하기 위해 콘텐트 패키지(252)를 수정할 수 있다.Once the user has invested an initial effort in creating the
몇몇 실시예들에서, 콘텍스트 조건(예를 들면, "홈" 또는 "쇼핑")에 대한 요약 이름 또는 태그는 콘텐트 관리 시스템에 의해 인식될 수 있고, 사용자들이 이들 이름들 또는 태그들과 연관된 특정 콘텍스트 정보를 재규정하지 않고 사용자들 사이에서 쉽게 공유될 수 있다. 예를 들면, 제 1 사용자는 특정 거리 어드레스를 참조하도록 홈 위치 이름을 규정할 수 있고, 제 2 사용자는 상이한 거리 어드레스를 참조하도록 홈 위치 이름을 규정할 수 있다. 그러므로, 제 1 사용자가 제 2 사용자와 콘텐트 패키지(252)를 공유할 때, 콘텐트 패키지의 홈 위치 이름에 대한 임의의 참조는 제 2 사용자의 거리 어드레스로 자동적으로 번역될 것이다. 제 2 사용자는 콘텐트 패키지(252)의 홈 위치 이름과 연관된 콘텍스트 정보를 재규정할 필요가 없다.In some embodiments, a summary name or tag for a context condition (e.g., "home" or "shopping") can be recognized by the content management system, It can be easily shared among users without redefining the information. For example, a first user may define a home location name to reference a particular street address, and a second user may specify a home location name to reference a different street address. Therefore, when a first user shares a
몇몇 실시예들에서, 사용자는 완전하지 않을 때 콘텐트 패키지(252)를 공유할 수 있다. 콘텐트 패키지(252)는 콘텐트 패키지(252)의 하나 이상의 엔트리 필드들이 대응하는 콘텐트(253)를 가지지 않을 때 완전하지 않다. 불완전한 콘텐트 패키지(252)를 공유하는 것은 다수의 사용자들이 공유가능한 콘텐트를 생성하는데 협력하게 하고, 다수의 사용자들이 서로 학습하게 한다.In some embodiments, the user may share the
예를 들면, 사용자는 영어의 단어들 및 어구들의 광대한 리스트를 생성함으로써 일본어 튜터링에 대한 콘텐트 패키지(252)를 생성하기 위한 상당한 노력을 할 수 있고, 심지어 대응하는 엔트리들의 일부에 대한 일본어 번역들을 포함할 수 있다. 이들 영어 및 일본어 엔트리들은 오디오 콘텐트(253)이거나, 텍스트로 기록될 수 있다. 그 다음, 사용자는 콘텐트 패키지(252)를 공용으로 이용가능하게 할 수 있고, 다른 사용자들이 콘텐트 패키지(252)를 다운로드하고 개선시키게 한다. 다른 사용자들은 보다 우수한 발음을 가진 오디오 기록들로 초기 일본어 번역들을 대체할 수 있고, 대응하는 일본어 오디오 번역을 가지지 않는 영어 단어들 및 어구들에 대한 일본어 오디오 기록들을 포함할 수 있다. 또한, 일본어-스피킹 사용자들은 그들이 영어 번역을 좋아하는 단어들 및/또는 어구들에 대한 일본어의 새로운 엔트리 들을 콘텐트 패키지(252)에 삽입할 수 있어, 영어-스피킹 사용자가 영어의 대응하는 오디오 기록을 제공하게 한다. For example, a user can make a considerable effort to create a
본 발명의 몇몇 실시예들에서, 콘텐트 엔트리 또는 콘텐트 패키지(252)의 콘텐트 엔트리들의 세트는 하나 이상의 콘텐트 유형 디스크립션 엔트리들을 가진다. 콘텐트 유형 디스크립션은 엔트리(예를 들면, "리마인더", "여행 정보", 또는 "일본 동시 taberu의 동사 활용들")의 콘텐트(253) 특성을 설명하는 텍스트 문자열(text string)일 수 있다. 몇몇 변형들에서, 콘텐트 엔트리에 대한 콘텐트 유형 디스크립션은 미리 규정될 수 있다. 몇몇 다른 변형들에서, 콘텐트 유형 디스크립션은 관련된 콘텍스트 정보(예를 들면, 시간, 위치, 사용자 액티비티, 등)에 기초하여 콘텐트 관리 시스템에 의해 규정될 수 있다. 또 다른 변형들에서, 콘텐트 유형 디스크립션은 사용자에 의해 규정될 수 있다.In some embodiments of the invention, the content entry or set of content entries in the
몇몇 실시예들에서, 콘텐트 패키지(252)의 콘텐트 유형 디스크립션 엔트리들은 그들이 포함하는 콘텐트 유형에 기초하여 콘텐트 패키지들의 수집물을 분류하기 위해 사용될 수 있다. 콘텐트 유형 디스크립션들은 콘텐트 데이터베이스(246)에 저장된 매칭하거나 관련된 콘텐트 유형 디스크립션을 가진 콘텐트(253) 또는 임의의 다른 데이터베이스 또는 콘텐트의 소스를 검색하기 위해 사용될 수 있다. 예를 들면, 사용자는 "일본어 동사 taberu의 동사 활용들" 또는 일본어 동사들의 활용들"으로서 규정된 콘텐트 엔트리들을 검색할 수 있다.In some embodiments, the content type description entries of the
본 발명의 몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 사용자에게 맞추어진 콘텐트 패키지(252)를 생성하기 위해 인공 지능을 사용할 수 있다. 이들 실시 예들에 대한 하나의 변형에서, 콘텐트 관리 시스템(240)은 사용자에 의해 입력된 텍스트를 파싱(parsing)하기 위해 자연 언어 처리(natural language processing; NLP)를 사용한다.In some embodiments of the invention, the
예를 들면, 콘텐트 관리 시스템(240)은 어휘 및 문법 규칙들을 포함하는 데이터베이스에 결합된 HTML 및 XML-구조화 콘텐트(253)를 가진 인터넷 웹사이트 형태로 있을 수 있다. 콘텐트 관리 시스템(240)은 단어들, 시제 및 다른 변형들이 자동으로 가변될 수 있어, 사용자가 예를 들면, 문법 규칙들을 학습하는 것을 연습할 수 있는 문장들을 생성하기 위해 사용자가 텍스트 UI와 상호작용하게 할 수 있다. 콘텐트 관리 시스템(240) 및 사용자 사이의 상호작용들에 기초하여, 콘텐트 관리 시스템(240)은 다수의 규칙들에 대한 많은 변형들을 사용자가 연습하게 하는 레슨을 구현하는 콘텐트 패키지(252)를 생성할 수 있어 사용자가 연습을 통해 규칙들을 학습할 수 있다. For example, the
또 다른 예에서, 만약 사용자가 일본어의 수동 문장 구조를 사용하는 방법을 학습하기를 원하면, 사용자는 "앨리스가 선생님에 의해 꾸중을 들었다"라는 일 예시적인 영어 텍스트 엔트리를 콘텐트 관리 시스템(240)에 제공할 수 있다. 그 다음, 사용자는 일본어 번역들과 쌍인 영어의 문법적으로 유사한 결과들을 포함하는 콘텐트 패키지들(252) 또는 콘텐트 엔트리들에 대한 검색을 지정하기 위해 GUI를 사용할 수 있다. 응답하여, 콘텐트 관리 시스템(240)은 아마도 주어, 목적어, 동사, 및 시제를 가변시키기 위한 옵션을 가진 문법적으로 등가의 문장들을 생성할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(240)은 그의 언어 심화 구조를 결정하기 위해 사용자-입력 영어 문장을 우선 파싱함으로써 문법적으로 등가의 문장들을 생성할 수 있다. 그 다음, 콘텐트 관리 시스템(240)은 사용자-입력 영어 문장에 기초하여 시스템-규정 콘텐트 유형 디스크립션 문자열을 생성할 수 있고, 임의의 또는 모든 주어, 목적어, 동사 및 시제를 가변시키면서, 어구의 심화 구조의 몇몇 사용자-지정 양태와 매칭하는 콘텐트 유형 디스크립션들을 가진 영어-일본어 콘텐트 쌍들을 검색할 수 있다. 예를 들면, 콘텐트 관리 시스템(240)은 하기 수동 구성을 사용하여 문법적으로 유사한 문장들을 생성할 수 있다:In another example, if the user wishes to learn how to use the Japanese passive sentence structure, the user may send an exemplary English text entry to the
"개는 엄마에게 꾸중을 들었다""The dog was scolded by her mother"
"매리는 교수님에게 칭찬을 들었다""Mary heard the praise from the professor"
"폴은 저널리스트와 인터뷰중이다""Paul is interviewing journalists."
"존은 국장에 의해 호출될 것이다""John will be called by the director."
"아이들은 아버지에게 꾸중을 듣곤 했었다""The children used to be scolded by their father"
"사과는 사라가 먹을 것이다""The apple will eat Sarah"
이들 실시예들에 대한 몇몇 변형들에서, 문법적으로 등가의 문장들은 다른 사용자들에 의해 쉽게 기록된 오디오-기반 콘텐트(253)일 수 있고, 여기서 주어진 오디오 기록은 기록된 콘텐트에 대한 콘텐트 유형 디스크립션 텍스트 문자열과 연관된다. 콘텐트 관리 시스템(240)은 연관된 콘텐트 유형 디스크립션 텍스트 문자열과 그 데이터베이스에서 콘텐트에 대한 매칭들을 발견하기 위해 사용자에 의해 입력된 문장의 문법적 심화 구조를 분석할 수 있다. 따라서, 콘텐트 관리 시스템(240)은 새로운 콘텐트 패키지(252)에 매칭하는 데이터베이스로부터 기록들, 콘 텐트 엔트리들, 및/또는 전체 콘텐트 패키지들을 어셈블(assemble)할 수 있다.In some variations on these embodiments, the grammatically equivalent sentences may be audio-based
도 3은 본 발명의 일 실시예에 따라 사용자에게 콘텍스트-기반 콘텐트를 전달하기 위한 처리를 도시하는 흐름도를 제공한다. 콘텐트 관리 시스템은 콘텍스트 정보를 수신하고(작동 310), 콘텍스트를 결정하기 위해 콘텍스트 정보를 처리(작동 320)함으로써 시작한다. 다음, 콘텐트 관리 시스템은 콘텍스트가 트리거 조건을 만족하는지의 여부를 결정한다(작동 330). 만약 그렇다면, 콘텐트 관리 시스템은 콘텍스트에 기초하여 콘텐트 데이터베이스로부터 콘텐트를 선택하고(작동 340), 선택된 콘텐트를 사용자에게 제공한다(작동 350).3 provides a flow diagram illustrating a process for delivering context-based content to a user in accordance with an embodiment of the present invention. The content management system receives context information (act 310) and begins by processing (act 320) the context information to determine the context. Next, the content management system determines whether the context satisfies the trigger condition (act 330). If so, the content management system selects (operation 340) the content from the content database based on the context and provides the selected content to the user (act 350).
도 4는 본 발명의 일 실시예에 따른 콘텍스트-기반 콘텐트를 생성하기 위한 처리를 도시하는 흐름도를 제공한다. 콘텐트 관리 시스템은 사용자에 의해 제공된 콘텐트를 기록함으로써 시작한다(작동 410). 그 다음, 콘텐트 관리 시스템은 기록된 콘텐트에 대한 콘텐트 데이터베이스에 콘텐트 엔트리를 생성한다(작동 420). 다음, 시스템은 콘텐트 엔트리에 대한 하나 이상의 트리거 조건들을 지정함으로써 미리 규정된 콘텍스트와 콘텐트 엔트리를 연관시킨다(작동 430). 몇몇 변형들에서, 사용자는 미리 규정된 콘텍스트와 콘텐트 엔트리를 수동적으로 연관시킬 수 있다.4 provides a flow diagram illustrating a process for generating context-based content in accordance with an embodiment of the present invention. The content management system begins by recording the content provided by the user (act 410). The content management system then creates a content entry in the content database for the recorded content (act 420). Next, the system associates a content entry with a predefined context by specifying one or more trigger conditions for the content entry (act 430). In some variations, a user may manually associate a content entry with a predefined context.
도 5는 본 발명의 일 실시예에 따른 콘텍스트-기반 콘텐트를 생성 및 전달하게 하는 일 예시적인 컴퓨팅 디바이스(502)를 도시한다.FIG. 5 illustrates an
컴퓨팅 디바이스(502)는 처리기(504), 메모리(506), 및 저장 디바이스(508)를 포함한다. 또한, 컴퓨팅 디바이스(502)는 디스플레이(510), 네트워크 인터페이스(512), 진동 메커니즘(514), 다수의 센서들(516), 입력 디바이스(518), 스피 커(520), 마이크로폰(522), 및 카메라(524)를 포함한다. 또한, 컴퓨팅 디바이스(502)는 네트워크 인터페이스(512)를 통해 네트워크(526)에 결합된다. 하나의 실시예에서, 네트워크(526)는 셀룰러 네트워크를 포함한다. 또 다른 실시예에서, 네트워크(526)는 인터넷을 포함한다.The
저장 디바이스(508)는 오퍼레이팅 시스템(528), 콘텐트 관리 시스템(530), 콘텍스트 규정부들(context definitions)(542), 및 콘텐트(544)를 저장한다. 또한, 콘텐트 관리 시스템(530)은 사용자 인터페이스(UI)(532), 입력 메커니즘(534), 콘텍스트 관리자(536), 콘텐트 데이터베이스(538), 및 콘텐트 전달 메커니즘(540)을 포함한다. 하나의 실시예에서, UI(532)는 그래픽 사용자 인터페이스(GUI)이다. 또 다른 실시예에서, UI(532)는 음성-기반 사용자 인터페이스이다.The
작동 동안, 콘텐트 관리 시스템(530)은 저장 디바이스(508)로부터 메모리(506)로 로딩되고 처리기(504)에 의해 실행된다. 본 발명의 하나의 실시예에서, 콘텐트 관리 시스템(530)은 사용자와 연관된 콘텍스트에 기초하여 사용자에 콘텐트를 제공한다. 이렇게 하기 위해, 콘텐트 관리 시스템(530)의 입력 메커니즘(534)은 다수의 입력 소스들(예를 들면, 네트워크 인터페이스(512), 센서들(516), 입력 디바이스(518), 마이크로폰(522), 및/또는 카메라(524))로부터 사용자와 연관된 콘텍스트 정보를 모으고, 콘텐트 관리 시스템(530)의 콘텍스트 관리자(536)는 사용자와 연관된 이벤트 또는 환경 팩터를 설명하는 콘텍스트 규정들(542)로부터 사용자-규정 콘텍스트를 추론하기 위해 기본 콘텍스트 정보를 해석한다. 그 다음 콘텍스트 관리자(536)는 다수의 추론된 콘텍스트들에 의해 트리거링된 콘텐트 데이터베이 스(538)에서 콘텐트 패키지를 검색하고, 콘텐트 관리 시스템(530)의 콘텐트 전달 메커니즘(540)은 선택된 콘텐트 패키지를 제공한다.During operation, the
본 발명의 또 다른 실시예에서, 콘텐트 관리 시스템(530)은 사용자가 콘텐트 패키지를 생성하게 한다. 이렇게 하기 위해, 입력 메커니즘(534)은 다수의 입력 소스들로부터 콘텐트 스트림 및 사용자 상호작용들을 모으고, 콘텍스트 관리자(536)에게 콘텐트 스트림 및 사용자 상호작용들을 전송한다. 콘텍스트 관리자(536)는 사용자 상호작용들에 기초하여 콘텍스트 규정을 생성하거나, 콘텍스트 규정들(542)로부터 사용자-규정 콘텍스트를 선택한다. 또한, 콘텍스트 관리자(536)는 콘텐트 스트림 및 사용자 상호작용들에 기초하여 콘텐트 파일을 생성하고, 콘텐트 파일 및 콘텍스트를 포함하는 콘텐트 패키지를 생성한다. 다음, 콘텍스트 관리자(536)는 콘텐트 패키지를 콘텐트 데이터베이스(538)에게 제공하고, 콘텐트 데이터베이스(538)는 콘텐트 패키지에 대한 엔트리를 생성한다.In another embodiment of the present invention, the
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 상기 설명된 메커니즘들에 기초하여 예를 들면, 사용자에게 문법 규칙들을 가르치기 위해, 사용자에 의해 구성될 수 있다. 이렇게 할 때, 콘텐트 관리 시스템(530)은 사용자와 연관된 콘텍스트(예를 들면, 저녁을 먹으러 밖으로 감 또는 차 운전 같은 행동들)를 검출하고, 콘텍스트에 적당한 타켓 언어, 및 정확한 시간에서의 표현들을 포함하는 오디오 콘텐트를 제공한다. 예를 들면, 콘텐트 관리 시스템(530)은 적당한 콘텍스트 하에서 다음 오디오 콘텐트를 제공할 수 있다:In some embodiments, the
사용자가 주차장에 진입하거나 차 문을 개방할 때: "나는 내 차를 운전할 것 이다"When the user enters the parking lot or opens the car door: "I will drive my car"
사용자가 운전하기 시작할 때: "나는 내 차를 운전하는 중이다"When the user starts driving: "I'm driving my car"
사용자가 차를 떠날 때: "나는 내 차를 운전했다"When the user leaves the car: "I drove my car"
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 사용자에게 지리적 위치에 적당한 콘텐트를 제공하기 위해 서버로부터 지오태그된(geotagged) 콘텐트를 검색할 수 있다. 예를 들면, 상기 설명된 메커니즘들에 기초하여, 유명 여행 위치를 방문하는 사용자들은 위치에 관한 보다 많은 다른 학습들을 돕기 위해 위치에 관한 정보를 설명하는 지오태그된 콘텐트를 생성할 수 있고, 이 콘텐트를 공용 데이터베이스에 업로드할 수 있다. 또한, 다수의 사용자들은 다수의 언어들로 위치에 관한 지오태그된 콘텐트를 업로드할 수 있다. 그 다음, 또 다른 사용자가 이 지리적 위치를 방문할 때, 콘텐트 관리 시스템(530)은 이 위치로 지오태그된 콘텐트를 다운로드할 수 있고, 콘텐트를 사용자에게 제공할 수 있다. 새로운 언어를 학습중인 사용자는 그 언어에서 콘텐트를 검색하기 위해 상기 설명된 메커니즘들에 기초하여 콘텐트 관리 시스템(530)을 구성할 수 있어, 사용자의 액티비티들에 적당한 언어 예들을 듣는다.In some embodiments, the
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 원격 디바이스에 전자 메시지 또는 리마인더를 생성 및 전송할 수 있어 원격 디바이스가 주어진 사용자-규정 콘텍스트 하에서 콘텐트를 제공한다. 전자 메시지들 및 리마인더들은 텍스트, 또는 오디오 콘텐트 형태일 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(530)은 텍스트-대-스피치 기술을 사용하여 텍스트 메시지들 및 리마인더 들을 오디오 콘텐트로 전환할 수 있다. 이들 실시예들은 중요 정보를 수신자에 전송하기 위한 새로운 매체를 사용자에게 제공할 수 있고 수신자는 수신자가 적합한 콘텍스트 및 활동 상태에 있고, 임무를 완료할 수 있을 때 콘텐트를 수신할 것을 보장할 수 있다.In some embodiments, the
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 개별적으로 서로 알지 못하는 사용자들 사이에서 콘텐트를 통신할 수 있다. 예를 들면, 콘텐트 관리 시스템(530)은 튜터링 서비스를 구현하기 위해 사용될 수 있고, 여기서 학생들은 콘텐트 관리 시스템(530)을 사용하여 튜터링 서비스에 공유가능한 콘텐트 패키지를 제출할 수 있고, 튜터링 서비스는 주어진 주제에 대한 콘텐트 패키지를 튜터(tutor)에 전달한다. 몇몇 변형들에서, 튜터링 서비스는 콘텐트 관리 시스템(530)의 분배된 버전에 의해 구현될 수 있고, 여기서 학생들 및 선생님들에 대한 콘텐트 관리 시스템들은 콘텐트 요청들 및 콘텐트 패키지들을 서로에 전달한다. 몇몇 다른 변형들에서, 튜터링 서비스는 인터넷 서비스로서 구현될 수 있고, 여기서 학생들 및 선생님들은 콘텐트 패키지들을 업로드 및 다운로드할 수 있고 관련 콘텐트 패키지들에 대한 요청들을 수행할 수 있다.In some embodiments, the
튜터는 다른 사용자들에 의해 제출되고 주어진 콘텐트 유형 디스크립션에 관련된 콘텐트 요청들 및 불완전한 콘텐트 패키지들을 모니터링하는 처리에 가입하기 위해 튜터링 서비스를 사용할 수 있다. 튜터가 학생으로부터 콘텐트 요청 또는 불완전한 콘텐트 패키지를 통지받을 때, 튜터는 튜터로부터의 요청들에 대한 응답을 포함하는 새로운 콘텐트 패키지를 생성함으로써 학생에게 피드백을 제공할 수 있거 나, 콘텐트 패키지에 피드백 콘텐트를 삽입하기 위해 콘텐트 패키지를 수정할 수 있다. 그 다음, 튜터의 콘텐트 관리 시스템(530)은 학생에게 새로운 또는 수정된 콘텐트 패키지를 이용가능하게 할 수 있다. 그 다음, 튜터의 새로운 콘텐트는 콘텐트 관리 시스템(530)의 학생의 개인 버전에 의해 튜터링 서비스를 통해 검색될 수 있다.The tutor can use the tutoring service to subscribe to the process of submitting by other users and monitoring incomplete content packages and content requests related to a given content type description. When a tutor is notified of a content request or incomplete content package from a student, the tutor may provide feedback to the student by creating a new content package that includes a response to requests from the tutor, or may provide feedback content to the content package You can modify the content package to insert it. The tutor's
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 콘텐트 패키지를 제공할 때 사용자로부터 상호작용들과 연관된 상태 정보를 저장할 수 있다. 예를 들면, 사용자에게 상호작용 레슨들을 제공하는 콘텐트 패키지는 사용자에 대한 정확한 정보를 기록할 수 있다. 콘텐트 관리 시스템(530)은 진행 분석들을 수행하고, 사용자에 대한 목표들 및 학습 속도에 응답하여 레슨 계획의 페이스 및 어려움을 변경하기 위해 이 정보를 이용할 수 있다. 콘텐트 관리 시스템(530)은 학습에 어려움을 가진 사용자에게 부-주제(sub-topic)에 보다 많은 레슨들을 가진 특정 부-주제를 제공할 수 있고, 비교적 쉽게 자료를 학습하는 사용자에 대한 페이스 또는 어려움을 증가시킬 수 있다. 또한, 만약 주어진 사용자가 특정 주제를 공부하기 위하여 정해진 데드라인을 갖고, 사용자가 레슨들보다 뒤지면, 콘텐트 관리 시스템(530)은 사용자가 데드라인에 의해 준비됨을 보장하기 위해 레슨 계획의 페이스를 증가시킬 수 있다.In some embodiments,
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 적당한 콘텍스트 내의 레슨 콘텐트를 제공하는 것과, 임의의 적당한 콘텍스트 외의 레슨 콘텐트를 제공하는 것 사이의 변경에 의해 주어진 레슨 계획에 대한 사용자의 메모리를 강화시킬 수 있 다. 몇몇 경우들에서, 콘텐트 관리 시스템(530)은 사용자가 학습에 가장 유효한 콘텍스트의 레슨들을 사용자에게 제공할 수 있다. 다른 경우들에서, 콘텐트 관리 시스템(530)은 사용자가 의존할 수 있는 임의의 콘텍스트 큐들(cues) 또는 리마인더들로부터 레슨 콘텐트를 근본적으로 분리하기 위해 부적당하고/부적당하거나 불편한 콘텍스트들의 레슨들을 사용자에게 제공할 수 있다.In some embodiments, the
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 사용자에 레슨 계획을 전달하기 위한 방법을 발전시킬 수 있다. 이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(530)은 사용자가 레슨 자료를 알고자 할 때 질문에 대한 올바른 응답을 사용자가 제공하기 전에 기다리는 시간 기간을 길게 할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(530)은 질문에 대한 응답을 제공하기 위해 감소하는 시간 기간을 사용자에게 허용할 수 있다. 다른 변형들에서, 콘텐트 관리 시스템(530)은 사용자가 주제의 진보된 이해 레벨에 도달할 때 요구하는 질문들의 명료함을 감소시킬 수 있다.In some embodiments, the
몇몇 실시예들에서, 퍼블리셔들은 콘텐트 관리 시스템(530)에 대한 콘텐트 패키지들로서 인터넷 상에 그들의 콘텐트를 생성 및 퍼블리시할 수 있다. 새로운 언어를 학습하는 사용자는 언어 예들을 제공하는 다수의 콘텐트 패키지들을 모으는데 상당한 노력을 소비하는 것과 반대로 전문적으로 생성 및 진보된 언어 레슨에 대해 더 보상할 수 있다. In some embodiments, the publishers may create and publish their content on the Internet as content packages for the
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 명령 레슨을 상보하기 위해 스피치 승인(speech recognition)을 사용할 수 있다. 예를 들면, 콘텐트 관리 시스 템(530)은 사용자의 문법 및 발음에 대한 상시 피드백을 가진 새로운 언어를 학습하는 사용자에 공급하기 위한 스피치 승인을 사용할 수 있다. 또 다른 예에서, 콘텐트 관리 시스템(530)은 사용자가 타겟 청중에 대한 그/그녀의 통신 스타일을 변경하는 것을 돕도록 스피치 승인을 사용할 수 있다. 또 다른 예에서, 사용자가 다른 것들에 대한 기본적인 제 2 언어 교육 유형을 생성할 때, 콘텐트 관리 시스템(530)은 사용자가 이해를 위해 외국인에게 보다 간단한 언어를 사용하여야 하는 힌트들을 사용자에게 제공하기 위해, 스피치 또는 텍스트 승인, 및 심화 문장 구조 승인을 사용할 수 있다. 예를 들면, 콘텐트 관리 시스템(530)은 보다 공통의 명사들, 동사들, 및 보다 간단한 문장 구성들을 제안할 수 있다.In some embodiments, the
몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 주어진 시간, 일주의 날짜, 또는 일녀의 날짜의 위치에서 모아지는 콘텍스트 정보에 기초하여 지리적으로 또는 시간적으로 규정된 상황에 대한 콘텍스트-기반 추론들을 구축할 수 있다. 콘텐트 관리 시스템(530)의 사용자가 하나의 상황에 직면할 때, 사용자는 그 상황에 특정한 방식으로 상황과 상호작용하고자 할 것이다. 콘텐트 관리 시스템(530)은 그 상황과 연관된 콘텍스트를 추론하기 위해 동일한 상황에서 다수의 사용자들로부터 모아진 거동들의 그의 관찰들을 이용할 수 있다. 몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 특정 사용자와 연관된 개인 정보를 저장할 필요가 없고, 단지 검출하는 미리 규정된 또는 사용자-규정된 거동 디스크립션들(예를 들면, "움직임", "걷기", "커피 브레이크", 등)을 저장할 필요가 있다. 예를 들면, 사용자가 콘텐트 관리 시스템(530)을 사용하는 동안 커피 숍을 여는 시간 동안 커피 숍에 앉아있을 때, 사용자는 "커피", "빈(beans)", "페이스트리", "와이-파이(Wi-Fi)", "핫-스팟(hot-spot)", "쉬고 있는(relaxing)", "큰컵의 커피(great cup of coffee)", "맛있는 쿠키들", "인터넷 액세스" 및 "인터넷 카페"를 포함하는, 커피 숍과 연관된 용어들 및 어구들을 언급하고자 할 수 있다. 미리 규정되거나 사용자-규정된 액티비티들 및/또는 검출되고 관찰된 단어들 및 어구들에 기초하여, 콘텐트 관리 시스템(530)은 사용자의 현재 상황이 용어 "커피"(예를 들면, 사용자가 현재 커피 숍에 있다)와 연관되는 것을 결정할 수 있다.In some embodiments, the
이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(530)은 주어진 콘텍스트 하에서 검출된 사용자 액티비티들 또는 언급들로부터 모은 키워드들의 수집을 가진 공용 콘텍스트 데이터베이스를 제공할 수 있어, 공용 콘텍스트 데이터베이스의 콘텍스트 지식의 풀(pool)에 기여한다. 공용 콘텍스트 데이터베이스는 주어진 콘텍스트 하에서 가장 일반적인 용어들 및 어구들을 식별하고, 이들 키워드들 및 어구들을 콘텍스트와 연관시킴으로써 다수의 콘텐트 관리 시스템들에 의해 제공된 키워드들로부터 학습할 수 있다.In some variations on these embodiments, the
몇몇 다른 변형들에서, 콘텐트 관리 시스템(530)은 콘텍스트-특정 키워드들을 모으기 위한 다수의 애플리케이션들에 대해, 그의 콘텍스트 모니터링 능력(콘텍스트 정보(310) 수신)의 일부로서 사용자에 의해 전달된 텍스트 및 스피치를 모니터링한다. 예를 들면, 사용자는 모바일 디바이스에 대한 다수의 애플리케이션들(예를 들면, 이메일, 인터넷 검색 엔진들, 텍스트 메시지들, 모바일 웹 2.0, 등)을 사용하여 정보를 전달할 수 있다. 이들 변형들은 관련된 키워드들로 콘텍스트를 태그 하지 않고, 사용자들이 공용 콘텍스트 데이터베이스에 콘텍스트-특정 키워드들 및 어구들을 제공하게 한다. 몇몇 실시예들에서, 콘텐트 관리 시스템(530)은 사용자로부터 캡쳐된 특정 키 워드들을 저장하지 않고, 단어들이 주어진 상황 내에서 검출될 때 공지된 워드들의 미리의 워드 엔트리에 대한 가중의 단위를 부가할 수 있다. 시간에 걸쳐, 공용 콘텍스트 데이터베이스는 주어진 상황에서 가장 공통적으로 나타나는 키워드들 및 어구들에 대한 선호도를 제공할 것이고, 대응하는 상황들과 특정 키워드들 및 어구들을 연관시키는 이들 키워드들을 데이터베이스 내에 포함할 수 있다.In some other variations, the
이들 실시예들에 대한 몇몇 변형들에서, 콘텐트 관리 시스템(530)은 구두 언급들을 검출할 때 스피치를 텍스트로 전환하기 위해 스피치-대-텍스트 메커니즘을 사용하는 음성-활성화된 키워드 룩업 메커니즘(voice-activated keyword lookup mechanism)을 포함한다. 콘텐트 관리 메커니즘(530)은 사용자의 현재 지리적 위치를 식별하기 위해 사용될 수 있는 콘텍스트를 추론하기 위해 공용 콘텍스트 데이터베이스에서 검색하기 위한 이들 구두 언급들로부터 생성된 텍스트를 사용한다. 이들 실시예들에 대한 몇몇 변형들에서, 키워드 룩업 메커니즘은 마이크로폰을 사용하여 환경으로부터 키워드들을 모을 수 있고/모을 수 있거나 사용자가 시작한 전화 대화으로부터 키워드들을 모을 수 있다. 몇몇 다른 변형들에서, 키워드 룩업 메커니즘은 텍스트 메시지, 이메일, 또는 임의의 다른 통신 메커니즘으로부터 단어들을 포함하는, 콘텐트 관리 시스템(530)을 사용하여 사용자가 수신 또는 전송하는 용어들 및 어구들로부터 키워드들을 모을 수 있다.In some variations on these embodiments, the
도 1은 본 발명의 일 실시예에 따른 콘텐트 관리 시스템(100)을 도시한 도면.1 illustrates a
도 2a는 본 발명의 실시예에 따라 사용자에게 콘텐트를 전달하는 것과 연관된 콘텐트 관리 시스템에 대한 데이터 흐름을 예시한 도면.2A illustrates a data flow for a content management system associated with delivering content to a user in accordance with an embodiment of the present invention.
도 2b는 본 발명의 실시예에 따른 콘텐트를 사용자가 생성하게 하는 것과 연관된 콘텐트 관리 시스템에 대한 데이터 흐름을 예시한 도면.Figure 2B illustrates a data flow for a content management system associated with causing a user to create content according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따라 사용자에게 콘텍스트-기반 콘텐트를 전달하기 위한 처리를 도시하는 흐름도.3 is a flow diagram illustrating a process for delivering context-based content to a user in accordance with an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 콘텍스트-기반 콘텐트를 생성하기 위한 처리를 도시하는 흐름도.4 is a flow diagram illustrating a process for generating context-based content in accordance with an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 콘텍스트-기반 콘텐트를 생성 및 전달하게 하는 일 예시적인 컴퓨팅 디바이스를 도시한 도면.Figure 5 illustrates one exemplary computing device for creating and delivering context-based content in accordance with an embodiment of the present invention.
Claims (18)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/326,457 US8489599B2 (en) | 2008-12-02 | 2008-12-02 | Context and activity-driven content delivery and interaction |
US12/326,457 | 2008-12-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100062940A KR20100062940A (en) | 2010-06-10 |
KR101562834B1 true KR101562834B1 (en) | 2015-10-26 |
Family
ID=41612390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090117513A KR101562834B1 (en) | 2008-12-02 | 2009-12-01 | context and activity-driven content delivery and interaction |
Country Status (5)
Country | Link |
---|---|
US (1) | US8489599B2 (en) |
EP (1) | EP2194472A1 (en) |
JP (1) | JP5607917B2 (en) |
KR (1) | KR101562834B1 (en) |
CN (2) | CN101751467A (en) |
Families Citing this family (281)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US8788588B2 (en) * | 2006-05-03 | 2014-07-22 | Samsung Electronics Co., Ltd. | Method of providing service for user search, and apparatus, server, and system for the same |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US10002034B2 (en) | 2008-02-25 | 2018-06-19 | Georgetown University | System and method for detecting, collecting, analyzing, and communicating event-related information |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10504124B2 (en) | 2008-04-21 | 2019-12-10 | Verizon Patent And Licensing Inc. | Aggregation and use of information relating to a users context for personalized advertisements |
US20090265764A1 (en) * | 2008-04-21 | 2009-10-22 | Verizon Business Network Services Inc. | Aggregation and use of information relating to a users context |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US9587949B2 (en) * | 2009-03-31 | 2017-03-07 | Verizon Patent And Licensing Inc. | Position-based tags, reminders, and messaging |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US20120309363A1 (en) * | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US9350817B2 (en) * | 2009-07-22 | 2016-05-24 | Cisco Technology, Inc. | Recording a hyper text transfer protocol (HTTP) session for playback |
US8306641B2 (en) * | 2009-12-04 | 2012-11-06 | Sony Mobile Communications Ab | Aural maps |
US8572753B2 (en) * | 2009-12-22 | 2013-10-29 | Ncr Corporation | Methods and apparatus for selecting and delivering content |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
DE202011111062U1 (en) | 2010-01-25 | 2019-02-19 | Newvaluexchange Ltd. | Device and system for a digital conversation management platform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
FR2960730A1 (en) * | 2010-05-31 | 2011-12-02 | France Telecom | METHODS OF CONTROLLING AND MANAGING AN INTERACTIVE DIALOGUE, PLATFORM AND APPLICATION SERVER EMPLOYING THEM |
US9081767B2 (en) * | 2010-07-26 | 2015-07-14 | Radiant Logic, Inc. | Browsing of contextual information |
US8068011B1 (en) | 2010-08-27 | 2011-11-29 | Q Street, LLC | System and method for interactive user-directed interfacing between handheld devices and RFID media |
US9135086B2 (en) * | 2010-09-22 | 2015-09-15 | Rosetta Stone, Ltd. | Performing a computerized language teaching lesson using a main computer and a mobile device |
US8612600B2 (en) * | 2010-12-07 | 2013-12-17 | Nec Laboratories America, Inc. | Negotiation tool and method for cloud infrastructure data sharing |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9501531B2 (en) * | 2011-05-18 | 2016-11-22 | Microsoft Technology Licensing, Llc | Contextual relevance engine for activity feeds |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
JP5608610B2 (en) * | 2011-06-28 | 2014-10-15 | ヤフー株式会社 | Portable advertisement display device, method and program |
US8949212B1 (en) * | 2011-07-08 | 2015-02-03 | Hariharan Dhandapani | Location-based informaton display |
KR101467023B1 (en) * | 2011-08-23 | 2014-12-03 | 주식회사 케이티 | System and method to deliver contents using dynamic context in the distributed network |
KR102006741B1 (en) | 2011-08-24 | 2019-09-02 | 삼성전자 주식회사 | Method and system sharing activity of a device |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8606655B2 (en) * | 2011-09-15 | 2013-12-10 | Ziplist, Inc. | Methods and apparatus for managing a universal list system |
KR101912088B1 (en) * | 2011-10-12 | 2018-10-26 | 삼성전자 주식회사 | Apparatus and method for extending a default model of terminal, and a computer-readable storage medium |
EP2581842A1 (en) * | 2011-10-13 | 2013-04-17 | Gface GmbH | Method for creating a keyword-based user-personalized webpage |
KR101925057B1 (en) * | 2011-12-12 | 2019-02-28 | 삼성전자주식회사 | System and method for sharing content by using context information |
GB2497793A (en) * | 2011-12-21 | 2013-06-26 | Ninian Solutions Ltd | Pre-emptive caching of potentially relevant content from a collaborative workspace at a client device |
JP5938951B2 (en) * | 2012-03-01 | 2016-06-22 | 株式会社リコー | Information processing system, information processing apparatus, and program |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9008688B2 (en) * | 2012-05-07 | 2015-04-14 | Qualcomm Incorporated | Calendar matching of inferred contexts and label propagation |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US8429103B1 (en) | 2012-06-22 | 2013-04-23 | Google Inc. | Native machine learning service for user adaptation on a mobile platform |
US8510238B1 (en) | 2012-06-22 | 2013-08-13 | Google, Inc. | Method to predict session duration on mobile devices using native machine learning |
US8886576B1 (en) | 2012-06-22 | 2014-11-11 | Google Inc. | Automatic label suggestions for albums based on machine learning |
US9479465B2 (en) * | 2012-06-26 | 2016-10-25 | International Business Machines Corporation | Gathering context information for a communication |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9311412B2 (en) * | 2012-07-16 | 2016-04-12 | International Business Machines Corporation | Automatically notifying a computer user of internet content |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
KR102070196B1 (en) * | 2012-09-20 | 2020-01-30 | 삼성전자 주식회사 | Method and apparatus for providing context aware service in a user device |
US10042603B2 (en) | 2012-09-20 | 2018-08-07 | Samsung Electronics Co., Ltd. | Context aware service provision method and apparatus of user device |
US11468243B2 (en) | 2012-09-24 | 2022-10-11 | Amazon Technologies, Inc. | Identity-based display of text |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US20140181715A1 (en) * | 2012-12-26 | 2014-06-26 | Microsoft Corporation | Dynamic user interfaces adapted to inferred user contexts |
US9396502B2 (en) * | 2013-01-23 | 2016-07-19 | Facebook, Inc. | Enabling delayed interactions with content items presented by a social networking system |
US9426242B2 (en) * | 2013-01-29 | 2016-08-23 | Apple Inc. | Determining an invitational content item type based on predicted user attention |
CN113470640B (en) | 2013-02-07 | 2022-04-26 | 苹果公司 | Voice trigger of digital assistant |
US10649619B2 (en) * | 2013-02-21 | 2020-05-12 | Oath Inc. | System and method of using context in selecting a response to user device interaction |
WO2014138175A1 (en) * | 2013-03-05 | 2014-09-12 | Perkin Sean | Interactive digital content sharing among users |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US20140272891A1 (en) * | 2013-03-15 | 2014-09-18 | Joseph Saladino | System and method for remote fitness training |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
US20140280186A1 (en) * | 2013-03-15 | 2014-09-18 | International Business Machines Corporation | Crowdsourcing and consolidating user notes taken in a virtual meeting |
US20140316849A1 (en) * | 2013-04-22 | 2014-10-23 | Kiosked Oy | Method and system for determining item specific user interest |
CN104969185B (en) * | 2013-04-29 | 2018-10-12 | 安提特软件有限责任公司 | Storage medium, the system and method by unstructured logout within a context |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2014200728A1 (en) | 2013-06-09 | 2014-12-18 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
US11074618B2 (en) * | 2013-06-13 | 2021-07-27 | Blackberry Limited | Method and apparatus pertaining to history-based content-sharing recommendations |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US20150095771A1 (en) * | 2013-09-30 | 2015-04-02 | Lenovo (Singapore) Pte. Ltd. | Journal launch based on context |
US10055756B2 (en) | 2013-10-18 | 2018-08-21 | Apple Inc. | Determining user engagement |
KR102122771B1 (en) * | 2013-10-25 | 2020-06-26 | 삼성전자주식회사 | Artificial intelligence audio apparatus and operation method thereof |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US20150162000A1 (en) * | 2013-12-10 | 2015-06-11 | Harman International Industries, Incorporated | Context aware, proactive digital assistant |
US9225522B2 (en) * | 2013-12-27 | 2015-12-29 | Linkedin Corporation | Techniques for populating a content stream on a mobile device |
US20150200891A1 (en) * | 2014-01-16 | 2015-07-16 | Sony Corporation | Computer ecosystem with context-specific messaging |
US9444735B2 (en) | 2014-02-27 | 2016-09-13 | Cisco Technology, Inc. | Contextual summarization tag and type match using network subnetting |
KR102469752B1 (en) * | 2014-07-31 | 2022-11-22 | 삼성전자주식회사 | Wearable device and method for controlling the same |
EP2945108A1 (en) * | 2014-05-13 | 2015-11-18 | Thomson Licensing | Method and apparatus for handling digital assets in an assets-based workflow |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
EP3480811A1 (en) | 2014-05-30 | 2019-05-08 | Apple Inc. | Multi-command single utterance input method |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
WO2015195671A1 (en) * | 2014-06-16 | 2015-12-23 | Baker Richard L | Dynamic mobile platform functionalities employing proximal variants and advanced personalization methods for structure, navigation, theme, content, and functionality |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
WO2016018044A1 (en) * | 2014-07-31 | 2016-02-04 | Samsung Electronics Co., Ltd. | Wearable device and method of controlling the same |
CN105373555B (en) * | 2014-08-26 | 2018-11-13 | 鸿富锦精密工业(深圳)有限公司 | Multimedia equipment and multimedia situation processing method |
TWI545943B (en) | 2014-08-26 | 2016-08-11 | 鴻海精密工業股份有限公司 | Multimedia Device and Method for Processing Multimedia Scenario |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
CN105430032A (en) | 2014-09-17 | 2016-03-23 | 阿里巴巴集团控股有限公司 | Method of pushing information by combining geographic position of terminal, and server |
US20160094866A1 (en) * | 2014-09-29 | 2016-03-31 | Amazon Technologies, Inc. | User interaction analysis module |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9692867B2 (en) * | 2014-12-05 | 2017-06-27 | Here Global B.V. | Event accessory item location |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US10454865B2 (en) * | 2014-12-19 | 2019-10-22 | International Business Machines Corporation | Social network activity modes |
US10430421B2 (en) | 2014-12-29 | 2019-10-01 | Facebook, Inc. | Recommending content items in a social network using delayed interaction |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9467718B1 (en) | 2015-05-06 | 2016-10-11 | Echostar Broadcasting Corporation | Apparatus, systems and methods for a content commentary community |
CN104853249A (en) * | 2015-05-12 | 2015-08-19 | 天脉聚源(北京)传媒科技有限公司 | Program recommendation method and terminal |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10564794B2 (en) * | 2015-09-15 | 2020-02-18 | Xerox Corporation | Method and system for document management considering location, time and social context |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10268689B2 (en) * | 2016-01-28 | 2019-04-23 | DISH Technologies L.L.C. | Providing media content based on user state detection |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10824932B2 (en) | 2016-04-29 | 2020-11-03 | Microsoft Technology Licensing, Llc | Context-aware digital personal assistant supporting multiple accounts |
US10984036B2 (en) | 2016-05-03 | 2021-04-20 | DISH Technologies L.L.C. | Providing media content based on media element preferences |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US11477302B2 (en) * | 2016-07-06 | 2022-10-18 | Palo Alto Research Center Incorporated | Computer-implemented system and method for distributed activity detection |
US10223067B2 (en) * | 2016-07-15 | 2019-03-05 | Microsoft Technology Licensing, Llc | Leveraging environmental context for enhanced communication throughput |
US11227020B2 (en) * | 2016-08-11 | 2022-01-18 | International Business Machines Corporation | Displaying content based on a user's status |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10764381B2 (en) | 2016-12-23 | 2020-09-01 | Echostar Technologies L.L.C. | Communications channels in media systems |
US11196826B2 (en) | 2016-12-23 | 2021-12-07 | DISH Technologies L.L.C. | Communications channels in media systems |
US10390084B2 (en) | 2016-12-23 | 2019-08-20 | DISH Technologies L.L.C. | Communications channels in media systems |
US11409463B2 (en) | 2016-12-28 | 2022-08-09 | Microsoft Technology Licensing, Llc | Systems and methods for contextual memory capture and recall |
US10593329B2 (en) | 2016-12-30 | 2020-03-17 | Google Llc | Multimodal transmission of packetized data |
US10708313B2 (en) | 2016-12-30 | 2020-07-07 | Google Llc | Multimodal transmission of packetized data |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US20180270178A1 (en) | 2017-03-09 | 2018-09-20 | Agt International Gmbh | Method and apparatus for sharing materials in accordance with a context |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | User interface for correcting recognition errors |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | Low-latency intelligent automated assistant |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Multi-modal interfaces |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | Far-field extension for digital assistant services |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10176808B1 (en) * | 2017-06-20 | 2019-01-08 | Microsoft Technology Licensing, Llc | Utilizing spoken cues to influence response rendering for virtual assistants |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10671338B2 (en) * | 2017-09-29 | 2020-06-02 | Spotify Ab | Systems and methods of associating media content with contexts |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US11330029B2 (en) | 2018-03-27 | 2022-05-10 | Lenovo (Singapore) Pte. Ltd. | Sharing content with a detected device |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
CN108696635A (en) * | 2018-04-24 | 2018-10-23 | 广东美的制冷设备有限公司 | User behavior detection method, device, system and electronic equipment |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | Virtual assistant operation in multi-device environments |
DK179822B1 (en) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
US20190385341A1 (en) * | 2018-06-15 | 2019-12-19 | Life Impact Solutions, Llc | Dynamic visual and audio geotagged photo filter |
CN108597273A (en) * | 2018-06-22 | 2018-09-28 | 南阳理工学院 | A kind of intelligent tutoring system for English study |
US10878202B2 (en) * | 2018-08-03 | 2020-12-29 | International Business Machines Corporation | Natural language processing contextual translation |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11037550B2 (en) | 2018-11-30 | 2021-06-15 | Dish Network L.L.C. | Audio-based link generation |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
WO2020219331A1 (en) * | 2019-04-26 | 2020-10-29 | Verint Americas Inc. | Dynamic web content based on natural language processing (nlp) inputs |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | User activity shortcut suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11250071B2 (en) * | 2019-06-12 | 2022-02-15 | Microsoft Technology Licensing, Llc | Trigger-based contextual information feature |
JPWO2020255767A1 (en) * | 2019-06-20 | 2020-12-24 | ||
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11256526B2 (en) * | 2019-10-11 | 2022-02-22 | Lenovo (Singapore) Pte. Ltd. | Contextual item management |
US11902091B2 (en) * | 2020-04-29 | 2024-02-13 | Motorola Mobility Llc | Adapting a device to a user based on user emotional state |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
CN111709362B (en) * | 2020-06-16 | 2023-08-08 | 百度在线网络技术(北京)有限公司 | Method, device, equipment and storage medium for determining important learning content |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11567812B2 (en) | 2020-10-07 | 2023-01-31 | Dropbox, Inc. | Utilizing a natural language model to determine a predicted activity event based on a series of sequential tokens |
US11568018B2 (en) | 2020-12-22 | 2023-01-31 | Dropbox, Inc. | Utilizing machine-learning models to generate identifier embeddings and determine digital connections between digital content items |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5555376A (en) * | 1993-12-03 | 1996-09-10 | Xerox Corporation | Method for granting a user request having locational and contextual attributes consistent with user policies for devices having locational attributes consistent with the user request |
US7076737B2 (en) * | 1998-12-18 | 2006-07-11 | Tangis Corporation | Thematic response to a computer user's context, such as by a wearable personal computer |
US7630986B1 (en) * | 1999-10-27 | 2009-12-08 | Pinpoint, Incorporated | Secure data interchange |
JP2001265809A (en) * | 2000-03-23 | 2001-09-28 | Nec Corp | System and method for communication and recording medium |
AU2001253161A1 (en) * | 2000-04-04 | 2001-10-15 | Stick Networks, Inc. | Method and apparatus for scheduling presentation of digital content on a personal communication device |
JP2002279028A (en) * | 2001-03-19 | 2002-09-27 | Pioneer Electronic Corp | System, method and device for supporting information, and information terminal device |
US20020144259A1 (en) * | 2001-03-29 | 2002-10-03 | Philips Electronics North America Corp. | Method and apparatus for controlling a media player based on user activity |
US20070038603A1 (en) * | 2005-08-10 | 2007-02-15 | Guha Ramanathan V | Sharing context data across programmable search engines |
US20040002958A1 (en) * | 2002-06-26 | 2004-01-01 | Praveen Seshadri | System and method for providing notification(s) |
AU2003260923A1 (en) * | 2002-10-21 | 2004-05-04 | Koninklijke Philips Electronics N.V. | Method of and system for presenting media content to a user or group of users |
JP2004151292A (en) * | 2002-10-30 | 2004-05-27 | Yokogawa Electric Corp | Database type learning apparatus |
JP4429815B2 (en) * | 2004-06-09 | 2010-03-10 | 株式会社エヌ・ティ・ティ・ドコモ | Multicast group creation method and creation apparatus, and content selection method and selection apparatus |
JP2006059094A (en) * | 2004-08-19 | 2006-03-02 | Ntt Docomo Inc | Service selection support system and method |
US7631007B2 (en) * | 2005-04-12 | 2009-12-08 | Scenera Technologies, Llc | System and method for tracking user activity related to network resources using a browser |
WO2006111935A1 (en) | 2005-04-21 | 2006-10-26 | Koninklijke Philips Electronics, N.V. | Activity-related document mangement |
JP4870943B2 (en) * | 2005-05-18 | 2012-02-08 | 株式会社エヌ・ティ・ティ・ドコモ | Mobile terminal, context management server, application registration server, and application execution method |
JP5105802B2 (en) * | 2005-09-07 | 2012-12-26 | 株式会社リコー | Information processing device |
US20070124721A1 (en) * | 2005-11-15 | 2007-05-31 | Enpresence, Inc. | Proximity-aware virtual agents for use with wireless mobile devices |
WO2007115224A2 (en) * | 2006-03-30 | 2007-10-11 | Sri International | Method and apparatus for annotating media streams |
US20070288247A1 (en) * | 2006-06-11 | 2007-12-13 | Michael Mackay | Digital life server |
US9015301B2 (en) * | 2007-01-05 | 2015-04-21 | Digital Doors, Inc. | Information infrastructure management tools with extractor, secure storage, content analysis and classification and method therefor |
US8295542B2 (en) * | 2007-01-12 | 2012-10-23 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
JP2008203217A (en) * | 2007-02-22 | 2008-09-04 | Kenwood Corp | Device for implementing vehicle onboard caretaking activities, technique, and program |
US20090265764A1 (en) * | 2008-04-21 | 2009-10-22 | Verizon Business Network Services Inc. | Aggregation and use of information relating to a users context |
JP5232733B2 (en) * | 2008-08-11 | 2013-07-10 | シャープ株式会社 | Problem questioning apparatus and question questioning method |
-
2008
- 2008-12-02 US US12/326,457 patent/US8489599B2/en active Active
-
2009
- 2009-11-24 EP EP09176846A patent/EP2194472A1/en not_active Ceased
- 2009-12-01 CN CN200910252812A patent/CN101751467A/en active Pending
- 2009-12-01 KR KR1020090117513A patent/KR101562834B1/en active IP Right Grant
- 2009-12-01 JP JP2009273298A patent/JP5607917B2/en not_active Expired - Fee Related
- 2009-12-01 CN CN201611078268.2A patent/CN107038197A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US8489599B2 (en) | 2013-07-16 |
CN101751467A (en) | 2010-06-23 |
US20100138416A1 (en) | 2010-06-03 |
JP2010136370A (en) | 2010-06-17 |
JP5607917B2 (en) | 2014-10-15 |
EP2194472A1 (en) | 2010-06-09 |
CN107038197A (en) | 2017-08-11 |
KR20100062940A (en) | 2010-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101562834B1 (en) | context and activity-driven content delivery and interaction | |
KR102541523B1 (en) | Proactive incorporation of unsolicited content into human-to-computer dialogs | |
JP6625418B2 (en) | Human-computer interaction method, apparatus and terminal equipment based on artificial intelligence | |
Pechenkina | Developing a typology of mobile apps in higher education: A national case-study | |
WO2019091131A1 (en) | Method for recommending teachers in online teaching system | |
US9213940B2 (en) | Cyberpersonalities in artificial reality | |
US10680993B2 (en) | Sonic social network | |
US20130262365A1 (en) | Educational system, method and program to adapt learning content based on predicted user reaction | |
WO2008001350A2 (en) | Method and system of providing a personalized performance | |
Sadiq et al. | Mobile application based on CCI standards to help children learn English as a foreign language | |
Jameson | Systems that adapt to their users | |
US9792825B1 (en) | Triggering a session with a virtual companion | |
US10140882B2 (en) | Configuring a virtual companion | |
Ismail et al. | Review of personalized language learning systems | |
CN110546701A (en) | Course assessment tool with feedback mechanism | |
Lin et al. | Design guidelines of social-assisted robots for the elderly: a mixed method systematic literature review | |
Creighton | The secret reasons why teachers are not using Web 2.0 tools and what school librarians can do about it | |
WO2020149031A1 (en) | Response processing device and response processing method | |
Toh et al. | A FRAMEWORK OF KNOWLEDGE PERSONALIZATION IN MOBILE LEARNING. | |
Yau | A mobile context-aware learning schedule framework with Java learning objects | |
US11699037B2 (en) | Systems and methods for morpheme reflective engagement response for revision and transmission of a recording to a target individual | |
Al-Khafaji | The development of a theoretical framework for designing smart and ubiquitous learning environments for outdoor cultural heritage. | |
Ding | Understanding mobile app addiction and promoting physical activities | |
Holster et al. | An entertainment-education policy approach to teach campus literacy, safety, and social norms | |
Bradley | A user-centred design framework for context-aware computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181015 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20191001 Year of fee payment: 5 |