JP2010136370A - コンテキストベースのコンテンツをユーザに配信する方法 - Google Patents

コンテキストベースのコンテンツをユーザに配信する方法 Download PDF

Info

Publication number
JP2010136370A
JP2010136370A JP2009273298A JP2009273298A JP2010136370A JP 2010136370 A JP2010136370 A JP 2010136370A JP 2009273298 A JP2009273298 A JP 2009273298A JP 2009273298 A JP2009273298 A JP 2009273298A JP 2010136370 A JP2010136370 A JP 2010136370A
Authority
JP
Japan
Prior art keywords
content
user
context
management system
content management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009273298A
Other languages
English (en)
Other versions
JP5607917B2 (ja
Inventor
Victoria M Bellotti
エム.ベロッティ ビクトリア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Palo Alto Research Center Inc
Original Assignee
Palo Alto Research Center Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41612390&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2010136370(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Palo Alto Research Center Inc filed Critical Palo Alto Research Center Inc
Publication of JP2010136370A publication Critical patent/JP2010136370A/ja
Application granted granted Critical
Publication of JP5607917B2 publication Critical patent/JP5607917B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザにコンテキストベースのコンテンツを配信方法を提供する。
【解決手段】コンテンツ管理システムはコンテキスト情報を受け取り(310)、コンテキスト情報を処理してコンテキストを決定する(320)。コンテキストがトリガ条件を満たすか否かを判定する(330)。満たす場合、コンテキストに基づいてコンテンツデータベースからコンテンツを選択し(340)、選択したコンテンツをユーザに提示する(350)。
【選択図】図3

Description

本発明は一般に、コンテンツを作成し、ユーザに提示する技法およびシステムに関する。より詳細には、本発明は、コンテキスト情報に基づいてコンテンツを作成し、提示する技法およびシステムに関する。
コンピューティング技術の進歩により人々の間の通信が向上し続け、情報を配信するための多用途の方法が提供されている。これらの進歩は、世界中のコミュニティが相互に対話し合い、情報を共用し合うことを可能にしている。特にモバイル機器は、生活に不可欠な要素となりつつあり、人々の多くは終日モバイル機器を携帯する。これらの機器には、携帯電話、携帯情報端末(PDA)、MP3プレーヤ、手持形ゲーム機、およびラップトップコンピュータが含まれ得る。より新しい世代のこれらのモバイル機器は、より高度な計算能力およびますます多くの通信機能を備えるものとして開発されている。
実際、これらのモバイル機器の多くは、ユーザがすべきことに関して予定を立てるのに役立つため、ペースの速いユーザの生活様式が途切れないようにすることができる。しかし、これらの技術的進歩は、そのユーザがこうしたペースの増大に対処するのに十分に役立っていない。典型的な社会人は、監視すべきいくつかの通信チャネルを持ち、多くの場合、これらのチャネルを監視することを思い出す必要がある。また、これらのユーザは、通常、完了する必要のある用件のリストを有し、このリストは、ユーザが週末までこれらの用件を完了するのを忘れていために、平日の間に項目が増えることもある。さらに、これらのユーザにはたいてい自分の技能を発展させる必要があるが、ユーザの仕事および社交上の予定により、あまり長時間の学習のための空き時間を作ることができない。
残念ながらモバイル機器は、社会人が多忙なスケジュールに沿って自分のやるべきことに対応するのに十分に役立ってはいない。というのは、これらのモバイル機器は、そのユーザの振る舞いを学習し、理解することができないからである。さらに、これらのモバイル機器は、そのユーザに、情報または適切な娯楽コンテンツを、いつ、どのように提供するのが最適であるか判断することもできない。というのは、これらのモバイル機器は、そのユーザが関与している活動を考慮に入れないからである。
本発明の第1の態様によれば、第1のユーザに関するコンテキスト情報のセットを受け取り、前記コンテキスト情報を処理して、コンテキストおよび前記第1のユーザが行っている活動のうち少なくとも一つを決定し、前記コンテキストおよび前記第1のユーザの現在の活動のうち少なくとも一つが、前記第1のユーザまたは第2のユーザによって事前に定義されているトリガ条件を満たすか否かを判定し、前記コンテキストおよび前記第1のユーザの現在の活動のうち少なくとも一つが、前記第1のユーザまたは第2のユーザによって事前に定義されているトリガ条件を満たす場合に、前記トリガ条件と関連付けられるコンテンツをコンテンツデータベースから選択し、前記選択したコンテンツを提示する、ことを含む、コンテキストベースのコンテンツを第1のユーザに配信する方法が提供される。
本発明の一実施形態によるコンテンツ管理システムを示す図である。 本発明の一実施形態による、ユーザにコンテンツを配信することと関連付けられたコンテンツ管理システムのデータフローを示す図である。 本発明の一実施形態による、ユーザにコンテンツを作成させることと関連付けられたコンテンツ管理システムのデータフローを示す図である。 本発明の一実施形態による、ユーザにコンテキストベースのコンテンツを配信するプロセスを示す流れ図である。 本発明の一実施形態による、コンテキストベースのコンテンツを作成するプロセスを示す流れ図である。 本発明の一実施形態による、コンテキストベースのコンテンツの作成および配信を円滑に行わせるコンピューティング装置の例を示す図である。
本発明の一実施形態は、ユーザに個人向けに定義されたコンテキストベースのコンテンツを配信するコンピューティング装置を提供する。このコンピューティング装置は、ユーザに関するコンテキスト情報のセットを受け取り、そのコンテキスト情報を処理して、現在のコンテキストの何らかの態様をユーザが行っている活動と関連付けることができるか否かを判定する。次いでコンピューティング装置は、そのコンテキストとユーザの現在の活動の一方または両方が、事前にユーザによって定義されているトリガ条件を満たすか否かを判定する。満たす場合、コンピューティング装置は、コンテキストまたは活動に基づいてコンテンツデータベースからユーザに提示するためのコンテンツを選択し、選択したコンテンツを提示する。
この実施形態の一変形では、コンピューティング装置は、ユーザに、ユーザ定義のコンテキストまたは活動によるトリガ条件と関連付けられるコンテンツを作成させることを可能とする。そのために、コンピューティング装置は、ユーザが提供するコンテンツを記録し、いくつかのトリガ条件と関連付けることのできる、記録されたコンテンツのためのコンテンツエントリをコンテンツデータベースに作成する。次いで、コンピューティング装置は、コンテンツエントリのためのトリガ条件を、ユーザ定義のコンテキストまたは活動と関連付ける。コンピューティング装置は、コンテンツエントリのための事前に定義されたトリガ条件を、進行中のユーザのコンテキストおよび/またはユーザ活動と絶えず比較する。トリガ条件が満たされる場合、コンピューティング装置は、関連付けられるコンテンツを取り出し、それをユーザに提示する。
別の変形では、コンピューティング装置は、ユーザに、共用可能なコンテンツを作成させることを可能とする。そのために、コンピューティング装置は、ユーザが提供するコンテンツを記録し、記録したコンテンツのコンテンツパッケージを作成する。このコンテンツパッケージは、記録されたコンテンツを含んでもよく、いくつかのユーザ定義のトリガ条件を含んでもよい。ユーザは、コンテンツパッケージを他のユーザに配布することによって、および/またはコンテンツパッケージを公開サーバにアップロードすることによって、他のユーザとコンテンツパッケージを共用してもよい。さらに、コンテンツパッケージをダウンロードしまたは受け取る他のユーザは、コンテンツパッケージのコンテンツまたはトリガ条件を挿入し、変更し、かつ/または除去してもよい。
この実施形態の一変形では、コンピューティング装置は、コンテキストマネージャにおいてコンテンツまたは活動エントリを作成することによってコンテキストを定義し、コンテキストまたは活動エントリをコンテキスト情報のセットと関連付ける。
本発明の実施形態は、ユーザが行っている活動に応答し、ユーザと関連付けられるいくつかの環境要因に応答して、視聴覚コンテンツのパッケージを編成し、ユーザに配信するコンテンツ管理システムを提供する。コンテンツ管理システムからの応答をトリガするユーザ活動および環境要因は、ユーザによって、所与のコンテンツのパッケージを使用可能にする前に定義される。このコンテンツ管理システムは、ユーザがユーザのスケジュールを中心としてユーザのコンテンツおよび責務を管理するのに役立てるためのものである。操作に先立ち、ユーザは、コンテンツ管理システムにコンテンツをアップロードまたは入力することができ、このコンテンツは、音楽、教材、やるべきこと(to do)リスト、RSSフィード、またはある範囲のコンテキスト内での配信に適した他の任意のコンテンツとすることができる。次いでユーザは、コンテンツを提示することのできる条件を、感知されるコンテキスト情報(温度など)またはユーザ定義のコンテキスト(ユーザ活動など)として指定することができる。これらの条件は、コンテンツを提示するためのトリガを表わし、時刻、曜日、位置識別子(「自宅」など)、輸送様式(「列車に乗車して」など)などといった、ユーザにとって意味のある用語を使用してラベル付けされる。また、ユーザは、ユーザおよび/または他のユーザといった、コンテンツ提示のための対象者を指定することもできる。
実施形態によっては、ユーザは、コンテキストまたは活動を、ユーザと関連付けられる低レベルのコンテキスト情報として定義することもできる。「コンテキスト」および「活動」は、必ずしも相互排他的であるとは限らないことに留意されたい。一実施形態では、コンテキストは、1つまたは複数のユーザ活動に基づくものとし、またはこれらを含むことができる。例えば、コンテンツ管理システムが動き、位置、および時刻を感知し得る場合、ユーザは、特定の時刻にある位置から別の位置まで歩くというコンテキストを定義し、そのコンテキストに、人間にとって意味のある用語(「歩いて通勤する」、「ショッピングセンタを歩き回る」など)を使用してラベル付けすることができる。別の例では、ユーザは、庭を動き回るというコンテキストを定義し、そのコンテキストに、人間にとって意味のある用語である「庭仕事」を使用してラベル付けすることができる。実施形態によっては、ユーザは、「集中する」、「受容的」、「活動的」といった高レベルのカテゴリの条件として活動を定義することもできる。例えば、ユーザは、考えなくてもできるタスク(「歩いて通勤する」、「ショッピングセンタを歩き回る」など)と関連付けられたいくつかのユーザ定義のコンテキストに基づいて、「受容的」とラベル付けされたコンテキストを定義することもできる。他方ユーザは、身体活動(「ジョギング」、「庭仕事など」)と関連付けられたいくつかのユーザ定義のコンテキストに基づいて、「活動的」とラベル付けされたコンテキストを定義することもできる。その場合ユーザは、いくつかの低レベルのコンテキストを含む高レベルの条件カテゴリに基づいて、あるコンテンツのトリガ条件を定義することができる。
動作に際して、コンテンツ管理システムは、いくつかの入力源(全地球測位システム(GPS)機器や、加速度計など)から、ユーザと関連付けられる基本情報を反映する低レベルのコンテキスト情報を収集することができる。次いで、コンテンツ管理システムは、このコンテキスト情報を処理して、ユーザと関連付けられるイベントまたは環境要因(「午後5時過ぎに列車に乗って」など)を記述する人間にとって意味のある用語で定義されている、推論されるコンテキストを決定する。実施形態によっては、コンテンツ管理システムは、このコンテキストを使用して、ユーザ定義のコンテキストに応答して提示させることの可能なコンテンツを識別することができる。別の実施形態では、コンテンツ管理システムは、ユーザ定義のコンテキストを使用して、所望のコンテキストにおいてユーザに提示することのできるコンテンツを探索し、かつ/または作成することができる。
コンテンツ管理システムの諸機能は、いくつかの用途に適用することができる。実施形態によっては、コンテンツ管理システムは、所与のユーザ定義のコンテキストの下で教育用コンテンツを提示することができる。例えば、コンテンツ管理システムは、ユーザがバスまたは列車に乗って通勤しているときに、ユーザに視覚的講義または対話型レッスンを提示することができる。同様にコンテンツ管理システムは、ユーザが車を運転して通勤しているとき、またはジョギングしているときに、ユーザにオーディオベースの教育用コンテンツを提示することもできる。別の実施形態では、コンテンツ管理システムは、仕事が長かった一日の後でユーザが自宅の居間に入るときに、ユーザに娯楽コンテンツを提示することができる。
実施形態によっては、ユーザは、モバイル機器またはパーソナルコンピュータ(PC)上でコンテンツ管理システムを使用して共用可能コンテンツを作成することができる。共用可能コンテンツは、ユーザがダウンロードし、変更し、他のコンテンツ管理システムと共用することのできるコンテンツパッケージである。実施形態によっては、ユーザは、ユーザがコンテンツ管理システムを使用して作成し、変更したコンテンツを共用するために、インターネットウェブサイト上にコンテンツパッケージをアップロードすることができる。他のいくつかの実施形態では、ユーザは、インターネットウェブサイトからコンテンツパッケージをダウンロードし、そのコンテンツパッケージのコンテンツを挿入し、変更し、かつ/または削除するようコンテンツパッケージを変更することもできる。
実施形態によっては、コンテンツ管理システムは、リモートコンピューティング装置とコンテンツを共用することができる。例えば、ユーザは、コンテンツ管理システム上で教育用または娯楽用のコンテンツパッケージを作成し、そのコンテンツをいつ提示させることができるかについてのユーザ定義のコンテキストを指定し、そのコンテンツパッケージを他のコンテンツ管理システムと共用することができる。別の実施形態では、コンテンツ管理システムは、所与のユーザ定義のコンテキストの下で、リモート機器にコンテンツを送ることもできる。例えば、コンテンツ管理システムは、ユーザの配偶者にユーザが残業していることを知らせるために、その配偶者の携帯電話にテキストメッセージまたはオーディオストリームを送ることができる。
図1に、本発明の一実施形態によるコンテンツ管理システム100を示す。実施形態によっては、コンテンツ管理システム100は、ユーザが行っている行動、またはユーザと関連付けられる他の情報に応答してユーザにコンテンツ112を提示することができる。別の実施形態では、コンテンツ管理システム100は、ユーザに、コンテンツを作成、格納させ、そのコンテンツを、所与のユーザ定義のコンテキストと関連付けさせることができる。一例では、コンテンツ管理システム100は、「ジョギング」とラベル付けされた低レベルのコンテキストを含む、「活動的」とラベル付けされた高レベルのコンテキストに基づき、ユーザがジョギングしているときに、ユーザに所与のクラスの情報を提示することができる。第2の例では、コンテンツ管理システム100は、ユーザが仕事帰りに車で食料品店を通りかかった際に、ユーザに食料品を買うことを思い出させることができる。さらに、コンテンツ管理システム100は、食料品店の対応する通路をユーザが歩く際に、買い物メモに記載された品目明細をユーザに読み出すことができる。
実施形態によっては、コンテンツ管理システム100は、入力手段102、コンテキストマネージャ104、コンテンツデータベース106、およびコンテンツ配信手段108を含む。入力手段102はユーザ入力110を受け取り、ユーザ入力110は、入力装置(キーボードやタッチスクリーンなど)を介してユーザが提供する情報を含むこともでき、いくつかの入力源(マイクロホン、カメラ、動きセンサ、全地球測位システム、インターネットサーバなど)から収集されたコンテキスト情報を含むこともできる。
コンテキストマネージャ104は、コンテンツ112をどのようにしてコンテンツデータベース106に格納するか制御することができ、コンテンツ112を再生のためにコンテンツデータベース106からどのようにして選択するか制御することができる。実施形態によっては、コンテキストマネージャ104は、コンテンツ112と、コンテンツ112をいつ提示することができるか記述する対応するユーザ定義のコンテキストとを含む、格納すべきコンテンツパッケージをコンテンツデータベース106に提供することによってコンテンツ112を作成する。これに応答して、コンテンツデータベース106はコンテンツ112を格納し、コンテンツ112を指定されたユーザ定義のコンテキストと関連付ける。別の実施形態では、コンテキストマネージャ104は、ユーザが行っている行動を記述するユーザ定義のコンテキストをコンテンツデータベース106に提供し、次いで、コンテンツデータベース106から対応するコンテンツを受け取ることによって、コンテンツデータベース106からコンテンツ112を取り出す。
コンテンツ配信手段108は、コンテンツ112をどのようにしてユーザに提示するか制御することができる。実施形態によっては、コンテンツ配信手段108は、コンテキストマネージャ104が再生のためのコンテンツ112を選択するときに、ユーザにコンテンツ112を提示する。これらの実施形態のいくつかの変形では、コンテンツ配信手段108は、ユーザが行う行動、またはユーザから受け取られる対話に応答して、コンテンツ112を提示することができる。例えば、コンテンツ配信手段108は、コンテンツ配信手段108がユーザによって行われる行動を監視し、ユーザが所与のタスクを完了した後で、さらに次のタスクを提示するようにして、ユーザに一連の実行すべきタスクを提供することもできる。コンテキストマネージャ104は、所与のタスクの完了を確認するユーザの言語発声を収集するマイクロホンといった入力手段102によって収集される情報を監視することによって、ユーザがタスクを完了したときを判定するように構成することができる。第2の例では、コンテンツ配信手段108は、コンテンツ配信手段108がコンテンツ112を提示する際のユーザからの言語による要求または応答に反応することもできる。
モバイル機器は、多くの場合、これらの機器をそのユーザの日課に統合することを容易にする、いくつかの情報ベースの機能を含む。これらの機能は、ユーザと関連付けられるコンテキスト情報を判定するように構成することができ、モバイル機器は、このコンテキスト情報を利用して、いつ、どのようにしてユーザに情報を提示すべきか判定することができる。一実施形態では、「コンテキスト情報」は、いくつかの入力源からコンピューティング装置によって収集される入力データとして定義することができ、ユーザおよび/またはコンピューティング装置の動作環境と関連付けられる基本情報を反映するものである。本発明のいくつかの実施形態では、コンテキスト情報は、コンピューティング装置によって解釈されずに、いくつかの入力源から記録されるデータである。
本発明のいくつかの実施形態では、コンテンツ管理システム100は、ユーザと関連付けられるコンテキスト情報を判定することができ、この情報には以下のものが含まれる。
時刻
コンテンツ管理システム100は、日時情報を追跡することができる。実施形態によっては、コンテンツ管理システム100は、その日時情報を(ネットワーク時間プロトコル(NTP)などを使用して)時間サーバと同期させることができる。実施形態によっては、コンテンツ管理システム100は、情報を配信するときのコンテキスト要因として、時刻、曜日、日付、休日などを利用することもできる。
地理的位置
位置認識は、モバイル機器の目立った特徴になりつつある。実施形態によっては、コンテンツ管理システム100は、その地理的位置を、GPS、セルタワー三角測量、Wi−Fi三角測量、または現在知られておりもしくは将来開発される他の手段によって求めることができる。
動き検出
モバイル機器の中には、動き(すなわち、モバイル機器が動いたり、揺れたり、傾いたりしているかどうか)を検出することのできるものもある。コンテンツ管理システム100は、加速度計、ジャイロスコープ、または現在知られておりもしくは将来開発される他の手段を使用して動き検出を実現することができる。
音検出
モバイル機器は、多くの場合、音を取り込むためのマイクロホンを含み、またはマイクロホンを周辺装置として利用することができる。実施形態によっては、コンテンツ管理システム100は、マイクロホンを使用してユーザの言語発声を取り込むこともできる。別の実施形態では、コンテンツ管理システム100は、マイクロホンを使用して周囲音を取り込むことができる。
画像検出
モバイル機器は、多くの場合、写真および/またはビデオを記録するためのカメラを含み、または周辺装置のカメラを利用することができる。実施形態によっては、コンテンツ管理システム100は、カメラを使用して照明レベルを判定することができる。
インターネット情報
モバイル機器は、多くの場合、Wi−Fi接続および/またはセルラネットワークを介してインターネットに接続することができる。実施形態によっては、コンテンツ管理システム100は、インターネット接続を利用して公開コンテキストおよびコンテンツ情報を収集する。このコンテキスト情報には、天気予報、株式報告書、ニュース報道、およびインターネットからアクセス可能な他の任意のトリガイベントが含まれ得る。コンテンツ情報には、オーディオクリップ、画像、ビデオストリーム、語学レッスン、電子メール、天気予報、催促通知日程表、ニュースフィード、RSS(rich site summary)フィード、インターネットブログ、およびインターネットからアクセス可能な他の任意のコンテンツが含まれ得る。
本発明のいくつかの実施形態では、コンテンツ管理システム100は、それだけに限らないが、位置、動き、音、言語発声(発話など)、(テレビやラジオなどからの)周囲音声、キーボードを叩く音、照明、脳活動読取値、速度、歩行、自動車運転、ユーザ入力、ユーザの振る舞いにおける慣例またはパターン、ならびに動揺および/または苛立ちを示す音声の変化または生体計測による読取値を含む、ユーザの振る舞いに関する基本コンテキスト情報を検出するように設計されている。
実施形態によっては、コンテンツ管理システム100は、連続動作状態に保つことができ、動作時にユーザと関連付けられるコンテキスト情報を感知し続けることができる。これらの実施形態のいくつかの変形では、コンテンツ管理システム100は、ユーザと関連するコンテキスト情報を収集するための入力手段102を使用していくつかのセンサおよび/または入力装置を監視する。別の変形では、センサまたは入力装置は、センサまたは入力装置から新しいコンテキスト情報を収集するためにコンテンツ管理システム100の特定のソフトウェアプロセスを開始することができる。別の実施形態では、コンテンツ管理システム100は、所定の時間間隔でスリープモードから復帰して、その現在のコンテキストを調査し、そのコンテキストがデータベース106内のコンテンツと関連付けられるトリガ条件を満たすか否かを判定する。コンテキストによって関連するコンテキスト上のトリガが満たされない場合、コンテンツ管理システム100はスリープモードに戻ることができる。
実施形態によっては、コンテンツ管理システム100は、コンテキスト情報に基づいてユーザおよび/またはモバイル機器の動作条件と関連付けられるコンテキストを判定することができる。入力手段102がいくつかのソースから基本コンテキスト情報を収集するときはいつでも、コンテキストマネージャ104は、その基本コンテキスト情報を解釈していくつかのユーザ定義のコンテキストを推論することができる。「コンテキスト」とは、ユーザまたはコンテンツ管理システム100の動作環境と関連付けられるイベントまたは環境要因を記述するデータのセット(集合)である。これらの実施形態のいくつかの変形では、入力手段102が収集するコンテキスト情報からコンテキストを推論することができる。別の変形では、コンテキスト情報から推論されているいくつかのコンテキストからコンテキストを推論することができる。また、コンテキストとコンテキスト情報の組み合わせからコンテキストを推論することもできる。
例えば、コンテンツ管理システム100は、それだけに限らないが、ユーザが座っているかどうか、テレビを見ているかどうか、眠っているかどうか、注意喚起されているかどうか、話しているかどうか、自宅の書斎またはオフィスのコンピュータでタイプ入力しているかどうか、家の周りを歩いているかどうか、家の外を歩いているかどうか、運転しているかどうか、または家事(料理や、仕事のための支度など)を行っているかどうかを含むコンテキスト情報に基づいてユーザに関する特定のコンテキストを推論するようにプログラムすることができる。別の例では、コンテンツ管理システム100は、ユーザのパターンおよび好み(悪天候のときには歩くのではなくバスに乗るなど)、起こり得る危険(暗闇、気象警報、犯罪多発地域の近くなど)、およびユーザの精神状態(気分、集中レベルなど)を推論するようにプログラムすることができる。
モバイル機器は、多くの場合、オーディオおよび/またはビデオコンテンツを再現するための提示手段を含む。本発明のいくつかの実施形態では、コンテンツ管理システム100は、これらの提示手段を使用して、所与のコンテキストによってトリガされるコンテンツを提示する。これらの実施形態のいくつかの変形では、コンテンツ管理システム100はユーザに対話式コンテンツを提示し、その場合ユーザは、コンテンツ管理システム100の入力手段102を使用して(ボタンを押したり、タッチスクリーンの位置に触れたり、マイクロホンに言語発声を伝えるなど)対話式コンテンツと対話することができる。
コンテンツ管理システム100は、ユーザと関連付けられるユーザ定義のコンテキストを推論すると、推論したコンテキストを使用してコンテンツデータベース106内のコンテンツを探索し、所与のコンテキストの下で提示され得るコンテンツを取り出すことができる。実施形態によっては、コンテンツデータベース106はコンテンツパッケージの集合を格納し、その場合コンテンツパッケージは、コンテンツの集合体を含み、コンテンツ管理システム100をトリガしてコンテンツパッケージ内のコンテンツを提示させることのできるいくつかのコンテキストを含む。また、これらの実施形態のいくつかの変形では、コンテンツパッケージは、コンテンツをどのようにして提示するか制御することができるスクリプトまたは実行可能コードを含むこともでき、コンテンツの提示の間にユーザと対話するソフトウェア機構を実施することもできる。
本発明のいくつかの実施形態では、コンテンツ管理システム100のコンテンツ配信手段108は、ユーザと関連付けられるコンテキストに応答してユーザにコンテンツを提示することができる。別の実施形態では、コンテンツ管理システム100は、ユーザと関連付けられるコンテキストに応答してリモート機器にコンテンツを送ることができる。
本発明のいくつかの実施形態では、コンテンツ管理システム100は、中央発行元(所定のサーバなど)によって提供されるコンテンツを提示することができる。別の実施形態では、コンテンツ管理システム100は、ユーザによって生成されるコンテンツを提示することができる。これらの実施形態の一変形では、コンテンツ管理システム100は、リモート機器上で生成され、リモート機器のユーザと共用されるコンテンツを提示することができる。例えば、食料品店へ向かって車を運転しているユーザのコンテンツ管理システム100は、ユーザの妻が自分のコンテンツ管理システムを使用してその日の早くに生成した買い物メモを自動的に受け取ることができる。ユーザが食料品店に入ると、ユーザのコンテンツ管理システム100は、ユーザの買い物メモ項目およびユーザの妻の買い物メモ項目を含む組み合わさった買い物メモを提示することができる。
これらの実施形態のいくつかの変形では、コンテンツ管理システム100は、空き時間に学習すること(外国語のリスニング、反復、テストなど)、重要な電子メールの自動検索(ユーザの注意持続時間および/またはコンテンツの緊急度に従うなど)、適時に適所で催促通知を受け取ること(用件、買い物など)、所望の位置までの道順を受け取ること、ユーザのコンテキストにふさわしい音楽を再生すること、セクションごとのプレゼンテーションレイアウトを生成することによりスピーチまたはプレゼンテーションの準備をすることを含む、いくつかの用途のためのユーザ定義のコンテキストに応答してコンテンツを提示するようにプログラムすることができる。例えば、教師は、朝、夕、および週末の、学生が公共交通手段を使用しているときに学生に教材を提示するように設計されたコンテンツパッケージ(「音声学習カード」のセットなど)を作成することができる。さらに教師は、そのコンテンツパッケージを、コンテンツパッケージの提示のタイミングおよびペースを定義し、コンテンツパッケージからの所与の指示または質問に対する学生からの必要な応答を定義し、かつ/またはユーザからの正しい応答の後に所与の指示または質問を提示するための遅延期間を定義するように構成することができる。
図2Aに、本発明の一実施形態による、ユーザにコンテンツを配信することと関連付けられたコンテンツ管理システム200のデータフローを示す。コンテンツ管理システム200は、コンテキストマネージャ201、入力手段204、コンテンツデータベース206、およびコンテンツ配信手段208を含む。入力手段204は、環境およびユーザ活動に関する感知情報を含むコンテキスト情報210を収集し、コンテキスト情報210を、コンテキストマネージャ201の分析手段202に送る。分析手段202は、コンテキスト情報210から(ユーザ活動を含み得る)コンテキスト214を推定し、コンテキストマネージャ201は、コンテキスト214を使用してコンテンツデータベース206から対応するコンテンツパッケージ216を取り出す。次いでコンテキストマネージャ201は、コンテンツ配信手段208に提示のためのコンテンツパッケージ216を提供する。これらの実施形態のいくつかの変形では、コンテンツデータベース206は、コンテンツ配信手段208に直接コンテンツパッケージ216を提供することもできる。
次にコンテンツ配信手段208は、コンテンツパッケージ216をユーザに提示する。その際にコンテンツ配信手段208は、ユーザからユーザ対話212を受け取り、ユーザ対話212に応答してコンテンツパッケージ216からのコンテンツ218〜220を提示する。
動作時に、コンテキストマネージャ201は、コンテキスト214が複数のコンテンツパッケージに対応すると判断することもあり得る。言い換えると、コンテキスト214は、複数のコンテンツパッケージを提示するための条件を満たす。本発明のいくつかの実施形態では、コンテキストマネージャ201は、コンテキスト214が複数のコンテンツパッケージに対応する場合、ユーザに、コンテンツパッケージの集合の中から1つのコンテンツパッケージを選択するよう促す。別の実施形態では、コンテキストマネージャ201は、コンテンツパッケージのための事前定義の優先順位または増分する重み値に基づいてコンテンツパッケージの集合の中から1つの提示すべきコンテンツパッケージを選択する。例えば、コンテキストマネージャ201は、最も長時間が経過したコンテンツパッケージ(コンテンツパッケージの集合の中で最も古い再生時刻を有するものなど)を提示させるよう選択することもでき、最も新しいコンテンツパッケージを提示させるよう選択することもできる。別の例では、コンテキストマネージャ201は、コンテンツパッケージの集合の中から、提示された回数が最も少ないコンテンツパッケージ(コンテンツパッケージの集合の中で、コンテンツパッケージが提示された後で増分する重み値が最低であるものなど)を選択することもでき、提示された回数が最も多いコンテンツパッケージを選択することもできる。
図2Bに、本発明の一実施形態による、ユーザにコンテンツ253を作成させることと関連付けられたコンテンツ管理システム240のデータフローを示す。実施形態によっては、ユーザは、モバイル機器またはパーソナルコンピュータ(PC)上でコンテンツ管理システム240を使用してコンテンツ253を作成することができる。コンテンツ管理システム240は、コンテキストマネージャ241、入力手段244、およびコンテンツデータベース246を含む。入力手段244は、コンテンツストリーム248およびユーザ対話250を収集し、コンテンツストリーム248およびユーザ対話250をコンテキストマネージャ241の分析手段242に送る。これらの実施形態のいくつかの変形では、ユーザ対話250は、コンテンツ管理システム240の音声ベースのユーザインターフェース(UI)と対話するためにユーザが発する言語コマンドとすることができる。別の変形では、ユーザ対話250は、キーボード、マウス、タッチスクリーン、または他の任意の入力装置を使用して入力されるデータを含む、グラフィカル・ユーザ・インターフェース(GUI)を介してユーザが提供するデータとすることができる。
分析手段242は、ユーザ対話250に基づき、コンテキスト254の定義を作成し、または事前定義されたコンテキスト254を選択する。また分析手段242は、コンテンツストリーム248およびユーザ対話250に基づいたコンテンツ253の作成も行う。次にコンテキストマネージャ241は、コンテンツ253およびコンテキスト254を含むコンテンツパッケージ252を作成し、コンテンツデータベース246にコンテンツパッケージ252を提供する。次いでコンテンツデータベース246はコンテンツパッケージ252のためのエントリを作成する。
実施形態によっては、ユーザはコンテンツ管理システム240を使用してコンテンツパッケージ252を作成することができ、これにはコンテンツパッケージ252を提示するための規則の集合を作成することを含む。これらの実施形態のいくつかの変形では、コンテンツ管理システム240は、コンテンツ、コンテキスト、または提示パラメータのためのいくつかの列と、ユーザに対応するパラメータのデータを入力させるいくつかの行とを含む、スプレッドシートに似たコンテンツパッケージ252を作成するためのGUIを含む。別の変形では、コンテンツ管理システム240は、別のGUIレイアウトを使用している間に、本明細書で説明するスプレッドシートGUIと等しい機能を果たすことができる。これらの実施形態のいくつかの変形では、コンテンツパッケージ252は、所与のスプレッドシートとしてデータを含むように作成される。別の実施形態では、コンテンツパッケージ252がスプレッドシートの各行について作成される。
動作時にユーザは、GUIの[コンテンツ]見出しの下のエントリをクリックすることにより、コンテンツパッケージ252にコンテンツ253を挿入することができる。これらの実施形態のいくつかの変形では、[コンテンツ]列エントリをクリックすることにより、ユーザはコンテンツストリーム248を記録することができ、別の変形では、[コンテンツ]列エントリをクリックすることにより、ユーザはその[コンテンツ]列エントリの事前に記録されたコンテンツ253を選択することができる。同様に、ユーザは、コンテンツパッケージ252内のその他の列見出しのいずれかの下のエントリをクリックしてそのエントリの値を入力することもできる。コンテンツパッケージ252を作成するための列見出しには、それだけに限らないが、コンテンツ、時間、位置、状態、応答、応答が正しい場合の動作、および応答が正しくない(誤った)場合の動作が含まれる。実施形態によっては、時間、位置、および状態という列見出しの下の各エントリを使用して、コンテンツ253を提示するためのコンテキストを定義することができ、応答、応答が正しい場合の動作、および応答が正しくない場合の動作という列見出しの下の各エントリを使用して提示規則を定義することができる。
一般に、コンテキストまたは活動は、「通勤する」といった、高レベルの抽象概念として定義することができることに留意されたい。高レベルの抽象概念は、曜日、時刻、一連のGPS追跡、または加速度計読取値といった複数の低レベルのコンテキスト情報の組み合わさったものに対応させることができる。一実施形態では、ある低レベルのコンテキスト情報値を、1つまたは複数の計測可能な物理パラメータに対応させることができる。さらに、提示規則は、「通勤途中および帰宅途中に再生する」といった、1つまたは複数の高レベルの抽象概念として定義することができる。加えてユーザは、別のユーザと提示規則を共用することもできる。第2のユーザは、共用規則を再定義して、そのユーザ個人の低レベルのコンテキスト情報値を対応する高レベルの抽象概念に適応させることができる。
Figure 2010136370
表1に、本発明の一実施形態による、ユーザにコンテンツパッケージ252を提示するための規則の集合の例を示す。表1に示す各エントリは、いくつかの単語の発音を練習するためのいくつかの日本語の音声クリップに対応するものである。[時間]は、コンテンツ253を提示することのできる時刻をユーザに指定させる。これは時刻とすることもでき、時間範囲とすることもできる。[位置]は、コンテンツ253を提示することのできる位置をユーザに指定させる。[状態]列は、コンテンツ253が提示されるときにユーザが行っていてもよい行動をユーザに指定させる。例えば、日本語を学習しているユーザは、ユーザが午前10時より前に寝室を動き回っているときには、日本語で「おはようございます」と再生し、ユーザが午後9時より後に寝室に入り、または寝室を動き回っているときには、日本語で「おやすみなさい」と再生するようにコンテンツ管理システム240をプログラムすることができる。
[応答]列は、コンテンツ253の提示に対する予期される応答をユーザに指定させる。[応答が正しい場合の動作]列は、ユーザが正しい応答を提供した場合にコンテンツ管理システム240が行い得る動作をユーザに指定させる。[応答が正しくない場合の動作]列は、ユーザが正しい応答を提供しなかった場合にコンテンツ管理システム240が行い得る動作をユーザに指定させる。例えばユーザは、ユーザが所与の語句(フレーズ)を日本語で正しくまねた場合には、その語句の音声クリップを7日間にわたって中断するようにコンテンツ管理システム240をプログラムすることができる。また、ユーザがその語句を正しい発音でまねなかった場合には、その語句を5分後に繰り返し、それによって、ユーザがその日本語の語句の正しい発音を達成するまでユーザにその語句を繰り返し練習させるようにコンテンツ管理システム240をプログラムすることもできる。
実施形態によっては、コンテンツ管理システム240は、ユーザにコンテンツエントリの所望の名前を付けさせる。例えば、ユーザは、日本語で語句を記録し、その語句の英語翻訳を使用してファイルに名前を付けることができる。これらの実施形態のいくつかの変形では、ユーザはコンテンツ管理システム240に言語音声として名前を提供することができ、コンテンツ管理システム240は音声をテキストに変換することによりその名前のテキスト文字列を生成する。別の変形では、ユーザはコンテンツ管理システム240の入力装置を使用して名前をタイプ入力することができる。ユーザが記録に名前を提供しない場合には、コンテンツ管理システム240が「Note1」といったデフォルトのファイル名を使用して記録に名前を付けることができる。
実施形態によっては、コンテンツ管理システム240は、ユーザが列エントリに触れまたは列エントリをクリックしたときにドロップダウンメニューを提供することにより、ユーザにその列エントリの値を設定させる。このドロップダウンメニューは、ユーザが選択するための許容される値の縦並びのリストを表示し、ユーザに所望の値をクリックしまたは値に触れることによって値を選択させる。別の実施形態では、コンテンツ管理システム240は、ユーザに列エントリに値をタイプ入力させることによって、ユーザに列エントリに値を設定させる。
実施形態によっては、ユーザはコンテンツ管理システム240に、所与の列(表1に示す[時間]、[位置]、[状態]、または[応答]の各列など)の各エントリの許容される値(名前またはタグ、および対応するコンテキスト情報など)のリストを提供することができる。例えば、[位置]列エントリは、ユーザが選択した地理的位置のデータベースから許容される値の集合を獲得することもできる。実施形態によっては、ユーザは、ユーザが所望の位置にいるときに、コンテンツ管理システム240に現在の地理的位置を格納するよう通知し、格納された地理的位置の名前(「自宅」や「寝室」など)を指定することにより、コンテンツ管理システム240において現在または後で使用するための地理的位置を定義することもできる。別の実施形態では、ユーザは、地図から位置を選択し、コンテンツ管理システム240にその地理的位置の所在地を提供し、またはコンテンツ管理システム240に所望の位置の地理座標を提供し、次いで、その地理的位置の名前またはタグを指定することによって、地理的位置を指定することもできる。実施形態によっては、コンテンツ管理システム240は、コンテキスト情報およびユーザが行う日課に基づいて、ユーザにとって重要な地理的位置、およびこれらの位置の適切な名前を自動的に推論することもできる。
また列エントリは、ユーザが編集することのできる事前設定値を有する事前定義の名前またはタグのデータベースから許容される値の集合を獲得することもできる。例えば、[状態]列エントリの「移動中」という値は、動き検出手段によってトリガされ得る事前定義のコンテキスト254に対応する識別子とすることができる。
実施形態によっては、コンテンツパッケージ252は、所与の種類の複数の列を含むこともできる。例えば、コンテンツパッケージ252は、日本語エントリの列と、所定の規則に従って提示されるべき対応する別の英語翻訳エントリの列とを含むことができる。実施形態によっては、これらの所定の規則をさらに別の列において指定することができ、対応する英語翻訳を提示させる条件(時間遅延、コンテキスト条件、ユーザ応答など)を定義することができる。別の変形では、ユーザは、より正確なコンテンツ253のコンテキストトリガ条件を定義するために複数の[状態]列をインスタンス化することができる。例えば、ユーザは、2つの[状態]列をインスタンス化し、各[状態]列ごとに事前定義の状態またはユーザ定義の状態(「歩いている」や「買い物している」など)を選択することができる。
[応答]列エントリは、ユーザからの予期される応答を、オーディオストリームまたはテキスト文字列として記述する値を獲得することもできる。実施形態によっては、[応答]列エントリは、コンテンツ253が[コンテンツ]列エントリのために提供されるのと同じやり方で値を獲得することもでき、その場合ユーザは予期される応答を記録することができ、または事前に記録された応答を選択することができる。別の実施形態では、[応答]列エントリは、ユーザから引用符で囲まれたテキスト文字列として値を獲得することができ、その場合、ユーザによる言語応答と、テキストとして提供される予期される応答とが、テキスト−音声変換および/または音声−テキスト変換技術を使用して比較される。別の実施形態では、[まねる]という値を有する[応答]列エントリは、コンテンツ管理システム240に、ユーザが提供する応答が、[コンテンツ]列の下の対応するエントリによって識別されるコンテンツをまねる必要があることを知らせる。
コンテンツ管理システム240は、ユーザの応答またはコンテンツ253の提示との対話に応答して動作を実行することができる。[応答が正しい場合の動作]列エントリは、ユーザが予期される応答を提供した場合にコンテンツ管理システム240が実行すべき動作を指定する値を獲得することができる。さらに、[応答が正しくない場合の動作]列エントリは、ユーザが予期される応答を提供しない場合にコンテンツ管理システム240が実行すべき動作を指定する値を獲得することができる。例えば、コンテンツ管理システム240は、所与の期間にわたってコンテンツ253の再生を中断することもでき、コンテンツエントリを削除することもできる。
実施形態によっては、[応答が正しい場合の動作]列または[応答が正しくない場合の動作]列の下のエントリは、コンテンツ管理システム240の事前定義された機能である。別の実施形態では、[応答が正しい場合の動作]列または[応答が正しくない場合の動作]列の下のエントリは、ユーザによって提供されるスクリプトまたは実行可能プログラムである。ユーザは、一連の動作を実行するスクリプトまたは実行可能プログラムを作成することができ、ある期間にわたってユーザ応答から収集された状態情報を格納し、これにアクセスすることができる。例えばユーザは、[応答が正しい場合の動作]列エントリに、ユーザが3回連続してコンテンツ253を正確にまねたときに、対応するコンテンツエントリを削除し、または(コンテンツを再度提示するためのタイミング条件を変更するなどによって)変更するスクリプトまたは実行可能プログラムを提供することができる。
実施形態によっては、[コンテンツ]列のエントリは、それだけに限らないが、電子メール、インターネットブログ更新、インターネットRSSフィード、ツィート(tweets)、テキストベースのメモおよび催促通知、またはコンテンツを指し示すコンピュータ可読ポインタを含むテキストベースのコンテンツ253を有することができる。これらの実施形態のいくつかの変形では、コンピュータ可読ポインタは特定のコンテンツを参照することができる。別の変形では、コンピュータ可読ポインタは、メタデータ(日付、ジオタグ、コンテンツカテゴリのテキスト記述など)に基づいて定義され、いくつかのデータベースから収集することのできるメタデータと関連付けられたコンテンツを参照するために使用される。
これらの実施形態のいくつかの変形では、コンテンツ管理システム240は、コンテンツ管理システム240の画面上に表示することによってテキストベースのコンテンツを提示することができる。別の変形では、コンテンツ管理システム240は、テキスト−音声変換技術を使用してコンテンツ253をオーディオに変換し、オーディオを再現することによってテキストベースのコンテンツ253を提示することができる。さらに、コンテンツ管理システム240は、テキストベースのコンテンツ253を提示するための規則の集合を提供することもできる。例えば、コンテンツ管理システム240は、ある特定の時刻に、または所与のコンテキスト254の下で、事前に定義された人々の集合の中からあるユーザに電子メールを提示することができる。
表2に、本発明の一実施形態による、ユーザに催促通知コンテンツパッケージ252を提示するための規則の集合の例を示す。[コンテンツ]列の下のエントリは、テキストの形で催促通知を識別し、その他の各列は、ユーザに催促通知を提示するための規則の集合を記述する。例えばユーザは、コンテンツ管理システム240を、ユーザが移動している(歩いている、ジョギングしているなど)場合、特定の日時に第1の催促通知を提示するようにプログラムすることができる。ユーザが、「OK」と発声することによってコンテンツ253に応答した場合、コンテンツ管理システム240は、そのコンテンツエントリを削除する。そうではなく、ユーザが「OK」と発声しなかった場合、コンテンツ管理システム240は、そのコンテンツエントリのコンテンツ253を15分間延期する。
第2の例では、ユーザは、コンテンツ管理システム240を、特定の日時の後で、ユーザが車を運転している間に第2の催促通知を提示するようにプログラムすることができる。ユーザが「OK」と発声することによりコンテンツ253に応答した場合、コンテンツ管理システム240はそのコンテンツエントリを削除する。そうではなく、ユーザが「OK」と発声しなかった場合、コンテンツ管理システム240はコンテンツ253を15分間延期する。
第3の例では、ユーザは、コンテンツ管理システム240を、特定の日時の後で、ユーザが図書館で静止している(すなわち、図書館で勉強または読書している)間に第3の催促通知を提示するようにプログラムすることができる。これらの実施形態のいくつかの変形では、コンテンツ管理システム240は、ユーザが図書館にいる間にユーザのためのオーディオコンテンツ253を再現する前に、ユーザがヘッドホンを装着しているか否かを判定することもできる。ユーザがヘッドホンのプラグをコンテンツ管理システム240に差し込んでいない場合、コンテンツ管理システム240はユーザに対し、ヘッドホンをヘッドホンジャックに差し込むよう、または図書館の外に出るようユーザに要求する視覚メッセージを点滅させることもできる。これらの実施形態の別の変形では、コンテンツ管理システム240は、ユーザが図書館にいるときに、コンテンツ253をテキストとして再現することもできる。コンテンツ253が言語発声を含む場合、コンテンツ管理システム240は、音声−テキスト変換手段を使用して言語発声をテキストとして再現することもできる。
Figure 2010136370
コンテンツ管理システム240は、無線周波数識別(RFID)タグを読み取り、または近距離にある他のNFC機器と対話するのに使用することのできる、近距離無線通信(Near Field Communication)(NFC)といった短距離通信プロトコルをサポートする入力手段244を含むことができる。NFCプロトコルをサポートするコンテンツ管理システム240は、物理オブジェクトに取り付けられたRFIDタグに基づいてそのオブジェクトを識別することができ、コンテンツ253を提示するためのコンテキスト情報として収集した情報を使用することができ、または検出したNFC信号をユーザ対話250として使用することができる。
例えば、コンテンツ管理システム240が、ユーザが家から歩いて出ようとしていることを検出し、インターネットの予報サービスからその日の遅くに雨が降ると判断し、ユーザの傘を識別するRFIDタグを検出しないときに、ユーザに傘を持って行くよう通知するようにコンテンツ管理システム240をプログラムすることができる。別の例では、ユーザが夕方に職場の戸枠についているRFIDタグまたは車内のRFIDタグを通過したときに、ユーザが帰宅することをユーザの配偶者に知らせるようにコンテンツ管理システム240をプログラムすることができる。
(オーディオベースのコンテンツ作成)
実施形態によっては、コンテンツ管理システム240は、オーディオベースのユーザインターフェース(UI)を提供する。例えば、ユーザは、移動中に新しい催促通知コンテンツを作成するときに、オーディオベースのUIを使用してコンテンツ管理システム240と対話することができる。これらの実施形態のいくつかの変形では、コンテンツ管理システム240のオーディオベースのUIは、コンテンツ管理システム240のGUIと対応する言語方式に従う。コンテンツ管理システム240のGUIと類似したオーディオベースのUIは、ユーザがすでに対応するGUIを熟知しているときに、ユーザがオーディオベースのUIに慣れるのを容易にする。例えば、コンテンツ管理システム240のオーディオベースのUIは、以下の対話を使用して新しい催促通知を作成するユーザと対話することができる。
ユーザ:「To−dos, New Note.(やるべきこと、新規にメモしてください。)」
システム:「Begin Recording To−do.(やるべきことの記録を開始します。)」
ユーザ:「[言語発声]…[休止]。」
システム:「Recording complete.(記録が完了しました。)」
ユーザ:「System, continue recording(システム、記録を続けてください)、[さらに言語発声]…[休止]。」
システム:「Continued recording complete.(続きの記録が完了しました。)」
ユーザ:「Present to me in time Any, Location Home, State Stationary, Response OK(時刻/いつでも、位置/自宅、状態/静止している、応答/OKで私に提示してください)、[休止]。」
システム:「Note complete.(メモが完了しました。)」
これらの実施形態のいくつかの変形では、ユーザは、パラメータの値(「いつでも、自宅、静止している、応答OK」など)を言うことができる。別の変形では、コンテンツ管理システム240は、ユーザに、各列エントリごとに値を指定するよう促す音声指示(「時刻条件を指定してください」など)を提示することができる。別の変形では、ユーザは、コンテンツ作成GUIの列と関連付けられたあらゆるエントリの値を提供する必要があるとは限らない。ユーザがコンテンツ作成GUIの所与の列の値を提供しない場合、コンテンツ管理システム240は対応するエントリをデフォルト値で埋める。例えば、ユーザは、デフォルト位置がユーザの現在位置になるようにコンテンツ管理システム240を構成することもできる。第2の例では、ユーザは、デフォルト位置が[どこでも]の値になるようにコンテンツ管理システム240を構成することもできる。別の例では、ユーザは、コンテンツ253を提示するデフォルト時刻を[いつでも]の値に設定することができ、コンテンツ253へのデフォルトの応答を「OK」に設定することができる。
別の例では、コンテンツ管理システム240のオーディオベースのUIは、以下の対話を使用して提示レイアウトを作成するユーザと対話することができる。
ユーザ:「Presentation(プレゼンテーション)[プレゼンテーション名]、Slide One(スライド1)、[休止]。」
システム:「Begin Recording Presentation.(プレゼンテーションの記録を開始します)」
ユーザ:「Slide One, Point One(スライド1、ポイント1)、[残りのスライドコンテンツを話す]、[休止]。」
システム:「Recording complete.(記録が完了しました。)」
ユーザ:「System, continue recording, Slide Two(システム、記録を続けてください、スライド2)、[休止]。」
システム:「Continue Recording Presentation.(プレゼンテーションの記録を続けます。)」
ユーザ:「Slide Two(スライド2)、[残りのスライドコンテンツを話す]、[休止]。」
システム:「Continued recording complete.(続きの記録が完了しました。)」
本発明のいくつかの実施形態では、コンテンツ管理システム240は、ユーザと関連付けられたコンテキスト情報からユーザと関連付けられるコンテキスト254を推論することができ、推論したコンテキスト254とコンテンツ253とをいくつかのやり方でマッチさせることができる。
実施形態によっては、コンテンツ管理システム240は、ユーザが所与のコンテンツ253を受け容れるか否かを判定することができ、ユーザが行っている活動の結果として特定の種類のコンテンツ253を優先して選択することができる。例えば、個別指導用コンテンツを提示するようコンテンツ管理システム240を構成しているユーザは、ユーザが通勤しているときに日本語を学習するための個別指導レッスンを受けようとしてもよい。より具体的には、コンテンツ管理システム240は、ユーザが車で通勤しているときにはユーザにオーディオベースの日本語レッスンを提示し、ユーザが列車で通勤しているときにはユーザに日本語読み書きレッスンを提示することができる。別の例では、コンテンツ管理システム240は、ユーザが歩いており、学習を受け容れるときにはユーザにレッスンを提供することができ、ユーザがテレビを見ていてまたは会話をしていて忙しいために可聴音性を検出したときには、レッスンの提供を回避することができる。
実施形態によっては、複数のコンテンツパッケージ252を用いてコンテンツ管理システム240をプログラムすることができる。実際、ユーザは、コンテキスト254の値によって提示されるコンテンツ253の種類を変えるようにコンテンツ管理システム240をプログラムすることができる。例えば、ユーザは、語学レッスンを特定の地理的または地理空間的位置だけに制限し、技術的レッスンを平日または夕方だけに制限するようにコンテンツ管理システム240をプログラムすることができる。
実施形態によっては、ユーザは、ユーザの現在の特定の振る舞いに関連するコンテンツ253を提示するようにコンテンツ管理システム240を構成することができる。例えば、ユーザが歩いている場合、コンテンツ管理システム240は、歩くという行動をユーザに日本語で説明することにより語学レッスンを提供することもでき、ユーザが歩いている位置に関連するコンテンツ253を日本語で提供することもできる。別の例では、コンテンツ管理システム240は、ユーザが台所におり、且つ、時間が朝であると判定した場合、ユーザは朝食を用意しているかまたは朝食を摂っていると推論することができ、朝食に関連する日本語語学レッスンを提供することができる。別の例では、コンテンツ管理システム240は、推論したコンテキスト254に基づき、音楽、歴史レッスン、インターネットブログ、テキスト−音声変換電子メールなどといったコンテンツの種類を含む他の種類のコンテンツ253を提供することもできる。
実施形態によっては、コンテンツ管理システム240は、ユーザが行おうとしている行動を予想してレッスンを提供することもできる。これらの実施形態のいくつかの変形では、コンテンツ管理システム240は、ユーザが自分の計画を調整することができるように、ユーザに事前に催促通知コンテンツ253を提示することができる。別の変形では、コンテンツ管理システム240は、適切な文法時制で語学レッスンを提供することにより、ユーザに自然な文法のレッスンを提供することができる。例えば、コンテンツ管理システム240は、ユーザが所与の行動を行っていることに基づいてユーザに文法を教えることができる。ユーザが自分の歩行状態を変更する際に、コンテンツ管理システム240は、「私は歩く(I will walk)」、「私は歩いている(I am walking)」、「私は歩いた(I walked)」といった、対応するコンテンツ253を生成することもできる。別の例では、コンテンツ管理システム240は、ユーザが平日の朝、バスまたは列車に乗車するときに、ユーザに未来時制で人々に挨拶することに関連する日本語語学レッスンを提供することもできる。すなわち、コンテンツ管理システム240は、文法規則を使用して、活動の予想、開始、継続および完了に適合する一連のコンテンツ253を提示することができる。
実施形態によっては、ユーザは、モバイル機器またはPC上でコンテンツ管理システム240を使用して共用可能コンテンツを作成することができる。共用可能コンテンツは、ユーザがダウンロードし、変更し、他のコンテンツ管理システムと共用することのできるコンテンツパッケージ252である。さらに、コンテンツパッケージ252は、テキスト、グラフィックス、オーディオ、および/またはビデオコンテンツ253のためのいくつかのコンテンツ・エントリ・フィールドを含むことができる。
あるユーザが最初にコンテンツパッケージ252を作成することに労力を傾注した後で、そのコンテンツパッケージ252を他のユーザが容易に共用し、変更することができる。実施形態によっては、ユーザは、コンテンツパッケージ252をインターネットウェブサイト上にアップロードして、そのコンテンツパッケージ252を公開することもできる。他のいくつかの実施形態では、ユーザは、インターネットウェブサイトからコンテンツパッケージ252をダウンロードし、コンテンツパッケージ252のコンテンツ253の挿入、変更、および/または削除を行うようにコンテンツパッケージ252を変更することもできる。これらの実施形態のいくつかの変形では、ユーザは、コンテンツパッケージ252の提示規則の挿入、変更および/または削除を行うようにコンテンツパッケージ252を変更することもできる。
実施形態によっては、コンテキスト条件(「自宅」や「買い物」など)の抽象名またはタグをコンテンツ管理システムで認識することができ、各ユーザがこれらの名前またはタグと関連付けられる特定のコンテキスト情報を再定義しなくても、ユーザ間で容易に共用することができる。例えば、第1のユーザは特定の所在地を指し示す「自宅」位置名を定義することができ、第2のユーザは異なる所在地を指し示す「自宅」位置名を定義することができる。したがって、第1のユーザが第2のユーザとコンテンツパッケージ252を共用するときには、コンテンツパッケージ内の「自宅」位置名を指す参照はいずれも、自動的に第2のユーザの所在地に変換される。第2のユーザは、コンテンツパッケージ252の「自宅」位置名と関連付けられたコンテキスト情報を再定義しなくてもよい。
実施形態によっては、ユーザはコンテンツパッケージ252が不完全である場合、コンテンツパッケージを共用することもできる。コンテンツパッケージ252の1つまたは複数のエントリに対応するコンテンツ253がない場合、コンテンツパッケージ252は不完全である。不完全なコンテンツパッケージ252を共用することは、何人かのユーザが協力して共用可能コンテンツを作成することを可能にし、何人かのユーザが相互に学習し合うことを可能にする。
例えば、ユーザは、多大な労力を傾注し、広範囲に及ぶ英語の単語および語句のリストを作成して日本語学習書のためのコンテンツパッケージ252を作成し、対応するエントリの一部の日本語翻訳も含むことができる。これらの英語および日本語のエントリは、オーディオコンテンツ253とすることもでき、文字で書かれたものとすることもできる。その場合ユーザは、コンテンツパッケージ252を公開し、他のユーザにコンテンツパッケージ252をダウンロードさせ、改良させることができる。他のユーザは、日本語翻訳をより良い発音を有するオーディオ記録で置き換えることができ、対応する日本語オーディオ翻訳のない英語の単語および語句の日本語オーディオ記録を含めることができる。さらに、日本語を話すユーザが、英語に翻訳してほしい単語および/または語句について、日本語でコンテンツパッケージ252に新しいエントリを挿入し、それによって英語を話すユーザに対応する英語のオーディオ記録を提供させることもできる。
本発明のいくつかの実施形態では、コンテンツパッケージ252内のコンテンツエントリまたはコンテンツエントリの集合には、1つまたは複数のコンテンツ種別記述エントリがある。コンテンツ種別記述は、そのエントリのコンテンツ253の特性(「催促通知」、「旅行案内」、「日本語動詞『食べる』の活用」など)を記述するテキスト文字列とすることができる。いくつかの変形では、コンテンツエントリのコンテンツ種別記述を事前に定義することができる。他のいくつかの変形では、コンテンツ管理システムが、関連するコンテキスト情報(時間、位置、ユーザ活動など)に基づいてコンテンツ種別記述を定義することもできる。別の変形では、コンテンツ種別記述をユーザが定義することもできる。
実施形態によっては、コンテンツパッケージが含むコンテンツの種類に基づき、コンテンツパッケージ252内のコンテンツ種別記述エントリを使用してコンテンツパッケージの集合体を分類することもできる。コンテンツ種別記述は、コンテンツデータベース246または他の任意のデータベースもしくはコンテンツソースに格納された一致するまたは関連するコンテンツ種別記述を有するコンテンツ253を探索するのに使用することができる。例えばユーザは、「日本語動詞『食べる』の活用」や「日本語動詞の活用」として定義されたコンテンツエントリを探索することができる。
本発明のいくつかの実施形態では、コンテンツ管理システム240は、人工知能を使用して、ユーザに合わせてカスタマイズされたコンテンツパッケージ252を作成することができる。これらの実施形態の一変形では、コンテンツ管理システム240は、自然言語処理(NLP)を使用してユーザが入力したテキストを構文解析する。
例えば、コンテンツ管理システム240は、用語集と文法規則とを含むデータベースに結び付けられたHTMLおよび/またはXML構造のコンテンツ253を有するインターネットウェブサイトの形とすることもできる。コンテンツ管理システム240は、ユーザがテキストUIと対話して文を生成し、ユーザが文例により文法規則を練習することができるように、文中の単語、時制およびその他の変形を自動的に変化させることを可能にする。コンテンツ管理システム240とユーザの間の対話に基づき、コンテンツ管理システム240は、ユーザが練習を通していくつかの規則を学習することができるように、ユーザにそれらの規則に関する多くの変形を練習させるレッスン計画を実施するコンテンツパッケージ252を作成することができる。
別の例では、ユーザは、日本語で受身文の構文をどのようにして使用すべきか知ろうとする場合、コンテンツ管理システム240に、英語のテキストエントリ例「Alice was scolded by the teacher.(アリスは教師に叱られた)」を与えることができる。次いでユーザは、GUIを使用して、日本語翻訳と組み合わされた文法的に類似した英語の結果を含むコンテンツパッケージ252またはコンテンツエントリの探索を指定することができる。これに応答して、コンテンツ管理システム240は、おそらくは、主語、目的語、動詞、および時制を変化させるオプションを有する、文法的に等価の文を生成することができる。実施形態によっては、コンテンツ管理システム240は、まずユーザ入力の英文を構文解析してその言語深層構造を突き止めることによって文法的に等価の文を生成することもできる。次いで、コンテンツ管理システム240は、ユーザ入力の英文に基づいてシステム定義のコンテンツ種別記述文字列を生成することができ、主語、目的語、動詞、時制のいずれかまたは全部を変えながら、語句の深層構造が何らかのユーザ指定の態様とマッチするコンテンツ種別記述を有する英語−日本語対を探索することができる。
例えば、コンテンツ管理システム240は、
「The dog was being scolded by mother(犬は母親によって叱られていた)」、
「Mary was praised by the professor(メアリは教授によって褒められた)」、
「Paul is being interviewed by the journalist(ポールは記者によってインタビューされている)」、
「John will be called by the department head(ジョンは部長によって呼ばれるであろう)」、
「The children used to be scolded by father(子供たちは、以前は父親によってよくしかられたものだった)」、および
「The apple will be eaten by Sara(リンゴはサラによって食べられるであろう)」
を含む受身構文を使用して文法的に類似した文を生成することができる。
これらの実施形態のいくつかの変形では、文法的に等価の文は、先に他のユーザによって記録されたオーディオベースのコンテンツ253とすることもでき、その場合、所与のオーディオ記録は、記録されたコンテンツのコンテンツ種別記述のテキスト文字列と関連付けられている。コンテンツ管理システム240は、ユーザが入力した文の文法的深層構造を分析し、そのコンテンツのデータベースにおいて、関連付けるコンテンツ種別記述のテキスト文字列を有するマッチを見つけることができる。次いで、コンテンツ管理システム240は、マッチするデータベースからの記録、コンテンツエントリ、および/またはコンテンツパッケージ全体を集めて新しいコンテンツパッケージ252にすることができる。
図3に、本発明の一実施形態による、ユーザにコンテキストベースのコンテンツを配信するプロセスの流れ図を示す。コンテンツ管理システムはまず、コンテキスト情報を受け取り(動作310)、そのコンテキスト情報を処理してコンテキストを決定する(動作320)。次に、コンテンツ管理システムは、コンテキストがトリガ条件を満たすか否かを判定する(動作330)。満たす場合、コンテンツ管理システムは、コンテキストに基づいてコンテンツデータベースからコンテンツを選択し(動作340)、選択したコンテンツをユーザに提示する(動作350)。
図4に、本発明の一実施形態による、コンテキストベースのコンテンツを作成するプロセスの流れ図を示す。コンテンツ管理システムはまず、ユーザが提供するコンテンツを記録する(動作410)。次いで、コンテンツ管理システムは、記録されたコンテンツのためにコンテンツデータベースにコンテンツエントリを作成する(動作420)。次に、システムは、そのコンテンツエントリのための1つまたは複数のトリガ条件を指定することによって、そのコンテンツエントリを事前定義のコンテキストと関連付ける(動作430)。いくつかの変形では、ユーザがコンテンツエントリと事前定義のコンテキストとを手作業で関連付けることもできる。
図5に、本発明の一実施形態による、コンテキストベースのコンテンツの作成および配信を円滑に行わせるコンピューティング装置502の例を示す。
コンピューティング装置502は、プロセッサ504、メモリ506、および記憶装置508を含む。さらに、コンピューティング装置502は、ディスプレイ510、ネットワークインターフェース512、振動手段514、いくつかのセンサ516、入力装置518、スピーカ520、マイクロホン522、およびカメラ524を備える。さらに、コンピューティング装置502は、ネットワークインターフェース512を介してネットワーク526に結合されている。一実施形態では、ネットワーク526は、セルラーネットワークを含む。別の実施形態では、ネットワーク526は、インターネットを含む。
記憶装置508は、オペレーティングシステム528、コンテンツ管理システム530、コンテキスト定義542、およびコンテンツ544を格納する。さらに、コンテンツ管理システム530は、ユーザインターフェース(UI)532、入力手段534、コンテキストマネージャ536、コンテンツデータベース538、およびコンテンツ配信手段540を含む。一実施形態では、UI532はグラフィカル・ユーザ・インターフェース(GUI)である。別の実施形態では、UI532は音声ベースのユーザインターフェースである。
動作時に、コンテンツ管理システム530は記憶装置508からメモリ506にロードされ、プロセッサ504によって実行される。本発明の一実施形態では、コンテンツ管理システム530は、ユーザと関連付けられるコンテキストに基づいてユーザにコンテンツを提示する。そのために、コンテンツ管理システム530の入力手段534は、いくつかの入力源(ネットワークインターフェース512、センサ516、入力装置518、マイクロホン522、および/またはカメラ524など)からユーザと関連付けられるコンテキスト情報を収集し、コンテンツ管理システム530のコンテキストマネージャ536は、基本コンテキスト情報を解釈して、ユーザと関連付けられるイベントまたは環境要因を記述するコンテキスト定義542からユーザ定義のコンテキストを推論する。次いでコンテキストマネージャ536は、いくつかの推論されたコンテキストによってトリガされるコンテンツデータベース538内のコンテンツパッケージを探索し、コンテンツ管理システム530のコンテンツ配信手段540は、選択したコンテンツパッケージを提示する。
本発明の別の実施形態では、コンテンツ管理システム530はユーザにコンテンツパッケージを作成させる。そのために、入力手段534は、いくつかの入力源からコンテンツストリームおよびユーザ対話を収集し、それらのコンテンツストリームおよびユーザ対話をコンテキストマネージャ536に送る。コンテキストマネージャ536は、ユーザ対話に基づいてコンテキスト定義を作成し、またはコンテキスト定義542の中からユーザ定義のコンテキストを選択する。また、コンテキストマネージャ536は、コンテンツストリームおよびユーザ対話に基づいてコンテンツファイルを作成し、そのコンテンツファイルおよびコンテキストを含むコンテンツパッケージを作成する。次に、コンテキストマネージャ536は、コンテンツデータベース538にコンテンツパッケージを提供し、コンテンツデータベース538はそのコンテンツパッケージのためのエントリを作成する。
実施形態によっては、前述の手段に基づき、ユーザがコンテンツ管理システム530を、例文によってユーザに文法規則を教えるように構成することもできる。その際にコンテンツ管理システム530は、ユーザと関連付けられるコンテキスト(晩餐に出かける、車を運転するといった行動など)を検出し、そのコンテキストにふさわしい目的言語での表現を含むオーディオコンテンツを適時に提示する。例えば、コンテンツ管理システム530は、適切なコンテキストの下で以下のオーディオコンテンツを提示することができる。
ユーザが車庫に入り、または車のドアを開けたとき:「I will drive my car.(私は車を運転します。)」
ユーザが運転し始めたとき:「I am driving my car.(私は車を運転しています。)」
ユーザが車を離れるとき:「I drove my car.(私は車を運転しました。)」
実施形態によっては、コンテンツ管理システム530は、地理的位置にふさわしいコンテンツをユーザに提示するために、サーバからジオタグ付きコンテンツを取り出すことができる。例えば、前述の手段に基づき、有名な観光地を訪れるユーザは、他のユーザがその観光地についてさらに知るのに役立つようにその観光地に関する情報を記述するジオタグ付きコンテンツを作成し、このコンテンツを公開データベース上にアップロードすることができる。さらに、何人かのユーザは、その観光地に関するジオタグ付きコンテンツを、いくつかの言語でアップロードすることもできる。次いで、別のユーザがこの地理的位置を訪れるときに、コンテンツ管理システム530は、この位置のジオタグが付いたコンテンツをダウンロードすることができ、そのコンテンツをユーザに提示することができる。新しい言語を学習しているユーザは、前述の手段に基づいて、その言語でのコンテンツを検索するようにコンテンツ管理システム530を構成し、それによって、ユーザの活動に適した例文を聴くことができる。
実施形態によっては、コンテンツ管理システム530は、リモート機器が所与のユーザ定義のコンテキストの下でコンテンツを提示するように、電子メッセージまたは催促通知を作成し、リモート機器に送ることができる。電子メッセージおよび催促通知は、テキストまたはオーディオコンテンツの形式とすることができる。これらの実施形態のいくつかの変形では、コンテンツ管理システム530は、テキストのメッセージおよび催促通知を、テキスト−音声変換技術を使用してオーディオコンテンツに変換することができる。これらの実施形態は、受取人に重要情報を送るための新しいメディアをユーザに提供することができ、受取人が適切なコンテキストおよび活動状態にあるときにそのコンテンツを受け取り、そのタスクを完了することができるようにすることができる。
実施形態によっては、コンテンツ管理システム530は、互いに直接に知り合いではないユーザ間でコンテンツをやりとりすることもできる。例えば、コンテンツ管理システム530を使用して個別指導サービスを実施することができ、その場合、各生徒は、コンテンツ管理システム530を使用して個別指導サービスに共用可能コンテンツパッケージを提出することができ、個別指導サービスはそのコンテンツパッケージを所与の項目に相応しい講師に転送する。いくつかの変形では、個別指導サービスを分散型バージョンのコンテンツ管理システム530によって実施することができ、その場合、生徒と教師のコンテンツ管理システムは、コンテンツ要求およびコンテンツパッケージを相互に転送し合う。別のいくつかの変形では、個別指導サービスをインターネットサービスとして実施することができ、その場合、生徒および教師は、コンテンツパッケージのアップロード、ダウンロードを行い、関連するコンテンツパッケージを求める要求を出すことができる。
講師は、個別指導サービスを使用して、他のユーザによって提出される、所与のコンテンツ種別記述に関連するコンテンツ要求および不完全なコンテンツパッケージを監視するプロセスを利用することができる。講師に生徒からのコンテンツ要求または不完全なコンテンツパッケージである旨の通知がされると、講師は、要求に対する講師からの応答を含む新しいコンテンツパッケージを作成して生徒にフィードバックを提供することもでき、コンテンツパッケージにフィードバックコンテンツを挿入するようにコンテンツパッケージを変更することもできる。次いで、講師のコンテンツ管理システム530は、その新しいまたは変更されたコンテンツパッケージを生徒に提供することができる。次いで、講師の新しいコンテンツを、個別指導サービスを介してその生徒の個人用バージョンのコンテンツ管理システム530によって取り出すことができる。
実施形態によっては、コンテンツ管理システム530は、コンテンツパッケージを提示しているときのユーザからの対話と関連付けられる状態情報を格納することもできる。例えば、ユーザに対話型レッスンを提供するコンテンツパッケージは、ユーザの正確な情報を記録することができる。コンテンツ管理システム530は、この情報を利用して進捗分析を行い、ユーザの目標および学習速度に応じてレッスン計画のペースおよび難易度を変更することができる。コンテンツ管理システム530は、特定の小項目の学習に苦労しているユーザに、その小項目に関するより多くのレッスンを提供することもでき、また、教材を比較的容易に学習しているユーザのペースまたは難易度を上げることもできる。さらに、所与のユーザが特定の項目を勉強するための決まった期限があり、そのユーザのレッスンが遅れている場合、コンテンツ管理システム530は、そのユーザが期限までに間に合うようにレッスン計画のペースを上げることができる。
実施形態によっては、コンテンツ管理システム530は、適切なコンテキスト内でレッスンコンテンツを提供したり、適切なコンテキスト外でそのレッスンコンテンツを提供したりを繰り返すことによって、所与のレッスン計画に関するユーザの記憶を強化することができる。あるときには、コンテンツ管理システム530は、ユーザが最も学習しやすいコンテキストにおいてユーザにレッスンを提示することができる。またあるときには、コンテンツ管理システム530は、ユーザが依拠し得るいかなるコンテキスト上の手がかりや思い出させる合図からもレッスンコンテンツを完全に分離するために、不適切なおよび/または不都合なコンテキストにおいてユーザにレッスンを提供することもできる。
実施形態によっては、コンテンツ管理システム530は、ユーザにレッスン計画を配信する方法を発展させることができる。これらの実施形態のいくつかの変形では、コンテンツ管理システム530は、ユーザがそのレッスンの題材を知っていると予想されるときには、質問に対する正しい応答をユーザに提供する前の待機期間を延長することができる。別の変形では、コンテンツ管理システム530は、ユーザにより短い期間で質問に対する応答を提供させることもできる。別の変形では、コンテンツ管理システム530は、主題についてのユーザの理解が高度に到達したときに、発する質問の明確さを下げることもできる。
実施形態によっては、出版社がそのコンテンツを、コンテンツ管理システム530のためのコンテンツパッケージとしてインターネット上で作成し、出版することもできる。新しい言語を学習しているユーザは、言語の例文を提供する多数のコンテンツパッケージを収集するのに多大な労力を費やすのではなく、専門家が作成した、高度な語学レッスンに代金を支払う方を選ぶ場合もある。
実施形態によっては、コンテンツ管理システム530は、音声認識を使用して教育レッスンを補完することもできる。例えば、コンテンツ管理システム530は、音声認識を使用して、新しい言語を学習しているユーザに、そのユーザの文法および発音に関して定期的なフィードバックを提供することもできる。別の例では、コンテンツ管理システム530は、音声認識を使用して、ユーザが対象者についての自分のコミュニケーション様式を変更するのを助けることもできる。別の例では、ユーザが他のユーザのための基本的な第二言語教育型のコンテンツを作成している場合、コンテンツ管理システム530は、音声またはテキスト認識、および深層構文認識を使用して、ユーザに、外国人がより簡単に理解できる言語を使用すべきであるというヒントを提供することもできる。例えば、コンテンツ管理システム530は、より一般的な名詞、動詞、およびより簡単な構文を提案することができる。
実施形態によっては、コンテンツ管理システム530は、ある位置で、所与の時間、曜日、または通日に収集されるコンテキスト情報に基づいて、地理的にまたは時間的に定義することのできる状況のコンテキストベースの推論を構築することができる。コンテンツ管理システム530のユーザがある状況に入る場合、そのユーザは、その状況に特有のやり方で環境と対話する傾向がある。コンテンツ管理システム530は、同じ状況において何人かのユーザから集約された振る舞いの観測を利用して、その状況と関連付けられるコンテキストを推論することができる。実施形態によっては、コンテンツ管理システム530は、特定のユーザと関連付けられる個人情報を格納することを必要とせず、コンテンツ管理システム530が検出する所定のまたはユーザ定義の振る舞いの記述(「移動している」、「歩いている」、「休憩」など)さえ格納すればよい。例えば、ユーザは、コンテンツ管理システム530を使用しながら営業時間中にコーヒーショップに座っているとき、「コーヒー」、「豆」、「ペストリー」、「Wi−Fi」、「ホットスポット」、「くつろぐ」、「おいしいコーヒー」、「うまいクッキー」、「インターネットアクセス」、「インターネットカフェ」を含む、コーヒーショップと関連付けられる語句を発する傾向がある。事前定義のまたはユーザ定義の検出される活動および/または観測語句に基づき、コンテンツ管理システム530は、ユーザの現在の状況が「コーヒー」という用語と関連付けられる(例えば、ユーザは現在コーヒーショップにいるなど)と判断することができる。
これらの実施形態のいくつかの変形では、コンテンツ管理システム530は、公開コンテキストデータベースに、所与のコンテキストの下で検出されたユーザ活動または発声から収集したキーワードの集合を提供し、それによって、公開コンテキストデータベースのコンテキスト知識のプールに寄与することができる。公開コンテキストデータベースは、いくつかのコンテンツ管理システムによって提供されるキーワードから、所与のコンテキストの下で最も一般的な語句を識別し、これらのキーワードと語句をそのコンテキストと関連付けることによって学習することができる。
別のいくつかの変形では、コンテンツ管理システム530は、コンテキスト特有のキーワードを収集するいくつかのアプリケーション上で、そのコンテキスト監視機能(コンテキスト情報310を受け取る)の一部として、ユーザが伝えるテキストおよび音声を監視する。例えばユーザは、モバイル機器上のいくつかのアプリケーション(電子メール、インターネット検索エンジン、テキストメッセージ、モバイルWeb2.0など)を使用して情報を伝えることができる。これら様々なアプリケーションは、ユーザが、関連するキーワードをコンテキストとタグ付けしなくても、公開コンテキストデータベースにコンテキスト特有のキーワードおよび語句を提供することを可能にする。実施形態によっては、コンテンツ管理システム530は、ユーザから取り込まれる特定のキーワードを保存するのではなく、所与の状況内で単語が検出されるときに、既知の単語の辞書の単語エントリに重み単位を加えることができる。時間の経過と共に、公開コンテキストデータベースは、所与の状況において最もよく出現するキーワードおよび語句を優先するようになり、これらのキーワードを、特定のキーワードおよび語句を対応する状況と関連付けるデータベース内に含めることができる。
これらの実施形態のいくつかの変形では、コンテンツ管理システム530は、音声駆動のキーワードルックアップ手段を含み、この手段は、言語発声を検出するときに、音声−テキスト変換手段を使用して音声をテキストに変換する。コンテンツ管理手段530は、これらの言語発声から生成されたテキストを使用して公開コンテキストデータベースを探索し、ユーザの現在の地理的位置を識別するのに使用され得るコンテキストを推論する。これらの実施形態のいくつかの変形では、キーワードルックアップ手段は、マイクロホンを使用して環境からキーワードを収集することもでき、かつ/またはユーザが行う通話からキーワードを収集することもできる。別のいくつかの変形では、キーワードルックアップ手段は、テキストメッセージ、電子メール、または他の任意の通信手段からの単語を含む、ユーザがコンテンツ管理システム530を使用して送受信する語句からキーワードを収集することができる。

Claims (4)

  1. 第1のユーザに関するコンテキスト情報のセットを受け取り、
    前記コンテキスト情報を処理して、コンテキストおよび前記第1のユーザが行っている活動のうち少なくとも一つを決定し、
    前記コンテキストおよび前記第1のユーザの現在の活動のうち少なくとも一つが、前記第1のユーザまたは第2のユーザによって事前に定義されているトリガ条件を満たすか否かを判定し、
    前記コンテキストおよび前記第1のユーザの現在の活動のうち少なくとも一つが、前記第1のユーザまたは第2のユーザによって事前に定義されているトリガ条件を満たす場合に、
    前記トリガ条件と関連付けられるコンテンツをコンテンツデータベースから選択し、
    前記選択したコンテンツを提示する、
    ことを含む、コンテキストベースのコンテンツを第1のユーザに配信する方法。
  2. ユーザ定義のコンテキストによるトリガ条件および活動によるトリガ条件のうち少なくとも一つと関連付けられるコンテンツを前記第1のユーザが作成することを可能にし、前記コンテンツを作成することは、
    前記第1のユーザによって提供される前記コンテンツを記録し、
    1つまたは複数のトリガ条件と関連付けられた前記記録されたコンテンツのためのコンテンツエントリを前記コンテンツデータベースに作成し、
    前記コンテンツエントリのための1つまたは複数のトリガ条件をユーザ定義のコンテキストと関連付ける、
    ことによって前記コンテンツを作成し、
    前記コンテンツエントリのための事前に定義されたトリガ条件を、前記第1のユーザの進行中のコンテキストおよびユーザ活動のうち少なくとも一つと比較し続け、
    前記1つまたは複数のトリガ条件が満たされた場合、前記関連付けられたコンテンツを取り出し、前記取り出したコンテンツを前記第1のユーザに提示する、
    ことを更に含む請求項1に記載の方法。
  3. 共用可能コンテンツを前記第1のユーザが作成することを可能にし、前記共用可能コンテンツを作成することは、
    前記第1のユーザによって提供される前記コンテンツを記録し、
    前記記録されたコンテンツを含むと共に1つまたは複数のユーザ定義のトリガ条件を含む前記記録されたコンテンツのためのコンテンツパッケージを作成する、
    ことによって前記共用可能コンテンツを作成し、
    前記コンテンツパッケージのコンテンツまたはトリガ条件を挿入し、変更し、および削除することのうち少なくとも一つを前記コンテンツパッケージの受取人が行うことを可能とする、
    ことを更に含む請求項2に記載の方法。
  4. 1つまたは複数のコンテキストエントリをコンテキストマネージャ内に作成し、
    コンテキストエントリ各々をコンテキスト情報のセットと関連付ける、
    ことによって、コンテキストを定義することを更に含む請求項1に記載の方法。
JP2009273298A 2008-12-02 2009-12-01 コンテキストベースのコンテンツをユーザに配信する方法 Expired - Fee Related JP5607917B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/326,457 US8489599B2 (en) 2008-12-02 2008-12-02 Context and activity-driven content delivery and interaction
US12/326,457 2008-12-02

Publications (2)

Publication Number Publication Date
JP2010136370A true JP2010136370A (ja) 2010-06-17
JP5607917B2 JP5607917B2 (ja) 2014-10-15

Family

ID=41612390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009273298A Expired - Fee Related JP5607917B2 (ja) 2008-12-02 2009-12-01 コンテキストベースのコンテンツをユーザに配信する方法

Country Status (5)

Country Link
US (1) US8489599B2 (ja)
EP (1) EP2194472A1 (ja)
JP (1) JP5607917B2 (ja)
KR (1) KR101562834B1 (ja)
CN (2) CN101751467A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012813A (ja) * 2011-06-28 2013-01-17 Yahoo Japan Corp 携帯型広告表示装置、方法及びプログラム
JP2013182431A (ja) * 2012-03-01 2013-09-12 Ricoh Co Ltd 情報処理システム、情報処理装置及びプログラム
JP2013540310A (ja) * 2010-09-22 2013-10-31 ロゼッタ ストーン リミテッド 様々な装置を用いてのコンピュータ化タスクの実施
US20140280186A1 (en) * 2013-03-15 2014-09-18 International Business Machines Corporation Crowdsourcing and consolidating user notes taken in a virtual meeting
KR20200010537A (ko) * 2012-09-20 2020-01-30 삼성전자주식회사 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치
US10684821B2 (en) 2012-09-20 2020-06-16 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
WO2020255767A1 (ja) * 2019-06-20 2020-12-24 ソニー株式会社 情報処理システム、情報処理方法、及び記録媒体

Families Citing this family (274)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8788588B2 (en) * 2006-05-03 2014-07-22 Samsung Electronics Co., Ltd. Method of providing service for user search, and apparatus, server, and system for the same
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US10002034B2 (en) 2008-02-25 2018-06-19 Georgetown University System and method for detecting, collecting, analyzing, and communicating event-related information
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10504124B2 (en) 2008-04-21 2019-12-10 Verizon Patent And Licensing Inc. Aggregation and use of information relating to a users context for personalized advertisements
US20090265764A1 (en) * 2008-04-21 2009-10-22 Verizon Business Network Services Inc. Aggregation and use of information relating to a users context
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US9587949B2 (en) * 2009-03-31 2017-03-07 Verizon Patent And Licensing Inc. Position-based tags, reminders, and messaging
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20120309363A1 (en) * 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US9350817B2 (en) * 2009-07-22 2016-05-24 Cisco Technology, Inc. Recording a hyper text transfer protocol (HTTP) session for playback
US8306641B2 (en) * 2009-12-04 2012-11-06 Sony Mobile Communications Ab Aural maps
US8572753B2 (en) * 2009-12-22 2013-10-29 Ncr Corporation Methods and apparatus for selecting and delivering content
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
FR2960730A1 (fr) * 2010-05-31 2011-12-02 France Telecom Procedes de pilotage et de gestion d'un dialogue interactif, plateforme et serveur d'application les mettant en oeuvre
US9081767B2 (en) * 2010-07-26 2015-07-14 Radiant Logic, Inc. Browsing of contextual information
US8068011B1 (en) 2010-08-27 2011-11-29 Q Street, LLC System and method for interactive user-directed interfacing between handheld devices and RFID media
US8612600B2 (en) * 2010-12-07 2013-12-17 Nec Laboratories America, Inc. Negotiation tool and method for cloud infrastructure data sharing
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9501531B2 (en) * 2011-05-18 2016-11-22 Microsoft Technology Licensing, Llc Contextual relevance engine for activity feeds
US20120310642A1 (en) 2011-06-03 2012-12-06 Apple Inc. Automatically creating a mapping between text data and audio data
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8949212B1 (en) * 2011-07-08 2015-02-03 Hariharan Dhandapani Location-based informaton display
KR101467023B1 (ko) * 2011-08-23 2014-12-03 주식회사 케이티 분산형 네트워크에서 동적 컨텍스트를 활용한 콘텐츠/서비스 제공 시스템 및 그 방법
KR102006741B1 (ko) 2011-08-24 2019-09-02 삼성전자 주식회사 디바이스의 액티비티 공유 방법 및 시스템
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8606655B2 (en) * 2011-09-15 2013-12-10 Ziplist, Inc. Methods and apparatus for managing a universal list system
KR101912088B1 (ko) * 2011-10-12 2018-10-26 삼성전자 주식회사 단말기의 디폴트 모델 확장 장치, 단말기의 디폴트 모델 확장 방법 및 컴퓨터로 읽을 수 있는 저장 매체
EP2581842A1 (en) * 2011-10-13 2013-04-17 Gface GmbH Method for creating a keyword-based user-personalized webpage
KR101925057B1 (ko) * 2011-12-12 2019-02-28 삼성전자주식회사 컨텍스트 정보를 이용한 콘텐트 공유 시스템 및 방법
GB2497793A (en) * 2011-12-21 2013-06-26 Ninian Solutions Ltd Pre-emptive caching of potentially relevant content from a collaborative workspace at a client device
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9008688B2 (en) * 2012-05-07 2015-04-14 Qualcomm Incorporated Calendar matching of inferred contexts and label propagation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US8429103B1 (en) 2012-06-22 2013-04-23 Google Inc. Native machine learning service for user adaptation on a mobile platform
US8510238B1 (en) 2012-06-22 2013-08-13 Google, Inc. Method to predict session duration on mobile devices using native machine learning
US8886576B1 (en) 2012-06-22 2014-11-11 Google Inc. Automatic label suggestions for albums based on machine learning
US9479465B2 (en) * 2012-06-26 2016-10-25 International Business Machines Corporation Gathering context information for a communication
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9311412B2 (en) * 2012-07-16 2016-04-12 International Business Machines Corporation Automatically notifying a computer user of internet content
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US11468243B2 (en) 2012-09-24 2022-10-11 Amazon Technologies, Inc. Identity-based display of text
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US20140181715A1 (en) * 2012-12-26 2014-06-26 Microsoft Corporation Dynamic user interfaces adapted to inferred user contexts
US9396502B2 (en) * 2013-01-23 2016-07-19 Facebook, Inc. Enabling delayed interactions with content items presented by a social networking system
US9426242B2 (en) * 2013-01-29 2016-08-23 Apple Inc. Determining an invitational content item type based on predicted user attention
CN113470640B (zh) 2013-02-07 2022-04-26 苹果公司 数字助理的语音触发器
US10649619B2 (en) * 2013-02-21 2020-05-12 Oath Inc. System and method of using context in selecting a response to user device interaction
WO2014138175A1 (en) * 2013-03-05 2014-09-12 Perkin Sean Interactive digital content sharing among users
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US20140272891A1 (en) * 2013-03-15 2014-09-18 Joseph Saladino System and method for remote fitness training
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014144949A2 (en) 2013-03-15 2014-09-18 Apple Inc. Training an at least partial voice command system
US20140316849A1 (en) * 2013-04-22 2014-10-23 Kiosked Oy Method and system for determining item specific user interest
CN104969185B (zh) * 2013-04-29 2018-10-12 安提特软件有限责任公司 存储介质、将非结构化事件记录在上下文中的***和方法
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
WO2014200728A1 (en) 2013-06-09 2014-12-18 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
US11074618B2 (en) * 2013-06-13 2021-07-27 Blackberry Limited Method and apparatus pertaining to history-based content-sharing recommendations
WO2015020942A1 (en) 2013-08-06 2015-02-12 Apple Inc. Auto-activating smart responses based on activities from remote devices
US20150095771A1 (en) * 2013-09-30 2015-04-02 Lenovo (Singapore) Pte. Ltd. Journal launch based on context
US10055756B2 (en) 2013-10-18 2018-08-21 Apple Inc. Determining user engagement
KR102122771B1 (ko) * 2013-10-25 2020-06-26 삼성전자주식회사 인공지능 오디오 장치 및 그 동작 방법
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US20150162000A1 (en) * 2013-12-10 2015-06-11 Harman International Industries, Incorporated Context aware, proactive digital assistant
US9225522B2 (en) * 2013-12-27 2015-12-29 Linkedin Corporation Techniques for populating a content stream on a mobile device
US20150200891A1 (en) * 2014-01-16 2015-07-16 Sony Corporation Computer ecosystem with context-specific messaging
US9444735B2 (en) 2014-02-27 2016-09-13 Cisco Technology, Inc. Contextual summarization tag and type match using network subnetting
KR102469752B1 (ko) * 2014-07-31 2022-11-22 삼성전자주식회사 웨어러블 장치 및 그 제어 방법
EP2945108A1 (en) * 2014-05-13 2015-11-18 Thomson Licensing Method and apparatus for handling digital assets in an assets-based workflow
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
WO2015195671A1 (en) * 2014-06-16 2015-12-23 Baker Richard L Dynamic mobile platform functionalities employing proximal variants and advanced personalization methods for structure, navigation, theme, content, and functionality
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
WO2016018044A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of controlling the same
CN105373555B (zh) * 2014-08-26 2018-11-13 鸿富锦精密工业(深圳)有限公司 多媒体设备及多媒体情境处理方法
TWI545943B (zh) 2014-08-26 2016-08-11 鴻海精密工業股份有限公司 多媒體設備及多媒體情境處理方法
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
CN105430032A (zh) 2014-09-17 2016-03-23 阿里巴巴集团控股有限公司 结合终端地理位置推送信息的方法及服务器
US20160094866A1 (en) * 2014-09-29 2016-03-31 Amazon Technologies, Inc. User interaction analysis module
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9692867B2 (en) * 2014-12-05 2017-06-27 Here Global B.V. Event accessory item location
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US10454865B2 (en) * 2014-12-19 2019-10-22 International Business Machines Corporation Social network activity modes
US10430421B2 (en) 2014-12-29 2019-10-01 Facebook, Inc. Recommending content items in a social network using delayed interaction
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9467718B1 (en) 2015-05-06 2016-10-11 Echostar Broadcasting Corporation Apparatus, systems and methods for a content commentary community
CN104853249A (zh) * 2015-05-12 2015-08-19 天脉聚源(北京)传媒科技有限公司 一种节目推荐方法及终端
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10564794B2 (en) * 2015-09-15 2020-02-18 Xerox Corporation Method and system for document management considering location, time and social context
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10268689B2 (en) * 2016-01-28 2019-04-23 DISH Technologies L.L.C. Providing media content based on user state detection
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10824932B2 (en) 2016-04-29 2020-11-03 Microsoft Technology Licensing, Llc Context-aware digital personal assistant supporting multiple accounts
US10984036B2 (en) 2016-05-03 2021-04-20 DISH Technologies L.L.C. Providing media content based on media element preferences
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US11477302B2 (en) * 2016-07-06 2022-10-18 Palo Alto Research Center Incorporated Computer-implemented system and method for distributed activity detection
US10223067B2 (en) * 2016-07-15 2019-03-05 Microsoft Technology Licensing, Llc Leveraging environmental context for enhanced communication throughput
US11227020B2 (en) * 2016-08-11 2022-01-18 International Business Machines Corporation Displaying content based on a user's status
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10764381B2 (en) 2016-12-23 2020-09-01 Echostar Technologies L.L.C. Communications channels in media systems
US11196826B2 (en) 2016-12-23 2021-12-07 DISH Technologies L.L.C. Communications channels in media systems
US10390084B2 (en) 2016-12-23 2019-08-20 DISH Technologies L.L.C. Communications channels in media systems
US11409463B2 (en) 2016-12-28 2022-08-09 Microsoft Technology Licensing, Llc Systems and methods for contextual memory capture and recall
US10593329B2 (en) 2016-12-30 2020-03-17 Google Llc Multimodal transmission of packetized data
US10708313B2 (en) 2016-12-30 2020-07-07 Google Llc Multimodal transmission of packetized data
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US20180270178A1 (en) 2017-03-09 2018-09-20 Agt International Gmbh Method and apparatus for sharing materials in accordance with a context
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10176808B1 (en) * 2017-06-20 2019-01-08 Microsoft Technology Licensing, Llc Utilizing spoken cues to influence response rendering for virtual assistants
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10671338B2 (en) * 2017-09-29 2020-06-02 Spotify Ab Systems and methods of associating media content with contexts
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11330029B2 (en) 2018-03-27 2022-05-10 Lenovo (Singapore) Pte. Ltd. Sharing content with a detected device
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
CN108696635A (zh) * 2018-04-24 2018-10-23 广东美的制冷设备有限公司 用户行为检测方法、装置、***及电子设备
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10944859B2 (en) 2018-06-03 2021-03-09 Apple Inc. Accelerated task performance
US20190385341A1 (en) * 2018-06-15 2019-12-19 Life Impact Solutions, Llc Dynamic visual and audio geotagged photo filter
CN108597273A (zh) * 2018-06-22 2018-09-28 南阳理工学院 一种用于英语学习的智能教学***
US10878202B2 (en) * 2018-08-03 2020-12-29 International Business Machines Corporation Natural language processing contextual translation
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11037550B2 (en) 2018-11-30 2021-06-15 Dish Network L.L.C. Audio-based link generation
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
WO2020219331A1 (en) * 2019-04-26 2020-10-29 Verint Americas Inc. Dynamic web content based on natural language processing (nlp) inputs
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11250071B2 (en) * 2019-06-12 2022-02-15 Microsoft Technology Licensing, Llc Trigger-based contextual information feature
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US11256526B2 (en) * 2019-10-11 2022-02-22 Lenovo (Singapore) Pte. Ltd. Contextual item management
US11902091B2 (en) * 2020-04-29 2024-02-13 Motorola Mobility Llc Adapting a device to a user based on user emotional state
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
CN111709362B (zh) * 2020-06-16 2023-08-08 百度在线网络技术(北京)有限公司 用于确定重点学习内容的方法、装置、设备及存储介质
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11567812B2 (en) 2020-10-07 2023-01-31 Dropbox, Inc. Utilizing a natural language model to determine a predicted activity event based on a series of sequential tokens
US11568018B2 (en) 2020-12-22 2023-01-31 Dropbox, Inc. Utilizing machine-learning models to generate identifier embeddings and determine digital connections between digital content items

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265809A (ja) * 2000-03-23 2001-09-28 Nec Corp コミュニケーションシステムおよびコミュニケーション方法並びに記録媒体
JP2002279028A (ja) * 2001-03-19 2002-09-27 Pioneer Electronic Corp 情報支援システム、情報支援方法、情報端末装置並びに情報支援装置
JP2004151292A (ja) * 2002-10-30 2004-05-27 Yokogawa Electric Corp データベース型学習装置
JP2005354294A (ja) * 2004-06-09 2005-12-22 Ntt Docomo Inc マルチキャストグループ作成方法および作成装置、並びにコンテンツ選択方法および選択装置
JP2006059094A (ja) * 2004-08-19 2006-03-02 Ntt Docomo Inc サービス選択支援システム、サービス選択支援方法
JP2006323595A (ja) * 2005-05-18 2006-11-30 Ntt Docomo Inc 携帯端末、コンテキスト管理サーバ、アプリケーション登録サーバ、およびアプリケーション実行方法
JP2008203217A (ja) * 2007-02-22 2008-09-04 Kenwood Corp 車載型世話実行装置、方法及びプログラム
JP2010066753A (ja) * 2008-08-11 2010-03-25 Sharp Corp 問題出題装置及び問題出題方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555376A (en) * 1993-12-03 1996-09-10 Xerox Corporation Method for granting a user request having locational and contextual attributes consistent with user policies for devices having locational attributes consistent with the user request
US7076737B2 (en) * 1998-12-18 2006-07-11 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US7630986B1 (en) * 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
AU2001253161A1 (en) * 2000-04-04 2001-10-15 Stick Networks, Inc. Method and apparatus for scheduling presentation of digital content on a personal communication device
US20020144259A1 (en) * 2001-03-29 2002-10-03 Philips Electronics North America Corp. Method and apparatus for controlling a media player based on user activity
US20070038603A1 (en) * 2005-08-10 2007-02-15 Guha Ramanathan V Sharing context data across programmable search engines
US20040002958A1 (en) * 2002-06-26 2004-01-01 Praveen Seshadri System and method for providing notification(s)
AU2003260923A1 (en) * 2002-10-21 2004-05-04 Koninklijke Philips Electronics N.V. Method of and system for presenting media content to a user or group of users
US7631007B2 (en) * 2005-04-12 2009-12-08 Scenera Technologies, Llc System and method for tracking user activity related to network resources using a browser
WO2006111935A1 (en) 2005-04-21 2006-10-26 Koninklijke Philips Electronics, N.V. Activity-related document mangement
JP5105802B2 (ja) * 2005-09-07 2012-12-26 株式会社リコー 情報処理装置
US20070124721A1 (en) * 2005-11-15 2007-05-31 Enpresence, Inc. Proximity-aware virtual agents for use with wireless mobile devices
WO2007115224A2 (en) * 2006-03-30 2007-10-11 Sri International Method and apparatus for annotating media streams
US20070288247A1 (en) * 2006-06-11 2007-12-13 Michael Mackay Digital life server
US9015301B2 (en) * 2007-01-05 2015-04-21 Digital Doors, Inc. Information infrastructure management tools with extractor, secure storage, content analysis and classification and method therefor
US8295542B2 (en) * 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US20090265764A1 (en) * 2008-04-21 2009-10-22 Verizon Business Network Services Inc. Aggregation and use of information relating to a users context

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265809A (ja) * 2000-03-23 2001-09-28 Nec Corp コミュニケーションシステムおよびコミュニケーション方法並びに記録媒体
JP2002279028A (ja) * 2001-03-19 2002-09-27 Pioneer Electronic Corp 情報支援システム、情報支援方法、情報端末装置並びに情報支援装置
JP2004151292A (ja) * 2002-10-30 2004-05-27 Yokogawa Electric Corp データベース型学習装置
JP2005354294A (ja) * 2004-06-09 2005-12-22 Ntt Docomo Inc マルチキャストグループ作成方法および作成装置、並びにコンテンツ選択方法および選択装置
JP2006059094A (ja) * 2004-08-19 2006-03-02 Ntt Docomo Inc サービス選択支援システム、サービス選択支援方法
JP2006323595A (ja) * 2005-05-18 2006-11-30 Ntt Docomo Inc 携帯端末、コンテキスト管理サーバ、アプリケーション登録サーバ、およびアプリケーション実行方法
JP2008203217A (ja) * 2007-02-22 2008-09-04 Kenwood Corp 車載型世話実行装置、方法及びプログラム
JP2010066753A (ja) * 2008-08-11 2010-03-25 Sharp Corp 問題出題装置及び問題出題方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200500287007; 礒田佳徳 他: 'ユビキタス環境での状態系列モデルを用いたユーザ支援システム' 情報処理学会論文誌 第44巻,第12号, 20031215, p.3014-3023, 社団法人情報処理学会 *
JPN6011029729; 礒田佳徳 他: 'ユビキタス環境での状態系列モデルを用いたユーザ支援システム' 情報処理学会論文誌 第44巻,第12号, 20031215, p.3014-3023, 社団法人情報処理学会 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013540310A (ja) * 2010-09-22 2013-10-31 ロゼッタ ストーン リミテッド 様々な装置を用いてのコンピュータ化タスクの実施
JP2013012813A (ja) * 2011-06-28 2013-01-17 Yahoo Japan Corp 携帯型広告表示装置、方法及びプログラム
JP2013182431A (ja) * 2012-03-01 2013-09-12 Ricoh Co Ltd 情報処理システム、情報処理装置及びプログラム
KR20200010537A (ko) * 2012-09-20 2020-01-30 삼성전자주식회사 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치
KR102120984B1 (ko) 2012-09-20 2020-06-10 삼성전자 주식회사 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치
US10684821B2 (en) 2012-09-20 2020-06-16 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
US11048474B2 (en) 2012-09-20 2021-06-29 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
US11907615B2 (en) 2012-09-20 2024-02-20 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
US20140280186A1 (en) * 2013-03-15 2014-09-18 International Business Machines Corporation Crowdsourcing and consolidating user notes taken in a virtual meeting
US20150066935A1 (en) * 2013-03-15 2015-03-05 International Business Machines Corporation Crowdsourcing and consolidating user notes taken in a virtual meeting
WO2020255767A1 (ja) * 2019-06-20 2020-12-24 ソニー株式会社 情報処理システム、情報処理方法、及び記録媒体

Also Published As

Publication number Publication date
US8489599B2 (en) 2013-07-16
CN101751467A (zh) 2010-06-23
US20100138416A1 (en) 2010-06-03
JP5607917B2 (ja) 2014-10-15
EP2194472A1 (en) 2010-06-09
CN107038197A (zh) 2017-08-11
KR20100062940A (ko) 2010-06-10
KR101562834B1 (ko) 2015-10-26

Similar Documents

Publication Publication Date Title
JP5607917B2 (ja) コンテキストベースのコンテンツをユーザに配信する方法
US11200895B2 (en) Interaction with a portion of a content item through a virtual assistant
KR102541523B1 (ko) 인간 대 컴퓨터 다이얼로그들에 요청되지 않은 콘텐츠의 사전 통합
Case Calm technology: principles and patterns for non-intrusive design
CN107430501B (zh) 对语音触发进行响应的竞争设备
US20170357395A1 (en) On-device sensor data inferences
Hartnell-Young et al. A means of personalising learning: Incorporating old and new literacies in the curriculum with mobile phones
CN110364148A (zh) 自然助理交互
US20160193732A1 (en) Engaging in human-based social interaction with members of a group using a persistent companion device
CN109635130A (zh) 用于媒体探索的智能自动化助理
CN107491285A (zh) 智能设备仲裁和控制
CN107490971B (zh) 家庭环境中的智能自动化助理
CN111033494A (zh) 用于多个搜索机器人和行为机器人的计算体系架构以及相关的设备和方法
CN105345818A (zh) 带有情绪及表情模块的3d视频互动机器人
CN106164962A (zh) 基于用户的显式声明的个性化推荐
US20130018882A1 (en) Method and System for Sharing Life Experience Information
Ogata et al. A new trend of mobile and ubiquitous learning research: towards enhancing ubiquitous learning experiences
Jameson Systems that adapt to their users
Øie Location sensitivity in locative journalism: An empirical study of experiences while producing locative journalism
Margetis et al. Augmenting natural interaction with physical paper in ambient intelligence environments
US20230262016A1 (en) Methods and systems for generating a virtual assistant in a messaging user interface
Gallagher Machine time: Unifying chronos and kairos in an era of ubiquitous technologies
Huenerfauth Design approaches for developing user-interfaces accessible to illiterate users
Baccari et al. Design for a context-aware and collaborative mobile learning system
Han et al. DataHalo: A Customizable Notification Visualization System for Personalized and Longitudinal Interactions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140829

R150 Certificate of patent or registration of utility model

Ref document number: 5607917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees