JP5851051B2 - 情報処理装置、サーバ装置、対話システムおよびプログラム - Google Patents

情報処理装置、サーバ装置、対話システムおよびプログラム Download PDF

Info

Publication number
JP5851051B2
JP5851051B2 JP2014550951A JP2014550951A JP5851051B2 JP 5851051 B2 JP5851051 B2 JP 5851051B2 JP 2014550951 A JP2014550951 A JP 2014550951A JP 2014550951 A JP2014550951 A JP 2014550951A JP 5851051 B2 JP5851051 B2 JP 5851051B2
Authority
JP
Japan
Prior art keywords
character
unit
user
comparison
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014550951A
Other languages
English (en)
Other versions
JPWO2014087714A1 (ja
Inventor
俊治 栗栖
俊治 栗栖
結旗 柘植
結旗 柘植
直樹 橋田
直樹 橋田
恭子 増田
恭子 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014550951A priority Critical patent/JP5851051B2/ja
Application granted granted Critical
Publication of JP5851051B2 publication Critical patent/JP5851051B2/ja
Publication of JPWO2014087714A1 publication Critical patent/JPWO2014087714A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/2423Interactive query statement specification based on a database schema
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/26Visual data mining; Browsing structured data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3349Reuse of stored results of previous queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、ユーザとキャラクタとの対話機能に関するものである。
特許文献1には、乗員とのコミュニケーションを行うエージェント像を表示制御する車両用エージェント装置において、乗員の顔の向きまたは視線を検出する視線検出部と乗員の音声を検出する音声認識部の検出結果に基づいて、乗員が前記エージェント像に対して話しかけているか否かを判断する車両用エージェント装置が開示されている。
特許文献2には、カメラで撮像した話者の顔の画像における瞳の位置変化を監視することにより、話者に特定の内面状態(「焦り」など)があるか否かを判断する対話エージェントシステムが開示されている。
特許文献3には、自己が担当するユーザから個人情報を取得する機能を備え、当該ユーザからの当該ユーザ個別エージェントの使用頻度に応じて前記機能がアクティブにされるユーザ個別エージェントを組み入れて提供されるユーザ支援装置が開示されている。
特許文献4には、ユーザに性格判別用の質問をしたとき無回答であれば、ユーザは協調性が低い性格と判別する性格判別手段を設けたエージェント手段を含むエージェント装置が開示されている。
特許文献5には、コンピュータが提示する提案アイテムの人気ランキングに応じて、その提案アイテムに対してエージェントの感情を生成する感情生成方法が開示されている。
特開2006−189394号公報 特開2004−310034号公報 特開2002−24285号公報 特開2007−133728号公報 特開2001−249949号公報
しかしながら、特許文献1、2に記載された技術は、乗員の視線を検出したり、話者の瞳の位置変化を監視したりして、ユーザのエージェントに対する態度や内面状態などを特定するにとどまる。また、特許文献3に記載された技術は、エージェント自身に対しての使用頻度のみに応じて機能がアクティブにされるか否かが決まるだけである。特許文献4に記載された技術は、ユーザが指示を与える回数を計測することでユーザの支配性を判断するだけであり、特許文献5に記載された技術は、エージェントの提案について別途集計されたランキングに基づきそのエージェントの自信に関する態度を演出するだけである。したがって、これらの文献に記載された技術では、対話するキャラクタが、複数のキャラクタの中からそのキャラクタ自身が選ばれていること踏まえた回答をしたり、選ばれたキャラクタ自身の相対的な順位などをユーザに意識させるような回答をしたりすることはなかった。
本発明は、複数のキャラクタの中からユーザに選択されたキャラクタに、自身と他のキャラクタとの比較に応じた対話をさせることを目的とする。
上述した課題を解決するため、本発明に係る情報処理装置は、複数のキャラクタの中からユーザに選択されたキャラクタを特定する特定部と、前記特定部により第1キャラクタが特定された場合に、前記ユーザによって、当該第1キャラクタが使用された履歴と、当該第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する比較部と、前記比較部による比較の結果に応じて、前記第1キャラクタが前記ユーザと対話をするときの表現を示す表現データを出力する出力部とを備える。
好ましくは、選択された前記第1又は第2キャラクタに対する前記ユーザの発言の内容を解釈する解釈部を備え、前記比較部は、前記特定部により第1キャラクタが特定された場合に、前記解釈部により解釈された前記第1のキャラクタに対する前記ユーザの発言の内容に基づいて、前記第1キャラクタが使用された履歴に対して重み付けを行うとともに、前記解釈部により解釈された前記第2のキャラクタに対する前記ユーザの発言の内容に基づいて、前記第2キャラクタが使用された履歴に対して重み付けを行い、前記重み付けされた履歴同士を比較するとよい。
また、好ましくは、前記比較部は、前記ユーザによって、前記第1キャラクタが選択された回数と、前記第2キャラクタが選択された回数とを比較するとよい。
また、好ましくは、前記比較部は、前記ユーザによって、最後に前記第1キャラクタが選択された時期と、最後に前記第2キャラクタが選択された時期とを比較するとよい。
また、好ましくは、アプリケーションを実行する実行部と、前記ユーザが前記アプリケーションを前記実行部に実行させる指示を前記第1キャラクタに対する発言によらずにした場合に、当該指示を検知する検知部とを備え、前記出力部は、前記検知部が前記指示を検知した場合に、当該指示を前記第1キャラクタとの対話によってするように前記ユーザに促す表現を示す表現データを出力し、前記発言の内容が前記解釈部によりアプリケーションを実行させる指示であると解釈された場合に、指示された当該アプリケーションを前記実行部に実行させるための信号を出力するとよい。
また、好ましくは、前記比較部は、前記ユーザによって使用された前記第1キャラクタと前記ユーザとの間で交わされた会話の量と、前記ユーザによって使用された前記第2キャラクタと前記ユーザとの間で交わされた会話の量とを比較するとよい。
また、好ましくは、前記比較部による比較の結果に応じて、前記第1キャラクタとの対話を通じたアプリケーションの実行指示を可能にしたり禁止したりする実行制御部を備えるとよい。
また、本発明に係るサーバ装置は、ユーザとキャラクタとの対話機能を実現する端末と通信する通信部と、前記端末において複数のキャラクタの中から前記ユーザに選択されたキャラクタを特定する特定部と、前記特定部により第1キャラクタが特定された場合に、前記ユーザによって、当該第1キャラクタが使用された履歴と、当該第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する比較部と、前記比較部による比較の結果に応じて、前記第1キャラクタが前記端末において前記ユーザと対話をするときの表現を示す表現データを出力する出力部とを備え、前記通信部は、前記出力部が出力した前記表現データを前記端末に送信するとよい。
また、本発明に係る対話システムは、ユーザとキャラクタとの対話機能を実現する端末と、前記端末と通信するサーバ装置とを備え、前記サーバ装置は、前記端末と通信する通信部と、前記端末において複数のキャラクタの中から前記ユーザに選択されたキャラクタを特定する特定部と、前記特定部により第1キャラクタが特定された場合に、前記ユーザによって、当該第1キャラクタが使用された履歴と、当該第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する比較部と、前記比較部による比較の結果に応じて、前記第1キャラクタが前記端末において前記ユーザと対話をするときの表現を示す表現データを出力する出力部とを備え、前記端末は、前記サーバ装置と通信する通信部と、前記複数のキャラクタの中から1つのキャラクタを選択する前記ユーザの操作を受付ける受付部と、前記サーバ装置の出力部によって出力された前記表現データにしたがって前記第1キャラクタに前記ユーザと対話をさせる対話部とを備えることを特徴とする。
また、本発明に係るプログラムは、コンピュータに、複数のキャラクタの中からユーザに選択されたキャラクタを特定する特定ステップと、前記特定ステップにより第1キャラクタが特定された場合に、前記ユーザによって、当該第1キャラクタが使用された履歴と、当該第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する比較ステップと、前記比較ステップによる比較の結果に応じて、前記第1キャラクタが前記ユーザと対話をするときの表現を示す表現データを出力する出力ステップとを実行させるためのプログラムである。
本発明によれば、複数のキャラクタの中からユーザに選択されたキャラクタに、自身と他のキャラクタとの比較に応じた対話をさせることができる。
対話システムの全体構成の一例を示す図である。 サーバ装置の構成を示す図である。 履歴データベースの一例を示す図である。 表現データベースの一例を示す図である。 集計表の一例を示す図である。 端末の構成の一例を示す図である。 サーバ装置の機能的構成を示す図である。 対話システムにおいてサーバ装置の動作の流れを示すフロー図である。 端末の画面に表示されるキャラクタの例を示す図である。 変形例におけるサーバ装置の機能的構成を示す図である。 変形例における端末の画面に表示されるキャラクタの例を示す図である。
1…サーバ装置、11…制御部、110…集計表、111…特定部、112…比較部、113…出力部、114…解釈部、115…検知部、12…記憶部、121…履歴データベース、122…表現データベース、13…通信部、2…端末、21…制御部、22…記憶部、221…アプリケーション群、23…通信部、24…操作部、241…マイクロフォン、25…提示部、251…画面、252…スピーカ、3…通信回線、9…対話システム。
1.実施形態
1−1.対話システムの全体構成
図1は、対話システム9の全体構成の一例を示す図である。対話システム9は、サーバ装置1、端末2、およびこれらを接続する通信回線3を有する。対話システム9は、端末2を複数個有していてもよい。
1−2.サーバ装置の構成
図2は、サーバ装置1の構成を示す図である。サーバ装置1は、端末2が、ユーザとキャラクタとの対話機能を実現するために、キャラクタがユーザと対話をするときの表現を示す表現データを出力する装置である。キャラクタとは、ユーザと対話する擬似人格であり、サーバ装置1によって複数体が提供される。キャラクタが実現する対話とは、ユーザの意思表示である発言や操作を受付けて、これに応じて、返答をしたり、端末2を制御したりすることをいう。ユーザの発言とは、発声によるものでもよいし、キーボード、テンキー、タッチパネルなどの操作によって入力される文字列によるものでもよい。
サーバ装置1は、制御部11、記憶部12,および通信部13を備える。制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有し、CPUがROMや記憶部12に記憶されているプログラムを読み出して実行することによりサーバ装置1の各部を制御する。また、制御部11は、後述する履歴データベース121を参照して、ユーザによるキャラクタの選択の履歴を集計し、その集計結果である集計表110をRAM上に生成する。
通信部13は、有線で接続された通信回線3を介して端末2と通信を行うインターフェースである。
記憶部12はハードディスクドライブ(HDD:Hard Disk Drive)などの大容量の記憶手段であり、CPUに読み込まれるプログラムを記憶する。
また、記憶部12は、履歴データベース(以下、図において「データベース」を「DB」と表記する)121、および表現データベース122を記憶する。
図3は、履歴データベース121の一例を示す図である。図3に示す履歴データベース121は、ユーザの操作により複数のキャラクタの中から1つのキャラクタが選択された日時と、選択されたそのキャラクタの名前(キャラクタ名)とを対応付けて記憶する。制御部11は、ユーザの操作により複数のキャラクタの中から1つのキャラクタが選択される度に、この履歴データベース121を更新する。
図4は、表現データベース122の一例を示す図である。図4に示す表現データベース122は、複数のキャラクタのそれぞれを識別するキャラクタ名と、そのキャラクタ名で識別されるキャラクタの選択回数に関する条件と、そのキャラクタがユーザと対話をするときの表現としての「セリフ」とを対応付けて記憶する。表現データベース122に記述された各条件は、選択されたキャラクタと、それ以外のキャラクタとの選択の履歴を比較することによって、それぞれ満たすか否かが判断されるものである。
図4に示すように、条件とセリフとは対応付けられており、或る条件を満たすときに、その条件に対応付けられたセリフが上述した対話において表現される。なお、条件とセリフとは1対1に対応していなくてもよい。例えば、1つの条件に複数のセリフが対応付けられて、端末2は、対話においてこの複数のセリフの中から、擬似乱数などを用いてランダムに1つのセリフを選択し、表現してもよい。
なお、表現データベース122には、セリフのほかに、端末2の画面251上に表示せるキャラクタの姿を表す画像や、仕草を表すアニメーションなど、ユーザとの対話における種々の表現が上述した条件と対応付けられている。
図5は、集計表110の一例を示す図である。図5に示す集計表110は、複数のキャラクタのそれぞれを識別するキャラクタ名と、その各キャラクタが選択された回数(選択回数)とを対応付けている。なお、この集計の対象となる期間は「端末2の使用開始時から現在まで」や「直近の1ヶ月間」など、ユーザが任意に設定したものでよい。
1−3.端末の構成
図6は、端末2の構成の一例を示す図である。図6に示す端末2は、制御部21、記憶部22、通信部23、操作部24、および提示部25を備える。制御部21は、CPU、ROM、RAMなどを有し、CPUがROMや記憶部22に記憶されているプログラムを読み出して実行することにより端末2の各部を制御する。
記憶部22は、ソリッドステートドライブ(SSD:Solid State Drive)などの大容量の記憶手段であり、CPUに読み込まれるプログラムを記憶する。
通信部23は、有線または無線により通信回線3と接続し、通信回線3を介してサーバ装置1と通信するためのインターフェースである。例えば、図1に示す端末2は携帯電話機などの移動体通信端末である。これらはいずれも無線により通信回線3と接続する。
操作部24は各種の指示を入力するための座標取得部や操作ボタンを備えており、利用者による操作を受付けてその操作内容に応じた信号を制御部21に供給する。また、操作部24は、ユーザの声を感知しその声に応じた信号を発生するマイクロフォン241を備える。操作部24は、複数のキャラクタの中から1つのキャラクタを選択するユーザの操作を受付ける受付部として機能する。
提示部25は、液晶などを利用した画面251を備え、制御部21からの指示に応じてこの画面251に画像を表示させる。例えば、制御部21が通信部23を介してサーバ装置1が出力した表現データを受信すると、制御部21は、この表現データに示されるセリフを示す文字列を、画面251においてキャラクタの姿の上に描画した吹き出しの中に表示させる。
また、提示部25は、音声信号を音に変換して空気中に放音するスピーカ252を備え、制御部21からの指示に応じてこのスピーカ252に音声を出力させる。例えば、制御部21が通信部23を介してサーバ装置1が出力した表現データを受信すると、制御部21は、選択されたキャラクタに予め設定されている声質のデータを用いて、この表現データに示されるセリフを音声に変換しスピーカ252によって出力させる。
提示部25は、サーバ装置1の後述する出力部113によって出力された表現データにしたがってキャラクタにユーザと対話をさせる対話部として機能する。
1−4.サーバ装置の機能的構成
図7は、サーバ装置1の機能的構成を示す図である。サーバ装置1の制御部11は、上述したプログラムを実行することにより、特定部111、比較部112、および出力部113として機能する。
端末2は、ユーザが対話の相手として1つのキャラクタを選択する操作をすると、その操作に応じた信号を、通信回線3を介してサーバ装置1に送信する。特定部111は、この信号を通信部13により受け取り、この信号に基づき、端末2において複数のキャラクタの中からユーザに選択されたキャラクタを特定する。
比較部112は、特定部111により或るキャラクタ(以下、第1キャラクタという)が特定された場合に、記憶部12の履歴データベース121を参照して、ユーザによってこの第1キャラクタが使用された履歴と、この第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する。具体的には、比較部112は、履歴データベース121から制御部11のRAM上に集計表110を生成し、ユーザに選択されたキャラクタを特定部111から通知されると、通知されたキャラクタを第1キャラクタとし、それ以外のキャラクタを第2キャラクタとして、現在までに第1キャラクタが選択された回数と、第2キャラクタが選択された回数とを比較する。
なお、この第2キャラクタは、ユーザが選択可能な全てのキャラクタのうち、第1キャラクタ以外の全てのキャラクタであってもよい。また、この第2キャラクタは、例えば、ユーザが選択可能な全てのキャラクタを選択回数で並べ替えた序列において、その選択回数が最多または最少のキャラクタ、並びにその序列において第1キャラクタの1つ上または1つ下に位置するキャラクタというように特定のキャラクタであってもよい。
出力部113は、記憶部12の表現データベース122を参照し、比較部112による比較の結果に応じて、第1キャラクタがユーザと対話をするときの表現を示す表現データを出力する。出力された表現データは、端末2の要求に応じて、または、制御部11の制御の下、通信部13を介して端末2へ送信される。そして、表現データを取得した端末2の制御部21は、この表現データに基づいて、第1キャラクタがユーザに対して話しかける言葉の内容や仕草などを組み立てて、これらを表現する。
1−5.サーバ装置の動作
図8は、対話システム9においてサーバ装置1の動作の流れを示すフロー図である。サーバ装置1の制御部11は、端末2においてキャラクタが選択されたか否かを判断する(ステップS101)。キャラクタが選択されていないと判断する間(ステップS101;NO)、制御部11は、この判断処理を続ける。一方、キャラクタが選択されたと判断すると(ステップS101;YES)、制御部11は、端末2において選択されたそのキャラクタを特定し(ステップS102)、履歴データベース121を参照して、各キャラクタの履歴として、そのキャラクタの選択回数を集計する(ステップS103)。制御部11のRAM上には、集計表110が生成される。
制御部11は、ステップS102において特定したキャラクタ(すなわち、第1キャラクタ)と、それ以外のキャラクタ(すなわち、第2キャラクタ)について、それぞれの選択回数(履歴)を比較する(ステップS104)。そして、その比較結果に応じた表現データを、表現データベース122から読み出すことで出力する(ステップS105)。
図9は、端末2の画面251に表示されるキャラクタの例を示す図である。図9(a)に示すキャラクタは、サーバ装置1の記憶部12において記憶されている全てのキャラクタの中で、ユーザに選択された回数が最も多い「選択回数最多」という条件(図4参照)を満たしている。したがって、サーバ装置1は、図4に示した表現データベース122において、この「選択回数最多」という条件と対応付けられている「いつもご利用いただきありがとうございます」というセリフの表現データを出力し、端末2に送信する。その結果、端末2において画面251には、図9(a)に示す画像が表示される。
一方、図9(b)に示すキャラクタは、ユーザに選択された回数が最も多いキャラクタとの選択回数の差が5回以上10回未満である。すなわち、このキャラクタは「差が10回未満」という条件(図4参照)を満たしている。したがって、サーバ装置1は、この「差が10回未満」という条件と対応付けられている「いつもAばかり選んで私に冷たいです」というセリフの表現データを出力し、端末2に送信する。その結果、端末2において画面251には、図9(b)に示す画像が表示される。なお、セリフ中の「A」は、図5に示す集計表110において最も選択回数が多かったキャラクタのキャラクタ名に制御部11が置き換えるようになっている。
以上の動作により、本発明に係る対話システム9は、複数のキャラクタの中からユーザに選択されたキャラクタの対話内容を、そのキャラクタ自身と他のキャラクタとの選択回数を比較した結果に応じて変化させる。その結果、ユーザには対話を通じて、選択したキャラクタが他のキャラクタを意識しているように感じられる。例えば選択の回数を増やすほど、対話においてユーザに親しみを感じているような表現が多くなるように表現データベース122を構成しておくことで、対話システム9は、ユーザにそのキャラクタを選択するときの感情を醸成させる。また、対話においてキャラクタが他のキャラクタとの比較に基づく感情表現をするように表現データベース122を構成しておくことで、対話システム9は、或るキャラクタを或る期間にわたって敢えて選択せず、その後、選択するという選択行動の動機をユーザに生じさせる。
2.変形例
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を組み合わせてもよい。
2−1.変形例1
上述した実施形態において、比較部112は、第1キャラクタが選択された回数と、第2キャラクタが選択された回数とを比較していたが、この際に比較される選択回数は、ユーザの発言に応じて重み付けがなされてもよい。この場合、制御部11は、図7に破線で示す解釈部114として機能する。この解釈部114は、端末2から送信される対話についての情報に基づいて、選択されたキャラクタに対するユーザの発言の内容を解釈する。そして、比較部112は、解釈部114により解釈された内容に応じて選択回数に対して重み付けを行えばよい。
例えば、解釈部114は、ユーザの発言の内容から「ありがとう」などキャラクタを気遣うキーワードを抽出した場合に、比較部112に対して選択回数を調整するように指示をしてもよい。また、この場合、履歴データベース121には、ユーザがキャラクタを大事にしていることを表す数値(以下、ポイント)を会話毎に記憶してもよい。ポイントは、選択日時及びキャラクタ名と対応づけられて記憶してもよい。例えば、解釈部114が、上記のようなキーワードを抽出した場合に、履歴データベース121のポイントを増加させる。すなわち、制御部11は、ユーザの会話がキャラクタを気遣うものであると解釈された場合に、上記のポイントを増加させるように履歴データベース121を更新する。
そして、比較部112は、履歴データベース121からポイントを合計して集計表110を生成してもよい。具体的には、比較部112は、各キャラクタについて、履歴データベース121に記憶されているポイントの合計値を算出してもよい。言い換えると、比較部112は、履歴データベース121に記憶されているポイントを用いて選択回数に対して重み付けを行うようにしてもよい。重み付けは、上記のように、解釈部によりユーザの発言から所定のキーワードが抽出された場合に行われる。そして、比較部112は、端末2において選択されたキャラクタとそのキャラクタ以外のキャラクタとについて、算出したポイントの合計値を比較すればよい。この場合、出力部113は、記憶部12の表現データベース122を参照し、比較部112による比較の結果に応じて、キャラクタがユーザと対話をするときの表現を示す表現データを出力すればよい。
この構成によれば、サーバ装置1は、端末2のユーザの発言内容と、選択回数の両方に応じて、対話における表現を示す表現データを出力して端末2に提供する。そのため、ユーザの発言に対するキャラクタの回答が、そのキャラクタをユーザが他のキャラクタに比べてどれだけ多く選択してきたか、そしてそのキャラクタをユーザがどれだけ気遣ってきたかに応じて表現される。例えば、ユーザが他のキャラクタに比べて頻繁に選択しているキャラクタは感謝の感情を表しながらユーザの発言に対して回答し、あまり頻繁には選択していないキャラクタは、ユーザの発言に対して不満や悲しみの感情を表しながら回答する。また、あまり選択されていないキャラクタは、ユーザに対して頻繁に選択されているキャラクタのキャラクタ名を挙げて妬んだり羨ましがったりする感情を表す。そのため、この対話システム9は、ユーザに、あたかも選択したキャラクタが他のキャラクタとの競合関係を意識しているかのように感じさせる。
2−2.変形例2
上述した実施形態において、比較部112は、現在までに第1キャラクタが選択された回数と、第2キャラクタが選択された回数とを比較していたが、比較する履歴は選択回数に限られない。例えば、比較部112は、ユーザによって、最後に第1キャラクタが選択された時期と、最後に第2キャラクタが選択された時期とを比較してもよい。この場合、表現データベース122は、キャラクタが最後に選択された時期に関する条件と、そのキャラクタがユーザと対話をするときの表現とを対応付けて記憶すればよい。また、制御部11は、履歴データベース121から各キャラクタが最後に選択された日時を抽出して集計表110を生成してもよい。すなわち、この集計表110は、各キャラクタのキャラクタ名とそのキャラクタがユーザによって最後に選択された時期(日時)とを対応付ける。これにより、例えば、ユーザが他のキャラクタと比べて長期間にわたって選択していないキャラクタは、その期間に選択されたキャラクタのキャラクタ名を挙げて対話をする。そのため、この対話システム9は、ユーザに、あたかも選択したキャラクタが他のキャラクタとの競合関係を意識しているかのように感じさせる。
2−3.変形例3
また、比較部112は、ユーザの発言回数や会話の総時間などの「会話の量」に関する情報をキャラクタごとに比較してもよい。この場合、会話の量は、選択日時及びキャラクタ名と対応づけられて履歴データベース121に記憶されてもよい。表現データベース122は、ユーザとキャラクタとの会話の量に関する条件と、そのキャラクタがユーザと対話をするときの表現とを対応付けて記憶すればよい。また、制御部11は、履歴データベース121からユーザとキャラクタとの会話の量を算出して集計表110を生成してもよい。すなわち、この集計表110は、各キャラクタのキャラクタ名と、そのキャラクタがユーザから発言を受けた回数や、ユーザと会話をした総時間などの「会話の量」に関する情報とを対応付ける。これにより、ユーザがキャラクタを選択した回数が同じであっても、ユーザとの会話の量に応じてキャラクタの発言の内容が変わる。例えば、会話の量が少ないキャラクタが、会話の量が多いキャラクタの名を挙げて、ユーザに対してそのキャラクタよりも多くの会話をしたいことをアピールする、といった具合である。そのため、この対話システム9は、ユーザに、あたかも選択したキャラクタが他のキャラクタとの競合関係を意識しているかのように感じさせる。
なお、上記の会話の総時間とは、具体的には、キャラクタが画面に表示されている際にユーザによってマイクロフォン241を介して発言が入力されている時間と、キャラクタのセリフがスピーカ252から出力されている時間の合計である。また、上記の会話の量には、ユーザの発言の量(具体的には、ユーザによって操作部24を用いて入力された発言の文字数)が含まれてもよい。
2−4.変形例4
上述した実施形態において、制御部11は、第1キャラクタが選択されているときに、ユーザによって第1キャラクタが選択された履歴と、第2キャラクタが選択された履歴とを比較し、その結果に応じて、第1キャラクタがユーザと対話をするときの表現を示す表現データを出力していた。しかし制御部11は、これに加えて、ユーザがアプリケーションプログラム(以下、アプリケーションという)を実行させる指示をキャラクタに対する発言によらずにした場合に、その指示をキャラクタとの対話によってするようにユーザに促してもよい。
図10は、この変形例におけるサーバ装置1の機能的構成を示す図である。この変形例において、端末2の記憶部22は、図6に破線で示すアプリケーション群221を記憶する。アプリケーション群221は、端末2の制御部21が実行する1つ以上のアプリケーションである。制御部11は、このアプリケーションを実行する指示を、ユーザの操作部24に対する操作によって受付けるが、その態様は、キャラクタとの対話による指示と、キャラクタに対する発言によらない指示とに分けられる。ここで、キャラクタとの対話による指示とは、例えば、音声操作により入力される(言い換えると、音声認識処理を通じて解釈される)アプリケーションの実行指示のことである。一方、キャラクタに対する発言によらない指示とは、例えば、音声操作によらずに入力されるアプリケーションの実行指示のことである。具体的には、画面251に表示されるアプリケーションを示すアイコンを操作部24を用いて選択することにより行われるアプリケーションの実行指示のことである。
例えば、制御部21によって実行されている制御用のプログラムにより、画面251には、各アプリケーションに対応する画像がいわゆるアイコンとしてそれぞれ表示された「ランチャー画面」が表示されており、このアイコンが表示されている画面251上の位置をユーザの指などが触れると、操作部24の座標取得部によって取得されたその位置を示す座標が制御部21に伝えられる。制御部21は、この座標に基づいて、上述したアプリケーションを特定し、そのアプリケーションを実行する。すなわち、制御部21は、アプリケーションを実行する実行部として機能する。このとき、制御部21は、通信部23を介して、ユーザがキャラクタに対する発言によらずに、アプリケーションを実行させる指示をしたことをサーバ装置1に伝える。
サーバ装置1の制御部11は、ユーザがキャラクタに対する発言によらずに、アプリケーションを端末2に実行させる指示をしたことを伝えられている。つまり、制御部11は、図10に示すように、上述した指示を検知する検知部115として機能する。そして、制御部11によって実現する出力部113は、検知部115が指示を検知した場合に、この指示を第1キャラクタとの対話によってするようにユーザに促す表現を示す表現データを出力する。
図11は、この変形例における端末2の画面251に表示されるキャラクタの例を示す図である。ユーザは、キャラクタを選択する前に、或るSNS(social networking service;ソーシャル・ネットワーキング・サービス)への投稿を行うアプリケーションの実行を、上述したランチャー画面に触れることによって指示している。
その後、ユーザは、図11に示すキャラクタを選択して、このキャラクタとの対話を始めると、このキャラクタは、「何か御用ですか?ちなみに私はよくお使いのSNSにも簡単に投稿できますよ。Bと投稿!といってみて下さい」というセリフでユーザに、上述した指示をキャラクタとの対話によってするように促す。これによりユーザは、キャラクタとの対話によって上述した指示が可能であることを知ることができる。
一方、発言の内容が解釈部114によりアプリケーションを実行させる指示であると解釈された場合に、出力部113は、指示されたこのアプリケーションを端末2の制御部21(実行部)に実行させるための信号を出力し通信部13がこの信号を端末2へ送信する。端末2の制御部2は、この信号を受信すると、この指示に示されるアプリケーションを実行する。これにより、アプリケーションを端末2に実行させる指示は、ユーザとキャラクタとの対話によって行われる。
2−5.変形例5
また、上述した実施形態において、出力部113は、比較部112による比較の結果に応じて、第1キャラクタがユーザと対話をするときの表現を示す表現データを出力していたが、この表現データには、ユーザが第1キャラクタとの対話によってアプリケーションを実行させる指示をすることに関しての表現が含まれていてもよい。例えば、この表現データには、対話によってアプリケーションを実行させる指示が可能になったことや、制限されることなどを伝える表現が含まれていてもよい。この場合、端末2は、出力部113が出力した表現データに沿って、実際にユーザに対し、対話によるアプリケーション実行の指示を可能にしたり制限したりしてもよい。この場合、制御部21は、比較部112による比較の結果に応じて、キャラクタとの対話を通じたアプリケーションの実行指示を可能にしたり禁止したりする実行制御部として機能する。この実行制御部は、具体的には、比較部112による比較の結果が所定の条件を満たす場合に、キャラクタとの対話を通じたアプリケーションの実行指示を可能にしたり禁止したりする。なおここで、キャラクタとの対話を通じたアプリケーションの実行指示とは、例えば、音声操作により入力される(言い換えると、音声認識処理を通じて解釈される)アプリケーションの実行指示のことである。
例えば、ユーザが選択したキャラクタが図4に示した「選択回数最多」という条件を満たしている場合に、サーバ装置1は、このキャラクタのセリフとして「いつもご利用頂きありがとうございます。今日からこんなアプリも呼出させて頂きます」というセリフの表現データを出力し、端末2に送信してもよい。端末2は、この表現データを受け取って、画面251にこのキャラクタと上記のセリフを表示すればよい。そして、端末2は、上記セリフでユーザに紹介されたアプリケーションを呼出可能にしてもよい。
また、例えば、ユーザが選択したキャラクタが図4に示した「差が10回未満」という条件を満たしている場合に、サーバ装置1は、このキャラクタのセリフとして「いつもAばかり選んで私に冷たいです。そのため、Cアプリの呼出をやめます」というセリフの表現データを出力し、端末2に送信してもよい。この場合、端末2は、キャラクタとの対話による「Cアプリ」と呼ばれるアプリケーションの呼出を制限してもよい。
また、ユーザが選択したキャラクタが図4に示した「差が10回未満」という条件を満たしている場合に、サーバ装置1は、このキャラクタのセリフとして「Aより使って頂くと、AではできないBアプリの呼出もできるようにします」というセリフの表現データを出力し、端末2に送信してもよい。この場合、端末2は、上記のセリフを発したキャラクタの選択回数が「A」という名のキャラクタの選択回数よりも多くなったときに、上記のこのキャラクタとの対話による「Bアプリ」と呼ばれるアプリケーションの呼出を可能してもよい。
2−6.変形例6
サーバ装置1の制御部11や端末2の制御部21によって実行されるプログラムは、磁気テープや磁気ディスクなどの磁気記録媒体、光ディスクなどの光記録媒体、光磁気記録媒体、半導体メモリなどの、コンピュータ装置が読み取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネットなどのネットワーク経由でダウンロードさせることも可能である。なお、上記の制御部11および制御部21によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサなどが用いられる。
2−7.変形例7
上述した実施形態において、端末2は、携帯電話機であったが、そのほか、スレートPC(Personal Computer)、タブレット型PC、PDA(Personal Digital Assistant)、携帯音楽再生機、携帯動画再生機、ゲーム機、電子書籍の閲覧装置、ナビゲーション装置などであってもよい。
2−8.変形例8
上述した実施形態において、ユーザとキャラクタとの対話は、サーバ装置1と端末2とが通信回線3を介して通信することにより行われていたが、サーバ装置1と端末2の両方の機能を備えた情報処理装置によって行われてもよい。
また、上述した実施形態および変形例においてサーバ装置1によって実現されていた機能は、端末2によって実現されてもよい。

Claims (9)

  1. 複数のキャラクタの中からユーザに選択されたキャラクタを特定する特定部と、
    前記特定部により第1キャラクタが特定された場合に、前記ユーザによって、当該第1キャラクタが使用された履歴と、当該第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する比較部と、
    前記比較部による比較の結果に応じて、前記第1キャラクタが前記ユーザと対話をするときの表現を示す表現データを出力する出力部と
    前記比較部による比較の結果に応じて、前記第1キャラクタとの対話を通じたアプリケーションの実行指示を可能にしたり禁止したりする実行制御部と
    を備える情報処理装置。
  2. 選択された前記第1又は第2キャラクタに対する前記ユーザの発言の内容を解釈する解釈部を備え、
    前記比較部は、前記特定部により第1キャラクタが特定された場合に、前記解釈部により解釈された前記第1のキャラクタに対する前記ユーザの発言の内容に基づいて、前記第1キャラクタが使用された履歴に対して重み付けを行うとともに、前記解釈部により解釈された前記第2のキャラクタに対する前記ユーザの発言の内容に基づいて、前記第2キャラクタが使用された履歴に対して重み付けを行い、前記重み付けされた履歴同士を比較する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記比較部は、前記ユーザによって、前記第1キャラクタが選択された回数と、前記第2キャラクタが選択された回数とを比較する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記比較部は、前記ユーザによって、最後に前記第1キャラクタが選択された時期と、最後に前記第2キャラクタが選択された時期とを比較する
    ことを特徴とする請求項1に記載の情報処理装置。
  5. アプリケーションを実行する実行部と、
    前記ユーザが前記アプリケーションを前記実行部に実行させる指示を前記第1キャラクタに対する発言によらずにした場合に、当該指示を検知する検知部とを備え、
    前記出力部は、前記検知部が前記指示を検知した場合に、当該指示を前記第1キャラクタとの対話によってするように前記ユーザに促す表現を示す表現データを出力し、前記発言の内容が前記解釈部によりアプリケーションを実行させる指示であると解釈された場合に、指示された当該アプリケーションを前記実行部に実行させるための信号を出力する
    ことを特徴とする請求項2に記載の情報処理装置。
  6. 前記比較部は、前記ユーザによって使用された前記第1キャラクタと前記ユーザとの間で交わされた会話の量と、前記ユーザによって使用された前記第2キャラクタと前記ユーザとの間で交わされた会話の量とを比較することを特徴とする請求項1に記載の情報処理装置。
  7. ユーザとキャラクタとの対話機能を実現する端末と通信する通信部と、
    前記端末において複数のキャラクタの中から前記ユーザに選択されたキャラクタを特定する特定部と、
    前記特定部により第1キャラクタが特定された場合に、前記ユーザによって、当該第1キャラクタが使用された履歴と、当該第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する比較部と、
    前記比較部による比較の結果に応じて、前記第1キャラクタが前記端末において前記ユーザと対話をするときの表現を示す表現データを出力する出力部と
    前記比較部による比較の結果に応じて、前記端末において前記第1キャラクタとの対話を通じたアプリケーションの実行指示を可能にしたり禁止したりする実行制御部とを備え、
    前記通信部は、前記出力部が出力した前記表現データを前記端末に送信する
    ことを特徴とするサーバ装置。
  8. ユーザとキャラクタとの対話機能を実現する端末と、
    前記端末と通信するサーバ装置とを備え、
    前記サーバ装置は、
    前記端末と通信する通信部と、
    前記端末において複数のキャラクタの中から前記ユーザに選択されたキャラクタを特定する特定部と、
    前記特定部により第1キャラクタが特定された場合に、前記ユーザによって、当該第1キャラクタが使用された履歴と、当該第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する比較部と、
    前記比較部による比較の結果に応じて、前記第1キャラクタが前記端末において前記ユーザと対話をするときの表現を示す表現データを出力する出力部と
    前記比較部による比較の結果に応じて、前記端末において前記第1キャラクタとの対話を通じたアプリケーションの実行指示を可能にしたり禁止したりする実行制御部とを備え、
    前記端末は、
    前記サーバ装置と通信する通信部と、
    前記複数のキャラクタの中から1つのキャラクタを選択する前記ユーザの操作を受付ける受付部と、
    前記サーバ装置の出力部によって出力された前記表現データにしたがって前記第1キャラクタに前記ユーザと対話をさせる対話部とを備える
    ことを特徴とする対話システム。
  9. コンピュータに、
    複数のキャラクタの中からユーザに選択されたキャラクタを特定する特定ステップと、
    前記特定ステップにより第1キャラクタが特定された場合に、前記ユーザによって、当該第1キャラクタが使用された履歴と、当該第1キャラクタ以外の第2キャラクタが使用された履歴とを比較する比較ステップと、
    前記比較ステップによる比較の結果に応じて、前記第1キャラクタが前記ユーザと対話をするときの表現を示す表現データを出力する出力ステップと
    前記比較ステップによる比較の結果に応じて、前記第1キャラクタとの対話を通じたアプリケーションの実行指示を可能にしたり禁止したりする実行制御ステップと
    を実行させるためのプログラム。
JP2014550951A 2012-12-04 2013-09-20 情報処理装置、サーバ装置、対話システムおよびプログラム Active JP5851051B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014550951A JP5851051B2 (ja) 2012-12-04 2013-09-20 情報処理装置、サーバ装置、対話システムおよびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012265043 2012-12-04
JP2012265043 2012-12-04
JP2014550951A JP5851051B2 (ja) 2012-12-04 2013-09-20 情報処理装置、サーバ装置、対話システムおよびプログラム
PCT/JP2013/075484 WO2014087714A1 (ja) 2012-12-04 2013-09-20 情報処理装置、サーバ装置、対話システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP5851051B2 true JP5851051B2 (ja) 2016-02-03
JPWO2014087714A1 JPWO2014087714A1 (ja) 2017-01-05

Family

ID=50883144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014550951A Active JP5851051B2 (ja) 2012-12-04 2013-09-20 情報処理装置、サーバ装置、対話システムおよびプログラム

Country Status (4)

Country Link
US (1) US10176252B2 (ja)
EP (1) EP2930599A4 (ja)
JP (1) JP5851051B2 (ja)
WO (1) WO2014087714A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016148951A (ja) * 2015-02-10 2016-08-18 株式会社三菱東京Ufj銀行 取引装置、取引方法、及び取引システム
US10237209B2 (en) * 2017-05-08 2019-03-19 Google Llc Initializing a conversation with an automated agent via selectable graphical element
US10449440B2 (en) 2017-06-30 2019-10-22 Electronic Arts Inc. Interactive voice-controlled companion application for a video game
US10621317B1 (en) 2017-09-14 2020-04-14 Electronic Arts Inc. Audio-based device authentication system
US10926173B2 (en) * 2019-06-10 2021-02-23 Electronic Arts Inc. Custom voice control of video game character

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293193A (ja) * 2004-03-31 2005-10-20 Fujitsu Ten Ltd エージェント装置
WO2005099971A1 (ja) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. ロボット、ヒント出力装置、ロボット制御システム、ロボット制御方法、ロボット制御プログラム及び集積回路
JP2007241535A (ja) * 2006-03-07 2007-09-20 Kenwood Corp エージェント装置
JP2007334685A (ja) * 2006-06-15 2007-12-27 Kenwood Corp コンテンツ検索装置、コンテンツ検索方法及びプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6069622A (en) * 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
US6895557B1 (en) * 1999-07-21 2005-05-17 Ipix Corporation Web-based media submission tool
FR2799562B1 (fr) * 1999-10-07 2002-06-07 Nemo Procede pour creer et animer de maniere interactive, sur une interface graphique, des images en trois dimensions
JP2001249949A (ja) 2000-03-07 2001-09-14 Nec Corp 感情生成方法、感情生成装置、記録媒体
JP2002024285A (ja) 2000-06-30 2002-01-25 Sanyo Electric Co Ltd ユーザ支援方法およびユーザ支援装置
US6931656B1 (en) * 2000-10-11 2005-08-16 Koninklijke Philips Electronics N.V. Virtual creature displayed on a television
US6829606B2 (en) 2002-02-14 2004-12-07 Infoglide Software Corporation Similarity search engine for use with relational databases
JP2003255991A (ja) * 2002-03-06 2003-09-10 Sony Corp 対話制御システム、対話制御方法及びロボット装置
JP2004310034A (ja) 2003-03-24 2004-11-04 Matsushita Electric Works Ltd 対話エージェントシステム
US20050033777A1 (en) * 2003-08-04 2005-02-10 Moraes Mark A. Tracking, recording and organizing changes to data in computer systems
JP2005157494A (ja) * 2003-11-20 2005-06-16 Aruze Corp 会話制御装置及び会話制御方法
US20050120011A1 (en) * 2003-11-26 2005-06-02 Word Data Corp. Code, method, and system for manipulating texts
US7707039B2 (en) * 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8874504B2 (en) * 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
JP4380541B2 (ja) 2005-01-07 2009-12-09 トヨタ自動車株式会社 車両用エージェント装置
US20070168237A1 (en) * 2005-05-25 2007-07-19 Campbell Michael J Methods and systems for a guest online-reservable system
JP4798431B2 (ja) 2005-11-11 2011-10-19 株式会社ケンウッド エージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法
US20070261109A1 (en) * 2006-05-04 2007-11-08 Martin Renaud Authentication system, such as an authentication system for children and teenagers
US7930302B2 (en) * 2006-11-22 2011-04-19 Intuit Inc. Method and system for analyzing user-generated content
US20080274806A1 (en) * 2007-05-02 2008-11-06 S.H. Ganz Holdings Inc. And 816877 Ontario Limited Character development and exchange
US8930815B2 (en) * 2007-11-07 2015-01-06 At&T Intellectual Property I, L.P. Methods, systems and computer readable media for creating a virtual agent
KR20100092596A (ko) * 2009-02-13 2010-08-23 건국대학교 산학협력단 분자 도킹 시뮬레이션 방법 및 그 장치
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
JP2012094004A (ja) 2010-10-27 2012-05-17 Ntt Docomo Inc 情報処理装置、情報提供方法及びプログラム
WO2012084447A1 (en) * 2010-12-23 2012-06-28 Nagravision S.A. System and method for managing a content catalogue
US20120323590A1 (en) * 2011-06-17 2012-12-20 Sanjay Udani Methods and systems for electronic medical source
JP5052691B1 (ja) * 2011-06-29 2012-10-17 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US9536049B2 (en) * 2012-09-07 2017-01-03 Next It Corporation Conversational virtual healthcare assistant
US20140074828A1 (en) * 2012-09-12 2014-03-13 Myemptyslate, Inc. Systems and methods for cataloging consumer preferences in creative content
US9031328B2 (en) * 2013-01-18 2015-05-12 Disney Enterprises, Inc. Landmark triggered image augmentation
US10169356B2 (en) * 2013-02-26 2019-01-01 Facebook, Inc. Intelligent data caching for typeahead search
US9886734B2 (en) * 2013-04-25 2018-02-06 Intel Corporation Techniques for graphics data prefetching
US9934610B2 (en) * 2013-05-31 2018-04-03 Facebook, Inc. Techniques for rendering and caching graphics assets
US9823811B2 (en) * 2013-12-31 2017-11-21 Next It Corporation Virtual assistant team identification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293193A (ja) * 2004-03-31 2005-10-20 Fujitsu Ten Ltd エージェント装置
WO2005099971A1 (ja) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. ロボット、ヒント出力装置、ロボット制御システム、ロボット制御方法、ロボット制御プログラム及び集積回路
JP2007241535A (ja) * 2006-03-07 2007-09-20 Kenwood Corp エージェント装置
JP2007334685A (ja) * 2006-06-15 2007-12-27 Kenwood Corp コンテンツ検索装置、コンテンツ検索方法及びプログラム

Also Published As

Publication number Publication date
EP2930599A1 (en) 2015-10-14
JPWO2014087714A1 (ja) 2017-01-05
WO2014087714A1 (ja) 2014-06-12
US10176252B2 (en) 2019-01-08
US20150324458A1 (en) 2015-11-12
EP2930599A4 (en) 2016-08-31

Similar Documents

Publication Publication Date Title
US11290834B2 (en) Determining head pose based on room reverberation
DK180542B1 (en) Voice interaction at a primary device to access call functionality of a companion device
KR102197869B1 (ko) 자연스러운 어시스턴트 상호작용
US10230841B2 (en) Intelligent digital assistant for declining an incoming call
KR102214970B1 (ko) 다방향 대화
KR102249298B1 (ko) 디지털 어시스턴트의 트리거의 검출
DK179548B1 (en) DIGITIAL ASSISTANT PROVIDING AUTOMATED STATUS REPORT
CN108733438B (zh) 应用程序与数字助理集成
US11595517B2 (en) Digital assistant integration with telephony
KR20200065085A (ko) 멀티-턴 캐닝된 대화
KR20200133019A (ko) 가상 어시스턴트 활성화
JP5851051B2 (ja) 情報処理装置、サーバ装置、対話システムおよびプログラム
CN107967055A (zh) 一种人机交互方法、终端及计算机可读介质
EP3872620B1 (en) Voice interaction at a primary device to access call functionality of a companion device
WO2023017320A1 (en) Digital assistant interaction in a communication session
AU2017100557B4 (en) Digital assistant providing automated status report
KR20190079706A (ko) 사용자-특정 음향 모델

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151201

R150 Certificate of patent or registration of utility model

Ref document number: 5851051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250