JP4798431B2 - Agent device, in-vehicle navigation device with agent function, agent output method - Google Patents

Agent device, in-vehicle navigation device with agent function, agent output method Download PDF

Info

Publication number
JP4798431B2
JP4798431B2 JP2005327189A JP2005327189A JP4798431B2 JP 4798431 B2 JP4798431 B2 JP 4798431B2 JP 2005327189 A JP2005327189 A JP 2005327189A JP 2005327189 A JP2005327189 A JP 2005327189A JP 4798431 B2 JP4798431 B2 JP 4798431B2
Authority
JP
Japan
Prior art keywords
agent
unit
user
question
personality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005327189A
Other languages
Japanese (ja)
Other versions
JP2007133728A (en
Inventor
具幸 長坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2005327189A priority Critical patent/JP4798431B2/en
Publication of JP2007133728A publication Critical patent/JP2007133728A/en
Application granted granted Critical
Publication of JP4798431B2 publication Critical patent/JP4798431B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Description

本発明はエージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法に係り、とくにエージェントの性格が可変するエージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法に関する。   The present invention relates to an agent device, an in-vehicle navigation device with an agent function, and an agent output method, and more particularly to an agent device, an in-vehicle navigation device with an agent function, and an agent output method.

例えば、車載用ナビゲーション装置では、ユーザがキー操作をする手間を省くとともにエンターテイメント性を持たせるために音声と画像により擬人化したエージェントを現出させ、エージェントとの対話でユーザが各種の指示を与えることができるようになっている。例えば、近くの食事のできるお店を検索して経路誘導させたい場合、ユーザが「お腹が空いた」とマイクに話すと、音声認識部で「お腹」、「が」、「空いた」と単語に分解して認識され、自然言語解析部で名詞、動詞、形容詞、形容動詞等の主要品詞別の単語が抽出され、エージェント処理部で表1の如く単語別カテゴリ分類表に基づき、今回の会話文のカテゴリーが「食事」であると解析されて、食事への誘導会話フローに移行する。

Figure 0004798431
まずエージェント処理部は音声または画像と音声でエージェントを現出し、「食事に行く?」と質問する。ユーザが「うん」、「はい」と返事すると、エージェント処理部で肯定と解析され、続いて、「何がいい?」と質問し、「お寿司」と返事すると、エージェント処理部で「お寿司」が希望食と決定される。エージェント処理部は地点検索部に現在地近くのお寿司屋の検索を指令し、地点検索部は地点情報を参照して現在地に一番近いお寿司屋を検索し、エージェント処理部に店名、住所を伝え、エージェント処理部がエージェントに「○○屋、××区△丁目○番があるけど、どう?」と質問させる。ユーザが「いいよ」と返事すると、エージェント処理部で肯定と解析され、続いて、「経路誘導する?」と質問し、「うん」と返事すると、エージェント処理部は経路探索・経路誘導部に現在地から今回検索したお寿司屋までの経路誘導を指令する。経路探索・経路誘導部は道路データを用いて現在地から○○屋までを最短で結ぶ経路探索を行い、探索した経路誘導データを誘導経路記憶部に記憶させて現在地から目的地まで経路誘導を行う。経路誘導中、現在地を中心とする地図上に誘導経路を表示し、誘導経路上の各主要交差点の内、次に進路変更すべき交差点(案内対象交差点)に500m以内に近づく度に、該案内対象交差点での進路案内画像を地図画面の一部に重ねて表示する。これと平行して、次の案内対象交差点までの距離と誘導進路をエージェント処理部に伝え、現在地から案内対象交差点までの距離が500m、300m、100mと変化する度にエージェントにより「500m先交差点右折です」、「300m先交差点右折です」、「100m先交差点右折です」との音声による案内(音声経路誘導)をさせる。これにより、ユーザは所望のお寿司屋に迅速に到達できる。 For example, in an in-vehicle navigation device, an agent that is anthropomorphic by voice and image is displayed in order to save the user from having to perform key operations and have entertainment properties, and the user gives various instructions through interaction with the agent. Be able to. For example, if you want to search nearby restaurants where you can dine and guide the route, when the user tells the microphone that you are hungry, the voice recognition unit will say “hungry”, “ga”, “hungry” It is decomposed into words and recognized, and the natural language analysis unit extracts words by main parts of speech such as nouns, verbs, adjectives, adjective verbs, etc., and the agent processing unit based on the category classification table for each word as shown in Table 1. It is analyzed that the category of the conversation sentence is “meal”, and the process proceeds to a guided conversation flow to meal.
Figure 0004798431
First, the agent processing unit presents the agent by voice or image and voice, and asks "Go to a meal?" If the user responds “Yes” or “Yes”, the agent processing unit analyzes that the answer is positive, and then asks “What is good?” If the user answers “Sushi”, the agent processing unit “sushi” "Is determined as the desired meal. The agent processing unit instructs the point search unit to search for a sushi restaurant near the current location, and the point search unit searches for the sushi store closest to the current location by referring to the point information, and stores the store name and address in the agent processing unit. Then, the agent processing department asks the agent to ask, “What's up with XX shop, XX ward △ chome ○ number?” When the user responds “OK”, the agent processing unit analyzes that the answer is positive, and then asks “Do you want to guide the route?” If the user answers “Yes”, the agent processing unit sends the request to the route search / route guiding unit. Commands the route guidance from the current location to the sushi restaurant searched this time. The route search / route guidance unit uses the road data to perform a route search that connects the current location to the shop, and stores the searched route guidance data in the guidance route storage unit to guide the route from the current location to the destination. . During the route guidance, the guidance route is displayed on a map centered on the current location, and the guidance is displayed each time it approaches within 500 m of the next major intersection on the guidance route (the intersection to be guided). The route guidance image at the target intersection is displayed superimposed on a part of the map screen. In parallel with this, the agent processing unit is notified of the distance to the next intersection to be guided and the guidance route, and whenever the distance from the current location to the intersection to be guided changes to 500 m, 300 m, or 100 m, the agent turns “turn right at the intersection 500 meters ahead”. "It is 300m ahead intersection right turn" and "100m ahead intersection right turn". As a result, the user can quickly reach the desired sushi restaurant.

同様にして、「プールに行きたいな」、「遊園地に行きたいな」、「映画を見たいな」などと話し始めることで、近くのプール、遊園地、映画館などの所望地点を検索し経路誘導させることができる。このようにユーザはエージェントとの対話で所望地点の検索と経路誘導を指示できるほか、パワーウインドウの開閉指示、ワイパのオン/オフ、ラジオ/CDのオーディオ出力/停止など車両各部に対する制御指示も行える。例えば、ユーザが「暑いな」(「寒いな」)と話したとき、エージェントは表1に従いカテゴリーが機器制御のウインドウ開である御と分析し、「窓を開ける?」(「窓を閉める?」)と質問し、ユーザが「うん」と回答したあと、エージェント処理部はパワーウインドウを制御しウインドウを開け(閉め)させる。また、「雨だな」(「止んだな」)と話すとエージェントは「ワイパをオンする?」(「ワイパを止める?」)と質問し、「うん」と回答すると、エージェント処理部はワイパを制御してワイパを稼働(停止)させる。また、「暗くなってきたな」(「明るくなってきたな」)と話すとエージェントは「ライトを点ける?」(「ライトを消す?」)と質問し、「うん」と回答すると、エージェント処理部はヘッドライトを制御してライトを点灯(消灯)させる。
また、「ラジオが聞きたいな」(「ラジオを止めたい」)とに話すとエージェントは「ラジオを点ける?」(ラジオを止める?」)と質問し、ユーザが「うん」と返事すると、エージェント処理部はオーディオ部を制御してラジオ放送を出力させる(ラジオを止めさせる)。また、「CDが聞きたいな」(「CDを止めたい」)とに話すとエージェントは「CDを再生する?」(CDを止める?」)と質問し、ユーザが「うん」と返事すると、エージェント処理部はオーディオ部を制御してCDを再生させる(CDの再生を止めさせる)。
In the same way, search for a desired location such as a nearby pool, amusement park, or movie theater by starting to say "I want to go to the pool", "I want to go to the amusement park", "I want to watch a movie", etc. Can be guided. In this way, the user can instruct to search for a desired point and guide the route through dialogue with the agent, and can also instruct control of each part of the vehicle, such as power window opening / closing instruction, wiper on / off, radio / CD audio output / stop, etc. . For example, when the user speaks “hot” (“cold”), the agent analyzes that the category is “device control window open” according to Table 1, and asks “Open window?” (“Close window? ")" And the user answers "Yes", the agent processing unit controls the power window to open (close) the window. Also, if you say "It's raining"("It'sstopped"), the agent will ask "Why do you want to turn on the wiper?"("Do you want to stop the wiper?"), And if you answer "Yes", the agent processing unit To control the wiper to operate (stop). Also, when you say “I ’m getting dark” (“I ’m getting brighter”), the agent asks, “Turn on the light?” (“Turn off the light?”) And answer “Yes”. The processing unit controls the headlight to turn on (turn off) the light.
Also, when you say to “I want to listen to the radio” (“I want to stop the radio”), the agent asks “Do you want to turn on the radio?” (Do you want to stop the radio?), And the user answers “Yes” The agent processing unit controls the audio unit to output a radio broadcast (stops the radio). Also, when you say “I want to listen to the CD” (“I want to stop the CD”), the agent asks, “Do you want to play the CD?” (Stop the CD?), And the user answers “Yes”. The agent processing unit controls the audio unit to play the CD (stops playing the CD).

ところで、従来のエージェント機能付車載用ナビゲーション装置におけるエージェントは社交性、協調性等の性格の異なる複数種のタイプの中からユーザが最初に設定したタイプから変更できないため、長期にわたり使用するとエンターテイメント性が欠ける欠点があった。   By the way, since the agent in the conventional vehicle-mounted navigation device with an agent function cannot be changed from the type initially set by the user from among a plurality of types having different personalities such as sociality, cooperation, etc., it has entertainment characteristics when used for a long time. There was a lack of defects.

特開平11−259271号公報JP 11-259271 A 特開2002−213986号公報JP 2002-213986 A

本発明は上記した従来技術の問題に鑑み、エンターテイメント性が持続するエージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法を提供することを、その目的とする。   The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to provide an agent device, an in-vehicle navigation device with an agent function, and an agent output method that maintain entertainment properties.

請求1の発明は、現在地または目的地の場所の情報を含む現在の状況情報を取得する状況情報取得部と、場所を含む状況別に対応させてジャンル毎に1または複数のユーザの性格判断用の質問文を予め記憶した記憶部と、前記記憶部から前記状況情報取得部で取得された現在の状況に対応する質問文を選択する質問選択部と、前記質問選択部の選択した質問文をユーザに提示する質問提示部と、前記質問提示部により提示された質問文に対する回答をユーザが入力する入力部と、前記入力部による入力からユーザの性格を判断し、ユーザの性格に合わせて複数の性格要素を増減させてエージェントを可変するエージェント処理部と、前記エージェント処理部により可変されたエージェントを音声または画像で出力する出力部と、を備えることを特徴としている。前記記憶部は、前記場所に対して1または複数のジャンルを記憶し、前記質問選択部は、前回の質問文とジャンルの異なる質問文をランダムに選択するようにしても良い。前記状況情報取得部は、現在地または目的地の場所の情報に加えて、季節、時間帯、天候の内1または複数の情報を取得し、前記記憶部は、予め、場所情報に加えて、季節、時間帯、天候の内の1または複数の情報との組み合せに対応する質問文を記憶しておき、前記質問選択部は、前記記憶部から、前記状況情報取得部で取得した現在地または目的地の場所情報と、季節、時間帯、天候の内の1または複数の情報との組み合わせに合致する質問文を選択するようにしても良い。前記エージェント処理部は、前記質問提示部により提示された質問文に対してユーザの回答の有無により、エージェントを可変するようにしても良い。また、前記エージェント処理部は、前記エージェントに対するユーザの指示頻度に応じて、エージェントを可変するようにしても良い。また、音楽ジャンルデータが付属する音楽データを再生して出力するオーディオ部と、を備え、前記ユーザ性格判断部は、オーディオ部により出力された前記音楽データの音楽ジャンルデータ参照してユーザの性格を判するようにしても良い。また、前記エージェント処理部、複数のエージェントの中からユーザが選択したエージェントを初期設定するようにしても良い。また、前記エージェント処理部は、電源がOFFされた後、所定時間経過後に再び電源がONされた場合にエージェントを可変するようにしても良い。 According to the first aspect of the present invention, there is provided a situation information acquisition unit that obtains current situation information including information on the location of the current location or destination, and one or a plurality of user personality judgments for each genre corresponding to the situation including the location. A storage unit that stores a question sentence in advance, a question selection unit that selects a question sentence corresponding to the current situation acquired from the storage unit by the situation information acquisition unit, and a question sentence selected by the question selection unit A question presenting unit presented to the user, an input unit for a user to input an answer to the question sentence presented by the question presenting unit, a user's personality is determined from the input by the input unit, and a plurality of characters are selected according to the user's personality. further comprising an agent processing unit for varying the agent increases or decreases the character element, and an output unit for outputting voice or image variable has been agent by the agent processing unit It is characterized. The storage unit may store one or a plurality of genres for the place, and the question selection unit may randomly select a question sentence having a different genre from the previous question sentence. Said status information acquisition unit, in addition to the current position or the information of the destination location, to get the season, time of day, a 1 or information of the multiple of the weather, the storage unit in advance, in addition to the location information A question sentence corresponding to a combination of one or more information of season, time zone, and weather is stored, and the question selection unit obtains the current location acquired by the situation information acquisition unit from the storage unit. Or you may make it select the question sentence corresponding to the combination of the place information of a destination, and one or more information of a season, a time slot | zone, and the weather . The agent processing unit may vary the agent depending on the presence / absence of a user's answer to the question sentence presented by the question presenting unit . In addition, the agent processing unit may change the agent in accordance with a user instruction frequency for the agent. Also includes an audio unit to output the reproduced music data music genre data is included, the said user personality determination section, the music data music genre data referring to the user's personality of output by the audio unit it may be judged a. Further, the agent processing unit includes an agent selected by the user from among multiple agents may be initialized. Further, the agent processing unit, after the power is O FF, agents may be varied if the re-supply after a predetermined time has elapsed is ON.

請求項9の発明では、現在を検出する現在地検出と、目的地を設定する目的地設定部と、現在地または目的地の場所の情報を含む現在の状況情報を取得する状況情報取得部と、場所を含む状況別に対応させてジャンル毎に1または複数のユーザ性格判別用の質問文を予め記憶した記憶部と、前記記憶部から前記状況情報取得部で取得された現在の状況に対応する質問文を選択する質問選択部と、前記質問選択部で選択された質問文をユーザに提示する質問提示部と、前記質問提示部により提示された質問文に対する回答をユーザが入力する入力部と、前記入力部による入力からユーザの性格を判断し、ユーザの性格に合わせて複数の性格要素を増減させてエージェントを可変するエージェント処理部と、前記エージェント処理部により可変されたエージェントを音声または画像で出力する出力部と、備えることを特徴としている。前記状況情報取得部は、現在地または目的地の場所の情報に加えて、季節、時間帯、天候の内1または複数の情報を取得し、前記記憶部は、予め、場所の情報に加えて、季節、時間帯、天候の内の1または複数の情報との組み合せに対応する質問文を記憶しておき、前記質問選択部は、前記記憶部から、前記状況情報取得部で取得した現在地または目的地の場所情報と、季節、時間帯、天候の内の1または複数の情報との組み合わせに合致する質問文を選択するようにしても良い。
請求項11の発明では、現在地または目的地の場所情報を含む現在の状況情報を取得する状況情報取得ステップと、場所を含む状況別に対応させてジャンル毎に1または複数のユーザ性格判別用の質問文を予め記憶した記憶部から、前記状況情報取得ステップで取得された現在の状況に対応する質問文を選択する質問文選択ステップと、前記質問文選択ステップで選択された質問文をユーザに提示する質問提示ステップと、前記質問提示ステップにより提示された質問文に対する回答をユーザが入力する入力ステップと、前記入力ステップによる入力からユーザの性格を判断し、ユーザの性格に合わせて複数の性格要素を増減させてエージェントを可変するエージェント処理ステツプと、前記エージェント処理ステツプにより可変されたエージェントを音声または画像で出力する出力ステップと、を備えることを特徴としている。
In the invention of claim 9, a current position detection unit for detecting a current location, a destination setting section for setting a destination, a status information acquisition unit that acquires the current status information including the current position or the information of the destination location Corresponding to the current situation acquired from the storage unit by the situation information acquisition unit from the storage unit, which stores in advance one or a plurality of user personality determination question sentences for each genre corresponding to the situation including the location A question selection section for selecting a question sentence, a question presentation section for presenting to the user the question sentence selected by the question selection section, and an input section for the user to input an answer to the question sentence presented by the question presentation section; The agent processing unit that determines the user's personality from the input by the input unit and changes the agent by increasing / decreasing a plurality of personality elements according to the user's personality, and the agent processing unit It is characterized in that it comprises an output unit for outputting a voice or image agents that are. It said status information acquisition unit, in addition to the current position or the information of the destination location, season, acquires 1 or information of the multiple time zones, of weather, the storage unit in advance, the location information In addition, a question sentence corresponding to a combination with one or more information of season, time zone, and weather is stored, and the question selection unit is acquired from the storage unit by the situation information acquisition unit A question sentence that matches the combination of the location information of the current location or the destination and one or more pieces of information of the season, time zone, and weather may be selected .
In the invention of claim 11, the situation information acquisition step for acquiring the current situation information including the location information of the current location or the destination, and one or a plurality of user personality determination questions for each genre corresponding to the situation including the location A question sentence selection step for selecting a question sentence corresponding to the current situation acquired in the situation information acquisition step and a question sentence selected in the question sentence selection step are presented to the user from a storage unit in which sentences are stored in advance. A question presenting step, an input step in which the user inputs an answer to the question sentence presented in the question presenting step, a user's personality is determined from the input in the input step, and a plurality of personality elements are matched to the user's personality The agent processing step for changing the agent by increasing / decreasing the agent and the agent variable by the agent processing step. It is characterized by comprising an output step of outputting a voice or image, the a Ento.

本発明のエージェント装置、エージェント方法では、ユーザがエージェントの質問に答えるなど、エージェントと対話するだけでエージェントの性格が自動的に変わるためユーザは飽きの来ないエンターテイメント性を楽しめる。エージェントの性格はユーザの性格に合致するように可変するため愛着も湧く。ユーザへ性格判別用の質問する場合、現在地または目的地の場所、季節・時間帯、天候など、現在の状況に因んだものとすることで違和感が生じないようにできる。エージェントに対するユーザの指示頻度が一定以上大きいとき、ユーザは支配性が高いと判別したり、ユーザの聴取する音楽のジャンルからユーザの性格を判別するようにした場合、ユーザが特に会話しなくてもエージェントの性格を可変させることができる。また、性格の異なる複数のエージェントの中からユーザが選択したエージェントを初期設定するようにした場合、一層、エンターテイメント性が高まる。電源が一旦OFFされた後、一定時間以上経過したあと再び電源ONされたときに、エージェントの性格を可変することで、短時間での性格変化に驚かないようにすることもできる。 Agent apparatus of the present invention, the agent how, user and answer the agent's questions, a user for just automatically change the nature of the agent to interact with the agent can enjoy the entertainment may not come in tired. Because the personality of the agent can be changed to match the personality of the user, it is also attached. When asking a user a question for personality determination, it is possible to prevent a sense of incongruity from being caused by the current situation such as the current location or destination location, season / time zone, and weather. When the user's instruction frequency to the agent is greater than a certain level, the user is determined to have high dominance, or the user's personality is determined from the music genre that the user listens to. The personality of the agent can be varied. In addition, when an agent selected by a user from among a plurality of agents having different personalities is initialized, the entertainment property is further enhanced. By changing the personality of the agent when the power is turned off and then turned on again after a certain period of time, the personality change in a short time can be avoided.

本発明のエージェント機能付車載用ナビゲーション装置によれば、ユーザがエージェントの質問に答えるなど、エージェントと対話するだけでエージェントの性格が自動的に変わるためユーザは飽きの来ないエンターテイメント性を楽しめる。エージェントの性格はユーザの性格に合致するように可変するため愛着も湧く。ユーザへ性格判別用の質問する場合、目的地または走行中の場所、季節・時間帯、天候など、現在の状況に因んだものとされるので違和感が生じない。   According to the vehicle-mounted navigation device with an agent function of the present invention, the user's personality changes automatically just by interacting with the agent, such as answering the agent's question. Because the personality of the agent can be changed to match the personality of the user, it is also attached. When asking a user a question for personality determination, the user feels uncomfortable because it depends on the current situation, such as the destination or the place where the car is traveling, the season / time zone, and the weather.

エージェント機能付車載用ナビゲーション装置において、プログラム記憶部に、目的地または走行中の場所、季節、時間帯、天候等の状況別に、内容が種々異なるユーザ性格判別用の質問と、エージェントの性格別の容姿・仕草を画像表示するためのアニメーション画像データを用意しておく。また、会話文のテキスト音声合成を行う音声合成部に性格別のイントネーションデータベース群を用意し、社交性、協調性、活動性、情緒性、支配性の5つの性格要素が異なる多種類の性格のエージェントに変更可能としておく。走行中でエージェントが空いた時間に、エージェント処理部は目的地または走行中の場所、季節、時間帯、天候等の状況情報を入手し、画像と音声により現出させたエージェントにより過去の質問と重ならず、状況に応じた違和感の無いユーザ性格判別用の質問をさせ、ユーザの回答結果からユーザの性格を判別し、ユーザの性格に合わせてエージェントの性格を可変させる。イントネーションユーザ性格判別用の質問は走行中で、エージェント処理部が前後に通常のエージェント処理をしない空いた時間を選んでなされるので、運転中のエンターテイメント性が高まる。エージェントの性格の可変は、ACC電源が一旦OFFされたあと再びONされたときとされる。   In the vehicle-mounted navigation device with agent function, the program storage unit stores a question for determining the user personality with different contents according to the destination or the location where the vehicle is running, the season, the time zone, the weather, etc. Prepare animation image data to display the appearance and gesture. In addition, a personalized intonation database group is prepared in the speech synthesizer that performs text-to-speech synthesis of conversational sentences, and there are many types of personalities with different five personality elements: social, cooperative, active, emotional, and dominant. It can be changed to an agent. At the time when the agent is vacant while traveling, the agent processing unit obtains status information such as destination or traveling location, season, time zone, weather, etc. A question for discriminating the user personality according to the situation is made without overlapping, the personality of the user is discriminated from the answer result of the user, and the personality of the agent is varied according to the personality of the user. The question for determining the intonation user personality is running, and the agent processing unit selects an empty time before and after the normal agent processing, so that entertainment characteristics during driving are enhanced. The character of the agent is changed when the ACC power is turned off and then turned on again.

図1は本発明の一つの実施例に係るエージェント機能付車載用ナビゲーション装置の構成を示すブロック図である。
1は表示装置であり、現在地周辺の地図画像、経路誘導用の交差点進路案内画像、エージェント画像などを表示する。2はアンプ、3はスピーカであり、経路誘導用の交差点進路案内音声、音楽、エージェント音声などを音響出力する。4は衛星航法により現在位置と現在方位を検出するGPS受信機、5は地図描画用の地図データ、経路探索用の道路データ、ガソリンスタンド、コンビニエンスストア、レストラン、映画館、遊園地、プール、競技場、海水浴場、病院、温泉旅館、史跡等の多種類の案内地点の種別、名称、位置、住所、電話番号等の案内地点データを記録したハードディスク等の大容量記憶装置である。6はナビゲーション部であり、地図データを用いて現在位置周辺の画像を描画し、表示装置に表示させたり、走行軌跡を記録したりする。ナビゲーション部6は後述するエージェント部の指令に従い、地点検索、経路探索、経路誘導なども行う。このナビゲーション部6の構成を図2に示す。図2の内、7は表示装置1の1画面分の地図画像を記憶可能な画像記憶部、8は地図データを用いて現在地周辺の地図画像を画像記憶部に描画する地図描画部、9は合成部であり、地図画像の上に後述する経路探索・経路誘導部の描画した交差点誘導進路案内画像または/及び後述するエージェント部で描画されたエージェント画像を合成し、映像信号に変換して表示装置1へ出力する。10はイグニッションスイッチがオンされてからオフされるまでを1回分の走行として、各走行毎に走行軌跡データ(現在位置の時系列変化)を大容量記憶装置5に追加して記録する走行軌跡記録部である。
FIG. 1 is a block diagram showing a configuration of an in-vehicle navigation device with an agent function according to one embodiment of the present invention.
Reference numeral 1 denotes a display device that displays a map image around the current location, an intersection route guidance image for route guidance, an agent image, and the like. Reference numeral 2 denotes an amplifier, and reference numeral 3 denotes a speaker, which acoustically outputs an intersection route guidance voice, music, agent voice and the like for route guidance. 4 is a GPS receiver that detects the current position and current direction by satellite navigation, 5 is map data for map drawing, road data for route search, gas station, convenience store, restaurant, movie theater, amusement park, pool, competition It is a large-capacity storage device such as a hard disk in which guide point data such as type, name, position, address, and telephone number of various types of guide points such as a beach, a beach, a hospital, a hot spring inn, and a historic site are recorded. Reference numeral 6 denotes a navigation unit which draws an image around the current position using map data and displays the image on a display device or records a travel locus. The navigation unit 6 also performs point search, route search, route guidance, and the like in accordance with instructions from the agent unit described later. The configuration of the navigation unit 6 is shown in FIG. In FIG. 2, 7 is an image storage unit capable of storing a map image of one screen of the display device 1, 8 is a map drawing unit for drawing a map image around the current location in the image storage unit using map data, and 9 is A synthesis unit that synthesizes an intersection guidance route guidance image drawn by a route search / route guidance unit described later on the map image and / or an agent image drawn by an agent unit described later, and converts the image into a video signal for display. Output to device 1. 10 is a travel locus recording in which the travel locus data (time-series change of the current position) is added to the large capacity storage device 5 and recorded for each run from the time when the ignition switch is turned on until it is turned off. Part.

11は案内地点の検索指令を受けると案内地点データを参照して現在地に近い所望種別の案内地点を検索する地点検索部、12は経路探索・経路誘導部であり、道路データを参照して現在地を出発地として所望の目的地までを結ぶ最適な経路を探索し、該最適経路上で進路変更を伴う経由地交差点が出発地側から順にn個存在するとき、最適経路を構成する出発地の位置、第1経由地交差点の位置と交差点形状と誘導進路、第2経由地交差点の位置と交差点形状と誘導進路、・・、第n経由地交差点の位置と交差点形状と誘導進路、目的地の位置を順に並べた誘導経路データを誘導経路記憶部13に記憶させ、経路誘導データの中で現在地から見て目的地寄りにある次に進路変更すべき経由地交差点を案内対象交差点として決定するとともに、現在地−案内対象交差点間の距離を計算し、案内対象交差点が現在地から1km以内に入ると、案内対象交差点の拡大画像に誘導進路を示す矢印と現在地−交差点間距離を重ねて交差点進路案内画像記憶部14に描画する。交差点進路案内画像記憶部14の記憶領域の大きさは縦×横が画像記憶部7の半分ずつの大きさである。経路探索・経路誘導部12は案内対象交差点の誘導進路と現在地−案内対象交差点間の距離を後述するエージェント処理部へ出力する。15は走行監視部であり、経路探索・経路誘導部12で決定した案内対象交差点付近での誘導経路と車両の実際の走行ルートとを比較し、一致しなかった場合に後述するエージェント部へルート外れ警告指令を出力するとともに警告した日時を大容量記憶装置5に追加して記憶し、更に再探索指令を与えて経路探索・経路誘導部12にその時の現在地から所望の目的地までを最短で結ぶ新たな最適経路を再探索させる。   11 is a point search unit for searching for a desired type of guide point close to the current location with reference to the guide point data upon receiving a guide point search command, and 12 is a route search / route guidance unit. Is searched for the optimal route connecting to the desired destination, and when there are n waypoint intersections in the order from the departure point side on the optimum route, the route of the departure point constituting the optimum route is determined. Location, first waypoint intersection position and intersection shape and guidance route, second waypoint intersection location and intersection shape and guidance route, ..., nth waypoint intersection location, intersection shape and guidance route, destination The guide route data in which the positions are arranged in order is stored in the guide route storage unit 13, and in the route guide data, a route point intersection that is closer to the destination when viewed from the current location and should be changed next is determined as a guidance target intersection. The distance between the current location and the guidance target intersection is calculated, and when the guidance target intersection is within 1 km from the current location, an arrow indicating the guidance route and the distance between the current location and the intersection are superimposed on the enlarged image of the guidance target intersection, and the intersection route guidance image is stored. Draw in part 14. The size of the storage area of the intersection route guidance image storage unit 14 is half the size of the image storage unit 7 in the vertical and horizontal directions. The route search / route guidance unit 12 outputs the guidance route of the guidance target intersection and the distance between the current location and the guidance target intersection to the agent processing unit described later. Reference numeral 15 denotes a travel monitoring unit that compares the guidance route near the guidance target intersection determined by the route search / route guidance unit 12 with the actual travel route of the vehicle. Outputs a warning warning command and stores the date and time of warning in the mass storage device 5, and further gives a re-search command to the route search / route guidance unit 12 from the current location to the desired destination in the shortest time. Re-search for a new optimal route to connect.

図1に戻って16はACCスイッチとイグニッションスイッチのオン・オフ、車速などを検出する検出部、17はラジオ/CDのオーディオ部、18は加算器、19はパワーウインドウ、20はワイパ、21はヘッドライトである。   Returning to FIG. 1, 16 is a detector for detecting on / off of the ACC switch and the ignition switch, vehicle speed, 17 is a radio / CD audio unit, 18 is an adder, 19 is a power window, 20 is a wiper, 21 is It is a headlight.

22はユーザが音声入力するマイク、23はエージェント部であり、表示装置1とスピーカ3を用いて、ユーザと対話する擬人化したエージェントを音声と画像で現出させ、ユーザの指示を認識してナビゲーション部に対する各種指令や車両各部に対する各種制御をしたり、経路誘導モード中に案内対象交差点の誘導進路を音声案内したりする。この実施例ではエージェント部23はユーザと対話しながらユーザの性格を判別し、判別したユーザの性格に合わせてエージェントの性格と容姿が可変するようになっている。このエージェント部23は図3に示す如く構成されている。この内、24はマイク入力された音声から単語を認識する音声認識部、25は自然言語解析部であり、音声認識された単語の内、名詞、動詞、形容詞等の主要品詞を抽出する。26は社交性S、協調性C、活動性A、情緒性M、支配性Oの5つの性格要素が異なる多種類の性格のエージェントの容姿、仕草を映像で表現するために必要なアニメーション画像データを記憶したエージェントデータ記憶部である。各性格要素の度合いdを0〜8まで9段階に分け(0が一番弱く8が一番強い)、社交性Sをsa(d=0〜2)、sb(d=3〜5)、sc(d=6〜8)の3群、協調性Cをca(d=0〜2)、cb(d=3〜5)、cc(d=6〜8)の3群、活動性Aをaa(d=0〜2)、ab(d=3〜5)、ac(d=6〜8)の3群、情緒性Mをma(d=0〜2)、mb(d=3〜5)、mc(d=6〜8)の3群、支配性Oをoa(d=0〜2)、ob(d=3〜5)、oc(d=6〜8)の3群に分けたときの性格要素の組合せ毎に性格の異なる35 種類のエージェントAg{si,cj,ak,mx,oy}(但し、i,j,k,x,yは各々a,b,cの中の任意の1つ)の各々について、個別にアニメーション画像データが記憶されている。エージェントの性格は要素の組合せ{sd,cd,ad,md,od}={s4,c4,a4,m4,o4}が標準的な性格である。 Reference numeral 22 denotes a microphone for voice input by the user, and 23 denotes an agent unit. The display device 1 and the speaker 3 are used to display an anthropomorphic agent interacting with the user by voice and image, and recognize the user's instruction. Various commands for the navigation unit and various controls for each part of the vehicle are performed, and the guidance route of the guidance target intersection is voice-guided during the route guidance mode. In this embodiment, the agent unit 23 discriminates the personality of the user while interacting with the user, and the personality and appearance of the agent are varied in accordance with the determined personality of the user. The agent unit 23 is configured as shown in FIG. Of these, 24 is a speech recognition unit for recognizing a word from speech input by a microphone, and 25 is a natural language analysis unit for extracting main parts of speech such as nouns, verbs, and adjectives among the speech-recognized words. 26 is animation image data necessary to express the appearance and gesture of agents of various kinds of personalities with different personality S, sociality S, cooperation C, activity A, emotional M, and dominance O. Is an agent data storage unit that stores The degree d of each personality element is divided into 9 levels from 0 to 8 (0 is the weakest and 8 is the strongest), and the sociality S is sa (d = 0-2), sb (d = 3-5), sc (d = 6-8), 3 groups, coordination C is ca (d = 0-2), cb (d = 3-5), cc (d = 6-8), 3 groups, activity A Three groups of aa (d = 0-2), ab (d = 3-5), ac (d = 6-8), emotional M is represented by ma (d = 0-2), mb (d = 3-5) ), Mc (d = 6-8), the dominant O was divided into three groups: oa (d = 0-2), ob (d = 3-5), oc (d = 6-8) agent Ag combination 35 kinds of different character for each character element of the time {si, cj, ak, mx , oy} ( where, i, j, k, x , y are each a, b, in the c For each of (any one), animation image data is recorded individually. It is. The personality of the agent is a standard personality of a combination of elements {sd, cd, ad, md, od} = {s4, c4, a4, m4, o4}.

27はエージェント処理部であり、プログラム記憶部28に予め記憶された通常のエージェント処理プログラムに従い、プログラム記憶部28に予め記憶された通常の会話文群を用いて、ユーザと対話する擬人化したエージェントを画像と音声で現出させ、ユーザ所望の指示を分析するとともに(分析には表1の如き単語別カテゴリ分類表を参照する)、ナビゲーション部6にユーザ所望地点の検索指令、経路探索指令、経路誘導指令等の各種指令を与えたり、ナビゲーション部6から所望地点の検索結果、経路誘導用の案内対象交差点誘導進路情報等の各種データを取得したり、検出部16から各種検出データを入力したり、オーディオ部17、パワーウインドウ19、ワイパ20、ヘッドライト21に対し各種制御をしたりする(通常のエージェント処理)。また、エージェント処理部27はプログラム記憶部28に記憶されたエージェント性格可変処理プログラムに従い、プログラム記憶部28に予め記憶されたエージェント性格可変処理用会話文群(ユーザ判別用質問群を含む)を用いて、所定の空き時間にユーザの性格判別用の対話を行ってユーザの性格を判別するとともにユーザの性格に合ったエージェントの性格を決定し、画像と音声で現出するエージェントの種類を変更させる(エージェント性格可変処理)。なお、ここでは、通常のエージェント処理とエージェント性格可変処理で用いる会話文はどのエージェントでも共通に使用するものとするが、同じ意味を表す会話文をエージェントの性格毎に用意しても良い。
29はエージェント処理部27により描画されるエージェント画像を記憶するエージェント画像記憶部、30はエージェント処理部27から入力したエージェントの会話文をテキスト音声合成方式により音声合成する音声合成部であり、テキストの解析、エージェントの性格に合わせたイントネーションの設定、音声素片の選択・接続をして音声合成を行う。具体的には、単語辞書301と文法辞書302を用いて会話文の単語を同定した後、読み・アクセントを決定し、次にエージェントの性格別に用意されたイントネーションデータベース群303を用いて読みと構文を参考にして会話文に対しエージェントの性格に合うようにイントネーションやポーズの挿入位置を設定し、多種類の音声素片データ(音声波形データ)を記憶した音声データベース304の中からイントネーションや読みに対して適切な音声素片を検索・接続し、音声合成を行うことで、種々の性格の話し方を現出できるようになっている。31は日時の計時を行うタイマ、32は外部の情報センタと無線で接続されて渋滞、通行止め等の道路交通情報、天候情報等を受信する情報受信部である。
An agent processing unit 27 is an anthropomorphic agent that interacts with a user using a normal conversation sentence group stored in advance in the program storage unit 28 in accordance with a normal agent processing program stored in the program storage unit 28 in advance. Are displayed with images and voices, and the user's desired instructions are analyzed (refer to the word category classification table as shown in Table 1 for the analysis), and the user's desired point search command, route search command, Various commands such as a route guidance command are given, various data such as a search result of a desired point and guidance target intersection guidance route information for route guidance are obtained from the navigation unit 6, and various detection data are input from the detection unit 16. Various controls on the audio unit 17, the power window 19, the wiper 20, and the headlight 21 (normal Jento processing). Further, the agent processing unit 27 uses the agent personality variable processing conversation sentence group (including the user discrimination question group) stored in advance in the program storage unit 28 according to the agent personality variable processing program stored in the program storage unit 28. The user's personality determination dialog is performed during a predetermined idle time to determine the user's personality, determine the personality of the agent that matches the user's personality, and change the type of agent that appears in the image and sound. (Agent personality variable processing). Here, the conversation sentence used in the normal agent process and the agent personality variable process is commonly used in any agent, but a conversation sentence having the same meaning may be prepared for each agent character.
29 is an agent image storage unit that stores an agent image drawn by the agent processing unit 27, and 30 is a speech synthesis unit that synthesizes speech of the agent's conversation text input from the agent processing unit 27 by a text speech synthesis method. Perform speech synthesis by analyzing, setting intonation according to the personality of the agent, and selecting and connecting speech segments. Specifically, after identifying words of a conversation sentence using the word dictionary 301 and the grammar dictionary 302, reading / accent is determined, and then reading and syntax using the intonation database group 303 prepared for each agent's personality. The intonation and pause insertion positions are set to match the personality of the agent with reference to the conversation sentence, and intonation and reading are performed from the speech database 304 that stores various types of speech segment data (speech waveform data). On the other hand, by searching and connecting appropriate speech segments and performing speech synthesis, various ways of speaking can be revealed. 31 is a timer for measuring the date and time, and 32 is an information receiving unit that is wirelessly connected to an external information center and receives road traffic information such as traffic jams and traffic closures, weather information, and the like.

図4乃至図6はプログラム記憶部28に記憶された場所、ジャンル、季節、時間帯、天候の組合せ別の種々のユーザ性格判別用質問文と回答結果に対応するユーザの性格特徴及び回答結果から可変するエージェントの性格要素と可変段階数の関係の一例を示す説明図、図7はエージェント処理部27が実行する通常のエージェント処理を示すフローチャート、図8と図9はエージェント処理部27が実行するエージェント性格可変処理を示すフローチャートであり、以下、これらの図を参照して図1に示す車載用ナビゲーション装置の動作を説明する。図4乃至図6中の「不」は不問の意味である。
なお、予め、経路誘導モードはオフしているものとし、大容量記憶装置5には前回の走行までk回分の走行軌跡データが記憶されているものとする。また、エージェント処理部27では最初、現在エージェント性格データAG=次エージェント性格データAG´=A{s4,c4,a4,m4,o4}が設定されているものとする。また、通常のエージェント処理とエージェント性格可変処理は平行処理されるものとする。
ユーザが運転を開始するためイグニッションキーを回してまずACCスイッチをオンすると車載用ナビゲーション装置の電源がオンし、更にイグニッションスイッチをオンしてエンジンを始動すると、検出部16からACCスイッチON信号とイグニッションスイッチON信号がナビゲーション部6、エージェント処理部27に出力される。
4 to 6 show various user personality determination questions for each combination of location, genre, season, time zone, and weather stored in the program storage unit 28 and user personality characteristics and answer results corresponding to the answer results. FIG. 7 is a flowchart showing a normal agent process executed by the agent processing unit 27, and FIGS. 8 and 9 are executed by the agent processing unit 27. FIG. It is a flowchart which shows an agent character variable process, Hereinafter, operation | movement of the vehicle-mounted navigation apparatus shown in FIG. 1 is demonstrated with reference to these figures. “No” in FIGS. 4 to 6 means unquestioned.
In addition, it is assumed that the route guidance mode is turned off in advance and the large-capacity storage device 5 is assumed to store travel locus data for k times until the previous travel. In the agent processing unit 27, it is assumed that the current agent personality data AG = next agent personality data AG ′ = A {s4, c4, a4, m4, o4} is initially set. Further, it is assumed that normal agent processing and agent character variable processing are performed in parallel.
When the user turns on the ignition key to start operation, the ACC switch is first turned on to turn on the power of the vehicle-mounted navigation device. Further, when the ignition switch is turned on and the engine is started, the detection unit 16 outputs the ACC switch ON signal and the ignition. A switch ON signal is output to the navigation unit 6 and the agent processing unit 27.

電源オンでナビゲーション部6はナビゲーションモードとなり、GPS受信機4が定期的に車両の現在位置と現在方位を検出する。現在位置または車両方位が変化する度に、地図描画部8は地図データを用いて現在位置を中心とする車両進行方向を上向きとした所定の縮尺の地図画像を画像記憶部7に描画する。画像記憶部7の地図画像は合成部9により読み出され、映像信号に変換されて表示装置1へ出力され画面表示される。一方、走行軌跡記録部10はイグニッションスイッチON信号が入力されると、以降、OFF信号が入力されるまでの間にGPS受信機4から出力される現在位置データ列を1回分の走行の走行軌跡データとして大容量記憶装置5に追加する。   When the power is turned on, the navigation unit 6 enters the navigation mode, and the GPS receiver 4 periodically detects the current position and current direction of the vehicle. Each time the current position or the vehicle orientation changes, the map drawing unit 8 draws a map image of a predetermined scale in the image storage unit 7 with the vehicle traveling direction centered on the current position upward using the map data. The map image in the image storage unit 7 is read out by the synthesizing unit 9, converted into a video signal, output to the display device 1, and displayed on the screen. On the other hand, when the ignition switch ON signal is input, the travel locus recording unit 10 uses the current position data string output from the GPS receiver 4 until the OFF signal is input thereafter as the travel locus of one run. The data is added to the mass storage device 5 as data.

<通常のエージェント処理>
(1)地点探索・経路探索・経路誘導
ユーザが例えば「お腹が空いた」とマイク22に話すと、音声認識部24で「お腹」、「が」、「空いた」と単語に分解して認識され、自然言語解析部25で名詞、動詞等の主要品詞の単語が抽出され、品詞名付きでエージェント処理部27に入力される。エージェント処理部27は図7に示す通常のエージェント処理プログラムに従い、自然言語解析部25からの入力からユーザの会話のカテゴリーが「食事」であると分析し(ステップS10〜S12)、食事場所への地点検索への誘導会話フローに移行する。エージェントデータ記憶部26の内、現在エージェントAGに対応する標準的な性格のエージェントAg{sb,cb,ab,mb,ob}のエージェントデータを用い、エージェント画像(動画またはスライド画像)をエージェント画像記憶部29に描画し、ナビゲーション部6の合成部9に合成指令を与えて地図画像の上に標準的な性格・容姿のエージェント画像を重ねながら映像信号に変換させ画面表示させるとともに、「食事に行く?」との会話文データを標準的な性格のエージェントAg{sb,cb,ab,mb,ob}の音声出力指令とともに音声合成部30へ出力する。音声合成部30は単語辞書301と文法辞書302を用いて会話文の単語を同定した後、読み・アクセントを決定し、次に標準的な性格のエージェントAg{sb,cb,ab,mb,ob}に対応するイントネーションデータベースを用いて読みと構文を参考にして会話文に対し標準的な性格に合うようにイントネーションやポーズの挿入位置を設定し、音声データベース304の中からイントネーションや読みに対して適切な音声素片を検索・接続し、音声合成を行うことで標準的な性格の音声による音声信号を加算器18を介しアンプ2へ出力し、スピーカ3から音響再生させる。以降、次にエージェントの性格が変更されるまでエージェントは標準的な性格に維持される。ユーザが「はい」と返事すると、エージェント処理部27で肯定と解析し、エージェント処理部27はエージェントに「何がいい?」と質問させ、ユーザが「お寿司」と返事すると、エージェント処理部27は「お寿司」を希望食と決定する。そして、エージェント処理部27はエージェントに「お寿司屋を探す?」と質問させ、ユーザが「うん」と返事すると、ナビゲーション部6の地点検索部11に現在地近くのお寿司屋の検索を指令する。該指令を受けた地点検索部11はGPS受信機4から現在地を入力し、大容量記憶装置5の案内地点情報を参照して現在地に一番近いお寿司屋を検索し、エージェント処理部27に店名、住所、種別を伝え、エージェント処理部27はエージェントに「○○屋、××区△丁目○番があるけど、どう?」と質問させる。ユーザが「いいよ」と返事すると、エージェント処理部27は肯定と解析し、続いて、エージェント処理部27はエージェントに「経路誘導する?」と質問させ、ユーザが「うん」と返事すると、エージェント処理部27は肯定と解析し、経路探索・経路誘導部12に現在地から今回検索したお寿司屋までの経路探索・経路誘導を指令する。このようにして一連の対話が終るとエージェント処理部27はエージェントの画像と音声による現出を止める(ステップS13)。
<Normal agent processing>
(1) Point search / route search / route guidance For example, when the user speaks to the microphone 22 that he / she is hungry, the voice recognition unit 24 breaks it down into words “hungry”, “ga”, and “hungry”. Recognized, the natural language analyzing unit 25 extracts main part of speech words such as nouns and verbs, and inputs them to the agent processing unit 27 with part of speech names. The agent processing unit 27 analyzes that the category of the user's conversation is “meal” from the input from the natural language analysis unit 25 in accordance with the normal agent processing program shown in FIG. 7 (steps S10 to S12). Move to the guided conversation flow for point search. The agent image (moving image or slide image) is stored in the agent image using agent data of the agent Ag {sb, cb, ab, mb, ob} having a standard character corresponding to the agent AG in the agent data storage unit 26. Drawing on the unit 29, giving a compositing command to the synthesizing unit 9 of the navigation unit 6 and converting the agent image of the standard character / appearance on the map image, converting it into a video signal and displaying it on the screen, ? "Is output to the speech synthesizer 30 together with the speech output command of the agent Ag {sb, cb, ab, mb, ob} having a standard personality. The speech synthesizer 30 identifies the words of the conversation sentence using the word dictionary 301 and the grammar dictionary 302, determines the reading / accent, and then the agent Ag {sb, cb, ab, mb, ob of standard character. } Using the intonation database corresponding to}, the insertion position of intonation and pose is set so as to match the standard character of the conversation sentence with reference to the reading and syntax, and the intonation and reading from the voice database 304 are set. By searching for and connecting appropriate speech segments and performing speech synthesis, a speech signal based on speech of a standard character is output to the amplifier 2 via the adder 18 and is reproduced from the speaker 3. Thereafter, the agent is maintained in the standard character until the next time the agent's character is changed. When the user answers “yes”, the agent processing unit 27 analyzes that the answer is affirmative. The agent processing unit 27 causes the agent to ask “What is good?”, And when the user answers “sushi”, the agent processing unit 27 Decides "Sushi" as the desired food. Then, the agent processing unit 27 asks the agent to “Search for a sushi restaurant?” And when the user answers “Yes”, the point search unit 11 of the navigation unit 6 is instructed to search for a sushi restaurant near the current location. . Upon receiving the command, the point search unit 11 inputs the current location from the GPS receiver 4, refers to the guide point information in the mass storage device 5, searches for the sushi restaurant closest to the current location, and sends it to the agent processing unit 27. The store name, address, and type are communicated, and the agent processing unit 27 asks the agent to ask, “What is XX shop, XX ku △ chome ○ number? When the user replies “OK”, the agent processing unit 27 analyzes positive, and then the agent processing unit 27 causes the agent to ask “Do you want to guide the route?”, And when the user replies “Yes”, the agent The processing unit 27 analyzes affirmative and instructs the route search / route guidance unit 12 to perform route search / route guidance from the current location to the sushi restaurant searched this time. When a series of conversations is completed in this way, the agent processing unit 27 stops the appearance of the agent image and sound (step S13).

経路探索・経路誘導の指令を受けた経路探索・経路誘導部12は大容量記憶装置5の道路データを用いて現在地から○○屋までを最短で結ぶ経路探索を行い、探索した経路誘導データを誘導経路記憶部13に記憶させたあと、経路誘導モードをオンし、現在地から目的地まで経路誘導を行う。なお、経路誘導モードは車両が目的地に達するか、ユーザが経路誘導の中止を指示したときオフする。経路誘導モードオン時、経路探索・経路誘導部12は地図描画部8に誘導経路の描画を指示し、地図描画部8は画像記憶部7に現在地マーク付の地図画像を描画する際、誘導経路記憶部13に記憶された誘導経路データを用いて地図画像上に重ねて誘導経路を赤等の強調した配色で描画したあと、中心に現在地マークを描画する。一方、経路探索・経路誘導部12は経路誘導データの中で現在地から見て目的地寄りにある次に進路変更すべき経由地交差点を案内対象交差点として決定するとともに、現在地−案内対象交差点間の距離を計算し、案内対象交差点に1km以内に近づくと案内対象交差点の拡大画像に誘導進路を示す矢印と現在地−交差点間距離を重ねた交差点進路案内画像を交差点進路案内画像記憶部14に描画し、合成部9に合成指令を与えて地図画像の上に交差点進路案内画像を重ねながら映像信号に変換して表示装置1へ出力させ、現在地を中心とする地図画像の上に交差点進路案内画像を重ねて表示させる。経路探索・経路誘導部12は現在地−交差点間距離が変化すると交差点進路案内画像中の現在地−交差点間距離も変化させる。また、経路探索・経路誘導部12は次に進路変更すべき経由地交差点を案内対象交差点として決定すると、エージェント処理部27に現在地−案内対象交差点間の距離と誘導進路を伝え、エージェント処理部27は現在地−案内対象交差点間の距離が700m、500m、300mに成った各時点で標準的な性格のエージェントの音声により「700m先交差点右折です」、「500m先交差点右折です」、「300m先交差点右折です」の音声案内をさせる(ステップS14、S15)。このようにして、音声と画像により経路誘導が行われることで、ユーザは所望のお寿司屋に迅速に到達できる。   In response to the route search / route guidance command, the route search / route guidance unit 12 uses the road data stored in the mass storage device 5 to perform a route search from the current location to XX shop in the shortest time. After being stored in the guide route storage unit 13, the route guide mode is turned on to guide the route from the current location to the destination. The route guidance mode is turned off when the vehicle reaches the destination or the user instructs to stop route guidance. When the route guidance mode is on, the route search / route guidance unit 12 instructs the map drawing unit 8 to draw a guidance route, and when the map drawing unit 8 draws a map image with a current location mark in the image storage unit 7, the guidance route is displayed. The guidance route data stored in the storage unit 13 is superimposed on the map image to draw the guidance route with an emphasized color scheme such as red, and then the current location mark is drawn at the center. On the other hand, the route search / route guidance unit 12 determines, as a guidance target intersection, a route point intersection in the route guidance data that is closer to the destination when viewed from the current location and should be changed to the next route, and between the current location and the guidance target intersection. The distance is calculated, and when approaching the guidance target intersection within 1 km, an intersection route guidance image in which an arrow indicating the guidance route and the distance between the current location and the intersection are superimposed on the enlarged image of the guidance target intersection is drawn in the intersection route guidance image storage unit 14. Then, a synthesis command is given to the synthesis unit 9 to convert the video image signal to the display device 1 while superimposing the intersection route guidance image on the map image, and to output it to the display device 1, and to display the intersection route guidance image on the map image centered on the current location. Overlapping display. The route search / route guidance unit 12 also changes the distance between the current location and the intersection in the intersection route guidance image when the current location-intersection distance changes. Further, when the route search / route guidance unit 12 determines the next waypoint to change course as the guidance target intersection, the route search / route guidance unit 12 notifies the agent processing unit 27 of the distance between the current location and the guidance target intersection and the guidance route, and the agent processing unit 27. Is at the 700m, 500m, and 300m distances between the current location and the guidance target intersection, and the voice of the agent of standard character is "700m ahead intersection right turn", "500m ahead intersection right turn", "300m ahead intersection Make a right turn "voice guidance (steps S14 and S15). In this way, the route guidance is performed by the sound and the image, so that the user can quickly reach the desired sushi restaurant.

なお、経路誘導モードで走行中に交差点進路案内画像が表示されると、走行監視部15は案内対象交差点での誘導進路と車両の実際の走行ルートとを比較し、一致しなかった場合にエージェント処理部27へルート外れ警告指令を出力するとともに警告した日時を大容量記憶装置5に追加して記憶し、再探索指令を経路探索・経路誘導部12に与える。ルート外れ警告指令を受けたエージェント処理部27はエージェントに音声により「ルートを外れたよ」との警告をさせる(ステップS16、S17)。再探索指令を受けた経路探索・経路誘導部12はその時点の現在地から○○屋までを最短で結ぶ経路探索を行い、探索した新たな経路誘導データで誘導経路記憶部13を書き換えて以降、新たな経路誘導データに基づき経路誘導を行う。   When the intersection route guidance image is displayed during traveling in the route guidance mode, the traveling monitoring unit 15 compares the guidance route at the intersection to be guided and the actual traveling route of the vehicle. An out-of-route warning command is output to the processing unit 27, and the date and time when the warning is issued is added and stored in the mass storage device 5, and a re-search command is given to the route search / route guidance unit 12. The agent processing unit 27 that has received the off-route warning command causes the agent to warn that the route has been off by voice (steps S16 and S17). The route search / route guidance unit 12 that has received the re-search command performs a route search that connects the current location from the current location to the shop in the shortest time, and rewrites the guidance route storage unit 13 with the new route guidance data that has been searched. Route guidance is performed based on the new route guidance data.

(2)窓の開閉
ユーザが例えば「暑いな」(「寒いな」)とマイク22に話すと、音声認識部24で「暑い」、「な」(「寒い」、「な」)と単語に分解して認識され、自然言語解析部25で名詞、動詞、形容詞、形容動詞等の主要品詞の単語が抽出され、品詞名付きでエージェント処理部27に入力される。エージェント処理部27は通常のエージェント処理プログラムに従い、自然言語解析部25からの入力を表1の単語別カテゴリ分類表と照合して今回の会話分のカテゴリーが機器制御の内の「ウインドウ開(ウインドウ閉)」であると分析し、ウインドウ制御への誘導会話フローに移行する。エージェントデータ記憶部26の内、現在エージェントAGに対応するAg{sb,cb,ab,mb,ob}のエージェントデータを用い、画像と音声で標準的なエージェントを現出させて「窓を開ける?」(窓を閉める?」)と質問させ、ユーザが「うん」と返事すると、エージェント処理部27は肯定と解析し、パワーウインドウ19を制御して窓を閉めさせる(開けさせる)処理をする(ステップS10〜S12、S18)。
(3)ヘッドライトのオン/オフ
ユーザが例えば「暗いな」(「明るいな」)とマイク22に話すと、音声認識部24で「暗い」、「な」(「明るい」、「な」)と単語に分解して認識され、自然言語解析部25で名詞、動詞、形容詞、形容動詞等の主要品詞の単語が抽出され、品詞名付きでエージェント処理部27に入力される。エージェント処理部27は自然言語解析部25からの入力からカテゴリーが「ライトオン(ライトオフ)」であると分析し、ライト制御への誘導会話フローに移行する。画像と音声で標準的な性格のエージェントを現出させて「ヘッドライトを点ける?」(ヘッドライトを消す?」)と質問させ、ユーザが「うん」と返事すると、エージェント処理部27は肯定と解析し、ヘッドライト21を制御して点灯させる(消灯させる)処理をする(ステップS10〜S12、S18)。
(2) Opening and closing the window When the user speaks to the microphone 22 as “hot” (“cold”), for example, the voice recognition unit 24 uses the words “hot”, “na” (“cold”, “na”). The natural language analysis unit 25 extracts the main part of speech words such as nouns, verbs, adjectives, and adjective verbs and inputs them to the agent processing unit 27 with part of speech names. In accordance with a normal agent processing program, the agent processing unit 27 collates the input from the natural language analysis unit 25 with the word category classification table in Table 1, and the category for the current conversation is “open window (window) in device control”. Closed) ”, and the process proceeds to a guided conversation flow to window control. Using the agent data of Ag {sb, cb, ab, mb, ob} corresponding to the current agent AG in the agent data storage unit 26, a standard agent is displayed with an image and sound, and “Open window? If the user answers “Yes”, the agent processing unit 27 analyzes positive and controls the power window 19 to perform processing to close (open) the window ( Steps S10 to S12, S18).
(3) On / off of the headlight When the user speaks to the microphone 22 as “dark” (“bright”), for example, the voice recognition unit 24 uses “dark”, “na” (“bright”, “na”). The natural language analysis unit 25 extracts main part of speech words such as nouns, verbs, adjectives, and adjective verbs and inputs them to the agent processing unit 27 with part of speech names. The agent processing unit 27 analyzes that the category is “light on (light off)” from the input from the natural language analysis unit 25, and shifts to a guidance conversation flow to light control. If an agent with a standard personality appears in the image and sound, asks "Turn on the headlights?" (Turn off the headlights?), And the user responds "Yes", the agent processing unit 27 affirms. And the headlight 21 is controlled to turn on (turn off) (steps S10 to S12, S18).

(4)ワイパのオン/オフ
ユーザが例えば「雨だね」(「雨が止んだね」)とマイク22に話すと、音声認識部24で「雨」、「だね」(「雨」、「が」、「止ん」、「だね」)と単語に分解して認識され、自然言語解析部25で名詞、動詞、形容詞、形容動詞等の主要品詞の単語が抽出され、品詞名付きでエージェント処理部27に入力される。エージェント処理部27は自然言語解析部25からの入力からカテゴリーが「ワイパオン(ワイパオフ)」であると分析し(「雨が止んだね」の場合、表1では、「雨」のカテゴリであるワイパオンと「止ん」のカテゴリであるワイパオフの反対のカテゴリが見出されるが、こういう場合にはオフ側を採用する)、ワイパ制御への誘導会話フローに移行する。画像と音声で標準的な性格のエージェントを現出させて「ワイパをオンする?」(ワイパを止める?」)と質問させ、ユーザが「うん」と返事すると、エージェント処理部27は肯定と解析し、ワイパ20を制御して動かさせる(停止させる)処理をする(ステップS10〜S12、S18)。
(5)オーディオ
ユーザが例えば「ラジオが聞きたい」(「ラジオを止めたい」)とマイク22に話すと、音声認識部24で「ラジオ」、「が」、「聞き」、「たい」(「ラジオ」、「を」、「止め」、「たい」)と単語に分解して認識され、自然言語解析部25で名詞、動詞、形容詞、形容動詞等の主要品詞の単語が抽出され、品詞名付きでエージェント処理部27に入力される。エージェント処理部27は自然言語解析部25からの入力からカテゴリーが「ラジオオン(ラジオオフ)」であると解析し、ラジオ制御への誘導会話フローに移行する。標準的な性格のエージェントにより「ラジオを点ける?」(ラジオを止める?」)と質問させ、ユーザが「うん」と返事すると、エージェント処理部27は肯定と解析し、オーディオ部17を制御してラジオをオンさせる(ラジオを止めさせる)。ラジオがオンしてオーディオ部17から出力されたラジオ音声信号はアンプ2に入力されスピーカ3より音響再生される(ステップS10〜S12、S18)。
(4) ON / OFF of the wiper When the user speaks to the microphone 22, for example, "It's raining"("Rain has stopped"), the voice recognition unit 24 uses "rain", "dan"("rain","","""",""""""""",""" And """, and the natural language analysis unit 25 extracts the main part-of-speech words such as nouns, verbs, adjectives, adjective verbs, etc. Input to the agent processing unit 27. The agent processing unit 27 analyzes that the category is “wiper on (wiper off)” from the input from the natural language analysis unit 25 (in the case of “rain has stopped”, in Table 1, the wiper on that is the category of “rain”) The category opposite to the wiper off which is the category of “stop” is found, but in this case, the off side is adopted), and the flow proceeds to the guidance conversation flow to the wiper control. When an agent with a standard personality appears with an image and sound and asks "Wiper turned on?" (Wipeper turned off?), And the user responds "Yes", the agent processing unit 27 performs an affirmative analysis. Then, the wiper 20 is controlled and moved (stopped) (steps S10 to S12, S18).
(5) Audio When the user speaks to the microphone 22, for example, “I want to listen to the radio” (“I want to stop the radio”), the voice recognition unit 24 “radio”, “ga”, “listening”, “want” (“ ”Radio”, “wo”, “stop”, “tai”) and the like, and the natural language analysis unit 25 extracts words of main parts of speech such as nouns, verbs, adjectives, adjective verbs, etc. Then, it is input to the agent processing unit 27. The agent processing unit 27 analyzes that the category is “radio on (radio off)” from the input from the natural language analysis unit 25, and shifts to a guidance conversation flow to radio control. When an agent with a standard personality asks the question “Turn radio on?” (Stop radio?) And the user answers “Yes”, the agent processing unit 27 analyzes positive and controls the audio unit 17. To turn on the radio (stop the radio). The radio sound signal output from the audio unit 17 when the radio is turned on is input to the amplifier 2 and is acoustically reproduced from the speaker 3 (steps S10 to S12 and S18).

また、ユーザが例えば「CDが聞きたい」(「CDを止めたい」)とマイク22に話すと、音声認識部24で「CD」、「が」、「聞き」、「たい」(「CD」、「を」、「止め」、「たい」)と単語に分解して認識され、自然言語解析部25で名詞、動詞、形容詞、形容動詞等の主要品詞の単語が抽出され、品詞名付きでエージェント処理部27に入力される。エージェント処理部27は自然言語解析部25からの入力からカテゴリーが「CDオン(CDオフ)」であると解析し、ラジオ制御への誘導会話フローに移行する。標準的な性格のエージェントにより「CDを再生する?」(CDを止める?」)と質問させ、ユーザが「うん」と返事すると、エージェント処理部27は肯定と解析し、オーディオ部17を制御してCDを再生させる(CDの再生を止めさせる)処理をする(ステップS10〜S12、S18)。CDが再生されてオーディオ部17から出力されたCD再生信号はアンプ2に入力されスピーカ3より音響再生される。
このようにして、ユーザはエージェントの対話により、地点探索、経路探索・経路誘導のほか、窓の開閉、ワイパのオン・オフ、ヘッドライトの点灯、消灯、ラジオのオン・オフ、CDの再生/停止等の各種の指示を行うことができる。
For example, when the user speaks to the microphone 22 “I want to listen to the CD” (“I want to stop the CD”), the voice recognition unit 24 “CD”, “ga”, “listening”, “want” (“CD”). , “To”, “stop”, “tai”) and the like, and the natural language analysis unit 25 extracts words of main parts of speech such as nouns, verbs, adjectives, adjective verbs, etc. Input to the agent processing unit 27. The agent processing unit 27 analyzes that the category is “CD on (CD off)” from the input from the natural language analysis unit 25, and shifts to a guidance conversation flow to radio control. When an agent with a standard personality asks “Play CD?” (Stop CD?) And the user answers “Yes”, the agent processing unit 27 analyzes positive and controls the audio unit 17. The CD is reproduced (the reproduction of the CD is stopped) (steps S10 to S12, S18). A CD playback signal output from the audio unit 17 when a CD is played back is input to the amplifier 2 and is played back acoustically from the speaker 3.
In this way, the user can perform point search, route search / route guidance, open / close windows, wiper on / off, headlight on / off, radio on / off, CD playback / Various instructions, such as a stop, can be given.

<エージェントの性格可変処理>
(1)ユーザの性格判別用質問のタイミング
ところで、長い期間にわたりエージェントの性格が固定したままの場合、飽きが来てエンタテイメント性が無くなってくるが、本実施例では時々エージェントの性格が可変するため、エンターテイメント性が持続するようになっている。
すなわち、エージェント処理部27は、図8、図9のエージェント性格変更プログラムに基づき、まず現在、図7の通常のエージェント処理プログラムに基づく対話中かチェックし(図8のステップS20)、NOであれば初めてのユーザ性格判別用の質問または前回、ユーザの性格判別用質問をしてから所定時間T0(T0は5時間、1日など)経過したかチェックする(ステップS21)。ここでは初めての質問なのでYESと判断し、続いて検出部16の車速出力から走行中かチェックし(ステップS22)、YESであれば更にスピーカ出力中かチェックし(ステップS23)、NOであれば所定時間T1(例えば、T1=30分)以上の時間エージェントの音声出力が無かったかチェックする(ステップS24)。YESのときナビゲーション部6が経路誘導モードオンかチェックし(ステップS25)、NOであれば後述するステップS30へ進み、YESであれば次の案内対象交差点まで所定の一定距離L0(例えば、L0=2km)以上離れており、次の案内対象交差点の誘導進路の音声案内まで間があるかチェックする(ステップS26)。ここでもYESのとき、エージェント処理部27はとくに運転上支障がなく、また、ユーザの気分転換にも役立つタイミングであるとしてユーザの性格判別用質問をする。
<Agent character variable processing>
(1) Timing of user personality determination question When the agent's personality remains fixed for a long period of time, he gets bored and loses entertainment, but in this embodiment, the personality of the agent sometimes varies. , Entertainment is going to last.
That is, the agent processing unit 27 first checks whether the conversation based on the normal agent processing program in FIG. 7 is currently in progress based on the agent personality change program in FIGS. 8 and 9 (step S20 in FIG. 8). For example, it is checked whether or not a predetermined time T0 (T0 is 5 hours, 1 day, etc.) has passed since the first user personality determination question or the previous user personality determination question (step S21). Here, since it is the first question, it is determined as YES, and then it is checked whether the vehicle is running from the vehicle speed output of the detection unit 16 (step S22). If YES, it is further checked whether the speaker is being output (step S23). It is checked whether or not there is no voice output from the agent for a predetermined time T1 (for example, T1 = 30 minutes) or longer (step S24). If YES, the navigation unit 6 checks whether the route guidance mode is on (step S25). If NO, the process proceeds to step S30 described later. If YES, the predetermined fixed distance L0 (for example, L0 = 2 km) or more, and it is checked whether there is a time until the voice guidance of the guidance route of the next guidance target intersection (step S26). Here, when the answer is YES, the agent processing unit 27 asks a question for determining the personality of the user because there is no particular problem in driving and it is also useful for changing the user's mood.

(2)ユーザの性格判別用質問の決定
この際、エージェント処理部27はエージェントデータ記憶部26に記憶されたユーザの性格判別用質問群の中から、目的地の場所または現在走行中の場所、季節、時間帯、天候を参考にして1つの質問を選択する。具体的には目的地が地点検索されたものであるときはまず目的地の種別(海水浴場、港、プール、スキー場、温泉場、レストラン等)を判別し(種別は大容量記憶装置5に記憶された地点データに含まれており、地点検索時にナビゲーション部6から通知済である。若し種別が不明の場合、地図データ等を参照して目的地が海辺、山間地、河畔のいずれか判ればそれを目的地の種別としても良い)、判別出来た場合、外部情報受信部32を制御して外部の情報センタから現在の天候を受信させて入力するとともにタイマ31から現在の日時を入力し、目的地の種別に対応して図4乃至図6の質問表に登録されたジャンル群から前回質問時とジャンルが異なり、現在の季節・時間帯・天候に条件が合致し、かつ過去に同一内容の質問をしていない質問をランダムに1つ選択する(ステップS27〜S29)。該当する質問が見つかった場合(図9のステップS40でYES)、ステップS41に進んで質問を実行する。
(2) Determination of user personality determination question At this time, the agent processing unit 27 selects a destination location or a current traveling location from the user personality determination question group stored in the agent data storage unit 26. Select one question based on season, time of day, and weather. Specifically, when the destination is searched for a point, first, the type of the destination (beach, port, pool, ski resort, hot spring resort, restaurant, etc.) is determined (the type is stored in the mass storage device 5). It is included in the stored point data and has been notified from the navigation unit 6 at the time of the point search.If the type is unknown, the destination is either seaside, mountainous area, riverside with reference to map data etc. If it can be determined, it can be used as the destination type). If it can be determined, the external information receiving unit 32 is controlled to receive and input the current weather from the external information center and the current date and time are input from the timer 31. The genre is different from the genre group registered in the questionnaires of FIGS. 4 to 6 corresponding to the type of destination, and the genre is different from the previous question, the conditions match the current season, time zone, and weather, and in the past Do not ask the same question Question randomly selects one in the (step S27~S29). If the corresponding question is found (YES in step S40 in FIG. 9), the process proceeds to step S41 to execute the question.

若し、誘導経路中でないか、目的地の種別が不明だった場合、現在地を大容量記憶装置5に記憶された走行軌跡データと比較し、現在地を中心とする半径rkm(rは例えば、30km)の範囲を過去に走行した回数が一定値より以下のときは、普段走行しない地域を走行中と判断し、地図データを参照して現在地が海辺、山間地、河畔のいずれかか判れば走行中の場所と判別する。そして、現在地の種別に対応して図4乃至図6の質問表に登録されたジャンル群から前回質問時とジャンルが異なり、現在の季節・時間帯・天候に条件が合致し、かつ過去に同一内容の質問をしていない質問をランダムに1つ選択する(図8のステップS30〜S33)。該当する質問が見つかった場合(図9のステップS40でYES)、ステップS41に進んで質問を実行する。ステップS30またはS32でNOの場合、図4乃至図6の中で場所を問わない質問群の中から、前回質問時とジャンルが異なり、現在の季節・時間帯・天候に条件が合致し、かつ過去に同一内容の質問をしていない質問をランダムに1つ選択する(図9のステップS42)。該当する質問が見つかった場合(図9のステップS42でYES)、ステップS41に進んで質問を実行する。ここでは、図4の質問08が選択されたものとして説明する。
If it is not in the guidance route or the type of the destination is unknown, the current location is compared with the travel locus data stored in the mass storage device 5, and the radius rkm (r is, for example, 30km) centered on the current location. ) If the number of times of driving in the past is less than a certain value, it is determined that it is driving in a region where it does not normally drive, and if the current location is one of the seaside, mountainous area, or riverside by referring to the map data, it will drive It is determined that it is inside. And, different from the current location of the type to correspond 4 to the genre group which has been registered in the questions table of FIG. 6 and the last question genre, conditions in the current season, time of day, the weather is met, and in the past One question which does not ask the question of the same content is selected at random (steps S30 to S33 in FIG. 8). If the corresponding question is found (YES in step S40 in FIG. 9), the process proceeds to step S41 to execute the question. In the case of NO in step S30 or S32, the genre is different from the question group regardless of the place in FIG. 4 to FIG. 6 at the previous question, and the conditions match the current season, time zone, and weather, and One question that has not been asked in the past is selected at random (step S42 in FIG. 9). If the corresponding question is found (YES in step S42 in FIG. 9), the process proceeds to step S41 to execute the question. Here, description will be made assuming that the question 08 in FIG. 4 is selected.

(3)ユーザの性格判別とエージェントの性格変更準備
質問が決定すると、エージェント処理部27はエージェントデータ記憶部26の内、現在エージェントAGに対応するエージェントAg{sb,cb,ab,mb,ob}のエージェントデータを用い、画像と音声で標準的な性格のエージェントを現出させて「泳ぐのは好き?」と質問させ、ユーザが例えば「うん」(「いや」)と返事すると、エージェント処理部27は肯定(否定)と分析し、質問と回答に対応付けられたユーザ性格特徴から活動性が高いと判別する(ステップS41)。そして、ユーザの性格特徴に合わせるため次エージェントAG´の性格要素の内、活動性Aを1ポイント上げてAg{s4,c4,a5,m4,o4}(1ポイント下げてAg{s4,c4,a3,m4,o4})とする(ステップS44)。なお、ユーザが例えば「大好き」(「大嫌い」)と返事すしたとき、エージェント処理部27が強肯定(強否定)と分析し、活動性を2倍の2ポイント上げてAg{s4,c4,a6,m4,o4}(活動性を2ポイント下げてAg{s4,c4,a2,m4,o4})としても良い。
若しユーザが一定時間内に返事をしなかった場合は、非協調的と判別し、ユーザの性格特徴に合わせるため次エージェントAG´の性格要素の内、協調性を1ポイント上げるようにしても良い。
このようにして、ユーザの性格に合わせて次エージェントAG´の性格要素が可変する。但し、可変した性格が実際のエージェントに反映されるのはユーザがイグニッションキーを回してエンジン停止、ACCスイッチオフとしたあと、一定時間T2(T2は例えば12時間)以上経過してから再度イグニッションキーを回してACCスイッチオンした後とされ、運転中にエージェントの性格が変わり戸惑いを覚えることがないようになっている。
(3) User personality determination and agent personality change preparation When a question is determined, the agent processing unit 27 in the agent data storage unit 26 corresponds to the agent Ag {sb, cb, ab, mb, ob} corresponding to the current agent AG. Using agent data, an agent with a standard personality appears using images and voices and asks "Do you like swimming?" When the user answers, for example, "Ye"("No") 27 is analyzed as affirmative (negative), and it is determined that the activity is high from the user personality characteristics associated with the question and the answer (step S41). Then, in order to match the personality characteristics of the user, among the personality elements of the next agent AG ′, the activity A is increased by 1 point to Ag {s4, c4, a5, m4, o4} (1 point lower, Ag {s4, c4 a3, m4, o4}) (step S44). When the user replies, for example, “I love you” (“I hate”), the agent processing unit 27 analyzes that it is a strong affirmation (strong negation), and increases the activity by 2 points to Ag {s4, c4. a6, m4, o4} (Ag {s4, c4, a2, m4, o4} by reducing the activity by 2 points).
If the user does not reply within a certain period of time, it is determined that the user is not collaborative, and in order to match the personality characteristics of the user, the coordination of the next agent AG ′ may be increased by 1 point. good.
In this way, the personality element of the next agent AG ′ varies according to the personality of the user. However, the variable personality is reflected in the actual agent when the user turns the ignition key to stop the engine and turns off the ACC, and then the ignition key again after a certain time T2 (T2 is 12 hours, for example). It is said that after turning the ACC switch on, the personality of the agent will change during driving and you will not feel confused.

イグニッションキーを回す前(ACCスイッチがオフする前)に、再度、ユーザの性格判別用質問タイミングとなったとき、エージェント処理部27は前述と同様にしてエージェントデータ記憶部26に記憶されたユーザの性格判別用質問群の中から、目的地または走行中の場所、季節、時間帯、天候を参考にするなどして1つの質問を選択する。ここでは、図4の質問02になったとすると、エージェントデータ記憶部26の内、現在エージェントAGに対応するエージェントAg{sb,cb,ab,mb,ob}のエージェントデータを用い、画像と音声で標準的な性格のエージェントを現出させて「夕焼けっていいよね?」と質問させ、ユーザが「うん」(「いや」)と返事すると、エージェント処理部27は肯定(否定)と解析し、質問と回答に対応付けられたユーザ性格特徴を情緒性高い(情緒性低い)と判別し、ユーザの性格特徴に合わせるため次エージェントAG´の性格要素の内、情緒性を1ポイント上げてAg{s4,c4,a5,m5,o4}とする(情緒性を1ポイント下げてAg{s4,c4,a5,m3,o4}とする)。   Before turning the ignition key (before the ACC switch is turned off), when the user personality determination question timing comes again, the agent processing unit 27 stores the user data stored in the agent data storage unit 26 in the same manner as described above. One question is selected from the personality determination question group by referring to the destination or the place where the vehicle is traveling, the season, the time zone, and the weather. Here, if the question 02 in FIG. 4 is reached, the agent data of the agent Ag {sb, cb, ab, mb, ob} corresponding to the current agent AG in the agent data storage unit 26 is used, and an image and sound are used. If an agent with a standard personality appears and asks “Is it okay to have a sunset?” And the user responds “Yes” (“No”), the agent processing unit 27 analyzes positive (negative), It is determined that the user personality characteristic associated with the question and the answer is high emotional (low emotional), and in order to match the personality characteristic of the user, among the personality elements of the next agent AG ′, the emotional characteristic is increased by 1 point and Ag { s4, c4, a5, m5, o4} (emotion is lowered by 1 point to Ag {s4, c4, a5, m3, o4}).

(4)エージェントの性格変更
以下では、次エージェントAG´=Ag{s4,c4,a6,m6,o4}として説明する。トイレ休憩等で一時的に停車したためイグニッションキーが回されてエンジン停止、ACCスイッチオフとされたが、T2時間内に再びイグニッションキーが回されてACCスイッチオンとされたとき、現エージェントAGは変化しない(ステップS45とS46でYES、S47でNO)。これにより、トイレ休憩などで比較的短い時間停車しただけの場合に、運転再開後、エージェントの性格が急に変わって戸惑いを覚えることが防止される。
目的地等への運転が終わり、イグニッションキーが回されてエンジンが停止されるとともに一旦ACCスイッチオフされT2時間以上経過後に再びACCスイッチオンとされたとき、現エージェントAGは次エージェントAG´で置換えられる(ステップS48でNO)。よって、以降、エージェント処理部27がエージェントを現出させる際、現エージェントAGに対応するエージェントAg{sb,cb,ac,mc,ob}のエージェントデータを用いてエージェント画像を表示させる。また、音声合成部30に対し会話文とともにエージェントAg{sb,cb,ac,mc,ob}の音声出力指令を与え、音声合成部30は単語辞書301と文法辞書302を用いて会話文の単語を同定した後、読み・アクセントを決定し、次にエージェントAg{sb,cb,ac,mc,ob}に対応するイントネーションデータベースを用いて読みと構文を参考にして会話文に対し現エージェントAGの性格に合うようにイントネーションやポーズの挿入位置を設定し、音声データベース304の中からイントネーションや読みに対して適切な音声素片を検索・接続し、音声合成を行う。この結果、エージェントの性格は活動性と協調性の増したものとなり、ユーザの性格に合致した愛着の湧くものとなる。
(4) Agent Personality Change In the following description, the following agent AG ′ = Ag {s4, c4, a6, m6, o4} will be described. The engine is stopped and the ACC switch is turned off because the vehicle is temporarily stopped due to a toilet break, etc. When the ignition key is turned again and the ACC switch is turned on within T2, the current agent AG changes. No (YES in steps S45 and S46, NO in S47). This prevents the agent's personality from changing suddenly and becoming confused after resuming driving when the vehicle has only stopped for a relatively short period of time, such as a restroom break.
When the operation to the destination is completed, the ignition key is turned, the engine is stopped, the ACC switch is turned off, and the ACC switch is turned on again after more than T2 hours, the current agent AG is replaced with the next agent AG ′. (NO in step S48). Therefore, thereafter, when the agent processing unit 27 causes the agent to appear, the agent image of the agent Ag {sb, cb, ac, mc, ob} corresponding to the current agent AG is displayed. Also, the speech synthesis unit 30 is given a speech output command of the agent Ag {sb, cb, ac, mc, ob} together with the conversation sentence, and the speech synthesis unit 30 uses the word dictionary 301 and the grammar dictionary 302 to generate words of the conversation sentence. Is identified, then the reading / accent is determined, and then the agent AG {sb, cb, ac, mc, ob} is used for the conversation agent using the intonation database corresponding to the agent Ag {sb, cb, ac, mc, ob}. The insertion positions of intonations and pauses are set so as to suit the personality, and speech units suitable for intonation and reading are searched and connected from the speech database 304, and speech synthesis is performed. As a result, the personality of the agent is increased in activity and cooperation, and attachment that matches the personality of the user is obtained.

この実施例によれば、ユーザがエージェントからの質問に答えるだけで、エージェントの性格が自動的に変わるためユーザは面倒な操作等をしなくても飽きの来ないエンターテイメント性を楽しめる。エージェントの性格はユーザに合致するように可変するため、愛着が湧き、また、質問は走行中で、エージェントが直前・直後に通常のエージェント処理をしない空いた時間を選んでなされるので、運転中のエンターテイメント性が高まる。質問は目的地または走行中の場所、季節・時間帯、天候など、現在の状況に因んだものとされるので違和感が生じない。イグニッションキーが回されてACCスイッチオフとされたあと所定の一定時間以上経過したあと再びACCスイッチがオンされたときに、エージェントの性格が可変するため、運転途中での性格変化に戸惑ったり、前回エージェントと対話してから間の無い性格変化で戸惑ったりすることがない。   According to this embodiment, just by the user answering a question from the agent, the personality of the agent is automatically changed, so that the user can enjoy an entertaining entertainment without troublesome operations. Since the personality of the agent can be changed to match the user, it is attached to the user, and since the question is running and the agent chooses the free time when the agent does not perform normal agent processing immediately before and after, it is during driving. The entertainment nature of will increase. The question is related to the current situation, such as the destination or location where the car is running, the season / time zone, and the weather, so there is no sense of incongruity. When the ignition key is turned and the ACC switch is turned off, the personality of the agent changes when the ACC switch is turned on again after a predetermined period of time has elapsed. You won't be confused by a personality change that hasn't happened since you interacted with the agent.

なお、エージェント処理部は或る任意の対話後、「もっと話しません」と質問し、「うん」など(「あとで」など)肯定的(否定的)な返事があればユーザの社交性が高い(低い)と判断し、次エージェントAG´の社交性を上げ(下げ)ても良い。
また、質問とは別に、ユーザが或る一定時間内にエージェントに指示を与える回数を計測することで頻度を計測し、一定以上の場合にユーザが支配性を持つと判断し、次エージェントAG´の支配性を下げ、協調性を上げて従順な性格に変わるようにしても良い。
また、経路誘導モードオン後、次にオフするまでに走行監視部が記録された経路外れした回数が一定値を越えたとき、ユーザの協調性が乏しいと判断し、次エージェントAG´の支配性を上げるなどしてユーザの協調性を促すような性格に変わるようにしても良い。
また、渋滞中や過去に複数回走行した場所を走行中などに、エージェントデータ記憶部の35 種類のエージェントからランダムに選択した1つのエージェントAgを一時エージェントAG0とし、「こんにちは」などの挨拶をさせ、ユーザが応答しなければ現在エージェントAGと次エージェントAG´は変化させず、「やあ」など挨拶を返したとき、一時エージェントAG0を気に入ったとして現在エージェントAGと次エージェントAG´を変更し、以降、変更後のエージェントが前述と同様にユーザに性格判別用質問をし、ユーザの返答に応じてエージェントの性格が可変するようにしても良い。
これとは別に、エージェント処理部はユーザが聞いている楽曲のジャンルにより性格を判別し、エージェントの性格変更を行うようにしても良い。例えばユーザがCD音楽を聴取するとき、オーディオ部でCDの管理情報を読み取らせ、管理情報中の音楽ジャンルを入力し、該音楽ジャンルがロックのときはユーザの活動性が高いと判断し、次エージェントAG´の性格要素の内、活動性Aを1ポイント上げ、音楽ジャンルがクラシックのときはユーザの情緒性が高いと判断し、次エージェントAG´の性格要素の内、情緒性を1ポイント上げるようにする。この際、楽曲が変わる毎にジャンルを判別して次エージェントAG´の性格変更をしても良く、或いは、或るジャンルの楽曲が所定回数(例えば10回)再生された場合に、当該或るジャンルに合致するように次エージェントAG´の性格変更をしても良い。
また、エージェントの性格変更は次にACCスイッチがオンした後実行されるようにしたが、ユーザの性格判別が終ったあと、ユーザの性格に応じたエージェントでAGを書き換えて、リアルタイムで可変するようにしても良い。
また、音声合成部の備える音声データベースは性格別に用意するようにしても良い。
また、エージェントの性格要素は社交性、協調性、活動性、情緒性、支配性の5つとしたが、本発明は何らこれに限定されず、例えば、前記5つの内の任意の4つ以下の組み合わせとしたり、他の要素も加えた6以上としたりしても良い。
また、音声合成部の音声データベースをエージェントの性格別に用意するようにしても良い。
In addition, the agent processing unit asks “I will not speak more” after an arbitrary dialogue, and if there is a positive (negative) response such as “Yes” (“later” etc.) The sociability of the next agent AG ′ may be increased (decreased) by determining that it is high (low).
In addition to the question, the frequency is measured by measuring the number of times the user gives an instruction to the agent within a certain time, and if the frequency exceeds a certain value, it is determined that the user has control, and the next agent AG ′ It is also possible to lower the dominance of, and increase cooperation to change to a compliant character.
In addition, after the route guidance mode is turned on, when the number of times the travel monitoring unit has recorded the route before the next turn-off exceeds a certain value, it is determined that the user's cooperation is poor, and the control of the next agent AG ′ It may be changed to a personality that promotes user cooperation.
In addition, such as during traveling to the location where you travel more than once to congestion in and past, one of the agent Ag selected at random from 3 to 5 kinds of agents in the agent data storage unit and a temporary agent AG0, a greeting such as "Hello" If the user does not respond, the current agent AG and the next agent AG ′ are not changed, and when a greeting such as “Hi” is returned, the current agent AG and the next agent AG ′ are changed as if the user liked the temporary agent AG0, Thereafter, the changed agent may ask the user a personality determination question in the same manner as described above, and the personality of the agent may be changed according to the user's response.
Alternatively, the agent processing unit may determine the personality based on the genre of the music that the user is listening to and change the personality of the agent. For example, when a user listens to CD music, the audio management unit reads CD management information, inputs a music genre in the management information, and determines that the user's activity is high when the music genre is locked. Among the personality elements of agent AG ', activity A is raised by 1 point. When the music genre is classical, it is determined that the user's emotionality is high, and among the personality elements of the next agent AG', emotionality is raised by 1 point. Like that. At this time, each time the music changes, the genre is discriminated and the character of the next agent AG ′ may be changed, or when a music of a certain genre is reproduced a predetermined number of times (for example, 10 times), The personality of the next agent AG ′ may be changed to match the genre.
The agent personality change is executed after the ACC switch is turned on next time. However, after the user personality determination is completed, the AG is rewritten with the agent according to the user personality and can be changed in real time. Anyway.
Further, the speech database provided in the speech synthesizer may be prepared according to personality.
Moreover, although the personality elements of the agent are five such as sociality, cooperation, activity, emotionality, and dominance, the present invention is not limited to this, for example, any four or less of the above five It may be a combination, or 6 or more including other elements.
In addition, the speech database of the speech synthesizer may be prepared according to the personality of the agent.

本発明は、車載用ナビゲーション装置を初めとして、車載用又は家庭用電気機器、介護ロボット、ゲーム機器等に適用できる。   The present invention can be applied to in-vehicle or home electric devices, nursing robots, game devices, and the like, including in-vehicle navigation devices.

本発明に係るエージェント機能付車載用ナビゲーション装置の構成をブロック図である(実施例1)。1 is a block diagram of a configuration of an in-vehicle navigation device with an agent function according to the present invention (Example 1). FIG. 図1中のナビゲーション部の構成を示すブロック図である。It is a block diagram which shows the structure of the navigation part in FIG. 図1中のエージェント部の構成を示すブロック図である。It is a block diagram which shows the structure of the agent part in FIG. ユーザ性格質問群と回答結果に対するユーザ性格特徴及びエージェント性格可変要素を示す説明図である。It is explanatory drawing which shows the user personality characteristic with respect to a user personality question group and an answer result, and an agent personality variable element. ユーザ性格質問群と回答結果に対するユーザ性格特徴及びエージェント性格可変要素を示す説明図である。It is explanatory drawing which shows the user personality characteristic with respect to a user personality question group and an answer result, and an agent personality variable element. ユーザ性格質問群と回答結果に対するユーザ性格特徴及びエージェント性格可変要素を示す説明図である。It is explanatory drawing which shows the user personality characteristic with respect to a user personality question group and an answer result, and an agent personality variable element. 図1中のエージェント部による通常のエージェント処理を示すフローチャートである。It is a flowchart which shows the normal agent process by the agent part in FIG. 図1中のエージェント部によるエージェント性格可変処理を示すフローチャートである。It is a flowchart which shows the agent character variable process by the agent part in FIG. 図1中のエージェント部によるエージェント性格可変処理を示すフローチャートである。It is a flowchart which shows the agent character variable process by the agent part in FIG.

符号の説明Explanation of symbols

1 表示装置
3 スピーカ
4 GPS受信機
5 大容量記憶装置
6 ナビゲーション部
22 マイク
23 エージェント部
26 エージェントデータ記憶部
27 エージェント処理部
28 プログラム記憶部
29 エージェント画像記憶部
30 音声合成部
DESCRIPTION OF SYMBOLS 1 Display apparatus 3 Speaker 4 GPS receiver 5 Mass storage apparatus 6 Navigation part 22 Microphone 23 Agent part 26 Agent data storage part 27 Agent processing part 28 Program storage part 29 Agent image storage part 30 Voice synthesis part

Claims (11)

現在地または目的地の場所の情報を含む現在の状況情報を取得する状況情報取得部と、
場所を含む状況別に対応させてジャンル毎に1または複数のユーザの性格判断用の質問文を予め記憶した記憶部と、
前記記憶部から前記状況情報取得部で取得された現在の状況に対応する質問文を選択する質問選択部と、
前記質問選択部の選択した質問文をユーザに提示する質問提示部と、
前記質問提示部により提示された質問文に対する回答をユーザが入力する入力部と、
前記入力部による入力からユーザの性格を判断し、ユーザの性格に合わせて複数の性格要素を増減させてエージェントを可変するエージェント処理部と、
前記エージェント処理部により可変されたエージェントを音声または画像で出力する出力部と、
を備えることを特徴とするエージェント装置。
A status information acquisition unit that acquires current status information including information on the location of the current location or destination;
A storage unit that stores in advance a question sentence for character determination of one or a plurality of users for each genre corresponding to each situation including a place;
A question selection unit that selects a question sentence corresponding to the current situation acquired by the situation information acquisition unit from the storage unit;
A question presenting unit for presenting a question sentence selected by the question selecting unit to a user;
An input unit for a user to input an answer to the question sentence presented by the question presenting unit;
An agent processing unit that determines the personality of the user from the input by the input unit, and changes the agent by increasing or decreasing a plurality of personality elements according to the personality of the user;
An output unit for outputting the agent changed by the agent processing unit by voice or image;
Agent device, characterized in that it comprises a.
前記記憶部は、前記場所に対して1または複数のジャンルを記憶し、
前記質問選択部は、前回の質問文とジャンルの異なる質問文をランダムに選択すること、
を特徴とする請求項1記載のエージェント装置。
The storage unit stores one or more genres for the place,
The question selection unit randomly selects a question sentence having a different genre from the previous question sentence,
The agent device according to claim 1.
前記状況情報取得部は、現在地または目的地の場所の情報に加えて、季節、時間帯、天候の内1または複数の情報を取得し、
前記記憶部は、予め、場所情報に加えて、季節、時間帯、天候の内の1または複数の情報との組み合せに対応する質問文を記憶しておき、
前記質問選択部は、前記記憶部から、前記状況情報取得部で取得した現在地または目的地の場所情報と、季節、時間帯、天候の内の1または複数の情報との組み合わせに合致する質問文を選択すること、
を特徴とする請求項1と2のいずれか1項に記載のエージェント装置。
Said status information acquisition unit, in addition to the current position or the information of the destination location, to get the season, time of day, a 1 or information of the multiple of the weather,
In addition to the location information, the storage unit stores in advance a question sentence corresponding to a combination with one or more information of season, time zone, and weather,
The question selection unit is a question sentence that matches a combination of the current location or destination location information acquired by the situation information acquisition unit from the storage unit and one or more information of season, time zone, and weather. To select,
The agent device according to any one of claims 1 and 2 .
前記エージェント処理部は、前記質問提示部により提示された質問文に対してユーザの回答の有無により、エージェントを可変するようにしたこと、
を特徴とする請求項1から3のいずれか1項に記載のエージェント装置。
The agent processing unit is configured to change the agent depending on whether or not a user has answered the question sentence presented by the question presenting unit;
The agent device according to claim 1, wherein:
前記エージェント処理部は、前記エージェントに対するユーザの指示頻度に応じて、エージェントを可変するようにしたこと、
を特徴とする請求項1から4のいずれか1項に記載のエージェント装置。
The agent processing unit is configured to change the agent according to a user instruction frequency to the agent ,
The agent device according to any one of claims 1 to 4, wherein:
楽ジャンルデータが付属する音楽データを再生して出力するオーディオ部と、を備え、
前記ユーザ性格判断部は、オーディオ部により出力された前記音楽データの音楽ジャンルデータ参照してユーザの性格を判するようにしたこと、
を特徴とする請求項1から5のいずれか1項に記載のエージェント装置。
Provided with audio unit that music genre data is output by reproducing the music data to be included, the,
The user personality determination unit, it was with reference to the music genre data of the music data outputted by the audio unit the character of the user to be judged,
The agent device according to any one of claims 1 to 5, wherein:
前記エージェント処理部、複数のエージェントの中からユーザが選択したエージェントを初期設定するようにしたこと、
を特徴とする請求項1から6のいずれか1項に記載のエージェント装置。
The agent processing unit, you have to initialize the agent selected by the user from among multiple agents,
The agent device according to any one of claims 1 to 6, wherein:
前記エージェント処理部は、電源がOFFされた後、所定時間経過後に再び電源がONされた場合にエージェントを可変するようにしたこと、
を特徴とする請求項1から7のいずれか1項に記載のエージェント装置。
The agent processing unit, that the power is that the agent be variably if after being O FF, which again supply after a predetermined time has elapsed has been turned ON,
The agent device according to any one of claims 1 to 7, wherein:
現在を検出する現在地検出と、
目的地を設定する目的地設定部と、
現在地または目的地の場所の情報を含む現在の状況情報を取得する状況情報取得部と、
場所を含む状況別に対応させてジャンル毎に1または複数のユーザ性格判別用の質問文を予め記憶した記憶部と、
前記記憶部から前記状況情報取得部で取得された現在の状況に対応する質問文を選択する質問選択部と、
前記質問選択部で選択された質問文をユーザに提示する質問提示部と、
前記質問提示部により提示された質問文に対する回答をユーザが入力する入力部と、
前記入力部による入力からユーザの性格を判断し、ユーザの性格に合わせて複数の性格要素を増減させてエージェントを可変するエージェント処理部と、
前記エージェント処理部により可変されたエージェントを音声または画像で出力する出力部と、
備えることを特徴とするエージェント機能付車載用ナビゲーション装置。
And the current position detection unit that detects the current location,
A destination setting section for setting a destination;
A status information acquisition unit that acquires current status information including information on the location of the current location or destination;
A storage unit that stores in advance one or a plurality of user personality determination questions for each genre corresponding to each situation including a place;
A question selection unit that selects a question sentence corresponding to the current situation acquired by the situation information acquisition unit from the storage unit;
A question presenting unit for presenting to the user the question sentence selected by the question selecting unit;
An input unit for a user to input an answer to the question sentence presented by the question presenting unit;
An agent processing unit that determines the personality of the user from the input by the input unit, and changes the agent by increasing or decreasing a plurality of personality elements according to the personality of the user;
An output unit for outputting the agent changed by the agent processing unit by voice or image;
Vehicle navigation system with an agent function, characterized in that it comprises a.
前記状況情報取得部は、現在地または目的地の場所の情報に加えて、季節、時間帯、天候の内1または複数の情報を取得し、
前記記憶部は、予め、場所の情報に加えて、季節、時間帯、天候の内の1または複数の情報との組み合せに対応する質問文を記憶しておき、
前記質問選択部は、前記記憶部から、前記状況情報取得部で取得した現在地または目的地の場所情報と、季節、時間帯、天候の内の1または複数の情報との組み合わせに合致する質問文を選択すること、
を特徴とする請求項9記載のエージェント機能付車載用ナビゲーション装置。
Said status information acquisition unit, in addition to the current position or the information of the destination location, to get the season, time of day, a 1 or information of the multiple of the weather,
In addition to location information, the storage unit stores in advance a question sentence corresponding to a combination with one or more information of season, time zone, and weather,
The question selection unit is a question sentence that matches a combination of the current location or destination location information acquired by the situation information acquisition unit from the storage unit and one or more information of season, time zone, and weather. To select,
Vehicle navigation device with the agent, as in claim 9, wherein.
現在地または目的地の場所情報を含む現在の状況情報を取得する状況情報取得ステップと、
場所を含む状況別に対応させてジャンル毎に1または複数のユーザ性格判別用の質問文を予め記憶した記憶部から、前記状況情報取得ステップで取得された現在の状況に対応する質問文を選択する質問文選択ステップと、
前記質問文選択ステップで選択された質問文をユーザに提示する質問提示ステップと、
前記質問提示ステップにより提示された質問文に対する回答をユーザが入力する入力ステップと、
前記入力ステップによる入力からユーザの性格を判断し、ユーザの性格に合わせて複数の性格要素を増減させてエージェントを可変するエージェント処理ステップと、
前記エージェント処理ステップにより可変されたエージェントを音声または画像で出力する出力ステップと、
を備えることを特徴とするエージェント方法。
A status information acquisition step for acquiring current status information including location information of the current location or destination;
A question sentence corresponding to the current situation acquired in the situation information acquisition step is selected from a storage unit that stores in advance one or more user personality determination question sentences for each genre corresponding to the situation including the place. A question sentence selection step;
A question presenting step for presenting to the user the question sentence selected in the question sentence selecting step;
An input step in which a user inputs an answer to the question sentence presented by the question presenting step;
An agent processing step of determining the personality of the user from the input in the input step, and varying the agent by increasing or decreasing a plurality of personality elements according to the personality of the user;
An output step of outputting the agent changed by the agent processing step by sound or image;
Agent how, characterized in that it comprises a.
JP2005327189A 2005-11-11 2005-11-11 Agent device, in-vehicle navigation device with agent function, agent output method Active JP4798431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005327189A JP4798431B2 (en) 2005-11-11 2005-11-11 Agent device, in-vehicle navigation device with agent function, agent output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005327189A JP4798431B2 (en) 2005-11-11 2005-11-11 Agent device, in-vehicle navigation device with agent function, agent output method

Publications (2)

Publication Number Publication Date
JP2007133728A JP2007133728A (en) 2007-05-31
JP4798431B2 true JP4798431B2 (en) 2011-10-19

Family

ID=38155323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005327189A Active JP4798431B2 (en) 2005-11-11 2005-11-11 Agent device, in-vehicle navigation device with agent function, agent output method

Country Status (1)

Country Link
JP (1) JP4798431B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014542A (en) * 2008-07-03 2010-01-21 Denso Corp On-board processing device and program for on-board processing device
JP2010110862A (en) * 2008-11-06 2010-05-20 Nec Corp Communication robot system and method and program for controlling communication robot
EP2930599A4 (en) 2012-12-04 2016-08-31 Ntt Docomo Inc Information processing device, server device, dialogue system and program
JP7003400B2 (en) * 2016-10-27 2022-01-20 富士フイルムビジネスイノベーション株式会社 Dialogue control system
JP6979115B2 (en) * 2017-07-14 2021-12-08 達闥机器人有限公司 Robot personality setting method, device and robot
JP7193793B2 (en) * 2018-02-09 2022-12-21 株式会社デンソーテン Information notification device and information notification method
JP6583754B2 (en) * 2018-03-19 2019-10-02 株式会社Novera Information processing device, mirror device, program
JP6797979B1 (en) * 2019-08-08 2020-12-09 株式会社Nttドコモ Information processing device
JP7310547B2 (en) * 2019-10-31 2023-07-19 日産自動車株式会社 Information processing device and information processing method
JP6796762B1 (en) * 2019-11-28 2020-12-09 有限会社クロマニヨン Virtual person dialogue system, video generation method, video generation program
JP7437191B2 (en) * 2020-03-04 2024-02-22 株式会社東海理化電機製作所 Control devices, control systems, information processing devices, and programs

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259446A (en) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk Agent device
JP2001134642A (en) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab Agent system utilizing social response characteristic

Also Published As

Publication number Publication date
JP2007133728A (en) 2007-05-31

Similar Documents

Publication Publication Date Title
JP4798431B2 (en) Agent device, in-vehicle navigation device with agent function, agent output method
JP5972372B2 (en) Car information system
JP4353212B2 (en) Word string recognition device
JP4292646B2 (en) User interface device, navigation system, information processing device, and recording medium
JP4260788B2 (en) Voice recognition device controller
EP1699042A1 (en) Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and prog
JP6173477B2 (en) Navigation server, navigation system, and navigation method
JP6202041B2 (en) Spoken dialogue system for vehicles
JP4156563B2 (en) Word string recognition device
WO2014057540A1 (en) Navigation device and navigation server
JP2008233678A (en) Voice interaction apparatus, voice interaction method, and program for voice interaction
JP2001034292A (en) Word string recognizing device
JP4156080B2 (en) Request estimation device
JP2008203338A (en) Musical sound generating apparatus and musical sound generation method
JP2009251388A (en) Native language utterance device
CN109508403A (en) Matching process, device and the vehicle intelligent controller of vehicle-mounted music
JP5181533B2 (en) Spoken dialogue device
JP3890747B2 (en) Control device
JP2001117584A (en) Voice processor
JP2003014485A (en) Navigation device
JP2001117581A (en) Feeling recognition device
JP2001227962A (en) Navigation device
JP2018087871A (en) Voice output device
JP7407047B2 (en) Audio output control method and audio output control device
JP3809990B2 (en) Navigation device with dialect explanation function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110707

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110720

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4798431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350