JP2019200239A - Language setting device - Google Patents
Language setting device Download PDFInfo
- Publication number
- JP2019200239A JP2019200239A JP2018093239A JP2018093239A JP2019200239A JP 2019200239 A JP2019200239 A JP 2019200239A JP 2018093239 A JP2018093239 A JP 2018093239A JP 2018093239 A JP2018093239 A JP 2018093239A JP 2019200239 A JP2019200239 A JP 2019200239A
- Authority
- JP
- Japan
- Prior art keywords
- language
- occupant
- utterance
- unit
- service
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、乗員に提供する情報の言語の種類を設定する言語設定装置に関する。 The present invention relates to a language setting device for setting a language type of information provided to an occupant.
特許文献1には、利用者の母国語に対応していない場合に、利用者にテストや発話をさせて利用者の言語能力を取得し、取得した言語能力に基づいて、音声認識の対象とする言語を利用者の母国語以外の言語から選択して、選択した言語で音声認識の動作条件を設定する音声処理装置が開示される。 In Patent Literature 1, when the user's native language is not supported, the user's language ability is acquired by performing a test or utterance by the user. Based on the acquired language ability, the speech recognition target A speech processing apparatus is disclosed in which a language to be selected is selected from languages other than the user's native language, and operating conditions for speech recognition are set in the selected language.
特許文献1に開示される技術では、選択した言語で音声認識を動作させるため、選択した言語を設定した後に、その設定された言語以外で利用者が発話した場合に対応していない。また、利用者が使用する言語でサービスを提供できることが好ましい。 In the technique disclosed in Patent Document 1, since speech recognition is operated in a selected language, it does not correspond to a case where a user speaks in a language other than the set language after the selected language is set. In addition, it is preferable that the service can be provided in the language used by the user.
本発明の目的は、乗員が発話した言語の種類に対応する言語でサービスを実行可能にする言語設定装置を提供することにある。 An object of the present invention is to provide a language setting device that can execute a service in a language corresponding to a language type spoken by a passenger.
上記課題を解決するために、本発明のある態様の言語設定装置は、検知した車内音を取得する音取得部と、車内音から抽出された、サービスを要求する乗員の発話情報を取得する発話取得部と、発話情報にもとづいて、サービスを要求した乗員が発話した言語の種類を特定する言語特定部と、特定された種類の言語で、要求されたサービスの応答を出力させる出力制御部と、を備える。 In order to solve the above problems, a language setting device according to an aspect of the present invention includes a sound acquisition unit that acquires detected in-vehicle sound, and an utterance that acquires utterance information of a passenger who requests a service, extracted from the in-vehicle sound. An acquisition unit; a language identification unit that identifies the type of language spoken by the occupant who requested the service based on the utterance information; and an output control unit that outputs a response of the requested service in the specified type of language; .
この態様によると、サービス実行毎にサービスを要求した乗員が発話した言語の種類を特定し、特定した種類の言語でサービスを提供できる。 According to this aspect, it is possible to specify the language type spoken by the occupant who requested the service every time the service is executed, and to provide the service in the specified type of language.
本発明によれば、乗員が発話した言語の種類に対応する言語でサービスを実行可能にする言語設定装置を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the language setting apparatus which can perform a service in the language corresponding to the kind of language which the passenger | crew spoke can be provided.
図1は、実施例の言語設定装置10について説明するための図である。図1において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
FIG. 1 is a diagram for explaining a
言語設定装置10は、車両に設けられ、乗員が発話した言語に応じた言語で応答を出力させることが可能である。言語設定装置10は、マイク12から車内音を取得し、取得した乗員の発話に応じて出力部14の出力を制御する。言語設定装置10は、音取得部20、発話取得部22、言語特定部24、応答生成部26および出力制御部28を備える。
The
マイク12は、車内音を検出するように設けられ、乗員の発話を含む音を電気信号に変換して、その信号を音取得部20に送る。出力部14は、スピーカおよび/またはディスプレイであって、出力制御部28の制御により乗員に音声や画像で情報を出力する。
The
音取得部20は、マイク12から車内音として音信号を取得する。発話取得部22は、車内音から乗員の発話を抽出し、乗員の発話情報を取得する。
The
言語特定部24は、乗員の発話情報にもとづいて乗員が発話した言語の種類を特定する。言語特定部24は、予め保持する各言語のモデル情報と、乗員の発話情報とをマッチングして乗員が発話した言語を特定する。予め保持される各言語のモデル情報は、予め設定された特定のワードであってよく、例えば「こんにちは」という意味を持つ各言語のワードであってよい。出力制御部28が乗員に所定の意味のワードを発話するように促す出力をさせ、例えば、車載ディスプレイに複数種類の言語で「こんにちは」と発話してくださいと表示させることで、所定の意味の発話が取得される。例えば、言語特定部24は、乗員が「コンニチハ」と発話すれば日本語であると決定し、「ハロー」と発話すれば英語であると決定し、「ニーハオ」と発話すれば中国語であると決定する。また、言語特定部24は、乗員の発話情報から単語を抽出し、抽出した単語を各言語のモデル情報と照合して、乗員が発話した言語を特定してよい。
The
言語特定部24は、乗員が車載装置のサービスを要求する発話をした場合に、その乗員の発話情報にもとづいて乗員が発話した言語の種類を特定する。言語特定部24は、乗員が発話した言語の種類を特定できない場合、その乗員の発話情報をサーバ装置に送信し、サーバ装置により特定された言語の種類を受け取るとともに、サーバ装置により特定された種類の言語の言語情報を受け取ってよい。
The
言語保持部30は、日本語、英語、中国語など、複数種類の言語情報を保持しており、言語特定部24による特定処理と、応答生成部26による生成処理に用いられる。言語保持部30は、車載機能を表示する際の予め定められた言語情報と、辞書として機能する言語情報と、音声モデル情報とを保持する。言語保持部30は、例えば、目的地設定機能、目的地検索機能、音楽設定機能、地図表示機能などのサービスを表示する表示言語を各言語毎に保持している。言語保持部30は、使用されやすい複数種類の言語情報を保持し、それら以外の言語情報をサーバ装置から取得してもよい。言語保持部30がサーバ装置から言語情報を取得する場合であっても、その言語情報を保持する。
The
応答生成部26は、車載されたシステムソフトウェアの表示言語として初期設定された言語で、乗員の発話情報に対応する応答情報を生成する。初期設定された表示言語は、サーバ装置から取得する場合もあるが、いずれにしても言語保持部30に保持される。応答生成部26は、車載装置に乗員の操作が入力された場合、初期設定された表示言語で応答情報を生成する。また、応答生成部26は、初期設定された表示言語で音声による応答情報を生成する。ディスプレイに表示されるメニュー項目などが、初期設定された表示言語で表示される。
The response generation unit 26 generates response information corresponding to the utterance information of the occupant in a language that is initially set as a display language of the on-board system software. The initially set display language may be acquired from the server device, but in any case, it is held in the
応答生成部26は、言語特定部24により特定された種類の言語を言語保持部30から引き出して、初期設定された表示言語以外の言語で応答情報を生成することが可能である。例えば、乗員の発話情報が目的地設定サービスを要求するもので、初期設定の表示言語と異なる言語で発話されたものである場合、応答生成部26は、言語特定部24で特定された種類の言語で目的地設定画像を生成する。応答情報は、ディスプレイに表示される画像であってよく、スピーカで出力される音声であってよい。
The response generation unit 26 can extract the type of language specified by the
発話取得部22がサービスを要求するトリガ語句の発話を取得した場合、言語特定部24は、トリガ語句を発話した乗員が使用する言語の種類を特定し、応答生成部26は、言語特定部24により特定された種類の言語で、要求された応答情報を生成する。トリガ語句は、目的地設定機能、目的地検索機能、音楽設定機能などのサービスを要求する契機となるものであって、予め設定された所定のワードである。トリガ語句が発話取得部22により検出されると、音声認識処理が実行開始される。
When the
出力制御部28は、応答生成部26により生成された応答情報を出力部14から出力されるよう制御する。出力制御部28は、初期設定の表示言語を用いて生成された応答情報を出力させる場合と、乗員が発話した言語を用いて生成された応答情報を出力させる場合がある。
The
初期設定の表示言語は、車載電源がオンになったときに取得された乗員の発話によって設定される。出力制御部28は、車載電源がオンになったときに、乗員が使用する言語の種類を特定するため、乗車した乗員に対して発話を促す出力をする。この出力に対して乗員が発話をすると、その発話を発話取得部22が取得し、言語特定部24が発話された言語の種類を特定し、応答生成部26は、特定された種類の言語を、システムソフトウェアの表示言語として設定する。例えばレンタカーにおいて地域で使用される言語の種類と乗員が使用する言語の種類が異なる場合があり、車載のシステムソフトウェアの表示言語を乗員が使用する言語に設定することで、乗員が車載の各種サービスを使用しやすくなる。言語設定装置10には、システムソフトウェアの表示言語を初期状態に戻す機能があってよく、システムソフトウェアの表示言語を初期状態に戻した後、車載電源がオンになったときに、乗員の発話を発話取得部22が取得し、言語特定部24が発話された言語の種類を特定し、応答生成部26は、特定された種類の言語を、システムソフトウェアの表示言語として設定する。これにより、乗員がシステムソフトウェアの表示言語を設定する操作をしなくても、乗員の発話をもとに自動的に設定できる。
The default display language is set based on the utterance of the occupant acquired when the in-vehicle power supply is turned on. When the on-vehicle power supply is turned on, the
発話取得部22がサービスを要求する発話情報を取得した場合、言語特定部24は、発話した乗員が使用する言語の種類を特定し、応答生成部26は、そのサービスをやり遂げるまで、言語特定部24により特定された種類の言語で、要求された応答情報を生成する。例えば、応答生成部26は、乗員が目的地案内機能を要求した場合、目的地に到着して案内が終了するまで、言語特定部24により特定された種類の言語で、要求された応答情報を生成する。このようにシステムソフトウェアの表示言語を変更しなくとも、乗員が発話した言語の種類でサービスを提供できる。また、サービス毎に異なる種類の言語でサービスを提供できる。
When the
図2は、表示言語を初期設定する処理を示すフローチャートである。出力制御部28は、車載電源がオンとなったときに乗車した乗員に対して所定の意味の発話を促す出力を出力部14にさせる(S10)。この出力に乗員が答えて所定の意味の発話をし、発話取得部22は、その乗員の発話情報を取得する(S12)。
FIG. 2 is a flowchart showing a process for initializing the display language. The
言語特定部24は、取得された乗員の発話情報にもとづいて、乗員が発話した言語の種類を特定する(S14)。応答生成部26は、特定した種類の言語でシステムソフトウェアの表示言語を初期設定してよいか確認する応答情報を生成し、出力制御部28は、応答情報を表示させる。特定した種類の言語を表示言語に初期設定することを乗員が了承しない場合(S16のN)、S10に戻る。
The
特定した種類の言語を表示言語に初期設定することを乗員が了承した場合(S16のY)、出力制御部28は、特定された種類の言語でシステムソフトウェアの表示言語を設定して、設定された表示言語で出力させる(S18)。このように、乗員が初期設定の操作をしなくとも、発話から乗員が使用する種類の言語に設定できる。
When the occupant approves that the specified type of language is initially set as the display language (Y in S16), the
図3は、サービス毎に言語を設定する処理を示すフローチャートである。発話取得部22は、サービスを要求する乗員の発話情報を取得し(S20)、言語特定部24は、発話取得部22により取得された乗員の発話情報の言語の種類を特定する(S22)。応答生成部26は、言語特定部24により特定された種類の言語で、要求されたサービスに関する応答情報を生成する(S24)。
FIG. 3 is a flowchart showing processing for setting a language for each service. The
所定の終了条件を満たすまで(S26のN)、応答生成部26は、言語特定部24により特定された種類の言語で、要求されたサービスに関する応答情報を生成する(S24)。所定の終了条件は、例えば要求されたサービスをやり遂げると満たされ、1回のインタラクションが終了すると満たされてよい。 Until the predetermined end condition is satisfied (N in S26), the response generation unit 26 generates response information related to the requested service in the language of the type specified by the language specifying unit 24 (S24). The predetermined termination condition may be satisfied when a requested service is performed, for example, and may be satisfied when one interaction is terminated.
所定の終了条件を満たすと(S26のY)、出力制御部28は、要求されたサービスの出力を終了し(S28)、初期設定された表示言語で表示させる(S30)。このように、初期設定された表示言語の種類と異なる種類の言語の発話でサービス要求された場合、その言語の種類でサービスを提供できる。
When the predetermined end condition is satisfied (Y in S26), the
なお実施例はあくまでも例示であり、各構成要素の組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 It is to be understood by those skilled in the art that the embodiments are merely examples, and that various modifications can be made to combinations of the constituent elements, and that such modifications are within the scope of the present invention.
10 言語設定装置、 12 マイク、 14 出力部、 20 音取得部、 22 発話取得部、 24 言語特定部、 26 応答生成部、 28 出力制御部、 30 言語保持部。
DESCRIPTION OF
Claims (1)
車内音から抽出された、サービスを要求する乗員の発話情報を取得する発話取得部と、
前記発話情報にもとづいて、サービスを要求した乗員が発話した言語の種類を特定する言語特定部と、
特定された種類の言語で、要求されたサービスの応答を出力させる出力制御部と、を備えることを特徴とする言語設定装置。 A sound acquisition unit for acquiring the detected interior sound;
An utterance acquisition unit that acquires utterance information of passengers requesting service, extracted from in-car sound;
A language identifying unit that identifies the type of language spoken by the occupant who requested the service based on the speech information;
An output control unit that outputs a response of a requested service in a specified type of language.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018093239A JP2019200239A (en) | 2018-05-14 | 2018-05-14 | Language setting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018093239A JP2019200239A (en) | 2018-05-14 | 2018-05-14 | Language setting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019200239A true JP2019200239A (en) | 2019-11-21 |
Family
ID=68611270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018093239A Pending JP2019200239A (en) | 2018-05-14 | 2018-05-14 | Language setting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019200239A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020190625A (en) * | 2019-05-22 | 2020-11-26 | 株式会社日本レカム | Automatic translation device by speech recognition, and information system |
-
2018
- 2018-05-14 JP JP2018093239A patent/JP2019200239A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020190625A (en) * | 2019-05-22 | 2020-11-26 | 株式会社日本レカム | Automatic translation device by speech recognition, and information system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6570651B2 (en) | Voice dialogue apparatus and voice dialogue method | |
US6230132B1 (en) | Process and apparatus for real-time verbal input of a target address of a target address system | |
US10679620B2 (en) | Speech recognition arbitration logic | |
KR102518543B1 (en) | Apparatus for correcting utterance errors of user and method thereof | |
US20150039316A1 (en) | Systems and methods for managing dialog context in speech systems | |
US9202459B2 (en) | Methods and systems for managing dialog of speech systems | |
US9881609B2 (en) | Gesture-based cues for an automatic speech recognition system | |
US20160372117A1 (en) | Speech recognition on board of an aircraft | |
WO2018167949A1 (en) | In-car call control device, in-car call system and in-car call control method | |
JP6459330B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
US10468017B2 (en) | System and method for understanding standard language and dialects | |
JP2019200239A (en) | Language setting device | |
JP2001013994A (en) | Device and method to voice control equipment for plural riders and vehicle | |
JP7272293B2 (en) | Agent device, agent system and program | |
JP2004045900A (en) | Voice interaction device and program | |
JP2018116206A (en) | Voice recognition device, voice recognition method and voice recognition system | |
JP2019074498A (en) | Drive supporting device | |
JP2018124484A (en) | Speech recognition device | |
JP2010197858A (en) | Speech interactive system | |
US20140136204A1 (en) | Methods and systems for speech systems | |
CN107195298B (en) | Root cause analysis and correction system and method | |
US20160314787A1 (en) | Speech recognition apparatus and computer program product for speech recognition | |
JP2007183516A (en) | Voice interactive apparatus and speech recognition method | |
JP7274376B2 (en) | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM | |
JP2006023444A (en) | Speech dialog system |