JP6028289B2 - Relay system, relay method and program - Google Patents
Relay system, relay method and program Download PDFInfo
- Publication number
- JP6028289B2 JP6028289B2 JP2013037293A JP2013037293A JP6028289B2 JP 6028289 B2 JP6028289 B2 JP 6028289B2 JP 2013037293 A JP2013037293 A JP 2013037293A JP 2013037293 A JP2013037293 A JP 2013037293A JP 6028289 B2 JP6028289 B2 JP 6028289B2
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- voice
- speech
- recognition
- call
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 15
- 238000004891 communication Methods 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 description 29
- 238000012545 processing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- 230000010365 information processing Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Telephonic Communication Services (AREA)
Description
本発明は、通話における音声を変換する技術に関する。 The present invention relates to a technique for converting voice in a call.
近年、情報処理装置や通信装置の機能向上に伴い、従来は単に音声の送受信に過ぎなかった通話機能に対し新たな付加機能が提供されている。例えば、特許文献1に記載の技術では、テレビ電話着信応答時に、相手先の電話番号が電話帳に登録されているかどうか判定される。電話帳に登録されていれば、受信した画像及び音声が夫々解析される。画像解析の結果、発信者以外の人物が映っておらず、発信者側に画面を覗き込んでいる人物が映っておらず、且つ、音声解析結果に基づいて発信者が公衆の場にいないと判定された場合には、ユーザの自画像が送信される。 In recent years, with the improvement of functions of information processing devices and communication devices, new additional functions have been provided in addition to call functions that have traditionally been merely transmission / reception of voice. For example, in the technique described in Patent Document 1, it is determined whether or not the other party's telephone number is registered in the telephone directory when an incoming videophone call is answered. If registered in the telephone directory, the received image and sound are analyzed respectively. As a result of image analysis, no person other than the caller is shown, no person looking into the screen is shown on the caller side, and the caller is not in a public place based on the voice analysis result If determined, the user's own image is transmitted.
特許文献1に開示された技術は一例に過ぎず、より新しい付加機能が要求されている。そこで、上記事情に鑑み、本発明は音声通話に付加される新たな機能を提供することを目的としている。 The technique disclosed in Patent Document 1 is merely an example, and a newer additional function is required. Therefore, in view of the above circumstances, an object of the present invention is to provide a new function added to a voice call.
本発明の一態様は、第一端末と第二端末との間で通話を中継する中継システムであって、第一端末から送信された音声に基づいて発話内容を認識する第一認識部と、第一端末から送信された音声に基づいて音程又は抑揚を認識する第二認識部と、合成音声を生成する際に用いられる音声素片を記憶する記憶部と、前記記憶部に記憶される前記音声素片を組み合わせることによって、前記第一認識部によって認識された発話内容と前記第二認識部によって認識された音程又は抑揚とを再現した合成音声を生成する音声生成部と、前記音声生成部によって生成された前記合成音声を前記第二端末に送信する通信部と、を備える。 One aspect of the present invention is a relay system that relays a call between a first terminal and a second terminal, and a first recognition unit that recognizes utterance content based on voice transmitted from the first terminal; A second recognizing unit for recognizing a pitch or intonation based on the sound transmitted from the first terminal; a storage unit for storing a speech unit used when generating a synthesized speech; and the storage unit storing the speech unit. A speech generation unit that generates a synthesized speech that reproduces the speech content recognized by the first recognition unit and the pitch or intonation recognized by the second recognition unit by combining speech units; and the speech generation unit A communication unit that transmits the synthesized speech generated by the second terminal to the second terminal.
本発明の一態様は、第一端末と第二端末との間で通話を中継する中継システムが行う中継方法であって、第一端末から送信された音声に基づいて発話内容を認識する第一認識ステップと、第一端末から送信された音声に基づいて音程又は抑揚を認識する第二認識ステップと、記憶部に記憶される音声素片を組み合わせることによって、前記第一認識ステップにおいて認識された発話内容と前記第二認識ステップにおいて認識された音程又は抑揚とを再現した合成音声を生成する音声生成ステップと、前記音声生成ステップにおいて生成された前記合成音声を前記第二端末に送信する通信ステップと、を有する。 One aspect of the present invention is a relay method performed by a relay system that relays a call between a first terminal and a second terminal, the first recognizing the utterance content based on the voice transmitted from the first terminal. Recognized in the first recognizing step by combining a recognizing step, a second recognizing step for recognizing a pitch or intonation based on the sound transmitted from the first terminal, and a speech element stored in the storage unit. A speech generation step for generating a synthesized speech that reproduces the utterance content and the pitch or intonation recognized in the second recognition step, and a communication step for transmitting the synthesized speech generated in the speech generation step to the second terminal And having.
本発明の一態様は、第一端末と第二端末との間で通話を中継するコンピュータに対し、第一端末から送信された音声に基づいて発話内容を認識する第一認識ステップと、第一端末から送信された音声に基づいて音程又は抑揚を認識する第二認識ステップと、記憶部に記憶される音声素片を組み合わせることによって、前記第一認識ステップにおいて認識された発話内容と前記第二認識ステップにおいて認識された音程又は抑揚とを再現した合成音声を生成する音声生成ステップと、前記音声生成ステップにおいて生成された前記合成音声を前記第二端末に送信する通信ステップと、を実行させるためのプログラムである。 One aspect of the present invention provides a first recognition step of recognizing utterance contents based on voice transmitted from a first terminal to a computer that relays a call between the first terminal and the second terminal; By combining the second recognition step for recognizing the pitch or intonation based on the voice transmitted from the terminal and the speech unit stored in the storage unit, the speech content recognized in the first recognition step and the second A voice generation step for generating a synthesized voice that reproduces the pitch or intonation recognized in the recognition step, and a communication step for transmitting the synthesized voice generated in the voice generation step to the second terminal. It is a program.
本発明により、音声通話において新たな付加機能を提供することが可能となる。 According to the present invention, it is possible to provide a new additional function in a voice call.
図1は、通話システム1のシステム構成を表すシステム構成図である。通話システム1は、第一端末100、第二端末200、中継システム300を備える。通話システム1では、第一端末100のユーザ及び第二端末200のユーザの間で通話が行われる。通話システム1では、変換対象端末となっている端末から送信された音声が、中継システム300によって他の音声に変換されて他方の端末に中継される。第一端末100及び第二端末200の双方が変換対象端末であっても良いし、第一端末100又は第二端末200のいずれか一方のみが変換対象端末であっても良い。以下、第一端末100が変換対象端末であり、第二端末200は変換対象端末でない場合の構成について説明する。なお、以下の説明では、変換対象端末ではない端末を「非対象端末」という。
FIG. 1 is a system configuration diagram showing a system configuration of the call system 1. The call system 1 includes a
第一端末100は、通話機能を有する端末装置である。第一端末100は、例えば携帯電話機、PHS(Personal Handy-phone System)、スマートフォン、固定電話機、タブレット装置、パーソナルコンピュータ、ゲーム装置、テレビ受像機などの情報処理機能及び通信機能を有した装置である。第一端末100は、中継システム300を介して第二端末200との間で通話セッションを確立する。第一端末100は、通話セッションを介して、ユーザの発話を音声信号として第二端末200に送信する。第一端末100は、通話セッションを介して、第二端末200から音声信号を受信し、スピーカーから出力する。
The
第二端末200は、通話機能を有する端末装置である。第二端末200は、例えば携帯電話機、PHS、スマートフォン、固定電話機、タブレット装置、パーソナルコンピュータ、ゲーム装置、テレビ受像機などの情報処理機能及び通信機能を有した装置である。第二端末200は、中継システム300を介して第一端末100との間で通話セッションを確立する。第二端末200は、通話セッションを介して、ユーザの発話を音声信号として第一端末100に送信する。第二端末200は、通話セッションを介して、第一端末100から音声信号を受信し、スピーカーから出力する。
The
図2は、中継システム300の機能構成を示す概略ブロック図である。中継システム300は、1台又は複数台の情報処理装置によって構成される。例えば、中継システム300が一台の情報処理装置で構成される場合、情報処理装置は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、中継プログラムを実行する。中継プログラムの実行によって、情報処理装置は、通信部301、通話制御部302、音声認識部303、音程認識部304、抑揚認識部305、音声情報記憶部306、音声生成部307を備える装置として機能する。なお、中継システム300の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。また、中継システム300は、専用のハードウェアによって実現されても良い。中継プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。中継プログラムは、電気通信回線を介して送受信されても良い。
FIG. 2 is a schematic block diagram showing a functional configuration of the
通信部301は、ネットワークを介して第一端末100及び第二端末200と通信を行う。
通話制御部302は、第一端末100及び第二端末200との間で通話を制御する。通話制御部302は、例えばSIP(Session Initiation Protocol)に従った処理を行う事によって通話を制御する。第一端末100及び第二端末200との間で通話セッションが確立された後、通話制御部302は以下のように動作する。
The
The
通話制御部302は、第一端末100(変換対象端末)から送信された音声信号を音声認識部303、音程認識部304及び抑揚認識部305に出力する。そして、通話制御部302は、第一端末100から送信された音声信号そのものは中継せず、音声生成部307によって生成された合成音声を通話相手の端末(第二端末200)へ中継する。
The
通話制御部302は、第二端末200(非対象端末)から送信された音声信号については、音声信号を音声認識部303、音程認識部304及び抑揚認識部305に出力せず、通信部301を介して通話相手の端末(第一端末100)へ中継する。
また、通話制御部302は、変換対象端末から送信される音声IDを音声生成部307に出力する。音声IDは、変換対象端末を用いて通話するユーザの声が変換される声色を表す識別情報である。
For the voice signal transmitted from the second terminal 200 (non-target terminal), the
Further, the
音声認識部303は、通話制御部302から出力された音声信号の発話内容を認識し、文字情報を生成する。音声認識部303は、生成した音声情報に対して時間情報を付加することによって、音声認識結果を生成する。時間情報とは、各文字が発音された時間を表す情報である。時間情報は、例えば変換対象端末から送信された音声信号から人の声が検出された時点を始点とし、始点からの経過時間によって表されても良い。
The
音程認識部304は、通話制御部302から出力された音声信号の音程変化を認識し、音程情報を生成する。音程認識部304は、例えば音声信号の周波数変化に基づいて音程変化を認識しても良い。音程認識部304は、生成した音程情報に対して時間情報を付加することによって、音程認識結果を生成する。
The
抑揚認識部305は、通話制御部302から出力された音声信号の抑揚変化を認識し、抑揚情報を生成する。抑揚認識部305は、例えば音声信号の振幅の変化に基づいて抑揚変化を認識しても良い。抑揚認識部305は、生成した抑揚情報に対して時間情報を付加することによって、抑揚認識結果を生成する。
The
音声情報記憶部306は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。音声情報記憶部306は、声色毎に予め生成された音声素片を含むデータベースを、音声IDに対応付けて記憶する。すなわち、データベースは音声ID毎に記憶されている。
The audio
音声生成部307は、通話制御部302によって出力される音声IDに基づいて、音声情報記憶部306に記憶されている複数のデータベースの中から、音声合成処理に用いるデータベースを選択する。音声生成部307は、選択されたデータベースから、音声認識部303によって出力される音声認識結果と、音程認識部304によって出力される音程認識結果と、抑揚認識部305によって出力される抑揚認識結果と、に基づいて音声素片を選択する。そして、音声生成部307は、選択した音声素片を、音程認識結果及び抑揚認識結果に基づいて接続し、合成音声を生成する。音声生成部307は、例えば周波数ドメイン歌唱アーティキュレーション接続法を用いることによって音声合成処理を行っても良い。
The
図3は、通話システム1の処理の流れの具体例を表すシーケンス図である。図3に示す処理の流れでは、発呼を行った端末が変換対象端末となり、着呼をした端末が非対象端末となる。すなわち、中継システム300の通話制御部302は、発呼を行った端末を変換対象端末として認識し、着呼をした端末を非対象端末として認識する。
FIG. 3 is a sequence diagram illustrating a specific example of the processing flow of the call system 1. In the processing flow shown in FIG. 3, the terminal that made the call becomes the conversion target terminal, and the terminal that made the call becomes the non-target terminal. That is, the
まず、第一端末100(変換対象端末)のユーザが、第一端末100を操作することによって、通話先として第二端末200を指定し発呼を指示する。発呼の指示を受けた第一端末100は、中継システム300に対してINVITEメッセージを送信する(ステップS101)。中継システム300は、INVITEメッセージに応じて、100 Tryingメッセージを第一端末100に送信する(ステップS102)。また、中継システム300は、INVITEメッセージに応じて、発呼先として指定されている第二端末200に対しINVITEメッセージを送信する(ステップS103)。
First, the user of the first terminal 100 (conversion target terminal) operates the
第二端末200は、中継システム300からINVITEメッセージを受信すると、100 Tryingメッセージを中継システム300に対して送信する(ステップS104)。次に、第二端末200は、着信音を出力し、着呼していることをユーザに通知する。そして、第二端末200は、180 Ringingメッセージを中継システム300に対して送信する(ステップS105)。
When receiving the INVITE message from the
中継システム300は、第二端末200から180 Ringingメッセージを受信すると、第一端末100に対して180 Ringingメッセージを送信する(ステップS106)。第二端末200のユーザが第二端末200をオフフックにすると、第二端末200は中継システム300に対して200 OKメッセージを送信する(ステップS107)。中継システム300は、第二端末200から200 OKメッセージを受信すると、第一端末100に対して200 OKメッセージを送信する(ステップS108)。
When receiving the 180 Ringing message from the
第一端末100は、中継システム300から200 OKメッセージを受信すると、ACKメッセージを中継システム300に対して送信する(ステップS109)。中継システム300は、第一端末100からACKメッセージを受信すると、ACKメッセージを第二端末200に対して送信する(ステップS110)。以上の処理によって、第一端末100と第二端末200との間で通話セッションが確立される(ステップS111)。
When receiving the 200 OK message from the
その後、第二端末200のユーザが第二端末200をオンフック状態にすると、第二端末200は中継システム300に対してBYEメッセージを送信する(ステップS112)。中継システム300は、第二端末200からBYEメッセージを受信すると、BYEメッセージを第一端末100に対して送信する(ステップS113)。以上の処理によって、第一端末100と第二端末200との間に確立された通話セッションが終了する。
Thereafter, when the user of the
図4は、通話セッションが確立されている間の中継システム300の処理の具体例を示すフローチャートである。中継システム300の通話制御部302は、ネットワークを介して通信部301が音声信号を受信すると(ステップS201)、受信された音声信号の送信元が変換対象端末であるか否か判定する(ステップS202)。送信元が変換対象端末ではない場合(ステップS202−NO)、通話制御部302は、受信された音声信号を通話相手の端末(非対象端末)へ送信する(ステップS207)。
FIG. 4 is a flowchart illustrating a specific example of processing of the
一方、送信元が変換対象端末である場合(ステップS202−YES)、通話制御部302は、変換対象端末から送信された音声IDを音声生成部307に出力する。また、通話制御部302は、受信された音声信号を音声認識部303、音程認識部304及び抑揚認識部305に出力する。音声認識部303は、音声信号に基づいて音声認識処理を行い、音声生成部307に対して音声認識結果を出力する(ステップS203)。音程認識部304は、音声信号に基づいて音程認識処理を行い、音声生成部307に対して音程認識結果を出力する(ステップS204)。抑揚認識部305は、音声信号に基づいて抑揚認識処理を行い、音声生成部307に対して抑揚認識結果を出力する(ステップS205)。
On the other hand, when the transmission source is the conversion target terminal (step S202—YES), the
音声生成部307は、音声ID、音声認識結果、音程認識結果及び抑揚認識結果に基づいて合成音声を生成する(ステップS206)。通話制御部302は、音声生成部307によって生成された合成音声の音声信号を、変換対象端末の通話相手である端末(非対象端末)に対して送信する(ステップS207)。以上の処理によって、変換対象端末と非対象端末との間で通話が行われる。
The
このように構成された通話システム1では、音声通話に付加される新たな機能を提供することが可能となる。具体的には以下のとおりである。変換対象端末のユーザの音声は、ユーザが用いる発話内容、音程及び抑揚を再現した形で、音声IDが示す声色の合成音声に変換される。そして、合成音声は、変換対象端末の通話相手の端末に送信される。そのため、変換対象端末の通話相手は、他の人物と通話をしている状態を楽しむことが可能となる。 In the call system 1 configured as described above, it is possible to provide a new function added to the voice call. Specifically, it is as follows. The voice of the user of the conversion target terminal is converted into a voice-synthesized voice indicated by the voice ID in a form that reproduces the utterance content, pitch, and intonation used by the user. The synthesized voice is transmitted to the terminal of the other party of the conversion target terminal. Therefore, it is possible for the call partner of the conversion target terminal to enjoy a state in which a call is being made with another person.
例えば、音声ID毎に有名なキャラクター(アニメのキャラクター、TV番組のキャラクター等)のデータベースが音声情報記憶部306に登録されている場合、変換対象端末のユーザは、非対象端末のユーザとの間で、自身が選択した有名なキャラクターの音声で通話を行う事が可能となる。
For example, when a database of famous characters (animated characters, TV program characters, etc.) for each voice ID is registered in the voice
また、通話システム1では、合成音声において、変換対象端末のユーザの発話内容が再現されるだけではなく、音程や抑揚も再現される。そのため、機械的な音声で不自然な通話が行われることを防止し、発話者の特徴や感情を活かした通話を実現することが可能となる。 Further, in the call system 1, not only the speech content of the user of the conversion target terminal is reproduced, but also the pitch and intonation are reproduced in the synthesized speech. For this reason, it is possible to prevent an unnatural call from being made with mechanical voice, and to realize a call utilizing the characteristics and emotions of the speaker.
<変形例>
音程認識部304及び抑揚認識部305は、必ずしも両方が備えられる必要は無く、いずれか一方のみが備えられるように構成されても良い。
図3に示すシーケンス図では、発呼側が変換対象端末として認識されたが、着呼側が変換対象端末として認識されるように構成されても良い。例えば以下のように構成されても良い。まず、発呼側に対して、予め所定の電話番号が通知されている。中継システム300には、予め通知された電話番号と、変換対象端末となる着呼側の端末の電話番号とが対応付けて登録されている。発呼側が予め通知された電話番号に発信すると、中継システム300は、発信された電話番号に予め対応付けられている変換対象端末の電話番号との間で通話セッションを確立する。そして、中継システム300は、発呼側を非対象端末として認識し、着呼側を変換対象端末として認識し、処理を行う。
<Modification>
Both the
In the sequence diagram shown in FIG. 3, the calling side is recognized as the conversion target terminal, but the called side may be recognized as the conversion target terminal. For example, it may be configured as follows. First, a predetermined telephone number is notified in advance to the calling party. In the
通話セッションの確立手法としては、中継システム300が第一端末100及び第二端末200それぞれと通話セッションを確立する手法が採用されても良い(例えばV字発信)。
ステップS203の音声認識処理、ステップS204の音程認識処理、ステップS205の抑揚認識処理のいずれか2つ又は全ては、並列に実行されても良い。また、各処理が実行される順序は、図4に示したフローチャートの順番に限定される必要は無い。
中継システム300は、音程認識処理又は抑揚認識処理のいずれか一方又は双方を実行しなくとも良い。この場合、例えば中継システム300は、予め音声情報記憶部306に記憶されている音程情報や抑揚情報を用いることによって音声合成を行っても良い。
As a method for establishing a call session, a method may be employed in which the
Any two or all of the speech recognition processing in step S203, the pitch recognition processing in step S204, and the intonation recognition processing in step S205 may be executed in parallel. Further, the order in which each process is executed need not be limited to the order of the flowchart shown in FIG.
The
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
1…通話システム, 100…第一端末, 200…第二端末, 300…中継システム, 301…通信部, 302…通話制御部, 303…音声認識部, 304…音程認識部, 305…抑揚認識部, 306…音声情報記憶部, 307…音声生成部 DESCRIPTION OF SYMBOLS 1 ... Call system, 100 ... 1st terminal, 200 ... 2nd terminal, 300 ... Relay system, 301 ... Communication part, 302 ... Call control part, 303 ... Voice recognition part, 304 ... Pitch recognition part, 305 ... Intonation recognition part 306: Audio information storage unit 307: Audio generation unit
Claims (3)
第一端末から送信された音声に基づいて発話内容を認識する第一認識部と、
第一端末から送信された音声に基づいて音程を認識する第二認識部と、
合成音声を生成する際に用いられる音声素片を記憶する記憶部と、
前記記憶部に記憶される前記音声素片を組み合わせることによって、前記第一認識部によって認識された発話内容と前記第二認識部によって認識された音程を再現した合成音声を生成する音声生成部と、
前記音声生成部によって生成された前記合成音声を前記第二端末に送信する通信部と、を備える中継システム。 A relay system that relays a call between a first terminal and a second terminal,
A first recognition unit for recognizing the utterance content based on the voice transmitted from the first terminal;
A second recognizing unit that recognizes a more sound based on the sound that is transmitted from the first terminal,
A storage unit for storing speech segments used when generating synthesized speech;
By combining the speech units stored in the storage unit, the voice generator for generating a synthesized speech that reproduces the more recognized sound and speech content recognized by the first recognition unit by the second recognition unit When,
And a communication unit that transmits the synthesized voice generated by the voice generation unit to the second terminal.
第一端末から送信された音声に基づいて発話内容を認識する第一認識ステップと、
第一端末から送信された音声に基づいて音程を認識する第二認識ステップと、
記憶部に記憶される音声素片を組み合わせることによって、前記第一認識ステップにおいて認識された発話内容と前記第二認識ステップにおいて認識された音程を再現した合成音声を生成する音声生成ステップと、
前記音声生成ステップにおいて生成された前記合成音声を前記第二端末に送信する通信ステップと、
を有する中継方法。 A relay method performed by a relay system that relays a call between a first terminal and a second terminal,
A first recognition step for recognizing the utterance content based on the voice transmitted from the first terminal;
A second recognizing step recognizes as sound based on the sound that is transmitted from the first terminal,
By combining speech units stored in the storage unit, a sound generation step of generating a reproduced synthetic speech as perceived sound in the first recognition it said second recognition step the recognized speech content in step,
A communication step of transmitting the synthesized speech generated in the speech generation step to the second terminal;
A relay method.
第一端末から送信された音声に基づいて発話内容を認識する第一認識ステップと、
第一端末から送信された音声に基づいて音程を認識する第二認識ステップと、
記憶部に記憶される音声素片を組み合わせることによって、前記第一認識ステップにおいて認識された発話内容と前記第二認識ステップにおいて認識された音程を再現した合成音声を生成する音声生成ステップと、
前記音声生成ステップにおいて生成された前記合成音声を前記第二端末に送信する通信ステップと、
を実行させるためのプログラム。 For computers that relay calls between the first terminal and the second terminal,
A first recognition step for recognizing the utterance content based on the voice transmitted from the first terminal;
A second recognizing step recognizes as sound based on the sound that is transmitted from the first terminal,
A speech generation step of generating synthesized speech that reproduces the utterance content recognized in the first recognition step and the pitch recognized in the second recognition step by combining speech units stored in the storage unit;
A communication step of transmitting the synthesized speech generated in the speech generation step to the second terminal;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013037293A JP6028289B2 (en) | 2013-02-27 | 2013-02-27 | Relay system, relay method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013037293A JP6028289B2 (en) | 2013-02-27 | 2013-02-27 | Relay system, relay method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014164241A JP2014164241A (en) | 2014-09-08 |
JP6028289B2 true JP6028289B2 (en) | 2016-11-16 |
Family
ID=51614861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013037293A Active JP6028289B2 (en) | 2013-02-27 | 2013-02-27 | Relay system, relay method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6028289B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6730651B1 (en) * | 2019-03-01 | 2020-07-29 | 富士通クライアントコンピューティング株式会社 | Voice conversion device, voice conversion system and program |
CN112017652A (en) * | 2019-05-31 | 2020-12-01 | 华为技术有限公司 | Interaction method and terminal equipment |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11219278A (en) * | 1998-02-02 | 1999-08-10 | Mitsubishi Electric Corp | Three-dimensional virtual world system |
JP3552200B2 (en) * | 1999-03-31 | 2004-08-11 | 株式会社東芝 | Audio signal transmission device and audio signal transmission method |
JP2000349865A (en) * | 1999-06-01 | 2000-12-15 | Matsushita Electric Works Ltd | Voice communication apparatus |
JP2003046647A (en) * | 2001-07-30 | 2003-02-14 | Ntt Docomo Tohoku Inc | System, method and program for repeating call and recording medium with the program recorded thereon |
JP2004205624A (en) * | 2002-12-24 | 2004-07-22 | Megachips System Solutions Inc | Speech processing system |
-
2013
- 2013-02-27 JP JP2013037293A patent/JP6028289B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014164241A (en) | 2014-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10356239B1 (en) | Transcribing audio communication sessions | |
US9406296B2 (en) | Two way automatic universal transcription telephone | |
US20080194301A1 (en) | Voice Activated Dialing for Wireless Headsets | |
US20110136547A1 (en) | Wireless Headset with Voice Announcement | |
RU2015156799A (en) | SYSTEM AND METHOD FOR CREATING A WIRELESS TUBE FOR STATIONARY PHONES USING A HOME GATEWAY AND A SMARTPHONE | |
JP6028289B2 (en) | Relay system, relay method and program | |
CN102469293A (en) | Realization method and device for acquiring user input information in video service | |
JP2006333057A (en) | Telephone set with voice changer, and control method and control program thereof | |
JP6317281B2 (en) | Call system, call control system, and call method | |
CN112259073B (en) | Voice and text direct communication method, device, electronic equipment and storage medium | |
US9578178B2 (en) | Multicall telephone system | |
JP2007019600A (en) | Telephone set and call termination notice method | |
JP6396685B2 (en) | Call control apparatus, receiver, and control method thereof | |
JP2019097122A (en) | Voice response device and program | |
JP2014150442A (en) | Telephone conversation system and telephone conversation relay method | |
JP2013207508A (en) | Automatic voice response device | |
JP6521397B2 (en) | Telephone system, telephone, and telephone transfer method | |
JP2011182204A (en) | Communication system and communication method in ip telephone network | |
JP2004343566A (en) | Mobile telephone terminal and program | |
CN104639772A (en) | Method for realizing registration-free internet call of mobile phone | |
JP2016063470A (en) | Communication terminal device | |
KR20190131859A (en) | Real time Communication processing method using DECT system | |
JP2020048056A (en) | Call control device, call control program, and call control method | |
JP5650036B2 (en) | Intercom system | |
KR100720719B1 (en) | Communication System for selective communication of PSTN telephone/ VoIP telephone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6028289 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |