JP2013127536A - Voice output device, communication terminal and hearing aid equipped with the same, program for controlling voice output device, method of providing individualized voice to voice output device users, and system for updating conversion data of voice output device - Google Patents

Voice output device, communication terminal and hearing aid equipped with the same, program for controlling voice output device, method of providing individualized voice to voice output device users, and system for updating conversion data of voice output device Download PDF

Info

Publication number
JP2013127536A
JP2013127536A JP2011276726A JP2011276726A JP2013127536A JP 2013127536 A JP2013127536 A JP 2013127536A JP 2011276726 A JP2011276726 A JP 2011276726A JP 2011276726 A JP2011276726 A JP 2011276726A JP 2013127536 A JP2013127536 A JP 2013127536A
Authority
JP
Japan
Prior art keywords
user
output device
voice
conversion data
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011276726A
Other languages
Japanese (ja)
Inventor
Michitaka Toshimoto
道隆 利元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011276726A priority Critical patent/JP2013127536A/en
Publication of JP2013127536A publication Critical patent/JP2013127536A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a voice output device capable of converting voice to suit individual users.SOLUTION: A voice output device 1 includes; a receiver section 110 which receives voice; a storage section 120 which stores conversion data for converting voice such that a user of the voice output device 100 can recognize the voice; a converter section 130 configured to convert the voice received by the receiver section 110 to voice that can be recognized by the user on the basis of the conversion data; an output section 140 which outputs the voice that can be recognized by the user; and an updating section 150 which updates the conversion data stored by the storage section 120.

Description

本発明は、音声の変換に関し、より特定的には、音声出力装置の使用者に応じて音声を変換するための技術に関する。   The present invention relates to audio conversion, and more particularly to a technique for converting audio in accordance with a user of an audio output device.

補聴器のように音声を変換して出力する技術が知られている。また、携帯電話やスマートフォンのように、マイクやスピーカを有する通信端末が、コミュニケーションの手段として広く普及している。   A technique for converting and outputting sound like a hearing aid is known. Communication terminals having a microphone and a speaker, such as mobile phones and smartphones, are widely used as communication means.

たとえば、特開平6−755595号公報(特許文献1)は、「実時間で音声加工が可能で、ホルマント強調効果の高く、不自然な残留雑音のすくない音声加工装置」および「ホルマント強調と音声信号スペクトルを難聴者の可聴範囲にいれる信号処理とを両方とも効率的に行う補聴器」を開示している([要約])。   For example, Japanese Patent Laid-Open No. 6-755595 (Patent Document 1) discloses that “a speech processing apparatus that can perform speech processing in real time, has a high formant enhancement effect, and does not generate unnatural residual noise” and “formant enhancement and speech signal”. Hearing aids that efficiently perform both signal processing that places the spectrum in the hearing range of the hearing impaired ”([SUMMARY]).

特開2003−319497号公報(特許文献2)は、「携帯電話などの通話装置において、個人の聴力に合わせた、周波数特性やダイナミックレンジ圧縮特性を持たせて聴力補償を行ない、高齢者や聴力弱者でも良好な通話が選られる通話装置」を開示している(段落0001)。   Japanese Patent Laid-Open No. 2003-319497 (Patent Document 2) states that “in a communication device such as a mobile phone, the frequency compensation and dynamic range compression characteristics are adjusted according to the individual's hearing ability to compensate for hearing, and the elderly and hearing ability. "Calling device that allows a weak person to select a good call" (paragraph 0001).

特開2001−136240号公報(特許文献3)は、「ユーザーの聴力を補正して通話することができるようにする」ための技術を開示している。   Japanese Patent Application Laid-Open No. 2001-136240 (Patent Document 3) discloses a technique for “correcting user's hearing ability so as to make a call”.

特開平6−755595号公報JP-A-6-755595 特開2003−319497号公報JP 2003-319497 A 特開2001−136240号公報JP 2001-136240 A

携帯電話はマイクから音声を入力し、イヤーピースから相手の音声を聞く事が出来る。マイクから入力された人間の声は、μ-lawコーデックというG.711でITU−T(International Telecommunication Union Telecommunication Standardization Sector)が標準化したシンプルなコーデックでデジタル化される。これでは帯域が大き過ぎるため、狭帯域にするために音声コーデックでコード化される。   A mobile phone can input voice from a microphone and listen to the voice of the other party through the earpiece. The human voice input from the microphone is a G.law codec called G.law codec. 711 is digitized by a simple codec standardized by ITU-T (International Telecommunication Union Telecommunication Standardization Sector). In this case, since the band is too large, it is coded by a voice codec to narrow the band.

人間の声は、音源である声帯の音の特性や有声・無声の区別と、咽喉と口腔、鼻腔、舌、唇などの調音器官(声道)の共鳴による周波数選択特性でモデル化できる。音声波形はかなり早い振動成分を含むが、調音機構などの動きはそれと比べると比較的緩やかであり、それらを適切にパラメータ化することで、必要なデータを大幅に減らすことができる。   The human voice can be modeled with the characteristics of the vocal cords as the sound source, the distinction between voiced and unvoiced, and the frequency-selective characteristics based on the resonance of the throat and oral cavity, nasal cavity, tongue, lip and other articulatory organs (voice tract). The sound waveform includes a vibration component that is quite fast, but the movement of the articulation mechanism and the like is relatively slow, and the necessary data can be greatly reduced by appropriately parameterizing them.

なお、音声コーデックには、大きく2種類ある。一つは、音声信号の隣り合ったサンプル間には相関があるため、過去のサンプル値を利用して現在のサンプル値を予測することができ、1つ前のサンプル値を予測値として、次のサンプル値との差分のみをコード化する適応的差分PCM(Adaptive Differential Pulse Code Modulation)方式というものである。   There are two main types of audio codecs. First, since there is a correlation between adjacent samples of the audio signal, the current sample value can be predicted using the past sample value, and the next sample value is used as the predicted value. This is an adaptive differential pulse code modulation (PCM) method in which only the difference from the sample value is encoded.

もう一つは、CELP(Code-Excited Linear Prediction)に代表される、波形符号化と分析合成符号化とを組み合わせた方法である。この方法は、分析合成符号化と同様に、声帯に相当する音源と声道の特性とを表す合成フィルターとして音声をモデル化してパラメータ化し、声道のパラメータを用いて音声波形を再合成し、元の音声波形にできるだけ近くなるよう音源パラメータを求めるものである。   The other is a method of combining waveform coding and analysis / synthesis coding represented by CELP (Code-Excited Linear Prediction). This method, like analysis synthesis coding, models speech as a synthesis filter that represents the sound source corresponding to the vocal cords and the characteristics of the vocal tract, parameters it, re-synthesizes the speech waveform using the vocal tract parameters, The sound source parameters are obtained so as to be as close as possible to the original speech waveform.

多くの音声圧縮システムは、音声信号の周期性をモデル化するためにサブシステムを使用する。音声圧縮(あるいは符号化)において広く使用されている、そのような2つの周期性モデルとして、ピッチ予測フィルタ(PPF:Pitch Prediction Filter)および適応コードブック(ACB:Adaptive Codebook)がある。   Many speech compression systems use subsystems to model the periodicity of speech signals. Two such periodic models widely used in speech compression (or encoding) include a pitch prediction filter (PPF) and an adaptive codebook (ACB).

ACBは、基本的には、過去の音声信号、または、音声残差や励振信号のようなその派生物(以下「音声信号」という。)のサンプルを保持するメモリである。過去の(メモリに保持されている)音声信号のサンプルを現在にコピーすることによって周期性を導入(あるいはモデル化)することにより、現在の音声信号がどのようになるかを「予測」する。   The ACB is basically a memory that holds a sample of a past audio signal or a derivative thereof (hereinafter referred to as “audio signal”) such as an audio residual or an excitation signal. Introduce (or model) periodicity by copying past samples of speech signals (retained in memory) to the present to “predict” what the current speech signal will look like.

代表的なCELP音声圧縮方式は、固定コードブック(FCB:Fixed Codebook)とACBの従来の組み合せ(この組み合せは、CELP方式の符号器および復号器の両方で使用される)として構成される。FCBは、インデックス値Iを受信し、それによりFCBは、所定期間の音声信号(励振)ベクトルを出力する。この所定期間は、サブフレームと称される。たとえば、この音声励振信号は、サブフレーム内に位置する一つ以上の主パルスからなる。説明を明確にするために、出力ベクトルは、単位大きさを有する単一の大きいパルスを有すると仮定する。出力ベクトルは、増幅器によって加えられる利得gcでスケールされる。   A typical CELP audio compression scheme is configured as a conventional combination of a fixed codebook (FCB) and an ACB (this combination is used in both CELP encoders and decoders). The FCB receives the index value I, whereby the FCB outputs a speech signal (excitation) vector for a predetermined period. This predetermined period is called a subframe. For example, the voice excitation signal is composed of one or more main pulses located in a subframe. For clarity of explanation, assume that the output vector has a single large pulse with unit magnitude. The output vector is scaled by the gain gc applied by the amplifier.

FCBおよび利得の作用と平行して、ACBは、以前に合成した音声に基づいて音声信号を生成する。   In parallel with the effects of FCB and gain, ACB generates a speech signal based on previously synthesized speech.

こうして作成された音声データは、インターリーブやパンクチュアル化された後、シリアル/パラレル変換され、変調器で変調され、パワーアンプで増幅後、アンテナから出力されて、基地局に送信される。   The audio data thus created is interleaved or punctured, serial / parallel converted, modulated by a modulator, amplified by a power amplifier, output from an antenna, and transmitted to a base station.

基地局で受信された信号は、復調後、G.711で一般電話回線に送られて、相手側の携帯電話が属する基地局で再度同じ音声コーデックで変調され、相手の携帯電話に送信される。受信されたデジタル信号は、同じく音声コーデックでG.711に復調された後、アナログの音声信号に復調されて、イヤーピースから出力される。   The signal received at the base station is G. In 711, the signal is sent to a general telephone line, and again modulated by the same voice codec at the base station to which the other party's mobile phone belongs, and transmitted to the other's mobile phone. The received digital signal is also a G. After being demodulated to 711, it is demodulated into an analog audio signal and output from the earpiece.

携帯電話の音声帯域は、約340Hz〜4KHzであり、この帯域を聞きにくい難聴者は、補聴器で聞きとれないスペクトラムの音量を最適化することにより、聞けるようにしている。これは、難聴者が掛り付けの医師が、難聴者を定期的に診断することにより、補聴器のスペクトラムのどの部分を補正するべきかを最適化しているが、強弱に限られる。すなわち、Aさんが高音を聞きとりにくい場合、たとえば、800Hzと1500Hzのスペクトラムを聞き取りにくいときを例示する。この場合、補聴器は、その内部で、このスペクトラムを大きくし、逆に、特定のスペクトラムだけが、大きく聞こえる場合は、そのスペクトラムを下げて聞こえやすくする。   The voice band of a mobile phone is about 340 Hz to 4 KHz, and a hearing-impaired person who is difficult to hear this band can hear it by optimizing the volume of the spectrum that cannot be heard with a hearing aid. This optimizes which part of the spectrum of the hearing aid should be corrected by a doctor who is attached to the deaf person by periodically diagnosing the deaf person, but it is limited to strength. That is, the case where Mr. A is difficult to hear high sounds, for example, the case where it is difficult to hear the spectrum of 800 Hz and 1500 Hz is illustrated. In this case, the hearing aid enlarges this spectrum inside, and conversely, if only a specific spectrum is heard loudly, the hearing aid is lowered to make it easier to hear.

そして、人によって聞き取りにくい単語は、異なる。たとえば、Aさんは、ある単語(たとえば「ブランド」)がどうしても別の単語(たとえば「ウランド」)に聞こえ、「ブレーキ」は「ウレーキ」に聞こえると仮定する。また、「ブラツキ」は「ばらつき」に聞こえ、「ぷりアー」は「バリアー」に聞こえると仮定する。音声が認識される態様は、このように、その人に応じた固有のパターンがあり、千差万別の聞こえ方となる。そのため、一般の補聴器を用いて音声を補正することは、困難である。したがって、使用者に応じて音声を調整して調整後の音声を出力するための技術が必要とされている。   And words that are hard to hear depend on the person. For example, Mr. A assumes that one word (eg “Brand”) is audibly heard by another word (eg “Uland”) and “Brake” is heard by “Ureki”. Further, it is assumed that “bracket” sounds like “variation” and “pre-ear” sounds like “barrier”. As described above, the manner in which the voice is recognized has a unique pattern according to the person, and the sound is heard in various ways. Therefore, it is difficult to correct the sound using a general hearing aid. Therefore, there is a need for a technique for adjusting the sound according to the user and outputting the adjusted sound.

本発明は、上述のような問題点を解決するためになされたものであって、その目的は、使用者に応じて音声を調整できる音声出力装置を提供することである。他の局面における目的は、使用者に応じて音声を調整できる補聴器を提供することである。他の局面における目的は、使用者に応じて音声を調整できる通信端末を提供することである。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an audio output device capable of adjusting audio in accordance with a user. An object in another aspect is to provide a hearing aid that can adjust sound according to a user. An object in another aspect is to provide a communication terminal capable of adjusting voice according to a user.

他の目的は、使用者に応じて音声が調整されるように音声出力装置を制御するためのプログラムを提供することである。   Another object is to provide a program for controlling an audio output device so that audio is adjusted according to a user.

さらに他の目的は、音声出力装置の使用者に応じた音声を提供するための方法を提供することである。   Still another object is to provide a method for providing sound according to a user of an audio output device.

一実施の形態に従う音声出力装置は、音声を受信するための受信手段と、音声を、当該音声出力装置の使用者が認識できる音声に変換するための変換データを格納するためのメモリと、変換データに基づいて、受信手段によって受信された音声を、使用者が認識できる音声に変換するための変換手段と、使用者が認識できる音声を出力するための出力手段とを備える。   An audio output device according to an embodiment includes a receiving unit for receiving audio, a memory for storing conversion data for converting the audio into audio that can be recognized by a user of the audio output device, and conversion Based on the data, a conversion means for converting the voice received by the reception means into a voice that can be recognized by the user, and an output means for outputting the voice that can be recognized by the user.

好ましくは、音声出力装置は、メモリに格納されている変換データを更新するための更新手段をさらに備える。   Preferably, the audio output device further includes an updating unit for updating the conversion data stored in the memory.

他の実施の形態に従うと、上記のいずれかに記載の音声出力装置を備える通信端末が提供される。   According to another embodiment, a communication terminal including any one of the audio output devices described above is provided.

好ましくは、変換データは、通信端末の使用者によって修正可能である。
さらに他の実施の形態に従うと、上記のいずれかに記載の音声出力装置を備える補聴器が提供される。
Preferably, the conversion data can be corrected by the user of the communication terminal.
According to still another embodiment, a hearing aid comprising the audio output device according to any one of the above is provided.

他の実施の形態に従うと、音声出力装置を制御するためのプログラムが提供される。このプログラムは、音声出力装置に、音声出力装置によって受信される音声を、当該音声出力装置の使用者が認識できる音声に変換するための変換データをロードするステップと、変換データに基づいて、受信された音声を、使用者が認識できる音声に変換するステップと、使用者が認識できる音声を出力するステップとを実行させる。   According to another embodiment, a program for controlling an audio output device is provided. The program loads the conversion data for converting the sound received by the sound output device into sound that can be recognized by the user of the sound output device, and the reception based on the conversion data. The step of converting the generated voice into voice that can be recognized by the user and the step of outputting voice that can be recognized by the user are executed.

他の実施の形態に従うと、音声出力装置の使用者に応じた音声を提供するための方法が提供される。この方法は、音声出力装置と通信可能な情報通信装置が、音声を、音声出力装置の使用者が認識できる音声に変換するための変換データを受信するステップと、変換データを音声出力装置に送信するステップとを含む。   According to another embodiment, a method for providing sound according to a user of an audio output device is provided. In this method, an information communication device capable of communicating with an audio output device receives conversion data for converting audio into audio that can be recognized by a user of the audio output device, and transmits the converted data to the audio output device. Including the step of.

好ましくは、受信するステップは、音声出力装置の使用者の聴力の検査結果に基づいて作成される変換データを受信するステップを含む。   Preferably, the step of receiving includes the step of receiving conversion data created based on the test result of the hearing of the user of the audio output device.

他の実施の形態に従う音声出力装置は、音声を、音声変換を必要とする使用者が認識できる音声に変換するための変換データと、使用者の情報とを格納するための記憶手段と、使用者の情報が登録された端末への着信に応答して当該端末が発呼していることを検知するための検知手段と、発呼の検知に応答して、使用者のための変換データを端末に送信するための送信手段とを備える。   An audio output device according to another embodiment includes a storage means for storing conversion data for converting audio into audio that can be recognized by a user who needs audio conversion, and user information, and use Detecting means for detecting that the terminal is calling in response to an incoming call to the terminal where the user's information is registered, and converting data for the user in response to detecting the call. Transmitting means for transmitting to the terminal.

他の実施の形態に従う音声出力装置は、音声を、音声変換を必要とする使用者が認識できる音声に変換するための変換データと、使用者の情報とを格納するための記憶手段と、使用者の情報が登録された端末に対する、使用者からの着信を検知するための検知手段と、着信の検知に応答して、使用者のための変換データを端末に送信するための送信手段とを備える。   An audio output device according to another embodiment includes a storage means for storing conversion data for converting audio into audio that can be recognized by a user who needs audio conversion, and user information, and use Detecting means for detecting an incoming call from the user with respect to the terminal in which the user's information is registered, and a transmitting means for transmitting conversion data for the user to the terminal in response to the detection of the incoming call Prepare.

他の実施の形態に従うと、上記の変換データを更新するためのシステムが提供される。このシステムは、変換データを使用する使用者の新たな検査情報を取得するための取得手段と、変換データを格納するための記憶手段と、新たな検査情報に基づいて記憶手段に格納されている変換データを更新するための更新手段と、更新手段によって更新された変換データを、当該使用者の情報が登録された端末に送信するための送信手段とを備える。   According to another embodiment, a system for updating the converted data is provided. This system is stored in the storage means based on the acquisition means for acquiring new inspection information of the user who uses the conversion data, the storage means for storing the conversion data, and the new inspection information. An update means for updating the conversion data, and a transmission means for transmitting the conversion data updated by the update means to the terminal in which the user information is registered.

他の実施の形態に従うと、音声出力装置を制御するためのプログラムが提供される。このプログラムは、音声出力装置に、音声出力装置によって受信される音声を、当該音声出力装置の使用者が認識できる音声に変換するための変換データをロードするステップと、変換データに基づいて、受信された音声を、使用者が認識できる音声に変換するステップと、使用者が認識できる音声を出力するステップとを実行さる。変換するステップは、音声帯域のスペクトラムの強弱を組み合わせることにより、受信された音声を認識できる音声に変換することを含む。   According to another embodiment, a program for controlling an audio output device is provided. The program loads the conversion data for converting the sound received by the sound output device into sound that can be recognized by the user of the sound output device, and the reception based on the conversion data. The step of converting the generated voice into a voice that can be recognized by the user and a step of outputting the voice that can be recognized by the user are executed. The step of converting includes converting the received voice into a recognizable voice by combining the spectrum strength of the voice band.

ある局面によると、使用者に応じた音声が出力される。   According to an aspect, a sound corresponding to the user is output.

音声出力装置100の機能的構成を表すブロック図である。2 is a block diagram illustrating a functional configuration of an audio output device 100. FIG. 補聴器200のハードウェア構成を表すブロック図である。2 is a block diagram illustrating a hardware configuration of a hearing aid 200. FIG. 携帯電話300のハードウェア構成を表すブロック図である。4 is a block diagram illustrating a hardware configuration of mobile phone 300. FIG. 音声出力装置100として機能する補聴器200が有するメモリ240または携帯電話300が有するメモリ344におけるデータの格納の一態様を概念的に表す図である。FIG. 3 is a diagram conceptually illustrating one mode of data storage in a memory 240 included in the hearing aid 200 functioning as the audio output device 100 or a memory 344 included in the mobile phone 300. 補聴機能を有する携帯電話300が実行する処理の一部を表すフローチャートである。It is a flowchart showing a part of process which the mobile telephone 300 which has a hearing aid function performs. 本変形例に係る携帯電話300の使用態様を表わす図である。It is a figure showing the usage condition of the mobile telephone 300 which concerns on this modification. コンピュータ610,630のハードウェア構成を表すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration of computers 610 and 630. コンピュータ610として機能するCPU1が実行する処理の一部を表すフローチャートである。6 is a flowchart showing a part of processing executed by CPU 1 functioning as computer 610. 通信事業者620が有するコンピュータ630のCPU1が実行する処理を表すフローチャートである。10 is a flowchart illustrating processing executed by CPU 1 of computer 630 included in communication carrier 620. 携帯電話300のCPU310が実行する一連の処理の一部を表すフローチャートである。10 is a flowchart showing a part of a series of processes executed by CPU 310 of mobile phone 300.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。   The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

[技術思想]
まず、本実施の形態に係る技術思想について説明する。本実施の形態に係る音声出力装置によると、Aさんにとって聞こえるように修正された音声が出力される。この修正は、たとえば、音声コーデックのコードブックを補正することにより実現される。たとえば、Aさんの通話相手が「バラツキ」と発音した単語は、Aさんの通信端末の音声コーデックでデコードされる時に、「ブラツキ」に修正されてイヤーピースから出力される。これにより、通話相手が発話した「バラツキ」との語句は、Aさんの耳に届く前に変換されて、Aさんは、発話された言葉が「バラツキ」であることを認識することができる。
[Technology]
First, the technical idea according to the present embodiment will be described. According to the audio output device according to the present embodiment, the audio corrected so as to be heard by Mr. A is output. This correction is realized, for example, by correcting the codebook of the audio codec. For example, a word that A's call partner pronounced “variation” is corrected to “blur” and output from the earpiece when it is decoded by the voice codec of Mr. A's communication terminal. Thereby, the phrase “variation” uttered by the call partner is converted before reaching the ear of Mr. A, and Mr. A can recognize that the spoken word is “variation”.

これは、現在のACELP(Algebraic Code Excited Linear Prediction:代数符号励振線形予測)などの音声コーデックでは、コードブックが人間の全ての音源に対応しており、子音、母音、濁音その他の全ての音源をコードブック化することが可能である。そのため、たとえば、Aさんのように、どの音源の音がどう聞こえるかが事前に分かっていれば、その情報を通信端末のRAM(Random Access Memory)に格納しておく。音声コーデックでデコードする場合、その音源情報に基づいて、再生する言葉や音を変換すれば、補聴器は単に音を増幅させるだけの道具になり、難聴者は電話で聞きづらいという不便がなくなる。   This is because in the current codec such as ACELP (Algebraic Code Excited Linear Prediction), the codebook supports all human sound sources, including consonants, vowels, muddy sounds, and all other sound sources. It is possible to make a code book. For this reason, for example, if it is known in advance as to Mr. A which sound source is heard and how it is heard, that information is stored in a RAM (Random Access Memory) of the communication terminal. When decoding with an audio codec, if the words and sounds to be reproduced are converted based on the sound source information, the hearing aid becomes a tool that simply amplifies the sound, and the inconvenience that the hearing impaired is difficult to hear on the phone is eliminated.

さらに、Aさんの掛り付けの病院に定期健診に行き、医師あるいは通信端末の使用者(Aさん)が、徐々に変化する聞こえずらいスペクトラム応答情報を、Aさんの通信端末にインストールすることで、自動的に音声コーデックの補正値を更新することができる。更新のためのデータのインストールとしては、病院のコンピュータからAさんの通信端末に対して更新のための情報を送信して、通信端末のプロセッサがその情報を自動的にRAMに格納する方法が用いられる。あるいは、他の局面において、病院と通信事業者が提携して、通信ネットワークに接続されたクラウドPC(Personal Computer)に保持されている変換データを、通信事業者が自動的にAさんに送ってもよい。   Furthermore, go to a regular checkup at Mr. A's hospital, and the doctor or the user of the communication terminal (Mr. A) installs gradually changing and difficult to hear spectrum response information on Ms. A's communication terminal. Thus, the correction value of the audio codec can be automatically updated. As the installation of data for update, a method is used in which information for update is transmitted from the hospital computer to Mr. A's communication terminal, and the processor of the communication terminal automatically stores the information in the RAM. It is done. Alternatively, in another aspect, the telecommunications carrier automatically sends the conversion data held in the cloud PC (Personal Computer) connected to the telecommunications network to Mr. A in cooperation with the hospital and the telecommunications carrier. Also good.

[機能的構成]
図1を参照して、本発明の実施の形態に係る音声出力装置100の構成について説明する。図1は、音声出力装置100の機能的構成を表すブロック図である。
[Functional configuration]
With reference to FIG. 1, the structure of the audio | voice output apparatus 100 which concerns on embodiment of this invention is demonstrated. FIG. 1 is a block diagram illustrating a functional configuration of the audio output device 100.

音声出力装置100は、受信部110と、記憶部120と、変換部130と、出力部140と、更新部150とを備える。   The audio output device 100 includes a reception unit 110, a storage unit 120, a conversion unit 130, an output unit 140, and an update unit 150.

受信部110は、音声を受信する。
記憶部120は、音声を、音声出力装置100の使用者が認識できる音声に変換するための変換データを格納している。
The receiving unit 110 receives audio.
The storage unit 120 stores conversion data for converting sound into sound that can be recognized by the user of the sound output device 100.

変換部130は、当該変換データに基づいて、受信部110によって受信された音声を、当該使用者が認識できる音声に変換するように構成されている。   The conversion unit 130 is configured to convert the voice received by the receiving unit 110 into a voice that can be recognized by the user based on the conversion data.

出力部140は、使用者が認識できる音声を出力する。
更新部150は、記憶部120に格納されている変換データを更新する。ある局面において、更新部150は、音声出力装置100の外部から更新用の変換データの入力を受け、その変換データを記憶部120に書き込む。
The output unit 140 outputs sound that can be recognized by the user.
The update unit 150 updates the conversion data stored in the storage unit 120. In one aspect, the update unit 150 receives input of conversion data for update from the outside of the audio output device 100 and writes the conversion data in the storage unit 120.

他の局面において、変換データは、音声出力装置100の使用者によって修正可能である。たとえば、当該使用者は、たとえばUSB(Universal Serial Bus)ケーブルを用いて音声出力装置100を、周知の構成を有するコンピュータ(図示しない)に接続する。使用者は、記憶部120に格納されている変換データをコンピュータに読み出し、当該変換データをモニタ装置(図示しない)に表示させる。使用者は、コンピュータのマウスまたはキーボードを用いて、数値を変更することにより、表示された変換データを変更することができる。   In another aspect, the conversion data can be corrected by the user of the audio output device 100. For example, the user connects the audio output device 100 to a computer (not shown) having a known configuration using, for example, a USB (Universal Serial Bus) cable. The user reads out the conversion data stored in the storage unit 120 to the computer and displays the conversion data on a monitor device (not shown). The user can change the displayed conversion data by changing the numerical value using the mouse or keyboard of the computer.

[補聴器]
図2を参照して、本実施の形態に係る補聴器200について説明する。図2は、補聴器200のハードウェア構成を表すブロック図である。補聴器200は、マイク210と、増幅器220と、A/D(Analog to Digital)変換器230と、DSP(Digital Signal Processor)250と、メモリ240と、D/A(Digital to Analog)変換器260と、イヤホン270とを備える。メモリ240は、外部プログラム装置280によって生成されるデータを格納するように構成されている。メモリ240は、フラッシュメモリその他のデータを不揮発的に保持できる記憶装置である。
[hearing aid]
A hearing aid 200 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating a hardware configuration of the hearing aid 200. The hearing aid 200 includes a microphone 210, an amplifier 220, an A / D (Analog to Digital) converter 230, a DSP (Digital Signal Processor) 250, a memory 240, a D / A (Digital to Analog) converter 260, And an earphone 270. The memory 240 is configured to store data generated by the external program device 280. The memory 240 is a storage device that can hold flash memory and other data in a nonvolatile manner.

マイク210は、補聴器200の外部において発話された音声を受け付け、音声に応じた信号を出力する。マイク210から取得される信号は、増幅器220に入力される。   The microphone 210 receives a voice uttered outside the hearing aid 200 and outputs a signal corresponding to the voice. A signal acquired from the microphone 210 is input to the amplifier 220.

増幅器220は、入力された信号を増幅して増幅後の信号を出力する。増幅器220から出力される信号は、A/D変換器230に入力される。   The amplifier 220 amplifies the input signal and outputs the amplified signal. A signal output from the amplifier 220 is input to the A / D converter 230.

A/D変換器230は、アナログの音声信号をデジタルの音声信号に変換し、そのデジタル音声信号をDSP250に対して出力する。   The A / D converter 230 converts an analog audio signal into a digital audio signal, and outputs the digital audio signal to the DSP 250.

メモリ240は、発話された音声を、補聴器200の使用者が認識できる音声に変換するための変換データを格納している。   The memory 240 stores conversion data for converting the spoken voice into voice that can be recognized by the user of the hearing aid 200.

DSP250は、メモリ240に格納されている変換データに基づいて、マイク210によって集められてA/D変換器230によって変換されたデジタル信号を、補聴器200の使用者が認識できる音声に変換するための処理を実行する。DSP250から出力される信号は、D/A変換器260に入力される。   The DSP 250 converts the digital signals collected by the microphone 210 and converted by the A / D converter 230 into sound that can be recognized by the user of the hearing aid 200 based on the converted data stored in the memory 240. Execute the process. A signal output from the DSP 250 is input to the D / A converter 260.

D/A変換器260は、デジタル信号をアナログ信号に変換し、そのアナログ信号をイヤホン270に送出する。イヤホン270は、アナログ信号に基づいて音声を出力する。   The D / A converter 260 converts the digital signal into an analog signal and sends the analog signal to the earphone 270. Earphone 270 outputs sound based on an analog signal.

ある局面において、たとえば、補聴器200の使用者に対して「ハウス」と発話されると、補聴器200の内部において「ハウス」は「マウス」に変換され、イヤホン270によって「マウス」という音声が出力される。補聴器200の使用者は、その「マウス」という音声を聞くと、発話された音声が「ハウス」であるということを認識する。   In one aspect, for example, when “house” is spoken to the user of the hearing aid 200, “house” is converted to “mouse” inside the hearing aid 200, and the sound “mouse” is output by the earphone 270. The When the user of the hearing aid 200 hears the sound “mouse”, the user recognizes that the spoken sound is “house”.

外部プログラム装置280は、変換データを編集するための、周知の構成を有するコンピュータ装置として実現される。ある局面において、外部プログラム装置280は、補聴器200の使用者に応じて変換前の音声と変換後の音声とを関連付けるための処理を実行する医師によって使用される。   The external program device 280 is realized as a computer device having a known configuration for editing the conversion data. In one aspect, the external program device 280 is used by a doctor who performs processing for associating the sound before conversion and the sound after conversion according to the user of the hearing aid 200.

[携帯電話]
図3を参照して、本実施の形態に係る携帯電話300について説明する。図3は、携帯電話300のハードウェア構成を表すブロック図である。
[mobile phone]
With reference to FIG. 3, mobile phone 300 according to the present embodiment will be described. FIG. 3 is a block diagram showing a hardware configuration of mobile phone 300.

携帯電話300は、通信装置302と、チューナ304と、アンテナ306,308と、CPU(Central Processing Unit)310と、測位処理部312と、測位信号受信フロントエンド部314と、GPS(Global Positioning System)アンテナ316と、カメラ320と、メモリ344と、RAM(Random Access Memory)346と、ROM(Read Only Memory)348と、音声信号処理回路330と、LED(Light Emitting Diode)376と、メモリカード駆動装置340と、データ通信I/F(Interface)378と、バイブレータ384とを備える。メモリカード駆動装置340には、着脱可能なメモリカード342が装着され得る。   The mobile phone 300 includes a communication device 302, a tuner 304, antennas 306 and 308, a CPU (Central Processing Unit) 310, a positioning processing unit 312, a positioning signal reception front end unit 314, and a GPS (Global Positioning System). Antenna 316, camera 320, memory 344, RAM (Random Access Memory) 346, ROM (Read Only Memory) 348, audio signal processing circuit 330, LED (Light Emitting Diode) 376, memory card driving device 340, a data communication I / F (Interface) 378, and a vibrator 384. A removable memory card 342 can be attached to the memory card driving device 340.

アンテナ306は、ワンセグ放送波を受信する。チューナ304は、CPU310の命令に従って番組を選局し、映像信号および音声信号をCPU310に伝送する。   The antenna 306 receives a one-segment broadcasting wave. The tuner 304 selects a program in accordance with an instruction from the CPU 310 and transmits a video signal and an audio signal to the CPU 310.

アンテナ308は、通信のための信号を送受信する。アンテナ308によって受信された信号は、通信装置302によってフロントエンド処理が行なわれ、処理後の信号は、CPU310に送られる。   The antenna 308 transmits and receives signals for communication. The signal received by the antenna 308 is subjected to front-end processing by the communication device 302, and the processed signal is sent to the CPU 310.

CPU310は、携帯電話300に対して与えられる命令に基づいて携帯電話300の動作を制御するための処理を実行する。CPU310は、通信装置302から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路330に送出する。音声信号処理回路330は、その信号に対して予め規定された信号処理を実行し、処理後の信号をスピーカ380に送出する。スピーカ380は、その信号に基づいて音声を出力する。   CPU 310 executes processing for controlling the operation of mobile phone 300 based on a command given to mobile phone 300. The CPU 310 executes a predetermined process based on the signal sent from the communication device 302 and sends the processed signal to the audio signal processing circuit 330. The audio signal processing circuit 330 performs predetermined signal processing on the signal and sends the processed signal to the speaker 380. Speaker 380 outputs sound based on the signal.

マイク370は、携帯電話300に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路330に対して送出する。音声信号処理回路330は、その信号に基づいて通話のために予め規定された処理を実行し、処理後の信号をCPU310に対して送出する。CPU310は、その信号を送信用のデータに変換し、変換後のデータを通信装置302に対して送出する。通信装置302は、そのデータを用いて送信用の信号を生成し、アンテナ308に向けてその信号を送出する。   The microphone 370 accepts an utterance to the mobile phone 300 and sends a signal corresponding to the uttered voice to the voice signal processing circuit 330. The audio signal processing circuit 330 executes a process specified in advance for a call based on the signal, and sends the processed signal to the CPU 310. CPU 310 converts the signal into data for transmission, and sends the converted data to communication device 302. Communication device 302 generates a signal for transmission using the data, and sends the signal to antenna 308.

メモリ344は、CPU310から送られるデータを格納する。また、CPU310は、メモリ344に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。   The memory 344 stores data sent from the CPU 310. In addition, CPU 310 reads data stored in memory 344 and executes a predetermined process using the data.

操作スイッチ360は、携帯電話300に対する操作を受け付ける。操作スイッチ360は、たとえば、ボタン、トグルスイッチその他のハードキー、または、ディスプレイ350に表示されるアイコンその他のソフトキー、もしくは、ハードキーおよびソフトキーの組み合わせとして実現される。   Operation switch 360 accepts an operation on mobile phone 300. The operation switch 360 is realized, for example, as a button, toggle switch, or other hard key, an icon or other soft key displayed on the display 350, or a combination of the hard key and the soft key.

RAM346は、操作スイッチ360に対して行なわれた操作に基づいてCPU310によって生成されるデータを一時的に保持する。RAM346は、揮発性のメモリによって実現されるが、不揮発性のメモリであってもよい。   RAM 346 temporarily holds data generated by CPU 310 based on an operation performed on operation switch 360. The RAM 346 is realized by a volatile memory, but may be a nonvolatile memory.

ROM348は、携帯電話300に予め定められた動作を実行させるための複数のプログラムあるいはデータを格納している。この複数のプログラムは、携帯電話30の製造者によって生成されるプログラムと、いわゆるアプリと呼ばれるアプリケーションプログラムの提供者によって作成されるプログラムとを含む。   The ROM 348 stores a plurality of programs or data for causing the mobile phone 300 to execute a predetermined operation. The plurality of programs include a program generated by the manufacturer of the mobile phone 30 and a program created by a provider of an application program called a so-called application.

CPU310は、当該プログラムに含まれる複数の命令を実行することにより携帯電話300の動作を制御する。   CPU 310 controls the operation of mobile phone 300 by executing a plurality of commands included in the program.

メモリカード駆動装置340は、メモリカード342に格納されているデータを読み出し、CPU310に送出する。逆にメモリカード駆動装置340は、CPU310によって出力されるデータを、メモリカード342の空き領域に書き込む。   The memory card driving device 340 reads out data stored in the memory card 342 and sends it to the CPU 310. Conversely, the memory card driving device 340 writes the data output by the CPU 310 in the empty area of the memory card 342.

音声信号処理回路330は、上述のような通話のための信号処理を実行する。なお、図3に示される例では、CPU310と音声信号処理回路330とが別個の構成として示されているが、他の局面において、CPU310と音声信号処理回路330とが一体として構成されていてもよい。   The audio signal processing circuit 330 executes signal processing for a call as described above. In the example shown in FIG. 3, the CPU 310 and the audio signal processing circuit 330 are shown as separate configurations. However, in other aspects, the CPU 310 and the audio signal processing circuit 330 may be integrated. Good.

ディスプレイ350は、CPU310から取得されるデータに基づいて、当該データによって規定される画像を表示する。たとえば、メモリ344が格納している静止画、動画、音楽ファイルの属性(当該ファイルの名前、演奏者、演奏時間など)を表示する。ディスプレイ350は、液晶モニタ、有機EL(Electro Luminescence)モニタとして実現される。ディスプレイ350は、単なるモニタ、または、タッチパネル式のモニタのいずれであってもよい。   The display 350 displays an image defined by the data based on the data acquired from the CPU 310. For example, the attributes (still file name, performer, performance time, etc.) of still images, moving images, and music files stored in the memory 344 are displayed. The display 350 is realized as a liquid crystal monitor or an organic EL (Electro Luminescence) monitor. The display 350 may be either a simple monitor or a touch panel monitor.

LED376は、CPU310からの信号に基づいて、予め定められた発光動作を実現する。   The LED 376 realizes a predetermined light emission operation based on a signal from the CPU 310.

データ通信I/F378は、携帯電話300と通信するための情報処理装置と有線または無線で通信する。通信の態様は、赤外線、LAN(Local Area Network)、USB(Universal Serial Bus)、Bluetooth(登録商標)のいずれであってもよい。ある局面において、データ通信I/F378は、CPU310から出力される信号を、通信が確立されている他の情報処理装置に対して送信する。当該他の情報処理装置は、周知の構成を有するコンピュータ装置、スマートフォン、携帯電話、タブレット型端末等を含む。他の局面において、データ通信I/F378は、通信が確立されている当該他の情報処理装置から送られたデータを受信し、そのデータを、CPU310に対して送出する。CPU310は、そのデータを、メモリ344に格納する。   Data communication I / F 378 communicates with an information processing apparatus for communicating with mobile phone 300 in a wired or wireless manner. The mode of communication may be any of infrared, LAN (Local Area Network), USB (Universal Serial Bus), and Bluetooth (registered trademark). In one aspect, the data communication I / F 378 transmits a signal output from the CPU 310 to another information processing apparatus with which communication has been established. The other information processing apparatus includes a computer apparatus, a smartphone, a mobile phone, a tablet terminal, and the like having a known configuration. In another aspect, the data communication I / F 378 receives data transmitted from the other information processing apparatus with which communication is established, and transmits the data to the CPU 310. CPU 310 stores the data in memory 344.

バイブレータ384は、CPU310から出力される信号に基づいて、携帯電話300の使用者によって指定されたパターンで、発振動作を実行する。   Vibrator 384 performs an oscillating operation in a pattern designated by the user of mobile phone 300 based on a signal output from CPU 310.

GPSアンテナ316は、GPS衛星から発信される信号を受信し、受信した信号を測位信号受信フロントエンド部314に送出する。測位信号受信フロントエンド部314は、公知の測位処理を実行し、測位処理の結果に基づいて、携帯電話300の位置を算出する。CPU310は、その算出結果をディスプレイ350に表示する。なお、他の局面において、携帯電話300は、測位機能を有していなくてもよい。   The GPS antenna 316 receives a signal transmitted from a GPS satellite and sends the received signal to the positioning signal reception front end unit 314. The positioning signal reception front end unit 314 performs a known positioning process, and calculates the position of the mobile phone 300 based on the result of the positioning process. CPU 310 displays the calculation result on display 350. Note that in another aspect, the mobile phone 300 may not have a positioning function.

[データ構造]
図4を参照して、本実施の形態に係る音声出力装置100のデータ構造について説明する。図4は、音声出力装置100として機能する補聴器200が有するメモリ240または携帯電話300が有するメモリ344におけるデータの格納の一態様を概念的に表す図である。
[data structure]
With reference to FIG. 4, the data structure of audio output apparatus 100 according to the present embodiment will be described. FIG. 4 is a diagram conceptually illustrating one mode of data storage in the memory 240 included in the hearing aid 200 functioning as the audio output device 100 or the memory 344 included in the mobile phone 300.

メモリ240,344は、音声データを格納するための領域410と、使用者が認識できる音声のデータを格納するための領域420とを含む。領域410に格納されるデータは、領域420に格納されるデータに関連付けられる。たとえば、ある局面において、領域410は、通常の聴力を有する一般の使用者が認識可能な音声のデータを格納している。一方、領域420は、補聴器200の、または補聴機能を有する携帯電話300の使用者が認識できる音声のデータを格納する。この音声のデータは、領域410に格納されている音声に対応する。たとえば、一般人が「ハウス」と発話したとき、その発話を「ハウス」として認識できない人がいる。このとき、その人は、「マウス」との発話を「ハウス」と認識できるとする。このような認識内容は、たとえば、意思の診断結果に基づいて、その人が音をどのように認識できるかという医師による診察結果に基づいて把握される。   The memories 240 and 344 include an area 410 for storing audio data and an area 420 for storing audio data that can be recognized by the user. The data stored in the area 410 is associated with the data stored in the area 420. For example, in an aspect, the area 410 stores audio data that can be recognized by a general user having normal hearing ability. On the other hand, the area 420 stores audio data that can be recognized by the user of the hearing aid 200 or the mobile phone 300 having a hearing aid function. This voice data corresponds to the voice stored in the area 410. For example, when a general person utters “house”, there is a person who cannot recognize the utterance as “house”. At this time, it is assumed that the person can recognize the utterance with “mouse” as “house”. Such recognition content is grasped on the basis of a doctor's examination result on how the person can recognize the sound based on the intention diagnosis result, for example.

そこで、その人が使用者として補聴器200または補聴機能を有する携帯電話300を使用する場合には、その使用者に対して「ハウス」と認識させるためには、補聴器200または補聴機能を有する携帯電話300が、その使用者の耳に「マウス」という音声を出力することが望ましい。   Therefore, when the person uses the hearing aid 200 or the mobile phone 300 having a hearing aid function as a user, in order to make the user recognize “house”, the hearing aid 200 or the mobile phone having a hearing aid function. 300 preferably outputs the sound "mouse" to the user's ear.

図4に示されるデータは、補聴器200の使用者に応じて異なる。したがって、図2に示されるように、ある局面において、たとえば、その使用者を診断する医師が、外部プログラム装置280を用いて、その使用者に固有のデータ(変換データ)を作成する。補聴器200の使用者または医師は、たとえば、メモリカードの更新あるいは無線または有線を介したデータの転送により、メモリ240に格納される変換データを更新することができる。   The data shown in FIG. 4 varies depending on the user of the hearing aid 200. Therefore, as shown in FIG. 2, in one aspect, for example, a doctor who diagnoses the user uses the external program device 280 to create data (conversion data) unique to the user. The user or doctor of the hearing aid 200 can update the conversion data stored in the memory 240, for example, by updating the memory card or transferring data via wireless or wired communication.

[制御構造]
図5を参照して、本実施の形態に係る携帯電話300の制御構造について説明する。図5は、補聴機能を有する携帯電話300が実行する処理の一部を表すフローチャートである。
[Control structure]
With reference to FIG. 5, a control structure of mobile phone 300 according to the present embodiment will be described. FIG. 5 is a flowchart showing a part of processing executed by the mobile phone 300 having a hearing aid function.

ステップS510にて、マイク370は、携帯電話300の使用者に対して発話された音声を集音する。マイク370は、その音声をアナログの音声信号に変換して音声信号処理回路330に対して送出する。   In step S <b> 510, microphone 370 collects voice spoken to the user of mobile phone 300. The microphone 370 converts the sound into an analog sound signal and sends it to the sound signal processing circuit 330.

ステップS520にて、音声信号処理回路330は、その音声信号をA/D変換してデジタルの音声信号を生成する。音声信号は、CPU310に入力される。   In step S520, the audio signal processing circuit 330 performs A / D conversion on the audio signal to generate a digital audio signal. The audio signal is input to the CPU 310.

ステップS530にて、CPU310は、生成したデジタルの音声信号を音素に分解し、音声を構成する要素を取得する。音素の分解は、公知の技術を用いて行なわれる。   In step S530, CPU 310 disassembles the generated digital audio signal into phonemes, and acquires elements constituting the audio. The decomposition of phonemes is performed using a known technique.

ステップS540にて、CPU310は、メモリ344に格納されている変換データを参照して、たとえば領域410に保持されているデータをスキャンすることにより、変換が必要な単語を特定する。   In step S540, CPU 310 refers to the conversion data stored in memory 344 and scans the data held in area 410, for example, to specify a word that needs to be converted.

ステップS550にて、CPU310は、変換データを参照して、特定された単語の音声(領域410)を、携帯電話300の使用者が認識可能な音声(領域420)に変換する。   In step S550, CPU 310 refers to the conversion data and converts the voice of the identified word (area 410) into a voice (area 420) that can be recognized by the user of mobile phone 300.

ステップS560にて、CPU310は、変換後の音声をD/A変換して、アナログ音声信号を生成する。   In step S560, CPU 310 D / A converts the converted voice to generate an analog voice signal.

ステップS570にて、CPU310は、生成した音声信号を音声信号処理回路330に送信する。音声信号処理回路330は、その信号に対して予め規定された信号処理を実行し、処理後の信号をスピーカ380に送信する。スピーカ380は、その音声信号に基づき音声を出力する。携帯電話300の使用者は、自身が認識可能な音声に変換された音声を聞くことができる。   In step S570, CPU 310 transmits the generated audio signal to audio signal processing circuit 330. The audio signal processing circuit 330 performs predetermined signal processing on the signal, and transmits the processed signal to the speaker 380. The speaker 380 outputs sound based on the sound signal. The user of the mobile phone 300 can listen to the sound converted into sound that can be recognized by the user.

ステップS580にて、CPU310は、操作スイッチ360からの信号に基づいて、通話の終了指示が入力されたか否かを判断する。CPU310は、通話の終了指示が入力されたと判断すると(ステップS580にてYES)、制御を終了する。そうでない場合には(ステップS580にてNO)、CPU310は、制御をステップS510に戻す。   In step S580, CPU 310 determines whether a call termination instruction has been input based on a signal from operation switch 360. When CPU 310 determines that a call end instruction has been input (YES in step S580), CPU 310 ends the control. If not (NO in step S580), CPU 310 returns control to step S510.

なお、他の局面において、CPU310による処理と、音声信号処理回路330による処理とは、いずれか一つによって実行されてもよい。   In another aspect, the process by the CPU 310 and the process by the audio signal processing circuit 330 may be executed by any one of them.

以上のようにして、本実施の形態に係る携帯電話300は、発話された音声(携帯電話300が受信した音声、携帯電話300が再生する音声等)を、携帯電話300の使用者が認識可能な音声に変換し、変換後の音声をスピーカ380から出力する。この音声の変換は、メモリ344に格納されている変換データに基づいて行なわれる。変換データは、変更可能である。音声の認識の態様は、人によって異なるので、携帯電話300のメモリ344に保持されるべき変換データを変更することにより、使用者に応じた音声変換機能を提供することができる。   As described above, the mobile phone 300 according to the present embodiment allows the user of the mobile phone 300 to recognize the uttered voice (voice received by the mobile phone 300, voice played by the mobile phone 300, etc.). The converted sound is output from the speaker 380. This voice conversion is performed based on the conversion data stored in the memory 344. The conversion data can be changed. Since the voice recognition mode varies depending on the person, the voice conversion function according to the user can be provided by changing the conversion data to be held in the memory 344 of the mobile phone 300.

<変形例>
[使用態様]
図6を参照して、本実施の形態の変形例について説明する。図6は、本変形例に係る携帯電話300の使用態様を表わす図である。
<Modification>
[Usage]
A modification of the present embodiment will be described with reference to FIG. FIG. 6 is a diagram illustrating a usage mode of the mobile phone 300 according to the present modification.

ある局面において、携帯電話300は、病院600および通信事業者620と通信することができる。病院600は、たとえば、携帯電話300の使用者を含む患者の情報をカルテとして格納するコンピュータ610を有する。通信事業者620は、コンピュータ630を有する。コンピュータ610とコンピュータ630とは、インターネットその他の回線に接続されており、相互に通信可能である。   In one aspect, the mobile phone 300 can communicate with the hospital 600 and the carrier 620. The hospital 600 includes, for example, a computer 610 that stores patient information including a user of the mobile phone 300 as a medical record. The communication carrier 620 has a computer 630. The computer 610 and the computer 630 are connected to the Internet and other lines and can communicate with each other.

コンピュータ630は、変換データを格納している。通信事業者620は、病院600から送られる変換データをコンピュータ630の記憶装置に格納する。通信事業者620は、携帯電話300によるアクセスに基づいて、あるいは、病院600による送信の要求に基づいて、携帯電話300の使用者に応じた固有の変換データを携帯電話300に送信する。   The computer 630 stores conversion data. The communication carrier 620 stores the conversion data sent from the hospital 600 in the storage device of the computer 630. The communication carrier 620 transmits unique conversion data corresponding to the user of the mobile phone 300 to the mobile phone 300 based on access by the mobile phone 300 or a request for transmission by the hospital 600.

[ハードウェア構成]
図7を参照して、本変形例に係るコンピュータ610,630について説明する。図7は、コンピュータ610,630のハードウェア構成を表すブロック図である。
[Hardware configuration]
With reference to FIG. 7, the computers 610 and 630 according to the present modification will be described. FIG. 7 is a block diagram illustrating a hardware configuration of the computers 610 and 630.

コンピュータ610,630は、主たる構成要素として、プログラムを実行するCPU1と、コンピュータ610,630の使用者による指示の入力を受けるマウス2およびキーボード3と、CPU1によるプログラムの実行により生成されたデータ、又はマウス2若しくはキーボード3を介して入力されたデータを揮発的に格納するRAM4と、データを不揮発的に格納するハードディスク5と、光ディスク駆動装置6と、モニタ8と、通信IF(Interface)9とを備える。各構成要素は、相互にバスによって接続されている。光ディスク駆動装置6には、CD−ROM9その他の光ディスクが装着される。通信IF9は、USB(Universal Serial Bus)インターフェイス、有線LAN(Local Area Network)、無線LAN、Bluetooth(登録商標)インターフェイス等を含むが、これらに限られない。   The computers 610 and 630 include, as main components, a CPU 1 that executes a program, a mouse 2 and a keyboard 3 that receive input of instructions from a user of the computers 610 and 630, and data generated by execution of the program by the CPU 1, or A RAM 4 that stores data input via the mouse 2 or the keyboard 3 in a volatile manner, a hard disk 5 that stores data in a nonvolatile manner, an optical disk drive 6, a monitor 8, and a communication IF (Interface) 9. Prepare. Each component is connected to each other by a bus. A CD-ROM 9 and other optical disks are mounted on the optical disk drive 6. The communication IF 9 includes, but is not limited to, a USB (Universal Serial Bus) interface, a wired LAN (Local Area Network), a wireless LAN, and a Bluetooth (registered trademark) interface.

コンピュータ610,630における処理は、各ハードウェアおよびCPU1により実行されるソフトウェアによって実現される。このようなソフトウェアは、ハードディスク5に予め格納されている場合がある。また、ソフトウェアは、CD−ROM9その他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置6その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信IF7を介してダウンロードされた後、ハードディスク5に一旦格納される。そのソフトウェアは、CPU1によってハードディスク5から読み出され、RAM4に実行可能なプログラムの形式で格納される。CPU1は、そのプログラムを実行する。   Processing in the computers 610 and 630 is realized by hardware and software executed by the CPU 1. Such software may be stored in the hard disk 5 in advance. The software may be stored in a CD-ROM 9 or other non-volatile computer-readable data recording medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the Internet or other networks. Such software is read from the data recording medium by the optical disk drive 6 or other data reading device, or downloaded via the communication IF 7 and then temporarily stored in the hard disk 5. The software is read from the hard disk 5 by the CPU 1 and stored in the RAM 4 in the form of an executable program. The CPU 1 executes the program.

図7に示されるコンピュータ610,630を構成する各構成要素は、一般的なものである。コンピュータ610,630の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   Each component constituting the computers 610 and 630 shown in FIG. 7 is a general one. Since the operation of each hardware of computers 610 and 630 is well known, detailed description will not be repeated.

なお、データ記録媒体としては、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを含む)、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。   The data recording medium is not limited to a CD-ROM, FD (Flexible Disk), and hard disk, but is a magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)). ), IC (Integrated Circuit) card (including memory card), optical card, mask ROM, EPROM (Electronically Programmable Read-Only Memory), EEPROM (Electronically Erasable Programmable Read-Only Memory), flash ROM, etc. It may be a medium that carries the program in a fixed manner.

ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含み得る。   The program here may include not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

[制御構造]
図8を参照して、本変形例に係るコンピュータ610の制御構造について説明する。図8は、コンピュータ610として機能するCPU1が実行する処理の一部を表すフローチャートである。ある局面において、コンピュータ610は、病院600に配置されて、量力を診断し補聴機能を提示する医師によって使用される。
[Control structure]
With reference to FIG. 8, a control structure of a computer 610 according to the present modification will be described. FIG. 8 is a flowchart showing a part of processing executed by CPU 1 functioning as computer 610. In one aspect, the computer 610 is used by a doctor who is located in the hospital 600 to diagnose a quantity and present a hearing aid function.

ステップS810にて、CPU1は、医師によって操作される入力インターフェイス(たとえば、マウス2、キーボード3、通信I/F7)を介して、検査に基づいて得られた携帯電話300の使用者(患者)の聴力データを取得する。聴力データは、たとえば、コンピュータ610に接続される聴力診断装置(図示しない)から取得される。あるいは、コンピュータ610が、聴力診断装置として機能する場合には、診断結果として保持されている聴力データが、その聴力データが保存されているフォルダから読み出される。CPU1は、その取得した聴力データをハードディスク5において確保された領域に格納する。   In step S810, CPU 1 of the user (patient) of mobile phone 300 obtained based on the examination via an input interface (for example, mouse 2, keyboard 3, communication I / F 7) operated by a doctor. Obtain hearing data. The hearing data is acquired from, for example, a hearing diagnosis device (not shown) connected to the computer 610. Alternatively, when the computer 610 functions as an audio diagnostic device, the audio data held as a diagnosis result is read from the folder in which the audio data is stored. The CPU 1 stores the acquired hearing data in an area secured in the hard disk 5.

ステップS820にて、CPU1は、標準音声と、医師の操作に基づいて、当該標準音声として使用者に認識される固有の音声との対応を示す変換データを作成する。ここで、標準音声とは、正常な聴力を有する一般人が認識できる音声をいう。変換データの作成は、たとえば、医師が当該入力インターフェイスを介して入力したデータと、標準音声のデータとを関連付けることにより実行される。関連付けは、たとえば、医師がモニタ8に表示される標準音声と、当該固有の音声との関連を明示する操作(たとえば、マウス2によるクリック)を行なうことにより実現される。   In step S820, CPU 1 creates conversion data indicating correspondence between the standard voice and the specific voice recognized by the user as the standard voice based on the operation of the doctor. Here, the standard voice refers to a voice that can be recognized by a general person having normal hearing ability. The conversion data is created by, for example, associating data input by a doctor via the input interface with standard voice data. The association is realized, for example, when the doctor performs an operation (for example, click with the mouse 2) to clearly indicate the association between the standard voice displayed on the monitor 8 and the specific voice.

ステップS830にて、CPU1は、医師による保存命令に基づいて、生成された変換データと、当該変換データが適用される使用者(携帯電話300の使用者)の識別情報とをハードディスク5に格納する。   In step S830, CPU 1 stores, in hard disk 5, the generated conversion data and identification information of the user (user of mobile phone 300) to which the conversion data is applied, based on a doctor's save command. .

ステップS840にて、CPU1は、送信命令に基づいて、携帯電話300の使用者のための変換データを通信事業者620に送信する。送信命令は、医師による送信指示に基づいて、変換データが新たに作成されたことに基づいて、あるいは、予め設定された送信日時が到来したことに基づいて、CPU1に対して与えられる。通信事業者620のコンピュータ630は、その変換データと、当該変換データの使用者の識別情報とを受信すると、受信日時を表わすタイムスタンプとともに、コンピュータ630のハードディスク5に格納する。   In step S840, CPU 1 transmits converted data for the user of mobile phone 300 to communication carrier 620 based on the transmission command. The transmission command is given to the CPU 1 based on the transmission instruction from the doctor, based on the newly created conversion data, or based on the arrival of a preset transmission date and time. When the computer 630 of the communication carrier 620 receives the converted data and the identification information of the user of the converted data, the computer 630 stores it in the hard disk 5 of the computer 630 together with a time stamp indicating the reception date and time.

図9を参照して、通信事業者620における処理について説明する。図9は、通信事業者620が有するコンピュータ630のCPU1が実行する処理を表すフローチャートである。   With reference to FIG. 9, the process in the communication carrier 620 will be described. FIG. 9 is a flowchart showing processing executed by CPU 1 of computer 630 included in communication carrier 620.

ステップS910にて、CPU1は、病院600のコンピュータ610から、携帯電話300の使用者に関連付けられた変換データを受信する。   In step S <b> 910, CPU 1 receives conversion data associated with the user of mobile phone 300 from computer 610 of hospital 600.

ステップS920にて、CPU1は、受信した変換データと、当該変換データの使用者の識別情報(たとえば、携帯電話300の使用者の氏名、電話番号、メールアドレス、社会保険番号等)をハードディスク5に格納する。   In step S920, CPU 1 stores the received conversion data and identification information of the user of the conversion data (for example, the name, phone number, mail address, social insurance number, etc. of the user of mobile phone 300) in hard disk 5. Store.

ステップS930にて、CPU1は、通信I/F7を介して、使用者の携帯電話300に対して変換データの更新を促すメッセージを送信する。この送信は、たとえば、携帯電話300からコンピュータ630に対してアクセスがあったとき、病院600からメッセージを送信する旨のリクエストが送られたとき、あるいは通信事業者620が予め定められたタイミングが到来したときに行なわれる。なお、携帯電話300からコンピュータ630に対するアクセスは、たとえば携帯電話300が有するアプリケーションが起動されたときに、行なわれる。当該リクエストは、たとえば、携帯電話300の使用者を診断した医師により、速やかに変換データを更新した方が望ましいと判断されたとき、更新前後の変換データの内容が大きく異なるとコンピュータ610によって判断されたときに、病院600のコンピュータ610から通信事業者620のコンピュータ630に送られる。   In step S930, CPU 1 transmits a message that prompts the user's mobile phone 300 to update the conversion data via communication I / F 7. For example, when the mobile phone 300 accesses the computer 630, when a request for transmitting a message is sent from the hospital 600, or when the communication carrier 620 arrives at a predetermined timing. It is done when you do. Note that access from the mobile phone 300 to the computer 630 is performed, for example, when an application of the mobile phone 300 is activated. For example, when the doctor who diagnosed the user of the mobile phone 300 determines that it is desirable to quickly update the conversion data, the request is determined by the computer 610 that the contents of the conversion data before and after the update are greatly different. At the time of transmission from the computer 610 of the hospital 600 to the computer 630 of the carrier 620.

ステップS940にて、CPU1は、通信I/F7を介して受信した信号に基づいて、携帯電話300から変換データを更新する旨の回答を受信したことを検知する。たとえば、携帯電話300の使用者が、変換データの送信を受け入れる旨の回答を携帯電話300に対して与えると、携帯電話300は、その回答の信号を通信事業者620のコンピュータ630に送信する。   In step S940, CPU 1 detects that an answer to update conversion data is received from mobile phone 300 based on the signal received via communication I / F 7. For example, when the user of the mobile phone 300 gives an answer to the mobile phone 300 that the transmission of the conversion data is accepted, the mobile phone 300 transmits a signal of the answer to the computer 630 of the communication carrier 620.

ステップS950にて、CPU1は、携帯電話300に対して最新の変換データを送信する。携帯電話300は、変換データを受信したことを示す通知をディスプレイ350に表示する。保存指示が使用者によって与えられると、携帯電話300は、その変換データをメモリ344に格納する。携帯電話300は、変換データが更新されると、その更新後の変換データを用いて発話された音声を携帯電話300の使用者に認識可能な音声に変更する。   In step S950, CPU 1 transmits the latest conversion data to mobile phone 300. The mobile phone 300 displays a notification on the display 350 indicating that the conversion data has been received. When the save instruction is given by the user, the mobile phone 300 stores the converted data in the memory 344. When the conversion data is updated, the mobile phone 300 changes the voice uttered using the updated conversion data to a voice that can be recognized by the user of the mobile phone 300.

図10を参照して、本変形例に係る携帯電話300の制御構造について説明する。図10は、携帯電話300のCPU310が実行する一連の処理の一部を表すフローチャートである。   With reference to FIG. 10, a control structure of mobile phone 300 according to the present modification will be described. FIG. 10 is a flowchart showing a part of a series of processes executed by CPU 310 of mobile phone 300.

ステップS1010にて、CPU310は、通信装置302から送られる信号に基づいて、通信事業者620から変換データを更新することを促すメッセージを受信する。   In step S <b> 1010, CPU 310 receives a message prompting to update conversion data from communication carrier 620 based on a signal sent from communication device 302.

ステップS1020にて、CPU310は、ディスプレイ350にそのメッセージを表示する。   In step S1020, CPU 310 displays the message on display 350.

ステップS1030にて、CPU310は、操作スイッチ360から送られる信号に基づいて、そのメッセージに応答して変換データを更新する旨の指示が入力されたか否かを判断する。CPU310は、その指示が入力されたと判断すると(ステップS1030にてYES)、制御をステップS1040に切り換える。そうでない場合には(ステップS1030にてNO)、CPU310は、制御をステップS1080に切り換える。   In step S1030, CPU 310 determines, based on the signal sent from operation switch 360, whether or not an instruction to update the conversion data is input in response to the message. When CPU 310 determines that the instruction has been input (YES in step S1030), control is switched to step S1040. If not (NO in step S1030), CPU 310 switches the control to step S1080.

ステップS1040にて、CPU310は、変換データを更新する旨の回答を、通信装置302を介して通信事業者620に送信する。通信事業者620のコンピュータ630は、その回答を受信すると、携帯電話300の使用者に応じた変換データをハードディスク5から読み出し、変換データを携帯電話300に送信するための準備を行なう。   In step S1040, CPU 310 transmits a response to update the conversion data to communication carrier 620 via communication device 302. When the computer 630 of the communication carrier 620 receives the answer, the computer 630 reads the converted data corresponding to the user of the mobile phone 300 from the hard disk 5 and prepares to send the converted data to the mobile phone 300.

ステップS1050にて、CPU310は、通信装置302を介して、通信事業者620から更新後の新たな変換データを受信する。   In step S1050, CPU 310 receives updated new conversion data from communication carrier 620 via communication device 302.

ステップS1060にて、CPU310は、その受信した変換データを書き換える。具体的には、CPU310は、メモリ344に格納されている変換データに上書きすることにより、受信した新たな変換データを書き込む。   In step S1060, CPU 310 rewrites the received conversion data. Specifically, the CPU 310 writes the received new conversion data by overwriting the conversion data stored in the memory 344.

ステップS1070にて、CPU310は、通信装置302を介して電話の着信を受けると、書き換え後の変換データを用いて通話相手によって発話された音声を変換する。   In step S1070, when CPU 310 receives an incoming call via communication device 302, CPU 310 converts the voice uttered by the other party using the rewritten conversion data.

ステップS1080にて、CPU310は、予め定められたその他の処理を実行する。その後、CPU310は、使用状況(聞こえ方の程度など)その他の変換データに対する要望を、操作スイッチ360への操作に基づいて取得する。たとえば、ディスプレイ350は、携帯電話300の補聴機能に対する使用感を問い合わせる質問を表示する。使用者は、操作スイッチ360を操作することにより、その質問に対する回答を携帯電話300に入力する。CPU310は、送信命令が使用者によって与えられると、変換データに対するフィードバックとして、その回答を病院600のコンピュータ610に送信する。これにより、医師は、そのフィードバックされた回答を参考にして、変換データの調整の要否、たとえば、音素を構成するスペクトラムの変更の度合い等を判断することができる。   In step S1080, CPU 310 executes other predetermined processes. Thereafter, the CPU 310 acquires a request for use status (such as the degree of hearing) and other conversion data based on an operation on the operation switch 360. For example, the display 350 displays a question inquiring about a feeling of use for the hearing aid function of the mobile phone 300. The user inputs an answer to the question into the mobile phone 300 by operating the operation switch 360. CPU310 will transmit the reply to the computer 610 of the hospital 600 as feedback with respect to conversion data, if a transmission command is given by the user. As a result, the doctor can determine whether or not the conversion data needs to be adjusted, for example, the degree of change in the spectrum constituting the phoneme, with reference to the fed back answer.

以上のようにして、本変形例によると、携帯電話300は、その使用者を診断する医師が使用するコンピュータ610と、通信事業者620と通信可能に接続される。これにより、携帯電話300の使用者に適切な変換データを、動的に、コンピュータ610から携帯電話300に提供することができる。また、通信事業者620が変換データを保持するため、その変換データの使用者の承諾が得られるならば、その変換データを、他の携帯電話の使用者に提供することも可能となる。その結果、変換データの利便性が向上し得る。   As described above, according to this modification, the mobile phone 300 is communicably connected to the computer 610 used by the doctor who diagnoses the user and the communication carrier 620. Thereby, conversion data suitable for the user of the mobile phone 300 can be dynamically provided from the computer 610 to the mobile phone 300. In addition, since the communication carrier 620 holds the conversion data, if the consent of the user of the conversion data can be obtained, the conversion data can be provided to other mobile phone users. As a result, the convenience of the converted data can be improved.

他の局面において、音声出力装置は、通信制御装置に適用される。この通信制御装置は、電話または通信のサービスを提供する通信事業者によって運営される。たとえば、第1の加入者は、第2の加入者に発呼する。このとき、第1の加入者によるダイヤル番号は、通信制御装置に入力される。通信制御装置は、そのダイヤル番号に基づいて加入者情報を参照し、第2の加入者を特定する。加入者情報は、さらに、当該加入者が本実施の形態に係る変換データを用いた音声変換機能を当該加入者が使用する電話機で用いているか否かを表わす情報を含む。通信制御装置は、この情報に基づいて、電話の着信を受ける第2の加入者が、音声変換の機能を用いていることを知ることができる。   In another aspect, the audio output device is applied to a communication control device. This communication control device is operated by a communication carrier that provides a telephone or communication service. For example, a first subscriber places a call to a second subscriber. At this time, the dial number by the first subscriber is input to the communication control device. The communication control device refers to the subscriber information based on the dial number and specifies the second subscriber. The subscriber information further includes information indicating whether or not the subscriber uses the voice conversion function using the conversion data according to the present embodiment on the telephone used by the subscriber. Based on this information, the communication control device can know that the second subscriber who receives an incoming call uses the voice conversion function.

このような通信制御装置は、たとえば、周知の構成を有するコンピュータ630によって実現される。コンピュータ630において、ハードディスク5は、音声を、音声変換を必要とする使用者が認識できる音声に変換するための変換データと、使用者の情報とを格納している。CPU1は、通信IF7から送られる信号に基づいて、使用者の情報が登録された端末(たとえば、第2の加入者が使用する情報通信端末)への着信に応答して、当該情報通信端末が発呼していることを検知する。CPU1は、発呼の検知に応答して、通信IF7を介して、使用者(第2の加入者)のための変換データを当該情報通信端末に送信する。   Such a communication control device is realized by a computer 630 having a known configuration, for example. In the computer 630, the hard disk 5 stores conversion data for converting sound into sound that can be recognized by a user who needs sound conversion, and user information. In response to an incoming call to a terminal (for example, an information communication terminal used by a second subscriber) in which the user information is registered, the CPU 1 Detect that a call is being made. In response to the call detection, the CPU 1 transmits the conversion data for the user (second subscriber) to the information communication terminal via the communication IF 7.

別の局面において、着信を検知した情報通信端末に対して変換データを送信する音声出力装置が提供される。この音声出力装置も、周知の構成を有するコンピュータ630によって実現される。具体的には、コンピュータ630において、ハードディスク5は、音声を、音声変換を必要とする使用者が認識できる音声に変換するための変換データと、使用者の情報とを格納している。CPU1は、通信IF7から送られてくる発呼信号に基づいて、使用者の情報が登録された情報通信端末に対する、当該使用者からの着信を検知する。CPU1は、当該着信の検知に応答して、使用者のための変換データを、当該情報通信端末に送信する。変換データを受信した情報通信端末は、使用者からの着信を受けた発話を、変換データを用いて変換し、変換後の音声を出力する。このようにすると、発呼者が、発話において独特の音声を発する場合であっても、情報通信端末が当該発呼者に固有の変換データを用いて音声を出力するので、当該情報通信端末の使用者は、当該発呼者による発話を容易に認識することができる。   In another aspect, an audio output device is provided that transmits converted data to an information communication terminal that detects an incoming call. This audio output device is also realized by a computer 630 having a known configuration. Specifically, in the computer 630, the hard disk 5 stores conversion data for converting sound into sound that can be recognized by a user who needs sound conversion, and user information. Based on the call signal sent from the communication IF 7, the CPU 1 detects an incoming call from the user with respect to the information communication terminal in which the user information is registered. In response to the detection of the incoming call, the CPU 1 transmits conversion data for the user to the information communication terminal. The information communication terminal that has received the converted data converts the utterance received from the user using the converted data, and outputs the converted voice. In this way, even when the caller utters a unique voice in the utterance, the information communication terminal outputs the sound using the conversion data unique to the caller. The user can easily recognize the utterance by the caller.

さらに他の局面において、本実施の形態に係る変換データを更新するためのシステムが提供される。このシステムは、周知の構成を有するコンピュータ630によって実現される。より詳しくは、コンピュータ630において、CPU1は、通信IF7を介して、変換データを使用する使用者の新たな検査情報を、たとえば、聴力を診断する医療機関のデータベースから取得する。ハードディスク5は、変換データを格納している。CPU1は、更新部として、医療機関における新たな検査情報に基づいて、ハードディスク5に格納されている変換データを更新する。たとえば、CPU1は、検査情報から変換データを導出するために予め規定されたデータテーブルまたは関数を用いて、検査情報から変換データを導出する。あるいは、別の局面において、当該医療機関の医師が、変換データを更新する構成であってもよい。CPU1は、通信IF7を介して、当該使用者の情報が登録された情報通信端末に、更新後の変換データを送信する。情報通信端末は、変換データを受信すると、当該使用者の変換データを更新する。その後、情報通信端末は、電話の着呼または発話を検知すると、更新後の変換データを用いて、受信した音声または発話された音声を変換し、変換後のデータに基づく音声を出力する。このようにすると、情報通信端末の変換データの更新が容易になる。   In yet another aspect, a system for updating conversion data according to the present embodiment is provided. This system is realized by a computer 630 having a known configuration. More specifically, in the computer 630, the CPU 1 acquires, through the communication IF 7, new test information of the user who uses the converted data, for example, from a database of a medical institution that diagnoses hearing. The hard disk 5 stores conversion data. As an update unit, the CPU 1 updates the conversion data stored in the hard disk 5 based on new examination information in the medical institution. For example, the CPU 1 derives the conversion data from the inspection information using a data table or function that is defined in advance in order to derive the conversion data from the inspection information. Alternatively, in another aspect, the doctor of the medical institution may update the conversion data. The CPU 1 transmits the updated conversion data to the information communication terminal in which the user information is registered via the communication IF 7. When the information communication terminal receives the conversion data, the information communication terminal updates the conversion data of the user. After that, when the information communication terminal detects an incoming call or utterance of the telephone, the information communication terminal converts the received voice or the spoken voice using the updated converted data, and outputs a voice based on the converted data. In this way, it becomes easy to update the conversion data of the information communication terminal.

さらに別の局面において、本実施の形態に係る技術思想は、音声出力装置を制御するためのプログラムとして実現される。音声出力装置は、周知の構成を有するコンピュータ610として実現される。たとえば、プログラムは、コンピュータ610のCPU1に、音声出力装置によって受信される音声を、当該音声出力装置の使用者が認識できる音声に変換するための変換データをハードディスク5からRAM4にロードするステップと、変換データに基づいて、受信された音声を、使用者が認識できる音声に変換するステップと、使用者が認識できる音声を出力するステップとを実行させる。より特定的には、CPU1は、変換するステップとして、予め設定された音声帯域のスペクトラムの強弱を組み合わせることにより、受信された音声を認識できる音声に変換する。   In yet another aspect, the technical idea according to the present embodiment is realized as a program for controlling the audio output device. The audio output device is realized as a computer 610 having a known configuration. For example, the program loads into the RAM 4 from the hard disk 5 the conversion data for converting the sound received by the sound output device into the sound that can be recognized by the user of the sound output device, to the CPU 1 of the computer 610. Based on the converted data, a step of converting the received voice into a voice that can be recognized by the user and a step of outputting the voice that can be recognized by the user are executed. More specifically, as the converting step, the CPU 1 converts the received sound into a recognizable sound by combining the spectrum strength of a preset sound band.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

2 マウス、3 キーボード、4,346 RAM、5 ハードディスク、6 光ディスク駆動装置、8 モニタ、9,348 ROM、300 携帯電話、100 音声出力装置、110 受信部、120 記憶部、130 変換部、140 出力部、150 更新部、200 補聴器、210,370 マイク、220 増幅器、230 A/D変換器、260 D/A変換器、240,344 メモリ、270 イヤホン、280 外部プログラム装置、302 通信装置、304 チューナ、306,308,316 アンテナ、312 測位処理部、314 測位信号受信フロントエンド部、320 カメラ、330 音声信号処理回路、340 メモリカード駆動装置、342 メモリカード、350 ディスプレイ、360 操作スイッチ、380 スピーカ、384 バイブレータ、600 病院、610,630 コンピュータ、620 通信事業者。   2 mouse, 3 keyboard, 4,346 RAM, 5 hard disk, 6 optical disk drive, 8 monitor, 9,348 ROM, 300 mobile phone, 100 audio output device, 110 receiving unit, 120 storage unit, 130 conversion unit, 140 output Unit, 150 update unit, 200 hearing aid, 210, 370 microphone, 220 amplifier, 230 A / D converter, 260 D / A converter, 240, 344 memory, 270 earphone, 280 external program device, 302 communication device, 304 tuner , 306, 308, 316 Antenna, 312 Positioning processing unit, 314 Positioning signal reception front end unit, 320 Camera, 330 Audio signal processing circuit, 340 Memory card driving device, 342 Memory card, 350 Display, 360 Operation switch, 380 Speaker, 384 vibrator, 600 hospitals, 610 and 630 computers, 620 communication operators.

Claims (12)

音声出力装置であって、
音声を受信するための受信手段と、
前記音声を、当該音声出力装置の使用者が認識できる音声に変換するための変換データを格納するためのメモリと、
前記変換データに基づいて、前記受信手段によって受信された音声を、前記使用者が認識できる音声に変換するための変換手段と、
前記使用者が認識できる音声を出力するための出力手段とを備える、音声出力装置。
An audio output device,
Receiving means for receiving audio;
A memory for storing conversion data for converting the sound into sound that can be recognized by a user of the sound output device;
Conversion means for converting the sound received by the receiving means into sound that can be recognized by the user based on the conversion data;
An audio output device comprising output means for outputting audio that can be recognized by the user.
前記メモリに格納されている変換データを更新するための更新手段をさらに備える、請求項1に記載の音声出力装置。   The audio output device according to claim 1, further comprising update means for updating conversion data stored in the memory. 請求項1または2に記載の音声出力装置を備える、通信端末。   A communication terminal comprising the audio output device according to claim 1. 前記変換データは、前記通信端末の使用者によって修正可能である、請求項3に記載の通信端末。   The communication terminal according to claim 3, wherein the conversion data can be modified by a user of the communication terminal. 請求項1または2に記載の音声出力装置を備える、補聴器。   A hearing aid comprising the audio output device according to claim 1. 音声出力装置を制御するためのプログラムであって、
前記プログラムは、前記音声出力装置に、
前記音声出力装置によって受信される音声を、当該音声出力装置の使用者が認識できる音声に変換するための変換データをロードするステップと、
前記変換データに基づいて、前記受信された音声を、前記使用者が認識できる音声に変換するステップと、
前記使用者が認識できる音声を出力するステップとを実行させる、プログラム。
A program for controlling an audio output device,
The program is stored in the audio output device.
Loading conversion data for converting audio received by the audio output device into audio that can be recognized by a user of the audio output device;
Converting the received speech into speech that the user can recognize based on the converted data;
Outputting a voice that can be recognized by the user.
音声出力装置の使用者に応じた音声を提供するための方法であって、
前記音声出力装置と通信可能な情報通信装置が、音声を、前記音声出力装置の使用者が認識できる音声に変換するための変換データを受信するステップと、
前記変換データを前記音声出力装置に送信するステップとを含む、方法。
A method for providing audio according to a user of an audio output device,
An information communication device capable of communicating with the audio output device receives conversion data for converting audio into audio that can be recognized by a user of the audio output device;
Transmitting the converted data to the audio output device.
前記受信するステップは、前記音声出力装置の使用者の聴力の検査結果に基づいて作成される変換データを受信するステップを含む、請求項7に記載の方法。   The method according to claim 7, wherein the receiving step includes a step of receiving conversion data created based on a test result of hearing ability of a user of the audio output device. 音声を、音声変換を必要とする使用者が認識できる音声に変換するための変換データと、前記使用者の情報とを格納するための記憶手段と、
前記使用者の情報が登録された端末への着信に応答して当該端末が発呼していることを検知するための検知手段と、
前記発呼の検知に応答して、前記使用者のための前記変換データを前記端末に送信するための送信手段とを備える、音声出力装置。
Storage means for storing conversion data for converting speech into speech that can be recognized by a user who needs speech conversion, and information on the user;
Detecting means for detecting that the terminal is calling in response to an incoming call to the terminal in which the user information is registered;
A voice output device comprising: transmission means for transmitting the converted data for the user to the terminal in response to detection of the call.
音声を、音声変換を必要とする使用者が認識できる音声に変換するための変換データと、前記使用者の情報とを格納するための記憶手段と、
前記使用者の情報が登録された端末に対する、前記使用者からの着信を検知するための検知手段と、
前記着信の検知に応答して、前記使用者のための前記変換データを前記端末に送信するための送信手段とを備える、音声出力装置。
Storage means for storing conversion data for converting speech into speech that can be recognized by a user who needs speech conversion, and information on the user;
Detecting means for detecting an incoming call from the user with respect to the terminal in which the user information is registered;
A voice output device comprising: transmission means for transmitting the converted data for the user to the terminal in response to detection of the incoming call.
請求項1〜10のいずれかに記載の変換データを更新するためのシステムであって、
前記変換データを使用する使用者の新たな検査情報を取得するための取得手段と、
前記変換データを格納するための記憶手段と、
前記新たな検査情報に基づいて前記記憶手段に格納されている変換データを更新するための更新手段と、
前記更新手段によって更新された変換データを、当該使用者の情報が登録された端末に送信するための送信手段とを備える、更新システム。
A system for updating the conversion data according to any one of claims 1 to 10,
An acquisition means for acquiring new inspection information of a user who uses the conversion data;
Storage means for storing the converted data;
Updating means for updating the conversion data stored in the storage means based on the new examination information;
An update system comprising: transmission means for transmitting the conversion data updated by the update means to a terminal in which the user information is registered.
音声出力装置を制御するためのプログラムであって、
前記プログラムは、前記音声出力装置に、
前記音声出力装置によって受信される音声を、当該音声出力装置の使用者が認識できる音声に変換するための変換データをロードするステップと、
前記変換データに基づいて、前記受信された音声を、前記使用者が認識できる音声に変換するステップと、
前記使用者が認識できる音声を出力するステップとを実行させ、
前記変換するステップは、音声帯域のスペクトラムの強弱を組み合わせることにより、前記受信された音声を前記認識できる音声に変換することを含む、プログラム。
A program for controlling an audio output device,
The program is stored in the audio output device.
Loading conversion data for converting audio received by the audio output device into audio that can be recognized by a user of the audio output device;
Converting the received speech into speech that the user can recognize based on the converted data;
Outputting a voice that can be recognized by the user,
The converting step includes converting the received voice into the recognizable voice by combining the spectrum strength of a voice band.
JP2011276726A 2011-12-19 2011-12-19 Voice output device, communication terminal and hearing aid equipped with the same, program for controlling voice output device, method of providing individualized voice to voice output device users, and system for updating conversion data of voice output device Pending JP2013127536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011276726A JP2013127536A (en) 2011-12-19 2011-12-19 Voice output device, communication terminal and hearing aid equipped with the same, program for controlling voice output device, method of providing individualized voice to voice output device users, and system for updating conversion data of voice output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011276726A JP2013127536A (en) 2011-12-19 2011-12-19 Voice output device, communication terminal and hearing aid equipped with the same, program for controlling voice output device, method of providing individualized voice to voice output device users, and system for updating conversion data of voice output device

Publications (1)

Publication Number Publication Date
JP2013127536A true JP2013127536A (en) 2013-06-27

Family

ID=48778108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011276726A Pending JP2013127536A (en) 2011-12-19 2011-12-19 Voice output device, communication terminal and hearing aid equipped with the same, program for controlling voice output device, method of providing individualized voice to voice output device users, and system for updating conversion data of voice output device

Country Status (1)

Country Link
JP (1) JP2013127536A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036320A (en) * 2016-08-29 2018-03-08 株式会社テクノリンク Sound processing method, sound processing device, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56160200A (en) * 1980-04-22 1981-12-09 Sony Corp Hearing aid
JP2000308198A (en) * 1999-02-16 2000-11-02 Gm & M:Kk Hearing and
JP3482465B2 (en) * 2001-01-25 2003-12-22 独立行政法人産業技術総合研究所 Mobile fitting system
JP2004530149A (en) * 2001-02-13 2004-09-30 トムソン ライセンシング ソシエテ アノニム Processing, module, apparatus and server for speech recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56160200A (en) * 1980-04-22 1981-12-09 Sony Corp Hearing aid
JP2000308198A (en) * 1999-02-16 2000-11-02 Gm & M:Kk Hearing and
JP3482465B2 (en) * 2001-01-25 2003-12-22 独立行政法人産業技術総合研究所 Mobile fitting system
JP2004530149A (en) * 2001-02-13 2004-09-30 トムソン ライセンシング ソシエテ アノニム Processing, module, apparatus and server for speech recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036320A (en) * 2016-08-29 2018-03-08 株式会社テクノリンク Sound processing method, sound processing device, and program

Similar Documents

Publication Publication Date Title
US20150281853A1 (en) Systems and methods for enhancing targeted audibility
US20230230572A1 (en) End-to-end speech conversion
US8140326B2 (en) Systems and methods for reducing speech intelligibility while preserving environmental sounds
JP4263614B2 (en) Remote control device and information terminal device
US20090018826A1 (en) Methods, Systems and Devices for Speech Transduction
CN110149805A (en) Double-directional speech translation system, double-directional speech interpretation method and program
WO2007063827A1 (en) Voice quality conversion system
JP4940414B2 (en) Audio processing method, audio processing program, and audio processing apparatus
US7587312B2 (en) Method and apparatus for pitch modulation and gender identification of a voice signal
JP2009178783A (en) Communication robot and its control method
CN113498536A (en) Electronic device and control method thereof
WO2014194273A2 (en) Systems and methods for enhancing targeted audibility
US10002611B1 (en) Asynchronous audio messaging
JPWO2011122522A1 (en) Kansei expression word selection system, sensitivity expression word selection method and program
TW201434033A (en) Systems and methods for determining pitch pulse period signal boundaries
JP3482465B2 (en) Mobile fitting system
JP5639273B2 (en) Determining the pitch cycle energy and scaling the excitation signal
WO2020079918A1 (en) Information processing device and information processing method
JP2013127536A (en) Voice output device, communication terminal and hearing aid equipped with the same, program for controlling voice output device, method of providing individualized voice to voice output device users, and system for updating conversion data of voice output device
JP2008040431A (en) Voice or speech machining device
US20080146197A1 (en) Method and device for emitting an audible alert
CN111462747B (en) Hearing assistance device and setting method thereof
CN113571072B (en) Voice coding method, device, equipment, storage medium and product
JP5052107B2 (en) Voice reproduction device and voice reproduction method
JP2000311077A (en) Sound information input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160105