JP2011053900A - Method for setting oral reading condition of document data and information processing terminal to be used for the method - Google Patents

Method for setting oral reading condition of document data and information processing terminal to be used for the method Download PDF

Info

Publication number
JP2011053900A
JP2011053900A JP2009201998A JP2009201998A JP2011053900A JP 2011053900 A JP2011053900 A JP 2011053900A JP 2009201998 A JP2009201998 A JP 2009201998A JP 2009201998 A JP2009201998 A JP 2009201998A JP 2011053900 A JP2011053900 A JP 2011053900A
Authority
JP
Japan
Prior art keywords
reading
character
condition
character area
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009201998A
Other languages
Japanese (ja)
Inventor
Hideaki Tanioka
秀昭 谷岡
Katsuaki Akama
勝明 赤間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009201998A priority Critical patent/JP2011053900A/en
Publication of JP2011053900A publication Critical patent/JP2011053900A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simply set an oral reading condition for reading aloud document data in an information processing terminal. <P>SOLUTION: In the information processing terminal including a display device, a position input device is used to input a position to the display device. A display control part generates a character area in the display device and displays characters in the character area. A detection part detects a moving pattern of an input position to the character area. A condition preparation part prepares an oral reading condition of the characters displayed in the character area based on the moving pattern in the character area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、情報処理端末で文書データを音読する方法に関する。   The present invention relates to a method for reading document data aloud by an information processing terminal.

近年、文書データを音声データに変換し、その音声データに従って文書データを音読する音読機能を有する情報処理装置が普及してきている。また、電子メールに効果音や画像を含めた送受信システムなども知られている。   In recent years, information processing apparatuses having a reading function for converting document data into voice data and reading the document data aloud according to the voice data have become widespread. A transmission / reception system including sound effects and images in an e-mail is also known.

関連する技術として、携帯通信端末において入力部を介してメール文の文字入力が行われると、ユーザからの指示に応じてメール文を音声再生する際の音の高低やテンポ、効果音の付加等の音声再生条件を設定する方法が知られている(例えば、特許文献1)。また、送信端末側において、声質の設定変更、効果音の設定、画像の設定を行う電子メールシステムや、受信メールが音声読上げ条件を満足する場合に音声読み上げを行う装置も知られている(例えば、特許文献2、3)。   As a related technology, when a text of a mail text is input via an input unit in a mobile communication terminal, the pitch, tempo, and the addition of sound effects when the mail text is played back in voice according to an instruction from the user, etc. A method for setting the audio reproduction condition is known (for example, Patent Document 1). There are also known an e-mail system that performs voice quality setting change, sound effect setting, and image setting on the transmitting terminal side, and an apparatus that reads aloud when the received mail satisfies the voice reading conditions (for example, Patent Documents 2 and 3).

特開2005−4377号公報JP 2005-4377 A 特開2002−73481号公報JP 2002-73481 A 特開2003−30113号公報JP 2003-30113 A

関連技術として記載されている方法では、メール本文から処理対象とする部分を選択した後に、キー入力などにより、選択されている部分を読上げる音声や声質の条件を設定する。また、メール本文に複数の音声条件を設定する場合には、個々の音声条件に応じて処理対象とする部分を選択し、選択した範囲ごとに音声条件を設定する。しかし、このような操作は煩雑であるため、ユーザがメールの音読条件を設定しづらいという問題がある。なお、背景技術では、電子メールの読み上げについての関連技術に言及しているが、これらの課題は、電子メールに限らず、情報処理を行う端末で文書データを音読するときの条件を設定する際に起こりうる問題であるといえる。   In the method described as the related art, after selecting a part to be processed from the mail text, conditions for voice and voice quality for reading the selected part are set by key input or the like. When a plurality of voice conditions are set in the mail body, a part to be processed is selected according to each voice condition, and the voice conditions are set for each selected range. However, since such an operation is complicated, there is a problem that it is difficult for the user to set the reading condition of the mail. In the background art, reference is made to related technologies for reading out e-mails. However, these issues are not limited to e-mails, but when setting conditions for reading document data aloud on a terminal that performs information processing. It can be said that this is a possible problem.

本発明では、情報処理端末で文書データを音読するときの音声条件を簡便に設定できるようにすることを目的とする。さらに、受信側の情報処理端末では、送信側の情報処理端末で設定された音読条件に基づいて音声の出力条件を求め、文書データに含まれている文字に対応する音声を出力できるようにする。   An object of the present invention is to make it possible to easily set a voice condition when reading aloud document data with an information processing terminal. Further, the information processing terminal on the reception side obtains the sound output condition based on the reading conditions set on the information processing terminal on the transmission side, and can output the sound corresponding to the characters included in the document data. .

本発明の1つの態様によると、表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示する表示制御部と、前記文字領域への入力位置の移動パターンを検出する検出部と、前記文字領域での前記移動パターンに基づいて、前記文字領域に表示されている文字の音読条件を作成する条件作成部を備える情報処理端末が提供される。   According to one aspect of the present invention, a character region is generated on a display device, a display control unit that displays characters in the character region, a detection unit that detects a movement pattern of an input position to the character region, An information processing terminal is provided that includes a condition creating unit that creates a reading condition for characters displayed in the character area based on the movement pattern in the character area.

情報処理端末で文書データを音読するときの音声条件を簡便に設定できるようになる。   It is possible to easily set the voice condition when reading the document data aloud by the information processing terminal.

第1の実施形態に係る音読条件設定と設定された条件に応じた文書データの音読の一例を示す図である。It is a figure which shows an example of aloud reading of the document data according to the aloud reading condition setting which concerns on 1st Embodiment, and the set conditions. 情報処理端末の構成の一例を表す図である。It is a figure showing an example of a structure of an information processing terminal. 情報処理端末のハードウェア構成の一例を表す図である。It is a figure showing an example of the hardware constitutions of an information processing terminal. 音読条件の設定方法の一例を説明する図である。It is a figure explaining an example of the setting method of aloud reading conditions. 文字領域の一例を表す図である。It is a figure showing an example of a character area. 音読条件を変化情報として設定する方法の一例を説明する図である。It is a figure explaining an example of the method of setting aloud reading conditions as change information. 音読条件を設定する際に行われる動作の一例を説明するフローチャートである。It is a flowchart explaining an example of the operation | movement performed when setting aloud reading conditions. 音読条件の変化情報の一例を示す図である。It is a figure which shows an example of the change information of aloud reading conditions. 音声合成エンジンの構成と動作の一例を説明する図である。It is a figure explaining an example of composition and operation of a speech synthesis engine. 話速変換倍率の計算結果の例を示す図である。It is a figure which shows the example of the calculation result of speech speed conversion magnification. 振幅変換倍率の計算結果の例を示す図である。It is a figure which shows the example of the calculation result of an amplitude conversion magnification. 音読条件に従って文書データが音読されるときの動作の一例を説明するフローチャートである。It is a flowchart explaining an example of operation | movement when document data is read aloud according to aloud reading conditions. 出力される音声データの生成の際に行われる動作の一例を説明するフローチャートである。It is a flowchart explaining an example of the operation | movement performed at the time of the production | generation of the audio | voice data output. 音声データの生成方法の一例を説明するフローチャートである。It is a flowchart explaining an example of the production | generation method of audio | voice data.

以下、本実施形態について、図面を参照しながら詳細に説明する。
図1は、第1の実施形態に係る音読条件設定と設定された条件に応じた文書データの音読の一例を示す図である。この例では、情報処理端末(1、1a)から情報処理端末(1、1b)へ、文書データとその文書データに対応付けて設定された音読条件5が送信され、情報処理端末1bが文書データを音読するものとする。
Hereinafter, the present embodiment will be described in detail with reference to the drawings.
FIG. 1 is a diagram illustrating an example of aloud reading of document data according to a reading aloud condition setting and a set condition according to the first embodiment. In this example, the document data and the reading condition 5 set in association with the document data are transmitted from the information processing terminal (1, 1a) to the information processing terminal (1, 1b), and the information processing terminal 1b Shall be read aloud.

情報処理端末1aは、表示デバイスとその表示デバイスへ位置入力する位置入力デバイスを備えている。ユーザが情報処理端末1aで文書データを作成し、例えば音読条件設定機能を動作させたときなどに、情報処理端末1aは、表示デバイスに文字領域を生成すると共に、作成された文書データに含まれる文字を文字領域に表示する。ユーザが文字領域に対して位置入力すると、情報処理端末1aは、文字領域への入力位置の移動パターンを検出する。この移動パターンの例としては、位置入力デバイスからの入力の軌跡、入力位置が変化する速度などが挙げられる。さらに、情報処理端末1aでは、検出された移動パターンに基づいて、文字領域に表示されている文字の音読条件を作成する。音読条件の作成方法の詳細や例は後で詳しく述べる。   The information processing terminal 1a includes a display device and a position input device that inputs a position to the display device. When the user creates document data on the information processing terminal 1a and activates the reading condition setting function, for example, the information processing terminal 1a creates a character area on the display device and is included in the created document data. Displays characters in the character area. When the user inputs a position to the character area, the information processing terminal 1a detects the movement pattern of the input position to the character area. Examples of the movement pattern include an input locus from the position input device, a speed at which the input position changes, and the like. Further, the information processing terminal 1a creates a reading condition for characters displayed in the character area based on the detected movement pattern. Details and examples of how to create aloud reading conditions will be described in detail later.

ユーザは、情報処理端末1aで文書データとその文書データの音読条件を設定すると、それらを適宜、情報処理端末1a中に記録でき、また、情報処理端末1bなどに送信することができる。情報処理端末1bは、情報処理端末1aから文書データとその音読条件を受信すると、例えば音読機能を動作させたときには、音読条件に応じて文書データの音声出力条件を求め、音声出力条件に従って音声データを出力する。例えば、図1の例では、「もじ」の2音を音読するときに、基準の音読速度よりも1段階速く「も」を音読し、「じ」では最初は音読速度を基準の音読速度に戻してから2段階早くする。また、「も」の音読では、音量を基準の音量よりも1段階ずつ3段階大きくし、「じ」の最後ではさらにもう1段階音量を大きくする。なお、基準の音量や速度は、情報処理端末1aから指定することができ、また、情報処理端末1bが予めメモリなどに記憶している値を使用することもできる。   When the user sets the document data and the reading conditions of the document data on the information processing terminal 1a, the user can appropriately record them in the information processing terminal 1a and transmit them to the information processing terminal 1b. When the information processing terminal 1b receives the document data and its reading conditions from the information processing terminal 1a, for example, when the reading function is activated, the information processing terminal 1b obtains the sound output condition of the document data according to the reading condition, and the sound data according to the sound output condition. Is output. For example, in the example of FIG. 1, when reading two “moji” sounds, “moji” is read aloud one step faster than the reference reading speed. In “ji”, the reading speed is initially set to the reference reading speed. Two steps earlier after returning. Further, in the reading of “mo”, the volume is increased by three steps by one step from the reference volume, and further increased by one step at the end of “ji”. The reference volume and speed can be specified from the information processing terminal 1a, and values stored in advance in the memory or the like by the information processing terminal 1b can also be used.

このように、文書データを表示した領域への入力位置の移動パターンに応じて音読条件を設定すると、文書データを音読するときの音読条件を簡便に設定できる。また、音読条件が文書データと一緒に送信されるため、情報処理端末1bにおいて、文書データは設定された音読条件で音読される。図1に示した実施形態では、情報処理端末1aと1bの間で文書データなどを送受信する場合について述べたが、情報処理端末1aで作成した文書データと音読条件を、情報処理端末1aが音読する場合にも、同様に音読条件の設定ができる。なお、文書データは、メールやテキストデータを含む任意の文字列の情報とすることができる。   As described above, when the reading condition is set according to the movement pattern of the input position to the area where the document data is displayed, the reading condition when reading the document data can be set easily. Further, since the reading conditions are transmitted together with the document data, the document data is read aloud under the set reading conditions in the information processing terminal 1b. In the embodiment shown in FIG. 1, the case where document data and the like are transmitted and received between the information processing terminals 1a and 1b has been described. However, the information processing terminal 1a reads the document data and the reading conditions created by the information processing terminal 1a. When reading, the reading conditions can be set in the same way. The document data can be any character string information including mail and text data.

図2は、情報処理端末1の構成の一例を表す図である。以下の説明では、情報処理端末1がタッチパネルを備える携帯電話端末である場合を例として述べるが、情報処理端末1は携帯電話端末に限られず任意の情報処理端末とすることができる。また、情報処理端末1は、タッチパネルを備えている機器には限られず、表示デバイスと位置入力デバイスを備えた任意の機器とすることができる。情報処理端末1として動作する携帯電話端末は、呼制御部11、無線制御部12、タイマ13、メール受信/送信部14、メール編集部15、読上げ再生部16、読上げ記録部17、タッチパネル制御部18、音声合成エンジン19および画面表示部20の一部または全部を備える。   FIG. 2 is a diagram illustrating an example of the configuration of the information processing terminal 1. In the following description, the case where the information processing terminal 1 is a mobile phone terminal including a touch panel will be described as an example. However, the information processing terminal 1 is not limited to the mobile phone terminal and can be any information processing terminal. The information processing terminal 1 is not limited to a device having a touch panel, and can be any device having a display device and a position input device. A mobile phone terminal operating as the information processing terminal 1 includes a call control unit 11, a radio control unit 12, a timer 13, a mail receiving / transmitting unit 14, a mail editing unit 15, a reading / playing unit 16, a reading recording unit 17, and a touch panel control unit. 18, part or all of the speech synthesis engine 19 and the screen display unit 20 are provided.

呼制御部11は、携帯電話端末で行われる音声通信を制御する。無線制御部12は、携帯電話端末と基地局の間の無線通信を制御する。タイマ13は、例えば、タッチパネルに入力されたタッチ位置の移動速度の算出に用いる時刻の検出や記録をするが、携帯電話端末上で動作する他のアプリケーションでも用いられる。メール受信/送信部14は、携帯電話端末で行われる電子メールの送受信を制御する。メール編集部15は、電子メールの編集を制御する。   The call control unit 11 controls voice communication performed at the mobile phone terminal. The wireless control unit 12 controls wireless communication between the mobile phone terminal and the base station. For example, the timer 13 detects and records the time used to calculate the moving speed of the touch position input to the touch panel, but is also used in other applications that operate on the mobile phone terminal. The mail receiving / transmitting unit 14 controls transmission / reception of electronic mail performed at the mobile phone terminal. The mail editing unit 15 controls editing of electronic mail.

読上げ再生部16は、音声合成エンジン19から受け取った音声データを出力する。読上げ記録部17は、文書データについての音読条件を設定する。読上げ記録部17の動作については、後で詳しく述べる。   The reading / playing unit 16 outputs the voice data received from the voice synthesis engine 19. The reading recording unit 17 sets the reading conditions for the document data. The operation of the reading recording unit 17 will be described in detail later.

タッチパネル制御部18は、タッチパネルからの入力やタッチパネル上のタッチ位置を検出し、さらに、タッチ位置の移動パターンの記録などをする。また、タッチパネル制御部18が検出部を備えている場合は、検出部がタッチパネル上の入力位置の移動パターンを記録することもできる。   The touch panel control unit 18 detects an input from the touch panel or a touch position on the touch panel, and further records a movement pattern of the touch position. In addition, when the touch panel control unit 18 includes a detection unit, the detection unit can record the movement pattern of the input position on the touch panel.

音声合成エンジン19は、無線制御部12やメール受信/送信部14を介して受信したデータに含まれる音読条件に従って音声出力条件を算出し、音声出力条件に基づいて音声データを生成する。また、読上げ記録部17で生成された音読条件から音声出力条件や音声出力条件に対応した音声データを生成して、読上げ記録部17で設定された音読条件を読上げ再生部16に再現させることもできる。音声合成エンジン19は、音声出力条件を算出するときに、文字領域に表示されている文字ごとに音読条件を分類する。なお、音声合成エンジン19が文字条件取得部を備え、文字条件取得部が音読条件の分類を行うように設計することもできる。なお、音読条件の分類は、文書データの文字の読みを表す仮名の1音に対応付けて分類することもできる。   The speech synthesis engine 19 calculates a speech output condition according to the speech reading conditions included in the data received via the wireless control unit 12 and the mail reception / transmission unit 14, and generates speech data based on the speech output conditions. It is also possible to generate voice data corresponding to the voice output condition or the voice output condition from the voice reading condition generated by the reading recording unit 17 and cause the reading / playing unit 16 to reproduce the voice reading condition set by the reading recording unit 17. it can. When the speech synthesis engine 19 calculates the speech output conditions, the speech synthesis engine 19 classifies the speech reading conditions for each character displayed in the character area. Note that the speech synthesis engine 19 may include a character condition acquisition unit, and the character condition acquisition unit may be designed to classify the reading conditions. Note that the classification of the reading conditions can also be classified in association with a single kana character representing the reading of characters in the document data.

画面表示部20は、タッチパネルに含まれているLCDなどの表示デバイスでの文字領域の生成、文字領域への文字の表示を行う他、表示デバイスへのその他の表示を制御する。また、画面表示部20が表示制御部を備えている場合は、表示制御部が文字領域の生成、文字領域への文字の表示をすることもできる。   The screen display unit 20 generates a character area on a display device such as an LCD included in the touch panel, displays characters in the character area, and controls other displays on the display device. Further, when the screen display unit 20 includes a display control unit, the display control unit can generate a character area and display characters in the character area.

図3は、情報処理端末1のハードウェア構成の一例を表す図である。情報処理端末1は、無線部31、CPU32、メモリ33、スピーカ34、LCD(Liquid Crystal Display)35、および、タッチパネル40を備える。   FIG. 3 is a diagram illustrating an example of a hardware configuration of the information processing terminal 1. The information processing terminal 1 includes a wireless unit 31, a CPU 32, a memory 33, a speaker 34, an LCD (Liquid Crystal Display) 35, and a touch panel 40.

無線部31は、例えば、呼制御部11や無線制御部12として動作し、情報処理端末1の無線通信を制御する。CPU32は、音読条件の作成に用いるプログラムを実行することにより、例えば、メール受信/送信部14、メール編集部15、読上げ記録部17、タッチパネル制御部18、画面表示部20として動作する。また、CPU32は、音声出力条件の作成に用いるプログラムを実行することにより、例えば、タイマ13、メール受信/送信部14、音声合成エンジン19、画面表示部20などとして動作する。また、CPU32は、適宜、他のプログラムの実行やその他の処理を行う。   For example, the wireless unit 31 operates as the call control unit 11 or the wireless control unit 12 and controls wireless communication of the information processing terminal 1. The CPU 32 operates as, for example, a mail reception / transmission unit 14, a mail editing unit 15, a reading recording unit 17, a touch panel control unit 18, and a screen display unit 20 by executing a program used to create a reading condition. The CPU 32 operates as, for example, the timer 13, the mail reception / transmission unit 14, the speech synthesis engine 19, the screen display unit 20, and the like by executing a program used to create a voice output condition. Further, the CPU 32 appropriately executes other programs and performs other processes.

メモリ33は、例えば、音読条件の作成に用いるプログラムや音声出力条件の作成に用いるプログラムなど、CPU32での処理に用いられるプログラムを格納する他、適宜、情報処理端末1で使用されるデータやデータベースなどを格納する。実施形態に係る携帯電話端末では、タッチパネル制御部18などによって検出される入力位置の移動パターンの格納などに用いられる。また、読上げ記録部17が音読条件と移動パターンを対応付けるための閾値を用いる場合には、メモリ33に閾値が格納されている。さらに、音読条件を2箇所の入力位置で指定される音読条件の差として指定する場合や、基準値からの差分値として記録する場合に、メモリ33は、基準とする入力位置での音読条件や基準値などを記憶する。   The memory 33 stores, for example, programs used for processing in the CPU 32 such as a program used for creating aloud reading conditions and a program used for creating voice output conditions, and data and databases used in the information processing terminal 1 as appropriate. Etc. are stored. The mobile phone terminal according to the embodiment is used for storing a movement pattern of an input position detected by the touch panel control unit 18 or the like. When the reading recording unit 17 uses a threshold for associating the reading condition with the movement pattern, the threshold is stored in the memory 33. Furthermore, when specifying the reading conditions as a difference between reading conditions specified at two input positions, or when recording as a difference value from the reference value, the memory 33 stores the reading conditions at the reference input position. The reference value is stored.

スピーカ34は、読上げ再生部16として動作することにより、音声合成エンジン19で指定された音声出力条件に従った音声データを出力する。タッチパネル40には、LCD35が含まれており、LCD35に、画面表示部20によって文書データが表示されるほか、メモリ33に記憶されているプログラムによって適宜、表示画面が表示される。タッチパネル40は、指やペンなどからの入力を検出する。なお、LCD35は、画面として使用される液晶ディスプレイとすることもできる。   The speaker 34 operates as the reading / reproducing unit 16 to output audio data in accordance with the audio output conditions specified by the audio synthesis engine 19. The touch panel 40 includes an LCD 35, and the document data is displayed on the LCD 35 by the screen display unit 20, and a display screen is appropriately displayed by a program stored in the memory 33. The touch panel 40 detects input from a finger or a pen. The LCD 35 may be a liquid crystal display used as a screen.

<音読条件の設定方法>
図4は、音読条件の設定方法の一例を説明する図である。図4の例では、ユーザが音読条件の設定を開始すると、音読条件が設定される文書データを仮名文字に変換した文字列が設定ウィンドウ36に表示され、設定ウィンドウ36への入力位置の軌跡によって音読条件が設定されるものとする。
<How to set reading aloud conditions>
FIG. 4 is a diagram for explaining an example of a method for setting aloud reading conditions. In the example of FIG. 4, when the user starts setting the reading condition, a character string obtained by converting the document data to which the reading condition is set into a kana character is displayed in the setting window 36, and the locus of the input position to the setting window 36 is displayed. Spoken reading conditions shall be set.

(1)ユーザがメール編集部15などによって文書データを作成すると共に文書データの音読に用いる音読条件の設定を開始すると、画面表示部20は、文書データを設定ウィンドウ36に表示する。このとき、画面表示部20は、設定ウィンドウ36に文字領域41を生成して、各々の文字領域41に文字番号を割り当てる。さらに、画面表示部20は、文字領域41の各々に、音読条件を設定する対象とする文字列に含まれている文字を1文字ずつ表示する。   (1) When the user creates document data by the mail editing unit 15 or the like and starts setting the reading conditions used for reading the document data, the screen display unit 20 displays the document data on the setting window 36. At this time, the screen display unit 20 generates a character area 41 in the setting window 36 and assigns a character number to each character area 41. Furthermore, the screen display unit 20 displays the characters included in the character string for which the reading condition is to be set one by one in each character area 41.

図4に示すように、音読条件を設定する対象が、文書データを仮名文字に変換して得られた文字列である場合には、文字領域41の各々に対応付けて、仮名文字が表示される。なお、画面表示部20は、設定された文字領域41の境界を表示せずに、文字領域41に表示する文字を表示することができ、また、文字領域41の境界と共に、文字領域41に表示する文字を表示することもできる。   As shown in FIG. 4, when the target for setting the reading aloud is a character string obtained by converting document data into kana characters, kana characters are displayed in association with each character area 41. The The screen display unit 20 can display characters to be displayed in the character area 41 without displaying the set boundary of the character area 41, and can be displayed in the character area 41 together with the boundary of the character area 41. The characters to be displayed can also be displayed.

(2)文字が表示されている文字領域41にユーザが指でタッチ入力すると、タッチパネル制御部18はタッチ位置を検出し、タッチ位置の移動パターン42を記憶する。例えば、移動パターン42として、タッチ位置の軌跡、移動速度などが記録される。ここでは、タッチ位置は、文字領域41の左下端を原点として右方向にX軸、上方向にY軸の正方向を取った座標で表されるものとする。なお、図4は、ユーザが設定ウィンドウ36に指でタッチ入力する場合の図であるが、タッチ入力はペンや任意のポインティングデバイスによる位置入力とすることができる。   (2) When the user touches the character area 41 where characters are displayed with a finger, the touch panel control unit 18 detects the touch position and stores the movement pattern 42 of the touch position. For example, as the movement pattern 42, the locus of the touch position, the movement speed, and the like are recorded. Here, it is assumed that the touch position is represented by coordinates in which the left lower end of the character area 41 is the origin and the X axis is in the right direction and the Y axis is in the positive direction in the upward direction. FIG. 4 is a diagram when the user performs touch input with the finger on the setting window 36, but the touch input can be a position input by a pen or any pointing device.

(3)読上げ記録部17の動作を、図5の文字領域41の拡大図を参照して説明する。ここでは、文字領域41の各々に文字の縦方向と平行な線状の観測領域43(43a〜43e)が設定されているものとする。   (3) The operation of the reading-out recording unit 17 will be described with reference to the enlarged view of the character area 41 in FIG. Here, it is assumed that a linear observation region 43 (43a to 43e) parallel to the vertical direction of the character is set in each character region 41.

読上げ記録部17は、観測領域43で観測されるタッチ位置の座標を使って、移動パターン42を解析して音読音量を求める。読上げ記録部17は、タッチ位置が文字領域41の上側であるほど音量を大きく、すなわち、タッチ位置のY座標の値が大きいほど音量が大きくなるように音読条件を設定できる。読上げ記録部17は、予め、音読条件に設定する音量とタッチ位置のY座標を対応付けるための情報を格納しており、タッチ位置のY座標に従って音量を設定する。   The reading and recording unit 17 analyzes the movement pattern 42 using the coordinates of the touch position observed in the observation area 43 to obtain the reading volume. The reading and recording unit 17 can set the reading condition so that the volume increases as the touch position is above the character area 41, that is, the volume increases as the Y coordinate value of the touch position increases. The reading-out recording unit 17 stores in advance information for associating the volume set as a reading condition with the Y coordinate of the touch position, and sets the volume according to the Y coordinate of the touch position.

例えば、文字番号が「1」の「も」という字が表示されている文字領域41上の観測領域43で観測されたタッチ位置のY座標が以下のとおりであるとする。
第1の観測領域43aのY座標:5
第2の観測領域43bのY座標:6
第3の観測領域43cのY座標:7
第4の観測領域43dのY座標:8
ここで、文字領域41のY座標は、0〜10の値を取り、音量も0〜10の11段階で調節するように設定されているとすると、読上げ記録部17は、観測領域間に表示されている文字の音読音量を次のように設定する。
For example, it is assumed that the Y coordinate of the touch position observed in the observation region 43 on the character region 41 where the character number “1” is displayed as “M” is as follows.
Y coordinate of the first observation region 43a: 5
Y coordinate of second observation region 43b: 6
Y coordinate of third observation region 43c: 7
Y coordinate of the fourth observation region 43d: 8
Here, assuming that the Y coordinate of the character area 41 takes a value of 0 to 10 and the volume is set to be adjusted in 11 steps of 0 to 10, the reading recording unit 17 displays between the observation areas. Set the reading aloud volume of the text as follows.

第1の観測領域43aと第2の観測領域43bの間に対応する音量:5
第2の観測領域43bと第3の観測領域43cの間に対応する音量:6
第3の観測領域43cと第4の観測領域43dの間に対応する音量:7
第4の観測領域43dから次の観測領域43eの間に対応する音量:8
音量を設定する際に、読上げ記録部17は、タッチ位置のY座標を音量の指標とし、タッチ位置のX座標の変化量が一定値を越えるのに要する時間を音声の長さの指標とする。なお、単位時間当たりのX座標の変化量を音声の長さの指標とすることもできる。例えば、前述の観測領域43aが文字領域41の境界上にあり、観測領域43b〜観測領域43dが他方の文字領域41の境界までの間に等間隔に設定されているとする。すると、「も」の音の出力中に速度変化がなく1秒間出力されるならば、0.25秒ごとに音量が1段階ずつ大きくなるように設定されることになる。
Corresponding volume between the first observation region 43a and the second observation region 43b: 5
Corresponding volume between the second observation region 43b and the third observation region 43c: 6
Corresponding volume between the third observation region 43c and the fourth observation region 43d: 7
Volume corresponding to the interval between the fourth observation region 43d and the next observation region 43e: 8
When setting the volume, the reading-out recording unit 17 uses the Y coordinate of the touch position as an index of the volume, and uses the time required for the amount of change in the X coordinate of the touch position to exceed a certain value as an index of the length of the voice. . Note that the amount of change in the X coordinate per unit time can be used as an index of the length of the voice. For example, it is assumed that the above-described observation region 43a is on the boundary of the character region 41, and the observation region 43b to the observation region 43d are set at equal intervals between the boundary of the other character region 41. Then, if there is no speed change and “1” is output for one second during the output of the “mo” sound, the volume is set to increase by one step every 0.25 seconds.

(4)次に、読上げ記録部17は、タッチ位置のX座標が変化する速さに対応させて音読速度を求める。例えば、Xaの間隔ごとに、第1の観測領域43a〜第4の観測領域43dまでの4つの観測領域を設けた場合について述べる。ここで、タッチ位置は、第1の観測領域43aでは時刻ta、第2の観測領域43bでは時刻tb、第3の観測領域43cでは時刻tcに観測されたとする。すると、第1の観測領域43aと第2の観測領域43bの間に対応する音に適応される音読速度は、Xa/(tb−ta)、第2の観測領域43bと第2の観測領域43cの間に対応する音に適応される音読速度は、Xa/(tc−tb)となる。また、例えば、音読速度を10段階などの段階に分けて閾値を設け、得られた音読速度に応じた数値として速度を表すこともできる。   (4) Next, the reading recording unit 17 obtains the reading speed in correspondence with the speed at which the X coordinate of the touch position changes. For example, a case where four observation regions from the first observation region 43a to the fourth observation region 43d are provided at intervals of Xa will be described. Here, it is assumed that the touch position is observed at time ta in the first observation region 43a, time tb in the second observation region 43b, and time tc in the third observation region 43c. Then, the reading speed applied to the sound corresponding to between the first observation region 43a and the second observation region 43b is Xa / (tb-ta), the second observation region 43b, and the second observation region 43c. The reading speed applied to the corresponding sound during the period is Xa / (tc-tb). Further, for example, the reading speed can be divided into 10 steps or the like and a threshold value can be provided, and the speed can be expressed as a numerical value corresponding to the obtained reading speed.

(5)読上げ記録部17は、文字領域41の各々に対して手順(3)、(4)で述べたように音読音量と音読速度を求めると、求めた値を文字番号に関連付けられた読上げ情報としてメモリ33に保存する。図4のテーブルは、読上げ記録部17が求めた音読音量と音読速度を10段階に分類したときの値を記録したときに格納されるテーブルの例である。なお、設定された音読条件を、文書データと共にその文書データを音読する情報処理端末1に送信できる。   (5) When the reading recording unit 17 obtains the reading volume and reading speed as described in the procedures (3) and (4) for each of the character areas 41, the reading value is read out in association with the character number. It is stored in the memory 33 as information. The table in FIG. 4 is an example of a table that is stored when values obtained by classifying the reading volume and reading speed obtained by the reading recording unit 17 into 10 levels. The set reading conditions can be transmitted to the information processing terminal 1 that reads the document data together with the document data.

以上のように、読上げ記録部17は、文字領域41に設定された観測領域で観測されたタッチ位置に係る情報を音読音量および音読速度に変換することにより、移動パターン42を解析して音読条件を求める。このように、タッチ位置の移動パターンに応じて音読条件を設定するので、情報処理端末で文書データを音読するときの音声条件を簡便に設定することができる。   As described above, the reading recording unit 17 analyzes the movement pattern 42 by converting the information related to the touch position observed in the observation area set in the character area 41 into the reading volume and the reading speed, and reads the reading conditions. Ask for. Thus, since the reading conditions are set according to the movement pattern of the touch position, it is possible to easily set the voice conditions when reading the document data on the information processing terminal.

手順(5)で述べたように、読上げ記録部17は、タッチ位置から求めた音読条件を記録することができるが、音読条件を、ある音読条件からの変化量を表す変化情報に変換して保存することもできる。この場合には、音読条件を変化情報として記録することにより、メモリ33に記録されるデータ量を小さくすることができる。   As described in the procedure (5), the reading recording unit 17 can record the reading condition obtained from the touch position, but converts the reading condition into change information representing the amount of change from a certain reading condition. It can also be saved. In this case, the amount of data recorded in the memory 33 can be reduced by recording the reading conditions as change information.

図6は、音読条件を変化情報として設定する方法の一例を説明する図である。音読条件を変化情報として保存する場合も、読上げ記録部17は、音読音量と音読速度を図4と図5を参照しながら述べた手順(1)〜(4)により求めることができる。図6に示したテーブルは、観測領域43ごとに求めた音読条件からある音読条件とその次に再現される音読条件との間の変化量を求めた結果を示している。図4のテーブルに示したように、例えば、第2の観測領域43b、第3の観測領域43c、第4の観測領域43dにおいて、それぞれ1段階ずつ音量が大きくなっている。そこで、読上げ記録部17は、第2の観測領域43b、第3の観測領域43c、第4の観測領域43dのそれぞれに対応付けて、音量変化が+1であると記録する。同様に、音読速度についても差分データが求められる。例えば、第2の観測領域43bにおいて、音読速度を1段階速くし、第3の観測領域43c、第4の観測領域43dにおいて音読速度を変化させなかった場合には、図6のテーブルのような変化情報が得られる。   FIG. 6 is a diagram for explaining an example of a method for setting aloud reading conditions as change information. Even when the reading condition is stored as change information, the reading-out recording unit 17 can obtain the reading volume and reading speed according to the procedures (1) to (4) described with reference to FIGS. The table shown in FIG. 6 shows the result of obtaining the amount of change between a certain reading condition and the next reproduced reading condition from the reading condition obtained for each observation region 43. As shown in the table of FIG. 4, for example, in the second observation region 43b, the third observation region 43c, and the fourth observation region 43d, the volume is increased by one step. Therefore, the reading recording unit 17 records that the volume change is +1 in association with each of the second observation region 43b, the third observation region 43c, and the fourth observation region 43d. Similarly, difference data is also obtained for the reading speed. For example, when the reading speed is increased by one step in the second observation area 43b and the reading speed is not changed in the third observation area 43c and the fourth observation area 43d, the table shown in FIG. Change information is obtained.

図7は、音読条件を設定する際に行われる動作の一例を説明するフローチャートである。図7の例では、音読条件の変化を示す変化情報が記録される場合について説明している。図7のフローチャートのうち、ステップS1〜S4とS11はタッチパネル制御部18の動作、ステップS5〜S10は、読上げ記録部17の動作とすることができる。なお、図7のフローチャートでは、音読音量の変化を音読速度の変化より先に算出しているが、読上げ記録部17は、両者の算出順序を入れ替えることができ、また、両者を並列に算出することもできる。   FIG. 7 is a flowchart for explaining an example of an operation performed when setting aloud reading conditions. In the example of FIG. 7, a case is described in which change information indicating a change in reading aloud conditions is recorded. In the flowchart of FIG. 7, steps S1 to S4 and S11 can be the operation of the touch panel control unit 18, and steps S5 to S10 can be the operation of the reading recording unit 17. In the flowchart of FIG. 7, the change in the reading volume is calculated before the change in the reading speed. However, the reading recording unit 17 can change the calculation order of both, and calculates both in parallel. You can also.

タッチパネル制御部18は、文字領域41へのタッチ入力を検出すると、各観測領域43でのタッチ位置と、タッチ位置が検出された時刻を記憶することにより、タッチ位置の軌跡を記憶する(ステップS1、2)。ここでは、第1のタッチ位置の座標は(X,Y)で、タッチ位置が検出された時刻はtであったとする。次に、タッチパネル制御部18は、タッチ位置が第1の観測領域43aを通過して、第2の観測領域43bで検出されるかを判定する(ステップS3)。タッチ位置が次の観測領域43bで観測されると、タッチパネル制御部18は、第2の観測領域43bでのタッチ位置と、タッチ位置が検出された時刻を記憶する(ステップS4)。第2のタッチ位置の座標は(X,Y)で、タッチ位置が検出された時刻はtであったとする。 When the touch panel control unit 18 detects a touch input to the character area 41, the touch panel controller 18 stores the touch position in each observation area 43 and the time when the touch position is detected, thereby storing the locus of the touch position (step S1). 2). Here, it is assumed that the coordinates of the first touch position are (X 1 , Y 1 ) and the time when the touch position is detected is t 1 . Next, the touch panel control unit 18 determines whether the touch position passes through the first observation region 43a and is detected in the second observation region 43b (step S3). When the touch position is observed in the next observation area 43b, the touch panel control unit 18 stores the touch position in the second observation area 43b and the time when the touch position is detected (step S4). It is assumed that the coordinates of the second touch position are (X 2 , Y 2 ) and the time when the touch position is detected is t 2 .

次に、読上げ記録部17は、タッチパネル制御部18が記憶したタッチ位置とタッチ位置の検出時刻を用いてタッチ位置の移動パターン42を解析することにより、音読条件の変化情報を算出する。読上げ記録部17は、タッチパネル制御部18が記憶している第1および第2の観測領域43で検出されたタッチ位置の座標を取得し、2つのタッチ位置のY座標の変化量(Δmm=Y−Y)を算出して音量変化に変換する(ステップS5)。ここで、読上げ記録部17は、Δmmと音量変化を対応付けるための閾値などの情報を有しており、例えば、Δmmと閾値を比較して音量変化を決定する。 Next, the reading-out recording unit 17 analyzes the touch position movement pattern 42 using the touch position stored by the touch panel control unit 18 and the detection time of the touch position, thereby calculating change information of the reading aloud condition. The reading-out recording unit 17 acquires the coordinates of the touch positions detected in the first and second observation areas 43 stored in the touch panel control unit 18, and the amount of change in the Y coordinates of the two touch positions (Δmm = Y 2− Y 1 ) is calculated and converted into a volume change (step S5). Here, the reading-out recording unit 17 has information such as a threshold value for associating Δmm with a change in volume. For example, Δmm is compared with the threshold value to determine a change in volume.

さらに、読上げ記録部17は、第1の観測領域43aから第2の観測領域43bに移動するまでのタッチ位置の移動速度(Δta)を算出して記憶する(ステップS6)。なお、移動速度はΔta=Xa/(t−t)として算出する。次に、読上げ記録部17は、予め記憶していた前回の計算で得られた移動速度(Δtb)と今回の計算で得られた移動速度の差を算出し、算出結果を音読速度の変化量と対応付けることにより、音読速度の変化を算出する(ステップS7)。例えば、読上げ記録部17は、タッチ位置の移動速度の変化量と音読速度の変化量を対応付けるための閾値などの情報を有していて、(Δta−Δtb)と閾値を比較して速度変化を決定する。 Further, the reading-out recording unit 17 calculates and stores the moving speed (Δta) of the touch position until it moves from the first observation area 43a to the second observation area 43b (step S6). The moving speed is calculated as Δta = Xa / (t 2 −t 1 ). Next, the reading-out recording unit 17 calculates the difference between the movement speed (Δtb) obtained in the previous calculation stored in advance and the movement speed obtained in the current calculation, and the calculation result is used as the amount of change in the reading speed. To change the reading speed (step S7). For example, the reading recording unit 17 has information such as a threshold value for associating the change amount of the moving speed of the touch position with the change amount of the reading speed, and compares (Δta−Δtb) with the threshold value to change the speed. decide.

その後、読上げ記録部17は、第1の観測領域43aと第2の観測領域43bの間の領域を含む文字領域41に割り当てられた文字番号を取得して記録する(ステップS8)。また、ステップS5とS7で算出した音読音量や音読速度の変化量も記録して、変化情報を作成する(ステップS9、10)。ステップS3〜S10の処理は、タッチパネル制御部18が文字領域41上にタッチ位置を検出しなくなるまで、タッチパネル制御部18と読上げ記録部17により繰り返される(ステップS11)。なお、図7の例では、読上げ記録部17は、音量や音読速度の変化量のデータを文字番号と対応付けて、図4に示したような変化情報を算出するときについて述べたが、図8に示すように、文字領域41に表示されている文字と対応付けて記録することもできる。   Thereafter, the reading recording unit 17 acquires and records the character number assigned to the character region 41 including the region between the first observation region 43a and the second observation region 43b (step S8). Further, the change amount of the sound reading volume and the sound reading speed calculated in steps S5 and S7 is also recorded to create change information (steps S9 and S10). The processes of steps S3 to S10 are repeated by the touch panel control unit 18 and the reading recording unit 17 until the touch panel control unit 18 no longer detects the touch position on the character area 41 (step S11). In the example of FIG. 7, the reading recording unit 17 described the case where the change information as shown in FIG. 4 is calculated by associating the data of the change amount of the volume and the reading speed with the character number. As shown in FIG. 8, it can be recorded in association with the character displayed in the character area 41.

以上述べたように、タッチパネル40などを通して行われた位置入力の軌跡に基づいて音読条件を設定できるため、音読条件を簡便に設定できる。
<音声出力条件と音声データの作成方法>
次に、作成された音読条件から、情報処理端末1で文書データを音読するときの音声出力条件を作成する方法について、図8に示す変化情報から音声出力条件と音声データを生成する場合を例として述べる。以下の記述では、読上げ再生部16から出力されるデータを音声データと呼ぶことがある。また、文書データの読みを基準となる速度や音量で表したデータ、話速変換倍率、振幅変換倍率などの、音声データを生成するときに使用される条件を、音声出力条件と呼ぶことがある。
As described above, since the reading condition can be set based on the locus of position input performed through the touch panel 40 or the like, the reading condition can be easily set.
<Audio output conditions and audio data creation method>
Next, with respect to a method for creating a voice output condition when reading the document data aloud by the information processing terminal 1 from the created voice reading condition, a case where the voice output condition and voice data are generated from the change information shown in FIG. As described. In the following description, data output from the reading / playing unit 16 may be referred to as audio data. In addition, conditions used when generating voice data, such as data representing the reading of document data in terms of speed and volume, speech speed conversion magnification, amplitude conversion magnification, etc. may be referred to as audio output conditions. .

なお、情報処理端末1は、ユーザから文書データの読上げ再生が要求されたかを確認し、ユーザからの読上げ再生要求があったことを確認したときに音声出力条件の生成や音声データの出力をするようにすることもできる。   The information processing terminal 1 confirms whether or not the user has requested reading of the document data, and generates a sound output condition or outputs the sound data when confirming that the user has requested reading and reading. It can also be done.

図9は、音声合成エンジン19の構成と動作の一例を説明する図である。この例では、音声合成エンジン19は、メモリ33から音読条件5として、文字情報51、速度変化情報52、および、音量変化情報53を取得するものとする。なお、変化情報や音読条件が他の情報処理端末1から送信される場合には、音声合成エンジン19は、例えば、無線制御部12、メール受信/送信部14、読上げ再生部16などを介して変化情報などを取得することもできる。   FIG. 9 is a diagram illustrating an example of the configuration and operation of the speech synthesis engine 19. In this example, it is assumed that the voice synthesis engine 19 acquires character information 51, speed change information 52, and volume change information 53 as the reading condition 5 from the memory 33. When change information or reading conditions are transmitted from another information processing terminal 1, the speech synthesis engine 19 is, for example, via the wireless control unit 12, the mail reception / transmission unit 14, the reading / playing unit 16, or the like. Change information can also be acquired.

音声合成エンジン19は、音声合成部61、話速変換倍率算出部62、話速変換部63、振幅変換倍率算出部64、および、音量変更部65を備える。音声合成エンジン19は、変化情報に記録されている文字もしくは文字番号ごとに変化情報を分類する。例えば、図8に示すような変化情報を取得すると、音声合成エンジン19は、時間t=1〜3のデータは「も」という仮名を音読するときの条件で、時間t=4〜6のデータは「じ」という仮名を音読するときの条件であることを認識する。その後、認識した文字情報ごとに音声合成部61、話速変換倍率算出部62、振幅変換倍率算出部64などに変化情報を通知する。   The speech synthesis engine 19 includes a speech synthesis unit 61, a speech speed conversion magnification calculation unit 62, a speech speed conversion unit 63, an amplitude conversion magnification calculation unit 64, and a volume change unit 65. The speech synthesis engine 19 classifies the change information for each character or character number recorded in the change information. For example, when the change information as shown in FIG. 8 is acquired, the speech synthesis engine 19 uses the data for the time t = 4 to 6 under the condition that the data for the time t = 1 to 3 is read aloud the kana “m”. Recognizes that this is a condition for reading aloud the kana "ji". Thereafter, change information is notified to the speech synthesizer 61, the speech speed conversion magnification calculator 62, the amplitude conversion magnification calculator 64, etc. for each recognized character information.

音声合成部61は、各文字を発音するための音声波形データを記憶しているか、または、メモリ33から読み出す。文字情報51が入力されると、音声合成部61は、文字情報51で指定された文字に対応する音の音声波形を特定し、文書データに含まれる文字列を音読するデータを合成する。音声合成部61は予め基準とする音読音量や音読速度の情報を記憶しているか、メモリ33から取得することにより、文字情報51で指定された文字に対応する音声を基準の音量、かつ、基準の速度で音読するデータを合成する。   The voice synthesizer 61 stores voice waveform data for generating each character or reads it from the memory 33. When the character information 51 is input, the speech synthesizer 61 identifies the sound waveform of the sound corresponding to the character specified by the character information 51, and synthesizes data for reading a character string included in the document data. The voice synthesizer 61 stores information on the reading volume and reading speed as a reference in advance, or obtains the information corresponding to the character designated by the character information 51 by obtaining from the memory 33 as a reference volume and a reference. Synthesize the data to read aloud at the speed of.

話速変換倍率算出部62は、速度変化情報52で指定された速度変化情報に合わせて話速変換倍率r(T)を算出する。以下の説明では、音声出力情報については、時間Tの関数として表記し、変化情報についてはtの関数として表記する。Tは再生される音声データの始点からの時間を表すものとする。例えば、図8の「も」という字の速度変化情報が話速変換倍率算出部62に送られたときを例として、話速変換倍率算出部62の動作について述べる。話速変換倍率算出部62は、「も」という音を出力する条件が3つに分けられていることを認識すると、条件ごとに予め記憶している条件式に従って、話速変換倍率を算出する。例えば、ここで基本の音読速度を1とし、話速変換倍率を次式に従って算出するとする。   The speech speed conversion magnification calculator 62 calculates the speech speed conversion magnification r (T) in accordance with the speed change information specified by the speed change information 52. In the following description, audio output information is expressed as a function of time T, and change information is expressed as a function of t. T represents the time from the start point of the reproduced audio data. For example, the operation of the speech speed conversion magnification calculation unit 62 will be described by taking, as an example, the case where the speed change information of “MO” in FIG. 8 is sent to the speech speed conversion magnification calculation unit 62. When the speech speed conversion magnification calculation unit 62 recognizes that the condition for outputting the sound “mo” is divided into three, the speech speed conversion magnification is calculated according to a conditional expression stored in advance for each condition. . For example, assume that the basic reading speed is 1, and the speech rate conversion magnification is calculated according to the following equation.

r(T)=r(T−1)+0.5×a(t)、ここでr(0)=1 ・・・(1)
すると、話速変換倍率算出部62は、「も」を出力する最初の条件では、話速変換倍率は以下のように計算する。
r (T) = r (T−1) + 0.5 × a (t), where r (0) = 1 (1)
Then, the speech speed conversion magnification calculation unit 62 calculates the speech speed conversion magnification as follows under the first condition of outputting “M”.

r(1)=r(1−1)+0.5×a(1)=r(0)+0.5×a(1)
=1+0.5×1=1.5
そこで、t=1の変化量に対応する文字の音読速度は、基準の音読速度の1.5倍の速さであることを示す「r(1)=1.5」を話速変換部63に出力する。同様に、「も」の音を出力するときの他の条件についても話速変換倍率を算出し、r(2)とr(3)も基準の音読速度の1.5倍であることを話速変換部63に出力する。さらに、「じ」の音についての変化情報が通知されると「じ」の音についても同様に、話速変換倍率を算出する。ここで、T=4のときには、文字情報が「も」から「じ」に変わるが、T=4で記録されている変化情報は、「も」の3番目の条件からの変化として記録されている。そこで、話速変換倍率は(1)式に従って、以下のように算出される。
r (1) = r (1-1) + 0.5 × a (1) = r (0) + 0.5 × a (1)
= 1 + 0.5 × 1 = 1.5
Therefore, “r (1) = 1.5” indicating that the reading speed of the character corresponding to the change amount of t = 1 is 1.5 times the reference reading speed is set to the speech speed conversion unit 63. Output to. Similarly, the speech rate conversion magnification is also calculated for other conditions when outputting the “mo” sound, and it is shown that r (2) and r (3) are also 1.5 times the standard reading speed. Output to the speed converter 63. Further, when the change information about the “ji” sound is notified, the speech rate conversion magnification is similarly calculated for the “ji” sound. Here, when T = 4, the character information changes from “mo” to “ji”, but the change information recorded at T = 4 is recorded as a change from the third condition of “mo”. Yes. Therefore, the speech rate conversion magnification is calculated as follows according to the equation (1).

r(4)=r(4−1)+0.5×a(4)=r(3)+0.5×a(4)
=1.5+0.5×(−1)=1.0
従って、「じ」の音をt=4の変化量に対応して出力するときには、基準の音読速度が用いられる。図8のデータに基づいて話速変換倍率算出部62で求められた話速変換倍率r(T)を例として図10に示す。
r (4) = r (4-1) + 0.5 × a (4) = r (3) + 0.5 × a (4)
= 1.5 + 0.5 × (−1) = 1.0
Therefore, when outputting the sound of “ji” corresponding to the change amount of t = 4, the reference reading speed is used. FIG. 10 shows an example of the speech speed conversion magnification r (T) obtained by the speech speed conversion magnification calculator 62 based on the data of FIG.

話速変換部63は、話速変換倍率算出部62で算出された話速変換倍率に合わせて音声合成部61で合成されたデータの音読速度を変更する。話速変換部63は、話速変換倍率算出部62から得られた話速変換倍率に合わせて、ある文字の読みに対応する1つの音声を出力する時間の一部分の時間を変更できる。なお、話速変換部63は、話速変換倍率算出部62が1つの文字について1つの話速変換倍率を指定している場合には、文字ごとに音読速度を変更するなど、指定された話速変換倍率の数に応じて音読速度の変更回数を変更できる。   The speech speed conversion unit 63 changes the reading speed of the data synthesized by the speech synthesis unit 61 in accordance with the speech speed conversion magnification calculated by the speech speed conversion magnification calculation unit 62. The speech speed conversion unit 63 can change the time of a part of the time for outputting one voice corresponding to the reading of a certain character in accordance with the speech speed conversion magnification obtained from the speech speed conversion magnification calculation unit 62. Note that, when the speech speed conversion magnification calculation unit 62 designates one speech speed conversion magnification for one character, the speech speed conversion unit 63 changes the reading speed for each character. The number of reading speed changes can be changed according to the number of speed conversion magnifications.

例えば、図10に示すデータが話速変換倍率として通知されると、話速変換部63は、「も」の音について3つの条件が設定されていることを認識し、音声合成部61から出力されたデータのうち、「も」の音に対応する部分の長さを変更する。音声合成部61で出力されたデータでは「も」が0.45秒間出力される場合には、「も」の出力に用いられる波形を0.15秒ごとに分ける。最初の波形部分は、話速変換倍率算出部62から音読速度を1.5倍にすることが指定されているので、0.1秒だけ出力されるように、最初の波形部分を3分の2の長さに変更する。すなわち、「も」の音声波の出力時間を音声合成部61から受け取ったデータの3分の2に変更することにより、出力される音の長さを短縮する。次の0.15秒間と最後の0.15秒間でも、「も」の音声波の出力時間を3分の2に変更する。さらに、音読速度を設定した波を途切れさせずに出力することにより、「も」の音を0.3秒の出力として音読速度を変更できる。   For example, when the data shown in FIG. 10 is notified as the speech speed conversion magnification, the speech speed conversion unit 63 recognizes that three conditions are set for the sound “mo” and outputs from the speech synthesis unit 61. Of the received data, the length of the portion corresponding to the sound “mo” is changed. In the data output from the speech synthesizer 61, when “mo” is output for 0.45 seconds, the waveform used for the output of “mo” is divided every 0.15 seconds. Since the first waveform portion is designated by the speech rate conversion magnification calculation unit 62 to increase the reading speed by 1.5 times, the first waveform portion is set to 3 minutes so that only 0.1 second is output. Change the length to 2. That is, the length of the output sound is shortened by changing the output time of the voice wave of “mo” to two-thirds of the data received from the voice synthesizer 61. In the next 0.15 seconds and the last 0.15 seconds, the output time of the voice wave of “mo” is changed to two thirds. Furthermore, by outputting the wave set with the reading speed without interruption, the reading speed can be changed with the sound of “mo” as an output of 0.3 seconds.

同様に、「じ」の音についても、音読速度が設定される。「じ」についても、音声合成部61からの出力結果では、0.45秒間出力されることになっている。話速変換部63は、図10に示したとおり、話速変換倍率算出部62からT=4とT=5を基準の速度にすることを指定されているため、「じ」の音の波の最初からの3分の2までの部分については、音読速度を変更しない。最後の0.15秒分については、話速変換倍率が2.0倍になっているので、「じ」の音声波の出力時間を半分にする。その結果、最後の0.15秒分の波として音声合成部61から出力された波は0.075秒分となり、「じ」の音は、0.375秒間出力されることになる。   Similarly, the reading speed is set for the sound of “ji”. “Ji” is also output for 0.45 seconds in the output result from the speech synthesizer 61. As shown in FIG. 10, the speech speed conversion unit 63 is designated by the speech speed conversion magnification calculation unit 62 to set T = 4 and T = 5 as reference speeds. The reading speed is not changed for up to two-thirds from the beginning. For the last 0.15 seconds, the speech speed conversion magnification is 2.0 times, so the output time of the “ji” speech wave is halved. As a result, the wave output from the speech synthesizer 61 as the last wave for 0.15 seconds is 0.075 seconds, and the sound of “ji” is output for 0.375 seconds.

振幅変換倍率算出部64は、音量変化情報53を受け取ると、指定された音量変化情報m(t)に合わせて振幅変換倍率M(T)を算出する。例えば、図8の「も」という字の音量変化情報が振幅変換倍率算出部64に送られると、予め記憶している条件式に従って、振幅変換倍率M(T)を算出する。例えば、次式に従って振幅変換倍率M(T)が算出されるとする。   Upon receiving the volume change information 53, the amplitude conversion magnification calculator 64 calculates the amplitude conversion magnification M (T) according to the designated volume change information m (t). For example, when the volume change information of “MO” in FIG. 8 is sent to the amplitude conversion magnification calculation unit 64, the amplitude conversion magnification M (T) is calculated according to a pre-stored conditional expression. For example, it is assumed that the amplitude conversion magnification M (T) is calculated according to the following equation.

ここで、Bは音読音量の基準値であり、B=5とする。すると、振幅変換倍率算出部64は、「も」を出力する条件では、以下のように振幅変換倍率を計算する。 Here, B is a reference value of the reading volume, and B = 5. Then, the amplitude conversion magnification calculation unit 64 calculates the amplitude conversion magnification as follows under the condition of outputting “mo”.

M(1)=(1+5)/5=1.2
M(2)=(1+1+5)/5=1.4
M(3)=(1+1+1+5)/5=1.6
従って、1段階ずつ音量を大きくしたことにより、振幅が基本の振幅の0.2倍ずつ大きくなるため、音量は1段階につき、基本音量の0.2倍ずつ大きくなる。「じ」についてのデータについても振幅変換倍率を計算した結果を図11に示す。図11に示すように、振幅変換倍率算出部64は、計算結果と振幅変換倍率を適用する文字を対応付けて、音量変更部65に計算結果を通知することもできる。
M (1) = (1 + 5) /5=1.2
M (2) = (1 + 1 + 5) /5=1.4
M (3) = (1 + 1 + 1 + 5) /5=1.6
Therefore, since the amplitude is increased by 0.2 times the basic amplitude by increasing the volume by one step, the volume is increased by 0.2 times the basic volume per step. FIG. 11 shows the result of calculating the amplitude conversion magnification for the data for “ji”. As shown in FIG. 11, the amplitude conversion magnification calculation unit 64 can also notify the volume change unit 65 of the calculation result in association with the calculation result and the character to which the amplitude conversion magnification is applied.

音量変更部65は、振幅変換倍率算出部64から振幅変換倍率を通知されると、話速変換部63から出力された波形の振幅を、振幅変換倍率に従って変更する。なお、音量変更部65は、振幅変換倍率算出部64が1つの文字について1つの振幅変換倍率を指定している場合には、文字ごとに音読速度を変更することができるなど、指定された話速変換倍率の数に応じて音読速度の変更回数を変更できる。   When notified of the amplitude conversion magnification from the amplitude conversion magnification calculation unit 64, the volume changing unit 65 changes the amplitude of the waveform output from the speech speed conversion unit 63 according to the amplitude conversion magnification. The volume changing unit 65 can change the reading speed for each character when the amplitude conversion magnification calculating unit 64 designates one amplitude conversion magnification for one character. The number of reading speed changes can be changed according to the number of speed conversion magnifications.

例えば、図11のデータが送られてくると、音量変更部65は、「も」の音声波のうち、話速変換部63がT=1のデータを用いて音読速度を変更した部分について、振幅を1.2倍にする。同様に、話速変換部63によりT=2のデータで処理された部分の振幅を1.4倍、T=3のデータで処理された部分の振幅を1.6倍にする。   For example, when the data shown in FIG. 11 is sent, the volume changing unit 65 determines the portion of the voice wave of “M” whose speech speed conversion unit 63 has changed the reading speed using the data T = 1. Increase the amplitude by a factor of 1.2. Similarly, the amplitude of the portion processed by the data of T = 2 by the speech speed conversion unit 63 is 1.4 times, and the amplitude of the portion processed by the data of T = 3 is 1.6 times.

以上の処理により得られた音声データでは、音読速度と音読音量が音声合成エンジン19に与えられた変化条件に基づいて変更されている。例えば、「も」の音は、基準の0.45秒よりも1.5倍短い0.3秒出力され、音の大きさは、最初の0.1秒は基準の音量の1.2倍、次の0.1秒は基準の音量の1.4倍、最後の0.1秒は基準の音量の1.6倍となる。「じ」の音についても同様に、T=4とT=5に対応した出力では基準の速度で、基準の1.6倍の音量であるが、T=6に対応した出力部分では基準の半分の時間だけ、基準の1.4倍の音量で出力される。   In the voice data obtained by the above processing, the reading speed and the reading volume are changed based on the changing conditions given to the voice synthesis engine 19. For example, the “mo” sound is output for 0.3 seconds, 1.5 times shorter than the standard 0.45 seconds, and the sound volume is 1.2 times the standard volume for the first 0.1 seconds. The next 0.1 seconds is 1.4 times the reference volume, and the last 0.1 seconds is 1.6 times the reference volume. Similarly, for the sound of “ji”, the output corresponding to T = 4 and T = 5 is the reference speed and the volume is 1.6 times the reference, but the output portion corresponding to T = 6 is the reference speed. The sound is output at a volume 1.4 times the reference for half the time.

図12は、音読条件に従って文書データが音読されるときの動作の一例を説明するフローチャートである。ユーザから、文書データを音読再生する旨の指示が与えられたことを情報処理端末1が認識すると、音声合成エンジン19は、文書データと変化情報を取得する(ステップS21〜S23)。なお、文書データと変化情報はどちらを先に取得してもよい。また、変化情報の代わりに音声合成エンジン19が音読条件を取得することもできる。音声合成エンジン19は、文書データと変化情報から出力される音声の条件を設定し、先に述べた方法で出力対象の音声を生成する(ステップS24)。   FIG. 12 is a flowchart for explaining an example of the operation when the document data is read aloud according to the aloud reading conditions. When the information processing terminal 1 recognizes that an instruction to read and reproduce the document data is given from the user, the speech synthesis engine 19 acquires the document data and the change information (steps S21 to S23). Note that either the document data or the change information may be acquired first. Further, the speech synthesis engine 19 can acquire the reading conditions instead of the change information. The speech synthesis engine 19 sets the conditions for the sound output from the document data and the change information, and generates the output target sound by the method described above (step S24).

図13は、出力される音声データの生成の際に行われる動作の一例を説明するフローチャートである。図13は、ステップS24を詳しく説明するフローチャートである。音声合成エンジン19は、読み込んだ文書データから、例えば、1文節分などの単位の文書データを読み込み、読み込んだ文書データに含まれる文字列に対応する変化情報を取得する(ステップS31、32)。ここで、変化情報が図6に記載されているように、文字番号と対応付けて記録されている場合には、音声合成部61は、読み込んだ文書データを元にして、基準の音量と速度で文書データを音読するデータを作成する。取得した文書データと変化情報から読み込んだ文節分の音声データを生成すると、音声合成エンジン19は、生成した音声データをスピーカ34に出力する(ステップS33)。その後、すべてのデータの処理が終わるまで、ステップS31〜S33の処理が繰り返される(ステップS34)。ここで、図13の例では、ステップS31とステップS32が並行処理として表現されているが、いずれか一方を先に処理することもできる。すなわち、音声合成エンジン19は、1文節分の文書データと変化情報のいずれか一方を先に取得することができ、また両者を並行して取得することもできる。   FIG. 13 is a flowchart illustrating an example of an operation performed when generating output audio data. FIG. 13 is a flowchart for explaining step S24 in detail. The speech synthesis engine 19 reads document data in units of, for example, one sentence from the read document data, and acquires change information corresponding to a character string included in the read document data (steps S31 and S32). Here, as shown in FIG. 6, when the change information is recorded in association with the character number, the speech synthesizer 61 uses the read document data as a reference volume and speed. Create data to read the document data aloud. When the speech data for the phrase read from the acquired document data and the change information is generated, the speech synthesis engine 19 outputs the generated speech data to the speaker 34 (step S33). Thereafter, the processing of steps S31 to S33 is repeated until the processing of all data is completed (step S34). Here, in the example of FIG. 13, step S31 and step S32 are expressed as parallel processing, but either one may be processed first. That is, the speech synthesis engine 19 can first acquire one sentence of document data and change information, or can acquire both in parallel.

図14は、音声データの生成方法の一例を説明するフローチャートである。図14は、図13のステップS33の処理の一例を詳しく説明する図である。なお、図14では、図9を参照しながら説明した方法とは異なり、音読音量を変更した後で音読速度を変更している。すなわち、図14のフローチャートに示す動作をする音声合成エンジン19では、音声合成部61のデータは音量変更部65に入力され、音量変更部65の処理後のデータが話速変換部63で処理されることになる。なお、話速変換部63や音量変更部65では先に説明した処理と同様の処理が行われる。   FIG. 14 is a flowchart illustrating an example of a method for generating audio data. FIG. 14 is a diagram for explaining in detail an example of the process of step S33 of FIG. In FIG. 14, unlike the method described with reference to FIG. 9, the reading speed is changed after the reading volume is changed. That is, in the speech synthesis engine 19 that performs the operation shown in the flowchart of FIG. Will be. Note that the speech rate conversion unit 63 and the volume change unit 65 perform the same processing as described above.

音声合成エンジン19が、1文節分の変化情報を読み込むと、文字ごとに変化情報が分類される(ステップS41)。次に振幅変換倍率算出部64は、変化情報を確認して音量変化が指定されているかを判定する(ステップS42)。音量変化が指定されているときは、振幅変換倍率算出部64は変化情報に対応した振幅変換倍率M(T)を算出し、音量変更部65が音声合成部61から出力された音声波の振幅を変更することにより、音量変化を指定する(ステップS43)。一方、音量変化が指定されていないことを確認すると、振幅変換倍率算出部64は、直前に処理した音声出力条件と同じ振幅変換倍率を指定する(ステップS42)。なお、振幅変換倍率算出部64は、直前に処理した音声条件の振幅変換倍率を記憶しているものとする。   When the speech synthesis engine 19 reads change information for one sentence, the change information is classified for each character (step S41). Next, the amplitude conversion magnification calculation unit 64 confirms the change information and determines whether or not a volume change is designated (step S42). When the volume change is designated, the amplitude conversion magnification calculation unit 64 calculates the amplitude conversion magnification M (T) corresponding to the change information, and the volume change unit 65 outputs the amplitude of the voice wave output from the voice synthesis unit 61. Is designated to change the volume (step S43). On the other hand, if it is confirmed that the volume change is not designated, the amplitude conversion magnification calculation unit 64 designates the same amplitude conversion magnification as the sound output condition processed immediately before (step S42). It is assumed that the amplitude conversion magnification calculation unit 64 stores the amplitude conversion magnification of the voice condition processed immediately before.

また、話速変換倍率算出部62は、変化情報を確認して音読速度の変化が設定されているかを判定する(ステップS44)。音読速度変化が指定されているときは、変化情報に対応した話速変換倍率r(T)を算出し、話速変換部63が音量変更部65から出力された音声波の振幅を変更することにより、音量変化を設定する(ステップS45)。一方、速度変化が指定されていないことを確認すると、話速変換倍率算出部62は、直前に処理した音読条件の話速変換倍率を指定する(ステップS43)。なお、話速変換倍率算出部62は、前に処理した音声条件の話速変換倍率を記憶しているものとする。音読処理の対象となるデータの処理が終わるまで、ステップS41〜S45の処理が繰り返される(ステップS46)。   Also, the speech speed conversion magnification calculator 62 confirms the change information and determines whether a change in the reading speed is set (step S44). When the reading speed change is designated, the speech speed conversion magnification r (T) corresponding to the change information is calculated, and the speech speed conversion section 63 changes the amplitude of the voice wave output from the volume changing section 65. Thus, the volume change is set (step S45). On the other hand, if it is confirmed that no speed change is designated, the speech speed conversion magnification calculation unit 62 designates the speech speed conversion magnification of the speech reading condition processed immediately before (step S43). It is assumed that the speech speed conversion magnification calculator 62 stores the speech speed conversion magnification of the previously processed speech condition. Until the processing of the data to be read aloud is completed, the processes of steps S41 to S45 are repeated (step S46).

また、図13と図14では、音声合成エンジン19が1文節ごとにデータを取得する例について述べたが、音声合成エンジン19のデータの取得方法は、例えば、仮名文字に変換した文字列の先頭から1文字ずつにするなど任意の取得方法に設定できる。   13 and 14 describe an example in which the speech synthesis engine 19 acquires data for each phrase. The data acquisition method of the speech synthesis engine 19 is, for example, the beginning of a character string converted into a kana character. It can be set to any acquisition method such as one character at a time.

なお、図8〜図14を参照した説明では、変化情報を基にして音声データを生成する場合について述べたが、音読条件から音声データを生成することもできる。この場合には、話速変換倍率算出部62や振幅変換倍率算出部64は、各々が保持している基準の速度や基準の音量と、音読条件との比を使って話速変換倍率や振幅変換倍率を算出する。   In the description with reference to FIGS. 8 to 14, the case where the voice data is generated based on the change information has been described. However, the voice data can be generated from the reading conditions. In this case, the speech speed conversion magnification calculation unit 62 and the amplitude conversion magnification calculation unit 64 use the ratio of the reference speed and the reference volume held by each and the reading conditions, and the speech speed conversion magnification and the amplitude. Calculate the conversion magnification.

以上に述べたように、ユーザが表示デバイスに表示されている文字列に対応した領域に対して位置入力をしたときの、入力位置の移動パターンに対応させて音読条件を設定することができる。また、入力位置の移動パターンに対応させて生成された音読条件に合わせて、音声出力に用いる音声データを生成することができる。このため、情報処理端末1で文書データが音読されるときの音読条件をユーザが簡便に設定し、生成された音読条件に基づいて音声データを再生することができる。   As described above, the reading condition can be set in correspondence with the movement pattern of the input position when the user inputs a position to the area corresponding to the character string displayed on the display device. Also, voice data used for voice output can be generated in accordance with the reading conditions generated corresponding to the movement pattern of the input position. For this reason, the user can easily set the reading conditions when the information processing terminal 1 reads the document data aloud, and the voice data can be reproduced based on the generated reading conditions.

また、前述のとおり、文書データを仮名文字に変更して得られた仮名文字の1文字ずつを、個々の文字領域41に対応させて表示して音読条件を設定すると、仮名文字の1文字単位で音読条件を設定することができる。また、1つの仮名文字に複数の音読条件を設定することもできる。このように仮名文字単位で設定された音読条件から音声データを生成することにより、ユーザの入力に応じて音読条件を詳細に設定でき、さらに、情報処理端末1において、詳細に設定された音読条件を再現した音読をすることができる。   Further, as described above, when the reading condition is set by displaying each character of the kana character obtained by changing the document data to the kana character corresponding to each character area 41, the character unit of the kana character You can set the reading conditions. A plurality of reading conditions can be set for one kana character. Thus, by generating the voice data from the reading conditions set in units of kana characters, the reading conditions can be set in detail according to the user's input. Further, in the information processing terminal 1, the reading conditions set in detail are set. Can be read aloud.

<その他>
なお、上記の実施形態に限られるものではなく、様々に変形可能である。以下にその例をいくつか述べる。
<Others>
In addition, it is not restricted to said embodiment, It can deform | transform variously. Some examples are described below.

図4や図6に示すように、文字領域41に文字中心線44を設定し、文字中心線44上への入力を検出した場合に、音読音量を基準の音量にすることもできる。このように、音量の目安を設定して表示することにより、ユーザが音読条件を設定しやすくなる。また、音読音量を入力位置のY座標と文字中心線44のY座標の差から算出することもできる。   As shown in FIGS. 4 and 6, when a character center line 44 is set in the character area 41 and an input on the character center line 44 is detected, the reading volume can be set to a reference volume. In this way, by setting and displaying a guide for the volume, it becomes easier for the user to set the reading conditions. The reading volume can also be calculated from the difference between the Y coordinate of the input position and the Y coordinate of the character center line 44.

タッチパネル40などから入力された入力位置の移動パターンは連続した線状に限られない。例えば、音読条件を設定しない文字列については、文字領域41への入力をしないことにより、情報処理端末1が音読条件の設定の無い文字列を読み飛ばすように設計することができる。また、同一の文字領域41への入力を複数回繰り返すことにより、複数回の入力があった文字領域41に対応する文字を、情報処理端末1に繰り返して音読させることもできる。例えば、ユーザが、「もじ」の2文字が表示された2つの文字領域41を通過する軌跡を位置入力デバイスから入力した後に、再度同じ2つの文字領域41を通過する軌跡を入力すると、移動パターンに応じて「もじ」を2回音読する音読条件を設定できる。   The movement pattern of the input position input from the touch panel 40 or the like is not limited to a continuous line shape. For example, it is possible to design the information processing terminal 1 to skip a character string for which no reading condition is set by not inputting the character area 41 for a character string for which the reading condition is not set. Further, by repeating the input to the same character area 41 a plurality of times, it is possible to cause the information processing terminal 1 to repeatedly read aloud the characters corresponding to the character area 41 that has been input a plurality of times. For example, when the user inputs a trajectory that passes through the two character areas 41 on which two characters “moji” are displayed from the position input device and then inputs a trajectory that passes through the same two character areas 41 again, the movement pattern Depending on, the reading conditions for reading “Moji” twice can be set.

図4の説明で、設定ウィンドウ36の外にも文書データを表示した例について述べたのは、理解を助けるためである。従って、設定ウィンドウ36に表示された文書データの他にはLCD35に文書データを表示しないように変形することもできる。   In the description of FIG. 4, the example in which the document data is displayed outside the setting window 36 is described in order to help understanding. Therefore, in addition to the document data displayed in the setting window 36, the document data can be modified so as not to be displayed on the LCD 35.

また、文字領域41に1文字ずつ表示する形態は一例であり、文字領域41に複数の文字を表示させてもよい。この場合には、文字領域41に対して複数の文字が対応付けられるが、文字領域41のX座標と表示された文字を関連付けた情報を音読条件に加えることにより、入力位置の移動パターンに対応して個々の文字に対しての音読条件を設定できる。   The form of displaying one character at a time in the character area 41 is an example, and a plurality of characters may be displayed in the character area 41. In this case, a plurality of characters are associated with the character region 41. By adding information that associates the X coordinate of the character region 41 and the displayed character to the reading aloud condition, it corresponds to the movement pattern of the input position. And you can set the reading conditions for each character.

また、上記の実施形態では、文書データを仮名文字に変換した文字列について音読条件を設定する例について述べたが、漢字やアルファベットであっても、文字領域41に表示された文字の読みと入力位置の移動パターンに対応して個々の文字に対しての音読条件を設定できる。   In the above embodiment, an example in which reading conditions are set for a character string obtained by converting document data into kana characters has been described. However, even in the case of kanji or alphabet, reading and inputting characters displayed in the character area 41 are performed. Aloud reading conditions for each character can be set corresponding to the position movement pattern.

なお、タッチパネル40を備えていない情報処理端末1の場合でも、任意の表示デバイスと、マウスやペンタブレットなど任意の位置入力デバイスを備える情報処理端末1で、実施形態の音読条件設定ができる。タッチパネル40以外の位置入力デバイスを備える情報処理端末1では、適宜、タッチパネル制御部18の代わりに位置入力デバイス制御部を備え、位置入力デバイス制御部が位置入力の検出、入力位置の移動パターンの記録などを行うように変形できる。   Note that even in the case of the information processing terminal 1 that does not include the touch panel 40, the reading conditions of the embodiment can be set by the information processing terminal 1 that includes an arbitrary display device and an arbitrary position input device such as a mouse or a pen tablet. The information processing terminal 1 including a position input device other than the touch panel 40 includes a position input device control unit instead of the touch panel control unit 18 as appropriate, and the position input device control unit detects position input and records a movement pattern of the input position. And so on.

上記の実施形態では、情報処理端末1が携帯電話端末である場合について具体例を述べたが、情報処理端末1は携帯電話端末に限られず、任意の情報処理端末とすることができる。   In the above embodiment, a specific example has been described in the case where the information processing terminal 1 is a mobile phone terminal. However, the information processing terminal 1 is not limited to a mobile phone terminal and can be any information processing terminal.

上述の各実施形態に対し、さらに以下の付記を開示する。
(付記1)
表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示する表示制御部と、
前記文字領域への入力位置の移動パターンを検出する検出部と、
前記文字領域での前記移動パターンに基づいて、前記文字領域に表示されている文字の音読条件を作成する条件作成部、
を備えることを特徴とする情報処理端末。
(付記2)
更に、タッチパネルを備え、
前記検出部は、前記タッチパネルを介しての前記文字領域へのタッチ位置の移動パターンを検出し、
前記条件作成部は、前記文字領域での前記タッチ位置の移動パターンに基づいて、前記文字領域に表示されている文字の音読条件を作成する、
ことを特徴とする付記1に記載の情報処理端末。
(付記3)
前記文字領域の各々に前記移動パターンを観測するための観測領域を複数設定する観測領域設定部をさらに備え、
前記条件作成部は、前記観測領域の各々で観測された情報を前記音読条件に変換することにより、前記文字領域に表示されている文字の各々に複数の音読条件を作成する
ことを特徴とする付記1もしくは2に記載の情報処理端末。
(付記4)
前記入力位置が観測された時刻を取得する時刻取得部をさらに備え、
前記移動パターンは、前記入力位置が前記文字表示領域中を移動するときの移動速度を含み、
前記条件作成部は、前記時刻取得部から得られた時刻と前記入力位置の軌跡から、前記移動速度を求めると共に、前記移動速度に応じて前記音読条件を作成する
ことを特徴とする付記1〜3に記載の情報処理端末。
(付記5)
前記条件作成部は、前記文字表示領域に表示された前記文字の向きを基準として、前記入力位置の高さ方向の座標に応じて前記音読条件を作成する
ことを特徴とする付記1〜4のいずれかに記載の情報処理端末。
(付記6)
前記表示制御部は、前記文字領域に、処理対象の文書データを仮名文字に変換して得られた文字を表示し、
前記条件作成部は、前記仮名文字について前記音読条件を作成する
ことを特徴とする付記1〜5に記載の情報処理端末。
(付記7)
前記条件作成部は、前記音読条件の基準値を記憶し、前記基準値と前記音読条件の差を表す差分値を、前記基準値とともに前記音読条件を指定する情報とする
ことを特徴とする付記1〜6のいずれかに記載の情報処理端末。
(付記8)
前記条件作成部は、前記観測領域のうちの第1の観測領域で観測された入力位置を使って得られた第1の音読条件と、第2の観測領域で観測された入力位置を使って得られた第2の音読条件の差分を表す変化量を算出し、
前記変化量を、前記第1の観測領域と前記第2の観測領域の間に表示されている情報に対応する文字についての前記音読条件を指定する情報とする
ことを特徴とする付記3〜7のいずれかに記載の情報処理端末。
(付記9)
文書データを送信する情報処理端末が表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示し、前記文字領域への入力位置の移動パターンを検出することにより、前記文字領域での前記入力位置の移動パターンに基づいて作成された前記文字領域に表示されている文字の音読条件、および、前記音読条件が設定された文書データを受信する受信部と、
前記音読条件に応じて、前記文書データの音声出力条件を求める音声合成部と、
前記音声出力条件に従って音声データを出力する出力部
を備えることを特徴とする情報処理端末。
(付記10)
前記音声合成部は、前記音読条件を、前記文字領域に表示された文字の各々に対応付ける文字情報取得部を備え、
前記音声合成部は、前記文字情報取得部で指定された前記音読条件を反映させて、前記文字の各々について前記音声出力条件を求める
ことを特徴とする付記9に記載の情報処理端末。
(付記11)
表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示し、
前記文字領域への入力位置の移動パターンを検出し、
前記文字領域での前記入力位置の移動パターンに基づいて、前記文字領域に表示されている文字の音読条件を作成する
ことを特徴とする読上げ条件設定方法。
(付記12)
文書データを送信する情報処理端末が表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示し、前記文字領域への入力位置の移動パターンを検出することにより、前記文字領域での前記入力位置の移動パターンに基づいて作成された前記文字領域に表示されている文字の音読条件と、前記文書データとが、前記文書データを送信する情報処理端末の通信先の情報処理端末に送信されると、前記通信先の情報処理端末は、前記音読条件から前記音読条件に応じて前記文書データの音声出力条件を求め、
前記音声出力条件に従って音声データを出力する
ことを特徴とする読上げ条件設定方法。
(付記13)
情報処理端末を、
表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示する表示制御手段、
前記文字領域への入力位置の移動パターンを検出する検出手段、
前記文字領域での前記移動パターンに基づいて、前記文字領域に表示されている文字の音読条件を作成する条件作成手段、
として機能させることを特徴とする読上げ条件設定プログラム。
(付記14)
文書データを送信する情報処理端末の通信先の情報処理端末を、
前記文書データを送信する情報処理端末が表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示し、前記文字領域への入力位置の移動パターンを検出することにより、前記文字領域での前記入力位置の移動パターンに基づいて作成された前記文字領域に表示されている文字の音読条件、および、前記音読条件が設定された文書データを受信する受信手段、
前記音読条件に応じて、前記文書データの音声出力条件を求める音声合成手段、
前記音声出力条件に従って音声データを出力する出力手段
として機能させることを特徴とする読上げ条件設定プログラム。
The following additional notes are further disclosed for each of the embodiments described above.
(Appendix 1)
Generating a character area on the display device and displaying a character in the character area;
A detection unit for detecting a movement pattern of the input position to the character region;
A condition creating unit for creating a reading condition for the characters displayed in the character area based on the movement pattern in the character area;
An information processing terminal comprising:
(Appendix 2)
In addition, it has a touch panel,
The detection unit detects a movement pattern of a touch position to the character area via the touch panel,
The condition creating unit creates a reading condition of characters displayed in the character area based on a movement pattern of the touch position in the character area.
The information processing terminal according to Supplementary Note 1, wherein
(Appendix 3)
An observation region setting unit that sets a plurality of observation regions for observing the movement pattern in each of the character regions;
The condition creating unit creates a plurality of reading conditions for each character displayed in the character area by converting information observed in each of the observation areas into the reading conditions. The information processing terminal according to appendix 1 or 2.
(Appendix 4)
A time acquisition unit for acquiring a time at which the input position was observed;
The movement pattern includes a movement speed when the input position moves in the character display area,
The condition creation unit obtains the moving speed from the time obtained from the time acquisition unit and the locus of the input position, and creates the reading condition according to the moving speed. 3. The information processing terminal according to 3.
(Appendix 5)
The condition creating unit creates the reading condition according to the height direction coordinates of the input position with reference to the direction of the character displayed in the character display area. An information processing terminal according to any one of the above.
(Appendix 6)
The display control unit displays characters obtained by converting the document data to be processed into kana characters in the character area,
The information processing terminal according to appendices 1 to 5, wherein the condition creating unit creates the reading aloud condition for the kana character.
(Appendix 7)
The condition creating unit stores a reference value of the reading aloud condition, and uses a difference value indicating a difference between the reference value and the reading aloud condition as information specifying the reading aloud condition together with the reference value. The information processing terminal according to any one of 1 to 6.
(Appendix 8)
The condition creating unit uses the first reading condition obtained using the input position observed in the first observation region of the observation regions and the input position observed in the second observation region. Calculate the amount of change representing the difference between the obtained second reading conditions,
Additional information 3-7, wherein the change amount is information designating the reading condition for characters corresponding to information displayed between the first observation area and the second observation area. An information processing terminal according to any one of the above.
(Appendix 9)
An information processing terminal that transmits document data generates a character area on a display device, displays a character in the character area, and detects a movement pattern of an input position to the character area, thereby detecting the character area in the character area. A reading unit for receiving the character reading conditions displayed in the character region created based on the movement pattern of the input position, and the document data in which the reading conditions are set;
A voice synthesizer for obtaining a voice output condition of the document data according to the reading condition;
An information processing terminal comprising: an output unit that outputs audio data according to the audio output condition.
(Appendix 10)
The speech synthesizer includes a character information acquisition unit that associates the reading aloud condition with each of the characters displayed in the character region,
The information processing terminal according to appendix 9, wherein the voice synthesizer determines the voice output condition for each of the characters by reflecting the reading aloud condition specified by the character information acquisition unit.
(Appendix 11)
A character area is generated on the display device, and characters are displayed in the character area.
Detecting a movement pattern of the input position to the character area;
A reading condition setting method, wherein a reading condition for a character displayed in the character area is created based on a movement pattern of the input position in the character area.
(Appendix 12)
An information processing terminal that transmits document data generates a character area on a display device, displays a character in the character area, and detects a movement pattern of an input position to the character area, thereby detecting the character area in the character area. The reading conditions of the characters displayed in the character area created based on the movement pattern of the input position and the document data are transmitted to the information processing terminal that is the communication destination of the information processing terminal that transmits the document data. Then, the information processing terminal of the communication destination obtains a voice output condition of the document data from the reading condition according to the reading condition,
A speech condition setting method, wherein speech data is output according to the speech output condition.
(Appendix 13)
Information processing terminal
Display control means for generating a character area on the display device and displaying characters in the character area;
Detecting means for detecting a movement pattern of the input position to the character area;
Condition creating means for creating a reading condition of characters displayed in the character area based on the movement pattern in the character area;
Reading condition setting program characterized by functioning as
(Appendix 14)
The information processing terminal that is the communication destination of the information processing terminal that transmits the document data is
An information processing terminal that transmits the document data generates a character area on a display device, displays a character in the character area, and detects a movement pattern of an input position to the character area, thereby Receiving means for receiving a reading condition of characters displayed in the character area created based on the movement pattern of the input position, and document data in which the reading condition is set;
A voice synthesis means for obtaining a voice output condition of the document data in accordance with the voice reading condition;
A reading condition setting program that functions as output means for outputting voice data in accordance with the voice output conditions.

1 情報処理端末
5 音読条件
11 呼制御部
12 無線制御部
13 タイマ
14 メール受信/送信部
15 メール編集部
16 読上げ再生部
17 読上げ記録部
18 タッチパネル制御部
19 音声合成エンジン
20 画面表示部
31 無線部
32 CPU
33 メモリ
34 スピーカ
35 LCD
36 設定ウィンドウ
40 タッチパネル
41 文字領域
42 移動パターン
43 観測領域
44 文字中心線
51 文字情報
52 速度変化情報
53 音量変化情報
61 音声合成部
62 話速変換倍率算出部
63 話速変換部
64 振幅変換倍率算出部
65 音量変更部
DESCRIPTION OF SYMBOLS 1 Information processing terminal 5 Sound reading conditions 11 Call control part 12 Wireless control part 13 Timer 14 Mail reception / transmission part 15 Mail edit part 16 Reading reproduction part 17 Reading recording part 18 Touch panel control part 19 Speech synthesis engine 20 Screen display part 31 Radio | wireless part 32 CPU
33 Memory 34 Speaker 35 LCD
36 Setting Window 40 Touch Panel 41 Character Area 42 Movement Pattern 43 Observation Area 44 Character Center Line 51 Character Information 52 Speed Change Information 53 Volume Change Information 61 Speech Synthesizer 62 Speech Speed Conversion Magnification Calculation Unit 63 Speech Speed Conversion Unit 64 Amplitude Conversion Magnification Calculation Part 65 Volume change part

Claims (10)

表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示する表示制御部と、
前記文字領域への入力位置の移動パターンを検出する検出部と、
前記文字領域での前記移動パターンに基づいて、前記文字領域に表示されている文字の音読条件を作成する条件作成部、
を備えることを特徴とする情報処理端末。
Generating a character area on the display device and displaying a character in the character area;
A detection unit for detecting a movement pattern of the input position to the character region;
A condition creating unit for creating a reading condition for the characters displayed in the character area based on the movement pattern in the character area;
An information processing terminal comprising:
更に、タッチパネルを備え、
前記検出部は、前記タッチパネルを介しての前記文字領域へのタッチ位置の移動パターンを検出し、
前記条件作成部は、前記文字領域での前記タッチ位置の移動パターンに基づいて、前記文字領域に表示されている文字の音読条件を作成する、
ことを特徴とする請求項1に記載の情報処理端末。
In addition, it has a touch panel,
The detection unit detects a movement pattern of a touch position to the character area via the touch panel,
The condition creating unit creates a reading condition of characters displayed in the character area based on a movement pattern of the touch position in the character area.
The information processing terminal according to claim 1.
前記文字領域の各々に前記移動パターンを観測するための観測領域を複数設定する観測領域設定部をさらに備え、
前記条件作成部は、前記観測領域の各々で観測された情報を前記音読条件に変換することにより、前記文字領域に表示されている文字の各々に複数の音読条件を作成する
ことを特徴とする請求項1もしくは2に記載の情報処理端末。
An observation region setting unit that sets a plurality of observation regions for observing the movement pattern in each of the character regions;
The condition creating unit creates a plurality of reading conditions for each character displayed in the character area by converting information observed in each of the observation areas into the reading conditions. The information processing terminal according to claim 1 or 2.
前記入力位置が観測された時刻を取得する時刻取得部をさらに備え、
前記移動パターンは、前記入力位置が前記文字表示領域中を移動するときの移動速度を含み、
前記条件作成部は、前記時刻取得部から得られた時刻と前記入力位置の軌跡から、前記移動速度を求めると共に、前記移動速度に応じて前記音読条件を作成する
ことを特徴とする請求項1〜3に記載の情報処理端末。
A time acquisition unit for acquiring a time at which the input position was observed;
The movement pattern includes a movement speed when the input position moves in the character display area,
The condition creating unit obtains the moving speed from the time obtained from the time acquiring unit and the locus of the input position, and creates the reading condition according to the moving speed. Information processing terminal according to ~ 3.
前記条件作成部は、前記文字表示領域に表示された前記文字の向きを基準として、前記入力位置の高さ方向の座標に応じて前記音読条件を作成する
ことを特徴とする請求項1〜4のいずれかに記載の情報処理端末。
The said condition preparation part produces the said reading conditions according to the coordinate of the height direction of the said input position on the basis of the direction of the said character displayed on the said character display area. An information processing terminal according to any one of the above.
前記表示制御部は、前記文字領域に、処理対象の文書データを仮名文字に変換して得られた文字を表示し、
前記条件作成部は、前記仮名文字について前記音読条件を作成する
ことを特徴とする請求項1〜5に記載の情報処理端末。
The display control unit displays characters obtained by converting the document data to be processed into kana characters in the character area,
The information processing terminal according to claim 1, wherein the condition creating unit creates the reading aloud condition for the kana character.
前記条件作成部は、前記音読条件の基準値を記憶し、前記基準値と前記音読条件の差を表す差分値を、前記基準値とともに前記音読条件を指定する情報とする
ことを特徴とする請求項1〜6のいずれかに記載の情報処理端末。
The condition creating unit stores a reference value of the reading aloud condition, and uses a difference value indicating a difference between the reference value and the reading aloud condition as information for specifying the reading aloud condition together with the reference value. Item 7. The information processing terminal according to any one of Items 1 to 6.
前記条件作成部は、前記観測領域のうちの第1の観測領域で観測された入力位置を使って得られた第1の音読条件と、第2の観測領域で観測された入力位置を使って得られた第2の音読条件の差分を表す変化量を算出し、
前記変化量を、前記第1の観測領域と前記第2の観測領域の間に表示されている情報に対応する文字についての前記音読条件を指定する情報とする
ことを特徴とする請求項3〜7のいずれかに記載の情報処理端末。
The condition creating unit uses the first reading condition obtained using the input position observed in the first observation region of the observation regions and the input position observed in the second observation region. Calculate the amount of change representing the difference between the obtained second reading conditions,
The amount of change is information designating the reading conditions for characters corresponding to information displayed between the first observation area and the second observation area. The information processing terminal according to any one of 7.
文書データを送信する情報処理端末が表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示し、前記文字領域への入力位置の移動パターンを検出することにより、前記文字領域での前記入力位置の移動パターンに基づいて作成された前記文字領域に表示されている文字の音読条件、および、前記音読条件が設定された文書データを受信する受信部と、
前記音読条件に応じて、前記文書データの音声出力条件を求める音声合成部と、
前記音声出力条件に従って音声データを出力する出力部
を備えることを特徴とする情報処理端末。
An information processing terminal that transmits document data generates a character area on a display device, displays a character in the character area, and detects a movement pattern of an input position to the character area, thereby detecting the character area in the character area. A reading unit for receiving the character reading conditions displayed in the character region created based on the movement pattern of the input position, and the document data in which the reading conditions are set;
A voice synthesizer for obtaining a voice output condition of the document data according to the reading condition;
An information processing terminal comprising: an output unit that outputs audio data according to the audio output condition.
表示デバイスに文字領域を生成すると共に、前記文字領域に文字を表示し、
前記文字領域への入力位置の移動パターンを検出し、
前記文字領域での前記入力位置の移動パターンに基づいて、前記文字領域に表示されている文字の音読条件を作成する
ことを特徴とする読上げ条件設定方法。
A character area is generated on the display device, and characters are displayed in the character area.
Detecting a movement pattern of the input position to the character area;
A reading condition setting method, wherein a reading condition for a character displayed in the character area is created based on a movement pattern of the input position in the character area.
JP2009201998A 2009-09-01 2009-09-01 Method for setting oral reading condition of document data and information processing terminal to be used for the method Withdrawn JP2011053900A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009201998A JP2011053900A (en) 2009-09-01 2009-09-01 Method for setting oral reading condition of document data and information processing terminal to be used for the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009201998A JP2011053900A (en) 2009-09-01 2009-09-01 Method for setting oral reading condition of document data and information processing terminal to be used for the method

Publications (1)

Publication Number Publication Date
JP2011053900A true JP2011053900A (en) 2011-03-17

Family

ID=43942836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009201998A Withdrawn JP2011053900A (en) 2009-09-01 2009-09-01 Method for setting oral reading condition of document data and information processing terminal to be used for the method

Country Status (1)

Country Link
JP (1) JP2011053900A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014514645A (en) * 2011-03-23 2014-06-19 オーディブル・インコーポレイテッド Synchronized content playback management
JP2020042056A (en) * 2018-09-06 2020-03-19 株式会社テクノスピーチ Voice synthesis device and voice synthesis method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014514645A (en) * 2011-03-23 2014-06-19 オーディブル・インコーポレイテッド Synchronized content playback management
JP2020042056A (en) * 2018-09-06 2020-03-19 株式会社テクノスピーチ Voice synthesis device and voice synthesis method

Similar Documents

Publication Publication Date Title
US20220230374A1 (en) User interface for generating expressive content
US9934775B2 (en) Unit-selection text-to-speech synthesis based on predicted concatenation parameters
EP2680254B1 (en) Sound synthesis method and sound synthesis apparatus
US8975500B2 (en) Music data display control apparatus and method
US9424831B2 (en) Voice synthesizing having vocalization according to user manipulation
JP4797597B2 (en) Language learning device
JP2008107454A (en) Voice synthesis apparatus
JP2011053900A (en) Method for setting oral reading condition of document data and information processing terminal to be used for the method
JP2009301055A (en) Electronic comics manufacturing device and method for manufacturing electronic comics
JP3755503B2 (en) Animation production system
CN115619897A (en) Image processing method, image processing device, electronic equipment and storage medium
JP2004023225A (en) Information communication apparatus, signal generating method therefor, information communication system and data communication method therefor
JP4841339B2 (en) Prosody correction device, speech synthesis device, prosody correction method, speech synthesis method, prosody correction program, and speech synthesis program
CN111028823A (en) Audio generation method and device, computer readable storage medium and computing device
JPH09198522A (en) Animation production system
JP6028489B2 (en) Video playback device, video playback method, and program
JP2011180368A (en) Synthesized voice correction device and synthesized voice correction method
JP2011164171A (en) Data search apparatus
JP2017182822A (en) Input information support device, input information support method, and input information support program
JP4530134B2 (en) Speech synthesis apparatus, voice quality generation apparatus, and program
KR20240070793A (en) Voice synthesis apparatus and method providing a user interface capable of prosody transformation based on pronunciation element unit
JP2012173770A (en) Text voice conversion device, text voice conversion program, and text voice conversion method
JP6439288B2 (en) Composite information management apparatus and composite information management method
JP6569205B2 (en) Attribute adjustment device
JP2022182423A (en) Musical score display device and musical score display program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106