JP7037451B2 - Display device, display control method and display control program. - Google Patents

Display device, display control method and display control program. Download PDF

Info

Publication number
JP7037451B2
JP7037451B2 JP2018145962A JP2018145962A JP7037451B2 JP 7037451 B2 JP7037451 B2 JP 7037451B2 JP 2018145962 A JP2018145962 A JP 2018145962A JP 2018145962 A JP2018145962 A JP 2018145962A JP 7037451 B2 JP7037451 B2 JP 7037451B2
Authority
JP
Japan
Prior art keywords
text data
voice
display
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018145962A
Other languages
Japanese (ja)
Other versions
JP2020020993A (en
Inventor
昌秀 高杉
大樹 川中
弘靖 岩附
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018145962A priority Critical patent/JP7037451B2/en
Publication of JP2020020993A publication Critical patent/JP2020020993A/en
Application granted granted Critical
Publication of JP7037451B2 publication Critical patent/JP7037451B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は表示装置、表示制御方法および表示制御プログラムに関する。 The present invention relates to a display device, a display control method, and a display control program.

例えば、下記特許文献1は、英文の音声の聞きとり学習をする際に、英文の音声出力とともに、その英文の全てを表示画面の縦方向の複数行に表示する技術が開示されている。さらに、特許文献1は、表示されている英文の下側に、英文を翻訳した日本文を1行で表示し、日本文を1行で表示しきれない時は、日本文を横方向に自動的にスクロール表示し、ユーザが特別な操作をせずに、英文と日本文との全文を確認することができる技術が開示されている。 For example, Patent Document 1 below discloses a technique for displaying all of an English sentence on a plurality of lines in the vertical direction of a display screen together with the audio output of the English sentence when learning to listen to the sound of the English sentence. Further, in Patent Document 1, the Japanese sentence translated from English is displayed in one line below the displayed English sentence, and when the Japanese sentence cannot be displayed in one line, the Japanese sentence is automatically displayed in the horizontal direction. A technology is disclosed that allows the user to check the full text of English and Japanese without any special operation by scrolling the display.

特開2003-167507号公報Japanese Patent Application Laid-Open No. 2003-167507

上記に鑑み、本発明は、例えば、ユーザが、音声を聞きながら、その音声の内容を表示画面上で確認する際に、ユーザの目線の縦方向や横方向の動きを少なくし、より簡単に音声の内容を確認できる表示装置等を実現することを目的とする。 In view of the above, the present invention makes it easier for the user to reduce the vertical and horizontal movements of the user's line of sight, for example, when the user listens to the voice and confirms the content of the voice on the display screen. The purpose is to realize a display device or the like that can confirm the contents of audio.

(1)本発明の表示装置は、表示部と、音声データを出力する音声出力部と、前記表示部に、第1言語のテキストデータと、前記第1言語のテキストデータの発音を文字で表した発音のテキストデータと、前記第1言語のテキストデータを第2言語で表した第2言語のテキストデータとの前記各テキストデータを前記表示部の異なる1行に表示させる表示制御部と、前記各テキストデータのいずれかに対応する前記音声データを前記音声出力部から再生させる音声制御部と、を備え、前記表示制御部は、前記音声制御部による前記音声データの再生の経過に合わせて、前記各テキストデータを前記表示部の各行でスクロール表示させることを特徴とする。 (1) In the display device of the present invention, the display unit, the voice output unit for outputting voice data, and the display unit display the pronunciation of the text data of the first language and the text data of the first language in characters. A display control unit for displaying each text data of the spoken text data and the text data of the second language representing the text data of the first language on different lines of the display unit, and the above. The voice control unit is provided with a voice control unit that reproduces the voice data corresponding to any of the text data from the voice output unit, and the display control unit is in accordance with the progress of reproduction of the voice data by the voice control unit. It is characterized in that each text data is scrolled and displayed on each line of the display unit.

(2)本発明の表示制御方法は、第1言語のテキストデータと、前記第1言語のテキストデータの発音を文字で表した発音テキストデータと、前記第1言語のテキストデータを第2言語で表した第2言語のテキストデータとの前記各テキストデータを表示部の異なる1行に表示させ、前記テキストデータのいずれかに対応する音声データを音声出力部から再生させ、前記音声データの再生の経過に合わせて、前記各テキストデータを前記表示部の各行でスクロール表示させることを特徴とする。 (2) In the display control method of the present invention, the text data of the first language, the pronunciation text data representing the pronunciation of the text data of the first language in characters, and the text data of the first language in the second language. The text data of the second language represented and the text data are displayed on different lines of the display unit, and the voice data corresponding to any of the text data is played back from the voice output unit to reproduce the voice data. It is characterized in that each text data is scrolled and displayed on each line of the display unit according to the progress.

(3)本発明の表示制御プログラムは、第1言語のテキストデータと、前記第1言語のテキストデータの発音を文字で表した発音のテキストデータと、前記第1言語のテキストデータを第2言語で表した第2言語のテキストデータとの前記各テキストデータを表示部の異なる1行に表示させる表示制御部、前記各テキストデータのいずれかに対応する音声データを音声出力部から再生させる音声制御部、としてコンピュータを機能させ、前記表示制御部は、前記音声制御部による前記音声データの再生の経過に合わせて、前記各テキストデータを前記表示部の各行でスクロール表示させることを特徴とする。 (3) The display control program of the present invention uses the text data of the first language, the text data of the pronunciation representing the pronunciation of the text data of the first language in characters, and the text data of the first language in the second language. A display control unit that displays each text data in a different line from the text data of the second language represented by the above, and a voice control unit that reproduces voice data corresponding to any of the text data from the voice output unit. The display control unit is characterized in that the computer is operated as a unit, and the display control unit scrolls and displays each text data in each line of the display unit in accordance with the progress of reproduction of the voice data by the voice control unit.

図1は、本発明の実施形態に係る表示装置の要部構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a main part of a display device according to an embodiment of the present invention. 図1に示す表示装置の外観図の一例である。This is an example of an external view of the display device shown in FIG. 1. 図1に示す記憶部の構成の一例を示す図である。It is a figure which shows an example of the structure of the storage part shown in FIG. 図1に示す表示装置の制御部の機能的構成の一例を示す図である。It is a figure which shows an example of the functional structure of the control part of the display device shown in FIG. 第1の実施形態における表示装置のフローの一例を示す図である。It is a figure which shows an example of the flow of the display device in 1st Embodiment. 第1の実施形態における表示装置のUI画面の具体例を示す図である。It is a figure which shows the specific example of the UI screen of the display device in 1st Embodiment. 第2の実施形態における表示装置のUI画面の具体例を示す図である。It is a figure which shows the specific example of the UI screen of the display device in 2nd Embodiment. 第3の実施形態における表示装置のUI画面の具体例を示す図である。It is a figure which shows the specific example of the UI screen of the display device in 3rd Embodiment. 第5の実施形態における表示装置のUI画面の具体例を示す図である。It is a figure which shows the specific example of the UI screen of the display device in 5th Embodiment. 第6の実施形態における表示装置のUI画面の具体例を示す図である。It is a figure which shows the specific example of the UI screen of the display device in 6th Embodiment.

(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しつつ説明する。なお、図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。
(First Embodiment)
Hereinafter, the first embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description will be omitted.

図1は、本発明の実施形態に係る表示装置のブロック図である。図2は、表示装置1の外観の一例を示す外観図である。 FIG. 1 is a block diagram of a display device according to an embodiment of the present invention. FIG. 2 is an external view showing an example of the appearance of the display device 1.

図1に示すように、表示装置1は、入力部3、表示部4、記憶部5、音声出力部6を有し、入力部3、表示部4、記憶部5、音声出力部6は、プロセッサからなる制御部2により制御される。また、制御部2は、例えば、記憶部5に格納されるプログラムに従って各種の情報処理を実行する。 As shown in FIG. 1, the display device 1 has an input unit 3, a display unit 4, a storage unit 5, and an audio output unit 6, and the input unit 3, the display unit 4, the storage unit 5, and the audio output unit 6 are included. It is controlled by a control unit 2 including a processor. Further, the control unit 2 executes various information processing according to a program stored in the storage unit 5, for example.

入力部3は、表示装置1に対する指示をユーザが入力するためのものである。例えば、
図2に示すように、入力部3は、電源ボタン31、音量大ボタン32a、音量小ボタン32b、文字拡大ボタン33、メニューボタン34、決定ボタン35、および、十字キー36を含む。
The input unit 3 is for the user to input an instruction to the display device 1. for example,
As shown in FIG. 2, the input unit 3 includes a power button 31, a volume up button 32a, a volume down button 32b, a character enlargement button 33, a menu button 34, an enter button 35, and a cross key 36.

電源ボタン31は、表示装置1の電源をONにするためのボタンである。音量大ボタン32aは、スピーカ610およびイヤホン620から出力される音量の大きさを大きくするためのボタンである。音量小ボタン32bは、スピーカ610およびイヤホン620から出力される音量の大きさを小さくするためのボタンである。文字拡大ボタン33は表示部4に表示される文字のサイズを拡大するためのボタンであり、例えば、1回押すごとに文字サイズが大きくなり、最大サイズになった時にもう一度押すと最小サイズの文字に変更される。メニューボタン34は、表示装置1の動作の設定を変更するためのメニュー画面を表示部4に表示するためのボタンである。決定ボタン35は、表示されているメニュー画面での設定項目を決定するためのボタンである。十字キー36は、上キー、下キー、左キー、および、右キーを含み、カーソルを移動させたり、表示装置1の特定の機能を呼び出したりするために使用される。 The power button 31 is a button for turning on the power of the display device 1. The volume loud button 32a is a button for increasing the magnitude of the volume output from the speaker 610 and the earphone 620. The volume small button 32b is a button for reducing the volume output from the speaker 610 and the earphone 620. The character enlargement button 33 is a button for enlarging the size of the character displayed on the display unit 4. For example, the character size increases each time the character is pressed, and when the maximum size is reached, the minimum size character is pressed again. Will be changed to. The menu button 34 is a button for displaying a menu screen for changing the operation setting of the display device 1 on the display unit 4. The decision button 35 is a button for determining a setting item on the displayed menu screen. The cross key 36 includes an up key, a down key, a left key, and a right key, and is used to move a cursor or call a specific function of the display device 1.

表示部4は、例えば、液晶パネルであって、制御部2からの指示により、記憶部5のテキストデータや、予め決められたメニュー画面や、複数の文章が分類されている分類名をリスト化したリスト画面等を表示して、必要な情報をユーザに対して提示する。 The display unit 4 is, for example, a liquid crystal panel, and lists the text data of the storage unit 5, a predetermined menu screen, and a classification name in which a plurality of sentences are classified according to an instruction from the control unit 2. Display the list screen, etc., and present the necessary information to the user.

音声出力部6は、スピーカ610、イヤホン620を含み、制御部2が例えば、記憶部5の音声データから取得した音声データを音声として出力する。 The voice output unit 6 includes a speaker 610 and an earphone 620, and the control unit 2 outputs, for example, voice data acquired from the voice data of the storage unit 5 as voice.

記憶部5は、NVRAM(non-Volatile random access memory)、フラッシュメモリなどの不揮発性の記憶装置によって構成され、表示装置1が処理する各種情報や、制御部2によって実行されるプログラムを記憶する。 The storage unit 5 is composed of a non-volatile storage device such as an NVRAM (non-Volatile random access memory) and a flash memory, and stores various information processed by the display device 1 and a program executed by the control unit 2.

記憶部5については、具体的には、図3に示すように、テキストデータ、音声データ、設定データおよび設定音声速度などが記憶されている。 Specifically, as shown in FIG. 3, the storage unit 5 stores text data, voice data, set data, set voice speed, and the like.

図4は、図1の制御部2の機能的構成の一例を示す図である。図4に示すように、制御部2は、例えば、機能的に文章番号取得部201、テキストデータ取得部202、スクロール位置情報取得部203、設定音声速度情報取得部204、スクロール時間情報取得部205、音声データ取得部206、音声制御部207、音声再生経過時間取得部208、スクロール判断部209、表示制御部210、音声終了判定部211を含む。 FIG. 4 is a diagram showing an example of the functional configuration of the control unit 2 of FIG. As shown in FIG. 4, the control unit 2 functionally has, for example, a sentence number acquisition unit 201, a text data acquisition unit 202, a scroll position information acquisition unit 203, a set voice speed information acquisition unit 204, and a scroll time information acquisition unit 205. , Voice data acquisition unit 206, voice control unit 207, voice reproduction elapsed time acquisition unit 208, scroll determination unit 209, display control unit 210, and voice end determination unit 211.

以下の説明において、第1言語として英語、第2言語として日本語を例にしているが、言語は日本語と英語に限るものではない。 In the following explanation, English is used as the first language and Japanese is used as the second language, but the languages are not limited to Japanese and English.

文章番号取得部201は、入力部からの入力に基づき、文章データを特定する文章番号を取得する。例えば、図3(a)のテキストデータに示すように、英語と発音と日本語の各テキストデータをひと固まりの文章データとして、文章番号取得部201は、1つの文章データに1つの文章番号が対応づけられている場合、複数の文章データのそれぞれに対応付けられた文章番号の中のいずれか1つの文章番号を取得する。 The sentence number acquisition unit 201 acquires a sentence number that specifies the sentence data based on the input from the input unit. For example, as shown in the text data of FIG. 3A, each text data of English, pronunciation, and Japanese is regarded as a set of sentence data, and the sentence number acquisition unit 201 has one sentence number for one sentence data. When associated, the sentence number of any one of the sentence numbers associated with each of the plurality of sentence data is acquired.

具体的には、例えば、表示制御部210は、複数の文章番号を表示部4に表示させ、ユーザにより、表示された文章番号の中のいずれか1つの番号が入力部3から入力された場合、文章番号取得部201は、その入力された番号を文章番号として取得する。さらに具体的には、図3(a)のテキストデータの1つ目の文章に対応する“1”が入力部3から入力された場合は、文章番号取得部201は、文章番号として“1”を取得する。また、例えば、図6(a)に示すように、表示制御部210が文章の難易度や使用シーン等に分類した分類名を表示部4に表示させている場合、図3(a)のテキストデータの各文章番号に分類名を対応付けて記憶していれば(図示なし)、入力部3から特定された分類名に基づき、文章番号取得部201は、その分類名の中で一番小さい文章番号や、または、その分類名に対応する文章番号からランダムに1つの文章番号を取得すればよい。 Specifically, for example, when the display control unit 210 displays a plurality of sentence numbers on the display unit 4, and the user inputs any one of the displayed sentence numbers from the input unit 3. , The sentence number acquisition unit 201 acquires the input number as a sentence number. More specifically, when "1" corresponding to the first sentence of the text data in FIG. 3A is input from the input unit 3, the sentence number acquisition unit 201 is set to "1" as the sentence number. To get. Further, for example, as shown in FIG. 6A, when the display control unit 210 displays the classification names classified according to the difficulty level of the text, the usage scene, etc. on the display unit 4, the text of FIG. 3A is displayed. If the classification name is associated with each sentence number of the data and stored (not shown), the sentence number acquisition unit 201 is the smallest among the classification names based on the classification name specified from the input unit 3. One sentence number may be randomly obtained from the sentence number or the sentence number corresponding to the classification name.

テキストデータ取得部202は、文章番号取得部201により取得された文章番号に基づき、文章番号に対応付けられた全てのテキストデータを取得する。具体的には、例えば、文章番号取得部201により、文章番号として“1”が取得された場合は、テキストデータ取得部202は、図3(a)のテキストデータに示すように、文章番号“1”に関連付けられているテキスト種別が英語のテキストデータ“Ifit’s not toomuch trouble, can Ileave my baggage at the front?”を取得する。さらに、テキストデータ取得部202は、テキスト種別が発音のテキストデータ“イフイッツノットゥマッチトラボーキャナイリーブマイバゲジアッザフロント”を取得する。そして、さらに、テキストデータ取得部202は、テキスト種別が日本語のテキストデータ“お手数ですが、私の荷物をフロントで預かってもらえないでしょうか?”を取得する。 The text data acquisition unit 202 acquires all the text data associated with the sentence number based on the sentence number acquired by the sentence number acquisition unit 201. Specifically, for example, when "1" is acquired as the sentence number by the sentence number acquisition unit 201, the text data acquisition unit 202 sets the sentence number "as shown in the text data of FIG. 3A. Acquires the text data "If's not toomuch trouble, can Ileave my baggage at the front?" With the text type associated with "1". Further, the text data acquisition unit 202 acquires the text data “If it's Notto Match Travo Cany Leave My Baggege Azza Front” whose text type is pronunciation. Further, the text data acquisition unit 202 acquires the text data whose text type is Japanese, "Sorry for your inconvenience, could you keep my luggage at the front desk?".

ここで、発音のテキストデータは、ある言語の文字で表記された文章の読み方を、他の言語の文字で表記したものであり、例えば、英語のアルファベットで表記された英文の読み方を、日本語の文字のカタカナや平仮名で表記したものである。しかし、これに限らず、英和辞書に表記されている発音記号であってもよく、中国語の文章の読みならピンインであってもよく、また、国際音声記号を用いたものであっても良い。 Here, the text data of the pronunciation is the reading of the sentence written in the characters of one language expressed in the characters of another language. For example, the reading of the English sentence written in the English alphabet is changed to Japanese. It is written in katakana and hiragana characters. However, the present invention is not limited to this, and may be a phonetic symbol written in an English-Japanese dictionary, a pinyin for reading Chinese sentences, or an international phonetic symbol. ..

スクロール位置情報取得部203は、文章番号取得部201により取得された文章番号に対応する全てのデータ種別のスクロール位置情報を、図3(c)の設定データから取得する。 The scroll position information acquisition unit 203 acquires scroll position information of all data types corresponding to the sentence numbers acquired by the sentence number acquisition unit 201 from the setting data of FIG. 3C.

ここで、スクロール位置情報とは、テキストデータの文字数が多く、表示部4の1画面内に収まらずスクロール表示が必要な場合に、スクロールした画面(2画面目)の先頭に表示する文字のテキストデータ上での位置情報を表している。位置情報とは、その文字または単語が、テキストデータ上の先頭から何文字目または何単語目であるかという情報である。また、図3(c)の設定データにスクロール位置情報が複数ある場合は、2画面目以降の3画面目、4画面目等のスクロールした各画面の先頭に表示する文字または単語の位置情報を表している。 Here, the scroll position information is the text of the characters to be displayed at the beginning of the scrolled screen (second screen) when the number of characters in the text data is large and the scroll display is required because the text data does not fit in one screen of the display unit 4. Represents location information on the data. The position information is information on the number of characters or words from the beginning of the text data. If the setting data in FIG. 3C has a plurality of scroll position information, the position information of characters or words displayed at the beginning of each scrolled screen such as the second and subsequent screens is displayed. Represents.

スクロール位置情報取得部203は、具体的には、例えば、文章番号取得部201により、文章番号として“1”が取得された場合は、図3(c)の設定データに示すように、文章番号“1”、データ種別が英語に対応するスクロール位置情報“7”と“12”を取得する。ここで、英語のスクロール位置情報“7”は、図3(a)のテキストデータの文章番号“1”に対応する英語のテキストデータの先頭から7単語目の“can”を示していて、スクロール位置情報“12”は、12単語目の“at”を示している。 Specifically, for example, when the text number acquisition unit 201 acquires “1” as the text number, the scroll position information acquisition unit 203 has a text number as shown in the setting data of FIG. 3 (c). Acquires scroll position information "7" and "12" corresponding to "1" and the data type is English. Here, the English scroll position information "7" indicates the seventh word "can" from the beginning of the English text data corresponding to the sentence number "1" of the text data in FIG. 3A, and scrolls. The position information "12" indicates the 12th word "at".

さらに、スクロール位置情報取得部203は、データ種別が英語のスクロール位置情報と同様に、データ種別が発音と日本語のスクロール位置情報を取得する。具体的には、例えば、図3(c)の設定データに示すように、文章番号“1”に関連付けられているデータ種別が発音のスクロール位置情報“17”と“29”、データ種別が日本語のスクロール位置情報“8”と“18”を取得する。データ種別が発音のスクロール位置情報“17”は、文章番号“1”の発音のテキストデータの先頭から17文字目の“キ”、スクロール位置情報“29”は29文字目の“ア”を示している。また、データ種別が日本語のスクロール位置情報“8”は、文章番号“1”の日本語のテキストデータの先頭から8文字目の“私”、スクロール位置情報“18”は18文字目の“預”を示している。 Further, the scroll position information acquisition unit 203 acquires the pronunciation and the scroll position information in Japanese as the data type in the same manner as the scroll position information in English as the data type. Specifically, for example, as shown in the setting data of FIG. 3C, the data type associated with the sentence number “1” is the scroll position information “17” and “29” of the pronunciation, and the data type is Japan. The word scroll position information "8" and "18" are acquired. The scroll position information "17" whose data type is pronunciation indicates the 17th character "ki" from the beginning of the pronunciation text data of the sentence number "1", and the scroll position information "29" indicates the 29th character "a". ing. The scroll position information "8" whose data type is Japanese is "I", which is the eighth character from the beginning of the Japanese text data with the sentence number "1", and the scroll position information "18" is the 18th character "". It indicates "deposit".

設定音声速度情報取得部204は、英語の音声データおよび日本語の音声データを音声出力部6から出力するときの再生速度である再生速度情報を取得する。具体的には、例えば、図3(d)の設定音声速度データに示すように、音声種別が英語の再生速度情報“1”と、音声種別が日本語の再生速度情報“2”を取得する。ここで、例えば、英語の再生速度情報“1”は、英語の再生速度情報が“普通”であることを示し、日本語の再生速度情報“2”は、日本語の再生速度情報が“遅い”ことを示している。図3(d)の設定音声速度データの再生速度情報は、ユーザにより設定されたものでも良いし、表示装置1に元々設定されているものでも良い。 The set voice speed information acquisition unit 204 acquires playback speed information, which is the playback speed when English voice data and Japanese voice data are output from the voice output unit 6. Specifically, for example, as shown in the set voice speed data of FIG. 3D, the voice type is English playback speed information "1" and the voice type is Japanese playback speed information "2". .. Here, for example, the English playback speed information "1" indicates that the English playback speed information is "normal", and the Japanese playback speed information "2" indicates that the Japanese playback speed information is "slow". "It is shown that. The reproduction speed information of the set voice speed data in FIG. 3D may be set by the user or may be originally set in the display device 1.

ここで、再生速度情報は、何段階に設定されていても良く、例えば3段階に設定されている場合は、図3(b)の音声データに示すように、各段階の速度(速度1、速度2、速度3)に対応した音声データが記憶されている。さらに、図3(c)の設定データに示すように、各段階の速度(速度1、速度2、速度3)に対応したスクロール位置情報とスクロール時間情報とトータル時間情報等の各種の設定データが記憶されている。 Here, the reproduction speed information may be set in any number of stages. For example, when the reproduction speed information is set in three stages, the speed of each stage (speed 1, speed 1, as shown in the audio data of FIG. 3B). Voice data corresponding to speed 2 and speed 3) is stored. Further, as shown in the setting data of FIG. 3C, various setting data such as scroll position information, scroll time information, and total time information corresponding to the speeds (speed 1, speed 2, speed 3) of each stage are obtained. It is remembered.

スクロール時間情報取得部205は、文章番号と、各音声種別の再生速度情報に基づいて、各テキストデータに対応する全てのスクロール位置情報を取得する。具体的には、文章番号取得部201により取得された文章番号と、設定音声速度情報取得部204により取得された音声種別が英語の再生速度情報に基づいて、データ種別が英語と発音と日本語に対応するスクロール時間情報を図3(c)の設定データから取得する。 The scroll time information acquisition unit 205 acquires all the scroll position information corresponding to each text data based on the sentence number and the reproduction speed information of each voice type. Specifically, the sentence number acquired by the sentence number acquisition unit 201 and the voice type acquired by the set voice speed information acquisition unit 204 are based on the English playback speed information, and the data types are English, pronunciation, and Japanese. The scroll time information corresponding to is acquired from the setting data of FIG. 3 (c).

例えば、文章番号として“1”、英語の音声の再生速度情報として“1”が取得されている場合は、図3(c)の設定データに示すように、文章番号“1”、英語の音声の再生速度情報“1”に対応する速度1、データ種別が英語のスクロール時間情報である“2”と“3”を取得する。ここで、1つ目の英語のスクロール時間情報“2”は、同じ文章番号“1”のデータ種別が英語の1つ目のスクロール位置情報である“7”が示す7単語目の“can”に対応するスクロール時間情報である。つまり、これは、英語の再生速度情報“1”に対応する速度1の音声データの再生開始から、スクロール時間情報“2”が示す2秒後に“can”が再生されることを表している。また、2つ目の英語のスクロール時間情報“3”は、2つ目のスクロール位置情報“12”が示す12単語目の“at”が、英語の音声データの再生開始から3秒後に再生されることを表している。ここでは、スクロール時間情報の数値の単位を「秒」で表したが、これは、「ミリ秒」などの細かい時間単位であっても構わない。 For example, when "1" is acquired as the sentence number and "1" is acquired as the playback speed information of the English voice, the sentence number "1" and the English voice are as shown in the setting data of FIG. 3 (c). The speed 1 corresponding to the reproduction speed information "1" of the above, and "2" and "3" whose data type is English scroll time information are acquired. Here, the first English scroll time information "2" is the seventh word "can" indicated by "7" whose data type is the first English scroll position information of the same sentence number "1". It is the scroll time information corresponding to. That is, this means that "can" is reproduced 2 seconds after the start of reproduction of the audio data having the speed 1 corresponding to the English reproduction speed information "1", which is indicated by the scroll time information "2". Further, in the second English scroll time information "3", the 12th word "at" indicated by the second scroll position information "12" is reproduced 3 seconds after the start of reproduction of the English audio data. It represents that. Here, the numerical unit of the scroll time information is expressed in "seconds", but this may be a fine time unit such as "milliseconds".

さらに、スクロール時間情報取得部205は、英語のテキストデータに対応するスクロール時間情報と同様に、発音のテキストデータに対応するスクロール時間情報を、英語の再生速度情報に基づいて取得する。具体的には、例えば、図3(c)の設定データに示すように、文章番号“1”、英語の音声の再生速度情報“1”に対応する速度1、データ種別が発音のスクロール時間情報“2”と“3”を取得する。 Further, the scroll time information acquisition unit 205 acquires the scroll time information corresponding to the pronunciation text data based on the English reproduction speed information, as well as the scroll time information corresponding to the English text data. Specifically, for example, as shown in the setting data of FIG. 3C, the sentence number "1", the speed 1 corresponding to the English voice reproduction speed information "1", and the scroll time information whose data type is pronunciation Get "2" and "3".

さらに、スクロール時間情報取得部205は、英語のテキストデータに対応するスクロール時間情報と同様に、日本語のスクロール時間情報を、日本語の再生速度情報に基づいて取得する。具体的には、例えば、文章番号として“1”、日本語の音声の再生速度情報として“2”が取得されている場合は、図3(c)の設定データに示すように、文章番号“1”、日本語の音声の再生速度情報“2”に対応する速度2、データ種別が日本語のスクロール時間情報である“1.5”と“2”を取得する。 Further, the scroll time information acquisition unit 205 acquires Japanese scroll time information based on Japanese playback speed information, as well as scroll time information corresponding to English text data. Specifically, for example, when "1" is acquired as the sentence number and "2" is acquired as the reproduction speed information of Japanese voice, the sentence number "" is shown in the setting data of FIG. 3 (c). 1 ”, the speed 2 corresponding to the reproduction speed information“ 2 ”of the Japanese voice, and“ 1.5 ”and“ 2 ”which are the scroll time information of the data type of Japanese are acquired.

音声データ取得部206は、文章番号と、英語と日本語の各再生速度情報とに基づいて、全ての音声種別の音声データを取得する。例えば、文章番号取得部201により取得された文章番号と、設定音声速度情報取得部204により取得された英語の音声の再生速度情報に対応する英語の音声データを、図3(b)の音声データから取得する。さらに、文章番号と、設定音声速度情報取得部204により取得された日本語の音声の再生速度情報に対応する日本語の音声データを、図3(b)の音声データから取得する。 The voice data acquisition unit 206 acquires voice data of all voice types based on the sentence number and the playback speed information of English and Japanese. For example, the English voice data corresponding to the sentence number acquired by the sentence number acquisition unit 201 and the reproduction speed information of the English voice acquired by the set voice speed information acquisition unit 204 is the voice data of FIG. 3 (b). Get from. Further, the sentence number and the Japanese voice data corresponding to the reproduction speed information of the Japanese voice acquired by the set voice speed information acquisition unit 204 are acquired from the voice data of FIG. 3 (b).

具体的には、例えば、文章番号取得部201により文章番号“1”、設定音声速度情報取得部204により英語の再生速度情報“1”が取得されている場合は、文章番号が“1”、英語の再生速度情報“1”に対応する速度1、音声種別が英語の“音声E1-1“というファイル名の音声データを図3(b)の音声データから取得する。さらに、日本語の音声データについても同様に、文章番号が“1”、日本語の再生速度情報“2”に対応する速度2、データ種別が日本語の“音声J1-2“というファイル名の音声データを図3(b)の音声データから取得する。 Specifically, for example, when the sentence number "1" is acquired by the sentence number acquisition unit 201 and the English playback speed information "1" is acquired by the set voice speed information acquisition unit 204, the sentence number is "1". The voice data of the file name "voice E1-1" whose speed 1 corresponds to the English playback speed information "1" and whose voice type is English is acquired from the voice data of FIG. 3 (b). Furthermore, for Japanese audio data, similarly, the sentence number is "1", the speed 2 corresponding to the Japanese playback speed information "2", and the data type is Japanese "audio J1-2". The voice data is acquired from the voice data of FIG. 3 (b).

音声制御部207は、音声データ取得部206により取得された英語の音声データまたは日本語の音声データに基づいた音声を音声出力部6から出力させる制御を行う。 The voice control unit 207 controls to output the voice based on the English voice data or the Japanese voice data acquired by the voice data acquisition unit 206 from the voice output unit 6.

ここで、音声データについては、図3(b)に示すように速度に応じて異なる音声データが記憶されているものとして説明したが、英語と日本語に対応する音声データをそれぞれ1つだけ記憶しておき、図3(d)の再生速度情報に設定されている速度に応じて、音声制御部207が音声データを再生する速度を変えて音声出力部6から出力させるようにしても良い。 Here, the voice data has been described as assuming that different voice data are stored depending on the speed as shown in FIG. 3 (b), but only one voice data corresponding to English and Japanese is stored. However, the voice control unit 207 may change the speed at which the voice data is reproduced and output the voice data from the voice output unit 6 according to the speed set in the reproduction speed information of FIG. 3 (d).

音声再生経過時間取得部208は、音声再生開始からの経過時間を取得する。具体的には、音声再生経過時間取得部208は、音声制御部207により英語または日本語の音声データの再生開始からの経過時間を取得する。例えば、音声再生経過時間取得部208は、再生開始と同時にタイマーを動作させ、タイマーが計測した時間を経過時間として取得する。タイマーによる経過時間の計測は、周知であるので詳細については説明を省略する。 The audio reproduction elapsed time acquisition unit 208 acquires the elapsed time from the start of audio reproduction. Specifically, the voice reproduction elapsed time acquisition unit 208 acquires the elapsed time from the start of reproduction of English or Japanese voice data by the voice control unit 207. For example, the audio reproduction elapsed time acquisition unit 208 operates a timer at the same time as the start of reproduction, and acquires the time measured by the timer as the elapsed time. Since the measurement of the elapsed time by the timer is well known, the description thereof will be omitted in detail.

スクロール判断部209は、音声データの再生開始からの経過時間が、スクロールする時間に到達したかどうかを判断する。具体的には、音声再生経過時間取得部208により取得された音声データの再生開始からの経過時間と、スクロール時間情報取得部205により取得されたスクロール時間情報とを比較し、再生開始からの経過時間がスクロール時間情報の時間と一致したかどうかを判断する。経過時間とスクロール時間情報の時間が一致したときは、スクロールが必要なタイミングであるということであり、すなわち、スクロール判断部209は、スクロールが必要なタイミングになったかどうかを判断している。再生開始からの経過時間が、スクロール時間情報の時間と一致しない時は、表示部4に表示している内容は変更せず、音声制御部207による音声データの再生が継続される。 The scroll determination unit 209 determines whether or not the elapsed time from the start of reproduction of the audio data has reached the scroll time. Specifically, the elapsed time from the start of reproduction of the audio data acquired by the audio reproduction elapsed time acquisition unit 208 is compared with the scroll time information acquired by the scroll time information acquisition unit 205, and the elapsed time from the start of reproduction. Determine if the time matches the time in the scroll time information. When the elapsed time and the time of the scroll time information match, it means that the timing requires scrolling, that is, the scroll determination unit 209 determines whether or not the timing requires scrolling. When the elapsed time from the start of reproduction does not match the time of the scroll time information, the content displayed on the display unit 4 is not changed, and the audio data reproduction by the audio control unit 207 is continued.

ここで、スクロール判断部209は、図3(c)の設定データに複数のスクロール時間情報が記憶されている場合は、再生開始からの経過時間が、それぞれのスクロール時間情報の時間に一致したかどうかを判断する。複数のスクロール時間情報のそれぞれの時間が、スクロールが必要なタイミングであり、スクロール判断部209は、そのタイミングになったかどうかを判断している。具体的には、例えば、英語のスクロール時間情報の“2”と“3”が取得されている場合、英語の音声データの再生開始からの経過時間が、1つ目のスクロール時間情報である2秒に到達したときに、スクロールすべき時間であると判断する。さらに、音声データの再生開始からの経過時間が、2つ目のスクロール時間情報の時間の3秒に到達したときもスクロールすべき時間であると判断する。 Here, when the scroll determination unit 209 stores a plurality of scroll time information in the setting data of FIG. 3C, does the elapsed time from the start of playback match the time of each scroll time information? Judge whether or not. Each time of the plurality of scroll time information is the timing at which scrolling is required, and the scroll determination unit 209 determines whether or not the timing has been reached. Specifically, for example, when the English scroll time information "2" and "3" are acquired, the elapsed time from the start of playback of the English voice data is the first scroll time information 2 When the second is reached, it is determined that it is time to scroll. Further, when the elapsed time from the start of reproduction of the audio data reaches 3 seconds of the time of the second scroll time information, it is also determined that it is the time to scroll.

スクロール判断部209が、スクロールが必要であると判断した場合には、表示制御部210にスクロール表示を指示する。表示制御部210によるスクロール表示については後述する。 When the scroll determination unit 209 determines that scrolling is necessary, the display control unit 210 is instructed to perform scroll display. The scroll display by the display control unit 210 will be described later.

一方、音声データの再生開始からの経過時間が、最後のスクロール時間情報の時間に到達し、スクロール判断部209が表示制御部210にスクロール指示を行った後は、音声終了判定部211に、音声データの再生が終了したかどうかの判定を指示する。 On the other hand, after the elapsed time from the start of playback of the voice data reaches the time of the last scroll time information and the scroll determination unit 209 gives a scroll instruction to the display control unit 210, the voice end determination unit 211 is notified of the voice. Instructs the determination of whether or not the reproduction of data is completed.

音声終了判定部211は、音声制御部207による音声データを音声出力部6から出力させる制御が終了し、音声出力部6から音声が出力されなくなった時点で、音声データの再生が終了したと判断する。また、例えば、音声終了判定部211が、音声データの再生開始から再生終了までの再生時間であるトータル時間情報を図3(c)の設定データから取得し、音声データの再生開始からの経過時間がトータル時間情報の時間に到達したかどうかを判断し、経過時間がトータル時間情報の時間に到達していれば、音声データの再生が終了したと判断しても良い。ここで、トータル時間情報の取得については、文章番号取得部210により取得された文章番号と、設定音声速度情報取得部204により取得された再生速度情報と、再生している音声データのデータ種別(英語、日本語)とに基づき、音声終了判定部211が、図3(c)の設定データから取得すれば良い。 The voice end determination unit 211 determines that the reproduction of the voice data is completed when the control of the voice control unit 207 to output the voice data from the voice output unit 6 is completed and the voice is no longer output from the voice output unit 6. do. Further, for example, the voice end determination unit 211 acquires total time information, which is the playback time from the start of playback of the voice data to the end of playback, from the setting data of FIG. 3C, and the elapsed time from the start of playback of the voice data. May determine whether or not the time of the total time information has been reached, and if the elapsed time has reached the time of the total time information, it may be determined that the reproduction of the audio data has been completed. Here, regarding the acquisition of the total time information, the sentence number acquired by the sentence number acquisition unit 210, the playback speed information acquired by the set voice speed information acquisition unit 204, and the data type of the reproduced voice data ( Based on English and Japanese), the voice end determination unit 211 may acquire the setting data in FIG. 3C.

ここで、音声終了判定部211が、英語の音声データの再生が終了したと判断した場合は、表示制御部210に各テキストデータを先頭から各行に表示させ、英語の音声データと同じ文章番号に対応する日本語の音声データを音声制御部207に再生開始するように指示する。 Here, when the voice end determination unit 211 determines that the reproduction of the English voice data has been completed, the display control unit 210 displays each text data in each line from the beginning, and the sentence number is the same as the English voice data. Instructs the voice control unit 207 to start playing the corresponding Japanese voice data.

また、音声終了判定部211が、日本語の音声データの再生が終了したと判断した場合は、文章番号取得部201に次の文章番号を取得させ、次の文章番号に対しても同様の処理を行う。これにより、ユーザが次の文章番号を指定する操作を行わずに、自動的に次の文章データのテキストデータの表示と音声データの再生を行うので、ユーザがより効率良く学習を行うことができる。 If the voice end determination unit 211 determines that the reproduction of Japanese voice data has been completed, the sentence number acquisition unit 201 is made to acquire the next sentence number, and the same processing is performed for the next sentence number. I do. As a result, the text data of the next sentence data is automatically displayed and the voice data is reproduced without the user performing the operation of specifying the next sentence number, so that the user can learn more efficiently. ..

表示制御部210は、文章番号取得部201により文章番号が取得された後、まずは、テキストデータ取得部202により取得された各テキストデータを先頭文字から、表示部4の異なる1行に表示させる。ここで、図3(c)の設定データに、各テキストデータに対応するスクロール位置情報が存在する場合は、表示制御部210は、テキストデータの先頭文字から、1つ目のスクロール位置情報が示す位置の1つ手前の文字または単語までを、表示部4に表示させる。具体的には、例えば、文章番号“1”の英語のテキストデータを最初に表示するときには、表示制御部210は、図6(b)に示すように、図3(c)の設定データの文章番号“1”に対応する英語の1つ目のスクロール位置情報“7”が示す位置の1つ手前の6単語目の“trouble,”までを、表示部4に表示させる。発音と日本語についても同様の処理を行い、表示制御部210は、図6(b)に示すように、発音と日本語の各テキストデータについても、先頭文字から、1つ目のスクロール位置情報が示す位置の1つ手前の文字までを、表示部4の異なる1行に表示させる。ここで、図3(c)の設定データにスクロール位置情報が存在しない場合、表示制御部210は、そのテキストデータの先頭文字から最後の文字までを、表示部4に表示させる。 After the sentence number is acquired by the sentence number acquisition unit 201, the display control unit 210 first displays each text data acquired by the text data acquisition unit 202 on a different line of the display unit 4 from the first character. Here, when the setting data of FIG. 3C has scroll position information corresponding to each text data, the display control unit 210 indicates the first scroll position information from the first character of the text data. The display unit 4 displays up to the character or word immediately before the position. Specifically, for example, when the English text data of the sentence number “1” is first displayed, the display control unit 210 displays the sentence of the setting data of FIG. 3 (c) as shown in FIG. 6 (b). The display unit 4 displays up to the sixth word "trouble," immediately before the position indicated by the first scroll position information "7" in English corresponding to the number "1". The same processing is performed for pronunciation and Japanese, and as shown in FIG. 6B, the display control unit 210 also performs the first scroll position information from the first character for each text data of pronunciation and Japanese. Up to the character immediately before the position indicated by is displayed on a different line of the display unit 4. Here, when the scroll position information does not exist in the setting data of FIG. 3C, the display control unit 210 causes the display unit 4 to display from the first character to the last character of the text data.

また、表示制御部210は、スクロール判断部209によりスクロール表示が指示された場合は、テキストデータ取得部202により取得されたテキストデータと、スクロール位置情報取得部203により取得されたスクロール位置情報とに基づき、全てのテキストデータを、表示部4でスクロール表示させる。具体的には、表示制御部210は、各テキストデータの1つ目のスクロール位置情報が示す位置以降の文字または単語から、2つ目のスクロール位置情報が示す位置の1つ手前の文字または単語までのテキストデータを、表示部4の所定位置から表示させる。つまり、表示制御部210は、テキストデータの先頭から表示していた各行の内容を、スクロール表示が指示されたタイミングで、次にスクロール表示するテキストデータの内容に切り替えて、表示部4の所定位置から表示させる。ここで、所定位置とは、表示部4の先頭(左端)として説明するが、表示部4の略中央であっても構わない。 Further, when the scroll display is instructed by the scroll determination unit 209, the display control unit 210 uses the text data acquired by the text data acquisition unit 202 and the scroll position information acquired by the scroll position information acquisition unit 203. Based on this, all the text data is scrolled and displayed on the display unit 4. Specifically, the display control unit 210 sets the display control unit 210 to the character or word immediately before the position indicated by the second scroll position information from the character or word after the position indicated by the first scroll position information of each text data. The text data up to is displayed from a predetermined position of the display unit 4. That is, the display control unit 210 switches the content of each line displayed from the beginning of the text data to the content of the text data to be scrolled next at the timing when the scroll display is instructed, and the predetermined position of the display unit 4. Display from. Here, the predetermined position will be described as the head (left end) of the display unit 4, but may be substantially the center of the display unit 4.

具体的には、表示制御部210は、1つ目のスクロール時間情報が示す2秒に到達した時にスクロール表示の指示を受けて、図6(c)に示すように、文章番号“1”の英語の1つ目のスクロール位置情報が示す7単語目の“can”以降から、2つ目のスクロール位置情報が示す位置の1つ手前の11単語目の“baggage”までを、表示部4に表示させる。つまり、音声再生開始から2秒後の“can”の音声が再生されるタイミングに、“can”以降のテキストデータを表示部4に表示することができる。 Specifically, the display control unit 210 receives an instruction for scroll display when the first scroll time information of 2 seconds is reached, and as shown in FIG. 6 (c), the sentence number “1” From the 7th word "can" indicated by the 1st scroll position information in English to the 11th word "baggage" immediately before the position indicated by the 2nd scroll position information is displayed on the display unit 4. Display. That is, the text data after "can" can be displayed on the display unit 4 at the timing when the voice of "can" is reproduced 2 seconds after the start of voice reproduction.

これにより、スクロール位置情報が示す文字または単語の音声が再生されるタイミングに、その文字または単語の位置以降の文字または単語を表示部4の先頭から表示するので、ユーザは音声再生している文字または単語を表示部4で容易に見つけることが出来る。 As a result, at the timing when the voice of the character or word indicated by the scroll position information is played, the character or word after the position of the character or word is displayed from the beginning of the display unit 4, so that the user can play the character by voice. Alternatively, the word can be easily found on the display unit 4.

さらに、発音と日本語についても同様のスクロール表示の処理を行い、表示制御部210は、図6(c)に示すように、英語と発音と日本語の各テキストデータの1つ目のスクロール位置情報の文字または単語から、2つ目のスクロール位置情報が示す位置の1つ手前の位置の文字または単語までを、表示部4のそれぞれ異なる1行に表示させる。 Further, the same scroll display processing is performed for pronunciation and Japanese, and the display control unit 210 performs the same scroll display processing, and as shown in FIG. 6 (c), the display control unit 210 is the first scroll position of each text data of English, pronunciation, and Japanese. From the character or word of the information to the character or word at the position immediately before the position indicated by the second scroll position information is displayed on different lines of the display unit 4.

これにより、各テキストデータを異なる1行内で同じ方向にスクロール表示するので、英語または日本語の音声を聞きながらテキストデータ上でその音声の内容を確認する際に、いずれの音声を聞いた場合でも、その音声の内容を同じ横方向の目線の動きで、より簡単に確認することが出来る。 As a result, each text data is scrolled in the same direction within a different line, so when checking the content of the voice on the text data while listening to the English or Japanese voice, no matter which voice is heard. , The content of the voice can be confirmed more easily by the same movement of the line of sight in the horizontal direction.

また、表示制御部210は、英語の音声データを再生している時は、英語の音声データの再生の経過に合わせて、少なくとも英語のテキストデータと発音のテキストデータとをスクロール表示させればよく、必ずしも日本語のテキストデータのスクロール表示は必要ではない。さらに、日本語の音声データを再生している時は、少なくとも日本語のテキストデータをスクロール表示させればよく、必ずしも英語と発音のテキストデータのスクロール表示は必要ではない。これにより、再生している音声データに関係するテキストデータがスクロール表示されるので、音声データに関連するテキストデータがいずれの行に表示されているかをユーザは認識し易くなり、音声データの内容をより容易に把握することができる。 Further, when the display control unit 210 is reproducing the English voice data, at least the English text data and the pronunciation text data may be scrolled and displayed according to the progress of the reproduction of the English voice data. , It is not always necessary to scroll the Japanese text data. Further, when playing Japanese audio data, at least Japanese text data may be scrolled and displayed, and English and pronunciation text data may not necessarily be scrolled. As a result, the text data related to the voice data being played is scrolled and displayed, so that the user can easily recognize in which line the text data related to the voice data is displayed, and the content of the voice data can be displayed. It can be grasped more easily.

また、表示制御部210は、英語の音声データを再生している時は、英語のテキストデータと発音のテキストデータの少なくとも一方の表示形態を、日本語のテキストデータとは異なる表示形態で表示させても良い。これにより、ユーザは、どの行を見れば音声データの内容が表示されているかを容易に把握することができる。 Further, when the display control unit 210 is playing back English voice data, the display control unit 210 displays at least one of the display form of the English text data and the pronunciation text data in a display form different from that of the Japanese text data. May be. As a result, the user can easily grasp which line the content of the voice data is displayed.

(処理フローおよび画面例)
図5は、表示装置1が実行する処理の流れを示すフローチャートの概要の一例について説明する。図6は、前記処理の実行中に表示部4に表示されるUI画面の一例を示す図である。図5に示す処理の流れを、図6に示すUI画面を参照しながら説明する。
(Processing flow and screen example)
FIG. 5 describes an example of an outline of a flowchart showing a flow of processing executed by the display device 1. FIG. 6 is a diagram showing an example of a UI screen displayed on the display unit 4 during the execution of the process. The flow of the process shown in FIG. 5 will be described with reference to the UI screen shown in FIG.

表示制御部210は、図6(a)に示すように、図3(a)のテキストデータ中のいずれかの文章データを選択可能な文章選択画面を表示部4に表示させる(S101)。ここでは、文章選択画面は、図6(a)のように文章データを分類した分類名を表示するが、文章データに対応する文章番号をいくつか表示しても良い。図6(a)に示すように、表示制御部210が文章の難易度や使用シーン等に分類した分類名を表示部4に表示させている場合、図3(a)のテキストデータの各文章番号に分類名を対応付けて記憶していれば(図示なし)、入力部3から特定された分類名に基づき、文章番号取得部201は、その分類名の中で一番小さい文章番号や、または、その分類名に対応する文章番号からランダムに1つの文章番号を取得すればよい。 As shown in FIG. 6A, the display control unit 210 causes the display unit 4 to display a sentence selection screen on which any sentence data in the text data of FIG. 3A can be selected (S101). Here, the sentence selection screen displays the classification name in which the sentence data is classified as shown in FIG. 6A, but some sentence numbers corresponding to the sentence data may be displayed. As shown in FIG. 6A, when the display control unit 210 displays the classification name classified according to the difficulty level of the sentence, the usage scene, etc. on the display unit 4, each sentence of the text data in FIG. 3A is displayed. If the classification name is associated with the number and stored (not shown), the sentence number acquisition unit 201 may use the smallest sentence number among the classification names or the sentence number based on the classification name specified from the input unit 3. Alternatively, one sentence number may be randomly obtained from the sentence numbers corresponding to the classification name.

文章番号取得部201は、入力部3からのユーザの入力に基づき、入力された分類名に属する文章番号を取得する(S102)。例えば、入力された分類名に属する一番小さい数値の文章番号を取得する。具体的には、図6(a)で「入門編」がフォーカスされている場合に、入力部3の決定ボタン35が入力されると、分類名が入門編に対応付けられた文章番号の中のいずれかの文章番号、例えば、入門編の中で一番小さい数値の文章番号を取得する。 The sentence number acquisition unit 201 acquires a sentence number belonging to the input classification name based on the user's input from the input unit 3 (S102). For example, the sentence number of the smallest numerical value belonging to the entered classification name is acquired. Specifically, when the "introduction" is focused in FIG. 6A and the enter button 35 of the input unit 3 is input, the classification name is included in the sentence number associated with the introductory edition. Obtain one of the sentence numbers of, for example, the sentence number of the smallest numerical value in the introductory edition.

テキストデータ取得部202は、文章番号取得部201により取得された文章番号に対応する英語のテキストデータと、発音のテキストデータと、日本語のテキストデータとを、図3(a)のテキストデータから取得する(S103)。 The text data acquisition unit 202 obtains English text data corresponding to the sentence number acquired by the sentence number acquisition unit 201, pronunciation text data, and Japanese text data from the text data of FIG. 3 (a). Acquire (S103).

スクロール位置情報取得部203は、文章番号取得部201により取得された文章番号に基づき、各テキストデータに対応するスクロール位置情報を、図3(c)の設定データから取得する(S104)。 The scroll position information acquisition unit 203 acquires scroll position information corresponding to each text data from the setting data of FIG. 3C based on the sentence number acquired by the sentence number acquisition unit 201 (S104).

設定音声速度情報取得部204は、英語と日本語のそれぞれの音声種別に対応する再生速度情報を、図3(d)の設定音声速度データから取得する(S105)。 The set voice speed information acquisition unit 204 acquires playback speed information corresponding to each voice type of English and Japanese from the set voice speed data of FIG. 3 (d) (S105).

スクロール時間情報取得部205は、文章番号取得部201により取得された文章番号と、設定音声速度情報取得部204により取得された設定音声速度に基づき、各テキストデータに対応するスクロール時間情報を、図3(c)の設定データから取得する(S106)。 The scroll time information acquisition unit 205 plots scroll time information corresponding to each text data based on the sentence number acquired by the sentence number acquisition unit 201 and the set audio speed acquired by the set audio speed information acquisition unit 204. Obtained from the setting data of 3 (c) (S106).

音声データ取得部206は、設定音声速度情報取得部204により取得された設定音声速度に基づき、第1言語と第2言語のそれぞれの音声種別に対応する音声データを、図3(b)の音声データから取得する(S107)。 The voice data acquisition unit 206 obtains voice data corresponding to each voice type of the first language and the second language based on the set voice speed acquired by the set voice speed information acquisition unit 204, as shown in FIG. 3 (b). Obtained from the data (S107).

表示制御部210は、テキストデータ取得部202により取得された各テキストデータと、スクロール位置情報取得部203により取得された各テキストデータのスクロール位置情報とに基づき、各テキストデータの先頭文字からスクロール位置情報が示す位置の1つ手前の文字または単語までを表示部4の各行の先頭から表示させる(S108)。ここまでの処理に基づき、例えば、図6(b)に示すように、英語と発音と日本語の各テキストデータの先頭文字から、各テキストデータの1つ目のスクロール位置情報が示す位置の1つ手前の文字または単語までを、表示部4の各行の先頭から表示する。 The display control unit 210 has a scroll position from the first character of each text data based on each text data acquired by the text data acquisition unit 202 and the scroll position information of each text data acquired by the scroll position information acquisition unit 203. The characters or words immediately before the position indicated by the information are displayed from the beginning of each line of the display unit 4 (S108). Based on the processing up to this point, for example, as shown in FIG. 6B, the position 1 indicated by the first scroll position information of each text data from the first character of each text data of English, pronunciation, and Japanese. The previous character or word is displayed from the beginning of each line of the display unit 4.

音声制御部207は、音声データ取得部206により取得された音声データを、音声出力部6から出力させる(S109)。 The voice control unit 207 outputs the voice data acquired by the voice data acquisition unit 206 from the voice output unit 6 (S109).

音声再生経過時間取得部208は、音声制御部207により音声データの再生開始からの経過時間を取得する(S110)。 The voice reproduction elapsed time acquisition unit 208 acquires the elapsed time from the start of reproduction of the voice data by the voice control unit 207 (S110).

スクロール判断部209は、音声再生経過時間取得部208により取得された経過時間が、スクロール時間情報取得部205により取得されたスクロール時間に到達したかどうか判断する(S111)。スクロール時間に到達していない場合は、音声制御部207により音声データの再生を継続した状態で、再度、S110で音声再生経過時間取得部208による経過時間の取得を行い、スクロール時間に到達したかどうかを継続して判断する。 The scroll determination unit 209 determines whether or not the elapsed time acquired by the voice reproduction elapsed time acquisition unit 208 has reached the scroll time acquired by the scroll time information acquisition unit 205 (S111). If the scroll time has not been reached, the voice control unit 207 continues to play the voice data, and then the voice playback elapsed time acquisition unit 208 acquires the elapsed time again in S110 to see if the scroll time has been reached. Continue to judge whether or not.

一方、S111で音声データの再生開始からの経過時間がスクロール時間に到達したと判断した場合、表示制御部210は、スクロール位置情報取得部203により取得された各テキストデータのスクロール位置情報に基づき、各テキストデータを表示部4の各行でスクロール表示させる(S112)。つまり、各テキストデータのスクロール位置情報が示す位置以降の文字または単語から次のスクロール位置情報が示す位置の1つ前の文字または単語までを、表示部4の各行の先頭から表示する。 On the other hand, when it is determined in S111 that the elapsed time from the start of reproduction of the audio data has reached the scroll time, the display control unit 210 is based on the scroll position information of each text data acquired by the scroll position information acquisition unit 203. Each text data is scrolled and displayed on each line of the display unit 4 (S112). That is, the characters or words after the position indicated by the scroll position information of each text data to the character or word immediately before the position indicated by the next scroll position information are displayed from the beginning of each line of the display unit 4.

ここまでの処理に基づき、図6(b)を図6(c)で示すような表示に切り替える。すなわち、表示部4の異なる行の先頭から表示している各テキストデータの先頭文字以降の内容を、スクロールする時間に到達した時に、1つ目のスクロール位置情報の位置以降の文字または単語からの内容に切り替えることにより、スクロール表示を行うことができる。 Based on the processing up to this point, the display of FIG. 6 (b) is switched to the display as shown in FIG. 6 (c). That is, when the time for scrolling the contents after the first character of each text data displayed from the beginning of different lines of the display unit 4 is reached, the characters or words after the position of the first scroll position information are used. Scroll display can be performed by switching to the content.

スクロール判断部209は、スクロール時間情報取得部205により取得された各テキストデータのスクロール時間情報の中で、S111で判断されたスクロール時間の次のスクロール時間が存在しているかどうかを判断する(S113)。次のスクロール時間が存在している場合は、S111で判断するスクロール時間として、次のスクロール時間を設定する(S114)。S114で、次のスクロール時間を設定した後は、音声制御部207により音声データの再生を継続した状態で、再度、S110で音声再生経過時間取得部208による経過時間の取得を行う。その後、S111とS112の処理を行うことにより、図6(d)に示すように、各テキストデータを2つ目のスクロール位置情報が示す位置以降の文字または単語からの表示に切り替え、スクロール表示を行うことができる。 The scroll determination unit 209 determines whether or not the scroll time next to the scroll time determined in S111 exists in the scroll time information of each text data acquired by the scroll time information acquisition unit 205 (S113). ). If the next scroll time exists, the next scroll time is set as the scroll time determined in S111 (S114). After the next scroll time is set in S114, the voice control unit 207 continues to reproduce the voice data, and the voice reproduction elapsed time acquisition unit 208 again acquires the elapsed time in S110. After that, by performing the processing of S111 and S112, as shown in FIG. 6D, each text data is switched to the display from the character or word after the position indicated by the second scroll position information, and the scroll display is displayed. It can be carried out.

一方、S113で次のスクロール時間が存在しないと判断した場合、音声終了判定部211は、音声データの再生が終了したかどうかを判断する(S115)。音声データの再生が終了しない限りは、音声制御部207により音声データの再生を継続する。 On the other hand, when it is determined in S113 that the next scroll time does not exist, the voice end determination unit 211 determines whether or not the reproduction of the voice data is completed (S115). Unless the reproduction of the audio data is completed, the audio control unit 207 continues the reproduction of the audio data.

一方、S115で音声データの再生が終了した場合は、音声データの再生処理を終了する。 On the other hand, when the reproduction of the audio data is completed in S115, the reproduction process of the audio data is terminated.

ここで、S115で英語の音声データの再生が終了したと判断した場合は、英語の音声データと同じ文章番号の日本語の音声データを再生し、英語の音声データの再生時と同様に、日本語の音声データの再生と、その再生に合わせた各テキストデータの各行でのスクロール表示を行っても良い。つまり、S108の処理に戻り、S108で各テキストデータを先頭から各行に表示し、S109で音声データ取得部206により取得した日本語の音声データを出力し、S110以降の処理で日本語の音声データの再生と各テキストデータのスクロール表示を行っても良い。具体的には、図6(d)で英語の音声データの再生が終了した後、図6(e)から図6(g)に示すように、日本語の音声データの再生と、日本語の音声データの再生に合わせて、各テキストデータのスクロール表示を行っても良い。このように、英語の音声と日本語の音声とを連続して再生し、それぞれの音声の再生に合わせて、その音声に一致する内容をスクロール表示することによって、ユーザは、英語の聞き取りと、英語の意味とを連続して目と耳の両方で確認することができ、学習効果を向上させることができる。 Here, if it is determined in S115 that the reproduction of the English audio data is completed, the Japanese audio data having the same sentence number as the English audio data is reproduced, and the Japanese audio data is reproduced in the same manner as when the English audio data is reproduced. The voice data of the word may be reproduced and the text data may be scrolled and displayed in each line according to the reproduction. That is, returning to the processing of S108, each text data is displayed in each line from the beginning in S108, the Japanese voice data acquired by the voice data acquisition unit 206 is output in S109, and the Japanese voice data is processed in S110 and subsequent processes. You may play back and scroll display each text data. Specifically, after the reproduction of the English audio data is completed in FIG. 6 (d), the reproduction of the Japanese audio data and the reproduction of the Japanese audio data are performed as shown in FIGS. 6 (e) to 6 (g). Each text data may be scrolled and displayed according to the reproduction of the voice data. In this way, the English voice and the Japanese voice are continuously played back, and the content matching the voice is scrolled and displayed according to the playback of each voice, so that the user can listen to English and listen to the English voice. The meaning of English can be confirmed continuously with both eyes and ears, and the learning effect can be improved.

(第2の実施形態)
以下、本発明の第2の実施形態について、図面を参照しつつ説明する。なお、下記において上記第1の実施形態と同様である点については説明を省略する。
(Second embodiment)
Hereinafter, the second embodiment of the present invention will be described with reference to the drawings. In the following, the same points as in the first embodiment will be omitted.

図7は、第2の実施形態における各テキストデータのスクロール表示の他の実施形態である。 FIG. 7 is another embodiment of the scroll display of each text data in the second embodiment.

第2の実施形態は、各テキストデータにおいて、出来る限り多くの文字または単語を表示してスクロール表示するものである。 The second embodiment displays and scrolls as many characters or words as possible in each text data.

具体的には、例えば、図6(a)のような文章選択画面を表示し、入力部3からのユーザの入力に基づき文章番号が特定されたとき、図6(b)の代わりに、図7(a)で示すような表示を行い、その後、図7(b)で示すようなスクロール表示を行う。図7(a)と図7(b)は、図6(b)や図6(c)に比べて、各行における空白部分が少なく、より多くの文字または単語を表示している。このようなスクロール表示を行う場合について、英語のテキストデータを例にして説明する。 Specifically, for example, when a sentence selection screen as shown in FIG. 6A is displayed and a sentence number is specified based on the user's input from the input unit 3, the figure is shown instead of FIG. 6B. The display as shown in 7 (a) is performed, and then the scroll display as shown in FIG. 7 (b) is performed. 7 (a) and 7 (b) have less blank areas in each line and display more characters or words than those of FIGS. 6 (b) and 6 (c). The case of performing such scroll display will be described by taking English text data as an example.

具体的には、図7のようなスクロール表示を行う場合は、図3(c)の設定データには、データ種別が英語に対応するスクロール位置情報は、9単語目の“leave”の位置情報の“9”が記憶され、スクロール時間情報は“2.5”が記憶されている。そして、スクロール位置情報取得部203によりスクロール位置情報として“9”、スクロール時間情報取得部205によりスクロール時間情報として“2.5”が取得される。そして、図7(a)に示すように、表示制御部210は、英語のテキストデータの先頭単語からスクロール位置情報の1つ手前の位置の“I”までを表示部4に表示させる。本実施形態の場合は、スクロール位置情報として、表示部4の右端の位置まで英語のテキストデータの表示を行えるような位置情報が取得されているので、英語のテキストデータの文字を出来るだけ多く表示できる。 Specifically, in the case of scroll display as shown in FIG. 7, in the setting data of FIG. 3 (c), the scroll position information corresponding to the data type of English is the position information of the 9th word “leave”. "9" is stored, and "2.5" is stored as the scroll time information. Then, the scroll position information acquisition unit 203 acquires "9" as the scroll position information, and the scroll time information acquisition unit 205 acquires "2.5" as the scroll time information. Then, as shown in FIG. 7A, the display control unit 210 causes the display unit 4 to display from the first word of the English text data to “I” at the position immediately before the scroll position information. In the case of this embodiment, since the position information that can display the English text data up to the rightmost position of the display unit 4 is acquired as the scroll position information, as many characters of the English text data as possible are displayed. can.

その後、音声制御部207により英語の音声データが再生され、音声再生経過時間取得部208により再生からの経過時間が取得される。それから、スクロール判断部209は、音声再生経過時間取得部208により取得された経過時間が、スクロール時間情報の時間に到達したかどうかを判断する。ここでは、例えば、スクロール判断部209は、音声再生経過時間取得部208により取得された経過時間が、2.5秒に到達したかどうかを判断する。経過時間がスクロール時間情報の時間(ここでは、2.5秒)に到達したときは、スクロール位置情報の位置の単語の“leave”が音声再生されるタイミングであり、かつ、“leave”を表示させるスクロール表示をするタイミングであり、スクロール判断部209は、そのタイミングであるかどうかを判断する。 After that, the voice control unit 207 reproduces the English voice data, and the voice reproduction elapsed time acquisition unit 208 acquires the elapsed time from the reproduction. Then, the scroll determination unit 209 determines whether or not the elapsed time acquired by the voice reproduction elapsed time acquisition unit 208 has reached the time of the scroll time information. Here, for example, the scroll determination unit 209 determines whether or not the elapsed time acquired by the voice reproduction elapsed time acquisition unit 208 has reached 2.5 seconds. When the elapsed time reaches the time of the scroll time information (here, 2.5 seconds), it is the timing when the word "leave" at the position of the scroll position information is played back by voice, and "leave" is displayed. It is the timing to display the scroll to be displayed, and the scroll determination unit 209 determines whether or not it is the timing.

そして、スクロール判断部209が、経過時間がスクロール時間情報の時間(ここでは、2.5秒)に到達したと判断したときは、さらに、スクロール位置情報取得部203により取得されたスクロール位置情報の中で、次のスクロール位置情報があるかどうか判断する。 Then, when the scroll determination unit 209 determines that the elapsed time has reached the time of the scroll time information (here, 2.5 seconds), the scroll position information acquired by the scroll position information acquisition unit 203 is further obtained. In, determine if there is the next scroll position information.

次のスクロール位置情報が存在しない場合、表示制御部210は、スクロール位置情報の“leave”から表示部4に表示させるのではなく、英語のテキストデータの最後の文字が表示部4の右端に表示されるように、表示部4の先頭に表示させる単語を英語のテキストデータから取得し、その単語から最後の文字までを表示部4に表示させる。つまり、表示制御部210は、次にスクロール表示するものがない場合は、これから表示するテキストデータは、表示部4に空白部分が生じないように、テキストデータの最後の文字を表示部4の右端に表示させ、より多くの文字を表示できるように、表示部4の先頭に表示する文字を調整する。 When the next scroll position information does not exist, the display control unit 210 does not display the scroll position information "leave" on the display unit 4, but displays the last character of the English text data at the right end of the display unit 4. The word to be displayed at the beginning of the display unit 4 is acquired from the English text data, and the word to the last character is displayed on the display unit 4. That is, when there is nothing to be scrolled next, the display control unit 210 displays the last character of the text data in the display unit 4 so that the display unit 4 does not have a blank portion in the text data to be displayed from now on. The characters displayed at the beginning of the display unit 4 are adjusted so that more characters can be displayed.

さらに、表示制御部210は、具体的には、例えば、図7(b)に示すように、表示部4の右端に最後の文字“?”を表示させ、かつ、最も多くの単語が表示されるように、表示部4の先頭に表示させる単語を決定し、その単語から最後の文字までの範囲のテキストデータを表示部4に表示させる。ここで、表示する英語のテキストデータの範囲は、英語のテキストデータの最後の文字“?”の位置からテキストデータの先頭方向に、表示部4で表示可能な文字数分戻った位置を取得し、その位置の文字から表示するようにすれば、より多くの文字または単語を表示することができる。図7(b)では、テキストデータ中の“?”の位置から、表示可能な文字数分戻った位置の単語の“I”以降から最後の文字の“?”までを表示する。 Further, specifically, as shown in FIG. 7B, the display control unit 210 displays the last character “?” At the right end of the display unit 4, and displays the most words. As described above, the word to be displayed at the beginning of the display unit 4 is determined, and the text data in the range from the word to the last character is displayed on the display unit 4. Here, the range of the English text data to be displayed is obtained by acquiring the position returned from the position of the last character "?" In the English text data toward the beginning of the text data by the number of characters that can be displayed on the display unit 4. If the characters at that position are displayed first, more characters or words can be displayed. In FIG. 7 (b), from the position of "?" In the text data, the word "I" and the last character "?" At the position returned by the number of displayable characters are displayed.

さらに、表示制御部210は、最後のスクロール画面を表示するときに、1つ前の画面で既に表示していた文字または単語と、新たにスクロール表示した文字または単語とを異なる表示形態で、前記表示部に表示させる。具体的には、最後のスクロール画面において、先頭に表示している文字または単語から、最後のスクロール位置情報の1つ前の位置の文字または単語までを異なる表示形態で表示する。つまり、最後のスクロール画面内において、新たにスクロール表示した文字または単語は、これから再生する英語の音声データに含まれているので、異なる表示形態で表示されている部分の文字または単語を見れば、音声データの内容を把握することができる。これにより、ユーザは、より少ない目線の動きで、より簡単に音声データの内容を確認することができる。 Further, when the display control unit 210 displays the last scroll screen, the character or word already displayed on the previous screen and the newly scrolled character or word are displayed in different display forms. Display on the display. Specifically, on the last scroll screen, the characters or words displayed at the beginning to the characters or words at the position immediately before the last scroll position information are displayed in different display formats. In other words, in the last scroll screen, the newly scrolled characters or words are included in the English voice data to be played, so if you look at the characters or words displayed in different display formats, you can see. It is possible to grasp the contents of voice data. As a result, the user can more easily confirm the content of the voice data with less movement of the line of sight.

例えば、具体的には、表示制御部210は、図7(b)に示すように、“I”が、線で囲われており、“leave”以降の他の文字とは異なる表示形態で表示部4に表示させる。ここで、異なる表示形態とは、線で囲うことに限らず、文字のフォントの種類を変えたり、文字の色を変えたり、下線を表示してもよい。また、新たにスクロール表示した文字または単語の方を、線で囲ったり、色を変えたりしても構わない。 For example, specifically, as shown in FIG. 7B, the display control unit 210 displays "I" surrounded by a line and in a display form different from other characters after "leave". Displayed in part 4. Here, the different display form is not limited to being surrounded by a line, and the font type of the character may be changed, the color of the character may be changed, or an underline may be displayed. In addition, the newly scrolled characters or words may be surrounded by a line or the color may be changed.

さらに、表示制御部210は、発音のテキストデータと日本語のテキストデータについても、英語のテキストデータと同様のスクロール表示の処理を行う。これにより、表示制御部210は、最後のスクロール画面において、各テキストデータにおいて、より多くの文字または単語を表示部4に表示させることができ、また、異なる表示形態で表示されている部分を見れば、再生されている音声データの内容を簡単により少ない目線の動きで確認することができる。 Further, the display control unit 210 processes the scroll display of the pronunciation text data and the Japanese text data in the same manner as the English text data. As a result, the display control unit 210 can display more characters or words on the display unit 4 in each text data on the final scroll screen, and can see the portion displayed in a different display form. For example, the content of the reproduced audio data can be easily confirmed with less movement of the line of sight.

(第3の実施形態)
以下、本発明の第3の実施形態について、図面を参照しつつ説明する。なお、下記において上記第1及び第2の実施形態等と同様である点については説明を省略する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to the drawings. In the following, the same points as those of the first and second embodiments will be omitted.

図8は、第3の実施形態における各テキストデータのスクロール表示の他の実施形態である。 FIG. 8 is another embodiment of the scroll display of each text data in the third embodiment.

第3の実施形態は、テキストデータ取得部202により取得された英語のテキストデータと、発音のテキストデータと、日本語のテキストデータとを表示部4の異なる1行に表示したときに、入力部3の文字拡大ボタン33により、文字サイズを大きくして、2行表示でスクロール表示するものである。 In the third embodiment, when the English text data acquired by the text data acquisition unit 202, the pronunciation text data, and the Japanese text data are displayed on different lines of the display unit 4, the input unit The character enlargement button 33 of 3 increases the character size and scrolls the display in two lines.

具体的には、テキストデータ取得部202により、図3(a)のテキストデータ中から文章番号が“3”のテキストデータが取得されている場合、スクロール位置情報取得部203により、図3(c)の文章番号3に対応する英語のスクロール位置情報“5”と、発音のスクロール位置情報“13”と、日本語のスクロール位置情報“-”が取得される。そして、図8(a)に示すように、表示制御部210により、各テキストデータの先頭文字からスクロール位置情報の1つ前の位置の文字または単語までを、各テキストデータを表示部4の異なる1行に表示させる。スクロール位置情報が“-”の場合は、スクロール位置情報が存在しないという意味であり、表示制御部210は日本語のテキストデータを全て表示部4に表示させる。 Specifically, when the text data whose sentence number is "3" is acquired from the text data of FIG. 3 (a) by the text data acquisition unit 202, the scroll position information acquisition unit 203 obtains the text data of FIG. 3 (c). ), The English scroll position information "5" corresponding to the sentence number 3, the pronunciation scroll position information "13", and the Japanese scroll position information "-" are acquired. Then, as shown in FIG. 8A, the display control unit 210 displays each text data from the first character of each text data to the character or word at the position immediately before the scroll position information in the display unit 4. Display on one line. When the scroll position information is "-", it means that the scroll position information does not exist, and the display control unit 210 causes the display unit 4 to display all the Japanese text data.

その後、入力部3の文字拡大ボタン33の入力に基づき、図8(b)に示すように、表示制御部210は、表示する文字サイズを拡大し、英語のテキストデータと発音のテキストデータとを、表示部4に2行で表示させる。そして、音声制御部207は、英語の音声データの再生を開始し、再生の経過に合わせて、表示制御部210は、図8(c)に示すように、表示部4でスクロール表示させる。 After that, based on the input of the character enlargement button 33 of the input unit 3, as shown in FIG. 8B, the display control unit 210 enlarges the character size to be displayed and combines English text data and pronunciation text data. , Displayed in the display unit 4 in two lines. Then, the voice control unit 207 starts reproducing the English voice data, and the display control unit 210 scrolls the display unit 4 to display as shown in FIG. 8 (c) in accordance with the progress of the reproduction.

さらに、英語の音声データの再生が終了すると、図8(d)に示すように、表示制御部210は、英語のテキストデータと日本語のテキストデータとを拡大した文字サイズで、表示部4に2行で表示させる。そして、音声制御部207は、日本語の音声データの再生を開始し、再生の経過に合わせて、表示制御部210は、図8(e)に示すように、英語のテキストデータのみを、表示部4でスクロール表示させる。 Further, when the reproduction of the English voice data is completed, as shown in FIG. 8D, the display control unit 210 displays the English text data and the Japanese text data in an enlarged character size on the display unit 4. Display in 2 lines. Then, the voice control unit 207 starts reproducing the Japanese voice data, and the display control unit 210 displays only the English text data as shown in FIG. 8 (e) in accordance with the progress of the reproduction. The scroll display is performed in the part 4.

本実施形態では、表示制御部210は、英語の音声データを再生している時は、英語のテキストデータと発音のテキストデータのみを表示部4に表示させているので、ユーザは、英語の音声データを聞きながら、その発音内容を表示部4上で確認することができ、リスニングやスピーキングに特化した学習をより効率的に行うことができる。さらに、日本語の音声データを再生している時は、英語のテキストデータと日本語のテキストデータとを表示しているので、日本語の音声を聞きつつ日本語のテキストデータも見ながら、英語の内容を確認することができるので、英語のライティングに特化した学習をより効率的に行うことができる。さらに、文字サイズも大きいので、ユーザは表示されている内容をより簡単に確認することができる。また、図8に示したように、英語の音声データと日本語の音声データを連続して再生し、リスニングやスピーキングと、ライティングの学習を連続して行うことができるので、ユーザの学習効果がより上がる。 In the present embodiment, when the display control unit 210 is reproducing the English voice data, only the English text data and the pronunciation text data are displayed on the display unit 4, so that the user can use the English voice. While listening to the data, the pronunciation content can be confirmed on the display unit 4, and learning specialized in listening and speaking can be performed more efficiently. Furthermore, when playing Japanese voice data, English text data and Japanese text data are displayed, so while listening to Japanese voice and watching Japanese text data, English Since you can check the contents of, you can more efficiently study English writing. In addition, the large font size allows the user to more easily see what is being displayed. Further, as shown in FIG. 8, since English voice data and Japanese voice data can be continuously played back, listening and speaking, and writing learning can be continuously performed, so that the learning effect of the user can be improved. Go up higher.

(第4の実施形態)
以下、本発明の第4の実施形態について、図面を参照しつつ説明する。なお、下記において上記第1乃至第3の実施形態等と同様である点については説明を省略する。
(Fourth Embodiment)
Hereinafter, a fourth embodiment of the present invention will be described with reference to the drawings. In the following, the same points as those of the first to third embodiments will be omitted.

第4の実施形態は、音声データの再生が終了した時に、各テキストデータのスクロール表示を終了させるように、スクロールする時間を調整するものである。 The fourth embodiment adjusts the scrolling time so that the scroll display of each text data is terminated when the reproduction of the voice data is completed.

第4の実施形態において、スクロール時間情報取得部205は、スクロール時間情報だけでなく、トータル時間情報も取得する。トータル時間情報は、音声データの再生開始から再生終了までの再生時間である。ここでは、トータル時間情報は、図3(c)の設定データの文章番号とデータ種別と速度とに対応付けて記憶している。 In the fourth embodiment, the scroll time information acquisition unit 205 acquires not only the scroll time information but also the total time information. The total time information is the playback time from the start of playback of the audio data to the end of playback. Here, the total time information is stored in association with the sentence number, the data type, and the speed of the setting data in FIG. 3 (c).

さらに、スクロール時間情報取得部205は、スクロール位置情報取得部203により取得されたスクロール位置情報の個数をカウントし、その個数に1を加算して、表示する画面数を算出する。ここで、スクロール位置情報が1個存在する場合は、スクロール表示する画面が1つと、スクロール表示する前の画面が1つの合計2つ存在することを意味しており、つまり、スクロール位置情報の個数に1を加算すれば、表示する画面数を算出することができる。 Further, the scroll time information acquisition unit 205 counts the number of scroll position information acquired by the scroll position information acquisition unit 203, adds 1 to the number, and calculates the number of screens to be displayed. Here, when there is one scroll position information, it means that there is one screen for scroll display and one screen before scroll display, that is, the number of scroll position information. By adding 1 to, the number of screens to be displayed can be calculated.

それから、スクロール時間情報取得部205は、トータル時間情報の時間を、表示する画面数で除算した値を算出する。この除算した値を、スクロール位置情報の個数に合わせて加算し、新たなスクロール時間情報とする。例えば、スクロール位置情報が2つあり、トータル時間情報の時間を画面数で除算した値が2であれば、1つ目のスクロール時間情報は除算した値の“2”、2つ目のスクロール位置情報は除算した値の“2”に“2”を加算した“4”とする。これは、つまり、音声データの再生開始から2秒後に1回目のスクロール表示を行い、再生開始から4秒後に2回目のスクロール表示を行うことを意味している。 Then, the scroll time information acquisition unit 205 calculates a value obtained by dividing the time of the total time information by the number of screens to be displayed. This divided value is added according to the number of scroll position information to obtain new scroll time information. For example, if there are two scroll position information and the value obtained by dividing the time of the total time information by the number of screens is 2, the first scroll time information is "2" of the divided value, and the second scroll position. The information is "4", which is obtained by adding "2" to the divided value "2". This means that the first scroll display is performed 2 seconds after the start of playback of the audio data, and the second scroll display is performed 4 seconds after the start of playback.

さらに、上記第1乃至第3の実施形態と同様に、スクロール判断部209は、音声データの再生開始からの経過時間が、スクロール時間情報取得部205により新たに算出されたスクロール時間情報の時間に到達したかどうか判断し、到達したと判断した場合に、表示制御部210は表示部4にスクロール表示させる。これにより、音声データの再生が終了するまでに、テキストデータのスクロール表示は終了することができる。 Further, as in the first to third embodiments, the scroll determination unit 209 sets the elapsed time from the start of reproduction of the audio data to the time of the scroll time information newly calculated by the scroll time information acquisition unit 205. It is determined whether or not the data has been reached, and if it is determined that the data has been reached, the display control unit 210 causes the display unit 4 to scroll and display. As a result, the scroll display of the text data can be finished by the time the playback of the voice data is finished.

具体的には、テキストデータ取得部202により、図3(a)のテキストデータ中から文章番号が“3”のテキストデータが取得され、図3(d)の日本語の再生速度情報に“1”が記憶されている場合で、日本語の音声データを再生している時に、英語と発音のテキストデータをスクロールする時間について説明する。 Specifically, the text data acquisition unit 202 acquires text data having a sentence number of "3" from the text data of FIG. 3 (a), and "1" is added to the Japanese playback speed information of FIG. 3 (d). This section describes the time for scrolling English and pronunciation text data when "" is stored and Japanese audio data is being played.

スクロール時間情報取得部205は、図3(c)の文章番号“3”、データ種別が日本語、再生速度情報“1”に対応する速度1のトータル時間情報の“2”を取得する。さらに、スクロール時間情報取得部205は、スクロール位置情報の個数をカウントするが、スクロール位置情報取得部203により取得された英語に対応するスクロール位置情報は“5”しかないので、スクロール位置情報の個数として“1”を取得する。また、発音に対応するスクロール位置情報の個数についても、同様にカウントし、“1”を取得する。さらに、スクロール時間情報取得部205は、トータル時間情報の“2”を、スクロール位置情報の個数“1”に1を加算した“2”で除算し、“1”を算出し、この“1”を新たなスクロール時間情報として取得する。 The scroll time information acquisition unit 205 acquires the total time information "2" of the speed 1 corresponding to the sentence number "3" in FIG. 3C, the data type is Japanese, and the reproduction speed information "1". Further, the scroll time information acquisition unit 205 counts the number of scroll position information, but since the scroll position information corresponding to English acquired by the scroll position information acquisition unit 203 is only "5", the number of scroll position information. As, "1" is acquired. Further, the number of scroll position information corresponding to the pronunciation is also counted in the same manner, and "1" is acquired. Further, the scroll time information acquisition unit 205 divides the total time information "2" by "2" obtained by adding 1 to the number of scroll position information "1" to calculate "1", and this "1". Is acquired as new scroll time information.

そして、スクロール判断部209により、日本語の音声データの再生開始からの経過時間が、新たに設定されたスクロール時間情報の“1”が示す1秒に到達したと判断した場合、表示制御部210は、英語のテキストデータを表示部4でスクロール表示させる。発音のテキストデータも同様の処理を行い、日本語の音声データの再生開始からの経過時間が1秒に到達したときに、表示制御部210は、発音のテキストデータを表示部4でスクロール表示させる。 Then, when the scroll determination unit 209 determines that the elapsed time from the start of reproduction of the Japanese voice data has reached 1 second indicated by "1" of the newly set scroll time information, the display control unit 210 Scrolls the English text data on the display unit 4. The same processing is performed for the pronunciation text data, and when the elapsed time from the start of playback of the Japanese voice data reaches 1 second, the display control unit 210 scrolls and displays the pronunciation text data on the display unit 4. ..

つまり、日本語の音声データの再生開始から終了までの2秒の間に、2つの画面を1秒ずつ表示し、全てのテキストデータの表示を完了することができる。これにより、音声データの再生が終了した時点で、全てのテキストデータの内容が表示されるので、音声の再生終了後すぐに、次の対象となる音声データの学習に進むことができ、ユーザはより短い時間で効率良く学習を進めることができる。 That is, during the two seconds from the start to the end of the reproduction of the Japanese voice data, the two screens can be displayed for one second each, and the display of all the text data can be completed. As a result, when the playback of the voice data is completed, the contents of all the text data are displayed, so that the user can proceed to the learning of the next target voice data immediately after the playback of the voice is completed. Learning can proceed efficiently in a shorter time.

(第5の実施形態)
以下、本発明の第5の実施形態について、図面を参照しつつ説明する。なお、下記において上記第1乃至第4の実施形態等と同様である点については説明を省略する。
(Fifth Embodiment)
Hereinafter, a fifth embodiment of the present invention will be described with reference to the drawings. In the following, the same points as those of the first to fourth embodiments will be omitted.

第5の実施形態は、上記第1乃至第4の実施形態で説明したような1画面ずつ切り替えて表示するスクロールではなく、文字または単語を、1文字ずつ、または、1単語ずつ移動させるスムーススクロールに関する実施形態である。 The fifth embodiment is not a scroll that switches and displays one screen at a time as described in the first to fourth embodiments, but a smooth scroll that moves a character or a word character by character or word by word. Is an embodiment of the above.

スムーススクロールする場合は、表示制御部210は、図3(c)のスクロール位置情報とスクロール時間情報とに基づき、音声データの再生開始からスクロール時間情報の時間が経過するまでに、スクロール位置情報の位置の文字または単語を、表示部4のいずれかの位置に表示させるように、表示部4に既に表示されている文字または単語を、表示部4の左方向に徐々に移動させスクロール表示させる。 In the case of smooth scrolling, the display control unit 210 determines the scroll position information from the start of playback of the voice data to the elapse of the scroll time information time based on the scroll position information and the scroll time information of FIG. 3C. The characters or words already displayed on the display unit 4 are gradually moved to the left of the display unit 4 and scrolled so that the characters or words at the positions are displayed at any position of the display unit 4.

具体的には、表示制御部210は、例えば、英語のテキストデータにおいて、スクロール位置情報が“5”、スクロール時間情報が“2”の場合、音声データの再生開始からスクロール時間情報の2秒経過するまでに、スクロール位置情報の5単語目が表示部4の先頭に表示させるように、テキストデータを左方向に表示部4でスムーススクロールさせる。つまり、5単語目より前の既に表示している4つの単語について、0.5秒経過するごとに1単語ずつ左方向に動かせば、2秒後には5単語目を表示部4の先頭に表示し、スムーススクロールを実現できる。 Specifically, for example, in English text data, when the scroll position information is "5" and the scroll time information is "2", the display control unit 210 has elapsed 2 seconds of the scroll time information from the start of playback of the audio data. By then, the text data is smoothly scrolled to the left on the display unit 4 so that the fifth word of the scroll position information is displayed at the beginning of the display unit 4. In other words, for the four words that have already been displayed before the fifth word, if you move one word to the left every 0.5 seconds, the fifth word will be displayed at the beginning of the display unit 4 two seconds later. And smooth scrolling can be realized.

このようなスムーススクロールを実現するには、スクロール時間情報取得部205は、スクロール時間情報の時間を、現在表示している単語数で除算し、除算した数値を、現在表示している各単語を左方向に動かすスクロール時間情報として取得する。さらに、スクロール判断部209により、音声データの再生開始からの経過時間がスクロール時間情報に到達したと判断されたときに、表示制御部210は、現在、表示部4の先頭位置に表示している単語の次の単語以降を、表示部4の先頭から表示させ、スムーススクロールさせることができる。 In order to realize such smooth scrolling, the scroll time information acquisition unit 205 divides the time of the scroll time information by the number of words currently displayed, and divides the divided numerical value into each word currently displayed. Obtained as scroll time information to move to the left. Further, when the scroll determination unit 209 determines that the elapsed time from the start of reproduction of the audio data has reached the scroll time information, the display control unit 210 is currently displaying at the head position of the display unit 4. The word after the word can be displayed from the beginning of the display unit 4 and smoothly scrolled.

発音と日本語のテキストデータについても、同様に、スクロール位置情報とスクロール時間情報に基づき、スムーススクロールを行うことができる。また、英語のテキストデータについても、テキストデータ内の文字数をカウントし、発音と日本語のテキストデータと同様に、1文字ずつ移動させるスムーススクロールを行っても良い。さらに、文字や単語ではなく、表示部4のドット毎に移動させるスムーススクロールを行っても良い。この場合は、表示制御部210は、表示部4の先頭の文字のドットから、スクロール位置情報が示す文字の最後のドットまでを、再生開始からの経過時間がスクロール時間に到達するまでに、最後のドットが表示部4に表示される速度で、左方向に徐々に表示部4で移動させ表示させればよい。これにより、スクロール時間に到達するまでに、スクロール位置情報が示す文字が表示部4に表示されるようにスムーススクロールを行うことができる。 Similarly, for pronunciation and Japanese text data, smooth scrolling can be performed based on the scroll position information and the scroll time information. Further, for English text data, the number of characters in the text data may be counted, and smooth scrolling may be performed to move characters one by one in the same manner as pronunciation and Japanese text data. Further, smooth scrolling may be performed to move each dot of the display unit 4 instead of a character or a word. In this case, the display control unit 210 changes the time from the dot of the first character of the display unit 4 to the last dot of the character indicated by the scroll position information until the elapsed time from the start of playback reaches the scroll time. At the speed at which the dots are displayed on the display unit 4, the dots may be gradually moved to the left on the display unit 4 to be displayed. As a result, smooth scrolling can be performed so that the characters indicated by the scroll position information are displayed on the display unit 4 by the time the scroll time is reached.

図9は、本実施形態におけるスムーススクロールするときの表示部4に表示されるUI画面の一例を示す図であり、図9に基づいて詳細を説明する。 FIG. 9 is a diagram showing an example of a UI screen displayed on the display unit 4 at the time of smooth scrolling in the present embodiment, and details will be described with reference to FIG.

具体的には、図9(a)に示すように、表示制御部210は、文章番号“2”に対応する各テキストデータを、表示部4の異なる行にそれぞれ表示させ、音声制御部207は、英語の音声データを音声出力部6から再生開始させる。 Specifically, as shown in FIG. 9A, the display control unit 210 displays each text data corresponding to the sentence number “2” on different lines of the display unit 4, and the voice control unit 207 displays the text data on different lines. , The English voice data is started to be played back from the voice output unit 6.

さらに、スクロール判断部209により、再生開始からの経過時間がスクロール時間情報の時間に到達したと判断されたときに、表示制御部210は、図9(b)で示すように、表示部4に表示させる。すなわち、図9(a)で表示していた英語のテキストデータを左方向に1単語分スクロールする。具体的には、表示制御部210は、英語のテキストデータの右端の単語“baggage”の次の単語“until”を表示部4の右端に表示させ、2単語目の“you”を表示部4の先頭に表示させる。発音のテキストデータと、日本語のテキストデータについても同様に、各文字を左方向にスクロールする。 Further, when the scroll determination unit 209 determines that the elapsed time from the start of reproduction has reached the time of the scroll time information, the display control unit 210 displays the display unit 4 as shown in FIG. 9B. Display. That is, the English text data displayed in FIG. 9A is scrolled to the left by one word. Specifically, the display control unit 210 displays the word "until" next to the word "baggage" at the right end of the English text data at the right end of the display unit 4, and displays the second word "you" in the display unit 4. Display at the beginning of. Similarly for pronunciation text data and Japanese text data, scroll each character to the left.

さらに、同様に、音声データの再生の経過に合わせて、表示制御部210は、図9(c)と図9(d)で示すように、各テキストデータの各単語または各文字を左方向に表示部4でスクロール表示させる。 Further, similarly, as the reproduction of the voice data progresses, the display control unit 210 shifts each word or each character of each text data to the left as shown in FIGS. 9 (c) and 9 (d). The display unit 4 is used for scrolling display.

ここで、スクロール判断部209は、表示部4の右端に表示している単語がテキストデータ中の最後の文字であるかどうかを判断し、最後の文字が表示されていると判断した場合は、そのテキストデータについては、表示制御部210にスクロール表示を指示しない。 Here, the scroll determination unit 209 determines whether or not the word displayed at the right end of the display unit 4 is the last character in the text data, and if it is determined that the last character is displayed, the scroll determination unit 209 determines. The display control unit 210 is not instructed to scroll the text data.

具体的には、例えば、図9(e)に示すように、音声データの再生は継続されている状態であっても、スクロールを行わず、表示部4に表示している内容を継続して表示する。これにより、各行において空白部分を少なくし、より多くの文字または単語を表示することができるので、ユーザはより多くの情報を得ることができる。 Specifically, for example, as shown in FIG. 9 (e), even if the audio data is continuously reproduced, the content displayed on the display unit 4 is continuously displayed without scrolling. indicate. This allows the user to get more information by reducing the space on each line and displaying more characters or words.

ここで、図3(a)の文章番号が“3”の文章データを図8(a)のように表示した後に、スムーススクロールする場合についてさらに説明する。図8(a)で示すように、日本語のテキストデータは短く、最初から全ての文字が表示されているので、左方向へのスクロールは行わず、英語のテキストデータと発音のテキストデータのみスムーススクロールを行う。つまり、スクロール判断部209により、各テキストデータ中の最後の文字が表示されているかどうかを、テキストデータ毎に判断しているので、他のテキストデータがスクロールしていても、既に最後の文字が表示されているテキストデータはスクロールしない。すなわち、各テキストデータにおいて、より多くの文字または単語を表示することができる。これにより、ユーザは、それぞれのテキストデータにおいて、より多くの情報を得ることができる。 Here, a case where smooth scrolling is performed after displaying the sentence data having the sentence number “3” in FIG. 3A as shown in FIG. 8A will be further described. As shown in FIG. 8 (a), the Japanese text data is short and all the characters are displayed from the beginning, so scrolling to the left is not performed and only the English text data and the pronunciation text data are smooth. Scroll. That is, since the scroll determination unit 209 determines whether or not the last character in each text data is displayed for each text data, even if other text data is scrolled, the last character is already displayed. The displayed text data does not scroll. That is, more characters or words can be displayed in each text data. As a result, the user can obtain more information in each text data.

(第6の実施形態)
以下、本発明の第6の実施形態について、図面を参照しつつ説明する。なお、下記において上記第1乃至第5の実施形態等と同様である点については説明を省略する。
(Sixth Embodiment)
Hereinafter, the sixth embodiment of the present invention will be described with reference to the drawings. In the following, the same points as those of the first to fifth embodiments will be omitted.

第6の実施形態は、音声データで再生されている文字または単語が、所定位置に表示されるようにスムーススクロールするものである。 The sixth embodiment smoothly scrolls the characters or words reproduced in the voice data so that they are displayed at predetermined positions.

図10は、本実施形態におけるスムーススクロールするときの表示部4に表示されるUI画面の一例を示す図であり、図10に基づいて詳細を説明する。 FIG. 10 is a diagram showing an example of a UI screen displayed on the display unit 4 at the time of smooth scrolling in the present embodiment, and details will be described with reference to FIG. 10.

本実施形態では、各テキストデータ内の文字または単語が、音声再生開始から何秒後に再生されるかというスクロール時間情報を、各文字または各単語に対応して、図3(c)の設定データに記憶されているものとして説明する。 In the present embodiment, the scroll time information indicating how many seconds after the start of voice reproduction the character or word in each text data is reproduced is the setting data of FIG. 3 (c) corresponding to each character or word. It is explained as being remembered in.

具体的には、表示制御部210は、図10(a)に示すように、表示部4の略中央部の3行分を囲う表示枠を表示させる。この表示枠は、音声データで再生されている文字または単語が、表示部4のどこに表示されるかを示すためのものである。 Specifically, as shown in FIG. 10A, the display control unit 210 displays a display frame surrounding three lines in a substantially central portion of the display unit 4. This display frame is for indicating where in the display unit 4 the character or word reproduced in the voice data is displayed.

さらに、表示制御部210は、各テキストデータの先頭の文字または単語以降を、表示部4の各行の表示枠の位置から表示させる。そして、音声制御部207は、英語の音声データを音声出力部6から再生開始させる。 Further, the display control unit 210 displays the characters or words after the first character of each text data from the position of the display frame of each line of the display unit 4. Then, the voice control unit 207 starts playback of English voice data from the voice output unit 6.

それから、スクロール判断部209により、音声データの再生開始からの経過時間が、スクロール時間情報の時間に到達したと判断されたときに、表示制御部210は、表示部4の表示枠の位置に、そのスクロール時間情報に対応する単語を表示させ、英語のテキストデータを表示部4の左方向にスムーススクロールさせる。具体的には、図10(b)から図10(d)に示すように、英語の音声データの再生の経過に合わせて、各テキストデータを各行でスムーススクロールする。 Then, when the scroll determination unit 209 determines that the elapsed time from the start of playback of the audio data has reached the time of the scroll time information, the display control unit 210 moves the display control unit 210 to the position of the display frame of the display unit 4. The word corresponding to the scroll time information is displayed, and the English text data is smoothly scrolled to the left of the display unit 4. Specifically, as shown in FIGS. 10 (b) to 10 (d), each text data is smoothly scrolled in each line according to the progress of reproduction of English voice data.

さらに、スクロール判断部209は、表示枠の位置に英語のテキストデータの最後の単語が表示されているかどうかを判断する。スクロール判断部209により、表示枠の位置に英語のテキストデータの最後の単語が表示されていると判断された場合は、表示制御部210は表示部4でスムーススクロールを行わせず、現在表示している英語のテキストデータの表示内容を表示部4で継続して表示させる。具体的には、図10(e)に示すように、英語のテキストデータのスムーススクロールを止めて、英語のテキストデータの最後の単語の一部が表示枠内に表示された状態を継続する。 Further, the scroll determination unit 209 determines whether or not the last word of the English text data is displayed at the position of the display frame. When the scroll determination unit 209 determines that the last word of the English text data is displayed at the position of the display frame, the display control unit 210 does not perform smooth scrolling on the display unit 4 and currently displays it. The display content of the English text data is continuously displayed on the display unit 4. Specifically, as shown in FIG. 10 (e), the smooth scrolling of the English text data is stopped, and the state in which a part of the last word of the English text data is displayed in the display frame is continued.

発音のテキストデータについても、発音の文字が英語の音声データの再生開始から何秒後に再生されるかというスクロール時間情報を各文字に対応して記憶しているので、英語のテキストデータと同様に、スムーススクロールすることができる。ここで、発音のテキストデータの全ての文字に対してスクロール時間情報を備えていなくても、いくつかの文字に対するスクロール時間情報を備えていれば、そのスクロール時間情報を備えている文字と文字の間のテキストデータを、スクロール時間情報の時間間隔内にスムーススクロールすればよい。 As for the pronunciation text data, since the scroll time information indicating how many seconds after the pronunciation character is played from the start of playback of the English voice data is stored corresponding to each character, it is the same as the English text data. , Can be scrolled smoothly. Here, even if the scroll time information is not provided for all the characters in the text data of the pronunciation, if the scroll time information for some characters is provided, the characters and characters having the scroll time information are provided. The text data in between may be smoothly scrolled within the time interval of the scroll time information.

日本語のテキストデータについては、英語の音声データを再生しているときには、日本語のテキストデータは一定速度でスムーススクロールするようにすればよい。さらに、日本語のテキストデータの最後の文字が、表示部4に表示された時点でスクロールを止めても構わない。また、日本語の音声データを再生しているときは、日本語のテキストデータに対応するスクロール時間情報に基づき、英語のテキストデータと同様に、スムーススクロールすればよい。 For Japanese text data, when playing English audio data, the Japanese text data may be scrolled smoothly at a constant speed. Further, scrolling may be stopped when the last character of the Japanese text data is displayed on the display unit 4. Further, when the Japanese audio data is being reproduced, smooth scrolling may be performed in the same manner as the English text data based on the scroll time information corresponding to the Japanese text data.

また、表示枠の位置については、ユーザが変更可能にしても良い。さらに、表示枠を表示せずに、表示枠の位置に表示される単語または文字を、他の文字や単語とは異なる表示形態で表示しても良く、また、点滅表示を行うようにしても構わない。 Further, the position of the display frame may be changed by the user. Further, the word or character displayed at the position of the display frame may be displayed in a display form different from other characters or words without displaying the display frame, or the blinking display may be performed. I do not care.

このように、音声データで再生されている文字や単語を、表示枠内に表示するようにスクロールすることにより、ユーザは表示枠内を見ていれば、目線をあまり動かすことなく、より簡単に音声データの内容を確認することができる。 In this way, by scrolling the characters and words being played back in the voice data so that they are displayed in the display frame, the user can easily look inside the display frame without moving his / her eyes too much. You can check the contents of the voice data.

1 表示装置、2 制御部、3 入力部、4 表示部、5 記憶部、6 音声出力部、610 スピーカ、620 イヤホン、31 電源ボタン、32a 音量大ボタン、32b 音量小ボタン、33 文字拡大ボタン、34 メニューボタン、35 決定ボタン、36 十字キー、201 文章番号取得部、202 テキストデータ取得部、203 スクロール位置情報取得部、204 設定音声速度情報取得部、205 スクロール時間情報取得部、206 音声データ取得部、207 音声制御部、208 音声再生経過時間取得部、209 スクロール判断部、210 表示制御部、211 音声終了判定部 1 Display device, 2 Control unit, 3 Input unit, 4 Display unit, 5 Storage unit, 6 Audio output unit, 610 speaker, 620 earphones, 31 power button, 32a volume up button, 32b volume down button, 33 character enlargement button, 34 Menu button, 35 Enter button, 36 Cross key, 201 Sentence number acquisition unit, 202 Text data acquisition unit, 203 Scroll position information acquisition unit, 204 Setting voice speed information acquisition unit, 205 Scroll time information acquisition unit, 206 Voice data acquisition unit Unit, 207 voice control unit, 208 voice playback elapsed time acquisition unit, 209 scroll judgment unit, 210 display control unit, 211 voice end judgment unit

Claims (9)

表示部と、
音声データを出力する音声出力部と、
前記表示部に、第1言語のテキストデータと、前記第1言語のテキストデータの発音を文字で表した発音のテキストデータと、前記第1言語のテキストデータを第2言語で表した第2言語のテキストデータとの前記各テキストデータを異なる1行ごとに表示させる表示制御部と、
前記各テキストデータのいずれかに対応する前記音声データを前記音声出力部から再生させる音声制御部と、を備え、
前記表示制御部は、前記音声制御部による前記音声データの再生の経過に合わせて、前記各テキストデータを前記表示部の各行でスクロール表示させる
ことを特徴とする表示装置。
Display and
An audio output unit that outputs audio data, and
On the display unit, the text data of the first language, the text data of the pronunciation in which the pronunciation of the text data of the first language is represented by characters, and the text data of the first language are represented in the second language in the second language. A display control unit that displays each of the above-mentioned text data and the text data of the above in different lines.
A voice control unit for reproducing the voice data corresponding to any of the text data from the voice output unit is provided.
The display control unit is a display device characterized in that each text data is scrolled and displayed on each line of the display unit in accordance with the progress of reproduction of the voice data by the voice control unit.
前記表示制御部は、
前記表示部の所定位置に表示される前記テキストデータ中の文字または単語が、前記音声制御部により音声再生されるタイミングで、前記テキストデータを前記表示部の各行でスクロール表示させる
ことを特徴とする請求項1に記載の表示装置。
The display control unit
Characters or words in the text data displayed at a predetermined position on the display unit are scrolled and displayed on each line of the display unit at the timing when the voice is reproduced by the voice control unit. The display device according to claim 1.
前記表示制御部は、
前記音声制御部により前記第1言語のテキストデータに対応する前記第1言語の音声データを前記音声出力部から出力させている場合は、前記第1言語のテキストデータと、前記発音のテキストデータとを前記表示部にスクロール表示させ、
前記音声制御部により前記第2言語のテキストデータに対応する前記第2言語の音声データを前記音声出力部から出力させている場合は、前記第2言語のテキストデータを前記表示部にスクロール表示させること
を特徴とする請求項1または2に記載の表示装置。
The display control unit
When the voice control unit outputs the voice data of the first language corresponding to the text data of the first language from the voice output unit, the text data of the first language and the text data of the pronunciation are used. Is scrolled to the display unit.
When the voice control unit outputs the voice data of the second language corresponding to the text data of the second language from the voice output unit, the text data of the second language is scrolled and displayed on the display unit. The display device according to claim 1 or 2, wherein the display device is characterized in that.
前記各テキストデータをスクロールする時間情報を示すスクロール時間情報と、前記各テキストデータをスクロールする位置情報を示すスクロール位置情報とを取得する取得部をさらに備え、
前記表示制御部は、前記音声制御部による前記音声データの再生開始からの経過時間が、前記スクロール時間情報の時間に到達したときに、前記スクロール位置情報が示す前記テキストデータ上の位置以降の文字または単語を前記表示部の所定位置から表示させる
ことを特徴とする請求項1乃至3のいずれかに記載の表示装置。
Further, an acquisition unit for acquiring scroll time information indicating time information for scrolling each text data and scroll position information indicating position information for scrolling each text data is provided.
When the elapsed time from the start of reproduction of the voice data by the voice control unit reaches the time of the scroll time information, the display control unit has characters after the position on the text data indicated by the scroll position information. The display device according to any one of claims 1 to 3, wherein the word is displayed from a predetermined position on the display unit.
前記表示制御部は、
前記音声制御部により前記第1言語のテキストデータに対応する前記音声データの再生が終了した場合、
前記各テキストデータの先頭の文字または単語から前記表示部の異なる1行に表示させ、
前記音声制御部は、
前記第2言語のテキストデータに対応する前記音声データを前記音声出力部に出力させる
ことを特徴とする請求項1乃至4のいずれかに記載の表示装置。
The display control unit
When the voice control unit finishes playing the voice data corresponding to the text data of the first language.
The first character or word of each text data is displayed on a different line of the display unit.
The voice control unit
The display device according to any one of claims 1 to 4, wherein the voice data corresponding to the text data in the second language is output to the voice output unit.
前記表示制御部は、
前記テキストデータの最後の文字または単語を、前記表示部のいずれかの位置に表示させたときに、前記表示部のスクロール表示を止める
ことを特徴とする請求項1乃至5のいずれかに記載の表示装置。
The display control unit
The invention according to any one of claims 1 to 5, wherein when the last character or word of the text data is displayed at any position of the display unit, the scroll display of the display unit is stopped. Display device.
前記表示制御部は、
前記音声制御部による前記音声データの再生が終了するまでに、全ての前記テキストデータのスクロール表示が終了するタイミングで、前記表示部にスクロール表示させる
ことを特徴とする請求項1乃至6のいずれかに記載の表示装置。
The display control unit
One of claims 1 to 6, wherein the display unit is scrolled at the timing when the scroll display of all the text data is completed by the time the voice control unit finishes reproducing the voice data. The display device described in.
第1言語のテキストデータと、前記第1言語のテキストデータの発音を文字で表した発音のテキストデータと、前記第1言語のテキストデータを第2言語で表した第2言語のテキストデータとの前記各テキストデータを表示部の異なる1行に表示させ、
前記テキストデータのいずれかに対応する音声データを音声出力部から再生させ、
前記音声データの再生の経過に合わせて、前記各テキストデータを前記表示部の各行でスクロール表示させる
ことを特徴とする表示制御方法。
The text data of the first language, the text data of the pronunciation representing the pronunciation of the text data of the first language in characters, and the text data of the second language expressing the text data of the first language in the second language. Each of the above text data is displayed on a different line of the display unit, and the text data is displayed on one line.
The voice data corresponding to any of the above text data is reproduced from the voice output unit, and the voice data is reproduced.
A display control method characterized in that each text data is scrolled and displayed on each line of the display unit in accordance with the progress of reproduction of the voice data.
第1言語のテキストデータと、前記第1言語のテキストデータの発音を文字で表した発音のテキストデータと、前記第1言語のテキストデータを第2言語で表した第2言語のテキストデータとの前記各テキストデータを表示部の異なる1行に表示させる表示制御部、
前記各テキストデータのいずれかに対応する音声データを音声出力部から再生させる音声制御部、としてコンピュータを機能させ、
前記表示制御部は、
前記音声制御部による前記音声データの再生の経過に合わせて、前記各テキストデータを前記表示部の各行でスクロール表示させる
表示制御プログラム。
The text data of the first language, the text data of the pronunciation representing the pronunciation of the text data of the first language in characters, and the text data of the second language expressing the text data of the first language in the second language. A display control unit that displays each of the text data on a different line of the display unit,
The computer is made to function as a voice control unit that reproduces voice data corresponding to any of the above text data from the voice output unit.
The display control unit
A display control program that scrolls and displays each text data on each line of the display unit in accordance with the progress of reproduction of the voice data by the voice control unit.
JP2018145962A 2018-08-02 2018-08-02 Display device, display control method and display control program. Active JP7037451B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018145962A JP7037451B2 (en) 2018-08-02 2018-08-02 Display device, display control method and display control program.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145962A JP7037451B2 (en) 2018-08-02 2018-08-02 Display device, display control method and display control program.

Publications (2)

Publication Number Publication Date
JP2020020993A JP2020020993A (en) 2020-02-06
JP7037451B2 true JP7037451B2 (en) 2022-03-16

Family

ID=69589730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145962A Active JP7037451B2 (en) 2018-08-02 2018-08-02 Display device, display control method and display control program.

Country Status (1)

Country Link
JP (1) JP7037451B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003157091A (en) 2001-11-19 2003-05-30 Sony Corp Information processor, control method for information processor, control program for information processor, recording medium having control program for information processor recorded thereon, data recording method for information recorder and recording medium having data of information recorder recorded thereon
JP3162269U (en) 2010-06-14 2010-08-26 明 岡光 Pronunciation assistance information display device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009036885A (en) * 2007-07-31 2009-02-19 Akihiko Igawa Information processing system and information processing method for repeated learning
JP2013041112A (en) * 2011-08-16 2013-02-28 Educhime Inc Learning apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003157091A (en) 2001-11-19 2003-05-30 Sony Corp Information processor, control method for information processor, control program for information processor, recording medium having control program for information processor recorded thereon, data recording method for information recorder and recording medium having data of information recorder recorded thereon
JP3162269U (en) 2010-06-14 2010-08-26 明 岡光 Pronunciation assistance information display device

Also Published As

Publication number Publication date
JP2020020993A (en) 2020-02-06

Similar Documents

Publication Publication Date Title
US6882975B2 (en) Method, storage medium, apparatus, server and program for providing an electronic chat
WO2014121233A1 (en) Selective synchronous presentation
JP2005512231A (en) How to express emotions in text messages
JP5842452B2 (en) Speech learning apparatus and speech learning program
JP2022533310A (en) A system and method for simultaneously expressing content in a target language in two forms and improving listening comprehension of the target language
JP6613560B2 (en) Electronic device, learning support method and program
JP2013161205A (en) Information processing device, information processing method and program
Park et al. Enhanced auditory feedback for Korean touch screen keyboards
JP6841309B2 (en) Electronics and programs
JP7037451B2 (en) Display device, display control method and display control program.
JP7135372B2 (en) LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM
JP6365520B2 (en) Audio output device, audio output method, and program
JP2002156897A (en) Pronunciation learning system
JP7013702B2 (en) Learning support device, learning support method, and program
JP2022051500A (en) Related information provision method and system
KR20230062650A (en) Cartoon reproduction system, its method, its computer software program, and cartoon data used therein
KR20160121217A (en) Language learning system using an image-based pop-up image
JP7298958B1 (en) Foreign language verb learning support device and foreign language verb learning support program
JP2001006295A (en) Information reproducing device and method therefor, as well as information providing medium
JP6535999B2 (en) Language learning apparatus, language learning method and program
JP2004258231A (en) Device and method of assisting language learning
JP5057764B2 (en) Speech synthesis apparatus and speech synthesis program
JP2007219219A (en) Electronic device for language learning and creation method of sentence list for learning
JP2022024453A (en) Learning support device, learning support system, method for supporting learning, and program
JP2017194546A (en) Electronic equipment, and control method and control program thereof

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200716

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220304

R150 Certificate of patent or registration of utility model

Ref document number: 7037451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150