JP2006163269A - Language learning apparatus - Google Patents
Language learning apparatus Download PDFInfo
- Publication number
- JP2006163269A JP2006163269A JP2004358336A JP2004358336A JP2006163269A JP 2006163269 A JP2006163269 A JP 2006163269A JP 2004358336 A JP2004358336 A JP 2004358336A JP 2004358336 A JP2004358336 A JP 2004358336A JP 2006163269 A JP2006163269 A JP 2006163269A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- video
- speaker
- model
- mouth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
本発明は、話者の口の形を撮影するためのカメラを有する語学学習装置に関する。 The present invention relates to a language learning apparatus having a camera for photographing a mouth shape of a speaker.
外国語あるいは母国語の語学学習、特に、発音あるいは発話の独習においては、CD(Compact Disk)等の記録媒体に記録された模範音声を再生し、その模範音声の真似をして発音あるいは発話するという学習方法が広く用いられている。これは模範音声の真似をすることで正しい発音を身につけることを目的とするものである。特に外国語の学習においては、母国語には無い発音を習得しなければならない場合がある。例えば、英語の「th」の発音は日本語には無いものである。このような母国語に無い発音を習得することは難しく、例えば英語を母国語とする者が「th」と発音した音声を聞いても、初めて英語を学習する日本人はその発音を真似しようにも発音方法がまったく分からないという問題がある。 In language learning of a foreign language or native language, especially in self-study of pronunciation or utterance, the model voice recorded on a recording medium such as a CD (Compact Disk) is played, and the model voice is imitated to pronounce or speak. The learning method is widely used. The purpose of this is to acquire correct pronunciation by imitating model voices. Especially when learning foreign languages, you may have to learn pronunciation that is not in your native language. For example, the pronunciation of “th” in English is not in Japanese. It is difficult to learn such pronunciations that are not in their native language. For example, even if a person who speaks English as a native language listens to the sound pronounced “th”, Japanese who are learning English for the first time try to imitate the pronunciation. There is also a problem that the pronunciation method is completely unknown.
母国語に無い発音を学習するためには、生徒(学習者)に対し模範音声を音で聞かせるだけでなく、模範音声を発声するときの口の形や動き等を映像で示し視覚的に確認させる必要がある。すなわち、まず第1には模範となる話者(先生)の口の形や動き等を映像で示す必要がある。学習者である話者(生徒)は先生の口の形や動き等を映像で確認し、その口の形や動き等を真似て発音することにより、より正確な発音方法を習得することができるものである。
ここで、学習をより効率的に進めるためには生徒自身の口の形や動き等を映像で示すことが有効である。生徒が、先生の音声を聴覚的に真似て発音することに加え、自分の口の形や動き等を視覚的に確認しながら先生の口の形や動きを真似ることにより、より正確な発音方法を習得することができるものである。
In order to learn pronunciation that is not in the native language, not only the student (learner) can hear the model voice, but also the video shows the shape and movement of the mouth when the model voice is uttered. Need to be confirmed. That is, first of all, it is necessary to show the shape and movement of the mouth of a model speaker (teacher) as a model. Speakers (students) who are learners can learn a more accurate pronunciation method by checking the mouth shape and movement of the teacher on the video and imitating the mouth shape and movement. Is.
Here, in order to advance learning more efficiently, it is effective to show the mouth shape and movement of the student himself / herself with images. In addition to the auditory imitation of the teacher's voice, the student can imitate the teacher's mouth shape and movement while visually confirming the shape and movement of his / her mouth. Can learn.
このように話者の口の形や動き等の映像を提示あるいは記録する技術としては、例えば非特許文献1および特許文献1〜2に記載の技術がある。非特許文献1は、話者の口を鏡に投影し、話者から見えるようにする技術を開示している。特許文献1は、音声認識システムにおいて、話者の口元の領域を横方向からビデオカメラで撮影し、唇の形状を認識することで発話された音声の音声認識精度を向上させる技術を開示している。特許文献2は、音声認識システムにおいて、発話者の調音器官(口の中および口の周辺)にあらかじめ特定のパターンを持った光を照射し、そのパターンの変化をカメラで読み取ることで調音器官の動作を認識し、音声認識制度を向上させる技術を開示している。
非特許文献1に記載の技術においては、話者(生徒)の口の映像は鏡に映されるものであるため、自分の口の形や動きを後からゆっくりと確認することができないという問題があった。さらに、生徒は先生の口の形や動きと自分の口の形や動きとを比較することができないため、自分の発音方法が本当に正しいのか確認することが困難であるという問題もあった。また、特許文献1、2に記載の技術においては、話者の口の動きはカメラで撮影され記録されるものの、撮影された映像は音声認識の認識率を向上させるために用いられるものであり、撮影した映像の話者へのフィードバックには何ら寄与しないという問題があった。
In the technique described in Non-Patent
本発明は上述の事情に鑑みてなされたものであり、自分の口の形や動きを記録し、後から確認することができる語学学習装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a language learning device that records the shape and movement of his / her mouth and can be confirmed later.
上述の課題を解決するため、本発明は、話者の口の形および動きを示すユーザ動画を撮影する撮影手段と、模範となる話者の口の形および動きを模範動画として記憶する第1の記憶手段と、前記第1の記憶手段に記憶された模範動画と前記撮影手段により撮影されたユーザ動画とから、合成動画を生成する生成手段と、前記生成手段により生成された合成動画を記憶する第2の記憶手段とを有する語学学習装置を提供する。
好ましい態様において、この語学学習装置が、前記生成手段により生成された合成動画を表示する表示手段をさらに有してもよい。
別の好ましい態様において、この語学学習装置が、前記生成手段により生成される合成動画の態様を決定するパラメータを指定するパラメータ指定手段をさらに有し、前記生成手段が、前記パラメータ指定手段により指定されたパラメータにより決定される態様で合成動画の生成を行ってもよい。
In order to solve the above-described problem, the present invention provides a photographing means for photographing a user moving image showing the shape and movement of a speaker's mouth, and a first storing the shape and movement of a model speaker's mouth as a model moving image. Storage means; generating means for generating a composite video from the model video stored in the first storage means and the user video shot by the shooting means; and storing the composite video generated by the generation means And a second language learning device.
In a preferred embodiment, the language learning device may further include display means for displaying the synthesized moving image generated by the generating means.
In another preferred embodiment, the language learning device further includes parameter designating means for designating a parameter for determining a mode of the synthesized moving image generated by the generating means, and the generating means is specified by the parameter specifying means. The synthesized moving image may be generated in a manner determined by the parameters.
本発明によれば、ユーザ動画と模範動画とが合成されるので、語学学習を行うユーザは自分の発音、発話方法と模範話者の発話、発音方法の違いを視覚的に認識することができる。 According to the present invention, since the user video and the model video are synthesized, the user who performs language learning can visually recognize the difference between his / her pronunciation / speaking method and the model speaker's utterance / speaking method. .
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る語学学習装置1の構成を示す図である。語学学習装置1は、話者の音声および口の映像を取得するマイクユニット10、マイクユニット10が取得した音声および映像データを処理する処理装置20、および話者の口の画像等を表示するディスプレイ30とから構成される。マイクユニット10はケーブル40を介して処理装置20との間で信号の授受を行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a
図2は、マイクユニット10の構造を示す斜視図である。カメラ11は、例えばCCD(Charge Coupled Devices)カメラあるいはCMOS(Complementary Metal Oxide Semiconductor)カメラ等の小型撮像デバイスであって、話者(ユーザ)の映像(動画)を撮影し、その映像を示す映像信号をケーブル40を介して出力する。ライト12は、被写体である話者の口元を照射する光源である。マイク13は、話者の音声を取得し、その音声を示す音声信号をケーブル40を介して出力する。マイクユニット10を使用する際、話者は把持部14を手で持ち、位置決め部材15の先端部分を自らの鼻の下に当てて使用する。位置決め部材15は、例えば図2中に示されるように、径の異なる2本のパイプ(パイプ15aおよびパイプ15b)を用いてその長さを調節可能な構成としてもよい。すなわち、径の小さなパイプ15aを径の大きなパイプ15bの内部に収納し、ネジ15cを用いてパイプ15aを固定する構成としてもよい。あるいは、位置決め部材15は、ある決まった長さを有する部材のみで構成してもよい。
また、把持部14にはスイッチ16が設けられている。スイッチ16は、話者の操作に応じた操作信号をケーブル40を介して出力する。スイッチ16の詳細な機能については後述する。
FIG. 2 is a perspective view showing the structure of the
In addition, a
図3は、処理装置20のハードウェア構成を示すブロック図である。CPU(Central Processing Unit)21は、RAM(Random Access Memory)22を作業エリアとして、ROM(Read Only Memory)23あるいはHDD(Hard Disk Drive)24に記憶されているプログラムを読み出して実行する。HDD24は、各種アプリケーションプログラムやデータを記憶する記憶装置である。本実施形態に関して、特に、HDD24は、語学学習プログラム、この語学学習プログラムで使用する模範動画データ、および模範動画データの音声トラックとして模範音声データを記憶している。模範動画データは、先生である話者(模範話者)が例文を発話したときの口元の映像および音声を記録したものである。模範音声は、後述するユーザ動画の記録と同様の方法で記録される。
FIG. 3 is a block diagram illustrating a hardware configuration of the
画像処理部25は、動画データが入力されると、その動画データに応じてディスプレイ30を制御する制御信号を出力する。ディスプレイ30は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等の表示装置であり、画像処理部25からの制御信号に従って動画を表示する。動画データの音声トラックを含む音声データはDAC26でアナログ音声信号に変換され、スピーカ27から音声が再生される。
話者(使用者)は、キーボード28を操作することにより処理装置20に対し指示入力を行うことができる。また、処理装置20はI/F29を介してケーブル40に接続されており、マイクユニット10と信号の授受を行うことができる。
以上の各構成要素はバス99を介して相互に接続されている。
When the moving image data is input, the
A speaker (user) can input an instruction to the
The above components are connected to each other via a
続いて、語学学習装置1の動作について説明する。話者(使用者)がキーボード28を操作する等の方法により、語学学習プログラムの実行を指示すると、CPU21はHDD24から語学学習プログラムを読み出して実行する。この語学学習プログラムを実行することにより、語学学習装置1は本実施形態に係る各機能を有する。
Next, the operation of the
語学学習プログラムを実行すると、CPU21は、HDD24に記憶されている複数の模範動画データから1の模範動画データを選択して読み出す。ここで、1の模範動画データを選択する方法は、CPU21が模範動画データのリストをディスプレイ30に表示させ、話者がキーボード28を操作することによりその中から任意のものを選択してもよいし、語学学習プログラムに模範動画データを読み出す順番があらかじめ記憶させておき、その順番に従って自動的に模範動画データを選択する構成としてもよい。
When the language learning program is executed, the
CPU21は読み出した模範動画データを画像処理部25に出力する。また、CPU21は、模範動画データの音声トラックに記録された音声データをDAC26に出力する。これによりディスプレイ30上には模範動画が、スピーカ27からは模範音声が再生される。なお、模範動画データは圧縮形式のデータでも非圧縮形式のデータでもよい。圧縮形式の動画データを用いた場合、動画データを伸張処理する必要がある。その場合、本実施形態においてはCPU21が伸張処理を行うが、伸張処理を行うための処理回路等を別途設けてもよい。
The
話者は、ディスプレイ30上で再生された模範動画を見て、また同時にスピーカ27から再生された模範音声を聞いて、模範音声を真似して、また、模範動画で示される口の形および口の動きを真似して発声する。発声の際、話者はマイクユニット10の把持部14を握り、位置決め部材15の先端部を自分の顔の所定位置(図1では鼻と口の間)に当てる。こうすることにより、カメラ11と話者の口との距離を一定に保つことができる。すなわち、画像における口の位置を一定に保つことができる。
The speaker watches the model video reproduced on the
カメラ11は撮影した話者の口の映像の映像信号を処理装置20に出力する。また、話者は発声している間はスイッチ16を押し続ける。スイッチ16は、押されている間、処理装置20に対しスイッチ16が押されている旨を示す押下信号を出力する。処理装置20のCPU21は、押下信号を受信している間は、受信した映像信号をデジタル映像データに変換してHDD24に保存する。話者がスイッチ16の押下をやめ、押下信号が出力されなくなると、CPU21は映像データの記録を停止する。すなわち、話者がスイッチ16を押している間のみ、話者の口元の映像が記録される(こうして記録された話者の口元の映像を「ユーザ動画データ」という)。話者の発話した音声についても同様である。すなわち、話者がスイッチ16を押している間のみ、話者の音声が記録される。
The
話者が発話を終了すると、すなわち、話者がスイッチ16の押下を終了すると、CPU21は、模範動画データとユーザ動画データから、模範動画とユーザ動画を混合した混合動画データを生成する。混合動画データは、例えば以下のように生成される。RAM22は、動画を混合する方法を指定するパラメータA、および指定された混合方法における混合の態様を指定するパラメータBとを記憶している。動画の混合方法は例えば以下に説明するものがある。図4は、動画の混合方法を例示する図である。動画の混合方法としては、例えば、模範動画Mとユーザ動画Uとを重ね合わせる方法(図4(A))、模範動画Mとユーザ動画Uとを並べる方法(図4(B))、模範動画Mの一部にユーザ動画Uを挿入する方法(図4(C))、ユーザ動画Uの一部に模範動画Mを挿入する方法(図4(D))等がある。また、混合の態様を指定するパラメータとしては、例えば、模範動画とユーザ動画とを重ね合わせる混合方法において、量社の動画を重ね合わせる割合がある。すなわち、模範動画:ユーザ動画=1:1の割合で重ね合わせる場合には、模範動画およびユーザ動画はそれぞれ同じ濃度で画面上に表示される。また例えば模範動画:ユーザ動画=1:3の割合で重ね合わせる場合には、ユーザ動画が模範動画の3倍の濃度で画面上に表示される。
When the speaker finishes speaking, that is, when the speaker finishes pressing the
CPU21は、上述のパラメータAおよびBで指定される方法および態様で混合動画データを生成する。CPU21は、生成した混合動画データをHDD24に記憶する。また、CPU21は、生成した混合動画を画像処理部25に出力する。画像処理部25は、混合動画データに応じた制御信号をディスプレイ30に出力する。こうして、ディスプレイ30には、先生の模範動画および話者(生徒)のユーザ動画が重ね合わされた混合動画が表示される。なお、合成動画の生成および再生に関して、データの合成と再生をリアルタイムで行ってもよいし、合成動画データを最初から最後まで生成してRAM22あるいはHDD24に記憶した後で再生してもよい。
CPU21 produces | generates mixed moving image data by the method and aspect designated with the above-mentioned parameters A and B. FIG. The
<変形例1>
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。
上述の実施形態において、ユーザの指示入力により合成動画を生成する態様を変化させる構成としてもよい。具体的には、例えば以下のとおりである。合成動画の再生の際、CPU21は、ディスプレイ30上に指示入力用のメニュー画面を表示させる。このメニュー画面には、例えば、スイッチ16を1回押すとパラメータBの値を1増加させ、スイッチ16を2回押すとパラメータBの値を1減少させるという旨のメッセージが記されている。いま、模範動画とユーザ動画の混合方法が、重ね合わせである場合について考える。パラメータBは模範動画の濃度に対するユーザ動画の相対的濃度を示すパラメータである。また、パラメータBの初期値は1、すなわち、模範動画Mとユーザ動画Uは1:1の濃度で重ね合わされている(図5(A))。また、混合動画データの生成は、再生と同時にリアルタイムで行われている。ここで、ユーザがメニュー画面に従ってスイッチ16を1回押すと、パラメータBの値は1増加する。CPU21はパラメータBに従って、ユーザ動画が模範動画の2倍の濃度となるようにデータを処理して両者を重ね合わせる。こうしてユーザの指示入力によりユーザ動画Uの濃度が濃くなる、すなわち、混合動画生成の態様が変化する(図5(B))。同様にして、混合動画生成の方法を変化させてもよい。
<
The present invention is not limited to the above-described embodiment, and various modifications can be made.
In the above-mentioned embodiment, it is good also as a structure which changes the aspect which produces | generates a synthetic | combination moving image by a user's instruction | indication input. Specifically, it is as follows, for example. At the time of reproduction of the synthesized moving image, the
<変形例2>
位置決め部材15の形状は、図2に示されるものに限られない。すなわち、ユーザの鼻と口の間に着けて使用する構成でなくてもよい。例えば、ユーザの頭部に装着して使用するヘッドギアあるいはヘッドバンドのような構造でもよい(図6)。あるいは、腕、肩、胸等、顔や頭以外の部分に装着する構成としてもよい。要するに、撮影手段であるカメラと、被写体である口との相対的位置関係を固定できる構造であればどのようなものでもよい。
<Modification 2>
The shape of the positioning
<他の変形例>
変形例1で説明した構成と、変形例2で説明した構成とを組み合わせて用いてもよい。また、語学学習装置1にディスプレイ30を設けず、語学学習装置1はユーザ動画あるいは混合動画をHDD24あるいはRAM22に記憶するだけでもよい。ユーザはI/F29を介してHDD24あるいはRAM22に記憶されたデータを読み出し、パーソナルコンピュータ等の他の装置で読み出したデータを再生することができる。また、マイクユニット10と処理装置20との間での信号の授受は無線通信により行ってもよい。
あるいは、ユーザ動画あるいは合成動画をデータとしてHDD24に記憶せず、リアルタイムでの再生のみ行う構成としてもよい。
また、上述の実施形態においては、CPU21が語学学習プログラムを実行することにより語学学習装置としての機能が実現されたが、動画の合成等の処理を専用の電子回路等のハードウェア装置を用いて実現してもよい。
また、上述の実施形態においては、ユーザ動画、模範動画、混合動画はすべてデジタルデータとして記憶される態様について説明したが、これらのうち一部または全部をアナログ信号として記憶する攻勢としてもよい。この場合HDD24に代わる記憶手段として磁気テープおよび磁気テープレコーダを用いてもよい。
<Other variations>
The configuration described in
Or it is good also as a structure which does not memorize | store a user moving image or a synthetic | combination moving image as data in HDD24, but only reproduce | regenerates in real time.
Further, in the above-described embodiment, the function as a language learning device is realized by the
Further, in the above-described embodiment, the mode in which the user moving image, the model moving image, and the mixed moving image are all stored as digital data has been described. However, some or all of these may be stored as analog signals. In this case, a magnetic tape and a magnetic tape recorder may be used as storage means instead of the
1…語学学習装置、10…マイクユニット、11…カメラ、12…ライト、13…マイク、14…把持部、15…位置決め部材、16…スイッチ、20…処理装置、21…CPU、22…RAM、24…HDD、25…画像処理部、26…DAC、27…スピーカ、28…キーボード、29…I/F、30…ディスプレイ、40…ケーブル、99…バス
DESCRIPTION OF
Claims (3)
模範となる話者の口の形および動きを模範動画として記憶する第1の記憶手段と、
前記第1の記憶手段に記憶された模範動画と前記撮影手段により撮影されたユーザ動画とから、合成動画を生成する生成手段と、
前記生成手段により生成された合成動画を記憶する第2の記憶手段と
を有する語学学習装置。 Photographing means for photographing a user video showing the shape and movement of the speaker's mouth;
First storage means for storing the mouth shape and movement of the model speaker as a model video;
Generating means for generating a composite video from the model video stored in the first storage means and the user video shot by the shooting means;
A language learning apparatus comprising: a second storage unit that stores the synthesized moving image generated by the generation unit.
前記生成手段が、前記パラメータ指定手段により指定されたパラメータにより決定される態様で合成動画の生成を行う
ことを特徴とする請求項1に記載の語学学習装置。 Further comprising parameter designating means for designating parameters for determining the mode of the composite video generated by the generating means;
The language learning apparatus according to claim 1, wherein the generation unit generates a composite moving image in a manner determined by a parameter specified by the parameter specification unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004358336A JP2006163269A (en) | 2004-12-10 | 2004-12-10 | Language learning apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004358336A JP2006163269A (en) | 2004-12-10 | 2004-12-10 | Language learning apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006163269A true JP2006163269A (en) | 2006-06-22 |
Family
ID=36665337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004358336A Withdrawn JP2006163269A (en) | 2004-12-10 | 2004-12-10 | Language learning apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006163269A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010258917A (en) * | 2009-04-27 | 2010-11-11 | Jvc Kenwood Holdings Inc | Imaging apparatus, program, and imaging method |
JP2010279012A (en) * | 2009-04-27 | 2010-12-09 | Jvc Kenwood Holdings Inc | Av system, program, recording device, and video recording method |
JP2012516463A (en) * | 2009-01-31 | 2012-07-19 | ドッド、エンダ、パトリック | Computer execution method |
JP2014071443A (en) * | 2012-10-02 | 2014-04-21 | Japan Science & Technology Agency | Motion learning support device |
JP2015516594A (en) * | 2012-04-05 | 2015-06-11 | ブライアント,ジャクリーン | Apparatus and method for assisting learning |
-
2004
- 2004-12-10 JP JP2004358336A patent/JP2006163269A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012516463A (en) * | 2009-01-31 | 2012-07-19 | ドッド、エンダ、パトリック | Computer execution method |
JP2010258917A (en) * | 2009-04-27 | 2010-11-11 | Jvc Kenwood Holdings Inc | Imaging apparatus, program, and imaging method |
JP2010279012A (en) * | 2009-04-27 | 2010-12-09 | Jvc Kenwood Holdings Inc | Av system, program, recording device, and video recording method |
JP2015516594A (en) * | 2012-04-05 | 2015-06-11 | ブライアント,ジャクリーン | Apparatus and method for assisting learning |
US10186160B2 (en) | 2012-04-05 | 2019-01-22 | Jacklyn Bryant | Apparatus and method for aiding learning |
JP2014071443A (en) * | 2012-10-02 | 2014-04-21 | Japan Science & Technology Agency | Motion learning support device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1028410B1 (en) | Speech recognition enrolment system | |
JP3569278B1 (en) | Pronunciation learning support method, learner terminal, processing program, and recording medium storing the program | |
JP2006163269A (en) | Language learning apparatus | |
JP3110215B2 (en) | Pronunciation training device | |
JP2006133521A (en) | Language training machine | |
KR20140087956A (en) | Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data | |
JP2006030513A (en) | Education support device and education information managing server | |
KR20030079497A (en) | service method of language study | |
JP2002304286A (en) | Video display device with built-in voice recognition function | |
KR20110065276A (en) | Method and apparatus for pronunciation exercise using comparison video | |
KR20140107067A (en) | Apparatus and method for learning word by using native speakerpronunciation data and image data | |
Boston | Synthetic facial communication | |
KR20140079677A (en) | Apparatus and method for learning sound connection by using native speaker's pronunciation data and language data. | |
JP6802264B2 (en) | Display device, output device, and information display method | |
JP2873830B2 (en) | Automatic conversation practice device | |
Athanasopoulos et al. | King's speech: pronounce a foreign language with style | |
JP7051987B2 (en) | Output device and information display method | |
JP2005352047A (en) | Learning device | |
Suzuki et al. | Visual Learning 2: Pronunciation App Using Ultrasound, Video, and MRI. | |
KR20140082127A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and origin of a word | |
Alzubaidi et al. | Discussion-facilitator: towards enabling students with hearing disabilities to participate in classroom discussions | |
KR20140087950A (en) | Apparatus and method for learning rhythm pattern by using native speaker's pronunciation data and language data. | |
JP2006162760A (en) | Language learning apparatus | |
JP2000181333A (en) | Pronunciation training support device, its method and program recording medium therefor | |
JP6900605B2 (en) | Language listening learning system with dynamic pronunciation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071023 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090128 |