KR20000056203A - Language study system by interactive conversation - Google Patents

Language study system by interactive conversation Download PDF

Info

Publication number
KR20000056203A
KR20000056203A KR1019990005290A KR19990005290A KR20000056203A KR 20000056203 A KR20000056203 A KR 20000056203A KR 1019990005290 A KR1019990005290 A KR 1019990005290A KR 19990005290 A KR19990005290 A KR 19990005290A KR 20000056203 A KR20000056203 A KR 20000056203A
Authority
KR
South Korea
Prior art keywords
data
voice
learning
question
answer
Prior art date
Application number
KR1019990005290A
Other languages
Korean (ko)
Other versions
KR100296271B1 (en
Inventor
이경목
옥종석
이동한
Original Assignee
이경목
이동한
옥종석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이경목, 이동한, 옥종석 filed Critical 이경목
Priority to KR1019990005290A priority Critical patent/KR100296271B1/en
Publication of KR20000056203A publication Critical patent/KR20000056203A/en
Application granted granted Critical
Publication of KR100296271B1 publication Critical patent/KR100296271B1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2246Trees, e.g. B+trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE: An interactive language learning system is provided to make a computer recognize a voice from a user query, store sound and picture data appropriate for interaction contents in advance, and generate the picture and sound data while selecting the next conversation corresponding to the user query. CONSTITUTION: An interactive language system comprises a voice input device(21), a voice recognition device(20), picture output devices(40,41), voice output devices(30,31), a keyboard(10), a data storage device(70), and controllers(50,60). The voice input device(21) converts externally input voice signals into electric signals. The voice recognition device(21) analyzes the input voice signals, recognizes the semantics and converts the voice signals into text information. The data storage device(70) stores various user queries based on real life conversation, answers corresponding to the queries, and picture information based on the real life conversation. The controllers(50,60) extracts a learning information desired by the user, transmits the learning information, compares the learning information with the user query processed by a voice recognizer, and extracts the next query information based on the current conversation.

Description

상호 대화식 언어 학습시스템{Language study system by interactive conversation}Language study system by interactive conversation}

본 발명은 컴퓨터를 이용하여 일대일 혹은 일대 다수의 사용자 사이에 상호 대화방식으로 언어 학습을 실시할 수 있는 언어 학습시스템에 관한 것으로, 특히 사용자의 질문이나 응답내용을 음성 인식을 통해 컴퓨터가 인식 및 판단할 수 있도록 함으로써 사용자 주도의 상호 양방향 대화가 사용자와 컴퓨터 사이에서 전개될 수 있도록 하며, 또한 실생활 대화에서 전개될 수 있는 다양한 상황의 대화내용 및 그 대화내용에 알맞는 배경 영상자료나 음향자료를 데이터 베이스에 미리 저장하여 사용자의 질문이나 응답에 대응하여 다음 대화를 선택하면서 동시에 그에 따른 배경 화면 및 음향을 출력할 수 있도록 함으로써, 사용자의 의도에 능동적으로 대처할 수 있도록 한 상호 대화식 언어 학습시스템에 관한 것이다.The present invention relates to a language learning system that can perform language learning in a one-to-one or one-to-many user interaction using a computer. In particular, the computer recognizes and judges a user's question or response through voice recognition. This allows the user-led interactive dialogue to be developed between the user and the computer, and also provides the data of the conversations in various situations and the background image or sound data suitable for the conversations. The present invention relates to an interactive interactive language learning system that can actively store a user's intention by selecting a next conversation in response to a user's question or response and outputting a background screen and sound according to the user's question or response. .

종래의 교육 시스템은 미리 전개될 대화 스토리를 설정하고, 주어진 문장에 맞는 대답을 요구하는 형태의 일방적인 컴퓨터 주도 대화 진행 방식으로 이루어져있다. 그래서, 사용자에게 문장을 암기하고 대답하기를 요구하므로, 학습 대화의 스토리 전개가 단조롭고 대답에 다양한 선택 여지가 없을 뿐만 아니라 융통성이 결여되어 있어서, 사용자는 쉽게 싫증이 나고 학습 효율이 저하되는 등의 문제점이 있었다. 즉, 일상 생활에서의 대화는 질문 내용에 따라 다양한 상황이 전개되며, 다양한 형태의 대답으로 대화가 진행되므로, 특정한 형태로 고정되어진 대화 형태는 비현실적이다. 이러한 것은 사용자의 학습 의욕을 상실하게 하고 싫증나도록 하여 학습 효과를 저조하게 한다.Conventional education system is composed of a one-way computer-driven conversation process of setting the story to be developed in advance, and requires an answer for a given sentence. Therefore, the user is asked to memorize and answer the sentence, so that the story development of the learning conversation is monotonous, there is no variety of choices in the answer, and there is a lack of flexibility, so that the user is easily tired and the learning efficiency is reduced. There was this. That is, the conversation in daily life develops various situations according to the contents of the question, and since the conversation proceeds with various forms of answers, the conversation form fixed in a specific form is unrealistic. This results in loss of learning motivation and disgust of the user, resulting in poor learning effect.

또한, 음성 인식 기능을 포함하지 않기 때문에 사용자의 대답 내용의 타당성을 판단하는 능력이 없다. 일정시간 동안 사용자가 대답할 시간을 준 후 대답의 내용에 무관하게 다음 문장으로 대화가 진행되거나, 키보드에 의한 수동 문장 입력 또는 마우스로 제시된 답변 문장의 선택 등의 방법으로만 다음 대화 내용이 진행되게 구성되어 있어, 실제적인 상호 대화가 불가능하였다.In addition, since it does not include a speech recognition function, there is no ability to determine the validity of the user's answer contents. After giving the user time to answer for a certain time, the conversation proceeds to the next sentence regardless of the contents of the answer, or to the next conversation only by the manual sentence input by the keyboard or the selection of the answer sentence presented by the mouse. It was so constructed that no real interaction was possible.

상기와 같이, 종래의 영어 학습 시스템들은 멀티미디어를 이용한 상호 협조 체계가 미흡하고 음성 인식 방법이 사용되지 않아서, 사용자와 컴퓨터간의 상호 대화가 불가능하고 영어를 자율적으로 학습하기가 어렵다. 그리고, 실시간 상호 입체 영어 언어 교육용 소프트웨어 개발은 국내 및 해외에서도 전무한 형편이다.As described above, the conventional English learning systems are insufficient in the mutual cooperation system using the multimedia and the speech recognition method is not used, so that it is impossible for the user to communicate with the computer and it is difficult to learn English autonomously. In addition, the development of real-time interactive three-dimensional English language education software is not at home and abroad.

따라서, 대화 질문에 따라 사용자가 상황에 적절하고 다양한 대답을 제시할 수가 있고, 제시한 대답 문장에 따라 새로운 상황으로 대화가 진행되어 실제의 일상 생활 대화 상황과 같은 실생활 영어 언어가 진행되도록 하는 입체 언어 상호 대화식 영어 학습 시스템의 개발이 요구되고 있다.Therefore, the user can present a variety of answers appropriate to the situation according to the dialogue question, and the three-dimensional language that allows the conversation to proceed to a new situation according to the answer sentence presented so that the real-life English language such as the actual daily conversation situation can proceed. Development of an interactive English learning system is required.

이에, 본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 본 발명은 사용자의 질문이나 응답내용을 음성 인식을 통해 컴퓨터가 인식 및 판단할 수 있도록 하고, 실생활 대화에서 전개될 수 있는 다양한 상황의 대화내용 및 그 대화내용에 알맞는 배경 영상자료나 음향자료를 데이터 베이스에 미리 저장하여 사용자의 질문이나 응답에 대응하여 다음 대화를 선택하면서 동시에 그에 따른 배경 화면 및 음향을 출력할 수 있도록 함으로써, 사용자의 의도에 능동적으로 대처하여, 사용자 주도의 상호 양방향 대화가 사용자와 컴퓨터 사이에서 전개될 수 있도록 한 상호 대화식 언어 학습시스템을 제공함에 목적이 있다.Accordingly, the present invention has been made to solve the above problems, the present invention is to enable the computer to recognize and determine the user's questions or responses through voice recognition, various situations that can be deployed in real-life conversation By storing the dialogue contents and background image data or sound data suitable for the dialogue contents in the database in advance, the user can select the next dialogue in response to the user's question or response and simultaneously output the background image and sound accordingly. It is an object of the present invention to provide an interactive language learning system that actively copes with the intention of the user and enables the user-led interactive communication to be developed between the user and the computer.

상기 목적을 달성하기 위하여 본 발명의 일 실시예에서는 음성 입력수단을 통해 들어오는 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하는 음성 인식수단; 영상신호 및 음성신호를 각각 신호 처리하여 모니터 화면 및 스피커로 출력하는 영상 및 음성출력수단; 실생활 대화에서 전개될 수 있는 다양한 상황을 바탕으로 한 질문데이터와, 그 질문에 따른 다수의 답변데이터, 및 상기 질문과 다수의 답변 데이터 각각의 내용에 알맞는 영상데이터와 음향데이터를 학습자료로 저장하는 데이터 저장수단; 사용자가 원하는 학습자료를 상기 데이터 저장수단에서 읽어 해당 학습자료의 질문데이터를 상기 영상 및/또는 음성 출력수단으로 내보내고, 상기 음성 인식수단을 통해 사용자의 답변데이터가 들어오면 상기 데이터 저장수단으로부터 읽어낸 답변데이터와 비교하여 정답/오답 여부를 판단하고, 그 판단 결과에 따라 사용자의 답변데이터에 부응하는 다음 질문데이터를 상기 데이터 저장수단의 학습자료를 읽어내 상기 영상 및/또는 음성 출력수단으로 내보내는 제어수단을 포함하는 것을 특징으로 하는 상호 대화식 언어 학습시스템을 제공한다.In order to achieve the above object, according to an embodiment of the present invention, voice recognition means for analyzing a voice signal input through the voice input means and recognizing the meaning of the voice signal; Video and audio output means for signal-processing the video and audio signals, respectively, and outputting them to the monitor screen and the speaker; Storing question data based on various situations that can be developed in real life conversations, a plurality of answer data according to the question, and image data and sound data corresponding to the contents of the question and the plurality of answer data as learning materials. Data storage means; Read the user's desired learning data from the data storage means and export the question data of the corresponding learning material to the video and / or audio output means, and when the user's answer data comes in through the voice recognition means, read from the data storage means. Control to determine whether the correct answer / wrong answer compared to the answer data, and to read the next question data corresponding to the user's answer data according to the determination result and to read the learning data of the data storage means and to export to the video and / or audio output means It provides an interactive language learning system comprising a means.

상기 본 발명의 일 실시예에서, 상기 데이터 저장수단은, 언어 학습을 위한 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 그 대화내용에 따른 배경 영상자료 및 배경 음향자료로 각각 구분된 데이터 베이스를 구성하되, 상기 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 상기 각 답변자료에 대한 새로운 질문자료와 그 새로운 질문자료에 대한 새로운 다수의 답변자료를 나무(tree)구조로 구성하여 학습 데이터를 저장하는 것을 특징으로 한다.In one embodiment of the present invention, the data storage means, a question material for language learning, a plurality of answer data for the question material, and the data divided into background image data and background sound data according to the conversation contents, respectively The base of the questionnaire, a plurality of answer data for the question material and the question material, and a new question material for each answer material and a plurality of new answer material for the new question material in a tree structure It is characterized by storing the training data.

도 1은 본 발명의 일 실시예에 따른 상호 대화식 언어 학습 시스템의 블록도,1 is a block diagram of an interactive language learning system according to an embodiment of the present invention;

도 2는 도 1의 부처리부와 데이터 저장부를 상세하게 나타낸 블록도,FIG. 2 is a block diagram illustrating in detail the subprocessor and the data storage of FIG. 1;

도 3은 본 발명에 따른 상호 대화식 언어 학습시스템의 동작 흐름도,3 is an operation flowchart of an interactive language learning system according to the present invention;

도 4a는 도 3의 음성출력 서브루틴에 대한 동작 흐름도,4A is an operation flowchart for the voice output subroutine of FIG. 3;

도 4b는 도 3의 음성인식 서브루틴에 대한 동작 흐름도,4b is an operation flowchart of the speech recognition subroutine of FIG.

도 4c는 도 3의 배경 영상출력 서브루틴에 대한 동작 흐름도,4C is a flowchart illustrating an operation of a background image output subroutine of FIG. 3;

도 4d는 도 3의 배경 음향출력 서브루틴에 대한 동작 흐름도,4d is an operation flowchart of the background sound output subroutine of FIG. 3;

도 5는 본 발명에 따른 상호 대화식 언어학습 시스템의 다른 실시예를 설명하기 위하여 도시한 블록도이다.5 is a block diagram illustrating another embodiment of an interactive language learning system according to the present invention.

〈도면 주요 부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

10 : 키입력부 20 : 음성 인식부10: key input unit 20: voice recognition unit

21 : 마이크 30 : 음성 출력부21: microphone 30: audio output unit

31 : 스피커 40 : 영상 출력부31: speaker 40: video output unit

41 : 모니터 50 : 주 처리부41: monitor 50: main processing unit

60 : 부 처리부 61 : 배경영상 처리부60: subprocessing unit 61: background image processing unit

62 : 배경음향 처리부 63 : 음성출력 처리부62: background sound processor 63: voice output processor

64 : 음성인식 처리부 70 : 데이터 저장부64: speech recognition processing unit 70: data storage unit

71 : 배경영상 데이터 베이스 72 : 배경음향 데이터 베이스71: background image database 72: background sound database

73 : 음성출력 데이터 베이스 74 : 음성인식 데이터 베이스73: voice output database 74: voice recognition database

이하, 본 발명의 바람직한 실시예들을 첨부된 도면을 참고로 하여 상세히 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 상호 대화식 언어 학습시스템의 구성을 간략하게 나타내 보인 블록도로서, 외부에서 입력되는 음성신호를 전기적인 신호로 변환하는 음성 입력수단(21) 및 상기 음성 입력수단을 통해 외부에서 들어오는 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하여 문자데이터로 변환하는 음성 인식수단(20)과, 영상신호 및 음성신호를 각각 신호 처리하여 모니터 화면 및 스피커로 각각 출력하는 영상 출력수단(40, 41) 및 음성 출력수단(30, 31)과, 데이터 베이스에 저장할 학습 데이터의 입력 및 사용자가 요청하는 학습 종류의 선택을 위한 키입력수단(10)과, 실생활 대화에서 전개될 수 있는 다양한 상황을 바탕으로 구성한 질문자료와 상기 질문에 대한 답변자료 및 상기 대화내용에 따른 배경 영상자료나 음향자료를 학습 데이터로 저장하는 데이터 저장수단(70)과, 상기 데이터 저장수단에 저장된 학습 데이터 중에서 사용자가 원하는 종류의 학습 데이터를 읽어 상기 영상 및 음성출력수단으로 내보내고, 사용자의 음성을 상기 음성 인식수단을 통해 인식하여 상기 데이터 저장수단으로부터 읽어낸 해당 학습 데이터와 비교하고, 그 비교결과에 따라 사용자가 응답한 내용에 부응하는 다음 질문 자료를 데이터 베이스에서 읽어내 출력하는 제어수단(50, 60)으로 구성된다.1 is a block diagram schematically showing the configuration of an interactive language learning system according to the present invention. The voice input means 21 converts a voice signal input from the outside into an electrical signal and an external signal through the voice input means. The voice recognition means 20 analyzes the voice signal coming from the voice signal, recognizes the meaning of the voice signal, and converts the text signal into text data, and processes the video signal and the audio signal to be output to the monitor screen and the speaker. Output means 40 and 41 and voice output means 30 and 31, key input means 10 for inputting the learning data to be stored in the database and for selecting the type of learning requested by the user; Question data composed of various situations, and answer data of the question and background image data or sound data according to the conversation contents learning data The data storage means 70 for storing the data and the learning data stored in the data storage means, and read out the desired type of learning data to the image and audio output means, and recognizes the user's voice through the speech recognition means And control means (50, 60) for comparing with the corresponding learning data read from the data storage means, and reading out the next question material corresponding to the contents answered by the user from the database according to the comparison result.

상기 영상 출력수단(40)은 상기 제어수단에서 출력된 신호를 입력받아 영상시호로 변환 처리하는 영상 출력장치로 구성할 수 있으며, 그 변환된 신호를 외부 영상 화면으로 출력하는 모니터(41)를 더 포함할 수 있다. 그리고 상기 음성 출력수단(30)은 상기 제어수단에서 출력된 신호를 입력받아 구동 신호를 출력하는 오디오 장치로 구성할 수 있으며, 상기 오디오 장치에서 출력된 구동 신호를 입력받아 음향이나 음성을 출력하는 스피커(31)를 더 포함하여 구성할 수 있다.The image output means 40 may be configured as an image output device that receives the signal output from the control means and converts it into an image signal, and further includes a monitor 41 for outputting the converted signal to an external image screen. can do. The voice output means 30 may be configured as an audio device that receives a signal output from the control means and outputs a driving signal, and receives a driving signal output from the audio device and outputs sound or voice. It can be comprised including the 31 further.

상기 음성 인식수단(20)은 사람의 음성을 입력받아 전기적인 신호로 변환하는 마이크(21)를 포함할 수도 있으며, 상기 마이크(21)에서 출력된 신호를 입력받아 사용자의 발음과 액센트를 근거로 하여 일치하는 단어로 변환시켜 제어수단으로 출력하는 음성 인식 장치(20)로 구성할 수 있으며, 또한 이것은 상기 제어수단에 의해 호출되고 구동되는 서브 루틴으로도 구성할 수 있다.The voice recognition means 20 may include a microphone 21 for receiving a human voice and converting the voice into an electrical signal, and receiving the signal output from the microphone 21 based on the pronunciation and accent of the user. It can be configured as a speech recognition device 20 that is converted into a matching word to output to the control means, it can also be configured as a sub-routine called and driven by the control means.

상기 제어수단은 각각의 처리루틴을 개별적으로 구비한 부 처리부(60)와, 상기 부 처리부(60)를 제어하는 다수의 프로세스 제어신호를 출력하는 주 처리부(50)를 포함할 수 있으며, 학습 데이터를 저장하는 데이터 저장부(70)를 포함하거나 또는 별도로 구성할 수도 있다. 상기 제어수단에서는 사용자에 의한 학습 요구가 있을 경우에 주 처리부(50)는 다수의 태스크를 이용하여 부 처리부(60)를 제어하여 데이터 저장부(70)의 학습 데이터를 읽어오거나, 읽어낸 데이터를 음성 및 영상 출력으로 내보낼 수 있다. 또한 상기 음성 인식수단(20)을 통해 외부에서 들어온 신호가 상기 데이터 저장부(70)의 답변 데이터와 일치하는지 비교하고, 그 비교결과에 따라 배경 영상 및 배경음향의 출력을 제어하며, 그와 동시에 다음 대화를 위한 학습 자료를 읽어오거나 또는 반복적인 학습을 위해 현재의 학습 데이터를 이전의 동작 흐름을 따라 반복 처리할 수 있다.The control means may include a sub-processing unit 60 having respective processing routines separately, and a main processing unit 50 for outputting a plurality of process control signals for controlling the sub-processing unit 60. Data storage unit 70 for storing the may be included or may be configured separately. In the control means, when there is a learning request by the user, the main processing unit 50 controls the sub processing unit 60 using a plurality of tasks to read the learning data of the data storage unit 70 or read the read data. Export to audio and video output. In addition, the signal received from the outside through the voice recognition means 20 is compared with the answer data of the data storage unit 70, and compares the output of the background image and the background sound according to the comparison result, and at the same time You can read the training material for the next conversation or iterate the current training data along the previous flow of motion for repetitive learning.

도 2a는 도 1의 부 처리부와 데이터 저장부를 상세하게 나타낸 블록도이다. 도면에서와 같이, 상기 데이터 저장부(70)는 음성 출력을 위한 언어 학습 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 그 대화내용에 따른 배경 영상자료 및 배경 음향자료로 구분된 각각의 데이터 베이스(71-74)를 구성하되, 상기 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 상기 각 답변자료에 대한 새로운 질문자료와 그 새로운 질문자료에 대한 새로운 다수의 답변자료를 하나의 파일로 형성하여, 그것을 도 2b와 같은 나무(tree)구조의 형태를 갖도록 구성한다.FIG. 2A is a detailed block diagram illustrating the subprocessing unit and the data storage unit of FIG. 1. As shown in the figure, the data storage unit 70 is divided into a language learning question material for voice output, a plurality of answer data for the question material, and a background image data and background sound data according to the conversation contents. A database 71-74, wherein the questionnaire and a plurality of answer materials for the questionnaire, and a new questionnaire for each answer, and a plurality of new answer materials for the new questionnaire, Formed into a pile, it is configured to have the form of a tree structure as shown in FIG. 2B.

이때 상기 배경 영상 데이터 베이스(71)는 배경 화면 출력을 위한 영상자료를 저장하고, 배경 음향 데이터 베이스(72)는 배경 음향 출력을 위한 음향 자료를 저장하고, 음성출력 데이터 베이스(73)는 음성출력을 위한 사용자료(질문 자료와 그에 해당하는 다수의 답변자료 및 상기 대화 내용에 따른 분위기를 연출하기 위한 배경 영상자료 및 음향자료가 저장되는 각각의 메모리 번지 등)를 저장하고, 음성인식 데이터 베이스(74)는 인식된 음성에 해당하는 단어자료를 저장할 수 있다.In this case, the background image database 71 stores image data for outputting a background screen, the background sound database 72 stores sound data for outputting a background sound, and the voice output database 73 outputs audio. For user data (such as question data and a number of answer data corresponding to them, each memory address for storing background image data and sound data for creating an atmosphere according to the conversation contents), and a voice recognition database ( 74 may store word data corresponding to the recognized voice.

상기 부 처리부(60)는 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 해당하는 데이터를 상기 배경영상 데이터 베이스(71)에서 로드하여 상기 모니터(41)로 출력하고, 현재 상태에 대한 자료를 상기 주 처리부(50)로 되돌려 주는 배경영상 처리부(61)와; 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 해당하는 배경음향 데이터를 상기 배경 음향 데이터 데이스(72)에서 로드하여 상기 스피커(31)로 출력하고, 현재 상태에 대한 자료를 상기 주 처리부(50)로 되돌려 주는 배경음향 처리부(62)와; 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 해당하는 음성 데이터를 상기 음성 출력 데이터 베이스(73)에서 로드하여 상기 스피커(31)로 출력하고, 현재 상태에 대한 자료를 상기 주 처리부로(50)로 되돌려 주는 음성 출력 처리부(63)와; 상기 주 처리부의 프로세스 제어신호에 따라 제어되어 상기 음성 인식부(20)에서 인식된 신호와 상기 음성 인식 데이터 데이스(74)에서 로드한 데이터를 비교하고, 그 비교결과에 대한 자료를 주 처리부(50)로 되돌려 주는 음성 인식 처리부(64)로 구성된다.The sub-processing unit 60 loads the data corresponding to the process control signal output from the main processing unit 50 from the background image database 71 and outputs the data to the monitor 41 and outputs data on the current state. A background image processor 61 which returns to the main processor 50; The background sound data corresponding to the process control signal output from the main processor 50 is loaded from the background sound data data 72 and output to the speaker 31, and the data on the current state is output to the main processor 50. A background sound processor (62) to return to; The voice data corresponding to the process control signal output from the main processor 50 is loaded from the voice output database 73 and output to the speaker 31, and the data on the current state is sent to the main processor 50. A voice output processor 63 for returning the voice signal; Controlled according to the process control signal of the main processor, the signal recognized by the voice recognition unit 20 and the data loaded from the voice recognition data data 74 are compared, and the data of the comparison result is output to the main processor 50. It is composed of a speech recognition processing unit 64 to return to.

도 3은 본 발명에 따른 상호 대화식 언어 학습시스템의 동작 흐름도로서, 제어수단의 주 처리부(50)가 실행하는 신호 처리흐름을 도시하고 있다.3 is an operation flowchart of the interactive language learning system according to the present invention, showing a signal processing flow executed by the main processing unit 50 of the control means.

도면에서 본 발명은 프로그램 개시와 동시에 학습 안내를 위한 초기화면을 구성하여 출력하고, 그 초기화면을 통해 학습 요청이 있기를 대기하는 제 1단계(S311-S313)와; 사용자에 의한 학습요청이 있게 되면, 음성출력을 위한 서브루틴(도 4a)을 실행하여 데이터 베이스에 저장된 학습 데이터의 질문자료를 읽어 음성으로 출력 처리하면서, 그와 동시에 음성인식을 위한 서브루틴(도 4b)을 실행하여 음성으로 인식된 결과와 데이터 베이스의 저장 답변자료로부터 사용자의 응답내용이 올바른 것인지를 판단하는 제 2단계(S318, S319-1, S320)와; 상기 판단 결과에 따라, 상기 질문자료와 사용자가 응답한 답변자료를 하나로 묶어 파일을 형성하고, 해당 파일을 데이터 베이스에서 읽어내 다음 질문을 위한 자료를 선택하여 음성으로 출력함으로써, 사용자의 답변내용에 부합되는 내용의 다음 학습을 계속해서 실시하는 제 3단계(S320-1, S321)로 구성할 수 있다.In the drawings, the present invention comprises a first step (S311-S313) of constructing and outputting an initial screen for learning guidance at the same time as program start, and waiting for a learning request through the initial screen; When there is a learning request by the user, a subroutine for voice output (FIG. 4A) is executed to read and process the question data of the training data stored in the database, and the voice is output, while the subroutine for voice recognition (FIG. A second step (S318, S319-1, S320) of determining whether the user's response is correct from the result of speech recognition and the stored answer data in the database by executing 4b); According to the determination result, the question material and the answer data answered by the user are combined to form a file, the file is read from the database, and the data for the next question are selected and outputted by voice, thereby providing a response to the user's response. It can be configured as a third step (S320-1, S321) to continue the next learning of the matching content.

여기서 상기 제 1단계에서는 예를 들어 "문장 연습" 이나 "문장 따라하기" 또는 "발음연습" 별로 구분할 수 있는 학습 종류(a)와, 각 학습종류에 따라 난이도를 구분할 수 있는 학습 등급(b) 등을 사용자의 의도에 따라 선택할 수 있도록 안내화면을 출력하는 단계(S314)와; 그 안내화면을 통해 학습 종류(a)나 학습 등급(b)을 선택하기를 대기하는 단계(S315)와; 상기 대기상태에서 선택이 이루어진 경우 선택된 학습 종류와 등급을 학습 레벨로 설정하는 단계(S316)와; 상기 대기상태에서 선택이 이루어지지 않을 경우 미리 지정된 기본적인 학습 종류와 등급을 학습 레벨로 설정하는 단계(S317)를 더 포함할 수 있다.Here, in the first step, for example, a learning type (a) that can be divided by "sentence practice", "following a sentence" or "pronounced practice", and a learning level (b) that can classify difficulty according to each learning type. Outputting a guide screen to select a user's intention and the like (S314); Waiting to select a learning type (a) or a learning grade (b) through the guide screen (S315); Setting the selected learning type and grade as a learning level when the selection is made in the waiting state (S316); If the selection is not made in the standby state, the method may further include setting a predetermined basic learning type and grade as a learning level (S317).

그리고, 상기 제 2단계는 학습 데이터의 질문자료 음성출력 처리 서브루틴(도 4a)과 동시에 배경 화면출력을 위한 서브루틴(도 4c)을 실행하여 데이터 베이스에 저장된 학습 데이터의 배경 영상자료를 읽어 모니터 화면으로 출력처리하고, 배경 음향출력을 위한 서브루틴(도 4d)을 실행하여 데이터 베이스에 저장된 학습 데이터의 배경 음향자료를 읽어 스피커로 출력처리하는 단계(S319)를 더 포함하여 구성할 수 있다.In the second step, the background data of the learning data stored in the database is read and monitored by executing a subroutine (FIG. 4C) for outputting the background screen simultaneously with the voice data processing subroutine (FIG. 4A) of the training data. The process may further include a step of outputting the screen to the screen, and executing the subroutine for outputting the background sound (FIG. 4D) to read the background sound data of the learning data stored in the database and output the process to the speaker (S319).

또한 상기 제 3단계는 상기 서브루틴 수행결과로부터 사용자가 답변한 내용과 데이터 베이스에 저장된 답변내용이 불일치하는 것이 판단되면, 올바른 답변이 아님을 알리기 위한 경고 메시지를 출력 처리하는 단계(S322)를 더 포함할 수 있으며, 또한 음성 출력 서브루틴을 실행하여 데이터 베이스의 저장 답변내용 및 새로운 질문자료를 읽어내 음성으로 출력 처리하는 단계(S323)를 더 포함할 수 있다. 이때 경고 메시지나 저장 답변내용 및 새로운 질문자료는 문자로도 출력할 수 있으며, 음성이나 문자를 동시에 사용할 수도 있다.The third step further includes the step (S322) of outputting a warning message for notifying a correct answer when it is determined that the user's answer and the answer stored in the database are inconsistent from the subroutine execution result. In addition, the method may further include a step of executing a voice output subroutine to read out the stored answer contents and the new question data in the database and output the result in voice (S323). At this time, the warning message, the stored answer contents, and the new question data can be output by text, and voice or text can be used simultaneously.

또한 상기 제 3단계는 정답이 틀린 학습 데이터에 대해서는 반복학습할 것인지를 체크하는 단계(S324)를 더 구비하여, 사용자의 의도에 따라 반복학습을 실시하도록 구성할 수 있다.In addition, the third step may further include a step (S324) of checking whether to repeat the learning data for the incorrect answer data, it can be configured to perform the repetitive learning according to the user's intention.

도 4a 내지 도 4d는 각각 상기 도 3의 음성출력 서브루틴과, 음성인식 서브루틴과, 배경 영상출력 서브루틴과, 배경 음향출력 서브루틴에 대한 동작 흐름도이다. 상기 도면에서 각각의 서브루틴은 메인 루틴(도 3)에 의해 각각 호출되어 구동되며, 데이터 베이스를 탐색하기 위한 자료는 상기 메인 루틴으로부터 제공받고, 데이터 베이스를 탐색한 결과 및 음성인식한 결과는 다시 메인루틴으로 되돌려 주도록 구성되어 있다.4A to 4D are flowcharts illustrating operations of the voice output subroutine, the voice recognition subroutine, the background image output subroutine, and the background sound output subroutine of FIG. 3, respectively. In the figure, each subroutine is called and driven by the main routine (FIG. 3), and the data for searching the database is provided from the main routine, and the result of searching the database and the speech recognition result are again. It is configured to return to the main routine.

도 5는 본 발명에 따른 상호 대화식 언어학습 시스템의 다른 실시예를 설명하기 위하여 도시한 블록도로서, 상기 도 1에 도시된 구성요소를 갖는 하나의 관리용 피시(100)와, 버스를 통해 데이터 및 어드레스를 주고 받으며 제어신호를 공급받아 상기 관리용 피시에 의해 피동적으로 동작하는 다수개의 학습용 피시(110-130)가 상기 관리용 피시에 병렬로 연결되어 일대 다수인(교수 일인과 학생 여러명) 사이의 언어학습이 이루어질 수 있도록 구성한 형태를 보이고 있다.FIG. 5 is a block diagram illustrating another embodiment of an interactive language learning system according to the present invention. The management fish 100 having the components shown in FIG. And a plurality of learning fish (110-130), which are operated by the management fish by sending and receiving an address and receiving a control signal, are connected in parallel to the management fish and have a large number of students (one professor and several students). It is organized in such a way that language learning can be done.

이와 같이 구성되는 본 발명의 동작 및 그 작용 효과를 설명하면 아래와 같다.Referring to the operation of the present invention configured as described above and the effect thereof is as follows.

상기 각 도면을 참조하면, 프로그램 작동 개시(S311)와 동시에 초기 화면을 출력(S312)하고, 학습요청이 있는지를 판단(S313)한다. 상기 판단 결과 학습 요청이 있게 되면, 다시 학습 종류나 학습 등급(난이도)를 선택할 수 있는 선택화면을 출력(S314)한다. 이때 선택화면에서는 원하는 학습 종류를 선택할 수 있도록 하며, 사용자가 교육 수준을 선택할 수가 있도록 여러 단계 수준의 메뉴를 제시하고 선택할 수 있도록 한다. 그 상태에서 선택되는 학습 종류와 난이도를 이후 학습할 레벨로 설정(S316)한다. 만약 선택이 없으면, 미리 지정된 값을 이용하여 학습 레벨을 설정(S317)한다.Referring to each of the drawings, at the same time as the start of the program operation (S311) outputs the initial screen (S312), and determines whether there is a learning request (S313). As a result of the determination, if there is a learning request, a selection screen for selecting a learning type or a learning grade (difficulty level) is output again (S314). At this time, the selection screen allows the user to select a desired type of learning and presents and selects menus of various levels so that the user can select the education level. The learning type and difficulty selected in the state are set to a level to be learned later (S316). If there is no selection, the learning level is set using a predetermined value (S317).

그리고 나서, 음성출력 서브루틴을 호출(S318)하여 실행한다. 이때 음성출력 서브루틴에서는 도 4a에서 도시된 바와 같이 메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크하여, 설정된 레벨에 해당하는 학습 데이터를 데이터 베이스에서 로드(S402), 상기 로드된 학습 데이터의 질문 자료를 음성(또는 문자)으로 출력(S403)하고, 그 값을 다시 메인 루틴으로 되돌려 준다(S404).Then, the voice output subroutine is called (S318) to execute. In this case, in the voice output subroutine, as shown in FIG. 4A, the initial value of the database is checked using data provided from the main routine, and the training data corresponding to the set level is loaded from the database (S402). The question data of the data is output as voice (or text) (S403), and the value is returned to the main routine (S404).

다음으로 상기 음성 출력 서브루틴에서 되돌려 받은 자료를 이용하여 배경 영상출력 서브루틴과 배경 음향출력 서브루틴을 동시에 호출(S319)하여 실행시키고, 또한 음성 인식 서브루틴을 호출하여 실행(S319-1)시킨다. 따라서 상기 음성 인식 서브루틴에서는 도 4b 에서와 같이, 메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크한 후, 음성인식결과가 있기를 기다리며(S412), 음성인식결과가 나타나면, 데이터 베이스에서 답변자료를 조사(S413)하여, 상기 음성 인식된 결과와 데이터 베이스의 답변 자료를 비교(S414)하여, 그 비교결과를 각각 다시 메인 루틴으로 되돌려 준다(S415, S416). 배경 영상출력 서브루틴과 배경 음향 서브루틴에서는 도 4c 및 도 4d에 도시된 바와 같이, 메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크하여, 설정된 레벨에 해당하는 학습 데이터의 배경 영상자료 및 배경 음향자료를 각각의 데이터 베이스에서 로드(S422, S432), 상기 로드된 학습 데이터의 배경 영상자료 및 배경 음향자료를 출력(S423, S433)한다.Next, the background image output subroutine and the background sound output subroutine are simultaneously called (S319) and executed by using the data returned from the voice output subroutine, and the voice recognition subroutine is executed (S319-1). . Accordingly, in the speech recognition subroutine, as shown in FIG. 4B, the database initial value is checked using the data provided in the main routine, and then the voice recognition result is waited for (S412). In step S413, the answer data is compared with the speech recognition result and the answer data in the database (S414), and the comparison results are returned to the main routine, respectively (S415 and S416). In the background image output subroutine and the background acoustic subroutine, as shown in FIGS. 4C and 4D, the initial value of the database is checked using the data provided by the main routine, and the background image data of the training data corresponding to the set level is checked. And load background sound data from respective databases (S422 and S432), and output background image data and background sound data of the loaded learning data (S423 and S433).

그 다음, 상기 음성 인식 서브루틴에서 되돌려준 결과를 체크(S320)하여, 올바른 응답인 경우는 다음 사용자료를 데이터 베이스에서 읽어오기 위해 질문 자료와 그 응답자료를 하나로 묶어 파일로 형성(S320-1)하고, 해당 파일을 데이터 베이스에서 찾아 음성 출력 서브루틴을 실행(S321)시킴으로써, 상기 사용자의 응답에 부응하는 새로운 질문자료를 음성으로 출력하여, 새로운 학습을 계속할 수 있도록 한다.Next, the result returned from the speech recognition subroutine is checked (S320), and if the answer is correct, the question data and the response data are combined into a file to read the next user fee from the database (S320-1). By searching the file in the database and executing the voice output subroutine (S321), new question material corresponding to the user's response is output as voice, so that new learning can be continued.

상기 음성 인식 서브루틴에서 되돌려준 결과를 체크(S320)하여, 올바른 응답이 아닌 경우는, 올바른 응답이 아님을 알리기 위한 메시지를 음성이나 문자로 출력(S322)하며, 바로 다음에 데이터 베이스에 저장된 정답자료를 읽어 음성이나 문자로 출력(S323)함으로써, 사용자가 정답을 확인할 수 있도록 한다. 그리고 틀린 문제를 다시 복습할 것인지를 묻고(S324), 그 물음에 긍정적으로 응답하면 상기 틀린 문제를 다시 학습할 수 있도록 배경 화면 및 음향 출력과 음성 인식을 차례로 실시하는 단계(S319)로 복귀시킨다. 상기 틀린 문제를 복습하기를 원하지 않는 경우, 다음 사용자료를 데이터 베이스에서 읽어오기 위해 질문 자료와 그 응답자료를 하나로 묶어 파일로 형성(S320-1)하고, 해당 파일을 데이터 베이스에서 찾아 음성 출력 서브루틴을 실행(S321)시킴으로써, 상기 사용자의 응답에 부응하는 새로운 질문자료를 음성으로 출력하여, 새로운 학습을 계속할 수 있도록 한다.If the result returned by the speech recognition subroutine is checked (S320), and if it is not a correct response, a message for notifying the correct response is output as voice or text (S322), and the correct answer stored immediately in the database By reading the data and outputting in voice or text (S323), the user can check the correct answer. If the question is asked again to review the wrong problem (S324), and if the answer is affirmatively, the screen returns to the step (S319) of performing the background screen and sound output and speech recognition in order to learn the wrong problem again. If you do not want to review the wrong problem, in order to read the next user fee from the database, the question material and the answer data are combined into a file (S320-1), and the file is found in the database and the voice output sub By executing the routine (S321), a new question material corresponding to the user's response is output as a voice so that new learning can be continued.

상기 과정들을 구체적인 예로서 설명하면 다음과 같다.The above processes are described as specific examples.

먼저 김포공항에서 한 외국 방문자를 맞이하는 한국인이 방문자의 한국 방문 경험에 대하여 질문하는 대화 상황을 가정하면, 상호 입체식 대화 영어 학습 방법은 다음과 같이 진행된다.First, assuming a conversational situation where a Korean who greets a foreign visitor at Gimpo Airport asks about the visitor's experience in Korea, the mutual three-dimensional conversational English learning method proceeds as follows.

Welcome to Korea! Have you been in Korea before?Welcome to Korea! Have you been in Korea before?

위의 질문에 대답 가능한 모든 답변 문장들은 데이터 저장부(70)에 저장되어 있다. 그리고, 이 때 배경 화면은 김포공항이 되며, 비행기가 이착륙하는 동적 배경과 음향 효과가 동시에 전개된다. 데이터 저장부(70)에 저장된 답변은 다음 중 하나와 같다고 가정한다.All answer sentences capable of answering the above questions are stored in the data storage unit 70. At this time, the wallpaper becomes Gimpo Airport, and the dynamic background and sound effects of the plane take off and land simultaneously. Assume that the answer stored in the data storage unit 70 is one of the following.

가) Yes, I have.A) Yes, I have.

나) Yes, I have been there many times.B) Yes, I have been there many times.

다) No, I have not.C) No, I have not.

사용자가 위의 3가지 답변들 중 일치하는 대답을 하는 경우, 선택된 대답에 따른 다음 대화 진행 내용은 데이터 저장부(70)에 저장되어 있다. 예로서, 상기 가) 문장에 대한 데이터 저장부(70)에 저장된 새 질문은 다음과 같다고 가정한다.When the user gives a matching answer among the above three answers, the contents of the next conversation according to the selected answer are stored in the data storage 70. For example, it is assumed that the new questions stored in the data storage unit 70 for the sentence A are as follows.

How long have you stayed?How long have you stayed?

여기에 가능한 답변으로 데이터 저장부(70)에 다음과 같이 저장되어 있다고 가정한다.As a possible answer here, it is assumed that the data storage unit 70 is stored as follows.

가) a weekA) a week

나) two weeks2) two weeks

다) a monthA) a month

라) More than two monthsD) More than two months

사용자가 상기 가)의 대답을 한 경우 데이터 저장부(70)에 저장되어 있는 다음 진행 문답의 질문은 다음과 같다고 가정한다.When the user answers a), it is assumed that the question of the next progress question and answer stored in the data storage unit 70 is as follows.

What was your impression of Korea?What was your impression of Korea?

이러한 질문에 대한 배경 화면은 질문의 내용을 적절히 표시하는 내용으로서, 데이터 저장부(70)에 저장되어 있다. 상기 질문의 경우에는 인상을 강조하는 내용의 배경 화면으로 좋은 느낌을 의미하는 하트 심벌, 아름다움을 의미하는 가을 설악산 풍경, 싫은 느낌의 출퇴근 시간의 복잡한 지하철 내부 등의 다양한 3차원 배경 영상이 데이터 저장부(70)에 저장되어 있다.The background screen for the question is a content for properly displaying the content of the question and is stored in the data storage unit 70. In the case of the question above, various three-dimensional background images such as a heart symbol representing a good feeling, an autumn Seorak mountain landscape representing beauty, and an interior of a complicated subway with a disgusting commute time are used as the wallpaper for emphasizing the impression. It is stored at 70.

상기와 같이 영상 출력부(40)는 상기 영상 자료를 화면에 출력하면서 사용자의 이해를 시각적으로 자극하여 학습 효율을 높인다.As described above, the image output unit 40 visually stimulates the user's understanding while outputting the image data on the screen to increase learning efficiency.

따라서 본 발명의 학습 시스템에 의하면, 사용자의 학습 내용에 따라 다양한 내용의 언어 전개가 가능하도록 함으로써, 사용자가 주체가 되어 언어를 진행할 수 있는 이점이 있으며, 대화 진행 내용에 따른 3차원 영상과 배경 음향이 모니터 화면과 스피커롤 출력되도록함으로써, 실제 생활 언어와 같이 입체적인 대화 방식으로 교육을 할 수 있어 사용자의 집중력과 학습 효과를 높일 수 있는 이점이 있다.Therefore, according to the learning system of the present invention, by enabling the language development of various contents according to the user's learning content, there is an advantage that the user can proceed the language as a subject, the three-dimensional image and the background sound according to the progress of the conversation By outputting the monitor screen and the speaker, it is possible to educate the user in a three-dimensional conversation like a real-life language, thereby increasing the user's concentration and learning effect.

Claims (6)

음성 입력수단을 통해 들어오는 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하는 음성 인식수단;Voice recognition means for analyzing a voice signal received through the voice input means and recognizing the meaning of the voice signal; 영상신호 및 음성신호를 각각 신호 처리하여 모니터 화면 및 스피커로 출력하는 영상 및 음성출력수단;Video and audio output means for signal-processing the video and audio signals, respectively, and outputting them to the monitor screen and the speaker; 실생활 대화에서 전개될 수 있는 다양한 상황을 바탕으로 한 질문데이터와, 그 질문에 따른 다수의 답변데이터, 및 상기 질문과 다수의 답변 데이터 각각의 내용에 알맞는 영상데이터와 음향데이터를 학습자료로 저장하는 데이터 저장수단을 포함하는 것을 특징으로 하는 상호 대화식 언어 학습시스템.Storing question data based on various situations that can be developed in real life conversations, a plurality of answer data according to the question, and image data and sound data corresponding to the contents of the question and the plurality of answer data as learning materials. Interactive language learning system comprising a data storage means for. 제 1항에 있어서, 사용자가 원하는 학습자료를 상기 데이터 저장수단에서 읽어 해당 학습자료의 질문데이터를 상기 영상 및/또는 음성 출력수단으로 내보내고, 상기 음성 인식수단을 통해 사용자의 답변데이터가 들어오면 상기 데이터 저장수단으로부터 읽어낸 답변데이터와 비교하여 정답/오답 여부를 판단하고, 그 판단 결과에 따라 사용자의 답변데이터에 부응하는 다음 질문데이터를 상기 데이터 저장수단의 학습자료를 읽어내 상기 영상 및/또는 음성 출력수단으로 내보내는 제어수단을 더 포함하는 것을 특징으로 하는 상호 대화식 언어 학습시스템.The method of claim 1, wherein the user's desired learning data is read from the data storage means, and the question data of the corresponding learning material is exported to the video and / or audio output means. The answer data read from the data storage means is judged whether the answer is correct or incorrect, and according to the result of the determination, the next question data corresponding to the user's answer data is read from the learning data of the data storage means and the image and / or Interactive language learning system further comprises a control means for exporting to the voice output means. 제 1항에 있어서, 데이터 베이스에 저장할 학습자료를 입력하거나 사용자가 원하는 학습자료선택을 위한 키입력수단을 더 포함하는 것을 특징으로 하는 상호 대화식 언어 학습시스템.The interactive language learning system of claim 1, further comprising key input means for inputting learning data to be stored in a database or for selecting a learning material desired by a user. 제 2항에 있어서, 상기 음성인식수단은 음성입력신호를 분석하여, 그 음성입력신호가 의미하는 내용의 문자데이터로 변환하여 출력하는 것을 특징으로 하는 상호 대화식 언어 학습시스템.3. The interactive language learning system according to claim 2, wherein the voice recognition means analyzes the voice input signal, converts the voice input signal into text data of the content indicated by the voice input signal, and outputs the converted text data. 제 2항에 있어서, 상기 데이터 저장수단은,The method of claim 2, wherein the data storage means, 질문데이터와 그 질문에 대한 다수의 답변데이터를 저장할 때, 상기 질문데이터와 다수의 답변데이터로부터 그 각각의 데이터에 대한 해당 소재를 추출하여, 질문과 답변의 소재를 하나로 묶어 파일형태로 저장하고, 해당 파일의 내용에 따른 영상데이터 및 음향데이터를 각각 따로 구분하여 학습자료구조를 형성한 것을 특징으로 하는 상호 대화식 언어 학습시스템.When storing the question data and the plurality of answer data for the question, extract the corresponding material for each of the data from the question data and the plurality of answer data, and store the questions and answers of the material into a file, Interactive language learning system, characterized in that to form a learning data structure by separately separating the image data and sound data according to the contents of the file. 제 2항에 있어서, 상기 데이터 저장수단은,The method of claim 2, wherein the data storage means, 언어 학습을 위한 질문데이터와 그 질문에 대한 다수의 답변데이터, 및 상기 다수의 각 답변데이터에 부응하는 새로운 질문데이터와 그 새로운 질문에 대한 새로운 다수의 답변데이터를 나무(tree)구조로 하여 학습자료구조를 형성한 것을 특징으로 하는 상호 대화식 언어 학습시스템.Learning data using a tree structure of question data for language learning, a plurality of answer data for the question, and new question data corresponding to each of the plurality of answer data and a plurality of new answer data for the new question. Interactive language learning system characterized by forming a structure.
KR1019990005290A 1999-02-13 1999-02-13 Language study system by interactive conversation KR100296271B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990005290A KR100296271B1 (en) 1999-02-13 1999-02-13 Language study system by interactive conversation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990005290A KR100296271B1 (en) 1999-02-13 1999-02-13 Language study system by interactive conversation

Publications (2)

Publication Number Publication Date
KR20000056203A true KR20000056203A (en) 2000-09-15
KR100296271B1 KR100296271B1 (en) 2001-07-03

Family

ID=19574444

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990005290A KR100296271B1 (en) 1999-02-13 1999-02-13 Language study system by interactive conversation

Country Status (1)

Country Link
KR (1) KR100296271B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054003A (en) * 2000-05-17 2000-09-05 조진형 Foreign language studying system on internet
KR20020042954A (en) * 2000-12-01 2002-06-08 박정래 Method of language education using a fairy tale by interactive communication
KR100466832B1 (en) * 2002-03-12 2005-01-24 정한수 Foreign language studying system and method equipped unconscious foreign language exposure way
KR100490367B1 (en) * 2001-08-03 2005-05-17 정택 The portable apparatus of word studying and method of word studying using the same
KR100768286B1 (en) * 2006-09-14 2007-10-17 원창업 Apparatus and method for memorizing sentence by image
KR100915681B1 (en) * 2007-06-26 2009-09-04 옥종석 Method and apparatus of naturally talking with computer
CN113256751A (en) * 2021-06-01 2021-08-13 平安科技(深圳)有限公司 Voice-based image generation method, device, equipment and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054003A (en) * 2000-05-17 2000-09-05 조진형 Foreign language studying system on internet
KR20020042954A (en) * 2000-12-01 2002-06-08 박정래 Method of language education using a fairy tale by interactive communication
KR100490367B1 (en) * 2001-08-03 2005-05-17 정택 The portable apparatus of word studying and method of word studying using the same
KR100466832B1 (en) * 2002-03-12 2005-01-24 정한수 Foreign language studying system and method equipped unconscious foreign language exposure way
KR100768286B1 (en) * 2006-09-14 2007-10-17 원창업 Apparatus and method for memorizing sentence by image
WO2008032966A1 (en) * 2006-09-14 2008-03-20 Chang Up Won Apparatus and method for memorizing sentence using image
KR100915681B1 (en) * 2007-06-26 2009-09-04 옥종석 Method and apparatus of naturally talking with computer
CN113256751A (en) * 2021-06-01 2021-08-13 平安科技(深圳)有限公司 Voice-based image generation method, device, equipment and storage medium
CN113256751B (en) * 2021-06-01 2023-09-29 平安科技(深圳)有限公司 Voice-based image generation method, device, equipment and storage medium

Also Published As

Publication number Publication date
KR100296271B1 (en) 2001-07-03

Similar Documents

Publication Publication Date Title
JP4689670B2 (en) Interactive manuals, systems and methods for vehicles and other complex devices
CN112162628A (en) Multi-mode interaction method, device and system based on virtual role, storage medium and terminal
EP0752129B1 (en) A method and apparatus for providing a human-machine dialog supportable by operator intervention
CN110797010A (en) Question-answer scoring method, device, equipment and storage medium based on artificial intelligence
WO2000031613A1 (en) Script development systems and methods useful therefor
CN110767005A (en) Data processing method and system based on intelligent equipment special for children
KR101004913B1 (en) An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof
KR100915681B1 (en) Method and apparatus of naturally talking with computer
KR100296271B1 (en) Language study system by interactive conversation
KR100287227B1 (en) Language study method by interactive conversation
KR100447667B1 (en) Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer
KR100296272B1 (en) Language study system by interactive conversation
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
CN116884282A (en) Question answering method, device, electronic equipment and storage medium
KR20020024828A (en) Language study method by interactive conversation on Internet
JP2010231580A (en) System and method for supporting education
KR100287228B1 (en) Language study method by interactive conversation
CN110852922A (en) Dynamic scenario-oriented language digital teaching method and system
KR20190113218A (en) Foreign language learning method and system using user&#39;s native language pattern analysis
KR20190070683A (en) Apparatus and method for constructing and providing lecture contents
KR20050024996A (en) Spelling teaching method by the pattern recognition of an image on an input device
KR20000036950A (en) A communications network system for teaching and test in english
JP2014038140A (en) Language learning assistant device, language learning assistant method and language learning assistant program
KR20020008940A (en) Method and system for step by step studying a foreign language using internet
US20060074636A1 (en) Language learning system and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100510

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee