KR101060281B1 - Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor - Google Patents

Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor Download PDF

Info

Publication number
KR101060281B1
KR101060281B1 KR1020100095897A KR20100095897A KR101060281B1 KR 101060281 B1 KR101060281 B1 KR 101060281B1 KR 1020100095897 A KR1020100095897 A KR 1020100095897A KR 20100095897 A KR20100095897 A KR 20100095897A KR 101060281 B1 KR101060281 B1 KR 101060281B1
Authority
KR
South Korea
Prior art keywords
learning
image
file
input
command
Prior art date
Application number
KR1020100095897A
Other languages
Korean (ko)
Inventor
김도영
Original Assignee
김도영
(주)시누스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김도영, (주)시누스 filed Critical 김도영
Priority to KR1020100095897A priority Critical patent/KR101060281B1/en
Priority to PCT/KR2010/009220 priority patent/WO2011102600A2/en
Application granted granted Critical
Publication of KR101060281B1 publication Critical patent/KR101060281B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE: A learning terminal for an infant and a learning data generating method using the same, and a storing medium with a program are provided to output voice related to a character, a number, and a picture corresponding to a selected input area, thereby increasing learning effects. CONSTITUTION: A touch sensing unit assigns at least one command corresponding to each preset input area that senses user's input(S100). Learning data to be outputted in response to each command are designated(S120). The assigned command and a learning data file name are included in one learning file wherein the learning data file name corresponds to each command(S140).

Description

유아용 학습 단말기 및 이를 이용한 학습자료 생성방법, 학습방법, 그리고 프로그램이 저장된 저장매체{APPARATUS FOR LEANING FOR CHILDREN, METHOD FOR CREATING LEARNING FILE, METHOD FOR LEARNING AND STORAGE MEDIA FOR STORING PROGRAM THEREFOR}Infant learning terminal and method for creating learning materials using the same, learning method, and storage medium in which the program is stored

본 발명은 유아용 학습 단말기 및 이를 이용한 학습자료 생성방법, 학습방법, 그리고 프로그램이 저장된 저장매체에 관한 것으로서, 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 유아용 학습 단말기에 있어서, 사용자가 원하는 자료를 용이하게 활용할 수 있도록 함으로써 학습 범위를 넓히고 학습 의욕을 고취시킬 수 있는 유아용 학습 단말기 및 이를 이용한 학습자료 생성방법, 학습방법, 그리고 프로그램이 저장된 저장매체에 관한 것이다. The present invention relates to an infant learning terminal, a method of learning material generation using the same, a method of learning, and a storage medium in which a program is stored, wherein the learning material corresponding to a selected item among a plurality of items arranged on one image is output. In the terminal, the present invention relates to an infant learning terminal capable of broadening the scope of learning and encouraging learning by allowing a user to easily utilize a desired material, and a method of generating a learning material, a learning method, and a storage medium in which the program is stored.

유아에게 숫자나 문자, 단어, 각종 사물 등을 학습시키기 위한 수단으로써 전통적으로 학습판이나 그림판 등이 사용되어져 왔다. 이들은 다수의 문자, 숫자 또는 그림 등을 배열한 이미지의 인쇄물로서, 시각적인 부분에만 의존하는 학습도구이기 때문에, 발음 학습에는 효과가 없었고 집중력이 낮은 유아들의 주의를 끌기 어려워 학습효과 또한 크지 않았다. Traditionally, learning boards and painting boards have been used as a means for learning infants such as numbers, letters, words, and various objects. These are prints of images arranged with a large number of letters, numbers, or pictures, and because they are learning tools that depend only on the visual part, they have no effect on pronunciation learning and are difficult to attract attention of low concentration children.

한편 이와 같은 기존의 학습판의 단점을 해결하기 위하여 보다 상호적인 학습 방식을 제공하는 학습판 형식의 전자 단말기들이 개발되어 사용되고 있다. 복수의 문자나 숫자, 그림 등이 배열된 이미지의 특정 부분을 유아가 누르면, 눌러진 부분에 대응하는 문자나 숫자, 그림과 관련된 음성이나 멜로디 등이 출력되는 단말기들이 사용되고 있다. 예를 들어 문자나 숫자, 그림 등이 배열된 이미지를 포함하는 학습판의 저면에 도전성 물질이 도포된 여러 층을 배열하여 사용자의 입력을 감지하는 방식으로 단말기를 개발하여 기존의 학습판을 대체할 수 있게 되었다. On the other hand, in order to solve the disadvantages of the existing learning board, learning board-type electronic terminals providing a more interactive learning method have been developed and used. When an infant presses a specific part of an image in which a plurality of letters, numbers, and pictures are arranged, terminals that output voices or melodies corresponding to the pressed part are output. For example, it is possible to replace the existing learning board by developing a terminal by arranging several layers coated with a conductive material on the bottom of the learning board including an image in which letters, numbers, and pictures are arranged to sense user input. It became.

그러나 이와 같은 전자 단말기 형태의 학습판을 사용하더라도, 단말기 구입시 제공되는 이미지 이외에 다른 문자나 숫자, 그림 등을 포함하는 이미지는 제공받기 어렵기 때문에, 각 유아마다 관심분야가 매우 다름에도 불구하고, 그에 맞는 학습 내용을 유아들에게 학습시키기 어렵다는 문제점이 있었다. However, even when using the learning board in the form of an electronic terminal, it is difficult to provide an image including letters, numbers, pictures, etc. in addition to the image provided when the terminal is purchased. There was a problem that it is difficult for children to learn the correct learning contents.

나아가 다양한 학습자료를 활용하기 위해서 사용자가 직접 그림판에 배열된 아이템과 학습자료들, 입력수단 사이의 대응관계를 변경하기 용이하지 않다는 문제점이 있었다. Furthermore, in order to utilize various learning materials, there was a problem that it was not easy for the user to directly change the correspondence between the items arranged on the paint board, the learning materials, and the input means.

또한 특정 회사에서 생성된 학습판 이미지들을 다른 회사에서 제조된 단말기에서 사용할 수 없다는 문제점도 있었다. In addition, there was a problem that the learning image generated by a specific company can not be used in a terminal manufactured by another company.

따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 복수의 문자, 숫자, 그림 등이 배열된 이미지의 특정 영역을 선택하면 선택된 영역에 대응하는 문자, 숫자, 그림에 관련된 음성이 출력되도록 하는 학습 단말기를 제공함으로써 학습 효과를 높일 수 있는 유아용 학습 단말기를 제공하는 것이다.Accordingly, the present invention has been made to solve the above-mentioned conventional problems, and an object of the present invention is to select a specific area of an image in which a plurality of letters, numbers, pictures, etc. are arranged, and then select a letter, number, It is to provide a learning terminal for infants to increase the learning effect by providing a learning terminal to output the voice associated with the picture.

본 발명의 다른 목적은, 유아용 학습 단말기에서 유아들에게 제공되는 학습 컨텐츠를 사용자들이 용이하게 만들 수 있도록 하는 학습 컨텐츠 생성방법을 제공하는 것이다.Another object of the present invention is to provide a learning content generation method that enables users to easily create learning content provided to toddlers in a toddler learning terminal.

본 발명의 또 다른 목적은, 문자, 숫자, 그림 등이 배열된 이미지의 크기나 모양 등의 제한을 받지 않고 이미지를 이용한 학습 컨텐츠를 만들 수 있도록 하는 학습 컨텐츠 생성방법을 제공하는 것이다. Still another object of the present invention is to provide a learning content generation method that enables to create learning content using an image without being limited by the size or shape of an image in which letters, numbers, pictures, and the like are arranged.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 유아용 학습 단말기를 위한 학습파일 생성방법에 있어서, (a)복수의 아이템이 배열된 하나의 이미지로 구성되는 이미지자료에 대하여 상기 이미지에 배열된 각각 아이템에 대하여, 미리 설정된 복수의 입력영역 중 대응하는 하나 이상의 입력영역을 선택하는 단계와; (b)상기 (a)단계에서 각 아이템에 대해 선택된 하나 이상의 입력영역에 대응하는 하나 이상의 학습자료 파일을 지정하는 단계; 그리고 (c)각 입력영역과 학습자료 파일 사이의 대응관계 정보를 하나의 학습파일로 생성하는 단계를 포함하여 수행된다. According to a feature of the present invention for achieving the object as described above, the present invention provides a method for generating a learning file for a learning terminal for children in which a learning material corresponding to a selected item among a plurality of items arranged on one image is output. (A) selecting at least one corresponding input area among a plurality of preset input areas for each item arranged in the image with respect to the image data composed of one image in which a plurality of items are arranged; (b) designating one or more learning material files corresponding to one or more input areas selected for each item in step (a); And (c) generating the corresponding relationship information between each input area and the learning data file into one learning file.

그리고 상기 (b)단계는, (b1) 상기 (a)단계에서 각 아이템에 대해 선택된 하나 이상의 입력영역에 대응하는 하나의 명령을 각각 할당하는 단계; 그리고 (b2) 할당된 각 명령에 대응하여 출력될 하나 이상의 학습자료 파일을 지정하는 단계를 포함하여 수행될 수도 있다. Step (b) may include: (b1) allocating one command corresponding to one or more input areas selected for each item in step (a); And (b2) designating one or more learning material files to be output in correspondence with each assigned command.

또한 본 발명은, 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 유아용 학습 단말기를 이용한 학습 방법에서, (A) 하나의 학습파일이 실행되는 단계와; (B) 미리 설정된 복수의 입력영역 중 어느 하나에서 사용자 입력이 감지되는 단계와; (C) 상기 학습파일에서 사용자 입력이 감지된 입력영역에 대응하는 하나 이상의 학습자료명을 검색하는 단계; 그리고 (D) 검색된 학습자료명을 상기 단말기 상에서 검색하여 검색된 하나 이상의 학습자료를 출력하는 단계를 포함하여 수행될 수도 있다. In another aspect, the present invention provides a learning method using a learning learning terminal for children that outputs the learning material corresponding to the selected item of the plurality of items arranged on one image, (A) the step of executing one learning file; (B) detecting a user input in any one of a plurality of preset input areas; (C) retrieving one or more learning material names corresponding to the input area in which the user input is sensed in the learning file; And (D) searching the searched learning material name on the terminal to output the searched learning material.

여기서 상기 학습자료는, 아이템과 관련된 음성자료, 텍스트자료, 이미지자료, 및 동영상자료 중 적어도 하나를 포함할 수 있다. Here, the learning material may include at least one of audio data, text data, image data, and video data related to the item.

나아가 본 발명은, 복수의 아이템이 배열된 디지털 또는 아날로그 이미지가 표시되는 이미지 디스플레이부와; 상기 이미지 디스플레이부에 표시된 이미지 상에 가해지는 사용자의 터치입력을 감지하는 터치감지부와; 텍스트, 이미지, 또는 동영상의 데이터를 출력하는 화면출력부와; 음성 데이터를 출력하는 음성출력부; 그리고 상기 터치감지부에서 감지한 터치입력이 미리 설정된 복수의 입력영역 중 어느 위치에 대응하는지 여부를 검출하여, 터치입력이 감지된 입력영역에 대응하는 하나 이상의 학습자료를 출력하는 컨트롤러를 포함하여 구성될 수 있다. Furthermore, the present invention provides an image display unit for displaying a digital or analog image in which a plurality of items are arranged; A touch sensing unit sensing a user's touch input applied to the image displayed on the image display unit; A screen output unit configured to output data of a text, an image, or a video; A voice output unit for outputting voice data; And a controller for detecting whether the touch input detected by the touch sensing unit corresponds to a position among a plurality of preset input regions, and outputting one or more learning materials corresponding to the input region in which the touch input is sensed. Can be.

이때 상기 컨트롤러는, 미리 설정된 복수의 입력영역 중 각각의 입력영역과 하나 이상의 학습자료 사이의 대응관계 정보를 포함하는 학습파일을 해석하여 각 입력영역에 대응하는 학습자료명을 검색하는 응용프로그램에 따라, 터치입력이 감지된 입력영역에 대응하는 학습자료를 검색하여 출력할 수 있다. At this time, the controller, according to the application program for retrieving the learning material name corresponding to each input area by interpreting the learning file including the corresponding relationship information between each input area and one or more learning materials of a plurality of preset input areas, The learning material corresponding to the input area where the touch input is detected may be searched for and output.

그리고 상기 컨트롤러는, 사용자로부터 하나의 명령에 대응하는 하나 이상의 입력영역과 하나 이상의 학습자료를 각각 선택받아, 적어도 하나 이상의 명령과 그에 대응하는 입력영역과 학습자료의 대응관계 정보를 포함하는 학습파일을 생성하여 저장할 수 있다. The controller may be further configured to receive a learning file including at least one input area corresponding to one command and at least one learning material from a user, and including at least one command and corresponding relationship information between the corresponding input area and the learning material. Can be created and saved.

또한 상기 터치감지부는, 상기 복수의 입력영역에 대응하는 복수의 접점을 갖는 두 개의 도전성 금속 필름을 포함하여 구성될 수 있다. The touch sensing unit may include two conductive metal films having a plurality of contacts corresponding to the plurality of input areas.

나아가 상기 학습용 단말기는, 타 장치로부터 학습자료와 학습파일을 다운로드 받는 연결부를 더 포함하여 구성될 수 있다. Furthermore, the learning terminal may further include a connection unit for downloading the learning material and the learning file from another device.

또한 본 발명은 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 유아용 학습 단말기에 설치되어, (1) 하나의 학습파일을 선택받는 단계와; (2) 선택된 학습파일을 해석하여 학습파일 내에서 미리 설정된 각 입력영역에 대응하는 학습자료명을 독출하는 단계와; (3) 사용자 입력이 감지되면, 사용자 입력이 감지된 입력영역에 대응하는 학습자료명을 검색하는 단계와; (4) 검색된 학습자료명으로 상기 단말기에 저장된 데이터에서 대응하는 학습자료 파일을 검색하는 단계; 그리고 (5) 검색된 학습자료 파일을 재생하는 단계를 포함하여 수행됨을 특징으로 하는 응용프로그램이 저장되는 기록매체를 포함할 수도 있다. In another aspect, the present invention is installed in the learning terminal for the infant is output learning material corresponding to the selected item of the plurality of items arranged on one image, (1) the step of selecting one learning file; (2) interpreting the selected learning file and reading a learning material name corresponding to each preset input area in the learning file; (3) if the user input is detected, searching for a learning material name corresponding to the input area where the user input is detected; (4) searching for a corresponding learning material file in the data stored in the terminal with the found learning material name; And (5) reproducing the retrieved learning material file. The recording medium may include a recording medium storing the application program.

이상에서 상세히 설명한 바와 같이 유아용 학습 단말기 및 이를 이용한 학습자료 생성방법, 학습방법, 그리고 프로그램이 저장된 저장매체에 의하면 다음과 같은 효과를 기대할 수 있다.As described in detail above, according to the learning terminal for infants, the method of learning data generation, the learning method, and the storage medium in which the program is stored, the following effects can be expected.

즉, 선택된 입력영역에 대응하는 문자, 숫자, 그림에 관련된 음성이 출력되도록 하는 학습 단말기를 제공함으로써 학습 효과를 높일 수 있다는 장점이 있다. That is, the learning effect can be enhanced by providing a learning terminal for outputting voices related to letters, numbers, and pictures corresponding to the selected input area.

또한 본 발명에 의한 유아용 학습 단말기 및 이를 이용한 학습자료 생성방법, 학습방법, 그리고 프로그램이 저장된 저장매체에 의하면 유아용 학습 단말기에서 유아들에게 제공되는 학습자료를 사용자들이 용이하게 변경할 수 있도록 함으로써 보다 다양한 범위의 학습을 수행할 수 있다는 장점이 있다. In addition, according to the present invention for the learning terminal for children and the method for generating the learning material using the same, the learning method, and the storage medium in which the program is stored, the user can easily change the learning materials provided to the infants in the infant learning terminal, thereby making it more versatile. It has the advantage of being able to perform learning.

본 발명에 의한 유아용 학습 단말기 및 이를 이용한 학습자료 생성방법, 학습방법, 그리고 프로그램이 저장된 저장매체에 의하면 문자, 숫자, 그림 등의 아이템이 배열된 이미지의 크기나 모양, 아이템의 배열 위치 등의 제한을 받지 않고, 이미지에 배열된 아이템에 대응하여 입력수단 입력시 출력되는 오디오, 비디오, 텍스트, 비디오 등의 학습자료를 용이하게 변경할 수 있어, 다양한 컨텐츠를 활용할 수 있다는 이점이 있다. In accordance with the present invention, a learning terminal for a baby and a method for generating a learning material using the same, a method for learning, and a storage medium storing a program, are used to restrict the size and shape of an image in which items such as letters, numbers, and pictures are arranged, and positions of items. It is possible to easily change the learning materials such as audio, video, text, and video output when the input means is input in correspondence with the items arranged in the image, and thus, there is an advantage of utilizing various contents.

도 1a 내지 1d는 본 발명의 구체적인 실시예에 의한 학습용 단말기를 도시한 사시도.
도 2는 본 발명의 구체적인 실시예에 의한 학습용 단말기의 구성을 개략적으로 도시한 블럭도.
도 3은 본 발명의 구체적인 실시예에 의한 학습파일 생성 방법을 단계적으로 도시한 흐름도.
도 4는 도 3에 도시된 학습파일 생성방법에 의해 생성된 학습 파일의 일실시예를 도시한 도면.
도 5는 본 발명의 구체적인 실시예에 의한 학습 방법을 단계적으로 도시한 흐름도.
1A to 1D are perspective views illustrating a learning terminal according to a specific embodiment of the present invention.
Figure 2 is a block diagram schematically showing the configuration of a learning terminal according to a specific embodiment of the present invention.
3 is a flowchart illustrating a learning file generation method step by step according to a specific embodiment of the present invention;
4 is a diagram illustrating an embodiment of a training file generated by the training file generating method illustrated in FIG. 3.
5 is a flowchart illustrating a learning method step by step according to a specific embodiment of the present invention;

이하에서는 상기한 바와 같은 본 발명에 의한 유아용 학습 단말기 및 유아용 학습 컨텐츠 생성방법의 구체적인 실시예를 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings, a specific embodiment of the infant learning terminal and infant learning content generation method according to the present invention as described above will be described in detail.

도 1a 내지 1d는 본 발명의 구체적인 실시예에 의한 학습용 단말기를 도시한 사시도이다.1A to 1D are perspective views illustrating a learning terminal according to a specific embodiment of the present invention.

도 1a에 도시된 바와 같이, 본 발명의 구체적인 실시예에 의한 학습용 단말기(100)에는 화면출력부(10)가 구비된다. 상기 화면출력부(10)는 LCD(Liquid Crystal Display) 등의 디스플레이수단으로 구성되어 단말기의 동작에 대응하는 화면을 출력한다. As shown in Figure 1a, the learning terminal 100 according to a specific embodiment of the present invention is provided with a screen output unit 10. The screen output unit 10 is configured with display means such as an LCD (Liquid Crystal Display) to output a screen corresponding to the operation of the terminal.

그리고 상기 학습용 단말기(100)에는 음성출력부(11)가 구비된다. 상기 음성출력부(11)는 단말기의 동작에 따라 저장된 오디오 데이터를 출력하는 스피커수단이다. 상기 음성출력부(11)에서는 상기 화면출력부(10)에 표시되는 이미지 데이터와 관련된 오디오 데이터가 출력될 수 있다. In addition, the learning terminal 100 is provided with a voice output unit 11. The voice output unit 11 is a speaker means for outputting the stored audio data according to the operation of the terminal. The audio output unit 11 may output audio data related to image data displayed on the screen output unit 10.

또한 상기 학습용 단말기(100)에는 사용자로부터 명령이나 데이터를 입력받기 위한 터치스크린(12)이 구비된다. 상기 터치스크린(12)은 LCD 등 디스플레이 수단의 전면에 터치패널을 구성하여 형성된다. 상기 터치스크린(12)에는 다양한 화면이 디스플레이될 수 있고, 그 화면의 일측을 사용자가 스타일러스팬(13) 등으로 터치하여 데이터나 명령을 입력할 수 있다.In addition, the learning terminal 100 is provided with a touch screen 12 for receiving a command or data from the user. The touch screen 12 is formed by forming a touch panel on the front of the display means such as LCD. Various screens may be displayed on the touch screen 12, and a user may input data or commands by touching one side of the screen with the stylus fan 13 or the like.

특히 상기 터치스크린(12)에는 복수의 문자, 숫자 또는 그림 등이 배열된 이미지가 디스플레이될 수 있다. 예를 들어 도면에 도시된 바와 같이 알파벳이 배열된 이미지가 디스플레이될 수도 있다. 이때 상기 터치스크린(12)은 기설정된 복수의 입력영역으로 구획된다. 상기 복수의 입력영역의 각 입력영역은 미리 설정된 일정한 크기 및 위치를 갖는다. In particular, the touch screen 12 may display an image in which a plurality of letters, numbers, or pictures are arranged. For example, an image in which alphabets are arranged may be displayed as shown in the figure. In this case, the touch screen 12 is divided into a plurality of preset input areas. Each input area of the plurality of input areas has a predetermined predetermined size and position.

한편 상기 학습용 단말기(100)에서는 상기 터치스크린(12)에 유아의 학습을 위하여 복수의 문자, 숫자 또는 그림 등이 배열된 이미지 자료(I)가 디스플레이된다. 이때 상기 이미지 자료(I)의 각 아이템들은 상기 터치스크린(12)의 복수의 입력영역 중 적어도 하나에 대응하는 위치에 배열된다. On the other hand, the learning terminal 100 is displayed on the touch screen 12, the image material (I) is arranged a plurality of letters, numbers or pictures for learning of the infant. In this case, each item of the image material I is arranged at a position corresponding to at least one of the plurality of input areas of the touch screen 12.

여기서 상기 터치스크린(12)을 통해 디스플레이되는 상기 이미지 자료(I)는 상기 학습용 단말기(100)에 저장된 디지털 이미지에 해당한다. 상기 이미지 자료(I)에 배열된 문자, 숫자, 그림 중 어느 하나를 사용자가 상기 스타일러스팬(13)이나 손으로 터치하면 선택된 문자나 숫자, 그림과 관련된 학습 자료가 상기 화면출력부(10)나 상기 음성출력부(11)를 통해 출력된다. The image data I displayed through the touch screen 12 corresponds to a digital image stored in the learning terminal 100. When the user touches any one of the letters, numbers, and pictures arranged in the image material I with the stylus fan 13 or the hand, the learning materials related to the selected letters, numbers, or pictures are displayed on the screen output unit 10 or the like. It is output through the voice output unit 11.

예를 들어, 사용자가 상기 이미지 자료(I)에 배열된 복수의 알파벳 중, 알파벳 A를 선택한 경우, 상기 음성출력부(11)에서는 알파벳 A의 발음에 해당하는 'ei'나 알파벳 A로 시작하는 영어단어 중 어느 하나의 발음이 출력되도록 할 수 있다. 또한 관련된 음악이나 구연동화 등의 오디오 파일이 재생되도록 할 수도 있다. 그리고 상기 화면출력부(10)에는 상기 음성출력부(11)에서 출력되는 발음에 관련된 단어나 그림 등이 함께 출력될 수 있다. For example, when the user selects the letter A among the plurality of letters arranged in the image material I, the voice output unit 11 starts with 'ei' or letter A corresponding to the pronunciation of the letter A. The pronunciation of any one of the English words may be output. It is also possible to play audio files such as related music or storytelling. The screen output unit 10 may also output words or pictures related to the pronunciation output from the voice output unit 11.

이와 같은 방식으로 상기 학습용 단말기(100)를 통해서 유아들은 이미지 자료(I)에 배열된 단어나 문자, 숫자, 그림, 구구단 등을 학습할 수 있다. In this way, the children can learn the words, letters, numbers, pictures, multiplication tables, etc. arranged in the image material (I) through the learning terminal (100).

또한 상기 학습용 단말기(100)는 도 1a에 도시된 바와 같은 실시예 외에도 여러가지 실시예로 구현될 수 있다. 도 1b에 도시된 바와 같이, 상기 학습용 단말기(100)의 다른 실시예도 상기 화면출력부(10)와 음성출력부(11)를 포함한다. 그리고 이미지 자료(I)가 하단에 디스플레이되는데, 이 실시예에서 상기 이미지 자료(I)는 아날로그 이미지로 구비된다. 즉, 상기 이미지 자료(I)는 인쇄물이나 사용자가 직접 그린 이미지가 될 수 있다. 따라서 상기 학습용 단말기(100)는 이와 같은 아날로그 이미지를 고정하거나 지지할 수 있는 기구적 수단을 더 포함할 수 있다. In addition, the learning terminal 100 may be implemented in various embodiments in addition to the embodiment shown in Figure 1a. As shown in FIG. 1B, another embodiment of the learning terminal 100 also includes the screen output unit 10 and the voice output unit 11. And image material I is displayed at the bottom, in this embodiment the image material I is provided as an analog image. That is, the image data I may be a printed matter or an image drawn by a user. Therefore, the learning terminal 100 may further include mechanical means for fixing or supporting such an analog image.

한편 도 1b에 도시된 학습용 단말기(100)에는 아날로그 이미지로 구성되는 상기 이미지 자료(I)의 특정 영역에 대한 사용자의 터치 입력을 감지할 수 있도록 하는 수단으로서 무선신호송신수단(23)이 구성된다. 상기 무선신호송신수단(23)에는 그 일단에 압력을 감지하는 접촉인지부가 구비되고, 접촉인지부에 압력이 감지되면 적외선 신호와 초음파 신호를 송출하는 무선신호송신부가 구비된다. 그에 따라 사용자가 상기 무선신호송신수단(23)을 이용하여 상기 이미지 자료(I) 상의 특정 부분을 접촉하면, 상기 무선신호송신수단(23)에서 적외선 신호와 초음파 신호가 송출된다. 그리고 상기 학습용 단말기(100)에 소정 간격으로 배열된 두 개의 초음파수신센서(S1)와 적외선수신센서(S2)에서는 상기 무선신호송신수단(23)에서 송출된 신호를 감지한다. Meanwhile, the learning terminal 100 illustrated in FIG. 1B includes a wireless signal transmitting means 23 as a means for detecting a user's touch input on a specific region of the image material I composed of an analog image. . The wireless signal transmission means 23 is provided with a contact recognition unit for sensing pressure at one end thereof, and a wireless signal transmission unit for transmitting infrared signals and ultrasonic signals when pressure is detected at the contact recognition unit. Accordingly, when the user touches a specific portion on the image material I using the wireless signal transmitting means 23, the infrared signal and the ultrasonic signal are transmitted by the wireless signal transmitting means 23. In addition, the two ultrasonic receiving sensors S1 and the infrared receiving sensor S2 arranged at predetermined intervals on the learning terminal 100 detect the signal transmitted from the wireless signal transmitting means 23.

상기 학습용 단말기(100)는 상기 적외선수신센서(S2)에서 적외선 신호를 수신한 시점으로부터 두 개의 초음파수신센서(S1)에서 각각 초음파 신호를 수신하기까지 소요된 시간을 이용하여 상기 무선신호송신수단(23)이 신호를 송출한 위치와 상기 두 개의 초음파수신센서(S1) 사이의 각각의 거리를 연산한다. The learning terminal 100 uses the time required for receiving the ultrasonic signals from the two ultrasonic receiving sensors S1 from the time when the infrared signal is received by the infrared receiving sensor S2. 23) calculates respective distances between the position at which the signal is sent and the two ultrasonic receiving sensors S1.

즉, 초음파가 도달하는 시간은 거리에 비례하므로 두 개의 초음파수신센서(S1)에 초음파가 도달한 시간을 이용하여 상기 무선신호송신수단(23)과 초음파수신센서(S1) 사이의 거리를 각각 연산한다. 그리고 연산된 두 거리값과, 두 개의 초음파수신센서(S1) 사이의 거리값을 이용하면 상기 무선신호송신수단(23)이 상기 이미지 자료(I)를 터치한 부분의 좌표가 연산될 수 있다. 그에 따라 상기 학습용 단말기(100)는 사용자가 상기 이미지 자료(I) 상에 터치입력한 위치의 좌표를 알 수 있고, 그에 따라 해당 좌표에 배열된 문자, 숫자, 그림 등의 아이템에 대응하는 음성 자료나 텍스트, 이미지 등을 상기 음성출력부(11)와 상기 화면출력부(10)를 통해 출력할 수 있다.That is, since the time that the ultrasonic wave reaches is proportional to the distance, the distance between the wireless signal transmitting means 23 and the ultrasonic wave receiving sensor S1 is calculated using the time when the ultrasonic wave reaches the two ultrasonic receiving sensors S1. do. If the calculated distance value and the distance value between the two ultrasonic receiving sensors S1 are used, the coordinates of the portion where the wireless signal transmitting means 23 touches the image material I may be calculated. Accordingly, the learning terminal 100 can know the coordinates of the position touched by the user on the image data I, and accordingly voice data corresponding to items such as letters, numbers, and pictures arranged at the corresponding coordinates Or text, images, etc. may be output through the voice output unit 11 and the screen output unit 10.

이와 같은 실시예에서는 문자, 숫자, 그림 등이 배열되는 이미지 자료(I)의 크기나 모양 등의 제한을 덜 받기 때문에 사용자가 직접 이미지 자료를 손으로 그려서 만들거나, 기존에 갖고 있던 인쇄물 등을 활용하여 새로운 이미지 자료를 만들어서 사용할 수 있다. In such an embodiment, since the size, shape, etc. of the image data (I) in which letters, numbers, and pictures are arranged are less limited, the user directly draws the image data, or utilizes a printed material that he / she has. Can be used to create new image material.

또한 학습용 단말기(100)는 도 1c에 도시된 바와 같은 실시예로 구현될 수도 있다. 상기 학습용 단말기(100)에는 화면출력부(10)와 음성출력부(11)가 구비된다. In addition, the learning terminal 100 may be implemented in an embodiment as shown in FIG. 1C. The learning terminal 100 includes a screen output unit 10 and a voice output unit 11.

그리고 상기 학습용 단말기(100)는 사용자의 손(33)이나 스타일러스 펜 등에 의한 터치입력을 받을 수 있도록 터치패널(32)이 전면에 구비된다. 상기 터치패널(32)은 투명하게 형성됨으로써 상기 터치패널(32)의 후면에 설치될 이미지 자료(I)가 상기 터치패널(32)의 전면에서 보일 수 있도록 한다. In addition, the learning terminal 100 is provided with a touch panel 32 on the front to receive a touch input by a user's hand 33 or a stylus pen. The touch panel 32 is formed to be transparent so that the image material I to be installed on the rear of the touch panel 32 can be seen from the front of the touch panel 32.

그리고 인쇄물 등의 아날로그 이미지가 이미지 자료(I)로서 상기 학습용 단말기(100)에서 디스플레이될 수 있도록 하기 위하여 삽입슬롯(35)이 구비될 수 있다. 상기 삽입슬롯(35)을 통하여 상기 이미지 자료(I)를 상기 학습용 단말기(100)에 설치하면 상기 터치패널(32)의 후면에 상기 이미지 자료(I)가 위치하도록 한다. 다만 삽입슬롯(35)이 구성은 하나의 실시예에 불과하고, 상기 이미지 자료(I)가 상기 터치패널(32)의 후면에 고정될 수 있는 어떠한 구조라도 상기 학습용 단말기(100)가 가질 수 있다. An insertion slot 35 may be provided to enable an analog image such as a printed matter to be displayed on the learning terminal 100 as image material I. When the image material I is installed in the learning terminal 100 through the insertion slot 35, the image material I is positioned on the rear surface of the touch panel 32. However, the configuration of the insertion slot 35 is only one embodiment, and the learning terminal 100 may have any structure in which the image material I may be fixed to the rear surface of the touch panel 32. .

나아가 도 1d에 도시된 바와 같이, 본 발명의 또 다른 실시예에 의한 학습용 단말기(100)는 화면출력부(10)와 음성출력부(11)가 구비된다. 그리고 상기 학습용 단말기(100)에는 사용자의 손이나 다른 수단에 의해 압력이 가해지면 통전되는 복수의 스위치(S)가 매트릭스 형태로 배열되는 패널을 포함한다. 상기 패널 상에는 이미지 자료(I)가 그 전면에 고정될 수 있다. Furthermore, as shown in Figure 1d, the learning terminal 100 according to another embodiment of the present invention is provided with a screen output unit 10 and a voice output unit (11). In addition, the learning terminal 100 includes a panel in which a plurality of switches S that are energized when a pressure is applied by a user's hand or other means are arranged in a matrix form. On the panel image material I can be fixed in front of it.

이때 상기 복수의 스위치(S)는 예를 들어 도전성 금속이 코팅된 두 개의 필름층, 또는 두 개의 도전성 금속 필름을 포함하여 구성될 수 있고, 나아가 키 매트릭스 형태의 전자기판(PCB)을 포함하여 구성될 수도 있다. 이때 상기 패널 상의 이미지 자료(I)의 특정 영역에 압력이 가해지면, 두 개의 필름층에 접점이 형성되면서 전기가 흐르게 되는 방식으로 구동할 수 있다. 여기서 상기 스위치(S)는 도전성 금속이 코팅된 두 필름층에 미리 정해진 복수의 입력영역 각각을 지시한다. In this case, the plurality of switches S may include, for example, two film layers coated with a conductive metal, or two conductive metal films, and further include an electromagnetic plate (PCB) in the form of a key matrix. May be In this case, when pressure is applied to a specific region of the image material I on the panel, the contact may be formed on the two film layers, and the driving may be performed in a manner in which electricity flows. Herein, the switch S indicates each of a plurality of predetermined input regions on the two film layers coated with the conductive metal.

사용자가 상기 이미지 자료(I)의 특정 영역에 압력을 가하면, 압력이 가해진 부분에 해당하는 입력영역에 대응하는 학습자료들이 상기 화면출력부(10) 또는 상기 음성출력부(11)에서 출력된다. 예를 들어 알파벳 A를 입력하면, 알파벳 A로 시작되는 단어와 해당 단어의 발음이 상기 화면출력부(10)와 상기 음성출력부(11)에서 출력될 수 있다. When the user applies pressure to a specific area of the image material I, the learning materials corresponding to the input area corresponding to the portion to which the pressure is applied are output from the screen output unit 10 or the voice output unit 11. For example, when the alphabet A is input, a word starting with the alphabet A and a pronunciation of the word may be output from the screen output unit 10 and the voice output unit 11.

위에서 도 1a 내지 1d를 참조하여 설명한 학습용 단말기(100)에서 디지털 이미지 또는 아날로그 이미지 등으로 구성되는 이미지 자료(I)는 사용자에 의해 직접 만들어질 수 있다. 예를 들어, 디지털 이미지는 복수의 이미지 파일을 합성하여 제작 가능하고, 아날로그 이미지는 스스로 그리거나 다른 이미지를 복사하거나 오려 붙이는 등의 방식으로 자유롭게 만들어질 수 있다. 이는 후술할 본 발명의 실시예에서 상기 학습용 단말기(100)의 복수의 입력영역 각각에 대해 수행되는 명령을 사용자가 자유롭게 편집 가능하기 때문인데, 이에 따라 상기 학습용 단말기(100)는 사용자에 의해 자유롭게 만들어진 이미지 자료(I)의 크기나, 이미지 자료에 포함된 아이템의 내용, 위치 등에 구애받지 않고 그에 대응하는 적절한 학습자료가 상기 학습용 단말기(100)에서 제공될 수 있게 된다. In the learning terminal 100 described above with reference to FIGS. 1A to 1D, the image material I composed of a digital image or an analog image may be directly made by a user. For example, a digital image may be produced by synthesizing a plurality of image files, and an analog image may be freely created by drawing itself or copying or pasting another image. This is because a user can freely edit a command performed on each of a plurality of input areas of the learning terminal 100 in the embodiment of the present invention described below. Accordingly, the learning terminal 100 is freely made by the user. Regardless of the size of the image material I, the contents, the position of the item included in the image material, or the like, appropriate learning materials corresponding thereto may be provided in the learning terminal 100.

이하에서는 도 1a 내지 1d를 참조하여 설명한 바와 같은 학습용 단말기(100)의 보다 구체적인 구성을 도 2를 참조하여 설명한다. 도 2는 본 발명의 구체적인 실시예에 의한 학습용 단말기의 구성을 개략적으로 도시한 블럭도이다.Hereinafter, a more specific configuration of the learning terminal 100 as described with reference to FIGS. 1A to 1D will be described with reference to FIG. 2. 2 is a block diagram schematically illustrating a configuration of a learning terminal according to a specific embodiment of the present invention.

도 2에서 보는 바와 같이, 본 발명의 구체적인 실시예에 의한 학습용 단말기(100)는 단말기의 전체적인 제어를 담당하는 컨트롤러(15)를 포함한다. 그리고 도 1a 내지 도 1d에서 본 바와 같이 화면출력부(10)와 음성출력부(11)를 포함한다. 상기 화면출력부(10) 및/또는 상기 음성출력부(11)를 통하여 유아에게 학습시키고자 하는 학습 자료들을 이미지나 텍스트, 오디오로 출력한다.As shown in Figure 2, the learning terminal 100 according to a specific embodiment of the present invention includes a controller (15) for the overall control of the terminal. 1A to 1D, the screen output unit 10 and the audio output unit 11 are included. The screen output unit 10 and / or the voice output unit 11 output the learning materials to be taught to the infant as an image, text, or audio.

또한 상기 학습용 단말기(100)에는 이미지 디스플레이부(16)가 포함된다. 상기 이미지 디스플레이부(16)는 복수의 문자, 숫자, 그림 등이 배열된 아날로그 또는 디지털 이미지 자료가 상기 학습용 단말기(100)에 디스플레이되도록 하는 수단으로서, 예를 들어, 도 1a의 터치스크린과 같은 전자적 수단이 될 수도 있으나, 도 1b 또는 1c를 참조하여 설명한 실시예에서와 같이 아날로그 이미지를 고정하거나 지지하기 위한 수단으로 구성될 수도 있다. 또한 도 1d를 참조하여 설명한 실시예에서와 같이 아날로그 이미지를 고정하면서, 동시에 매트릭스 형태의 입력영역을 포함하여 사용자 입력을 감지할 수 있는 수단으로 구비될 수도 있다. In addition, the learning terminal 100 includes an image display unit 16. The image display unit 16 is a means for displaying analog or digital image data in which a plurality of letters, numbers, pictures, and the like are arranged on the learning terminal 100. For example, the image display unit 16 may be an electronic device such as the touch screen of FIG. It may be a means, but may be configured as a means for fixing or supporting the analog image as in the embodiment described with reference to FIG. 1B or 1C. Also, as in the embodiment described with reference to FIG. 1D, the analog image may be provided as a means for detecting a user input while simultaneously including an input area in a matrix form.

그리고 상기 학습용 단말기(100)에는 터치감지부(17)가 포함된다. 상기 터치감지부(17)는 이미지 자료(I) 상에서 이루어지는 사용자의 선택을 감지하기 위한 수단으로서, 도 1a 내지 도 1d에서 살펴본 바와 같이 다양한 수단으로 구비될 수 있다. 즉, 도 1a에서 본 바와 같이 디지털 이미지를 출력하는 터치 스크린이 될 수도 있고, 도 1b에서 본 바와 같이 아날로그 이미지 상에서 무선신호를 송출하는 무선신호송신수단과, 상기 무선신호송신수단에서 송출된 무선신호를 수신하는 센서수단을 포함할 수 있다. 또는 도 1c에서 본 바와 같이 아날로그 이미지 위에 구비되는 터치패널이 될 수도 있다. 나아가 도 1d에서 본 바와 같이 아날로그 이미지 후면에 구비되는 도전성 금속 필름을 이용한 스위치 수단이 될 수도 있다. In addition, the learning terminal 100 includes a touch sensing unit 17. The touch sensing unit 17 is a means for detecting a user's selection made on the image material I, and may be provided by various means as described with reference to FIGS. 1A to 1D. That is, it may be a touch screen which outputs a digital image as shown in FIG. 1A, and a wireless signal transmitting means for transmitting a radio signal on an analog image as shown in FIG. 1B, and a radio signal transmitted by the radio signal transmitting means. It may include a sensor means for receiving. Alternatively, the touch panel may be provided on the analog image as shown in FIG. 1C. Furthermore, as shown in FIG. 1D, the switch may be a switch using a conductive metal film provided on the rear surface of the analog image.

여기서 상기 컨트롤러(15)는 상기 터치감지부(17)에서 사용자 입력을 감지할 수 있는 전체 영역을 미리 정해진 매트릭스 형태의 복수의 입력영역으로 구분하도록 설정된다. 상기 복수의 입력영역 각각은 그 크기와 위치가 미리 설정된다. 그리고 각각의 입력영역에는 이를 구분할 수 있는 고유의 식별자가 할당되어, 상기 컨트롤러(15)가 각 입력영역을 구분할 수 있도록 한다. The controller 15 is set to divide the entire area in which the touch sensing unit 17 can detect a user input into a plurality of input areas in a predetermined matrix form. Each of the plurality of input areas is preset in size and position. Each input area is assigned a unique identifier to distinguish it, so that the controller 15 can distinguish each input area.

이와 같은 상기 입력영역은 상기 학습용 단말기(100) 제조시 디폴트로 지정되며, 사용자가 필요에 따라 위치나 크기를 변경하여 재설정할 수도 있다.The input area is designated as a default when the learning terminal 100 is manufactured, and the user may reset the input area by changing a position or size as necessary.

상기 이미지 디스플레이부(16)에 디스플레이된 이미지 자료(I) 상에서 사용자의 터치 입력이 발생하면 상기 컨트롤러(15)는 상기 터치감지부(17)를 이용하여 터치 입력을 감지할 수 있다. 그리고 상기 컨트롤러(15)는 상기 터치감지부(17)를 이용하여 감지한 사용자의 터치 입력이 일어난 위치가 상기 복수의 입력영역 중 어느 영역에 해당하는지를 검출한다. When a user's touch input occurs on the image material I displayed on the image display unit 16, the controller 15 may sense the touch input using the touch sensing unit 17. The controller 15 detects which of the plurality of input areas a position where a touch input of the user sensed using the touch sensor 17 corresponds to.

한편 상기 학습용 단말기(100)에는 저장부(18)가 구비된다. 상기 저장부(18)에는 학습 자료가 저장된다. 즉, 상기 이미지 디스플레이부(16)에 디스플레이된 이미지 자료(I)에 배열된 복수의 문자, 숫자, 그림 등의 아이템 중 하나의 아이템이 선택되고, 이를 상기 컨트롤러(15)가 상기 터치감지부(17)를 통해 감지하면 상기 컨트롤러(15)는 상기 저장부(18)에 저장되어 있는 학습 자료 중 사용자의 터치 입력이 감지된 입력영역에 대응하는 아이템에 관련된 학습 자료를 상기 화면출력부(10)나 상기 음성출력부(11)를 통해 출력한다. 따라서 상기 저장부(18)에는 상기 화면출력부(10)나 상기 음성출력부(11)로 출력될 오디오, 비디오, 텍스트, 이미지 등의 학습 자료가 저장된다. On the other hand, the learning terminal 100 is provided with a storage unit 18. The storage unit 18 stores learning materials. That is, one item among a plurality of items such as letters, numbers, pictures, and the like arranged on the image material I displayed on the image display unit 16 is selected, and the controller 15 determines that the touch sensing unit ( 17, the controller 15 outputs the training data related to the item corresponding to the input area where the user's touch input is detected among the training materials stored in the storage unit 18. B is output through the voice output unit 11. Therefore, the storage unit 18 stores learning materials such as audio, video, text, and image to be output to the screen output unit 10 or the voice output unit 11.

여기서 상기 학습자료는 상기 이미지 자료(I)에 배열되는 아이템들에 대한 이미지, 비디오, 오디오, 텍스트 파일 등이 될 수 있다. 이와 같은 학습자료를 상기 학습용 단말기(100) 사용자들이 보다 용이하게 획득 가능하도록 하기 위하여 웹사이트를 이용하여 다양한 학습자료들이 다운로드 가능하게 제공될 수 있으며, 사용자들이 직접 생성한 학습자료를 웹사이트로 업로드 가능하게 하여 사용자들간 학습자료 공유가 원활하도록 할 수 있다. 이를 위하여 상기 학습용 단말기(100)는 직접 또는 컴퓨터 등의 장치를 통해 네트워크에 연결되어 학습자료를 제공받을 수 있다. 사용자들은 스스로 제작한 오디오, 이미지, 비디오 파일 등을 상기 네트워크를 통해 웹사이트에 업로드할 수 있다. 또한 이와 같이 사업자나 사용자들이 학습자료를 온라인에 업로드 한 후 타 사용자들이 이를 다운로드 받으면 소정의 수수료가 학습자료를 업로드한 사용자에게 지불되도록 할 수도 있다. Here, the learning material may be an image, video, audio, text file, etc. for the items arranged in the image material (I). In order to facilitate the acquisition of such learning materials by the user of the learning terminal 100, various learning materials may be provided to be downloaded by using the website, and the learning materials generated by the users are uploaded to the website. This can facilitate the sharing of learning materials among users. To this end, the learning terminal 100 may be connected to a network directly or through a device such as a computer to receive learning materials. Users can upload their own audio, image, video files, etc. to the website via the network. In addition, if a business or user uploads the learning materials online and other users download them, a predetermined fee may be paid to the user who uploaded the learning materials.

이를 위하여 상기 학습용 단말기(100)에는 연결부(19)가 구비될 수 있다. 상기 연결부(19)는 상기 학습용 단말기(100)가 컴퓨터나 다른 장치와 연결될 수 있도록 하는 통신 인터페이스 수단이다. 이는 다른 장치로부터 학습 자료 등의 데이터를 다운로드하기 위하여 제공될 수 있다.To this end, the learning terminal 100 may be provided with a connection unit 19. The connection unit 19 is a communication interface means for allowing the learning terminal 100 to be connected to a computer or another device. This may be provided for downloading data such as learning material from another device.

또한 상기 연결부(19)에는 학습용 단말기(100)에 선택적으로 연결가능한 외부저장매체가 연결될 수도 있다. 그리하여 사용자는 자신이 원하는 학습자료 파일이나 후술할 학습파일이 저장된 상기 외부저장매체를 상기 학습용 단말기(100)에 연결하여, 외부저장매체에 저장된 학습자료 파일이나 학습파일이 상기 학습용 단말기(100)에서 활용될 수 있도록 한다. In addition, the connection unit 19 may be connected to an external storage medium that can be selectively connected to the learning terminal 100. Thus, the user connects the external storage medium storing the desired learning material file or the following learning file to the learning terminal 100 so that the learning material file or the learning file stored in the external storage medium is stored in the learning terminal 100. To be used.

이하에서는, 위에서 설명한 바와 같은 상기 학습용 단말기(100)를 이용하여 유아들에게 복수의 아이템이 배열된 이미지 자료(I) 기반의 학습 수행이 가능하도록 하기 위한 학습파일 생성 방법을 설명한다. Hereinafter, a method of generating a learning file for enabling a toddler to perform learning based on the image data I in which a plurality of items are arranged using the learning terminal 100 as described above will be described.

도 3은 본 발명의 구체적인 실시예에 의한 학습파일 생성 방법을 단계적으로 도시한 흐름도이고, 도 4는 도 3에 도시된 학습파일 생성방법에 의해 생성된 학습 파일의 일실시예를 도시한 도면이다. 3 is a flowchart illustrating a learning file generation method according to a specific embodiment of the present invention in a stepwise manner, and FIG. 4 is a diagram illustrating an embodiment of a learning file generated by the learning file generating method shown in FIG. 3. .

상기 학습파일은, 상기 터치감지부(17)가 사용자 입력을 감지할 수 있는 전체 영역 중 미리 설정된 복수의 입력영역 각각에 대해 해당 입력영역으로 사용자 입력이 감지되었을 때 수행되도록 할당된 각 명령과의 대응관계를 포함하는 데이터 파일이다. 즉, 상기 학습파일은 복수의 입력영역에 대해 할당된 명령과, 해당 명령에 대응하여 상기 학습용 단말기(100)에서 출력될 학습자료 사이의 대응관계를 나타내는 데이터를 포함한다.The learning file may be assigned to each command assigned to be executed when a user input is detected as a corresponding input area for each of a plurality of preset input areas among all areas in which the touch sensing unit 17 can detect a user input. Data file containing the mapping. That is, the learning file includes data representing a correspondence relationship between a command allocated to a plurality of input areas and the learning material to be output from the learning terminal 100 in response to the command.

이와 같은 학습파일 생성 방법은, 도 3에 도시된 바와 같이, 상기 터치감지부(17)가 사용자 입력을 감지할 수 있는 전체 영역 중 미리 설정된 복수의 입력영역 각각에 대응하는 하나 이상의 명령을 할당하는 제100단계(S100)로부터 시작된다. 상기 제100단계는 미리 설정된 입력영역 하나 하나에 대하여 그에 대응하는 명령을 할당함으로써 수행된다. 예를 들어, 도 1d에 도시된 바와 같이 5행 4열의 20개의 입력영역이 미리 설정되는 경우, 제1행에 포함된 네 개의 입력영역에 제1명령을 할당하고, 제2행에 포함되는 네 개의 입력영역에 제2명령을 할당할 수 있다. 즉 각각의 입력영역에 모두 서로 다른 명령을 할당해야하는 것은 아니고, 복수의 입력영역에 동일한 명령을 할당할 수도 있다. 또한 모든 입력영역에 반드시 명령을 할당해야하는 것은 아니고, 일부에만 명령을 할당할 수도 있다.In the method of generating a learning file, as illustrated in FIG. 3, the touch sensing unit 17 allocates one or more commands corresponding to each of a plurality of preset input areas among all areas in which the touch sensing unit 17 can detect a user input. The process starts from step 100 (S100). The step 100 is performed by allocating a command corresponding to each preset input area. For example, as shown in FIG. 1D, when 20 input areas of 5 rows and 4 columns are preset, the first command is allocated to the four input areas included in the first row, and the four commands included in the second row. The second command may be allocated to two input areas. That is, it is not necessary to allocate different commands to each input area, but the same command may be allocated to a plurality of input areas. In addition, it is not necessary to assign a command to all input areas, and a command may be assigned to only some of them.

그리고 제120단계(S120)에서는 각각의 명령에 대응하여 출력될 학습 자료를 지정함으로써 수행된다. 즉, 예를 들어 하나의 명령에 대응하여 출력될 오디오, 비디오, 텍스트 또는 이미지 데이터를 지정한다. 도 1d에 도시된 바와 같이 5행 4열의 20개의 입력영역이 미리 설정되고, 제1행에 포함된 네 개의 입력영역에 제1명령을 할당하고, 제2행에 포함되는 네 개의 입력영역에 제2명령을, 제3항에 제3명령, 제4항에 제4명령, 그리고 제5항에 제5명령을 각각 할당한 경우, 제1명령에 대응하는 학습 자료 파일을 하나 이상 지정할 수 있다. 이에 따르면, 제1행에 포함된 네 개의 입력영역 중 어느 하나에 사용자 입력이 감지되면, 지정된 학습자료 파일이 출력되도록 할 수 있다.In operation 120, the learning material to be output in response to each command is designated. That is, for example, audio, video, text, or image data to be output is designated in response to one command. As shown in FIG. 1D, 20 input regions of 5 rows and 4 columns are preset, and a first command is assigned to four input regions included in the first row, and four input regions included in the second row are assigned. When two instructions are assigned to the third instruction in paragraph 3, the fourth instruction in clause 4, and the fifth instruction in clause 5, one or more learning material files corresponding to the first instruction can be designated. According to this, when a user input is detected in any one of the four input areas included in the first row, the designated learning data file may be output.

그리고 제140단계(S140)에서는 제100단계와 제120단계에서, 각각의 입력영역에 대응하여 할당된 명령과, 각 명령에 대응하는 학습자료 파일명이 포함된 하나의 학습파일을 생성한다.In step 140 (S140), in step 100 and step 120, a single learning file including a command allocated to each input area and a learning material file name corresponding to each command is generated.

그에 따라 상기 제140단계에서 생성되는 학습파일은, 각각의 입력영역과 각 명령 사이의 대응관계, 그리고 각각의 명령과 학습자료 파일명 사이의 대응관계를 포함한다. 예를 들어 상기 학습파일은 마이크로소프트 오피스 액셀 등의 응용프로그램으로 생성되는 액셀파일과 같이 매트릭스를 포함하고, 매트릭스의 각 요소가 미리 설정된 입력영역을 각각 대표하여, 각 입력영역에 대응하는 명령의 명칭이 매트릭스에 각각 기입되고, 명령의 명칭과 출력될 파일의 대응관계 리스트를 포함한다. Accordingly, the learning file generated in step 140 includes a corresponding relationship between each input area and each command, and a corresponding relationship between each command and the learning material file name. For example, the learning file includes a matrix, such as an Excel file generated by an application program such as Microsoft Office Excel, and each element of the matrix represents a preset input area, and the name of a command corresponding to each input area. Each of these matrices is written, and contains the name of the command and a list of correspondences of the files to be output.

예를 들어, 도 4에 도시된 바와 같이, 기설정된 입력영역이 10행 8열로 총 80개인 경우, 상기 학습파일은 10행 8열의 매트릭스를 포함하고, 매트릭스의 각 영역에는 각각의 명령의 명칭이 기입된다. 즉, 매트릭스의 좌측 상단 4개의 입력영역에는 모두 동일한 명령 A가 할당된다. 그리고 명령 A는 오디오 파일 a.mp3를 출력하도록 하는 명령이 된다. 따라서 이와 같은 경우, 사용자가 복수의 입력영역 중 어느 하나의 영역에 사용자 입력이 감지된 경우, 명령 A에 대응하여 오디오 파일 a.mp3가 출력되도록 한다. 다만, 각 매트릭스에는 학습자료 파일명이 직접 기재될 수도 있다. 다만, 도 4에서는 각각의 명령에 하나의 학습자료 파일만이 대응되는 것으로 기재되어 있으나, 하나의 명령에 대하여 복수의 학습자료 파일이 지정되도록 할 수도 있다. 예를 들어, 하나의 음성 파일과 하나의 이미지 파일이 하나의 명령에 대응하여 지정되도록 할 수도 있다. For example, as shown in FIG. 4, when the preset input area is 80 in 10 rows and 8 columns, the learning file includes a matrix of 10 rows and 8 columns, and each area of the matrix has a name of each command. Is written. That is, the same command A is assigned to all four input regions in the upper left corner of the matrix. Command A is a command to output the audio file a.mp3. Therefore, in this case, when the user detects a user input in any one of the plurality of input areas, the audio file a.mp3 is output in response to the command A. FIG. However, the learning material file name may be directly written in each matrix. In FIG. 4, only one learning material file corresponds to each command, but a plurality of learning material files may be designated for one command. For example, one voice file and one image file may be designated in correspondence to one command.

이와 같은 학습파일은 즉, 상기 학습용 단말기(100)의 터치감지부(17)의 각 입력영역과 상기 이미지 자료(I)에 배열된 각 아이템들과 관련된 학습자료 파일들의 대응관계를 정해주는 역할을 한다. 이를 위해 상기 컨트롤러(15)는 도 4에 도시된 바와 같은 학습파일에 포함된 데이터를 해석하여 상기 터치감지부(17)의 각 입력영역에 사용자 입력이 감지되었을 때 해당 입력영역에 대응하는 학습자료 파일을 검색하여 출력하는 응용프로그램을 실행할 수 있다. Such a learning file serves to determine a correspondence relationship between each input area of the touch sensing unit 17 of the learning terminal 100 and the learning data files associated with each item arranged in the image material I. do. To this end, the controller 15 analyzes data included in the learning file as shown in FIG. 4, and when the user input is detected in each input area of the touch sensing unit 17, the learning material corresponding to the corresponding input area. You can run an application that retrieves and prints files.

따라서 사용자는 상기 학습용 단말기(100)에 디스플레이된 이미지 자료(I)에 대응하는 학습파일을 상기 응용프로그램으로 실행하여 상기 이미지 자료(I)에 배열된 아이템에 관련된 적절한 학습 자료가 출력될 수 있도록 한다.Therefore, the user executes the learning file corresponding to the image material I displayed on the learning terminal 100 with the application program so that appropriate learning material related to the items arranged in the image material I can be output. .

즉, 사용자는 상기 학습파일을 생성할 때, 상기 이미지 자료(I)가 상기 학습용 단말기(100)에 설치된 상태에서, 상기 이미지 자료(I)에 배열된 아이템 각각이 상기 복수의 입력영역 중 어느 입력영역에 대응하는 위치에 배치되는지를 살핀 후, 특정 아이템에 대응하는 위치의 입력영역에는 해당 아이템과 관련된 학습 자료를 출력하는 명령이 할당되도록 한다.That is, when the user generates the learning file, each item arranged in the image material I is input to any one of the plurality of input areas while the image material I is installed in the learning terminal 100. After checking whether it is arranged at a location corresponding to the area, a command for outputting learning data related to the item is allocated to the input area at the location corresponding to the specific item.

이때 상기 학습파일은, 위에서 설명한 바와 같이 컴퓨터 등에서 액셀 등의 문서 편집 프로그램으로 생성하여 상기 학습용 단말기(100)로 다운로드할 수 있고, 별도의 전용 프로그램으로도 생성할 수 있다. 또한 상기 학습용 단말기(100)에서 직접 생성할 수도 있다. In this case, as described above, the learning file may be generated by a document editing program such as an Excel program on a computer, downloaded to the learning terminal 100, or may be generated as a separate dedicated program. In addition, the learning terminal 100 may be generated directly.

상기 학습용 단말기(100)에서 직접 상기 학습파일을 생성하는 경우, 각각의 입력영역을 사용자가 직접 선택한 후, 상기 화면출력부(10)에서 상기 저장부(18)에 저장된 파일들의 리스트를 제공받아 이 중 하나 이상의 파일을 선택하는 방식으로, 각 입력영역에 대응하는 파일을 할당할 수도 있다. 또한 상기 학습용 단말기(100)에서 직접 상기 학습파일을 생성하는 경우, 각각의 입력영역을 사용자가 직접 선택한 후, 해당 입력영역 선택 시 출력될 음성 파일을 사용자가 직접 녹음하여 저장하는 방식으로 학습파일을 생성할 수도 있다. When the learning file is generated directly by the learning terminal 100, after the user directly selects each input area, the screen output unit 10 receives a list of files stored in the storage unit 18. By selecting one or more of the files, a file corresponding to each input area may be allocated. In addition, when the learning file is directly generated by the learning terminal 100, the user directly selects each input area and then records and stores the voice file to be output when the corresponding input area is selected. You can also create

이때 상기 컨트롤러(15)에 의해 실행됨으로써, 학습파일에 포함된 데이터를 해석하여 상기 터치감지부(17)의 각 입력영역에 사용자 입력이 감지되었을 때 해당 입력영역에 대응하는 학습자료 파일을 검색하여 출력하는 응용프로그램은, 다른 방식으로 동작할 수도 있다. 즉, 터치감지부(17)의 특정 입력영역에서 사용자 입력이 감지되면, 해당 입력영역에 대응하는 학습자료 파일을 검색하여 출력하는 동작을 역으로 하여, 먼저 특정 입력영역에 대응하는 학습자료 파일을 출력한 후, 그에 대응하는 입력영역을 사용자가 맞게 선택하는지 여부를 감시하여 결과를 출력하는 방식으로 동작할 수도 있다. 나아가 사용자에게 서로 동일한 학습자료가 출력되도록 설정된 모든 입력영역을 찾아 입력하도록 하거나 입력영역을 순차적으로 선택하여 특정 단어를 만들도록 하는 등 상기 터치감지부(17)의 복수의 입력영역과 그에 대응하는 학습자료를 활용하여 할 수 있는 가능한 학습방법을 다양하게 제공할 수 있다.In this case, the controller 15 executes the data, and analyzes the data included in the learning file to search for the learning data file corresponding to the input area when a user input is detected in each input area of the touch sensing unit 17. The outputting application may operate in other ways. That is, when a user input is detected in a specific input area of the touch sensing unit 17, the operation of searching for and outputting a learning material file corresponding to the input area is reversed. After outputting, it may be operated by monitoring whether the user selects a corresponding input area accordingly and outputting the result. Further, a plurality of input areas of the touch sensing unit 17 and corresponding learning are provided, such as finding and inputting all input areas set to output the same learning material to the user, or sequentially selecting the input areas to make a specific word. It can provide a variety of possible learning methods that can be used with the material.

도 3에 도시된 바와 같은 방법에 의하여 학습파일을 생성하는 경우, 서로 다른 이미지 자료(I)에 대하여, 이미지 자료(I)에 배열된 각 아이템의 위치 및 각 아이템의 의미에 따라 그에 대응하는 학습자료를 적절히 할당할 수 있기 때문에 상기 학습용 단말기(100)의 활용도가 넓어질 수 있다. When the learning file is generated by the method as shown in FIG. 3, with respect to the different image material I, the corresponding learning according to the position of each item arranged in the image material I and the meaning of each item is corresponding thereto. Since the data can be properly allocated, the utilization of the learning terminal 100 can be widened.

위에서 설명한 바와 같이 각 입력영역에 대응하는 명령과 학습자료 파일을 할당하여 그 대응관계를 별도의 학습파일로 저장하는 방법에 의하면, 이미지 자료(I)의 크기나, 이미지 자료(I)에 배열된 아이템들의 위치가 서로 다르더라도, 이미지 자료에 포함된 아이템과 관련된 학습자료가 출력될 수 있도록 입력영역과 그에 대응되는 학습자료를 지정할 수 있기 때문에, 이미지 자료의 크기나 아이템 배열 위치의 제약을 받지 않는다는 이점이 있다. As described above, according to the method of allocating a command and a training data file corresponding to each input area and storing the corresponding relationship as a separate training file, the size of the image data I or the data is arranged in the image data I. Even if the items are different from each other, the input area and corresponding learning materials can be designated so that learning materials related to the items included in the image data can be output. There is an advantage.

이하에서는 도 5를 참조하여 본 발명의 실시예에 의한 학습용 단말기(100)를 이용한 학습방법을 보다 구체적으로 설명한다. 도 5는 본 발명의 구체적인 실시예에 의한 학습 방법을 단계적으로 도시한 흐름도이다.Hereinafter, a learning method using the learning terminal 100 according to an embodiment of the present invention will be described in more detail with reference to FIG. 5. 5 is a flowchart illustrating a learning method step by step according to a specific embodiment of the present invention.

도 5에 도시된 바와 같이, 본 발명의 구체적인 실시예에 의한 학습방법은 우선 상기 학습용 단말기(100)에 이미지 자료(I)가 디스플레이되는 제200단계(S200)로부터 시작된다. 도 1a 내지 1d에 도시된 바와 같이 본 발명의 실시예에 의한 학습용 단말기(100)에서는 이미지 자료(I)의 교체가 가능할 뿐 아니라, 상기 학습파일에 의하여 상기 터치감지부(17)의 각 입력영역에 대응하여 수행되는 명령의 변경이 가능하기 때문에, 상기 제200단계에서 다양한 이미지 자료(I)의 교체가 가능하다. 그리고 이미 설명한 바와 같이 상기 학습용 단말기(100)의 사용자 입력의 감지 방법에 따라 디지털 이미지 또는 아날로그 이미지로 표시될 수 있다. As shown in FIG. 5, a learning method according to a specific embodiment of the present invention first starts from step 200 in which image material I is displayed on the learning terminal 100. As shown in FIGS. 1A to 1D, in the learning terminal 100 according to the embodiment of the present invention, not only the image material I can be replaced, but also the respective input areas of the touch sensing unit 17 by the learning file. Since it is possible to change the command to be performed corresponding to the, in step 200 it is possible to replace the various image data (I). As described above, the image may be displayed as a digital image or an analog image according to a sensing method of a user input of the learning terminal 100.

또한 위와 같이 이미지 자료(I)가 상기 학습용 단말기(100)에 표시된 후에는 표시된 이미지 자료(I)에 대응하는 학습파일을 실행하는 제220단계(S220)가 수행된다. 제220단계에서 학습파일이 실행되면, 상기 컨트롤러(15)는 학습파일에 포함된 데이터를 해석하여 각각의 입력영역에 대응하는 명령과, 각 명령에 대응하는 학습자료 파일 사이의 대응관계를 검출한다. In addition, after the image material I is displayed on the learning terminal 100 as described above, step S220 of executing the learning file corresponding to the displayed image material I is performed. When the learning file is executed in operation 220, the controller 15 analyzes data included in the learning file and detects a correspondence relationship between a command corresponding to each input area and a learning material file corresponding to each command. .

그리고 제240단계(S240)에서 특정 입력영역에 대한 사용자의 입력이 감지되면, 상기 학습파일로부터 해당 입력영역에 대응하는 명령이 무엇인지 검출하여, 해당 명령에 대응하는 학습자료를 상기 화면출력부(10)나 음성출력부(11)로 출력하는 제260단계(S260)를 수행한다.In operation 240, when a user's input to a specific input area is detected, a command corresponding to the input area is detected from the learning file, and the learning data corresponding to the command is displayed on the screen output unit (S240). 10) or the step 260 of outputting to the voice output unit 11 (S260).

즉, 결과적으로는 사용자가 상기 학습용 단말기(100)에서 상기 이미지 자료(I)에 배열된 복수의 아이템 중 특정 아이템을 선택하면, 해당 아이템의 위치에 대응하는 특정 입력영역으로의 사용자 입력이 상기 터치감지부(17)에서 감지되고, 상기 컨트롤러(15)는 현재 실행되고 있는 학습파일의 내용에 기초하여, 사용자의 입력이 감지된 입력영역에 대응하는 명령을 실행한다. 이때 사용자 입력이 감지된 입력영역에 대응하는 명령은, 해당 입력영역에 대응하여 미리 학습파일에 그 파일명이 저장된 학습자료 파일을 상기 저장부(18)에서 검색하여 상기 화면출력부(10)나 상기 음성출력부(11)로 출력하는 것이다. That is, as a result, when the user selects a specific item among the plurality of items arranged in the image material I in the learning terminal 100, the user input to the specific input area corresponding to the position of the item is touched. The controller 15 sensed by the sensing unit 17 and the controller 15 executes a command corresponding to the input area where the user's input is sensed based on the contents of the learning file currently being executed. In this case, the command corresponding to the input area in which the user input is detected may be searched in the storage unit 18 for the learning data file whose file name is stored in the learning file in advance in correspondence with the corresponding input area. It is output to the voice output unit 11.

이에 따르면, 현재 실행 중인 학습파일에 따라 동일한 입력영역에 대한 사용자 입력도 서로 다른 명령으로 인식되고 수행될 수 있기 때문에, 다양한 이미지 자료(I)를 이용한 학습이 가능해진다. According to this, since the user input for the same input area may be recognized and performed by different commands according to the currently executing learning file, learning using various image data I is possible.

본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The rights of the present invention are not limited to the embodiments described above, but are defined by the claims, and those skilled in the art can make various modifications and adaptations within the scope of the claims. It is self-evident.

100:학습용 단말기 10:화면출력부
11:음성출력부 15:컨트롤러
16:이미지 디스플레이부 17:터치감지부
18:저장부 19:연결부
100: learning terminal 10: screen output unit
11: Audio output unit 15: Controller
16: Image display unit 17: Touch detection unit
18: storage 19: connection

Claims (10)

복수의 아이템이 배열된 하나의 이미지로 구성되는 이미지자료에 대하여 상기 이미지자료에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 유아용 학습 단말기를 위한 학습파일 생성방법에 있어서,
(a) 상기 이미지자료상의 사용자 터치 입력을 감지하는 터치감지부에 미리 설정된 복수의 입력영역 각각에 대응하는 복수의 매트릭스 요소가 배열된 매트릭스를 상기 단말기의 출력부에 표시하는 단계와;
(b) 상기 (a)단계에서 표시된 매트릭스에 포함된 복수의 매트릭스 요소 중 적어도 하나에, 상기 이미지자료에 배열된 각각의 아이템에 대응하는 명령이 입력되면, 하나 이상의 매트릭스 요소에 명령이 입력된 매트릭스를 하나의 매트릭스문서로 저장하는 단계와;
(c) 상기 (b)단계에서 하나 이상의 매트릭스 요소에 입력된 각각의 명령에 대응하여 출력될 하나 이상의 학습자료파일을 지정받아 명령과 학습자료파일의 대응관계를 저장하는 단계; 그리고
(d) 상기 (b)단계에서 저장된 상기 매트릭스문서와 상기 (c)단계에서 저장된 명령과 학습자료파일의 대응관계를 포함하는 하나의 학습파일을 생성하는 단계를 포함하여 수행되는, 학습파일 생성방법.
In the learning file generation method for a learning terminal for infants, the learning material corresponding to the selected item of the plurality of items arranged in the image material with respect to the image material consisting of one image arranged a plurality of items,
(a) displaying, on an output of the terminal, a matrix in which a plurality of matrix elements corresponding to each of a plurality of preset input areas are arranged on a touch sensing unit for sensing a user touch input on the image data;
(b) When a command corresponding to each item arranged in the image data is input to at least one of the plurality of matrix elements included in the matrix displayed in step (a), the matrix in which the command is input to one or more matrix elements Storing the data as a matrix document;
(c) designating one or more learning material files to be output in correspondence with each command input to one or more matrix elements in step (b) and storing a correspondence between the command and the learning material file; And
and (d) generating a learning file including a corresponding relationship between the matrix document stored in the step (b) and the instruction stored in the step (c) and the learning material file. .
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020100095897A 2010-02-19 2010-10-01 Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor KR101060281B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100095897A KR101060281B1 (en) 2010-10-01 2010-10-01 Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor
PCT/KR2010/009220 WO2011102600A2 (en) 2010-02-19 2010-12-22 Study terminal, learning contents generation method, study method, and recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100095897A KR101060281B1 (en) 2010-10-01 2010-10-01 Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor

Publications (1)

Publication Number Publication Date
KR101060281B1 true KR101060281B1 (en) 2011-08-29

Family

ID=44933915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100095897A KR101060281B1 (en) 2010-02-19 2010-10-01 Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor

Country Status (1)

Country Link
KR (1) KR101060281B1 (en)

Similar Documents

Publication Publication Date Title
CN103492997B (en) Systems and methods for manipulating user annotations in electronic books
RU2627108C2 (en) Information content navigation direction setting on the basis of directed user signs
CN100550965C (en) The method and apparatus of duplicating image between electronic paper and display
US7714837B2 (en) Electronic book reading apparatus and method
US20090222756A1 (en) Electronic device capable of showing page flip effect and method thereof
US20090219248A1 (en) Electronic device capable of showing page flip effect and method thereof
KR20100136529A (en) Multi-modal learning system
CN103280128A (en) Server, learning terminal apparatus, and learning content managing method
KR20160033547A (en) Apparatus and method for styling a content
KR101971161B1 (en) Decoupled applications for printed materials
CN105579985A (en) Method and device for sharing content
KR101457639B1 (en) Photo Frame Having Sound Source Output Function And, Computer-Readable Storage Medium Storing Program Generating Sound Source Outputting Source Data
CN100368961C (en) Apparatus for presenting information and method thereof
JP6044198B2 (en) Computer apparatus, program, and information processing system
CN108780363A (en) Input with the configuration of variable control or control device
KR101000463B1 (en) Apparatus for leaning and method for creating learning contents for children
KR101060281B1 (en) Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor
JP2013076720A (en) Computer device, electronic pen system and program
JP6237753B2 (en) Information display device, server, and program
JP6019716B2 (en) Computer apparatus, program, and information processing system
JP6872883B2 (en) Display control device, display system, display method and program
JP6843680B2 (en) Display system, input device, display device, display method and program
CN109840046A (en) Touch screen writes processing method and processing device
JP7424355B2 (en) Electronic devices, input methods and programs
KR100847943B1 (en) Creating responses for an electronic pen-computer multimedia interactive system

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140617

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180109

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190930

Year of fee payment: 9