KR101000463B1 - Apparatus for leaning and method for creating learning contents for children - Google Patents

Apparatus for leaning and method for creating learning contents for children Download PDF

Info

Publication number
KR101000463B1
KR101000463B1 KR1020100015298A KR20100015298A KR101000463B1 KR 101000463 B1 KR101000463 B1 KR 101000463B1 KR 1020100015298 A KR1020100015298 A KR 1020100015298A KR 20100015298 A KR20100015298 A KR 20100015298A KR 101000463 B1 KR101000463 B1 KR 101000463B1
Authority
KR
South Korea
Prior art keywords
image
learning
area
data
learning content
Prior art date
Application number
KR1020100015298A
Other languages
Korean (ko)
Inventor
김도영
Original Assignee
김도영
(주)시누스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김도영, (주)시누스 filed Critical 김도영
Priority to KR1020100015298A priority Critical patent/KR101000463B1/en
Application granted granted Critical
Publication of KR101000463B1 publication Critical patent/KR101000463B1/en
Priority to PCT/KR2010/009220 priority patent/WO2011102600A2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE: A learning terminal for infant and a method thereof are provided to improve learning effect and to enable a user to study wide ranges of a learning process. CONSTITUTION: A region corresponding to a plurality of items, which are arranged in a specific image data, is set on image data(S100). A learning material related to an item corresponding to the set region corresponds to each region(S200). The learning material, the range of each coordinate area, and the corresponding relation between the material and the corresponding relation are saved in a single learning contents(S300). The generated learning contents are saved in a terminal or a computer(S400).

Description

유아용 학습 단말기 및 유아용 학습 컨텐츠 생성방법{APPARATUS FOR LEANING AND METHOD FOR CREATING LEARNING CONTENTS FOR CHILDREN}Infant learning terminal and learning content generation method for infants {APPARATUS FOR LEANING AND METHOD FOR CREATING LEARNING CONTENTS FOR CHILDREN}

본 발명은 유아용 학습 컨텐츠 생성방법 및 이를 제공하는 단말기에 관한 것으로서, 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 유아용 학습 단말기를 위한 학습 컨텐츠 생성방법에 있어서, 사용자가 원하는 컨텐츠를 용이하게 생성할 수 있도록 함으로써 학습 범위를 넓히고 학습 의욕을 고취시킬 수 있는 유아용 학습 컨텐츠 생성방법 및 이를 제공하는 단말기에 관한 것이다. The present invention relates to a method for generating learning content for infants and a terminal for providing the same, the method for generating learning contents for a child learning terminal for outputting learning material corresponding to a selected item among a plurality of items arranged on one image, The present invention relates to a method for generating a learning content for a toddler and a terminal for providing the same, by which a user can easily create a desired content, thereby broadening a learning range and inspiring a learning motivation.

유아에게 숫자나 문자, 단어, 각종 사물 등을 학습시키기 위한 수단으로써 전통적으로 학습판이나 그림판 등이 사용되어져 왔다. 이들은 다수의 문자, 숫자 또는 그림 등을 배열한 이미지의 인쇄물로서, 시각적인 부분에만 의존하는 학습도구이기 때문에, 발음 학습에는 효과가 없었고 집중력이 낮은 유아들의 주의를 끌기 어려워 학습효과 또한 크지 않았다. Traditionally, learning boards and painting boards have been used as a means for learning infants such as numbers, letters, words, and various objects. These are prints of images arranged with a large number of letters, numbers, or pictures, and because they are learning tools that depend only on the visual part, they have no effect on pronunciation learning and are difficult to attract attention of low concentration children.

한편 이와 같은 기존의 학습판의 단점을 해결하기 위하여 보다 상호적인 학습 방식을 제공하는 학습판 형식의 전자 단말기들이 개발되어 사용되고 있다. 복수의 문자나 숫자, 그림 등이 배열된 이미지의 특정 부분을 유아가 누르면, 눌러진 부분에 대응하는 문자나 숫자, 그림과 관련된 음성이나 멜로디 등이 출력되는 단말기들이 사용되고 있다. 예를 들어 문자나 숫자, 그림 등이 배열된 이미지를 포함하는 학습판의 저면에 도전성 물질이 도포된 여러 층을 배열하여 사용자의 입력을 감지하는 방식으로 단말기를 개발하여 기존의 학습판을 대체할 수 있게 되었다. On the other hand, in order to solve the disadvantages of the existing learning board, learning board-type electronic terminals providing a more interactive learning method have been developed and used. When an infant presses a specific part of an image in which a plurality of letters, numbers, and pictures are arranged, terminals that output voices or melodies corresponding to the pressed part are output. For example, it is possible to replace the existing learning board by developing a terminal by arranging several layers coated with a conductive material on the bottom of the learning board including an image in which letters, numbers, and pictures are arranged to sense user input. It became.

그러나 이와 같은 전자 단말기 형태의 학습판을 사용하더라도, 단말기 구입시 제공되는 이미지 이외에 다른 문자나 숫자, 그림 등을 포함하는 이미지는 제공받기 어렵기 때문에, 각 유아마다 관심분야가 매우 다름에도 불구하고, 그에 맞는 학습 내용을 유아들에게 학습시키기 어렵다는 문제점이 있었다. However, even when using the learning board in the form of an electronic terminal, it is difficult to provide an image including letters, numbers, pictures, etc. in addition to the image provided when the terminal is purchased. There was a problem that it is difficult for children to learn the correct learning contents.

또한 특정 회사에서 생성된 학습판 이미지들을 다른 회사에서 제조된 단말기에서 사용할 수 없다는 문제점도 있었다. In addition, there was a problem that the learning image generated by a specific company can not be used in a terminal manufactured by another company.

따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 복수의 문자, 숫자, 그림 등이 배열된 이미지의 특정 영역을 선택하면 선택된 영역에 대응하는 문자, 숫자, 그림에 관련된 음성이 출력되도록 하는 학습 단말기를 제공함으로써 학습 효과를 높일 수 있는 유아용 학습 단말기를 제공하는 것이다.Accordingly, the present invention has been made to solve the above-mentioned conventional problems, and an object of the present invention is to select a specific area of an image in which a plurality of letters, numbers, pictures, etc. are arranged, and then select a letter, number, It is to provide a learning terminal for infants to increase the learning effect by providing a learning terminal to output the voice associated with the picture.

본 발명의 다른 목적은, 유아용 학습 단말기에서 유아들에게 제공되는 학습 컨텐츠를 사용자들이 용이하게 만들 수 있도록 하는 학습 컨텐츠 생성방법을 제공하는 것이다.Another object of the present invention is to provide a learning content generation method that enables users to easily create learning content provided to toddlers in a toddler learning terminal.

본 발명의 또 다른 목적은, 문자, 숫자, 그림 등이 배열된 이미지의 크기나 모양 등의 제한을 받지 않고 이미지를 이용한 학습 컨텐츠를 만들 수 있도록 하는 학습 컨텐츠 생성방법을 제공하는 것이다. Still another object of the present invention is to provide a learning content generation method that enables to create learning content using an image without being limited by the size or shape of an image in which letters, numbers, pictures, and the like are arranged.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 유아용 학습 단말기를 위한 학습 컨텐츠 생성방법에 있어서, (a)복수의 아이템이 배열된 하나의 이미지로 구성되는 이미지자료에 대하여 상기 이미지에 배열된 각 아이템에 대응되는 영역을 설정하는 단계와; (b)상기 (a)단계에서 설정된 각 영역에 대응하는 아이템과 관련된 학습자료를 각 영역에 대응시키는 단계와; (c)상기 (b)단계에서 각 영역에 대응된 학습자료들을 이용하여 하나의 학습 컨텐츠를 생성하는 단계; 그리고 (d)생성된 학습 컨텐츠와 상기 이미지자료와의 대응관계를 표시하여 저장하는 단계를 포함하여 수행된다. According to a feature of the present invention for achieving the above object, the present invention is directed to a method for generating learning content for a learning terminal for children in which a learning material corresponding to a selected item among a plurality of items arranged on one image is output. A method comprising: (a) setting an area corresponding to each item arranged in the image with respect to image data consisting of one image arranged with a plurality of items; (b) mapping the learning material associated with the item corresponding to each area set in step (a) to each area; (c) generating one learning content using the learning materials corresponding to each area in step (b); And (d) displaying and storing a corresponding relation between the generated learning content and the image data.

여기서 상기 (d)단계는, (d1)상기 이미지자료에 하나의 식별정보를 할당하는 단계와; (d2)상기 (c)단계에서 생성된 학습 컨텐츠의 이름을 생성하여 저장하는 단계;그리고 (d3)상기 (d1)단계에서 할당된 식별정보와 상기 (d2)단계에서 생성된 학습 컨텐츠의 이름 사이의 대응관계를 저장하는 단계를 포함하여 수행될 수도 있다. Wherein step (d) comprises: (d1) assigning one piece of identification information to the image data; (d2) generating and storing the name of the learning content generated in the step (c); and (d3) between the identification information allocated in the step (d1) and the name of the learning content generated in the step (d2). It may be performed including the step of storing the correspondence of.

그리고 상기 (a)단계는, (a11)미리 정해진 복수의 영역 분할 방식을 제공하는 단계와; (a12)제공된 복수의 영역 분할 방식 중 어느 하나를 선택받는 단계와; (a13)선택된 방식에 따라 분할된 각 영역의 크기 및 위치를 연산하는 단계; 그리고 (a14)연산된 영역을 상기 이미지에 배열된 각 아이템에 대응되는 영역으로 설정하는 단계를 포함하여 수행될 수도 있다. The step (a) may include: (a11) providing a plurality of predetermined region division schemes; (a12) receiving one of a plurality of region division schemes provided; (a13) calculating the size and position of each divided region according to the selected method; And (a14) setting the calculated region to a region corresponding to each item arranged in the image.

이때 상기 이미지가 아날로그 이미지인 경우, 상기 (a)단계는, (a15)상기 (a13)단계의 수행 이전에 상기 아날로그 이미지의 가로, 세로 길이를 입력받는 단계를 더 포함하고, 상기 (a14)단계에서는 상기 (a15)단계에서 입력받은 이미지의 가로, 세로 길이를 이용하여 각 영역의 크기 및 위치를 연산할 수 있다. In this case, when the image is an analog image, the step (a) further includes (a15) receiving a horizontal and vertical length of the analog image before performing the step (a13). In step (a15), the size and position of each area may be calculated using the horizontal and vertical lengths of the image input in step (a15).

또한 상기 (a)단계는, (a21)상기 이미지의 디지털 샘플을 디스플레이하는 단계와; (a22)상기 디지털 샘플의 일부 영역을 선택받는 단계와; (a23)선택된 영역의 크기 및 위치를 연산하는 단계;그리고 (a24)연산된 영역을 상기 이미지에 배열된 각 아이템에 대응되는 영역으로 설정하는 단계를 포함하여 수행될 수도 있다. Also, the step (a) may include: (a21) displaying a digital sample of the image; (a22) receiving a partial region of the digital sample; (a23) calculating the size and position of the selected region; and (a24) setting the computed region to an area corresponding to each item arranged in the image.

이때에도 상기 이미지가 아날로그 이미지인 경우, 상기 (a)단계는, (a25)상기 (a23)단계의 수행 이전에 상기 아날로그 이미지의 가로, 세로 길이를 입력받는 단계를 더 포함하고, 상기 (a24)단계에서는 상기 (a25)단계에서 입력받은 이미지의 가로, 세로 길이를 이용하여 각 영역의 크기 및 위치를 연산할 수 있다. In this case, when the image is an analog image, the step (a) further includes (a25) receiving a horizontal and vertical length of the analog image before performing the step (a23), and (a24). In step (a25), the size and position of each area may be calculated using the horizontal and vertical lengths of the image input in step (a25).

여기서 상기 (b)단계의 상기 학습자료는 아이템과 관련된 음성자료, 텍스트자료, 이미지자료, 및 동영상자료 중 적어도 하나를 포함할 수 있다. Here, the learning material of step (b) may include at least one of audio data, text data, image data, and video data related to the item.

이때 상기 음성자료는, 텍스트로 입력된 자료를 TTS(Text-To-Speech) 변환하여 생성될 수 있다. In this case, the voice data may be generated by converting text-to-speech (TTS) data inputted into text.

그리고 상기 (b)단계는, 상기 (a)단계에서 설정된 각 영역에 대하여, 미리 정해진 복수의 입력 패턴 각각에 대응하는 서로 다른 학습자료를 입력함으로써 이루어질 수도 있다. In addition, step (b) may be performed by inputting different learning materials corresponding to each of a plurality of predetermined input patterns for each area set in step (a).

한편 상기 (c)단계에서 생성되는 학습 컨텐츠는, 상기 (a)단계에서 설정된 각 영역정보와, 상기 (b)단계에서 대응된 각 학습자료, 그리고 각 영역과 학습자료 사이의 대응관계를 포함할 수 있다. Meanwhile, the learning content generated in step (c) may include each area information set in step (a), each learning material corresponding to step (b), and a corresponding relationship between each area and learning material. Can be.

또한 본 발명은 상기한 바와 같은 학습 컨텐츠 생성방법을 수행하는 컴퓨터 프로그램이 저장된 저장매체가 될 수도 있다. In addition, the present invention may be a storage medium storing a computer program for performing the learning content generation method as described above.

나아가 본 발명은 복수의 아이템이 배열된 디지털 또는 아날로그 이미지가 표시되는 이미지 디스플레이부와;Furthermore, the present invention provides an image display unit for displaying a digital or analog image in which a plurality of items are arranged;

상기 이미지 디스플레이부에 표시된 이미지 상에 가해지는 사용자의 터치입력을 감지하는 터치감지부와;A touch sensing unit sensing a user's touch input applied to the image displayed on the image display unit;

텍스트, 이미지, 또는 동영상의 데이터를 출력하는 화면출력부와;A screen output unit configured to output data of a text, an image, or a video;

음성 데이터를 출력하는 음성출력부; 그리고A voice output unit for outputting voice data; And

상기 터치감지부에서 감지한 터치입력의 위치를 연산하여 상기 이미지에 배열된 복수의 아이템 중 연산된 터치입력의 위치에 대응하는 아이템과 관련된 학습자료를 출력하는 컨트롤러를 포함하는 학습용 단말기에 있어서,A learning terminal including a controller for calculating a position of a touch input sensed by the touch sensing unit and outputting learning data related to an item corresponding to a position of a calculated touch input among a plurality of items arranged in the image.

상기 컨트롤러는,The controller comprising:

사용자로부터 하나의 디지털 또는 아날로그 이미지를 선택받고, 선택받은 이미지에 복수의 서로 다른 영역을 설정하여, 설정된 각 영역에 대응하는 학습자료를 입력받아, 선택받은 이미지에 대응하는 학습 컨텐츠를 생성할 수도 있다. One digital or analog image may be selected by a user, and a plurality of different areas may be set in the selected image to receive learning data corresponding to each set area, and generate learning content corresponding to the selected image. .

이상에서 상세히 설명한 바와 같이 본 발명에 의한 유아용 학습 단말기 및 학습 컨텐츠 생성방법에 의하면 다음과 같은 효과를 기대할 수 있다.As described above, according to the method for generating a learning terminal for children and learning contents according to the present invention, the following effects can be expected.

즉, 선택된 영역에 대응하는 문자, 숫자, 그림에 관련된 음성이 출력되도록 하는 학습 단말기를 제공함으로써 학습 효과를 높일 수 있다는 장점이 있다. That is, there is an advantage that the learning effect can be enhanced by providing a learning terminal for outputting voices related to letters, numbers, and pictures corresponding to the selected area.

또한 본 발명에 의한 유아용 학습 단말기 및 학습 컨텐츠 생성방법에 의하면 유아용 학습 단말기에서 유아들에게 제공되는 학습 컨텐츠를 사용자들이 용이하게 만들 수 있도록 함으로써 보다 다양한 범위의 학습을 수행할 수 있다는 장점이 있다. In addition, according to the present invention, a method for generating a learning terminal for children and learning contents has an advantage in that the learning contents provided to the children in the infant learning terminal can be easily made by the user to perform a wider range of learning.

본 발명에 의한 유아용 학습 단말기 및 학습 컨텐츠 생성방법에 의하면 문자, 숫자, 그림 등이 배열된 이미지의 크기나 모양 등의 제한을 받지 않고 이미지를 이용한 학습 컨텐츠를 만들 수 있으므로, 다양한 컨텐츠를 활용할 수 있다는 이점이 있다. According to the method for generating a learning terminal for children and learning contents according to the present invention, learning contents using an image can be made without being limited by the size or shape of an image in which letters, numbers, pictures, etc. are arranged, and various contents can be utilized. There is an advantage.

도 1a 내지 1c는 본 발명의 구체적인 실시예에 의한 학습용 단말기를 도시한 사시도.
도 2a는 본 발명의 구체적인 실시예에 의한 학습용 단말기의 구성을 개략적으로 도시한 블럭도.
도 2b는 본 발명의 구체적인 실시예에 의한 학습용 단말기의 학습 컨텐츠 생성을 위한 컴퓨터의 구성을 도시한 블럭도.
도 3은 본 발명의 구체적인 실시예에 의한 유아용 학습 컨텐츠 생성 방법을 단계적으로 도시한 흐름도.
도 4a 는 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제100단계를 수행하기 위한 제1실시예를 단계적으로 도시한 흐름도.
4b는 아날로그 이미지에 대한 상기 제100단계의 제1실시예를 보다 구체적으로 도시한 흐름도.
도 4c 및 4d는 아날로그 이미지에 대한 상기 제100단계의 제1실시예에 의하여 영역을 설정하는 경우의 화면 예시도.
도 5a는 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제100단계를 수행하기 위한 제2실시예를 단계적으로 도시한 흐름도.
도 5b 및 도 5c는 각각 디지털 이미지와 아날로그 이미지에 대한 상기 제100단계의 제2실시예를 보다 구체적으로 도시한 흐름도.
도 5d는 도 5a에 도시된 상기 제100단계의 제2실시예에 의하여 영역을 설정하는 경우의 화면 예시도.
도 6a는 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제200단계를 수행하기 위한 제1실시예를 단계적으로 도시한 흐름도.
도 6b는 도 6a에 도시된 제200단계의 제1실시예에 의하여 학습자료를 할당하는 경우의 화면 예시도.
도 7a는 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제200단계를 수행하기 위한 제2실시예를 단계적으로 도시한 흐름도.
도 7b는 도 7a에 도시된 제200단계의 제2실시예에 의하여 학습자료를 할당하는 경우의 화면 예시도.
도 8은 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제400단계의 보다 구체적인 실시예를 도시한 흐름도.
도 9a은 본 발명의 구체적인 실시예에 의한 학습 컨텐츠 생성 방법에서 이미지 자료를 생성하는 방법을 단계적으로 도시한 흐름도.
도 9b는 도 9a에 도시된 이미지 자료 생성 방법에 의하여 이미지 자료와 학습 컨텐츠를 생성하는 경우의 화면 예시도.
도 10는 본 발명의 구체적인 실시예에 의하여 생성된 학습 컨텐츠를 이용한 학습 방법을 단계적으로 도시한 흐름도.
1A to 1C are perspective views illustrating a learning terminal according to a specific embodiment of the present invention.
Figure 2a is a block diagram schematically showing the configuration of a learning terminal according to a specific embodiment of the present invention.
Figure 2b is a block diagram showing the configuration of a computer for generating learning content of the learning terminal according to a specific embodiment of the present invention.
Figure 3 is a flow diagram illustrating a step-by-step method for generating learning content for children according to a specific embodiment of the present invention.
FIG. 4A is a flowchart illustrating a first embodiment for performing step 100 of the method of generating learning content for infants illustrated in FIG. 3;
4b is a flow chart showing in more detail a first embodiment of step 100 for an analog image.
4C and 4D illustrate screens in the case of setting an area according to the first embodiment of step 100 for an analog image.
FIG. 5A is a flowchart illustrating a second embodiment for performing step 100 of the method of generating learning content for infants illustrated in FIG. 3;
5B and 5C are flowcharts illustrating in more detail a second embodiment of the 100th step for digital and analog images, respectively;
FIG. 5D is a screen example of setting an area according to the second embodiment of the 100th step shown in FIG. 5A.
FIG. 6A is a flowchart illustrating a first embodiment for performing step 200 of the method of generating learning content for infants shown in FIG. 3; FIG.
FIG. 6B is a screen example of allocating learning material according to the first embodiment of step 200 shown in FIG. 6A; FIG.
FIG. 7A is a flowchart illustrating a second embodiment for performing step 200 of the method of generating learning content for infants illustrated in FIG. 3;
FIG. 7B illustrates an example of a screen for allocating learning material according to the second embodiment of step 200 of FIG. 7A.
8 is a flowchart illustrating a more specific embodiment of step 400 of the method for generating learning content for infants illustrated in FIG. 3.
9A is a flowchart illustrating a method of generating image data in a method of generating learning content according to a specific embodiment of the present invention.
FIG. 9B is a screen example of generating image data and learning content by the image data generating method shown in FIG. 9A; FIG.
10 is a flowchart illustrating a learning method using learning content generated by a specific embodiment of the present invention step by step.

이하에서는 상기한 바와 같은 본 발명에 의한 유아용 학습 단말기 및 유아용 학습 컨텐츠 생성방법의 구체적인 실시예를 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings, a specific embodiment of the infant learning terminal and infant learning content generation method according to the present invention as described above will be described in detail.

도 1a 내지 1c는 본 발명의 구체적인 실시예에 의한 학습용 단말기를 도시한 사시도이다.1A to 1C are perspective views illustrating a learning terminal according to a specific embodiment of the present invention.

도 1a에 도시된 바와 같이, 본 발명의 구체적인 실시예에 의한 학습용 단말기(100)는 화면출력부(10)가 구비된다. 상기 화면출력부(10)는 LCD(Liquid Crystal Display) 등의 표시수단으로 구성되어 단말기의 동작에 대응하는 화면을 출력한다. As shown in Figure 1a, the learning terminal 100 according to a specific embodiment of the present invention is provided with a screen output unit (10). The screen output unit 10 is configured with display means such as an LCD (Liquid Crystal Display) to output a screen corresponding to the operation of the terminal.

그리고 상기 학습용 단말기(100)에는 음성출력부(11)가 구비된다. 상기 음성출력부(11)는 단말기의 동작에 따라 저장된 오디오 데이터를 출력하는 스피커수단이다. In addition, the learning terminal 100 is provided with a voice output unit 11. The voice output unit 11 is a speaker means for outputting the stored audio data according to the operation of the terminal.

또한 상기 학습용 단말기(100)에는 사용자로부터 명령이나 데이터를 입력받기 위한 터치스크린(12)이 구비된다. 상기 터치스크린(12)은 LCD 등 디스플레이 수단의 전면에 터치패널을 구성하여 형성된다. 상기 터치스크린(12)에는 다양한 화면이 디스플레이될 수 있고, 그 화면의 일측을 사용자가 스타일러스팬(13) 등으로 터치하여 데이터나 명령을 입력할 수 있다.In addition, the learning terminal 100 is provided with a touch screen 12 for receiving a command or data from the user. The touch screen 12 is formed by forming a touch panel on the front of the display means such as LCD. Various screens may be displayed on the touch screen 12, and a user may input data or commands by touching one side of the screen with the stylus fan 13 or the like.

특히 상기 터치스크린(12)에는 복수의 문자, 숫자 또는 그림 등이 배열된 이미지가 디스플레이 될 수 있다. 예를 들어 도면에 도시된 바와 같이 알파벳이 배열된 이미지가 디스플레이될 수도 있다.In particular, the touch screen 12 may display an image in which a plurality of letters, numbers, or pictures are arranged. For example, an image in which alphabets are arranged may be displayed as shown in the figure.

상기 학습용 단말기(100)에서는 상기 터치스크린(12)에 유아의 학습을 위하여 복수의 문자, 숫자 또는 그림 등이 배열된 이미지 자료(I)가 디스플레이된다. 여기서 상기 터치스크린(12)을 통해 디스플레이되는 상기 이미지 자료(I)는 상기 학습용 단말기(100)에 저장된 디지털 이미지에 해당한다. 상기 이미지 자료(I)에 배열된 문자, 숫자, 그림 중 어느 하나를 사용자가 상기 스타일러스팬(13)이나 손으로 터치하면 선택된 문자나 숫자, 그림과 관련된 학습 자료가 상기 화면출력부(10)나 상기 음성출력부(11)를 통해 출력된다. The learning terminal 100 displays an image material I on which the plurality of letters, numbers, pictures, etc. are arranged for the infant's learning on the touch screen 12. The image data I displayed through the touch screen 12 corresponds to a digital image stored in the learning terminal 100. When the user touches any one of the letters, numbers, and pictures arranged in the image material I with the stylus fan 13 or the hand, the learning materials related to the selected letters, numbers, or pictures are displayed on the screen output unit 10 or the like. It is output through the voice output unit 11.

예를 들어, 사용자가 상기 이미지 자료(I)에 배열된 복수의 알파벳 중, 알파벳 A를 선택한 경우, 상기 음성출력부(11)에서는 알파벳 A의 발음에 해당하는 'ei'나 알파벳 A로 시작하는 영어단어 중 어느 하나의 발음이 출력되도록 할 수 있다. 그리고 상기 화면출력부(10)에는 상기 음성출력부(11)에서 출력되는 발음에 관련된 단어나 그림 등이 함께 출력될 수 있다. For example, when the user selects the letter A among the plurality of letters arranged in the image material I, the voice output unit 11 starts with 'ei' or letter A corresponding to the pronunciation of the letter A. The pronunciation of any one of the English words may be output. The screen output unit 10 may also output words or pictures related to the pronunciation output from the voice output unit 11.

이와 같은 방식으로 상기 학습용 단말기(100)를 통해서 유아들은 이미지 자료(I)에 배열된 단어나 문자, 숫자, 그림, 구구단 등을 학습할 수 있다. In this way, the children can learn the words, letters, numbers, pictures, multiplication tables, etc. arranged in the image material (I) through the learning terminal (100).

또한 상기 학습용 단말기(100)는 도 1a에 도시된 바와 같은 실시예 외에도 여러가지 실시예로 구현될 수 있다. 도 1b에 도시된 바와 같이, 상기 학습용 단말기(100)의 다른 실시예도 상기 화면출력부(10)와 음성출력부(11)를 포함한다. 그리고 이미지 자료(I)가 하단에 디스플레이되는데, 이 실시예에서 상기 이미지 자료(I)는 아날로그 이미지로 구비된다. 즉, 상기 이미지 자료(I)는 인쇄물이나 사용자가 직접 그린 이미지가 될 수 있다. 따라서 상기 학습용 단말기(100)는 이와 같은 아날로그 이미지를 고정하거나 지지할 수 있는 기구적 수단을 더 포함할 수 있다. In addition, the learning terminal 100 may be implemented in various embodiments in addition to the embodiment shown in Figure 1a. As shown in FIG. 1B, another embodiment of the learning terminal 100 also includes the screen output unit 10 and the voice output unit 11. And image material I is displayed at the bottom, in this embodiment the image material I is provided as an analog image. That is, the image data I may be a printed matter or an image drawn by a user. Therefore, the learning terminal 100 may further include mechanical means for fixing or supporting such an analog image.

한편 도 1b에 도시된 학습용 단말기(100)에는 아날로그 이미지로 구성되는 상기 이미지 자료(I)의 특정 영역에 대한 사용자의 터치 입력을 감지할 수 있도록 하는 수단으로서 무선신호송신수단(23)이 구성된다. 상기 무선신호송신수단(23)에는 그 일단에 압력을 감지하는 접촉인지부가 구비되고, 접촉인지부에 압력이 감지되면 적외선 신호와 초음파 신호를 송출하는 무선신호송신부가 구비된다. 그에 따라 사용자가 상기 무선신호송신수단(23)을 이용하여 상기 이미지 자료(I) 상의 특정 부분을 접촉하면, 상기 무선신호송신수단(23)에서 적외선 신호와 초음파 신호가 송출된다. 그리고 상기 학습용 단말기(100)에 소정 간격으로 배열된 두 개의 초음파수신센서(S1)와 적외선수신센서(S2)에서는 상기 무선신호송신수단(23)에서 송출된 신호를 감지한다. Meanwhile, the learning terminal 100 illustrated in FIG. 1B includes a wireless signal transmitting means 23 as a means for detecting a user's touch input on a specific region of the image material I composed of an analog image. . The wireless signal transmission means 23 is provided with a contact recognition unit for sensing pressure at one end thereof, and a wireless signal transmission unit for transmitting infrared signals and ultrasonic signals when pressure is detected at the contact recognition unit. Accordingly, when the user touches a specific portion on the image material I using the wireless signal transmitting means 23, the infrared signal and the ultrasonic signal are transmitted by the wireless signal transmitting means 23. In addition, the two ultrasonic receiving sensors S1 and the infrared receiving sensor S2 arranged at predetermined intervals on the learning terminal 100 detect the signal transmitted from the wireless signal transmitting means 23.

상기 학습용 단말기(100)는 상기 적외선수신센서(S2)에서 적외선 신호를 수신한 시점으로부터 두 개의 초음파수신센서(S1)에서 각각 초음파 신호를 수신하기까지 소요된 시간을 이용하여 상기 무선신호송신수단(23)이 신호를 송출한 위치와 상기 두 개의 초음파수신센서(S1) 사이의 각각의 거리를 연산한다. The learning terminal 100 uses the time required for receiving the ultrasonic signals from the two ultrasonic receiving sensors S1 from the time when the infrared signal is received by the infrared receiving sensor S2. 23) calculates respective distances between the position at which the signal is sent and the two ultrasonic receiving sensors S1.

즉, 초음파가 도달하는 시간은 거리에 비례하므로 두 개의 초음파수신센서(S1)에 초음파가 도달한 시간을 이용하여 상기 무선신호송신수단(23)과 초음파수신센서(S1) 사이의 거리를 각각 연산한다. 그리고 연산된 두 거리값과, 두 개의 초음파수신센서(S1) 사이의 거리값을 이용하면 상기 무선신호송신수단(23)이 상기 이미지 자료(I)를 터치한 부분의 좌표가 연산될 수 있다. 그에 따라 상기 학습용 단말기(100)는 사용자가 상기 이미지 자료(I) 상에 터치입력한 위치의 좌표를 알 수 있고, 그에 따라 해당 좌표에 배열된 문자, 숫자, 그림 등의 아이템에 대응하는 음성 자료나 텍스트, 이미지 등을 상기 음성출력부(11)와 상기 화면출력부(10)를 통해 출력할 수 있다.That is, since the time that the ultrasonic wave reaches is proportional to the distance, the distance between the wireless signal transmitting means 23 and the ultrasonic wave receiving sensor S1 is calculated using the time when the ultrasonic wave reaches the two ultrasonic receiving sensors S1. do. If the calculated distance value and the distance value between the two ultrasonic receiving sensors S1 are used, the coordinates of the portion where the wireless signal transmitting means 23 touches the image material I may be calculated. Accordingly, the learning terminal 100 can know the coordinates of the position touched by the user on the image data I, and accordingly voice data corresponding to items such as letters, numbers, and pictures arranged at the corresponding coordinates Or text, images, etc. may be output through the voice output unit 11 and the screen output unit 10.

이와 같은 실시예에서는 문자, 숫자, 그림 등이 배열되는 이미지 자료(I)의 크기나 모양 등의 제한을 덜 받기 때문에 사용자가 직접 이미지 자료를 손으로 그려서 만들거나, 기존에 갖고 있던 인쇄물 등을 활용하여 새로운 이미지 자료를 만들어서 사용할 수 있다. In such an embodiment, since the size, shape, etc. of the image data (I) in which letters, numbers, and pictures are arranged are less limited, the user directly draws the image data, or utilizes a printed material that he / she has. Can be used to create new image material.

또한 학습용 단말기(100)는 도 1c에 도시된 바와 같은 실시예로 구현될 수도 있다. 상기 학습용 단말기(100)에는 화면출력부(10)와 음성출력부(11)가 구비된다. In addition, the learning terminal 100 may be implemented in an embodiment as shown in FIG. 1C. The learning terminal 100 includes a screen output unit 10 and a voice output unit 11.

그리고 상기 학습용 단말기(100)는 사용자의 손(33)이나 스타일러스 펜 등에 의한 터치입력을 받을 수 있도록 터치패널(32)이 전면에 구비된다. 상기 터치패널(32)은 투명하게 형성됨으로써 상기 터치패널(32)의 후면에 설치될 이미지 자료(I)가 상기 터치패널(32)의 전면에서 보일 수 있도록 한다. In addition, the learning terminal 100 is provided with a touch panel 32 on the front to receive a touch input by a user's hand 33 or a stylus pen. The touch panel 32 is formed to be transparent so that the image material I to be installed on the rear of the touch panel 32 can be seen from the front of the touch panel 32.

그리고 인쇄물 등의 아날로그 이미지가 이미지 자료(I)로서 상기 학습용 단말기(100)에서 디스플레이될 수 있도록 하기 위하여 삽입슬롯(35)이 구비될 수 있다. 상기 삽입슬롯(35)을 통하여 상기 이미지 자료(I)를 상기 학습용 단말기(100)에 설치하면 상기 터치패널(32)의 후면에 상기 이미지 자료(I)가 위치하도록 한다. 다만 삽입슬롯(35)이 구성은 하나의 실시예에 불과하고, 상기 이미지 자료(I)가 상기 터치패널(32)의 후면에 고정될 수 있는 어떠한 구조라도 상기 학습용 단말기(100)가 가질 수 있다. An insertion slot 35 may be provided to enable an analog image such as a printed matter to be displayed on the learning terminal 100 as image material I. When the image material I is installed in the learning terminal 100 through the insertion slot 35, the image material I is positioned on the rear surface of the touch panel 32. However, the configuration of the insertion slot 35 is only one embodiment, and the learning terminal 100 may have any structure in which the image material I may be fixed to the rear surface of the touch panel 32. .

도 1a 내지 1c를 참조하여 설명한 바와 같은 학습용 단말기(100)의 보다 구체적인 구성을 도 2a를 참조하여 설명한다. 도 2a는 본 발명의 구체적인 실시예에 의한 학습용 단말기의 구성을 개략적으로 도시한 블럭도이다.A more specific configuration of the learning terminal 100 as described with reference to FIGS. 1A to 1C will be described with reference to FIG. 2A. 2A is a block diagram schematically illustrating a configuration of a learning terminal according to a specific embodiment of the present invention.

도 2a에서 보는 바와 같이, 본 발명의 구체적인 실시예에 의한 학습용 단말기(100)는 단말기의 전체적인 제어를 담당하는 컨트롤러(15)를 포함한다. 그리고 도 1a 내지 도 1c에서 본 바와 같이 화면출력부(10)와 음성출력부(11)를 포함한다. 상기 화면출력부(10)와 상기 음성출력부(11)를 통하여 유아에게 학습시키고자 하는 학습 자료들을 이미지나 텍스트, 오디오로 출력한다.As shown in Figure 2a, the learning terminal 100 according to a specific embodiment of the present invention includes a controller 15 for the overall control of the terminal. 1A to 1C, the screen output unit 10 and the audio output unit 11 are included. Through the screen output unit 10 and the voice output unit 11, the learning materials to be taught to the infant are output as an image, text, or audio.

또한 상기 학습용 단말기(100)에는 이미지 디스플레이부(16)가 포함된다. 상기 이미지 디스플레이부(16)는 복수의 문자, 숫자, 그림 등이 배열된 아날로그 또는 디지털 이미지 자료가 상기 학습용 단말기(100)에 디스플레이되도록 하는 수단으로서, 예를 들어, 도 1a의 터치스크린과 같은 전자적 수단이 될 수도 있으나, 도 1b 또는 1c를 참조하여 설명한 실시예에서와 같이 단순히 아날로그 이미지를 고정하거나 지지하기 위한 수단으로 구성될 수도 있다. In addition, the learning terminal 100 includes an image display unit 16. The image display unit 16 is a means for displaying analog or digital image data in which a plurality of letters, numbers, pictures, and the like are arranged on the learning terminal 100. For example, the image display unit 16 may be an electronic device such as the touch screen of FIG. It may be a means, but may be configured as a means for simply fixing or supporting the analog image as in the embodiment described with reference to FIG. 1B or 1C.

그리고 상기 학습용 단말기(100)에는 터치감지부(17)가 포함된다. 상기 터치감지부(17)는 이미지 자료(I) 상에서 이루어지는 사용자의 선택을 감지하기 위한 수단으로서, 도 1a 내지 도 1c에서 살펴본 바와 같이 다양한 수단으로 구비될 수 있다. 즉, 도 1a에서 본 바와 같이 디지털 이미지를 출력하는 터치 스크린이 될 수도 있고, 도 1b에서 본 바와 같이 아날로그 이미지 상에서 무선신호를 송출하는 무선신호송신수단과, 상기 무선신호송신수단에서 송출된 무선신호를 수신하는 센서수단을 포함할 수 있다. 또는 도 1c에서 본 바와 같이 아날로그 이미지 위에 구비되는 터치패널이 될 수도 있다.In addition, the learning terminal 100 includes a touch sensing unit 17. The touch sensing unit 17 is a means for detecting a user's selection on the image material I, and may be provided by various means as described with reference to FIGS. 1A to 1C. That is, it may be a touch screen which outputs a digital image as shown in FIG. 1A, and a wireless signal transmitting means for transmitting a radio signal on an analog image as shown in FIG. 1B, and a radio signal transmitted by the radio signal transmitting means. It may include a sensor means for receiving. Alternatively, the touch panel may be provided on the analog image as shown in FIG. 1C.

따라서 상기 이미지 디스플레이부(16)에 디스플레이된 이미지 자료(I) 상에서 사용자의 터치 입력이 발생하면 상기 컨트롤러(15)는 상기 터치감지부(17)를 이용하여 터치 입력을 감지할 수 있다. Accordingly, when a user's touch input occurs on the image material I displayed on the image display unit 16, the controller 15 may detect the touch input using the touch sensing unit 17.

한편 상기 학습용 단말기(100)에는 저장부(18)가 구비된다. 상기 저장부(18)에는 학습 자료가 저장된다. 즉, 상기 이미지 디스플레이부(16)에 디스플레이된 이미지 자료(I)에 배열된 복수의 문자, 숫자, 그림 등의 아이템 중 하나의 아이템이 선택되고, 이를 상기 컨트롤러(15)가 상기 터치감지부(17)를 통해 감지하면 상기 컨트롤러(15)는 상기 저장부(18)에 저장되어 있는 학습 자료 중 선택된 아이템에 대응하는 학습 자료를 상기 화면출력부(10)나 상기 음성출력부(11)를 통해 출력한다. 따라서 상기 저장부(18)에는 상기 이미지 디스플레이부(16)에 디스플레이되는 이미지 자료(I)마다 그에 대응하는 학습 자료들이 저장된다. On the other hand, the learning terminal 100 is provided with a storage unit 18. The storage unit 18 stores learning materials. That is, one item among a plurality of items such as letters, numbers, pictures, and the like arranged on the image material I displayed on the image display unit 16 is selected, and the controller 15 determines that the touch sensing unit ( The controller 15 detects the learning data corresponding to the selected item among the learning materials stored in the storage 18 through the screen output unit 10 or the voice output unit 11. Output Therefore, the storage unit 18 stores learning materials corresponding to each image data I displayed on the image display unit 16.

또한 상기 학습용 단말기(100)에는 연결부(19)가 구비될 수 있다. 상기 연결부(19)는 상기 학습용 단말기(100)가 컴퓨터와 연결될 수 있도록 하는 통신 인터페이스 수단이다. 이는 컴퓨터로부터 학습 자료를 다운로드하기 위하여 제공될 수 있다.In addition, the learning terminal 100 may be provided with a connection unit 19. The connection unit 19 is a communication interface means for allowing the learning terminal 100 to be connected to a computer. This may be provided to download the learning material from a computer.

이하에서는 상기 학습용 단말기(100)가 연결되는 컴퓨터의 구성을 개략적으로 설명한다. 도 2b는 본 발명의 구체적인 실시예에 의한 학습용 단말기의 학습 컨텐츠 생성을 위한 컴퓨터의 구성을 도시한 블럭도이다.Hereinafter, a configuration of a computer to which the learning terminal 100 is connected will be described. 2B is a block diagram showing the configuration of a computer for generating learning contents of a learning terminal according to a specific embodiment of the present invention.

도 2b에 도시된 바와 같이, 상기 학습용 단말기(100)는 상기 연결부(19)를 통해 컴퓨터(200)의 인터페이스부(210)에 연결된다. 여기서 상기 컴퓨터(200)는 일반적인 퍼스널 컴퓨터와 같은 정보처리장치이다. As shown in FIG. 2B, the learning terminal 100 is connected to the interface unit 210 of the computer 200 through the connection unit 19. The computer 200 is an information processing device such as a general personal computer.

상기 컴퓨터(200)에는 운영체제에 따라 상기 컴퓨터(200)를 전반적으로 제어하는 제어부(220)와 상기 컴퓨터(200)의 동작의 결과를 출력하는 디스플레이부(230)와, 상기 컴퓨터(200)로 사용자의 명령이나 데이터를 입력하기 위한 입력부(240)가 구비된다. 상기 디스플레이부(230)는 LCD 모니터 등이 될 수 있고, 상기 입력부(240)는 키보드나 마우스 등의 통상적인 입력수단이 될 수 있다. The computer 200 includes a control unit 220 for overall control of the computer 200 according to an operating system, a display unit 230 for outputting a result of the operation of the computer 200, and a user to the computer 200. An input unit 240 for inputting a command or data is provided. The display unit 230 may be an LCD monitor or the like, and the input unit 240 may be a conventional input means such as a keyboard or a mouse.

그리고 상기 컴퓨터(200)에는 음성입력부(250)가 구비될 수 있다. 상기 음성입력부(250)는 통상적인 마이크 수단으로서, 사용자가 입력하고자 하는 소리를 감지하여 디지털 오디오 신호로 변환하여주는 역할을 한다. 또한 상기 컴퓨터(200)에는 TTS(Text-To-Speech)변환부(260)가 구비될 수 있다. 상기 TTS변환부(260)는 상기 입력부(240)를 통해 사용자가 텍스트를 입력하면, 이를 해당 텍스트의 발음에 해당하는 오디오 신호로 변환하는 역할을 한다. In addition, the voice input unit 250 may be provided in the computer 200. The voice input unit 250 is a conventional microphone means, and detects a sound to be input by the user and converts it into a digital audio signal. In addition, the computer 200 may be provided with a text-to-speech (TTS) converter 260. When the user inputs text through the input unit 240, the TTS converter 260 converts the text into an audio signal corresponding to the pronunciation of the text.

또한 상기 컴퓨터(200)에는 저장부(270)가 구비된다. 상기 저장부(270)에는 상기 음성입력부(250)나 상기 TTS변환부(260)에서 생성된 오디오 신호가 저장되고, 후술할 학습 컨텐츠 생성 방법에 의하여 생성된 데이터 등이 저장된다.In addition, the computer 200 is provided with a storage unit 270. The storage unit 270 stores the audio signal generated by the voice input unit 250 or the TTS converter 260, and stores data generated by a method of generating learning content, which will be described later.

위와 같은 상기 컴퓨터(200)를 이용하여 사용자는 오디오, 텍스트, 또는 비디오 자료 등을 포함하는 학습 자료를 이용하여 복수의 아이템이 배열된 이미지 자료(I)에 대응하는 학습 컨텐츠를 생성할 수 있고, 이를 상기 인터페이스부(210)를 통해 상기 단말기(100)로 다운로드 시킬 수 있다.By using the computer 200 as described above, a user may generate learning content corresponding to the image material I having a plurality of items arranged using learning materials including audio, text, or video materials. This may be downloaded to the terminal 100 through the interface unit 210.

이하에서는, 위에서 설명한 바와 같은 상기 학습용 단말기(100)를 이용하여 유아들에게 복수의 아이템이 배열된 이미지 자료(I) 기반의 학습 수행이 가능하도록 하기 위한 학습 컨텐츠를 생성하는 방법을 설명한다. 즉 상기 학습용 단말기(100)를 통하여 제공되는 학습 컨텐츠를 생성하는 방법을 설명하는데, 이와 같은 학습 컨텐츠는 상기 학습용 단말기(100)에서 직접 생성할 수도 있고, 상기 컴퓨터(200)를 이용하여 생성한 후 상기 학습용 단말기(100)로 다운로드할 수도 있다. Hereinafter, a method of generating learning content for enabling children to perform learning based on image data I having a plurality of items arranged using the learning terminal 100 as described above will be described. That is, a method of generating learning content provided through the learning terminal 100 will be described. Such learning content may be directly generated by the learning terminal 100 or generated using the computer 200. It may be downloaded to the learning terminal 100.

도 3은 본 발명의 구체적인 실시예에 의한 유아용 학습 컨텐츠 생성 방법을 단계적으로 도시한 흐름도이다. 도 3에 도시된 바와 같이 본 발명의 구체적인 실시예에 의한 유아용 학습 컨텐츠 생성 방법은, 특정 이미지 자료(I)에 배열된 복수의 아이템 각각에 대응하는 영역을 상기 이미지 자료(I)상에 설정하는 단계(S100)로부터 시작된다. 3 is a flowchart illustrating a step-by-step method of generating learning content for children according to a specific embodiment of the present invention. As illustrated in FIG. 3, the method for generating learning content for infants in accordance with a specific embodiment of the present invention is to set an area corresponding to each of a plurality of items arranged in a specific image material I on the image material I. The process starts from step S100.

제100단계는 이미지 자료(I)에 배열된 각각의 아이템이 위치하는 영역을 각각 별도의 영역으로 설정함으로써 이루어지는데, 이미지 자료(I) 상에 특정 아이템이 배열된 위치에 해당하는 2차원의 좌표 영역을 해당 아이템에 대응하는 영역으로 하여 각 좌표 영역을 저장한다. 예를 들어 100x100의 좌표를 가진 이미지 자료(I)에 대하여 좌표 (0, 0)으로부터 좌표(50, 100)까지의 좌표 영역을 하나의 아이템에 대응하는 영역으로 설정하고, 좌표(50, 100)으로부터 좌표(100, 100)까지의 영역을 다른 하나의 아이템에 대응하는 영역으로 설정함으로써, 각 아이템에 대응하는 좌표 영역을 설정한다. The step 100 is performed by setting the area where each item arranged in the image material I as a separate area, and the two-dimensional coordinates corresponding to the position where the specific item is arranged on the image material I. Each coordinate area is stored as an area corresponding to the item. For example, for an image data I having a coordinate of 100x100, a coordinate region from coordinates (0, 0) to coordinates (50, 100) is set as an area corresponding to one item, and coordinates (50, 100) By setting the area from to to the coordinates 100 and 100 as the area corresponding to the other item, the coordinate area corresponding to each item is set.

여기서 상기 제100단계는, 상기 이미지 자료(I)가 아날로그 이미지로 구성되었는지 또는 디지털 이미지에 해당하는지 여부에 따라 달리 수행될 수 있고, 또한 상기 이미지 자료(I) 상의 아이템 배열 방식 등에 따라서도 달리 수행될 수 있다. 이는 추후 다른 도면을 참조하여 보다 구체적으로 설명한다. Here, the step 100 may be performed differently depending on whether the image data I is configured as an analog image or a digital image, and also differently depending on an item arrangement method on the image material I. Can be. This will be described in more detail later with reference to other drawings.

그리고나서, 설정된 각 영역에 대응하는 아이템에 관련된 학습자료를 각 영역에 대응시키는 단계(S200)가 수행된다. 상기 제200단계는 특정 영역에 대응되는 아이템과 관련된 학습자료를 각 영역마다 지정함으로써 이루어지는데, 여기서 학습자료는 음성이나 음악 등의 오디오 자료 및/또는 텍스트나 이미지와 같은 비디오 자료가 될 수 있다. 즉 예를 들어, 도 1a에서 볼 수 있는 바와 같이 상기 이미지 자료(I)에 배열된 복수의 알파벳 아이템들 각각에 좌표 영역이 설정되고, 알파벳 A에 대응하는 좌표 영역을 사용자가 선택하였을 때 출력될 학습자료, 예를 들어 도면에 도시된 바와 같이 알파벳 A로 시작하는 영어단어 'Apple'을 알파벳 A에 대응하는 좌표 영역에 대한 학습자료로서 할당할 수 있다. 나머지 알파벳들에 대응하는 좌표 영역 각각에 대해서도 각 알파벳과 관련된 학습자료들이 할당된다.Then, the step (S200) of mapping the learning material related to the item corresponding to each set area to each area is performed. The step 200 is performed by designating learning materials related to an item corresponding to a specific area for each area, where the learning material may be audio material such as voice or music and / or video material such as text or image. That is, for example, as shown in FIG. 1A, a coordinate region is set in each of the plurality of alphabet items arranged in the image material I, and is output when the user selects a coordinate region corresponding to the alphabet A. FIG. Learning materials, for example, as shown in the drawing, the English word 'Apple' starting with the letter A may be assigned as the learning material for the coordinate region corresponding to the letter A. The learning materials associated with each alphabet are also assigned to each of the coordinate regions corresponding to the remaining alphabets.

여기서 각 영역에 학습자료를 할당함에 있어서, 오디오 자료는 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 미리 저장된 자료들이 될 수도 있고, 사용자가 녹음하거나, TTS변환을 이용하여 새로 생성한 자료가 될 수도 있다. 사용자가 오디오 자료를 새로 생성하기 위하여 도 2b에 도시된 바와 같이 상기 컴퓨터(200)에는 음성입력부(250) 및/또는 TTS변환부(260)가 구비될 수 있다. 만약 상기 학습용 단말기(100)에도 음성입력부나 TTS변환부와 같은 수단이 구비된다면 상기 학습용 단말기(100)를 통해서도 각 아이템에 대응하는 영역에 오디오 자료를 할당할 수 있다. Here, in allocating the learning material to each area, the audio material may be materials stored in the learning terminal 100 or the computer 200 in advance, or the user may record or newly create data using the TTS conversion. May be As illustrated in FIG. 2B, the computer 200 may be provided with a voice input unit 250 and / or a TTS converter 260 to generate a new audio material. If the learning terminal 100 also includes means such as a voice input unit or a TTS converting unit, audio material may be allocated to an area corresponding to each item through the learning terminal 100.

또한 비디오 학습 자료 역시 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 미리 저장된 자료들이 될 수도 있고, 사용자가 새로 생성하거나 인터넷 등의 네트워크를 통해 다운로드 받은 디지털 이미지 등이 될 수도 있다. 또한 사용자가 직접 입력한 텍스트도 학습 자료로서 각 영역에 할당될 수 있다. In addition, the video learning material may also be materials stored in advance in the learning terminal 100 or the computer 200, or may be a digital image newly created by the user or downloaded through a network such as the Internet. In addition, text directly input by a user may be assigned to each area as a learning material.

그리고 위와 같이 이미지 자료의 각 아이템들에 대응하는 좌표 영역이 설정되고, 각 좌표영역에 관련 학습자료가 할당되면, 각각의 학습자료와, 각 좌표 영역의 범위, 학습자료와 각 영역 사이의 대응관계를 하나의 학습 컨텐츠로 하여 저장한다(S300). 따라서 상기 학습 컨텐츠는, 이미지 자료(I)에 배열된 각각의 아이템에 대응하는 좌표 영역의 범위와, 각 영역에 대응하는 오디오 및/또는 비디오 학습 자료와, 각 영역과 학습자료 사이의 대응관계를 포함하는 데이터의 모음이 된다. When the coordinate regions corresponding to the items of the image data are set as above, and the relevant learning materials are allocated to each of the coordinate regions, each learning material, the range of each coordinate area, the correspondence relationship between the learning material and each area Is stored as one learning content (S300). Accordingly, the learning content may include a range of coordinate areas corresponding to each item arranged in the image material I, audio and / or video learning materials corresponding to each area, and a correspondence relationship between each area and the learning material. It is a collection of data that it contains.

그 후, 이와 같이 생성된 학습 컨텐츠는 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 저장되는데(S400), 저장되는 학습 컨텐츠가 어떤 이미지 자료(I)와 대응하는지, 그 대응관계가 표시된다. 예를 들어 상기 이미지 자료(I)가 디지털 이미지인 경우, 상기 학습 컨텐츠에 상기 이미지 자료(I)가 함께 저장될 수 있으나, 상기 이미지 자료(I)가 아날로그 이미지인 경우에는 저장되는 학습 컨텐츠가 어떤 이미지 자료(I)에 대응하는지 여부가 표시된다. 여기서 상기 제400단계 또한 추후 보다 상세하게 설명한다. Thereafter, the generated learning content is stored in the learning terminal 100 or the computer 200 (S400), which image material I corresponds to the stored learning content, and its corresponding relationship is displayed. . For example, when the image material I is a digital image, the image material I may be stored together in the learning content. However, when the image material I is an analog image, the learning content is stored. It is indicated whether or not it corresponds to the image material (I). Here, step 400 will also be described in more detail later.

이하에서는 상기 제100단계를 수행하는 보다 구체적인 방법을 설명한다. 도 4a 는 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제100단계를 수행하기 위한 제1실시예를 단계적으로 도시한 흐름도이고, 4b는 아날로그 이미지에 대한 상기 제100단계의 제1실시예를 보다 구체적으로 도시한 흐름도이며, 도 4c 및 4d는 아날로그 이미지에 대한 상기 제100단계의 제1실시예에 의하여 영역을 설정하는 경우의 화면 예시도이다. 또한 도 5a는 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제100단계를 수행하기 위한 제2실시예를 단계적으로 도시한 흐름도이고, 도 5b 및 도 5c는 각각 디지털 이미지와 아날로그 이미지에 대한 상기 제100단계의 제2실시예를 보다 구체적으로 도시한 흐름도이며, 도 5d는 도 5a에 도시된 상기 제100단계의 제2실시예에 의하여 영역을 설정하는 경우의 화면 예시도이다.Hereinafter, a more specific method of performing the 100th step will be described. FIG. 4A is a flowchart illustrating a first embodiment for performing step 100 of the method for generating learning content for children shown in FIG. 3, and FIG. 4B shows a first embodiment of the 100 step for an analog image. 4C and 4D are diagrams illustrating screens when an area is set according to the first embodiment of step 100 for the analog image. FIG. 5A is a flowchart illustrating a second embodiment for performing step 100 of the method of generating learning content for infants illustrated in FIG. 3, and FIGS. 5B and 5C are diagrams illustrating the digital image and the analog image, respectively. FIG. 5D is a flowchart illustrating a second embodiment of step 100 in more detail, and FIG. 5D is a diagram illustrating an example of setting a region according to the second embodiment of step 100 shown in FIG. 5A.

우선 도 4a와 도 5a에 도시된 바와 같이, 도 3의 제100단계는 여러가지 실시예로 수행될 수 있다. 그 중 첫 번째 실시예는 도 4a에서 보는 바와 같이 미리 정해진 복수의 영역 분할 방식이 제공되는 단계로부터 시작된다(S101). 즉, 상기 학습용 단말기(100)의 컨트롤러(15)나 상기 컴퓨터(200)의 제어부(220)는 미리 설정된 복수의 영역 분할 방식 중 어느 하나를 제공할 수 있다. First, as shown in FIGS. 4A and 5A, step 100 of FIG. 3 may be performed in various embodiments. The first embodiment of the method starts from the step of providing a plurality of predetermined region division schemes as shown in FIG. 4A (S101). That is, the controller 15 of the learning terminal 100 or the controller 220 of the computer 200 may provide any one of a plurality of region division schemes set in advance.

예를 들어 사각형의 이미지 자료(I)를 가로 3등분, 세로 3등분으로 분할하는 방식과, 가로 4등분, 세로 4등분으로 분할하는 방식 등 2가지의 영역 분할 방식이 미리 설정되어 있다면 상기 컨트롤러(15)나 상기 제어부(220)는 두 가지 방식을 모두 사용자에게 제공하여, 이 중 어느 하나를 사용자가 선택하도록 한다. 그에 따라 사용자는 학습 컨텐츠를 생성하는데 사용하는 이미지 자료(I)가 가로 3등분, 세로 3등분으로 분할된 각각의 영역에 아이템이 배열된 모양으로 구성된다면, 제공된 두 가지 방식 중 가로 3등분, 세로 3등분으로 영역을 분할하는 방식을 선택할 수 있도록 한다. 여기서 영역 분할 방식을 비교적 단순한 두 가지 방식만이 제공되는 것으로 예시하여 설명하였으나, 실제로는 매우 다양한 방식으로 각 영역이 설정될 수 있도록 여러 가지 다양한 영역 분할 방식을 제공하도록 할 수 있다. For example, if two area division methods, such as a method of dividing a rectangular image material (I) into three horizontal and three vertical sections, and a four and four horizontal sections, are previously set, the controller ( 15) or the controller 220 provides both methods to the user, so that the user selects either of them. Accordingly, if the image material (I) used to generate the learning content is composed of items arranged in respective regions divided into three quarters and three quarters, the user can arrange three sections horizontally and vertically. Allows you to choose how to divide the area into three parts. Here, the region division scheme has been described with only two relatively simple schemes provided, but in practice, various region division schemes may be provided so that each region may be set in a wide variety of ways.

그리고 사용자는 위와 같이 복수로 제공되는 영역 분할 방식 중 어느 하나를 선택한다(S102). 그리고 선택된 방식에 따라 분할된 각 영역은 각 아이템에 대응하는 영역으로 설정된다(S103). In operation S102, the user selects any one of the region division schemes provided in plurality. Each divided area according to the selected method is set as an area corresponding to each item (S103).

예를 들어, 사용자가 이미지 자료(I)를 가로 2등분, 세로 2등분으로 분할하고자 하여, 그에 대응하는 영역 분할 방식을 선택하면, 이미지 자료(I)의 각 좌표들은 가로 2등분, 세로 2등분된 4개 그룹으로 구분되도록 설정된다.For example, if the user wants to divide the image data I into two horizontal and two vertical portions, and selects a region division method corresponding thereto, each coordinate of the image data I is divided into two horizontal and two vertical portions. It is set to be divided into four groups.

한편 이와 같이 도 4a를 참조하여 설명한 제100단계의 제1실시예는 상기 이미지 자료(I)가 디지털 이미지인 경우와, 아날로그 이미지인 경우에 모두 구현가능하다. 특히 상기 이미지 자료(I)가 아날로그 이미지에 해당하는 경우에, 제1실시예는 도 4b에 도시된 바와 같이 보다 구체적인 단계를 거쳐 수행된다. Meanwhile, the first embodiment of the 100th step described with reference to FIG. 4A may be implemented both when the image data I is a digital image and when it is an analog image. In particular, in the case where the image material I corresponds to an analog image, the first embodiment is performed through more specific steps as shown in FIG. 4B.

즉, 미리 정해진 복수의 영역분할 방식이 제공되고(S111), 사용자는 아날로그 이미지의 아이템 배열에 대응하는 하나의 영역 분할 방식을 선택한다(S112). 예를 들어, 사용자가 학습 컨텐츠 생성에 사용하고자 하는 아날로그 이미지의 아이템 배열이 가로 5열, 세로 5열에 해당하는 경우, 사용자는 도 4c에 도시된 바와 같이 상기 제111단계에서 제공된 복수의 영역분할 방식 중 가로 5등분, 세로 5등분에 해당하는 모양의 분할 방식을 선택한다. That is, a plurality of predetermined area division schemes are provided (S111), and the user selects one area division scheme corresponding to the arrangement of items of the analog image (S112). For example, when the item arrangement of the analog image that the user intends to use to generate the learning content corresponds to 5 columns and 5 columns, the user may use the plurality of region division methods provided in step 111 as illustrated in FIG. 4C. Select the division method of the shape that corresponds to 5 horizontal divisions and 5 vertical divisions.

그리고 사용자가 학습 컨텐츠 생성에 사용하고자 하는 아날로그 이미지의 가로, 세로 길이를 입력할 수 있도록 한다(S113). 상기 제113단계에서 사용자는 실제 아날로그 이미지의 가로, 세로 길이를 입력하여, 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에서 실제 이미지에 대응하는 전체 좌표 영역을 생성할 수 있도록 한다. In addition, the user may input the horizontal and vertical lengths of the analog image to be used for generating the learning content (S113). In step 113, the user inputs the horizontal and vertical lengths of the actual analog image, so that the learning terminal 100 or the computer 200 can generate the entire coordinate region corresponding to the actual image.

그리고 제114단계에서는 사용자로부터 입력받은 아날로그 이미지 크기에 대응하는 전체 영역에 상기 제112단계에서 선택된 영역 분할 방식을 적용하여 전체 영역에서 분할된 각 영역의 크기와 위치를 연산한다. 예를 들어, 도 4c에서와 같이 가로 50cm x 세로 50cm의 아날로그 이미지를 이미지 자료(I)로 하여 학습 컨텐츠를 생성하는 경우, 가로 5등분, 세로 5등분의 영역 분할 방식을 선택하면, 각각 가로 10cm x 세로 10cm의 25개 영역이 각각 아이템에 대응하는 영역으로 계산된다. In operation 114, the area division method selected in operation 112 is applied to the entire area corresponding to the analog image size input from the user to calculate the size and position of each area divided in the entire area. For example, when the learning content is generated using an analog image of 50 cm x 50 cm as the image material (I) as shown in FIG. Twenty-five areas of 10 cm length are calculated as areas corresponding to each item.

그리고 이와 같이 연산된 각 영역의 크기 및 위치 정보에 따라 분할된 각 영역을 이미지 자료에 배열된 각 아이템에 대응하는 영역으로 설정된다(S115).Then, the divided regions are set as regions corresponding to each item arranged in the image data according to the size and position information of each region calculated as described above (S115).

한편 이때, 상기 제111단계와 상기 112단계에서, 미리 정해진 복수의 영역 분할 방식을 제공하고, 이 중 하나를 사용자가 선택하는 과정은, 도 4d에 도시된 바와 같이, 이미지 자료의 가로와 세로 분할 횟수를 직접 입력하는 방식으로 제공될 수도 있다. 그에 따라 사용자가 선택한 분할 횟수에 맞춰 분할된 사각형 이미지가 도 4c에 도시된 바와 같이 디스플레이될 수 있다. In this case, in step 111 and 112, a process of providing a plurality of predetermined region division methods and a user selecting one of them may be performed by horizontally and vertically dividing image data as illustrated in FIG. 4D. It may be provided by directly inputting the number of times. Accordingly, the quadrangular image divided according to the number of divisions selected by the user may be displayed as shown in FIG. 4C.

이와 같이 이미지 자료(I)에 배열된 각 아이템에 대응하는 좌표 영역이 설정된 후에는 도 4c에 도시된 바와 같이 설정된 영역 중 어느 하나를 선택하여 음성 자료나 텍스트 자료를 대응시키는 단계가 진행된다.After the coordinate region corresponding to each item arranged in the image material I is set as described above, a step of selecting one of the set regions as shown in FIG. 4C to correspond to the voice data or the text data is performed.

한편 도 5a에 도시된 바와 같이 상기 제100단계의 제2실시예는, 상기 컴퓨터(200)의 상기 디스플레이부(230) 또는 상기 학습용 단말기(100)의 상기 화면출력부(10)에 사용자가 생성하고자 하는 학습 컨텐츠에 대응하는 이미지 자료(I)의 디지털 샘플 이미지가 디스플레이되는 단계(S151)로부터 시작된다(S151).Meanwhile, as illustrated in FIG. 5A, in the second embodiment of the 100th step, a user is generated on the display unit 230 of the computer 200 or the screen output unit 10 of the learning terminal 100. The digital sample image of the image material I corresponding to the learning content to be started is displayed in step S151 (S151).

예를 들어 사용자가 디지털 이미지를 이미지 자료(I)로 선택하여 그에 대한 학습 컨텐츠를 생성하고자 한다면, 그 디지털 샘플 이미지는 이미지 자료(I)로 사용될 디지털 이미지 그 자체이거나 이를 축소한 것이 될 수 있다.For example, if a user selects a digital image as the image material I and generates learning content thereon, the digital sample image may be the digital image itself to be used as the image material I or reduced.

한편 이미지 자료(I)로 사용하고자 하는 이미지가 아날로그 이미지에 해당하는 경우, 즉 도 1b나 도 1c에 도시된 바와 같은 학습용 단말기(100)에서와 같이 아날로그 이미지가 이미지 자료(I)로 사용되는 경우, 디지털 샘플 이미지는 아날로그 이미지를 스캔하거나 촬영하여 디지털 데이터로 전환한 것을 의미한다. 즉 이미지 자료(I)로 사용하고자 하는 아날로그 이미지와 동일한 모양을 갖는 디지털 이미지가 디지털 샘플 이미지가 될 수 있다.On the other hand, when the image to be used as the image material (I) corresponds to the analog image, that is, when the analog image is used as the image material (I) as in the learning terminal 100 as shown in Fig. 1b or 1c For example, a digital sample image refers to an analog image that is scanned or photographed and converted into digital data. That is, the digital sample image having the same shape as the analog image to be used as the image material I may be a digital sample image.

그리고 상기 제151단계에서 디지털 샘플 이미지가 디스플레이되면, 사용자는 디지털 샘플 이미지에 나타난 복수의 아이템들을 육안으로 확인하면서, 아이템이 배열된 상태에 따라 각 아이템에 대응하는 영역을 드래그(Drag)하여 선택한다(S152). When the digital sample image is displayed in step 151, the user visually checks the plurality of items shown in the digital sample image and drags and selects an area corresponding to each item according to the arrangement of the items. (S152).

그에 따라 드래그 입력으로 선택된 각 영역은 각 아이템에 대응하는 영역으로 설정된다(S153).Accordingly, each area selected by the drag input is set as an area corresponding to each item (S153).

도 5a에 도시된 바와 같은, 상기 제100단계의 제2실시예는, 이미 설명한 바와 같이 이미지 자료(I)가 디지털 이미지인 경우와 아날로그 이미지인 경우에 따라 달리 수행될 수 있는데, 도 5b에 도시된 것처럼 이미지 자료(I)가 디지털 이미지에 해당하는 경우에는, 미리 저장된 디지털 이미지 중 어느 하나가 선택되는 단계(S161)가 수행된다.As shown in FIG. 5A, the second embodiment of the 100th step may be performed differently according to the case where the image data I is a digital image and an analog image, as described above. If the image data I corresponds to the digital image as described above, step S161 of selecting one of the pre-stored digital images is performed.

상기 학습용 단말기(100)에서 학습 컨텐츠 생성 방법을 제공하는 경우에는 상기 학습용 단말기(100)에 저장되어 있는 디지털 이미지 중 하나를 선택하여 그에 대응하는 학습 컨텐츠를 생성할 수 있고, 상기 컴퓨터(200)에서 학습 컨텐츠 생성 방법이 제공되는 경우, 상기 컴퓨터(200)에 저장된 디지털 이미지 중 어느 하나를 선택하여 그에 대응하는 학습 컨텐츠를 생성하고, 이를 상기 학습용 단말기(100)로 다운로드 되도록 할 수 있다.When the learning terminal 100 provides a method for generating learning content, one of the digital images stored in the learning terminal 100 may be selected to generate corresponding learning content, and the computer 200 may generate the learning content corresponding thereto. When a learning content generation method is provided, one of the digital images stored in the computer 200 may be selected to generate learning content corresponding thereto, and downloaded to the learning terminal 100.

상기 제161단계에서 저장된 디지털 이미지 중 하나가 선택되는 경우, 상기 컴퓨터(200)의 디스플레이부(230) 또는 상기 학습용 단말기(100)의 화면출력부(10)에는 선택된 디지털 이미지의 샘플 이미지가 디스플레이된다(S162). 이때 상기 샘플 이미지는 선택된 디지털 이미지 그대로이거나, 이를 확대 또는 축소한 것 등이 될 수 있다.When one of the stored digital images is selected in step 161, a sample image of the selected digital image is displayed on the display unit 230 of the computer 200 or the screen output unit 10 of the learning terminal 100. (S162). In this case, the sample image may be the selected digital image as it is, or an enlargement or reduction thereof.

그리고 제162단계에서 디스플레이된 샘플 이미지의 일부 영역을 사용자가 드래그 입력으로 선택한다. 여기서 사용자는 이미지 자료(I)로서 선택한 하나의 디지털 이미지상에 배열된 복수의 아이템들 중 어느 하나의 아이템이 배열된 영역을 적절히 선택할 수 있다(S163). 특히 이와 같은 실시예에서는, 아이템이 일정하게 정렬된 상태로 배열되지 않은 경우에도 각 아이템에 대응하는 각 영역을 자유롭게 선택할 수 있다. In operation 162, the user selects a partial region of the sample image displayed as the drag input. Here, the user can appropriately select a region in which any one item among the plurality of items arranged on one digital image selected as the image material I is arranged (S163). In particular, in such an embodiment, even if the items are not arranged in a uniformly arranged state, each area corresponding to each item can be freely selected.

위와 같이 각 아이템에 대응하는 영역이 드래그입력으로 선택될 때마다 상기 학습용 단말기(100)의 컨트롤러(15) 또는 상기 컴퓨터(200)의 상기 제어부(220)는 선택된 영역의 크기와 위치를 연산하여 저장한다(S164). 그에 따라 사용자가 드래그 입력으로 선택한 각 영역이 아이템에 대응하는 영역으로 설정된다(S165). Whenever a region corresponding to each item is selected as a drag input, the controller 15 of the learning terminal 100 or the controller 220 of the computer 200 calculates and stores the size and position of the selected region. (S164). Accordingly, each region selected by the user through the drag input is set as an region corresponding to the item (S165).

한편 이미지 자료(I)로서 아날로그 이미지가 사용되는 경우, 아날로그 이미지에 대응하는 학습 컨텐츠를 생성하기 위해서는 도 5c에 도시된 바와 같이, 아날로그 이미지에 대한 디지털 이미지 샘플을 생성하여(S171), 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 저장하고 이를 디스플레이(S172)하는 단계가 수행된다. 아날로그 이미지에 대한 디지털 이미지 샘플을 생성하는 과정은, 아날로그 이미지를 디지털 카메라로 촬영하거나 스캔하여 생성한 디지털 이미지에서 아날로그 이미지에 대응하지 않는 불필요한 부분만 잘라내는 과정 등을 거쳐 이루어질 수 있다.On the other hand, when the analog image is used as the image material (I), in order to generate the learning content corresponding to the analog image, as shown in Figure 5c, by generating a digital image sample for the analog image (S171), the learning terminal 100 or the computer 200 to store and display it (S172) is performed. The process of generating a digital image sample for the analog image may be performed by cutting out an unnecessary portion of the digital image generated by photographing or scanning the analog image with a digital camera and not corresponding to the analog image.

그 후 사용자로부터 상기 제172단계에서 디스플레이된 디지털 이미지 샘플에 대응하는 아날로그 이미지의 크기를 입력받을 수 있다(S173). 즉 아날로그 이미지의 가로, 세로 길이를 입력받아, 상기 컴퓨터(200) 또는 상기 학습용 단말기(100)에서 아날로그 이미지의 전체 면적을 알 수 있도록 한다.Thereafter, the size of the analog image corresponding to the digital image sample displayed in step 172 may be input from the user (S173). That is, the horizontal and vertical lengths of the analog images are input, so that the computer 200 or the learning terminal 100 knows the total area of the analog image.

또한 제174단계에서는 사용자로부터 상기 제172단계에서 디스플레이된 디지털 이미지 샘플상에서 특정 영역에 대한 드래그 입력을 받아 상기 디지털 이미지 샘플의 일부 영역을 선택받는다. In operation 174, a partial input of the digital image sample is selected by receiving a drag input for a specific area on the digital image sample displayed in operation 172.

그리고 상기 제174단계에서 선택된 디지털 이미지 샘플의 일부 영역에 대응하는 실제 아날로그 이미지의 크기 및 위치정보를 연산하여 저장한다(S175). 즉, 상기 제173단계에서 입력받은 실제 아날로그 이미지의 가로, 세로 길이를 이용하여, 선택된 영역의 크기 및 위치를 연산한다. 디지털 이미지 샘플의 가로, 세로 길이의 비율은 실제 아날로그 이미지의 가로, 세로 길이 비율과 동일하거나 미세한 오차만 있을 것이므로, 디지털 이미지 샘플의 일부 영역을 선택하면 선택된 영역의 크기와 위치를 이용하면 실제 아날로그 이미지 상에서 대응하는 영역의 크기와 위치가 연산될 수 있다. In operation S175, the size and position information of the actual analog image corresponding to the partial region of the digital image sample selected in operation 174 may be calculated and stored. That is, the size and position of the selected area are calculated by using the horizontal and vertical lengths of the actual analog image input in step 173. Since the ratio of the width and height of the digital image sample will be the same as or slightly smaller than the ratio of the width and height of the actual analog image, selecting some areas of the digital image sample will give the actual analog image the size and position of the selected area. The size and position of the corresponding region in the image may be calculated.

그에 따라 저장된 각 영역을 아날로그 이미지에 배열된 각 아이템에 대응하는 영역으로 설정된다(S176).Accordingly, each stored area is set as an area corresponding to each item arranged in the analog image (S176).

이와 같은 방법에 의하면 아이템이 일정하게 배열된 경우가 아니라도, 각 아이템에 대응하는 영역을 쉽게 설정할 수 있고, 서로 다른 크기의 아날로그 이미지에 대한 학습 컨텐츠도 생성 가능하다. 다만 일정한 크기의 아날로그 이미지에 대응하는 학습 컨텐츠만을 생성하는 경우에는 이미지의 크기를 입력받는 제173단계는 수행되지 않아도 된다.According to this method, even if the items are not arranged regularly, the area corresponding to each item can be easily set, and learning contents for analog images of different sizes can be generated. However, when only learning content corresponding to an analog image of a certain size is generated, step 173 of receiving an image size does not need to be performed.

위에서 설명한 바와 같은 제2실시예로 상기 제100단계를 수행하는 경우의 예를 도 5d를 참조하여 살펴보면, 상기 컴퓨터(200)의 상기 디스플레이부(230) 또는 상기 학습용 단말기(100)의 상기 화면출력부(10)의 일부에는 상기 이미지 자료(I)의 디지털 이미지 샘플이 디스플레이된다. 그에 따라 사용자는 디스플레이된 디지털 이미지 샘플의 특정 영역을 마우스로 드래그하거나 터치 드래그하여 선택한다. 도면에 도시된 바와 같이 여러 아이템이 불규칙적으로 배열된 디지털 이미지 샘플 상에서 특정 아이템에 대응하는 영역만을 선택적으로 설정할 수 있다. Referring to FIG. 5D, an example of performing the 100th step according to the second embodiment as described above, the screen output of the display unit 230 or the learning terminal 100 of the computer 200 is described. In part of the section 10 a digital image sample of the image material I is displayed. Accordingly, the user selects by dragging or touch dragging a specific area of the displayed digital image sample. As shown in the drawing, only an area corresponding to a specific item may be selectively set on a digital image sample in which several items are irregularly arranged.

이때 상기 이미지 자료(I)가 아날로그 이미지인 경우, 사용자가 실제 아날로그 이미지의 크기를 입력할 수 있도록 이미지의 가로, 세로 길이를 입력할 수 있는 사용자 인터페이스가 함께 제공될 수 있다.In this case, when the image data I is an analog image, a user interface for inputting the horizontal and vertical lengths of the image may be provided together so that the user may input the size of the actual analog image.

사용자가 선택한 영역은 상기 이미지 자료(I) 상의 아이템에 대응되는 영역으로 설정되고, 그에 대응하는 음성이나 텍스트 등의 학습자료를 입력할 수 있다. 즉 사용자는 특정 영역을 선택하고 그에 대응하는 학습자료를 입력하는 과정을 반복적으로 수행할 수 있다. The area selected by the user may be set as an area corresponding to the item on the image material I, and input learning material such as voice or text corresponding thereto. That is, the user may repeatedly select a specific area and input a corresponding learning material.

한편 도 3을 참조하여 설명한 학습 컨텐츠 생성 방법의 제200단계를 보다 구체적으로 살펴본다. 도 6a 및 도 7a는 각각 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제200단계를 수행하기 위한 제1실시예와 제2실시예를 단계적으로 도시한 흐름도이고, 도 6b 및 도 7b는 각각 도 6a 및 도 7a에 도시된 제200단계의 제1실시예와 제2실시예에 의하여 학습자료를 할당하는 경우의 화면 예시도이다.Meanwhile, the 200th step of the learning content generation method described with reference to FIG. 3 will be described in more detail. 6A and 7A are flowcharts illustrating a first embodiment and a second embodiment step by step, respectively, for performing step 200 of the method for generating learning content for infants illustrated in FIG. 3, and FIGS. 6B and 7B are respectively shown in FIG. 6A and 7A illustrate screens for allocating learning materials according to the first and second embodiments of step 200 shown in FIG.

우선, 도 6a에 도시된 바와 같이 상기 이미지 자료(I) 상에 설정된 복수의 영역에 대응하는 각 아이템에 대한 학습자료를 할당하는 과정은, 하나의 영역을 선택하여(S210), 선택된 영역에 대응하는 아이템과 관련된 음성자료를 입력하거나, 저장된 음성자료 중 하나를 선택하여 선택된 영역에 대응시킨다(S220). 또한 상기 제220단계에서는 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)가 TTS 변환 기능을 제공하는 경우에 한하여, 텍스트로 음성자료를 입력할 수도 있다.First, as shown in FIG. 6A, the process of allocating the learning materials for each item corresponding to the plurality of areas set on the image material I includes selecting one area (S210) and corresponding to the selected area. Input the audio data associated with the item or select one of the stored voice data to correspond to the selected area (S220). In operation 220, the voice terminal may be input as text only when the learning terminal 100 or the computer 200 provides a TTS conversion function.

그리고 선택된 영역에 대응하는 아이템과 관련된 텍스트 자료를 입력하여 상기 학습용 단말기(100)를 이용한 학습 시에 상기 학습용 단말기(100)에서 선택된 아이템과 관련된 텍스트가 디스플레이되도록 할 수도 있다(S230). 상기 제220단계와 상기 제230단계는 모두 수행될 수도 있고, 그 중 하나만 선택적으로 수행될 수도 있다. 또한 학습자료는 음성자료나 텍스트자료 외에도 이미지자료나 동영상자료가 될 수도 있고, 이들 각 자료를 사용자가 선택적으로 입력할 수도 있다. In operation S230, text related to an item selected by the learning terminal 100 may be displayed when the text data related to the item corresponding to the selected area is input by using the learning terminal 100. Both the step 220 and the step 230 may be performed, or only one of them may be selectively performed. In addition, the learning material may be image data or video data, in addition to audio data or text data, and each of these data may be selectively input by the user.

그리고 설정된 모든 영역에 대한 음성자료나, 텍스트 자료 등의 학습자료 입력이 모두 완료되면(S240), 각 영역에 대한 학습자료 입력과 관련된 상기 제200단계의 수행은 완료된다. 그러나 모든 영역에 대한 학습자료 입력이 완료되지 않으면, 다시 특정 영역을 선택하여 해당 영역에 대응하는 아이템과 관련된 학습자료를 입력하는 과정이 반복된다. When the input of learning materials such as voice data or text data for all areas is completed (S240), the execution of step 200 related to input of learning materials for each area is completed. However, if the input of the learning materials for all areas is not completed, the process of selecting a specific area again and inputting the learning materials related to the item corresponding to the area is repeated.

도 6a를 참조하여 설명한 제200단계의 제1실시예에 따라 하나의 이미지 자료(I)에 대하여 설정된 각 영역에 학습자료를 할당하는 예를 도 6b를 참조하여 설명하면, 상기 컴퓨터(200)에서 학습 컨텐츠를 생성하는 경우에는 상기 컴퓨터(200)의 상기 디스플레이부(230)에, 또는 상기 학습용 단말기(100)에서 학습 컨텐츠를 생성하는 경우에는 상기 화면출력부(10)에 이미지 자료(I)에 설정된 복수의 영역이 디스플레이된다. 위에서 이미 설명한 바와 같이, 미리 정해진 복수의 영역 분할 방식에 따라 분할된 복수의 영역이 개략적으로 표시되거나, 디지털 이미지 샘플 상에 사용자가 각각 드래그 입력으로 결정한 각 영역이 표시된다. Referring to FIG. 6B, an example of allocating learning materials to each area set for one image material I according to the first embodiment of step 200 described with reference to FIG. 6A will be described. In the case of generating learning content, the display unit 230 of the computer 200, or in the case of generating learning content in the learning terminal 100, the image output I in the screen output unit 10. The set plurality of areas are displayed. As described above, a plurality of regions divided according to a plurality of predetermined region division schemes are schematically displayed, or each region determined by a drag input by the user is displayed on the digital image sample.

설정된 영역 중 어느 하나를 사용자가 선택하면, 해당 영역에 대응하는 아이템과 관련된 학습자료를 입력하거나 선택할 수 있도록 하는 사용자 인터페이스가 제공된다. 예를 들어 음성 데이터를 직접 녹음하여 입력하거나, 미리 저장된 음성 데이터를 선택하거나, 텍스트 입력 후 TTS 변환하여 음성 데이터를 생성함으로써 선택된 영역에 대응하는 음성자료를 입력할 수 있다.When a user selects one of the set areas, a user interface for inputting or selecting learning materials related to an item corresponding to the corresponding area is provided. For example, voice data corresponding to the selected area may be input by directly recording and inputting voice data, selecting prestored voice data, or generating text data by performing TTS conversion after text input.

또한 선택된 영역에 대응하는 아이템과 관련된 텍스트 자료를 입력할 수 있다.Also, text data related to an item corresponding to the selected area may be input.

예를 들어, 표시된 복수의 영역 중 사용자가 선택한 영역에 대응하는 상기 이미지 자료(I)의 아이템이 한글 자음 'ㅅ'인 경우, 즉, 상기 이미지 자료(I)의 선택된 영역에 대응하는 위치의 아이템이 'ㅅ'인 경우, 음성자료로서 'ㅅ'의 발음 '시옷'이나 'ㅅ'을 초성으로 갖는 단어 '사자'의 발음을 포함하는 음성데이터가 학습자료로서 해당 영역에 할당될 수 있다. For example, when the item of the image material I corresponding to the area selected by the user among the plurality of displayed areas is a Korean consonant 'ㅅ', that is, the item at the position corresponding to the selected area of the image material I In the case of 'ㅅ', the voice data including the pronunciation of the word 'lion' or the word 'lion' with the initial consonant of 'ㅅ' as the voice material may be allocated to the corresponding area as the learning material.

그리고 텍스트자료로서 '시옷'이나 '사자'가 할당될 수 있고, 사자와 관련된 이미지가 학습자료로서 해당 영역에 할당될 수도 있다. In addition, 'textured' or 'lion' may be assigned as text data, and an image related to a lion may be assigned to the corresponding area as learning data.

또한 도 7a에 도시된 바와 같은 제200단계의 제2실시예 또한 설정된 영역 중 하나의 영역이 선택되는 단계(S250)로부터 시작된다. In addition, the second embodiment of step 200 as shown in FIG. 7A also starts from step S250 in which one area of the set area is selected.

그리고 상기 제250단계에서 선택된 영역에 대하여 사용자는 제1입력에 대응하는 제1학습자료를 입력할 수 있다(S260). 여기서 상기 제1입력은 복수의 입력 방식 중 어느 하나를 의미한다. 상기 학습용 단말기(100)는 이미 설명한 바와 같이 사용자의 터치입력을 감지하여 터치입력이 감지된 영역에 대응하는 아이템과 관련된 학습자료를 출력하도록 동작하는데, 이때 특정 영역 내에서의 터치입력은 다양한 방식으로 수행될 수 있다. 특정 영역 내에서 짧은 한 번의 터치 입력만이 감지될 수도 있고, 일정시간 이상의 긴 한 번의 터치 입력이 감지될 수도 있으며, 일정시간 내에 두 번의 터치 입력이 감지될 수도 있다. 또한 특정 영역 내에서 특정 방향으로 입력되는 터치입력이 감지될 수도 있고, 특정 형상에 대응하는 모양으로 입력되는 터치 입력이 감지될 수도 있다. 즉 상기 학습용 단말기(100)의 상기 컨트롤러(15)는 상기 터치감지부(17)에서 입력되는 신호의 패턴을 인식하여, 입력 패턴에 따라 터치 입력을 서로 다른 명령으로 인식할 수 있다. 그에 따라 상기 컨트롤러(15)는 미리 정해진 패턴의 제1입력, 제2입력 등을 서로 다른 명령으로 인식할 수 있도록 미리 프로그래밍 될 수 있다. In operation S260, the user may input first learning data corresponding to the first input in the region selected in operation 250. The first input means any one of a plurality of input methods. As described above, the learning terminal 100 detects a user's touch input and outputs learning data related to an item corresponding to an area where the touch input is detected. Can be performed. Only one short touch input may be detected within a specific area, one long touch input over a predetermined time may be detected, and two touch inputs may be detected within a predetermined time. In addition, a touch input input in a specific direction within a specific area may be detected, or a touch input input in a shape corresponding to a specific shape may be detected. That is, the controller 15 of the learning terminal 100 may recognize a pattern of a signal input from the touch sensing unit 17 and recognize a touch input as a different command according to the input pattern. Accordingly, the controller 15 may be preprogrammed to recognize the first input, the second input, and the like of the predetermined pattern as different commands.

따라서 상기 제260단계에서 상기 제1입력은 다양한 터치입력 패턴 중 미리 정해진 어느 하나의 입력 패턴에 대응하는 터치입력으로서, 예를 들어 일정시간 내에 특정 영역을 한번 터치하는 동작이 될 수 있다. 그리고 상기 제250단계에서 선택된 특정 영역 내에서 상기 제1입력이 감지되었을 때 출력될 학습자료가 상기 제260단계에서 입력된다. 여기서 학습자료는 음성자료가 될 수도 있고, 이미지, 텍스트, 동영상 등의 자료가 될 수도 있다.Accordingly, in operation 260, the first input may be a touch input corresponding to any one predetermined input pattern among various touch input patterns, for example, an operation of touching a specific region within a predetermined time. In addition, the learning data to be output when the first input is detected in the specific region selected in operation 250 is input in operation 260. Here, the learning material may be a voice material or may be a material such as an image, text, or video.

그리고 제270단계에서는 제2입력에 대응하는 또 다른 학습자료가 입력되는 단계가 수행된다. 상기 제2입력 또한 다양한 터치입력 패턴 중 미리 정해진 어느 하나의 입력 패턴에 대응하는 터치입력으로서 상기 제1입력과 다른 패턴의 하나의 터치입력으로 미리 설정된다. 그리고 상기 제2입력에 대응하여 입력되는 학습자료 또한 상기 제1입력에 대응하여 입력된 제1학습자료와 구별되는 다른 학습자료이다. 예를 들어, 제1학습자료가 음성자료이면, 제2학습자료는 텍스트자료가 될 수 있다. 이와 같이 각각의 영역에 대하여 제1입력과 제2입력에 대응하는 학습자료가 모두 지정됨으로써 상기 제200단계가 수행된다. In operation 270, another learning material corresponding to the second input is input. The second input may also be preset as a touch input corresponding to any one input pattern among various touch input patterns as one touch input having a pattern different from the first input. In addition, the learning data input corresponding to the second input is another learning material which is distinguished from the first learning data input corresponding to the first input. For example, if the first learning material is a voice material, the second learning material may be text data. As described above, the learning step corresponding to the first input and the second input is designated for each region, so that step 200 is performed.

이와 같은 제200단계의 제2실시예에 따르면, 도 7b에 도시된 바와 같이 설정된 복수의 영역이 디스플레이되고, 사용자는 그 중 어느 하나를 선택할 수 있다. 여기서 복수의 영역이 디스플레이될 때에는 도 6b에 도시된 바와 같이 각 영역의 상대적인 위치와 크기만이 개략적으로 표시될 수도 있고, 도 7b에 도시된 바와 같이 상기 이미지 자료(I)에 대한 디지털 이미지 샘플 상에 분할된 각 영역이 표시될 수도 있다. According to the second exemplary embodiment of the 200 th step, a plurality of areas set as shown in FIG. 7B are displayed, and a user may select one of them. Here, when a plurality of regions are displayed, only relative positions and sizes of each region may be schematically displayed as illustrated in FIG. 6B, and as shown in FIG. 7B, a digital image sample image for the image material I may be displayed. Each divided area may be displayed.

그리고 이와 같이 표시된 복수의 영역 중 어느 하나를 사용자가 선택하면, 선택된 영역에 대응하는 아이템 'ㅅ'과 관련된 학습자료를 입력받는다. 이때 학습자료는 입력방식에 따라 따로 입력된다. 즉, 해당 영역을 한번 짧게 터치하였을 때 출력될 학습자료로서 음성데이터 '시옷'과 텍스트 데이터 '시옷'이 할당될 수 있고, 해당 영역을 길게 한번 터치하였을 때 출력될 학습자료가 따로 할당될 수 있다. 또한 해당 영역을 짧게 두 번 터치하였을 때 출력될 학습자료가 별도로 할당될 수도 있다. 그에 따라 복수의 영역 각각에 대하여 이와 같이 학습자료를 모두 할당하면 이를 저장하여 학습 컨텐츠를 생성할 수 있게 된다. When the user selects any one of the plurality of displayed regions, the learning material related to the item 'ㅅ' corresponding to the selected region is received. At this time, learning materials are input separately according to the input method. That is, the voice data 'siot' and the text data 'siot' may be allocated as the learning data to be output when the corresponding area is touched briefly, and the learning data to be output when the corresponding area is touched once long may be allocated separately. . In addition, the learning material to be output when the user touches the area twice twice may be separately allocated. Accordingly, when all the learning materials are allocated to each of the plurality of regions, the learning contents can be generated by storing them.

한편 도 8은 도 3에 도시된 유아용 학습 컨텐츠 생성 방법의 제400단계의 보다 구체적인 실시예를 도시한 흐름도이다. 도 8을 참조하여 도 3에 도시된 학습 컨텐츠 생성 방법에서 학습 컨텐츠를 이미지 자료(I)와의 대응관계를 표시하여 저장하는 과정을 설명한다. 8 is a flowchart illustrating a more specific embodiment of step 400 of the method for generating learning content for infants illustrated in FIG. 3. Referring to FIG. 8, a process of displaying and storing a corresponding relationship with the image material I in the learning content generating method illustrated in FIG. 3 will be described.

우선, 위에서 설명한 바와 같이, 본 발명의 구체적인 실시예에 의한 유아용 학습 컨텐츠 생성 방법에 의하여 생성되는 학습 컨텐츠는 이미지 자료(I)를 기반으로 한다. 즉, 사용자가 단말기(100) 상에 표시되는 이미지 자료(I)에 배열된 복수의 아이템 중 어느 하나를 선택하였을 때 해당 아이템에 대응하는 학습자료가 출력되도록 하는 학습 컨텐츠를 생성하기 위해서는 먼저 특정한 이미지 자료(I)가 선택되어야 한다. 따라서 생성되는 각각의 학습 컨텐츠들은 하나의 이미지 자료(I)와 대응된다. 이를 위하여 생성되는 각각의 학습 컨텐츠에는 각각의 이미지 자료(I)와의 대응관계가 표시된다.First, as described above, the learning content generated by the method for generating learning content for infants according to a specific embodiment of the present invention is based on the image material (I). That is, when a user selects any one of a plurality of items arranged in the image material I displayed on the terminal 100, in order to generate the learning content for outputting the learning material corresponding to the item, a specific image is first generated. Data (I) should be selected. Thus, each of the generated learning contents corresponds to one image material (I). For each learning content generated for this purpose, a correspondence with each image material I is displayed.

제410단계에서는 우선 생성하고자 하는 학습 컨텐츠에 대응하는 이미지 자료(I)에 식별정보가 할당된다. 예를 들어, 상기 이미지 자료(I)가 디지털 이미지에 해당하는 경우에는 디지털 이미지에 이미 할당된 파일명을 그대로 식별정보로서 할당하거나 새로운 파일명을 할당함으로써 제410단계가 수행된다. In operation 410, first, identification information is allocated to the image material I corresponding to the learning content to be generated. For example, when the image data I corresponds to the digital image, step 410 is performed by allocating a file name already assigned to the digital image as identification information or allocating a new file name.

한편 상기 이미지 자료(I)가 아날로그 이미지에 해당하는 경우에는 아날로그 이미지에 번호나 문자, 패턴 중 적어도 하나로 구성되는 식별정보를 부여한다. 예를 들어, 특정 아날로그 이미지에 대응하는 학습 컨텐츠를 생성하고자 하는 경우, 아날로그 이미지에 식별번호를 부여하거나, 또는 아날로그 이미지의 특정위치에 표시될 수 있는 식별패턴을 부여할 수 있다. On the other hand, when the image data I corresponds to an analog image, identification information including at least one of a number, a letter, and a pattern is assigned to the analog image. For example, when generating learning content corresponding to a specific analog image, an identification number may be assigned to the analog image, or an identification pattern that may be displayed at a specific position of the analog image may be assigned.

아날로그 이미지에 식별패턴을 부여하는 경우에는 상기 학습용 단말기(100)에는 이와 같은 식별패턴을 인식할 수 있는 패턴인식수단을 별도로 배치하고, 아날로그 이미지를 상기 학습용 단말기(100)에 설치하였을 때 상기 패턴인식수단의 위치에 대응하는 위치에 상기 식별패턴이 위치하여 상기 패턴인식수단이 식별패턴을 독출할 수 있도록 한다. 예를 들어, 상기 식별패턴은 미리 정해진 위치에 그려진 복수의 사각형의 일부를 검정색으로, 나머지를 흰색으로 표시하여 생성할 수 있다. 사각형이 4개인 경우, 4개의 사각형 모두를 흰색으로 표시한 경우부터, 사각형 모두를 검정색으로 표시한 경우까지 모두 24개, 즉 16개의 서로 다른 경우의 수를 나타낼 수 있다. 이 경우 상기 제410단계에서는 식별패턴의 이미지를 화면에 출력하여, 화면에 출력된 식별패턴과 동일한 패턴을 사용자가 직접 아날로그 이미지의 특정 영역에 표시할 수 있도록 한다. When the identification pattern is assigned to the analog image, a pattern recognition means for recognizing the identification pattern is separately disposed on the learning terminal 100, and the pattern recognition when the analog image is installed in the learning terminal 100. The identification pattern is located at a position corresponding to the position of the means so that the pattern recognition means can read the identification pattern. For example, the identification pattern may be generated by displaying a portion of the plurality of squares drawn at a predetermined position in black and the others in white. In the case of four squares, the number of two or four , that is, 16 different cases may be represented from the case where all four rectangles are displayed in white to the case where all the rectangles are displayed in black. In this case, in step 410, the image of the identification pattern is output on the screen, so that the user can directly display the same pattern as the identification pattern output on the screen in a specific area of the analog image.

이와 같이 제410단계에서 상기 이미지 자료(I)에 식별정보가 할당된 후, 생성할 학습 컨텐츠의 명칭이 결정되면(S420), 결정된 명칭으로 학습 컨텐츠를 생성하여 저장한다(S430). 상기 학습 컨텐츠의 명칭은 사용자로부터 입력받거나 자동으로 결정된다. 상기 이미지 자료(I)에 할당된 식별정보와 관련된 명칭으로 결정될 수 있다. 여기서 상기 학습 컨텐츠에는 상기 이미지 자료(I) 상에 설정된 각 영역의 위치, 각 영역에 대응되는 학습자료들, 각각의 영역과 학습자료들 사이의 대응관계가 모두 포함된다. 즉, 상기 이미지 자료(I)에 배열된 각 아이템에 대응하는 영역 정보와, 음성, 텍스트, 이미지, 동영상 등의 학습자료들과, 이들의 대응관계가 함께 저장된다. As such, after identification information is assigned to the image data I in step 410, when the name of the learning content to be generated is determined (S420), the learning content is generated and stored under the determined name (S430). The name of the learning content is input from the user or automatically determined. It may be determined by a name associated with the identification information assigned to the image material (I). In this case, the learning content includes a location of each area set on the image material I, learning materials corresponding to each area, and a corresponding relationship between each area and the learning materials. That is, area information corresponding to each item arranged in the image data I, learning materials such as voice, text, image, and video, and their corresponding relations are stored together.

그리고 상기 이미지 자료(I)와 상기 학습 컨텐츠 사이의 대응관계가 저장된다(S440). 즉, 특정 학습 컨텐츠가 어떤 이미지 자료(I)를 기반으로 한 것인지 여부를 학습 컨텐츠와 함께 저장한다. 이를 위하여 상기 이미지 자료(I)에 할당된 식별정보와 상기 학습 컨텐츠의 명칭 사이의 대응관계를 저장한다. 다만 상기 제440단계는 필수적으로 수행되어야 하는 단계는 아니다. 예를 들어 상기 이미지 자료(I)에 할당된 식별정보를 그에 대응하는 학습 컨텐츠의 명칭으로 그대로 사용하는 경우 별도의 대응관계를 저장할 필요는 없다.The correspondence between the image data I and the learning content is stored (S440). That is, it stores with the learning content whether the specific learning content is based on what image material (I). For this purpose, the correspondence between the identification information assigned to the image data I and the name of the learning content is stored. However, step 440 is not necessarily a step to be performed. For example, if the identification information allocated to the image material I is used as the name of the learning content corresponding thereto, there is no need to store a separate correspondence relationship.

한편 위에서 상기 이미지 자료(I)가 디지털 이미지인 경우, 상기 이미지 자료(I)는 별도의 식별정보 없이 상기 학습 컨텐츠 내에 함께 저장될 수도 있다.On the other hand, when the image material (I) is a digital image from above, the image material (I) may be stored together in the learning content without additional identification information.

도 9a은 본 발명의 구체적인 실시예에 의한 학습 컨텐츠 생성 방법에서 이미지 자료를 생성하는 방법을 단계적으로 도시한 흐름도이고, 도 9b는 도 9a에 도시된 이미지 자료 생성 방법에 의하여 이미지 자료와 학습 컨텐츠를 생성하는 경우의 화면 예시도이다. FIG. 9A is a flowchart illustrating a method of generating image data in a method of generating learning content according to a specific embodiment of the present invention. FIG. 9B illustrates image data and learning content by the method of generating image data shown in FIG. 9A. It is an example of the screen in the case of generating.

도 9a에 도시된 바와 같은 이미지 자료를 생성하는 방법의 하나의 예는, 상기 이미지 자료(I)로서 디지털 이미지를 사용하는 경우에 한정된다. 또한 이는 본 발명의 구체적인 실시예에서 부가적으로 수행될 수 있는 이미지 자료 생성 방법의 일실시예에 불과하고 다른 방식에 의해서도 이미지 자료가 생성될 수 있다.One example of a method of generating image material as shown in FIG. 9A is limited to the case of using a digital image as the image material I. In addition, this is only one embodiment of the image data generating method that can be additionally performed in a specific embodiment of the present invention and image data may be generated by other methods.

도면에 도시된 바와 같이, 이미지 자료 생성을 위한 일실시예는 미리 정해진 복수의 영역 분할 방식이 제공되는 단계로부터 시작된다(S500). 이미지 자료(I) 생성 이전에 먼저 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 미리 정해져 있는 여러가지 영역 분할 방식이 사용자에게 제공되고, 제공된 방식 중 어느 하나를 사용자로부터 선택받는다(S510). As shown in the figure, an embodiment for generating image data starts with the step of providing a plurality of predetermined region division schemes (S500). Prior to generation of the image data I, various region division schemes predetermined in the learning terminal 100 or the computer 200 are provided to the user, and any one of the provided schemes is selected by the user (S510).

선택된 방식에 따라 분할된 각 영역이 화면에 표시되고, 사용자는 표시된 화면에서 하나의 영역을 선택하여 해당 영역에 표시될 아이템의 이미지를 선택한다(S520). Each divided area is displayed on the screen according to the selected method, and the user selects one area on the displayed screen to select an image of an item to be displayed on the corresponding area (S520).

즉, 도 9b에 도시된 바와 같이, 사용자가 미리 정해진 복수의 영역 분할 방식 중 가로 4분할, 세로 4분할 방식을 선택한 경우, 화면 일측에는 그와 같이 분할된 영역의 이미지가 도시되고, 사용자는 분할된 16개의 영역을 순차적으로 선택하여 해당 영역에 디스플레이될 아이템의 이미지를 선택할 수 있다. That is, as illustrated in FIG. 9B, when the user selects a horizontal 4-split or vertical 4-split scheme among a plurality of predetermined region division schemes, an image of the divided regions is shown on one side of the screen, and the user divides the screen. The selected 16 areas may be sequentially selected to select an image of an item to be displayed in the corresponding area.

그리고 모든 영역에 표시될 아이템이 선택되면(S530), 각 영역에 표시되는 아이템 이미지가 배열된 하나의 이미지 자료(I)를 생성하고 저장한다(S540).When items to be displayed in all areas are selected (S530), one image data I in which item images displayed in each area are arranged is generated and stored (S540).

이와 같은 방식에 의하여 이미지를 생성하는 경우, 도 9b에 도시된 바와 같이 이미지를 생성함과 동시에, 아이템이 배열되는 각 영역을 도 3의 제100단계의 수행에 의하여 설정된 영역으로 할 수 있고, 각 영역에 아이템 이미지를 배열함과 동시에 해당 영역에 대응하는 학습 자료를 함께 대응시킬 수 있으므로, 이미지 생성, 영역 설정, 학습자료 할당을 위한 각 단계가 병렬적으로 동시에 수행될 수 있다. When the image is generated in this manner, as shown in FIG. 9B, each region in which the items are arranged may be set as the region set by performing step 100 of FIG. By arranging item images in an area and simultaneously matching learning materials corresponding to the area, each step for image generation, area setting, and learning material allocation may be performed in parallel at the same time.

위와 같이 설명한 본 발명에 의한 학습 컨텐츠 생성 방법의 실시예는 이미 설명한 바와 같이 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에서 모두 수행될 수 있고, 이를 위하여 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에는 각각 화면 디스플레이를 위한 디스플레이 수단, 사용자로부터 명령이나 데이터를 입력받기 위한 입력수단 등을 포함한다. 도 2b에 도시된 바와 같은 컴퓨터(200)의 구성에 의하여 학습 컨텐츠가 생성되고 도 2a에 도시된 바와 같은 구성을 갖는 학습용 단말기(100)로 생성된 학습 컨텐츠가 다운로드 되는 경우, 상기 학습용 단말기(100)에 학습 컨텐츠 생성을 위한 구성을 추가하지 않아도 된다는 이점이 있다.Embodiments of the method for generating learning content according to the present invention as described above may be performed in the learning terminal 100 or the computer 200 as described above, and for this purpose, the learning terminal 100 or the computer ( 200 includes display means for screen display, input means for receiving a command or data from a user, and the like. When learning content is generated by the configuration of the computer 200 as shown in FIG. 2B and the learning content generated by the learning terminal 100 having the configuration as shown in FIG. 2A is downloaded, the learning terminal 100 is downloaded. ), There is no need to add a configuration for generating learning content.

본 발명에 의한 학습 컨텐츠 생성 방법의 실시예를 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에서 수행하기 위하여는 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 학습 컨텐츠 생성 프로그램이 저장되고, 이를 상기 컨트롤러(15) 또는 상기 제어부(230)가 실행할 수 있다. In order to perform an embodiment of the method of generating learning content according to the present invention in the learning terminal 100 or the computer 200, a learning content generating program is stored in the learning terminal 100 or the computer 200. The controller 15 or the controller 230 may execute this.

상기 컴퓨터(200)에서 학습 컨텐츠를 생성하는 경우, 상기 컴퓨터(200)에 통신모듈이 구비된다면, 통신모듈을 이용하여 사용자가 인터넷에 접속할 수 있고, 학습 컨텐츠 생성에 필요한 각종 이미지 및 음성 자료들을 용이하게 획득할 수 있다는 장점도 있다. 이 경우, 상기 학습용 단말기(100)에서 이용되는 학습 컨텐츠의 공유를 위한 인터넷 서버를 제공하면, 다수의 이용자가 각자 자체 제작한 학습 컨텐츠를 서로 업로드 및 다운로드 함으로써, 개개의 이용자는 매우 다양한 학습 컨텐츠를 활용할 수도 있다. 상기 인터넷 서버에서는 학습 컨텐츠 생성을 위한 각종 아이템을 제공할 수도 있다. In the case of generating the learning content in the computer 200, if the computer 200 is provided with a communication module, the user can access the Internet using the communication module, and various image and audio materials necessary for generating the learning content can be easily There is also an advantage that can be obtained easily. In this case, if an Internet server for sharing the learning content used in the learning terminal 100 is provided, a plurality of users upload and download their own self-produced learning content to each other, so that each user can learn a wide variety of learning content. It can also be used. The internet server may provide various items for generating learning content.

한편 이하에서는 위와 같이 생성된 학습 컨텐츠를 이용한 학습 방법을 설명한다. 도 10는 본 발명의 구체적인 실시예에 의하여 생성된 학습 컨텐츠를 이용한 학습 방법을 단계적으로 도시한 흐름도이다. On the other hand, the following describes a learning method using the generated learning content as described above. 10 is a flowchart illustrating a learning method using learning content generated by a specific embodiment of the present invention step by step.

도 10에 도시된 바와 같이 도 3을 참조하여 설명한 본 발명의 구체적인 실시예에 의한 학습 컨텐츠 생성 방법에 의해 생성된 학습 컨텐츠를 이용한 학습 방법은 사용자로부터 특정 이미지 자료(I)를 선택받아 이를 디스플레이(S900)하는 단계로부터 시작된다.As shown in FIG. 10, the learning method using the learning content generated by the learning content generation method according to a specific embodiment of the present invention described with reference to FIG. 3 receives a specific image material I from a user and displays the selected image material (I). S900).

상기 이미지 자료(I)가 디지털 이미지인 경우, 사용자가 상기 학습용 단말기(100)에 저장된 하나 이상의 이미지 자료(I) 중 어느 하나를 선택하고, 선택된 이미지 자료(I)가 디스플레이됨으로써 수행될 수 있다. 반면에 상기 이미지 자료(I)가 아날로그 이미지인 경우, 사용자가 특정 아날로그 이미지를 선택하여 이를 상기 학습용 단말기(100)에 설치함으로써 수행될 수 있다. 아날로그 이미지의 경우, 상기 학습용 단말기(100)에 저장된 각 아이템의 설정 영역과 실제 아날로그 이미지의 해당 영역이 대응되어야 하므로, 상기 아날로그 이미지를 상기 학습용 단말기(100)의 특정 기준점에 맞추어 설치할 수 있도록 한다. 예를 들어, 도 1b에 도시된 바와 같은 단말기에서는 상기 두 개의 초음파수신센서(S1) 사이에 기준점을 표시하여 사용자가 상기 아날로그 이미지의 상측 변의 중심을 맞출 수 있도록 할 수 있다.When the image material I is a digital image, the user may select one of the one or more image materials I stored in the learning terminal 100, and the selected image material I may be displayed. On the other hand, when the image data I is an analog image, the user may select a specific analog image and install it on the learning terminal 100. In the case of the analog image, since the setting area of each item stored in the learning terminal 100 and the corresponding area of the actual analog image must correspond, the analog image can be installed according to a specific reference point of the learning terminal 100. For example, the terminal as shown in FIG. 1B may display a reference point between the two ultrasonic receiving sensors S1 to allow the user to center the upper side of the analog image.

그리고 위와 같이 선택된 이미지 자료(I)가 디스플레이되면 상기 학습용 단말기(100)의 컨트롤러(15)는 저장된 학습 컨텐츠 중 상기 이미지 자료(I)에 대응하는 학습 컨텐츠를 검색한다(S910). 상기 이미지 자료(I)가 디지털 이미지인 경우에는 선택된 디지털 이미지에 대응하는 학습 컨텐츠를 상기 컨트롤러(15) 인식할 수 있으나, 아날로그 이미지인 경우에는 사용자로부터 대응되는 학습 컨텐츠를 선택받거나, 또는 아날로그 이미지의 특정 영역에 표시된 식별정보를 독출하여 그에 대응하는 학습 컨텐츠를 검색할 수 있다.When the selected image material I is displayed as described above, the controller 15 of the learning terminal 100 searches for learning content corresponding to the image material I among the stored learning content (S910). When the image data I is a digital image, the controller 15 may recognize the learning content corresponding to the selected digital image. In the case of the analog image, the corresponding learning content is selected by the user, The identification information displayed in the specific area may be read and the learning content corresponding thereto may be searched for.

그리고 대응되는 학습 컨텐츠가 검색되면, 사용자의 터치 입력에 대기한다(S920). 사용자가 상기 이미지 자료(I)의 특정 영역에 터치 입력을 가하면(S930), 상기 학습 컨텐츠에 포함된 각 영역과 학습자료 사이의 대응관계를 이용하여, 해당 영역에 대응하는 아이템과 관련된 학습자료를 검색한다(S940). 즉, 상기 학습 컨텐츠에는 복수의 학습자료와, 각 영역과 학습자료 사이의 대응관계가 모두 포함되므로, 사용자의 터치 입력이 감지된 영역에 대응하는 학습자료를 검색할 수 있다.When the corresponding learning content is found, the user waits for a user's touch input (S920). When the user applies a touch input to a specific area of the image material I (S930), using the correspondence between each area included in the learning content and the learning material, the learning material related to the item corresponding to the corresponding area is displayed. Search (S940). That is, since the learning content includes all of the plurality of learning materials and the corresponding relationship between each area and the learning material, the learning content corresponding to the area where the user's touch input is sensed can be searched.

그리고 검색된 학습자료를 출력함으로써(S950), 유아가 선택한 아이템에 대한 음성, 텍스트 등의 학습이 가능하도록 한다. And by outputting the searched learning material (S950), it is possible to learn the voice, text, etc. for the item selected by the infant.

이때 이미 설명한 바와 같이 상기 학습 컨텐츠 생성 방법의 실시예에서, 복수의 입력 패턴 각각에 대응하는 서로 다른 학습자료를 각각의 영역에 할당한 경우에는 상기 컨트롤러(15)가 사용자의 터치입력 위치 뿐 아니라 터치입력 패턴까지 산출하여 터치 입력 패턴에 대응하는 학습자료를 출력할 수도 있다. As described above, in the embodiment of the learning content generation method, when different learning materials corresponding to each of the plurality of input patterns are allocated to each area, the controller 15 touches not only the touch input position of the user but also the touch. The learning pattern corresponding to the touch input pattern may be output by calculating the input pattern.

본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The rights of the present invention are not limited to the embodiments described above, but are defined by the claims, and those skilled in the art can make various modifications and adaptations within the scope of the claims. It is self-evident.

100:학습용 단말기 10:화면출력부
11:음성출력부 15:컨트롤러
16:이미지 디스플레이부 17:터치감지부
18:저장부 19:연결부
200:컴퓨터 210:인터페이스부
220:제어부 230:디스플레이부
240:입력부 250:음성입력부
260:TTS변환부 270:저장부
100: learning terminal 10: screen output unit
11: Audio output unit 15: Controller
16: Image display unit 17: Touch detection unit
18: storage 19: connection
200: computer 210: interface unit
220: control unit 230: display unit
240: input unit 250: voice input unit
260: TTS converter 270: storage

Claims (12)

하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 유아용 학습 단말기를 위한 학습 컨텐츠 생성방법에 있어서,
(a)복수의 아이템이 배열된 하나의 이미지로 구성되는 이미지자료에 대하여 상기 이미지에 배열된 각 아이템에 대응되는 영역을 설정하는 단계와;
(b)상기 (a)단계에서 설정된 각 영역에 대응하는 아이템과 관련된 학습자료를 각 영역에 대응시키는 단계와;
(c)상기 (b)단계에서 각 영역에 대응된 학습자료들을 이용하여 하나의 학습 컨텐츠를 생성하는 단계; 그리고
(d)생성된 학습 컨텐츠와 상기 이미지자료와의 대응관계를 표시하여 저장하는 단계를 포함하여 수행되고,
상기 (d)단계는,
(d1)상기 이미지자료에 하나의 식별정보를 할당하는 단계와;
(d2)상기 (c)단계에서 생성된 학습 컨텐츠의 이름을 생성하여 저장하는 단계;그리고
(d3)상기 (d1)단계에서 할당된 식별정보와 상기 (d2)단계에서 생성된 학습 컨텐츠의 이름 사이의 대응관계를 저장하는 단계를 포함하여 수행됨을 특징으로 하는 학습 컨텐츠 생성방법.
In the learning content generation method for a learning terminal for infants is output learning material corresponding to the selected item of the plurality of items arranged on one image,
(a) setting an area corresponding to each item arranged in the image with respect to the image data consisting of one image arranged with a plurality of items;
(b) mapping the learning material associated with the item corresponding to each area set in step (a) to each area;
(c) generating one learning content using the learning materials corresponding to each area in step (b); And
(d) displaying and storing a corresponding relationship between the generated learning content and the image data, and
In step (d),
(d1) assigning one piece of identification information to the image data;
(d2) generating and storing a name of the learning content generated in step (c); and
(d3) storing the correspondence between the identification information allocated in the step (d1) and the name of the learning content generated in the step (d2).
삭제delete 제1항에 있어서,
상기 (a)단계는,
(a11)미리 정해진 복수의 영역 분할 방식을 제공하는 단계와;
(a12)제공된 복수의 영역 분할 방식 중 어느 하나를 선택받는 단계와;
(a13)선택된 방식에 따라 분할된 각 영역의 크기 및 위치를 연산하는 단계; 그리고
(a14)연산된 영역을 상기 이미지에 배열된 각 아이템에 대응되는 영역으로 설정하는 단계를 포함하여 수행됨을 특징으로 하는 학습 컨텐츠 생성방법.
The method of claim 1,
In step (a),
(a11) providing a plurality of predetermined region division schemes;
(a12) receiving one of a plurality of region division schemes provided;
(a13) calculating the size and position of each divided region according to the selected method; And
and (a14) setting the calculated region to a region corresponding to each item arranged in the image.
제3항에 있어서,
상기 이미지가 아날로그 이미지인 경우,
상기 (a)단계는,
(a15)상기 (a13)단계의 수행 이전에 상기 아날로그 이미지의 가로, 세로 길이를 입력받는 단계를 더 포함하고,
상기 (a14)단계에서는 상기 (a15)단계에서 입력받은 이미지의 가로, 세로 길이를 이용하여 각 영역의 크기 및 위치를 연산하는 것을 특징으로 하는 학습 컨텐츠 생성방법.
The method of claim 3,
If the image is an analog image,
In step (a),
(a15) further comprising receiving a horizontal and vertical length of the analog image before performing the step (a13),
In the step (a14), the learning content generation method, characterized in that for calculating the size and position of each area using the horizontal and vertical length of the image input in the step (a15).
제1항에 있어서,
상기 (a)단계는,
(a21)상기 이미지의 디지털 샘플을 디스플레이하는 단계와;
(a22)상기 디지털 샘플의 일부 영역을 선택받는 단계와;
(a23)선택된 영역의 크기 및 위치를 연산하는 단계;그리고
(a24)연산된 영역을 상기 이미지에 배열된 각 아이템에 대응되는 영역으로 설정하는 단계를 포함하여 수행됨을 특징으로 하는 학습 컨텐츠 생성방법.
The method of claim 1,
In step (a),
(a21) displaying digital samples of the image;
(a22) receiving a partial region of the digital sample;
(a23) calculating the size and position of the selected region; and
and (a24) setting the calculated region to an area corresponding to each item arranged in the image.
제5항에 있어서,
상기 이미지가 아날로그 이미지인 경우,
상기 (a)단계는,
(a25)상기 (a23)단계의 수행 이전에 상기 아날로그 이미지의 가로, 세로 길이를 입력받는 단계를 더 포함하고,
상기 (a24)단계에서는 상기 (a25)단계에서 입력받은 이미지의 가로, 세로 길이를 이용하여 각 영역의 크기 및 위치를 연산하는 것을 특징으로 하는 학습 컨텐츠 생성방법.
The method of claim 5,
If the image is an analog image,
In step (a),
(a25) further comprising receiving the horizontal and vertical lengths of the analog image before performing the step (a23),
In the step (a24), the learning content generation method, characterized in that for calculating the size and position of each area using the horizontal and vertical length of the image input in the step (a25).
제1항에 있어서,
상기 (b)단계의 상기 학습자료는
아이템과 관련된 음성자료, 텍스트자료, 이미지자료, 및 동영상자료 중 적어도 하나를 포함하는 것을 특징으로 하는 학습 컨텐츠 생성방법.
The method of claim 1,
The learning material of step (b)
Learning contents generation method comprising at least one of audio data, text data, image data, and video data related to the item.
제7항에 있어서,
상기 음성자료는,
텍스트로 입력된 자료를 TTS(Text-To-Speech) 변환하여 생성함을 특징으로 하는 학습 컨텐츠 생성방법.
The method of claim 7, wherein
The voice data,
Learning content generation method, characterized in that for generating the text-to-speech (TTS) conversion of the input material in the text.
제1항에 있어서,
상기 (b)단계는,
상기 (a)단계에서 설정된 각 영역에 대하여, 미리 정해진 복수의 입력 패턴 각각에 대응하는 서로 다른 학습자료를 입력함으로써 이루어짐을 특징으로 하는 학습 컨텐츠 생성방법.
The method of claim 1,
In step (b),
Learning content generation method, characterized in that for each area set in step (a), by inputting different learning materials corresponding to each of a plurality of predetermined input patterns.
제1항에 있어서,
상기 (c)단계에서 생성되는 학습 컨텐츠는,
상기 (a)단계에서 설정된 각 영역정보와, 상기 (b)단계에서 대응된 각 학습자료, 그리고 각 영역과 학습자료 사이의 대응관계를 포함함을 특징으로 하는 학습 컨텐츠 생성방법.
The method of claim 1,
The learning content generated in step (c),
And a corresponding relationship between each area information set in step (a), each learning material corresponding to step (b), and each area and learning material.
제1항 및 제3항 내지 제10항 중 어느 하나의 학습 컨텐츠 생성방법을 수행하는 컴퓨터 프로그램이 저장된 저장매체. A storage medium storing a computer program for performing the method of generating learning contents according to any one of claims 1 and 3 to 10. 복수의 아이템이 배열된 디지털 또는 아날로그 이미지가 표시되는 이미지 디스플레이부와;
상기 이미지 디스플레이부에 표시된 이미지 상에 가해지는 사용자의 터치입력을 감지하는 터치감지부와;
텍스트, 이미지, 또는 동영상의 데이터를 출력하는 화면출력부와;
음성 데이터를 출력하는 음성출력부; 그리고
상기 터치감지부에서 감지한 터치입력의 위치를 연산하여 상기 이미지에 배열된 복수의 아이템 중 연산된 터치입력의 위치에 대응하는 아이템과 관련된 학습자료를 출력하는 컨트롤러를 포함하는 학습용 단말기에 있어서,
상기 컨트롤러는,
사용자로부터 하나의 디지털 또는 아날로그 이미지를 선택받고, 선택받은 이미지에 복수의 서로 다른 영역을 설정하여, 설정된 각 영역에 대응하는 학습자료를 입력받아, 선택받은 이미지에 대응하는 학습 컨텐츠를 생성함을 특징으로 하는 학습용 단말기.
An image display unit displaying a digital or analog image in which a plurality of items are arranged;
A touch sensing unit sensing a user's touch input applied to the image displayed on the image display unit;
A screen output unit configured to output data of a text, an image, or a video;
A voice output unit for outputting voice data; And
A learning terminal including a controller for calculating a position of a touch input sensed by the touch sensing unit and outputting learning data related to an item corresponding to a position of a calculated touch input among a plurality of items arranged in the image.
The controller,
One digital or analog image is selected by the user, and a plurality of different areas are set in the selected image to receive the learning data corresponding to each set area, and generate the learning content corresponding to the selected image. Learning terminal.
KR1020100015298A 2010-02-19 2010-02-19 Apparatus for leaning and method for creating learning contents for children KR101000463B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100015298A KR101000463B1 (en) 2010-02-19 2010-02-19 Apparatus for leaning and method for creating learning contents for children
PCT/KR2010/009220 WO2011102600A2 (en) 2010-02-19 2010-12-22 Study terminal, learning contents generation method, study method, and recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100015298A KR101000463B1 (en) 2010-02-19 2010-02-19 Apparatus for leaning and method for creating learning contents for children

Publications (1)

Publication Number Publication Date
KR101000463B1 true KR101000463B1 (en) 2010-12-14

Family

ID=43512738

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100015298A KR101000463B1 (en) 2010-02-19 2010-02-19 Apparatus for leaning and method for creating learning contents for children

Country Status (1)

Country Link
KR (1) KR101000463B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101329050B1 (en) * 2011-01-14 2013-11-14 (주)시누스 System and method for creating learning contents for children
KR20150009163A (en) * 2013-07-16 2015-01-26 삼성전자주식회사 Electronic Device And Method for Connecting Audio Information to Image Information Of The Same
WO2016129849A1 (en) * 2015-02-12 2016-08-18 김서영 Device for brain stimulation and method therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100631158B1 (en) * 2006-04-25 2006-10-04 자프린트닷컴 주식회사 Multimedia digital cood printing apparatus and printing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100631158B1 (en) * 2006-04-25 2006-10-04 자프린트닷컴 주식회사 Multimedia digital cood printing apparatus and printing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101329050B1 (en) * 2011-01-14 2013-11-14 (주)시누스 System and method for creating learning contents for children
KR20150009163A (en) * 2013-07-16 2015-01-26 삼성전자주식회사 Electronic Device And Method for Connecting Audio Information to Image Information Of The Same
KR102124806B1 (en) * 2013-07-16 2020-06-19 삼성전자 주식회사 Electronic Device And Method for Connecting Audio Information to Image Information Of The Same
WO2016129849A1 (en) * 2015-02-12 2016-08-18 김서영 Device for brain stimulation and method therefor

Similar Documents

Publication Publication Date Title
US11797131B2 (en) Apparatus and method for image output using hand gestures
US20210042012A1 (en) Interactive presentation controls
US8944824B2 (en) Multi-modal learning system
US8196066B1 (en) Collaborative gesture-based input language
JP4572669B2 (en) Layout rule generation system, layout system, layout rule generation method, and layout rule generation program
US20090219248A1 (en) Electronic device capable of showing page flip effect and method thereof
CN114375435A (en) Enhancing tangible content on a physical activity surface
KR20160062566A (en) Device and method for amend hand-writing characters
KR20160101683A (en) Formula inputting method, apparatus and electronic device
KR20160033547A (en) Apparatus and method for styling a content
KR19990084901A (en) Software Keyboard System Using Stylus Traces and Its Key Code Recognition Method
US9984335B2 (en) Data processing device
JP2008033049A (en) Object specifying device
US20170365083A1 (en) Automatically identifying and displaying objects of interest in a graphic novel
KR101000463B1 (en) Apparatus for leaning and method for creating learning contents for children
KR100874289B1 (en) Electronic pen-computer multimedia interactive system
CN110765735A (en) Mathematical expression input method and device and electronic equipment
JP4511467B2 (en) Response generation for electronic pen-computer multimedia interactive systems
JP6318794B2 (en) Information processing apparatus and information processing program
CN110209242B (en) Button function binding method, button function calling method, button function binding device, button function calling device and projection control equipment
JP5957026B2 (en) Input region generation method, generation device, and generation program
KR101060281B1 (en) Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor
KR100847943B1 (en) Creating responses for an electronic pen-computer multimedia interactive system
WO2011102600A2 (en) Study terminal, learning contents generation method, study method, and recording medium thereof
KR101256752B1 (en) Apparatus and method for providing learning content by stages using touch function

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131121

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151118

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20171204

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee