KR100858079B1 - Method and apparatus for generating emotion of the agent - Google Patents

Method and apparatus for generating emotion of the agent Download PDF

Info

Publication number
KR100858079B1
KR100858079B1 KR1020020000324A KR20020000324A KR100858079B1 KR 100858079 B1 KR100858079 B1 KR 100858079B1 KR 1020020000324 A KR1020020000324 A KR 1020020000324A KR 20020000324 A KR20020000324 A KR 20020000324A KR 100858079 B1 KR100858079 B1 KR 100858079B1
Authority
KR
South Korea
Prior art keywords
emotion
stimulus
agent
state information
external stimulus
Prior art date
Application number
KR1020020000324A
Other languages
Korean (ko)
Other versions
KR20030059917A (en
Inventor
홍영진
김현진
박준호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020020000324A priority Critical patent/KR100858079B1/en
Publication of KR20030059917A publication Critical patent/KR20030059917A/en
Application granted granted Critical
Publication of KR100858079B1 publication Critical patent/KR100858079B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

에이전트 감정 생성 방법 및 장치가 개시된다. 외부의 자극을 인식하여 이에 해당하는 감정을 선택하되, 인간의 기본 감정에 따라 분류된 제1 감정들 중에서 선택하고, 선택된 제1 감정을 이용하여 에이전트의 감정을 생성하는 이 방법은, 외부의 자극을 에이전트 내부의 상태 정보에 따라 증감하고, 선택된 제1 감정을 소정의 개수로 상세 분류한 제2 감정들 중에서 증감된 결과에 해당하는 제2 감정을 선택하는 단계 및 이전에 표현된 감정에 대한 정보를 이용하여 선택된 제2 감정의 강도를 조정하는 단계를 구비하고, 상태 정보는 에이전트의 시변화함수에 해당하는 것을 특징으로 한다. 그러므로, 내부의 상태 정보에 따라 외부의 자극을 증감하므로 동일한 외부의 자극에 대하여도 다양한 감정을 표현할 수 있고, 이전에 표현된 감정에 대한 정보에 따라 현재 표현되는 감정의 강도를 증가시키므로 에이전트가 좀더 생명체와 유사한 느낌이 들도록 하고 사용자로 하여금 흥미를 유발시킬 수 있는 효과가 있다. Disclosed are a method and apparatus for generating an agent emotion. The method of recognizing an external stimulus and selecting a corresponding emotion, selecting among first emotions classified according to a basic human emotion, and generating an agent's emotion using the selected first emotion, an external stimulus And selecting a second emotion corresponding to the increased / decreased result from among second emotions in which the selected first emotion is classified into a predetermined number in detail according to the state information inside the agent, and information on the previously expressed emotion. And adjusting the intensity of the selected second emotion, wherein the state information corresponds to the time varying function of the agent. Therefore, since the external stimulus is increased or decreased according to the internal state information, it is possible to express various emotions with respect to the same external stimulus, and to increase the intensity of the currently expressed emotion according to the information about the previously expressed emotion, the agent is more It has the effect of feeling like a living thing and inducing a user's interest.

Description

에이전트 감정 생성 방법 및 장치{Method and apparatus for generating emotion of the agent}Method and apparatus for generating emotion of the agent

도 1은 본 발명에 의한 에이전트 감정 생성 방법을 설명하기 위한 플로우차트이다. 1 is a flowchart illustrating a method for generating an agent emotion according to the present invention.

도 2는 본 발명에 의한 에이전트 감정 생성 장치를 설명하기 위한 블록도이다.2 is a block diagram illustrating an agent emotion generating apparatus according to the present invention.

도 3은 도 1에 도시된 제10 단계에 대한 바람직한 일 실시예를 설명하기 위한 플로우차트이다. 3 is a flowchart for explaining a preferred embodiment of the tenth step shown in FIG.

도 4는 도 2에 도시된 자극 변형부에 대한 바람직한 일 실시예를 설명하기 위한 블록도이다.FIG. 4 is a block diagram for explaining a preferred embodiment of the magnetic pole deformation unit shown in FIG. 2.

도 5는 도 1에 도시된 제12 단계에 대한 바람직한 일 실시예를 설명하기 위한 플로우차트이다. 5 is a flowchart for explaining a preferred embodiment of the twelfth step shown in FIG.

도 6은 도 2에 도시된 감정 조정부에 대한 바람직한 일 실시예를 설명하기 위한 블록도이다.FIG. 6 is a block diagram illustrating an exemplary embodiment of the emotion adjusting unit illustrated in FIG. 2.

도 7은 제2 감정 항목의 포맷을 설명하는 도면이다.7 is a diagram illustrating a format of a second emotion item.

본 발명은 감정을 표현하는 동물 형태의 로봇 등과 같은 에이전트(agent)에 관한 것으로서, 특히 내부의 상태 정보에 따라 외부의 자극에 다양하게 반응하여 생명체와 같이 기쁨, 슬픔 등의 감정을 표현하는 에이전트 감정 생성 방법 및 장치에 관한 것이다. The present invention relates to an agent such as a robot in the form of an animal that expresses emotion, and particularly, an agent emotion that expresses emotions such as joy and sadness in response to various external stimuli according to internal state information. It relates to a production method and apparatus.

에이전트는 인터넷상의 목적하는 웹 페이지를 찾아내어 자립적인 판단에 의해 특정 목적을 수행하는 프로그램 등의 소프트웨어 에이전트와 인간이나 동물 형태의 감정을 표현하는 휴머노이드(humanoid) 로봇 등의 하드웨어 에이전트가 있다. Agents include a software agent such as a program that finds a target web page on the Internet and performs a specific purpose by independent judgment, and a hardware agent such as a humanoid robot that expresses human or animal emotions.

여기서, 하드웨어 에이전트는 외부의 자극에 따른 감정을 표현하기 위해서 자극 인식, 감정 선택 및 감정 표현의 단계를 가진다. 예를 들어, 선행 특허인 감정 표출 장치(JP 2001-209820)는 먼저 외부로부터의 자극을 인식하고, 외부 자극의 종류에 따라 사용자가 의도하는 자극의 값을 에이전트와 사용자의 인터페이스부(미도시)를 통해 입력하면 에이전트가 이를 인식한다. 또는, 밝음이나 어두움 등의 주변 환경을 에이전트가 센서를 통해 인식하는 방법도 가능하다. 그 후, 에이전트는 인식한 외부의 자극에 대응하여 표현할 감정을 선택한다. 감정은 기쁨, 슬픔, 놀람 또는 행복함 등으로 분류가 될 수 있다. 만일, 사용자가 에이전트를 칭찬하는 값을 입력하거나, 주변 환경이 밝으면 에이전트는 이에 대응하여 기쁨이나 행복함 등의 감정을 선택한다. 감정을 선택한 후에는 소리, 행동 또는 얼굴의 표정 등으로 선택된 감정을 표현한다. Here, the hardware agent has steps of stimulus recognition, emotion selection, and emotion expression in order to express emotions according to external stimuli. For example, the prior art emotion display device (JP 2001-209820) first recognizes the stimulus from the outside, and the user and the interface unit (not shown) of the stimulus intended by the user according to the type of external stimulus The agent recognizes this when you enter it through. Alternatively, the agent may recognize a surrounding environment such as light or dark through a sensor. The agent then selects an emotion to express in response to the recognized external stimulus. Emotions can be categorized as joy, sadness, surprise or happiness. If the user enters a value that compliments the agent or if the surrounding environment is bright, the agent selects an emotion such as joy or happiness in response thereto. After you choose an emotion, you express your emotions by sounds, actions, or facial expressions.

이러한 감정 표출 장치(JP 2001-209820)는 외부의 자극에 대응한 감정을 선 택하기 때문에 서로 다른 외부의 자극에 대하여는 다양한 감정을 표현한다. 그러나, 사용자가 연속하여 동일한 자극을 입력하거나 또는 주변 환경이 크게 변화하지 않고 동일한 환경이 지속되는 경우에는 동일하거나 유사한 외부의 자극에 대하여 에이전트는 동일한 감정 표현을 반복하게 된다. 따라서, 이러한 에이전트는 반복된 감정 표현을 피하는 생명체적 특성이 부족하므로 사용자는 동일한 감정을 반복하여 표현하는 에이전트에 대해 흥미를 잃게 되는 문제가 있다.Since the emotion expression apparatus JP 2001-209820 selects emotions corresponding to external stimuli, various emotions are expressed with respect to different external stimuli. However, if the user continuously inputs the same stimulus or if the environment does not change significantly and the same environment persists, the agent repeats the same emotional expression for the same or similar external stimulus. Therefore, since such agents lack the biological characteristics of avoiding repeated emotional expressions, the user loses interest in agents that repeatedly express the same emotions.

본 발명이 이루고자 하는 기술적 과제는, 외부의 자극에 따른 감정을 생명체와 같이 다양하게 표현하는 에이전트 감정 생성 방법을 제공하는데 있다.An object of the present invention is to provide an agent emotion generation method for expressing emotions caused by external stimuli in various ways, such as living beings.

본 발명이 이루고자 하는 다른 기술적 과제는, 외부의 자극에 따른 감정을 생명체와 같이 다양하게 표현하는 에이전트 감정 생성 장치를 제공하는 데 있다.Another object of the present invention is to provide an agent emotion generating apparatus that variously expresses emotions caused by external stimuli such as living beings.

상기 과제를 이루기 위해, 외부의 자극을 인식하여 이에 해당하는 감정을 선택하되, 인간의 기본 감정에 따라 분류된 제1 감정들 중에서 선택하고, 상기 선택된 제1 감정을 이용하여 에이전트의 감정을 생성하는 본 발명에 의한 에이전트 감정 생성 방법은, 상기 외부의 자극을 상기 에이전트 내부의 상태 정보에 따라 증감하고, 상기 선택된 제1 감정을 소정의 개수로 상세 분류한 제2 감정들 중에서 증감된 결과에 해당하는 제2 감정을 선택하는 단계 및 이전에 표현된 감정에 대한 정보를 이용하여 상기 선택된 제2 감정의 강도를 조정하는 단계로 이루어지고, 상기 상태 정보는 상기 에이전트의 시변화함수에 해당하는 것이 바람직하다. In order to achieve the task, the external stimulus recognizes the external stimulus and selects the corresponding emotion, selects among the first emotions classified according to the basic human emotion, and generates the emotion of the agent using the selected first emotion The agent emotion generating method according to the present invention may increase or decrease the external stimulus according to the state information inside the agent and correspond to the result of increase or decrease among the second emotions in which the selected first emotion is classified into a predetermined number. Selecting a second emotion and adjusting intensity of the selected second emotion by using information on the previously expressed emotion, wherein the state information corresponds to a time varying function of the agent. .                     

상기 다른 과제를 이루기 위해, 외부의 자극을 감지하는 감지부, 감지된 상기 자극에 해당하는 감정을 인간의 기본 감정에 따라 분류된 제1 감정들 중에서 선택하는 제1 감정 선택부 및 상기 선택된 제1 감정을 표현하는 표현부를 갖는 본 발명에 의한 에이전트 감정 생성 장치는, 상기 감지부에서 감지된 상기 자극을 상기 에이전트 내부의 상태 정보에 상응하여 변형하고, 선택된 상기 제1 감정을 소정의 개수로 상세 분류한 제2 감정들 중에서 변형된 자극에 상응하는 제2 감정을 선택하는 자극 변형부 및 상기 선택된 제2 감정의 강도를 이전에 표현된 감정에 대한 정보에 의해 조정하고, 조정된 결과를 상기 표현부로 출력하는 감정 조정부로 구성되고, 상기 표현부는 상기 조정된 결과로부터 선택된 상기 제2 감정을 표현하는 것이 바람직하다.In order to achieve the above object, a sensor for sensing an external stimulus, a first emotion selector for selecting an emotion corresponding to the detected stimulus among first emotions classified according to a basic human emotion, and the selected first The agent emotion generating apparatus according to the present invention having an expression unit for expressing emotions may be configured to modify the stimulus detected by the detection unit according to the state information inside the agent, and to further classify the selected first emotions into a predetermined number. A stimulus deformer that selects a second emotion corresponding to the modified stimulus among the second emotions and the intensity of the selected second emotion are adjusted by the information on the previously expressed emotion, and the adjusted result is sent to the expression part. And an emotion adjustment unit for outputting, wherein the expression unit expresses the second emotion selected from the adjusted result.

이하, 본 발명에 의한 에이전트 감정 생성 방법 및 이를 수행하는 에이전트 감정 생성 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다. Hereinafter, a configuration and an operation of an agent emotion generating method and an agent emotion generating apparatus for performing the same according to the present invention will be described as follows.

도 1은 본 발명에 의한 에이전트 감정 생성 방법을 설명하기 위한 플로우차트로서, 외부의 자극을 증감하여 제2 감정을 선택하고 감정의 강도를 조정하는 단계(제10 ~ 제12 단계들)로 이루어진다.1 is a flowchart illustrating a method for generating an agent emotion according to the present invention, comprising selecting a second emotion by adjusting an external stimulus and adjusting intensity of emotion (10 th to 12 th steps).

도 2는 본 발명에 의한 에이전트 감정 생성 방법을 수행하는 본 발명에 의한 에이전트 감정 생성 장치의 블록도로서, 감지부(20), 제1 감정 선택부(22), 자극 변형부(24), 감정 조정부(26) 및 표현부(28)로 구성된다. 2 is a block diagram of the agent emotion generating apparatus according to the present invention for performing the agent emotion generating method according to the present invention. The sensor 20, the first emotion selecting unit 22, the stimulation deforming unit 24, and the emotion are shown. It consists of the adjustment part 26 and the expression part 28. As shown in FIG.

먼저, 외부의 자극을 에이전트 내부의 상태 정보에 따라 증감하고, 제1 감정 을 분류한 제2 감정들 중에서 증감된 결과에 해당하는 제2 감정을 선택한다(제10 단계). 여기서 제1 감정이란 생명체 예를 들면 인간이 외부의 자극에 반응하여 표현하는 기분의 개략적인 상태를 의미하고, 예를 들어, 기쁨, 화남, 슬픔, 사랑, 놀람 또는 우울함 등의 인간의 기본 감정 또는 감성 상태가 될 수 있으며, 또한, 제2 감정이란 상술한 바와 같이 인간의 기본 감정으로 크게 분류된 제1 감정을 세부적으로 상세히 분류한 감정이다. 예를 들면, 제1 감정이 기쁨일 경우 제2 감정은 웃는 표정을 짓는 것, 소리를 지르는 것 또는 기쁨을 행동으로 표현하는 것 등으로 구현될 수 있고, 제1 감정이 슬픔일 경우 제2 감정은 흐느껴 우는 것, 크게 소리내어 우는 것 또는 슬픈 표정을 짓는 것 등으로 구현 될 수 있고, 제1 감정이 놀람일 경우 제2 감정은 놀란 표정을 짓는 것 또는 놀라서 소리를 지르는 것 등으로 구현될 수 있다. First, the external stimulus is increased or decreased according to the state information inside the agent, and a second emotion corresponding to the increased or decreased result is selected from the second emotions that classify the first emotion (step 10). Here, the first emotion means a rough state of life, for example, a human feeling in response to an external stimulus, and includes, for example, basic human emotions such as joy, anger, sadness, love, surprise, or depression, or As described above, the second emotion is an emotion in which the first emotion, which is largely classified as the basic human emotion, is classified in detail. For example, when the first emotion is joy, the second emotion may be embodied by making a smiley expression, screaming or expressing joy as an action, and when the first emotion is sadness, the second emotion. Can be embodied as weeping, crying loudly, or making a sad expression, and when the first emotion is a surprise, the second emotion can be implemented by making a surprised expression or screaming in amazement. have.

사용자가 입력하는 의도 또는 주변 환경 등의 외부 자극은 입력 단자 IN을 통해 감지부(20)에 입력된다. 감지부(20)는 센서(sensor) 또는 입력 패널(panel) 등으로 구현될 수 있고, 감지부(20)에서 감지된 결과는 제1 감정 선택부(22) 및 자극 변형부(22)로 출력된다. 이 때, 제1 감정 선택부(22)는 입력된 자극에 해당하는 감정을 제1 감정들 중에서 선택하고, 선택한 감정을 자극 변형부(24)로 출력한다. 자극 변형부(24)는 감지부(20)로부터 입력된 자극을 에이전트 내부의 상태 정보를 이용하여 증가하거나 감소하고, 제1 감정 선택부에서 선택된 제1 감정을 분류한 제2 감정들 중에서 증감된 자극에 해당하는 제2 감정을 선택한다. 이 때, 상태 정보는 에이전트 내부의 감정 변화 패턴에 해당한다.  External stimuli such as the intention input by the user or the surrounding environment are input to the sensing unit 20 through the input terminal IN. The sensing unit 20 may be implemented as a sensor or an input panel, and the result detected by the sensing unit 20 is output to the first emotion selecting unit 22 and the stimulation deforming unit 22. do. At this time, the first emotion selector 22 selects an emotion corresponding to the input stimulus from among the first emotions, and outputs the selected emotion to the stimulus deformer 24. The stimulus modifying unit 24 increases or decreases the stimulus input from the sensing unit 20 using state information inside the agent, and increases or decreases among the second emotions that classify the first emotion selected by the first emotion selector. Select a second emotion corresponding to the stimulus. At this time, the state information corresponds to the emotion change pattern inside the agent.                     

예를 들어, 사용자가 에이전트에게 화를 내는 자극을 입력하면 제1 감정 선택부(22)는 자극에 해당하는 제1 감정인 우울함을 선택한다. 그 후, 자극 변형부(24)는 에이전트 내부의 감정 상태에 따라서 입력된 자극을 증감하고, 우울함 중에서 증감된 자극에 해당하는 제2 감정, 즉 우울한 표정을 짓는 항목 또는 흐느껴 우는 항목 등의 감정을 선택한다. For example, when a user inputs an stimulus that is angry with an agent, the first emotion selector 22 selects depression, which is a first emotion corresponding to the stimulus. Thereafter, the stimulus deforming unit 24 increases or decreases the input stimulus according to the emotional state inside the agent, and expresses the second emotion corresponding to the increased or decreased stimulus, that is, an item that makes a depressed expression or a weeping item, among depression. Choose.

제10 단계 후에, 이전에 표현된 감정에 대한 정보를 이용하여 선택된 제2 감정의 강도를 조정한다(제12 단계). 생명체는 반복되는 감정 표현을 피하는 본능이 있으므로, 이전에 표현된 감정이 연속적으로 선택되면, 선택된 감정이 표현되는 강도를 조정한다. 이를 위해, 감정 조정부(26)는 이전에 표현된 감정에 대한 정보를 이용하여 선택된 감정이 소정 기간 이내에 표현된 것이라면 선택된 감정의 강도를 조정하고, 조정한 결과를 표현부(28)로 출력한다. 그 후, 표현부(28)는 소리나 표정 등으로 자극에 대응한 감정을 표현한다. 예를 들어, 선택된 제2 감정이 흐느껴 우는 항목일 때 이것이 연속적으로 선택되었다면 감정 조정부(26)는 울음의 강도를 조정하고, 표현부(28)는 강도가 조정된 울음을 표현한다. After the tenth step, the intensity of the selected second emotion is adjusted using the information about the previously expressed emotion (step 12). Since life has the instinct to avoid repeated emotional expressions, if a previously expressed emotion is continuously selected, it adjusts the intensity at which the selected emotion is expressed. To this end, the emotion adjusting unit 26 adjusts the intensity of the selected emotion if the selected emotion is expressed within a predetermined period using information on the previously expressed emotion, and outputs the adjusted result to the expression unit 28. Thereafter, the expression unit 28 expresses the emotion corresponding to the stimulus with a sound or an expression. For example, if the second emotion selected is a weeping item, if it is continuously selected, the emotion adjusting unit 26 adjusts the intensity of the crying, and the expression unit 28 expresses the crying with the adjusted intensity.

이하, 도 1에 도시된 제10 단계에 대한 본 발명에 의한 바람직한 일 실시예 및 이를 수행하는 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, with reference to the accompanying drawings the configuration and operation of a preferred embodiment according to the present invention with respect to the tenth step shown in Figure 1 and the apparatus for performing the same will be described as follows.

도 3은 도 1에 도시된 제10 단계에 대한 바람직한 일 실시예를 설명하기 위한 플로우차트로서, 상태 정보와 상관 관계를 이용하여 외부의 자극을 증감하고, 제2 감정을 선택하는 단계(제30 ~ 제36 단계들)로 이루어진다. 3 is a flowchart for describing a preferred embodiment of the tenth step illustrated in FIG. 1, in which an external stimulus is increased or decreased by using correlation with state information, and a second emotion is selected (30th step). To 36 steps).                     

도 4는 도 2에 도시된 자극 변형부(24)에 대한 바람직한 일 실시예를 설명하기 위한 블록도로서, 상태 정보 생성부(40), 상관 관계 계산부(42), 자극 증감부(44) 및 제2 감정 선택부(46)로 구성된다.FIG. 4 is a block diagram illustrating a preferred embodiment of the stimulus modifying unit 24 shown in FIG. 2. The state information generating unit 40, the correlation calculation unit 42, and the stimulus increasing unit 44 are shown. And a second emotion selection unit 46.

도 7은 제2 감정 항목의 포맷을 설명하는 도면으로서, R00, R01, R02, …,R n 으로서 구성된다.7 is a view for explaining the format of the second emotion item, R 00 , R 01 , R 02,. And R n .

먼저, 에이전트 내부의 상태에 대한 정보를 생성한다(제30 단계). 에이전트 내부의 상태에 대한 정보는 생명체와 유사하게 신체의 컨디션, 감성의 정도 등이 될 수 있다. 이를 위해, 상태 정보 생성부(40)는 미리 입력된 프로그램에 따라 상태 정보를 생성하고, 생성한 상태 정보를 상관 관계 계산부(42) 및 자극 증감부(44)로 출력한다. 예를 들어, 상태 정보가 시간에 따라 인간의 생체 변화를 나타내는 신체 리듬, 지성 리듬 및 감성 리듬이라면 이러한 바이오 리듬에 관한 프로그램이 초기에 에이전트에 입력되고, 상태 정보 생성부(40)는 입력된 바이오 리듬에 관한 프로그램에 따라 에이전트의 상태 정보를 시간의 함수로 계산하여 생성하고, 생성한 결과를 출력한다. First, information about a state inside an agent is generated (step 30). Information about the state inside the agent may be similar to the living body, such as the condition of the body, the degree of sensitivity. To this end, the state information generator 40 generates state information according to a previously input program, and outputs the generated state information to the correlation calculation unit 42 and the stimulus increase / decrease unit 44. For example, if the state information is a body rhythm, an intelligence rhythm, and an emotion rhythm representing a change in a human body over time, a program related to such a bio rhythm is initially input to an agent, and the state information generator 40 inputs the input bio. According to the program about the rhythm, the agent's status information is calculated as a function of time, and the generated result is output.

제30 단계 후에, 외부의 자극과 생성된 상태 정보 사이의 상관 관계를 구한다(제32 단계). 이를 위해, 상관 관계 계산부(42)는 입력 단자 IN 1으로부터 입력한 외부의 자극과 상태 정보 생성부(40)로부터 입력한 상태 정보를 이용하여 이들의 상관 관계를 구한다. 외부의 자극과 내부의 상태 정보 사이의 상관 관계는 에이전트의 감정 상태에 따른 외부 자극과의 가중치로서 자극의 종류나 에이전트 내부의 감정 변화 패턴에 따라 미리 프로그램 되어 입력될 수 있다. After the thirtieth step, a correlation between the external stimulus and the generated state information is obtained (step 32). To this end, the correlation calculator 42 calculates the correlations using the external magnetic poles input from the input terminal IN 1 and the state information input from the state information generator 40. The correlation between the external stimulus and the internal state information may be pre-programmed and input according to the type of stimulus or the emotion change pattern inside the agent as a weight with the external stimulus according to the emotional state of the agent.                     

제32 단계 후에, 외부의 자극에 상태 정보 및 상관 관계를 곱해서 외부의 자극을 증가하거나 감소한다(제34 단계). 따라서 에이전트 내부의 상태에 맞는 변형된 자극을 생성하게 된다. 자극 증감부(44)는 입력 단자 IN 1을 통해 입력된 외부의 자극과 상관 관계 계산부(42)로부터 입력한 상관 관계 및 상태 정보 생성부(40)로부터 입력한 상태 정보를 곱해서 변형된 자극을 생성하고, 생성한 결과를 제2 감정 선택부(46)로 출력한다. 예를 들어, 사용자가 에이전트에게 칭찬하는 자극을 입력하였어도 에이전트 내부의 감성 리듬이 저조한 상태에 있다면 자극 증감부(44)는 칭찬하는 자극의 값을 감소한다. 입력 단자 IN 1을 통해 입력한 외부의 자극이 Si 이고, 내부의 상태 정보를 Fj 라 하고, 이들의 상관 관계를 Wij 라 한다면 새로이 증감되어 생성된 자극인 Si'는 수학식 1과 같이 표현된다. After the thirty-second step, the external stimulus is multiplied by the state information and correlation to increase or decrease the external stimulus (step 34). Therefore, it creates a modified stimulus for the state inside the agent. The stimulus sensitizer 44 multiplies the external stimulus inputted through the input terminal IN 1 with the correlation input from the correlation calculator 42 and the state information input from the state information generator 40 to multiply the modified stimulus. And the generated result is output to the second emotion selector 46. For example, even if a user inputs a stimulus to praise the agent, if the emotional rhythm inside the agent is in a low state, the stimulus sensitizer 44 decreases the value of the stimulus to be praised. If the external stimulus input through the input terminal IN 1 is S i , and the internal state information is F j , and their correlation is W ij , the newly increased and decreased stimulus S i 'is represented by Equation 1 It is expressed as

Figure 112002000146692-pat00001
Figure 112002000146692-pat00001

또한, 외부의 자극 Si와 내부의 상태 정보 Fj의 상관 관계인 Wij는 표 1과 같이 구현될 수 있다. 예를 들어, 외부의 자극이 S01이고, 내부의 상태 정보가 F1이라면 이들의 상관 관계인 W011는 0.7이된다. 따라서, S01값, F1값 및 W011 값인 0.7을 곱하면 변형된 자극인 Si'값을 구할 수 있다. In addition, W ij, which is a correlation between the external magnetic pole S i and the internal state information F j , may be implemented as shown in Table 1. For example, if the external stimulus is S 01 and the internal state information is F 1, the correlation W 011 is 0.7. Therefore, by multiplying the S 01 value, the F 1 value, and the W 011 value by 0.7, the modified stimulus S i 'can be obtained.

Figure 112002000146692-pat00002
Figure 112002000146692-pat00002

제34 단계 후에, 증감된 자극에 해당하는 제2 감정을 선택한다(제36 단계). 이를 위해, 제2 감정 선택부(46)는 자극 증감부(44)로부터 입력한 변형된 자극에 상응하여 입력 단자 IN 2로부터 입력한 제1 감정을 분류한 제2 감정을 선택한다. 예를 들어, 제1 감정이 기쁨(joy) 또는 슬픔(grief)이라면 제2 감정은 도 7과 같이 R00, R01, R02, …,Rn 등이 될 수 있다. 이 때, 제1 감정이 기쁨(joy)이라면 제2 감정인 R00, R01, R02, …,Rn 등은 웃음을 짓는 표정 항목, 소리를 지르는 항목, 기쁨을 표현하는 행동 항목 등으로 구현 될 수 있다. After step 34, a second emotion corresponding to the increased or decreased stimulus is selected (step 36). To this end, the second emotion selector 46 selects a second emotion that classifies the first emotion input from the input terminal IN 2 corresponding to the modified stimulus input from the stimulus sensitizer 44. For example, if the first emotion is joy or grief, the second emotion is R 00 , R 01 , R 02 ,... , R n and the like. At this time, if the first emotion is joy, the second emotions R 00 , R 01 , R 02 ,. , R n may be implemented as a smiley expression item, a screaming item, or an action item expressing joy.

이하, 도 1에 도시된 제12 단계에 대한 본 발명에 의한 바람직한 일 실시예 및 이를 수행하는 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, with reference to the accompanying drawings the configuration and operation of a preferred embodiment according to the present invention for the twelfth step shown in Figure 1 and the apparatus for performing the same will be described as follows.

도 5는 도 1에 도시된 제12 단계에 대한 바람직한 일 실시예를 설명하기 위한 플로우차트로서, 제2 감정의 연속된 빈도수가 소정값 이상인가의 여부에 따라 선택된 제2 감정의 표현의 강도를 조정하는 단계(제50 ~ 제56 단계들)로 이루어진다. FIG. 5 is a flowchart for explaining a preferred embodiment of the twelfth step shown in FIG. 1, wherein the intensity of the expression of the second emotion selected according to whether or not the continuous frequency of the second emotion is greater than or equal to a predetermined value. Adjusting step (50th to 56th steps).

도 6은 도 2에 도시된 감정 조정부(26)에 대한 바람직한 일 실시예를 설명하기 위한 블록도로서, 저장부(60), 빈도수 계산부(62), 비교부(64) 및 강도 조정부(66)로 구성된다. FIG. 6 is a block diagram illustrating an exemplary embodiment of the emotion adjusting unit 26 shown in FIG. 2, and includes a storage unit 60, a frequency calculator 62, a comparator 64, and an intensity adjuster 66. It is composed of

먼저, 선택된 제2 감정의 연속된 빈도수를 구한다(제50 단계). 이를 위해, 빈도수 계산부(62)는 입력 단자 IN 1으로부터 입력한 현재 선택된 제2 감정과 저장부(60)로부터 입력한 이전에 표현된 제2 감정에 대한 정보를 참고하여 현재 선택된 제2 감정의 연속된 빈도수를 계산하고, 계산된 결과를 비교부(64)로 출력한다. First, a continuous frequency of the selected second emotion is calculated (step 50). To this end, the frequency calculating unit 62 refers to the information on the currently selected second emotion input from the input terminal IN 1 and the information on the previously expressed second emotion input from the storage unit 60 to determine the second emotion of the currently selected second emotion. A continuous frequency is calculated and the calculated result is output to the comparator 64.

제50 단계 후에, 구해진 연속된 빈도수가 소정값 이상인가를 판단한다(제52 단계). 이를 위해, 비교부(64)는 빈도수 계산부(62)로부터 입력한 제2 감정의 연속된 빈도수와 입력 단자 IN 2로부터 입력한 소정값을 비교하고, 비교된 결과를 강도 조정부(66)로 출력한다. 이 때, 소정값은 사용자 또는 제조자에 의해 결정되어질 수 있다. After the fifty step, it is determined whether the obtained continuous frequency is equal to or greater than a predetermined value (step 52). To this end, the comparing unit 64 compares the continuous frequency of the second emotion input from the frequency calculating unit 62 with a predetermined value input from the input terminal IN 2, and outputs the compared result to the intensity adjusting unit 66. do. At this time, the predetermined value may be determined by the user or the manufacturer.

만일, 연속된 빈도수가 소정값 이상인 것으로 판단되면, 선택된 제2 감정에 대한 표현의 강도를 조정한다(제54 단계). 생명체는 동일한 자극이 연속적으로 계속되면 감정의 강도를 증가하여 표현하거나 또는 감소하는 경향이 있으므로 이와 유사하게 강도 조정부(66)는 비교부(64)로부터 입력한 결과에 따라 연속된 빈도수가 소정값 이상이면 입력 단자 IN 1으로부터 입력한 제2 감정의 표현 강도를 조정한다. 예를 들어, 사용자가 에이전트에게 화를 내는 자극을 입력하여 에이전트가 우울함 중 흐느껴 우는 항목을 표현할 때, 자극이 계속되어 흐느껴 우는 항목이 연속적으로 표현되어진다면 강도 조정부(66)는 울음의 강도를 높이기 위해 소리를 크게 증가하거나 또는 강도를 감소할 수 있다. If it is determined that the continuous frequency is greater than or equal to the predetermined value, the intensity of the expression for the selected second emotion is adjusted (step 54). Since a living organism tends to express or decrease the intensity of emotion when the same stimulus continues continuously, the intensity adjusting unit 66 similarly has a continuous frequency greater than or equal to a predetermined value according to a result input from the comparing unit 64. The expression intensity of the second emotion inputted from the input terminal IN 1 is adjusted. For example, when a user inputs an stimulus that is angry with an agent and the agent expresses a weeping item during depression, the intensity adjuster 66 increases the intensity of crying if the stimulation continues and the weeping items are continuously expressed. The sound may be greatly increased or the intensity may be decreased.

제54 단계 후에, 표현된 제2 감정의 연속된 빈도수를 1 증가한다(제56 단계). 이를 위해, 저장부(60)는 강도 조정부(66)로부터 출력 단자 OUT으로 출력되는 제2 감정에 대한 정보를 저장한다. After the 54th step, the successive frequency of the expressed second emotion is increased by 1 (step 56). To this end, the storage unit 60 stores information on the second emotion output from the intensity adjusting unit 66 to the output terminal OUT.

만일, 연속된 빈도수가 소정값보다 적은 것으로 판단되면, 선택된 제2 감정에 대한 표현의 강도를 조정함이 없이 연속된 빈도수를 1 증가한다(제56 단계). 따라서, 비교부(64)는 제2 감정의 연속된 빈도수가 소정값보다 적다는 결과를 강도 조정부(66)로 출력하고 강도 조정부(66)는 이에 따라 입력 단자 IN 1으로부터 입력한 제2 감정의 강도를 조정함이 없이 출력 단자 OUT으로 출력한다. 저장부(60)는 강도 조정부(66)로부터 출력 단자 OUT으로 출력되는 제2 감정에 대한 정보를 저장한다. If it is determined that the continuous frequency is less than the predetermined value, the continuous frequency is increased by one without adjusting the intensity of the expression for the selected second emotion (step 56). Accordingly, the comparing unit 64 outputs the result of the successive frequency of the second emotion to the intensity adjusting unit 66, and the intensity adjusting unit 66 accordingly receives the second emotion inputted from the input terminal IN1. Output to OUT terminal without adjusting the intensity. The storage unit 60 stores information on the second emotion output from the intensity adjusting unit 66 to the output terminal OUT.

이상에서 설명한 바와 같이, 본 발명에 의한 에이전트 감정 생성 방법 및 장 치는 내부의 상태 정보에 따라 외부의 자극을 증감하므로 동일한 외부의 자극에 대하여도 다양한 감정을 표현할 수 있고, 이전에 표현된 감정에 대한 정보에 따라 현재 표현되는 감정의 강도를 증가시키므로 에이전트가 좀더 생명체와 유사한 느낌이 들도록 하고 사용자로 하여금 흥미를 유발시킬 수 있는 효과가 있다. As described above, the agent emotion generating method and device according to the present invention increase and decrease external stimuli according to internal state information, and thus, various emotions can be expressed with respect to the same external stimulus, Increasing the intensity of the emotion that is currently being expressed according to the information has the effect of making the agent feel more lifelike and induce the user's interest.

Claims (6)

외부의 자극을 인식하여 이에 해당하는 감정을 선택하되, 인간의 기본 감정에 따라 분류된 제1 감정들 중에서 선택하고, 상기 선택된 제1 감정을 이용하여 에이전트의 감정을 생성하는 방법에 있어서,A method of recognizing an external stimulus and selecting a corresponding emotion, selecting among first emotions classified according to a basic human emotion, and generating an agent emotion using the selected first emotion, (a) 상기 외부의 자극을 상기 에이전트 내부의 상태 정보에 따라 증감하고, 상기 선택된 제1 감정을 소정의 개수로 상세 분류한 제2 감정들 중에서 증감된 결과에 해당하는 제2 감정을 선택하는 단계; 및(a) increasing and decreasing the external stimulus according to the state information inside the agent, and selecting a second emotion corresponding to the increased or decreased result from among second emotions in which the selected first emotion is classified into a predetermined number. ; And (b) 이전에 표현된 감정에 대한 정보를 이용하여 상기 선택된 제2 감정의 강도를 조정하는 단계를 구비하고,(b) adjusting the intensity of the selected second emotion using information about previously expressed emotions, 상기 상태 정보는 상기 에이전트의 시변화함수에 해당하는 것을 특징으로 하는 에이전트 감정 생성 방법.And the state information corresponds to a time varying function of the agent. 제1 항에 있어서, 상기 (a) 단계는, The method of claim 1, wherein step (a) comprises: 상기 상태 정보를 생성하는 단계;Generating the status information; 상기 외부의 자극과 상기 상태 정보 사이에 상관 관계를 구하는 단계;Obtaining a correlation between the external stimulus and the state information; 상기 외부의 자극에 상기 상태 정보와 상기 상관 관계를 곱해서 상기 외부의 자극을 증감하는 단계; 및Multiplying the external stimulus by the state information and the correlation to increase or decrease the external stimulus; And 상기 증감된 자극에 해당하는 상기 제2 감정을 선택하는 단계를 구비하고, Selecting the second emotion corresponding to the increased or decreased stimulus, 상기 상관 관계는 에이전트의 감정 상태에 따른 상기 외부 자극과의 가중치에 해당되며,The correlation corresponds to a weight with the external stimulus according to the emotional state of the agent, 상기 (b) 단계는, In step (b), (b1) 선택된 상기 제2 감정의 연속된 빈도수를 구하는 단계;(b1) obtaining a sequential frequency of the selected second emotion; (b2) 구해진 상기 연속된 빈도수가 소정값 이상인가를 판단하는 단계;(b2) determining whether the obtained frequency is greater than or equal to a predetermined value; (b3) 상기 연속된 빈도수가 상기 소정값보다 적은 것으로 판단되면, 상기 연속된 빈도수를 1 증가하는 단계; 및(b3) if it is determined that the continuous frequency is less than the predetermined value, increasing the continuous frequency by one; And (b4) 상기 연속된 빈도수가 상기 소정값 이상인 것으로 판단되면, 상기 선택된 제2 감정에 대한 표현의 강도를 조정하고 상기 (b3) 단계로 진행하는 단계를 구비하는 것을 특징으로 하는 에이전트 감정 생성 방법.(b4) if it is determined that the continuous frequency is greater than or equal to the predetermined value, adjusting the intensity of the expression for the selected second emotion and proceeding to step (b3). 외부의 자극을 감지하는 감지부, 감지된 상기 자극에 해당하는 감정을 인간의 기본 감정에 따라 분류된 제1 감정들 중에서 선택하는 제1 감정 선택부 및 상기 선택된 제1 감정을 표현하는 표현부를 갖는 에이전트 감정 생성 장치에 있어서,A sensor for sensing an external stimulus, a first emotion selector for selecting among the first emotions classified according to the basic human emotion, and an expression unit for expressing the selected first emotion In the agent emotion generating device, 상기 감지부에서 감지된 상기 자극을 상기 에이전트 내부의 상태 정보에 상응하여 변형하고, 선택된 상기 제1 감정을 소정의 개수로 상세 분류한 제2 감정들 중에서 변형된 자극에 상응하는 제2 감정을 선택하는 자극 변형부; 및The stimulus sensed by the sensing unit is modified according to the state information inside the agent, and a second emotion corresponding to the modified stimulus is selected from second emotions which are further classified into a predetermined number of the selected first emotion. A stimulus deforming part; And 상기 선택된 제2 감정의 강도를 이전에 표현된 감정에 대한 정보에 의해 조정하고, 조정된 결과를 상기 표현부로 출력하는 감정 조정부를 구비하고, Emotion adjusting unit for adjusting the intensity of the selected second emotion by the information on the previously expressed emotion, and outputs the adjusted result to the expression unit, 상기 표현부는 상기 조정된 결과로부터 선택된 상기 제2 감정을 표현하는 것을 특징으로 하는 에이전트 감정 생성 장치.And the expression unit expresses the second emotion selected from the adjusted result. 제3 항에 있어서, 상기 자극 변형부는,The method of claim 3, wherein the magnetic pole deformation portion, 상기 상태 정보를 생성하고, 생성한 상기 상태 정보를 출력하는 상태 정보 생성부;A state information generator for generating the state information and outputting the generated state information; 상기 상태 정보와 상기 외부의 자극과의 상관 관계를 계산하고, 계산한 상기 상관 관계를 출력하는 상관 관계 계산부; A correlation calculator which calculates a correlation between the state information and the external stimulus and outputs the calculated correlation; 상기 외부의 자극에 상기 상태 정보와 상기 상관 관계를 곱하고, 곱한 결과를 상기 변형된 자극으로서 출력하는 자극 증감부; 및A stimulus sensitizer which multiplies the external stimulus by the state information and the correlation and outputs a multiplication result as the modified stimulus; And 상기 변형된 자극에 상응하여 해당하는 상기 제2 감정을 선택하는 제2 감정 선택부를 구비하며,A second emotion selector configured to select the second emotion corresponding to the modified stimulus, 상기 감정 조정부는,The emotion adjustment unit, 표현된 상기 제2 감정에 대한 정보를 저장하는 저장부;A storage unit which stores information on the expressed second emotion; 이전에 표현된 상기 제2 감정에 대한 정보를 참고하여 현재 선택된 상기 제2 감정의 연속된 빈도수를 계산하는 빈도수 계산부; A frequency calculator configured to calculate a continuous frequency of the second emotion currently selected by referring to the information on the second emotion previously expressed; 상기 연속된 빈도수와 소정값을 비교하고, 비교된 결과를 출력하는 비교부; 및A comparison unit comparing the continuous frequency with a predetermined value and outputting a comparison result; And 상기 비교부로부터 입력한 상기 비교된 결과에 응답하여 선택된 상기 제2 감정의 강도를 조정하고, 조정한 결과를 상기 표현부로 출력하는 강도 조정부를 구비하는 것을 특징으로 하는 에이전트 감정 생성 장치.And an intensity adjuster for adjusting the intensity of the selected second emotion in response to the compared result input from the comparator, and outputting the adjusted result to the expression unit. 제1항 또는 제2항에 있어서, The method according to claim 1 or 2, 상기 상태 정보는 시간에 따라 인간의 생체 변화를 나타내는 감성 리듬, 지성 리듬 및 신체 리듬 중 적어도 하나에 해당하는 것을 특징으로 하는 에이전트 감정 생성 방법.And the state information corresponds to at least one of an emotional rhythm, an intelligent rhythm, and a body rhythm representing a change in a human body over time. 제3항 또는 제4항에 있어서, The method according to claim 3 or 4, 상기 상태 정보는 시간에 따라 인간의 생체 변화를 나타내는 감성 리듬, 지성 리듬 및 신체 리듬 중 적어도 하나에 해당하는 것을 특징으로 하는 에이전트 감정 생성 장치.And the state information corresponds to at least one of an emotion rhythm, an intelligence rhythm, and a body rhythm representing a change in a human body over time.
KR1020020000324A 2002-01-03 2002-01-03 Method and apparatus for generating emotion of the agent KR100858079B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020000324A KR100858079B1 (en) 2002-01-03 2002-01-03 Method and apparatus for generating emotion of the agent

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020000324A KR100858079B1 (en) 2002-01-03 2002-01-03 Method and apparatus for generating emotion of the agent

Publications (2)

Publication Number Publication Date
KR20030059917A KR20030059917A (en) 2003-07-12
KR100858079B1 true KR100858079B1 (en) 2008-09-10

Family

ID=32216894

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020000324A KR100858079B1 (en) 2002-01-03 2002-01-03 Method and apparatus for generating emotion of the agent

Country Status (1)

Country Link
KR (1) KR100858079B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240051517A (en) 2022-10-13 2024-04-22 주식회사 로아이젠 Cognitive-based service response system accompanied by emotions of intelligent robots and cognitive-based service response method using the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100819248B1 (en) * 2006-09-05 2008-04-02 삼성전자주식회사 Method for changing emotion of software robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5367454A (en) * 1992-06-26 1994-11-22 Fuji Xerox Co., Ltd. Interactive man-machine interface for simulating human emotions
JP2001157980A (en) * 1999-11-30 2001-06-12 Sony Corp Robot device, and control method thereof
KR20010052699A (en) * 1998-11-30 2001-06-25 이데이 노부유끼 Robot, method of robot control, and program recording medium
KR20010091219A (en) * 2000-03-14 2001-10-23 조영익 Method for retargetting facial expression to new faces

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5367454A (en) * 1992-06-26 1994-11-22 Fuji Xerox Co., Ltd. Interactive man-machine interface for simulating human emotions
KR20010052699A (en) * 1998-11-30 2001-06-25 이데이 노부유끼 Robot, method of robot control, and program recording medium
JP2001157980A (en) * 1999-11-30 2001-06-12 Sony Corp Robot device, and control method thereof
KR20010091219A (en) * 2000-03-14 2001-10-23 조영익 Method for retargetting facial expression to new faces

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240051517A (en) 2022-10-13 2024-04-22 주식회사 로아이젠 Cognitive-based service response system accompanied by emotions of intelligent robots and cognitive-based service response method using the same

Also Published As

Publication number Publication date
KR20030059917A (en) 2003-07-12

Similar Documents

Publication Publication Date Title
US8494982B2 (en) Emotion model, apparatus, and method for adaptively modifying personality features of emotion model
US11670324B2 (en) Method for predicting emotion status and robot
JP2005199403A (en) Emotion recognition device and method, emotion recognition method of robot device, learning method of robot device and robot device
JP3178393B2 (en) Action generation device, action generation method, and action generation program recording medium
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
KR100624403B1 (en) Human nervous-system-based emotion synthesizing device and method for the same
US6519506B2 (en) Robot and control method for controlling the robot's emotions
US20060015216A1 (en) Information processing apparatus and method, program storage medium, and program
CN108009573B (en) Robot emotion model generation method, emotion model and interaction method
KR101028814B1 (en) Software robot apparatus and method for expressing behavior of software robot
WO2003097308A1 (en) Robot device and robot control method
JP2005199402A (en) Behavior control system and method of robot device
WO2001072478A1 (en) Robot device, robot device action control method, external force detecting device and external force detecting method
JP2002018146A (en) Interactive toy, reaction behavior generator and reaction behavior pattern generation method
US8972313B2 (en) Apparatus and method for learning emotion of robot
JPWO2005093650A1 (en) Will expression model device, psychological effect program, will expression simulation method
KR20130082701A (en) Emotion recognition avatar service apparatus and method using artificial intelligences
WO2000067959A1 (en) Robot device and method for controlling the same
JP6201212B2 (en) Character generating apparatus and program
KR20030037774A (en) Object growth control system and method
JP2002160185A (en) Robot device, behavior controlling method for robot device and device and method for detecting external force
KR20190079255A (en) System for learning of robot service and method thereof
KR100858079B1 (en) Method and apparatus for generating emotion of the agent
US9324245B2 (en) Apparatus and method for creating artificial feelings
JP2001212783A (en) Robot device and control method for it

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120830

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130829

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140828

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150828

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160830

Year of fee payment: 9