KR100858079B1 - Method and apparatus for generating emotion of the agent - Google Patents
Method and apparatus for generating emotion of the agent Download PDFInfo
- Publication number
- KR100858079B1 KR100858079B1 KR1020020000324A KR20020000324A KR100858079B1 KR 100858079 B1 KR100858079 B1 KR 100858079B1 KR 1020020000324 A KR1020020000324 A KR 1020020000324A KR 20020000324 A KR20020000324 A KR 20020000324A KR 100858079 B1 KR100858079 B1 KR 100858079B1
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- stimulus
- agent
- state information
- external stimulus
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39254—Behaviour controller, robot have feelings, learns behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
에이전트 감정 생성 방법 및 장치가 개시된다. 외부의 자극을 인식하여 이에 해당하는 감정을 선택하되, 인간의 기본 감정에 따라 분류된 제1 감정들 중에서 선택하고, 선택된 제1 감정을 이용하여 에이전트의 감정을 생성하는 이 방법은, 외부의 자극을 에이전트 내부의 상태 정보에 따라 증감하고, 선택된 제1 감정을 소정의 개수로 상세 분류한 제2 감정들 중에서 증감된 결과에 해당하는 제2 감정을 선택하는 단계 및 이전에 표현된 감정에 대한 정보를 이용하여 선택된 제2 감정의 강도를 조정하는 단계를 구비하고, 상태 정보는 에이전트의 시변화함수에 해당하는 것을 특징으로 한다. 그러므로, 내부의 상태 정보에 따라 외부의 자극을 증감하므로 동일한 외부의 자극에 대하여도 다양한 감정을 표현할 수 있고, 이전에 표현된 감정에 대한 정보에 따라 현재 표현되는 감정의 강도를 증가시키므로 에이전트가 좀더 생명체와 유사한 느낌이 들도록 하고 사용자로 하여금 흥미를 유발시킬 수 있는 효과가 있다. Disclosed are a method and apparatus for generating an agent emotion. The method of recognizing an external stimulus and selecting a corresponding emotion, selecting among first emotions classified according to a basic human emotion, and generating an agent's emotion using the selected first emotion, an external stimulus And selecting a second emotion corresponding to the increased / decreased result from among second emotions in which the selected first emotion is classified into a predetermined number in detail according to the state information inside the agent, and information on the previously expressed emotion. And adjusting the intensity of the selected second emotion, wherein the state information corresponds to the time varying function of the agent. Therefore, since the external stimulus is increased or decreased according to the internal state information, it is possible to express various emotions with respect to the same external stimulus, and to increase the intensity of the currently expressed emotion according to the information about the previously expressed emotion, the agent is more It has the effect of feeling like a living thing and inducing a user's interest.
Description
도 1은 본 발명에 의한 에이전트 감정 생성 방법을 설명하기 위한 플로우차트이다. 1 is a flowchart illustrating a method for generating an agent emotion according to the present invention.
도 2는 본 발명에 의한 에이전트 감정 생성 장치를 설명하기 위한 블록도이다.2 is a block diagram illustrating an agent emotion generating apparatus according to the present invention.
도 3은 도 1에 도시된 제10 단계에 대한 바람직한 일 실시예를 설명하기 위한 플로우차트이다. 3 is a flowchart for explaining a preferred embodiment of the tenth step shown in FIG.
도 4는 도 2에 도시된 자극 변형부에 대한 바람직한 일 실시예를 설명하기 위한 블록도이다.FIG. 4 is a block diagram for explaining a preferred embodiment of the magnetic pole deformation unit shown in FIG. 2.
도 5는 도 1에 도시된 제12 단계에 대한 바람직한 일 실시예를 설명하기 위한 플로우차트이다. 5 is a flowchart for explaining a preferred embodiment of the twelfth step shown in FIG.
도 6은 도 2에 도시된 감정 조정부에 대한 바람직한 일 실시예를 설명하기 위한 블록도이다.FIG. 6 is a block diagram illustrating an exemplary embodiment of the emotion adjusting unit illustrated in FIG. 2.
도 7은 제2 감정 항목의 포맷을 설명하는 도면이다.7 is a diagram illustrating a format of a second emotion item.
본 발명은 감정을 표현하는 동물 형태의 로봇 등과 같은 에이전트(agent)에 관한 것으로서, 특히 내부의 상태 정보에 따라 외부의 자극에 다양하게 반응하여 생명체와 같이 기쁨, 슬픔 등의 감정을 표현하는 에이전트 감정 생성 방법 및 장치에 관한 것이다. The present invention relates to an agent such as a robot in the form of an animal that expresses emotion, and particularly, an agent emotion that expresses emotions such as joy and sadness in response to various external stimuli according to internal state information. It relates to a production method and apparatus.
에이전트는 인터넷상의 목적하는 웹 페이지를 찾아내어 자립적인 판단에 의해 특정 목적을 수행하는 프로그램 등의 소프트웨어 에이전트와 인간이나 동물 형태의 감정을 표현하는 휴머노이드(humanoid) 로봇 등의 하드웨어 에이전트가 있다. Agents include a software agent such as a program that finds a target web page on the Internet and performs a specific purpose by independent judgment, and a hardware agent such as a humanoid robot that expresses human or animal emotions.
여기서, 하드웨어 에이전트는 외부의 자극에 따른 감정을 표현하기 위해서 자극 인식, 감정 선택 및 감정 표현의 단계를 가진다. 예를 들어, 선행 특허인 감정 표출 장치(JP 2001-209820)는 먼저 외부로부터의 자극을 인식하고, 외부 자극의 종류에 따라 사용자가 의도하는 자극의 값을 에이전트와 사용자의 인터페이스부(미도시)를 통해 입력하면 에이전트가 이를 인식한다. 또는, 밝음이나 어두움 등의 주변 환경을 에이전트가 센서를 통해 인식하는 방법도 가능하다. 그 후, 에이전트는 인식한 외부의 자극에 대응하여 표현할 감정을 선택한다. 감정은 기쁨, 슬픔, 놀람 또는 행복함 등으로 분류가 될 수 있다. 만일, 사용자가 에이전트를 칭찬하는 값을 입력하거나, 주변 환경이 밝으면 에이전트는 이에 대응하여 기쁨이나 행복함 등의 감정을 선택한다. 감정을 선택한 후에는 소리, 행동 또는 얼굴의 표정 등으로 선택된 감정을 표현한다. Here, the hardware agent has steps of stimulus recognition, emotion selection, and emotion expression in order to express emotions according to external stimuli. For example, the prior art emotion display device (JP 2001-209820) first recognizes the stimulus from the outside, and the user and the interface unit (not shown) of the stimulus intended by the user according to the type of external stimulus The agent recognizes this when you enter it through. Alternatively, the agent may recognize a surrounding environment such as light or dark through a sensor. The agent then selects an emotion to express in response to the recognized external stimulus. Emotions can be categorized as joy, sadness, surprise or happiness. If the user enters a value that compliments the agent or if the surrounding environment is bright, the agent selects an emotion such as joy or happiness in response thereto. After you choose an emotion, you express your emotions by sounds, actions, or facial expressions.
이러한 감정 표출 장치(JP 2001-209820)는 외부의 자극에 대응한 감정을 선 택하기 때문에 서로 다른 외부의 자극에 대하여는 다양한 감정을 표현한다. 그러나, 사용자가 연속하여 동일한 자극을 입력하거나 또는 주변 환경이 크게 변화하지 않고 동일한 환경이 지속되는 경우에는 동일하거나 유사한 외부의 자극에 대하여 에이전트는 동일한 감정 표현을 반복하게 된다. 따라서, 이러한 에이전트는 반복된 감정 표현을 피하는 생명체적 특성이 부족하므로 사용자는 동일한 감정을 반복하여 표현하는 에이전트에 대해 흥미를 잃게 되는 문제가 있다.Since the emotion expression apparatus JP 2001-209820 selects emotions corresponding to external stimuli, various emotions are expressed with respect to different external stimuli. However, if the user continuously inputs the same stimulus or if the environment does not change significantly and the same environment persists, the agent repeats the same emotional expression for the same or similar external stimulus. Therefore, since such agents lack the biological characteristics of avoiding repeated emotional expressions, the user loses interest in agents that repeatedly express the same emotions.
본 발명이 이루고자 하는 기술적 과제는, 외부의 자극에 따른 감정을 생명체와 같이 다양하게 표현하는 에이전트 감정 생성 방법을 제공하는데 있다.An object of the present invention is to provide an agent emotion generation method for expressing emotions caused by external stimuli in various ways, such as living beings.
본 발명이 이루고자 하는 다른 기술적 과제는, 외부의 자극에 따른 감정을 생명체와 같이 다양하게 표현하는 에이전트 감정 생성 장치를 제공하는 데 있다.Another object of the present invention is to provide an agent emotion generating apparatus that variously expresses emotions caused by external stimuli such as living beings.
상기 과제를 이루기 위해, 외부의 자극을 인식하여 이에 해당하는 감정을 선택하되, 인간의 기본 감정에 따라 분류된 제1 감정들 중에서 선택하고, 상기 선택된 제1 감정을 이용하여 에이전트의 감정을 생성하는 본 발명에 의한 에이전트 감정 생성 방법은, 상기 외부의 자극을 상기 에이전트 내부의 상태 정보에 따라 증감하고, 상기 선택된 제1 감정을 소정의 개수로 상세 분류한 제2 감정들 중에서 증감된 결과에 해당하는 제2 감정을 선택하는 단계 및 이전에 표현된 감정에 대한 정보를 이용하여 상기 선택된 제2 감정의 강도를 조정하는 단계로 이루어지고, 상기 상태 정보는 상기 에이전트의 시변화함수에 해당하는 것이 바람직하다. In order to achieve the task, the external stimulus recognizes the external stimulus and selects the corresponding emotion, selects among the first emotions classified according to the basic human emotion, and generates the emotion of the agent using the selected first emotion The agent emotion generating method according to the present invention may increase or decrease the external stimulus according to the state information inside the agent and correspond to the result of increase or decrease among the second emotions in which the selected first emotion is classified into a predetermined number. Selecting a second emotion and adjusting intensity of the selected second emotion by using information on the previously expressed emotion, wherein the state information corresponds to a time varying function of the agent. .
상기 다른 과제를 이루기 위해, 외부의 자극을 감지하는 감지부, 감지된 상기 자극에 해당하는 감정을 인간의 기본 감정에 따라 분류된 제1 감정들 중에서 선택하는 제1 감정 선택부 및 상기 선택된 제1 감정을 표현하는 표현부를 갖는 본 발명에 의한 에이전트 감정 생성 장치는, 상기 감지부에서 감지된 상기 자극을 상기 에이전트 내부의 상태 정보에 상응하여 변형하고, 선택된 상기 제1 감정을 소정의 개수로 상세 분류한 제2 감정들 중에서 변형된 자극에 상응하는 제2 감정을 선택하는 자극 변형부 및 상기 선택된 제2 감정의 강도를 이전에 표현된 감정에 대한 정보에 의해 조정하고, 조정된 결과를 상기 표현부로 출력하는 감정 조정부로 구성되고, 상기 표현부는 상기 조정된 결과로부터 선택된 상기 제2 감정을 표현하는 것이 바람직하다.In order to achieve the above object, a sensor for sensing an external stimulus, a first emotion selector for selecting an emotion corresponding to the detected stimulus among first emotions classified according to a basic human emotion, and the selected first The agent emotion generating apparatus according to the present invention having an expression unit for expressing emotions may be configured to modify the stimulus detected by the detection unit according to the state information inside the agent, and to further classify the selected first emotions into a predetermined number. A stimulus deformer that selects a second emotion corresponding to the modified stimulus among the second emotions and the intensity of the selected second emotion are adjusted by the information on the previously expressed emotion, and the adjusted result is sent to the expression part. And an emotion adjustment unit for outputting, wherein the expression unit expresses the second emotion selected from the adjusted result.
이하, 본 발명에 의한 에이전트 감정 생성 방법 및 이를 수행하는 에이전트 감정 생성 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다. Hereinafter, a configuration and an operation of an agent emotion generating method and an agent emotion generating apparatus for performing the same according to the present invention will be described as follows.
도 1은 본 발명에 의한 에이전트 감정 생성 방법을 설명하기 위한 플로우차트로서, 외부의 자극을 증감하여 제2 감정을 선택하고 감정의 강도를 조정하는 단계(제10 ~ 제12 단계들)로 이루어진다.1 is a flowchart illustrating a method for generating an agent emotion according to the present invention, comprising selecting a second emotion by adjusting an external stimulus and adjusting intensity of emotion (10 th to 12 th steps).
도 2는 본 발명에 의한 에이전트 감정 생성 방법을 수행하는 본 발명에 의한 에이전트 감정 생성 장치의 블록도로서, 감지부(20), 제1 감정 선택부(22), 자극 변형부(24), 감정 조정부(26) 및 표현부(28)로 구성된다. 2 is a block diagram of the agent emotion generating apparatus according to the present invention for performing the agent emotion generating method according to the present invention. The
먼저, 외부의 자극을 에이전트 내부의 상태 정보에 따라 증감하고, 제1 감정 을 분류한 제2 감정들 중에서 증감된 결과에 해당하는 제2 감정을 선택한다(제10 단계). 여기서 제1 감정이란 생명체 예를 들면 인간이 외부의 자극에 반응하여 표현하는 기분의 개략적인 상태를 의미하고, 예를 들어, 기쁨, 화남, 슬픔, 사랑, 놀람 또는 우울함 등의 인간의 기본 감정 또는 감성 상태가 될 수 있으며, 또한, 제2 감정이란 상술한 바와 같이 인간의 기본 감정으로 크게 분류된 제1 감정을 세부적으로 상세히 분류한 감정이다. 예를 들면, 제1 감정이 기쁨일 경우 제2 감정은 웃는 표정을 짓는 것, 소리를 지르는 것 또는 기쁨을 행동으로 표현하는 것 등으로 구현될 수 있고, 제1 감정이 슬픔일 경우 제2 감정은 흐느껴 우는 것, 크게 소리내어 우는 것 또는 슬픈 표정을 짓는 것 등으로 구현 될 수 있고, 제1 감정이 놀람일 경우 제2 감정은 놀란 표정을 짓는 것 또는 놀라서 소리를 지르는 것 등으로 구현될 수 있다. First, the external stimulus is increased or decreased according to the state information inside the agent, and a second emotion corresponding to the increased or decreased result is selected from the second emotions that classify the first emotion (step 10). Here, the first emotion means a rough state of life, for example, a human feeling in response to an external stimulus, and includes, for example, basic human emotions such as joy, anger, sadness, love, surprise, or depression, or As described above, the second emotion is an emotion in which the first emotion, which is largely classified as the basic human emotion, is classified in detail. For example, when the first emotion is joy, the second emotion may be embodied by making a smiley expression, screaming or expressing joy as an action, and when the first emotion is sadness, the second emotion. Can be embodied as weeping, crying loudly, or making a sad expression, and when the first emotion is a surprise, the second emotion can be implemented by making a surprised expression or screaming in amazement. have.
사용자가 입력하는 의도 또는 주변 환경 등의 외부 자극은 입력 단자 IN을 통해 감지부(20)에 입력된다. 감지부(20)는 센서(sensor) 또는 입력 패널(panel) 등으로 구현될 수 있고, 감지부(20)에서 감지된 결과는 제1 감정 선택부(22) 및 자극 변형부(22)로 출력된다. 이 때, 제1 감정 선택부(22)는 입력된 자극에 해당하는 감정을 제1 감정들 중에서 선택하고, 선택한 감정을 자극 변형부(24)로 출력한다. 자극 변형부(24)는 감지부(20)로부터 입력된 자극을 에이전트 내부의 상태 정보를 이용하여 증가하거나 감소하고, 제1 감정 선택부에서 선택된 제1 감정을 분류한 제2 감정들 중에서 증감된 자극에 해당하는 제2 감정을 선택한다. 이 때, 상태 정보는 에이전트 내부의 감정 변화 패턴에 해당한다.
External stimuli such as the intention input by the user or the surrounding environment are input to the
예를 들어, 사용자가 에이전트에게 화를 내는 자극을 입력하면 제1 감정 선택부(22)는 자극에 해당하는 제1 감정인 우울함을 선택한다. 그 후, 자극 변형부(24)는 에이전트 내부의 감정 상태에 따라서 입력된 자극을 증감하고, 우울함 중에서 증감된 자극에 해당하는 제2 감정, 즉 우울한 표정을 짓는 항목 또는 흐느껴 우는 항목 등의 감정을 선택한다. For example, when a user inputs an stimulus that is angry with an agent, the
제10 단계 후에, 이전에 표현된 감정에 대한 정보를 이용하여 선택된 제2 감정의 강도를 조정한다(제12 단계). 생명체는 반복되는 감정 표현을 피하는 본능이 있으므로, 이전에 표현된 감정이 연속적으로 선택되면, 선택된 감정이 표현되는 강도를 조정한다. 이를 위해, 감정 조정부(26)는 이전에 표현된 감정에 대한 정보를 이용하여 선택된 감정이 소정 기간 이내에 표현된 것이라면 선택된 감정의 강도를 조정하고, 조정한 결과를 표현부(28)로 출력한다. 그 후, 표현부(28)는 소리나 표정 등으로 자극에 대응한 감정을 표현한다. 예를 들어, 선택된 제2 감정이 흐느껴 우는 항목일 때 이것이 연속적으로 선택되었다면 감정 조정부(26)는 울음의 강도를 조정하고, 표현부(28)는 강도가 조정된 울음을 표현한다. After the tenth step, the intensity of the selected second emotion is adjusted using the information about the previously expressed emotion (step 12). Since life has the instinct to avoid repeated emotional expressions, if a previously expressed emotion is continuously selected, it adjusts the intensity at which the selected emotion is expressed. To this end, the
이하, 도 1에 도시된 제10 단계에 대한 본 발명에 의한 바람직한 일 실시예 및 이를 수행하는 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, with reference to the accompanying drawings the configuration and operation of a preferred embodiment according to the present invention with respect to the tenth step shown in Figure 1 and the apparatus for performing the same will be described as follows.
도 3은 도 1에 도시된 제10 단계에 대한 바람직한 일 실시예를 설명하기 위한 플로우차트로서, 상태 정보와 상관 관계를 이용하여 외부의 자극을 증감하고, 제2 감정을 선택하는 단계(제30 ~ 제36 단계들)로 이루어진다. 3 is a flowchart for describing a preferred embodiment of the tenth step illustrated in FIG. 1, in which an external stimulus is increased or decreased by using correlation with state information, and a second emotion is selected (30th step). To 36 steps).
도 4는 도 2에 도시된 자극 변형부(24)에 대한 바람직한 일 실시예를 설명하기 위한 블록도로서, 상태 정보 생성부(40), 상관 관계 계산부(42), 자극 증감부(44) 및 제2 감정 선택부(46)로 구성된다.FIG. 4 is a block diagram illustrating a preferred embodiment of the
도 7은 제2 감정 항목의 포맷을 설명하는 도면으로서, R00, R01, R02, …,R n 으로서 구성된다.7 is a view for explaining the format of the second emotion item, R 00 , R 01 , R 02,. And R n .
먼저, 에이전트 내부의 상태에 대한 정보를 생성한다(제30 단계). 에이전트 내부의 상태에 대한 정보는 생명체와 유사하게 신체의 컨디션, 감성의 정도 등이 될 수 있다. 이를 위해, 상태 정보 생성부(40)는 미리 입력된 프로그램에 따라 상태 정보를 생성하고, 생성한 상태 정보를 상관 관계 계산부(42) 및 자극 증감부(44)로 출력한다. 예를 들어, 상태 정보가 시간에 따라 인간의 생체 변화를 나타내는 신체 리듬, 지성 리듬 및 감성 리듬이라면 이러한 바이오 리듬에 관한 프로그램이 초기에 에이전트에 입력되고, 상태 정보 생성부(40)는 입력된 바이오 리듬에 관한 프로그램에 따라 에이전트의 상태 정보를 시간의 함수로 계산하여 생성하고, 생성한 결과를 출력한다. First, information about a state inside an agent is generated (step 30). Information about the state inside the agent may be similar to the living body, such as the condition of the body, the degree of sensitivity. To this end, the
제30 단계 후에, 외부의 자극과 생성된 상태 정보 사이의 상관 관계를 구한다(제32 단계). 이를 위해, 상관 관계 계산부(42)는 입력 단자 IN 1으로부터 입력한 외부의 자극과 상태 정보 생성부(40)로부터 입력한 상태 정보를 이용하여 이들의 상관 관계를 구한다. 외부의 자극과 내부의 상태 정보 사이의 상관 관계는 에이전트의 감정 상태에 따른 외부 자극과의 가중치로서 자극의 종류나 에이전트 내부의 감정 변화 패턴에 따라 미리 프로그램 되어 입력될 수 있다.
After the thirtieth step, a correlation between the external stimulus and the generated state information is obtained (step 32). To this end, the
제32 단계 후에, 외부의 자극에 상태 정보 및 상관 관계를 곱해서 외부의 자극을 증가하거나 감소한다(제34 단계). 따라서 에이전트 내부의 상태에 맞는 변형된 자극을 생성하게 된다. 자극 증감부(44)는 입력 단자 IN 1을 통해 입력된 외부의 자극과 상관 관계 계산부(42)로부터 입력한 상관 관계 및 상태 정보 생성부(40)로부터 입력한 상태 정보를 곱해서 변형된 자극을 생성하고, 생성한 결과를 제2 감정 선택부(46)로 출력한다. 예를 들어, 사용자가 에이전트에게 칭찬하는 자극을 입력하였어도 에이전트 내부의 감성 리듬이 저조한 상태에 있다면 자극 증감부(44)는 칭찬하는 자극의 값을 감소한다. 입력 단자 IN 1을 통해 입력한 외부의 자극이 Si 이고, 내부의 상태 정보를 Fj 라 하고, 이들의 상관 관계를 Wij 라 한다면 새로이 증감되어 생성된 자극인 Si'는 수학식 1과 같이 표현된다. After the thirty-second step, the external stimulus is multiplied by the state information and correlation to increase or decrease the external stimulus (step 34). Therefore, it creates a modified stimulus for the state inside the agent. The
또한, 외부의 자극 Si와 내부의 상태 정보 Fj의 상관 관계인 Wij는 표 1과 같이 구현될 수 있다. 예를 들어, 외부의 자극이 S01이고, 내부의 상태 정보가 F1이라면 이들의 상관 관계인 W011는 0.7이된다. 따라서, S01값, F1값 및 W011 값인 0.7을 곱하면 변형된 자극인 Si'값을 구할 수 있다. In addition, W ij, which is a correlation between the external magnetic pole S i and the internal state information F j , may be implemented as shown in Table 1. For example, if the external stimulus is S 01 and the internal state information is F 1, the correlation W 011 is 0.7. Therefore, by multiplying the S 01 value, the F 1 value, and the W 011 value by 0.7, the modified stimulus S i 'can be obtained.
제34 단계 후에, 증감된 자극에 해당하는 제2 감정을 선택한다(제36 단계). 이를 위해, 제2 감정 선택부(46)는 자극 증감부(44)로부터 입력한 변형된 자극에 상응하여 입력 단자 IN 2로부터 입력한 제1 감정을 분류한 제2 감정을 선택한다. 예를 들어, 제1 감정이 기쁨(joy) 또는 슬픔(grief)이라면 제2 감정은 도 7과 같이 R00, R01, R02, …,Rn 등이 될 수 있다. 이 때, 제1 감정이 기쁨(joy)이라면 제2 감정인 R00, R01, R02, …,Rn 등은 웃음을 짓는 표정 항목, 소리를 지르는 항목, 기쁨을 표현하는 행동 항목 등으로 구현 될 수 있다.
After
이하, 도 1에 도시된 제12 단계에 대한 본 발명에 의한 바람직한 일 실시예 및 이를 수행하는 장치의 구성 및 동작을 첨부한 도면들을 참조하여 다음과 같이 설명한다.Hereinafter, with reference to the accompanying drawings the configuration and operation of a preferred embodiment according to the present invention for the twelfth step shown in Figure 1 and the apparatus for performing the same will be described as follows.
도 5는 도 1에 도시된 제12 단계에 대한 바람직한 일 실시예를 설명하기 위한 플로우차트로서, 제2 감정의 연속된 빈도수가 소정값 이상인가의 여부에 따라 선택된 제2 감정의 표현의 강도를 조정하는 단계(제50 ~ 제56 단계들)로 이루어진다. FIG. 5 is a flowchart for explaining a preferred embodiment of the twelfth step shown in FIG. 1, wherein the intensity of the expression of the second emotion selected according to whether or not the continuous frequency of the second emotion is greater than or equal to a predetermined value. Adjusting step (50th to 56th steps).
도 6은 도 2에 도시된 감정 조정부(26)에 대한 바람직한 일 실시예를 설명하기 위한 블록도로서, 저장부(60), 빈도수 계산부(62), 비교부(64) 및 강도 조정부(66)로 구성된다. FIG. 6 is a block diagram illustrating an exemplary embodiment of the
먼저, 선택된 제2 감정의 연속된 빈도수를 구한다(제50 단계). 이를 위해, 빈도수 계산부(62)는 입력 단자 IN 1으로부터 입력한 현재 선택된 제2 감정과 저장부(60)로부터 입력한 이전에 표현된 제2 감정에 대한 정보를 참고하여 현재 선택된 제2 감정의 연속된 빈도수를 계산하고, 계산된 결과를 비교부(64)로 출력한다. First, a continuous frequency of the selected second emotion is calculated (step 50). To this end, the
제50 단계 후에, 구해진 연속된 빈도수가 소정값 이상인가를 판단한다(제52 단계). 이를 위해, 비교부(64)는 빈도수 계산부(62)로부터 입력한 제2 감정의 연속된 빈도수와 입력 단자 IN 2로부터 입력한 소정값을 비교하고, 비교된 결과를 강도 조정부(66)로 출력한다. 이 때, 소정값은 사용자 또는 제조자에 의해 결정되어질 수 있다. After the fifty step, it is determined whether the obtained continuous frequency is equal to or greater than a predetermined value (step 52). To this end, the comparing
만일, 연속된 빈도수가 소정값 이상인 것으로 판단되면, 선택된 제2 감정에 대한 표현의 강도를 조정한다(제54 단계). 생명체는 동일한 자극이 연속적으로 계속되면 감정의 강도를 증가하여 표현하거나 또는 감소하는 경향이 있으므로 이와 유사하게 강도 조정부(66)는 비교부(64)로부터 입력한 결과에 따라 연속된 빈도수가 소정값 이상이면 입력 단자 IN 1으로부터 입력한 제2 감정의 표현 강도를 조정한다. 예를 들어, 사용자가 에이전트에게 화를 내는 자극을 입력하여 에이전트가 우울함 중 흐느껴 우는 항목을 표현할 때, 자극이 계속되어 흐느껴 우는 항목이 연속적으로 표현되어진다면 강도 조정부(66)는 울음의 강도를 높이기 위해 소리를 크게 증가하거나 또는 강도를 감소할 수 있다. If it is determined that the continuous frequency is greater than or equal to the predetermined value, the intensity of the expression for the selected second emotion is adjusted (step 54). Since a living organism tends to express or decrease the intensity of emotion when the same stimulus continues continuously, the
제54 단계 후에, 표현된 제2 감정의 연속된 빈도수를 1 증가한다(제56 단계). 이를 위해, 저장부(60)는 강도 조정부(66)로부터 출력 단자 OUT으로 출력되는 제2 감정에 대한 정보를 저장한다. After the 54th step, the successive frequency of the expressed second emotion is increased by 1 (step 56). To this end, the
만일, 연속된 빈도수가 소정값보다 적은 것으로 판단되면, 선택된 제2 감정에 대한 표현의 강도를 조정함이 없이 연속된 빈도수를 1 증가한다(제56 단계). 따라서, 비교부(64)는 제2 감정의 연속된 빈도수가 소정값보다 적다는 결과를 강도 조정부(66)로 출력하고 강도 조정부(66)는 이에 따라 입력 단자 IN 1으로부터 입력한 제2 감정의 강도를 조정함이 없이 출력 단자 OUT으로 출력한다. 저장부(60)는 강도 조정부(66)로부터 출력 단자 OUT으로 출력되는 제2 감정에 대한 정보를 저장한다. If it is determined that the continuous frequency is less than the predetermined value, the continuous frequency is increased by one without adjusting the intensity of the expression for the selected second emotion (step 56). Accordingly, the comparing
이상에서 설명한 바와 같이, 본 발명에 의한 에이전트 감정 생성 방법 및 장 치는 내부의 상태 정보에 따라 외부의 자극을 증감하므로 동일한 외부의 자극에 대하여도 다양한 감정을 표현할 수 있고, 이전에 표현된 감정에 대한 정보에 따라 현재 표현되는 감정의 강도를 증가시키므로 에이전트가 좀더 생명체와 유사한 느낌이 들도록 하고 사용자로 하여금 흥미를 유발시킬 수 있는 효과가 있다. As described above, the agent emotion generating method and device according to the present invention increase and decrease external stimuli according to internal state information, and thus, various emotions can be expressed with respect to the same external stimulus, Increasing the intensity of the emotion that is currently being expressed according to the information has the effect of making the agent feel more lifelike and induce the user's interest.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020000324A KR100858079B1 (en) | 2002-01-03 | 2002-01-03 | Method and apparatus for generating emotion of the agent |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020000324A KR100858079B1 (en) | 2002-01-03 | 2002-01-03 | Method and apparatus for generating emotion of the agent |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20030059917A KR20030059917A (en) | 2003-07-12 |
KR100858079B1 true KR100858079B1 (en) | 2008-09-10 |
Family
ID=32216894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020020000324A KR100858079B1 (en) | 2002-01-03 | 2002-01-03 | Method and apparatus for generating emotion of the agent |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100858079B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240051517A (en) | 2022-10-13 | 2024-04-22 | 주식회사 로아이젠 | Cognitive-based service response system accompanied by emotions of intelligent robots and cognitive-based service response method using the same |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100819248B1 (en) * | 2006-09-05 | 2008-04-02 | 삼성전자주식회사 | Method for changing emotion of software robot |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5367454A (en) * | 1992-06-26 | 1994-11-22 | Fuji Xerox Co., Ltd. | Interactive man-machine interface for simulating human emotions |
JP2001157980A (en) * | 1999-11-30 | 2001-06-12 | Sony Corp | Robot device, and control method thereof |
KR20010052699A (en) * | 1998-11-30 | 2001-06-25 | 이데이 노부유끼 | Robot, method of robot control, and program recording medium |
KR20010091219A (en) * | 2000-03-14 | 2001-10-23 | 조영익 | Method for retargetting facial expression to new faces |
-
2002
- 2002-01-03 KR KR1020020000324A patent/KR100858079B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5367454A (en) * | 1992-06-26 | 1994-11-22 | Fuji Xerox Co., Ltd. | Interactive man-machine interface for simulating human emotions |
KR20010052699A (en) * | 1998-11-30 | 2001-06-25 | 이데이 노부유끼 | Robot, method of robot control, and program recording medium |
JP2001157980A (en) * | 1999-11-30 | 2001-06-12 | Sony Corp | Robot device, and control method thereof |
KR20010091219A (en) * | 2000-03-14 | 2001-10-23 | 조영익 | Method for retargetting facial expression to new faces |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240051517A (en) | 2022-10-13 | 2024-04-22 | 주식회사 로아이젠 | Cognitive-based service response system accompanied by emotions of intelligent robots and cognitive-based service response method using the same |
Also Published As
Publication number | Publication date |
---|---|
KR20030059917A (en) | 2003-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8494982B2 (en) | Emotion model, apparatus, and method for adaptively modifying personality features of emotion model | |
US11670324B2 (en) | Method for predicting emotion status and robot | |
JP2005199403A (en) | Emotion recognition device and method, emotion recognition method of robot device, learning method of robot device and robot device | |
JP3178393B2 (en) | Action generation device, action generation method, and action generation program recording medium | |
EP1256931A1 (en) | Method and apparatus for voice synthesis and robot apparatus | |
KR100624403B1 (en) | Human nervous-system-based emotion synthesizing device and method for the same | |
US6519506B2 (en) | Robot and control method for controlling the robot's emotions | |
US20060015216A1 (en) | Information processing apparatus and method, program storage medium, and program | |
CN108009573B (en) | Robot emotion model generation method, emotion model and interaction method | |
KR101028814B1 (en) | Software robot apparatus and method for expressing behavior of software robot | |
WO2003097308A1 (en) | Robot device and robot control method | |
JP2005199402A (en) | Behavior control system and method of robot device | |
WO2001072478A1 (en) | Robot device, robot device action control method, external force detecting device and external force detecting method | |
JP2002018146A (en) | Interactive toy, reaction behavior generator and reaction behavior pattern generation method | |
US8972313B2 (en) | Apparatus and method for learning emotion of robot | |
JPWO2005093650A1 (en) | Will expression model device, psychological effect program, will expression simulation method | |
KR20130082701A (en) | Emotion recognition avatar service apparatus and method using artificial intelligences | |
WO2000067959A1 (en) | Robot device and method for controlling the same | |
JP6201212B2 (en) | Character generating apparatus and program | |
KR20030037774A (en) | Object growth control system and method | |
JP2002160185A (en) | Robot device, behavior controlling method for robot device and device and method for detecting external force | |
KR20190079255A (en) | System for learning of robot service and method thereof | |
KR100858079B1 (en) | Method and apparatus for generating emotion of the agent | |
US9324245B2 (en) | Apparatus and method for creating artificial feelings | |
JP2001212783A (en) | Robot device and control method for it |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120830 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20130829 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140828 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150828 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20160830 Year of fee payment: 9 |