WO2005101216A1 - チャットシステム、通信装置、その制御方法及び情報記憶媒体 - Google Patents

チャットシステム、通信装置、その制御方法及び情報記憶媒体 Download PDF

Info

Publication number
WO2005101216A1
WO2005101216A1 PCT/JP2004/010936 JP2004010936W WO2005101216A1 WO 2005101216 A1 WO2005101216 A1 WO 2005101216A1 JP 2004010936 W JP2004010936 W JP 2004010936W WO 2005101216 A1 WO2005101216 A1 WO 2005101216A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
message
character string
input
string
Prior art date
Application number
PCT/JP2004/010936
Other languages
English (en)
French (fr)
Inventor
Hideaki Sato
Mikio Saito
Takao Yamagishi
Original Assignee
Konami Digital Entertainment Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co., Ltd. filed Critical Konami Digital Entertainment Co., Ltd.
Priority to EP04771096A priority Critical patent/EP1734453A4/en
Publication of WO2005101216A1 publication Critical patent/WO2005101216A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation

Definitions

  • the present invention relates to a chat system, a communication device used in the chat system, a control method of the communication device, and an information storage medium, and more particularly to a system that outputs an image or the like representing a user's emotion.
  • the message sender cannot transmit the information to the other party unless the information indicating the content of the emotion is input one by one. That's it.
  • the present invention has been made in view of the above problems, and has as its object to provide a chat system capable of judging a change in the emotion of a message sender with a simple configuration and outputting the change on the receiving side.
  • Another object of the present invention is to provide a communication device used for a chat system, a control method of the communication device, and an information storage medium.
  • a chat system configured to include a plurality of devices. Each device inputs a message character string and transmits the message character string to another device. In the chat system that receives and outputs the message character string, the other message character string is input from a certain message character string input timing. Means for determining an emotion level according to the elapsed time until the input timing of the other, and means for outputting, in the another device, at least one of an image and a sound according to the determined emotion level.
  • the emotion level is determined according to the elapsed time until the input timing of a certain message character string and the input timing of another message character string. Therefore, the message receiver can intuitively grasp the emotion without burdening the message sender.
  • the sound is, for example, a voice, music, or the like (the same applies hereinafter).
  • a chat system is a chat system including a first device and a second device, wherein the first device includes a means for inputting a message character string, and an emotion type indicating an emotion type. Means for inputting data, means for transmitting the input message character string to the second device, and means for transmitting the input emotion type data to the second device, wherein the second device Means for receiving the message character string from the first device, means for receiving the emotion type data from the first device, means for outputting the received message character string, and the first device Means for acquiring an emotion level determined according to the input timing of the message character string in the above, and an image or a picture corresponding to the received emotion type data and the acquired emotion level Characterized in that it comprises a means for outputting at least one of.
  • the image and sound corresponding to the emotion type data input in the first device and the emotion level determined in accordance with the input timing of the message character string in the first device are converted to the second image. Since the message is output by the device, the message receiver can intuitively understand the emotion without putting a burden on the message sender.
  • the "emotional type data” is data indicating the type of emotion of the message sender, such as emotions and emotions.
  • the “timing of inputting the message character string in the first device” refers to the timing when the input of the message character string is completed in the first device and the timing when the message character string is transmitted from the first device to the second device.
  • the timing at which the message string is received or output by the second device, the timing at which the message string is received or transmitted by the relay device that relays the communication between the first device and the second device, etc. Includes all timings corresponding to the input timing of the message string in one device.
  • a communication device is a communication device used for a chat system, wherein: a means for inputting a message character string; a means for inputting emotion type data indicating an emotion type; Means for determining the emotion level according to the input timing of the sequence, means for transmitting the input message character string, means for transmitting the input emotion type data, and setting the emotion level to be determined. Transmitting means.
  • the method according to the present invention is a control method of a communication device used in a chat system, wherein a step of receiving an input of a message character string and a step of receiving an input of emotion type data indicating an emotion type. Determining the emotion level according to the input timing of the message character string, transmitting the input message character string, and transmitting the input emotion type data. Transmitting the emotion level.
  • the information storage medium storing the program according to the present invention includes a means for inputting a message character string, a means for inputting emotion type data indicating an emotion type, and an input timing for the message character string. Functioning a computer as means for determining an emotion level, means for transmitting the input message character string, means for transmitting the input emotion type data, and means for transmitting the determined emotion level.
  • a communication device is a communication device used for a chat system, wherein: a means for receiving a message character string; a means for receiving emotion type data; Outputting means, means for determining an emotion level according to the input timing of the message character string, and outputting at least one of the received emotion type data and an image or sound corresponding to the determined emotion level. And means.
  • a method is a method for controlling a communication device used in a chat system, comprising: a step of receiving a message character string; a step of receiving emotion type data; Outputting a sequence, determining an emotion level according to the input timing of the message character string, and converting at least one of the received emotion type data and the image or sound according to the determined emotion level. And outputting.
  • the information storage medium storing the program according to the present invention includes: a means for receiving a message character string; a means for receiving emotion type data; a means for outputting the received message character string; A computer is caused to function as means for determining an emotion level according to the input timing of a column, and means for outputting at least one of the received emotion type data and an image or sound corresponding to the determined emotion level.
  • a computer is caused to function as means for determining an emotion level according to the input timing of a column, and means for outputting at least one of the received emotion type data and an image or sound corresponding to the determined emotion level.
  • the emotion level is further determined according to the character amount of the message character string.
  • the character amount of the message character string is, for example, the number of characters in the message character string itself, the difficulty of inputting special kanji characters, the number of characters, and the number of characters weighted. According to this aspect, it is possible to appropriately evaluate whether the message character string has been input quickly or conversely, etc., and determine an appropriate emotion level accordingly.
  • the emotion level is determined according to an input interval of the message character string in the first device. In this way, when the message sender is inputting the message character strings one after another, the emotion level can be determined as, for example, very happy or very angry.
  • the second device further includes: means for inputting a message character string 1J; and means for transmitting the input message character string to the first device.
  • the first device further includes means for receiving the message character string from the second device, and means for outputting the received message character string, wherein the emotion level is It is determined according to the difference between the input timing of the message character string in the second device and the input timing of the message character string in the first device.
  • the "input timing of the message character string in the second device” is a timing at which the input of the message character string is completed in the second device, a message character addressed from the second device to the first device.
  • the message string is received or output by the first device, the message string is received or transmitted by the relay device that relays the communication between the first device and the second device. This includes any timing corresponding to the input timing of the message character string in the second device, such as the timing at which the message is input.
  • FIG. 1 is a diagram showing an overall configuration of a chat system according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of a chat screen.
  • FIG. 3 is a diagram showing an example of a chat log.
  • FIG. 4 is a diagram showing an avatar image group corresponding to an emotion type “Kiraku”.
  • FIG. 5 is a diagram showing an avatar image group corresponding to an emotion type “anger”.
  • FIG. 6 is a diagram showing an avatar image group corresponding to an emotion type “sorrow”.
  • FIG. 7 is a diagram for explaining how an avatar image changes.
  • FIG. 8 is a functional block diagram of a server.
  • FIG. 9 is a diagram showing storage contents of an emotion data storage unit.
  • FIG. 10 is a functional block diagram of a client.
  • FIG. 11 is a flowchart showing emotion data management processing in the server.
  • FIG. 12 is a functional block diagram of a client according to a modification.
  • 12 server 14 data communication network, 16A, 16B client, 18 emotion type input field, 20A personal information display area, 20B partner information display area, 22A, 22B balloon Image, 24A, 24B avatar image, 26 message character string input field, 30, 40 communication section, 32, 52 emotion data management section, 34, 50 emotion data storage section, 42 message input section, 44 display section, 46 avatar image Memory unit, 48 emotion type input unit.
  • FIG. 1 is a diagram showing an overall configuration of a chat system according to one embodiment of the present invention.
  • the chat system includes a server 12 and clients 16A and 16B.
  • the server 12 and the clients 16A and 16B are both communicatively connected to a data communication network 14 such as the Internet so that data communication can be performed between them.
  • a data communication network 14 such as the Internet
  • the server 12 is realized by a known server computer mainly configured with a processor, various storage devices, and a data communication device, and manages and relays a chat performed between the client 16A and the client 16B. Things.
  • the client 16 is realized by various computer systems such as a well-known personal computer or a well-known computer game system mainly composed of input means such as a monitor and a keyboard, a processor, various storage devices and a data communication device. Yes, each user has a chat (conversation by sending and receiving message strings).
  • FIG. 2 shows an example of a chat screen displayed on the monitor of the client 16A.
  • a similar chat screen is displayed on the client 16B monitor.
  • a personal information display area 20A corresponding to the user of the client 16A hereinafter, referred to as “user A”
  • a chat partner ie, a client 16B
  • user B a chat partner information display area 20B
  • message character string input box 26 for inputting a message character string
  • an emotion type input box 18 Has been.
  • an avatar image 24A representing the user A is displayed in the personal information display area 20A.
  • a balloon image 22A is displayed below the personal information display area 20A, and a message character string input by the user A is sequentially displayed in the balloon image 22A.
  • An avatar image 24B representing user B is displayed in the partner information display area 20B.
  • a balloon image 22B is displayed below the partner information display area 20B, and a message character string input by the user B is sequentially displayed in the balloon image 22B.
  • the message character string input field 26 is a character string editing area used by the user A to input a message character string (character IJ, which is a message to the other party) using character input means such as a keyboard. By inputting characters in order at the displayed cursor position, the message character string can be completed.
  • the message character string displayed in the same column can be transmitted to the user B as a chat partner.
  • characters such as "happy”, “angry”, and “sad” are displayed, and by selecting one of them by a predetermined emotion type switching operation, an avatar representing the user A is displayed.
  • the user can set and input the emotion type of image 24A. This can change the expression of the avatar image 24A
  • a chat screen similar to that shown in the figure is also displayed on the client 16B used by the chat partner, in which the same image as the avatar image 24A is displayed in the partner information display area. Is displayed in. The same image power as the avatar image 24B is displayed in the personal information display area. For this reason, when the user A sets and inputs the emotion type of the avatar image 24A in the emotion type input field 18 and changes the expression of the avatar image 24A, the information is displayed in the partner information display area of the chat screen of the client 16B in accordance with the change.
  • the displayed avatar image also shows a similar facial expression change. In this way, it is possible to convey emotions to the chat partner, that is, user B, using the avatar image that is not composed of only characters.
  • the client 16 can display a chat log on a monitor by performing a specific operation.
  • Figure 3 shows an example of this chat log.
  • the chat log is composed of characters (here, ⁇ A '' or ⁇ B '') that identify users A and B who are chat parties, and a message string that is a statement of the chat parties.
  • the message character string is displayed, the image corresponding to the emotion type and emotion level corresponding to the chat party who input the message character string is associated with the time series. It is displayed in a column.
  • the chat screen already described only the latest statement is ballooned out and displayed only in images 22A and 22B, and past statements are not displayed.However, by displaying the chat log shown in the same figure, it is immediately displayed. Now you can understand.
  • the avatar images 24A and 24B are stored in advance in a storage unit of the client 16, and are selectively read out from the storage unit and displayed on a monitor.
  • 4 to 6 show avatar image groups stored in the storage means of the client 16.
  • FIG. 4 shows an avatar image group corresponding to the emotion type “Kiraku”. More specifically, FIG. 7A shows an avatar image group corresponding to the emotion type “pleasure” and the emotion level “1”.
  • FIG. 3B shows an avatar image group corresponding to the emotion type “Kiraku” and the emotion level “2”, and
  • FIG. An avatar image group corresponding to the velvet “3” is shown, and
  • FIG. 11D shows an avatar image group corresponding to the emotion type “Kiraku” and the emotion level “4”.
  • the client 16 has a force S in which a plurality of avatar images are stored in association with the same emotion type and the same emotion level, and these are avatar images showing different characters. That is, in this chat system, a plurality of characters depicting, for example, "male in their twenties”, “female in their twenties”, “female in their forties”, etc., are prepared. An image (avatar image) corresponding to the emotion level is created in advance. In the present embodiment, the user specifies in advance the character to be used as his / her avatar image. In the chat screen shown in FIG. 2, the image of the character thus specified by the user is used as the avatar image of the user. It is displayed.
  • FIG. 5 shows an avatar image group corresponding to the emotion type “anger”.
  • FIG. 7A shows an avatar image group corresponding to the emotion type “anger” and the emotion level “1”.
  • FIG. 2B shows the emotion type “anger”.
  • FIG. 10C shows an avatar image group corresponding to the emotion type “anger” and the emotion level “3”.
  • FIG. 4D shows an avatar image group corresponding to the emotion type “anger” and the emotion level “4”.
  • FIG. 6 shows an avatar image group corresponding to the emotion type “sorrow”.
  • FIG. 1A shows an avatar image group corresponding to the emotion type “sad” and the emotion level “1”.
  • FIG. 3B shows an avatar image group corresponding to the emotion type “sorrow” and the emotion level “2”
  • FIG. An avatar image group corresponding to “3” is shown
  • FIG. 11D shows an avatar image group corresponding to the emotion type “sorrow” and the emotion level “4”.
  • FIG. 7 is a diagram for explaining a facial expression change of avatar images corresponding to user A and user B.
  • characters A or "B" that identify the user who transmitted the message character string or performed the emotion type switching operation are described.
  • the second column the contents of the transmitted message character string or the fact that an emotion type switching operation has been performed are described.
  • the third column shows the expression of the avatar image corresponding to user A
  • the fourth column shows the expression of the avatar image corresponding to user B.
  • “laugh” represents the emotion type “happy”
  • “anger” represents the emotion type “anger”
  • a numerical value such as “1” represents the emotion level.
  • FIG. 8 is a diagram showing a functional configuration of the server 12.
  • the server 12 functionally includes a communication unit 30, an emotion data management unit 32, and an emotion data storage unit 34. These functional blocks are used to execute a predetermined program on the server 12. Is more realized.
  • the communication unit 30 includes, for example, a known data communication card, and performs data communication with the client 16 via the data communication network 14.In particular, the communication unit 30 converts a message character string transmitted from the client 16A. Receive and forward it to client 16B. It also receives the message string sent from client 16B and forwards it to client 16A. At this time, the time when the message character string is received from each client 16 is notified to the emotion data management unit 32 as the input timing of the message character string in the client 16.
  • communication unit 30 When communication unit 30 receives the emotion type data from client 16A or 16B, it passes it to emotion data management unit 32. Further, it receives an emotion data update request indicating the updated content of the emotion data from the emotion data management unit 32, and transmits the request to the client 16A ⁇ the client 16B.
  • the emotion data is data including at least one of the emotion type data and the emotion level.
  • the emotion data management unit 32 manages and distributes the emotion data stored in the emotion data storage unit 34. That is, the emotion data storage unit 34 is configured to include storage means such as a hard disk storage device and a RAM, and stores emotion data.
  • FIG. 9 shows an example of the emotion data stored in the emotion data storage unit 34.
  • the emotion data includes information identifying each user who is chatting, the time at which the user last entered the message character string, and the emotion type currently set (specified). , And the current emotion level.
  • the current emotion type of the user A is “Kiraku”, the emotion level is “2”, and that the previous message string was input at 18:30:25. I have.
  • the current emotion type of user B is “anger”, the emotion level is “1”, and that the input of the immediately preceding message string was made at 18:30:14. Let's do it.
  • emotion data management unit 32 determines the emotion type stored in emotion data storage unit 34 in association with the user of client 16, and stores the emotion type data in the emotion type data. Change to what is shown. At this time, the emotion level stored in the emotion data storage unit 34 in association with the user is initialized to 1.
  • a message string is received from the client 16, and the input of the message string
  • the difference between the time and the previous input time stored in the emotion data storage unit 34 in association with the chat partner of the user who transmitted the message character string is calculated. Calculate. Then, the difference is divided by the character amount of the message character string received from the client 16 to calculate a time difference per unit character amount. If the time difference per unit character amount is less than the first predetermined value, the emotion level stored in emotion data storage unit 34 is increased by 1 in association with the user who transmitted the message character string. Let If the emotion level is already at the maximum value, the same level increase processing is not performed.
  • the time difference per unit character amount is equal to or greater than a second predetermined value different from the first predetermined value
  • the time difference is stored in the emotion data storage unit 34 in association with the user who transmitted the message character string. Decrease your emotion level by one. If the emotion level is already at the lowest level, the same level lowering process is not performed. In this way, when the message character string IJ corresponding to the chat partner's input message character string is promptly input, the emotion level of the user can be raised. If the response is dull, the emotion level of the user can be lowered.
  • the time notified by the communication unit is stored in the emotion data storage unit 34 in association with the user who is the sender of the message character string, thereby updating the previous input time.
  • an update content of the emotion data stored in the emotion data storage unit 34 that is, an emotion data update request indicating at least one of the emotion type data and the emotion level is transmitted to both the client 16A and the client 16B.
  • the time is associated with the user who transmitted the message character string.
  • the difference between the previous input time stored in the emotion data storage unit 34 and the previous time may be calculated. Then, the difference is divided by the character amount of the message character string received from the client 16 to calculate a time difference per unit character amount. If the time difference is less than the first predetermined value, the emotion level stored in the emotion data storage unit 34 is increased by 1 in association with the user who transmitted the message character string, and the first predetermined value is set.
  • the emotion level stored in the emotion data storage unit 34 may be decreased by 1 in association with the user who transmitted the message character string. This In other words, the user who sends message strings one after another raises the emotion level, and conversely, if the interval of sending message strings is long, or if the input operation itself of message strings is slow, the user Emotional level can be lowered.
  • FIG. 10 is a diagram showing a functional configuration of the client 16.
  • the client 16 functionally includes a communication unit 40, a message input unit 42, a display unit 44, an avatar image storage unit 46, an emotion data storage unit 50, and an emotion type input unit 48. It is configured. These functions are realized by executing a predetermined program in the client 16.
  • the communication unit 40 receives the message character string received from the server 12 and supplies it to the display unit 44.
  • emotion data is received from the server 12
  • the content is reflected in the content stored in the emotion data storage unit 50.
  • the message character string is transmitted to the server 12.
  • the communication unit 40 receives emotion type data from the emotion type input unit 48.
  • the emotion type data is transmitted to the server 12.
  • the message input unit 42 particularly includes character input means such as a keyboard, and causes a message character string to be input to the message character string input field 26 of the chat screen.
  • the input message character string is combined with the balloon image 22 on the chat screen on the display unit 44, and is displayed and output on the monitor.
  • the avatar image storage unit 46 is configured to include, for example, a hard disk storage device and the like, and stores the various avatar images shown in FIGS. 4 to 6.
  • the emotion data storage unit 50 stores an emotion type and an emotion level in association with each user who is a chatting party. Among them, particularly, the emotion type corresponding to the user of the client 16 can be set and input by the emotion type input unit 48. In this case, by selecting a character indicating each emotion type in the emotion type input field 18, the emotion type corresponding to the character can be stored in the emotion data storage unit 50 in association with the user of the client 16. You can do it. Also, when the communication unit 40 receives an emotion data update request from the server 12, the emotion data storage unit 50 is updated according to the content of the request.
  • the display unit 44 reads the emotion type and emotion level of each user from the emotion data storage unit 50, and reads an avatar image corresponding to the user from the avatar image storage unit 46. At this time, the display unit 44 acquires the character designation of each user in advance, and reads an avatar image corresponding to the designated character. The read avatar image is displayed by the display unit 44 in the personal information display area 20A and the partner information display area 20B, respectively.
  • FIG. 11 is a flowchart showing emotion data management processing by the server 12.
  • the server 12 monitors whether or not a message string is received from any of the clients 16 (S101).
  • the current time is obtained (S102).
  • the last input time corresponding to the user who is the chat partner is read from the emotion data storage unit 34, and the elapsed time tl from that time to the current time is calculated (S103). If the elapsed time tl is shorter than the first predetermined value TA, the emotion level stored in the emotion data storage unit 34 is increased by 1 in association with the user who is the sender of the message character string.
  • Update (S105).
  • the processing in S105 is not performed.
  • the elapsed time tl is equal to or greater than the first predetermined value TA
  • the process of S105 is skipped.
  • the emotion level updated as described above is transmitted to each client 16 as an emotion data update request (S108). Further, the current time acquired in S102 is stored in the emotion data storage unit 34 in association with the user who is the sender of the message character string. In this way, the last input time is updated.
  • the expression of the avatar image automatically changes according to the input timing of the message character string, so that the expression of the avatar image is changed. No special input is required, and the convenience for the user can be greatly improved.
  • the avatar image is changed according to the input timing of the message character string.
  • the client 16 outputs a sound, and this sound is used as the input timing of the message character string. You may make it change according to it.
  • the sound in this case is music, for example, a voice that reads out a message character string. Even in this case, the emotion of the chat partner can be determined from the change in the sound.
  • the reception time in the server 12 is treated as the input timing of the message character string in the client 16.
  • the current time is acquired when the message character string is input in the client 16. If the message is transmitted to the server 12 in advance, the timing closer to the input timing of the message character string, and the timing can be handled as the input timing of the message character string in the client 16.
  • the input timing of the immediately preceding message character string is set so that the emotion level is increased or decreased in accordance with the elapsed time until the input timing of the current message character string.
  • the emotion level may be associated with the range of the value divided by the amount, so that the emotion level can be rapidly changed. It is also possible to calculate the elapsed time or other statistics such as the average of the value obtained by dividing the elapsed time by the character amount, and determine the emotion level accordingly.
  • FIG. 12 is a diagram showing a functional configuration of the client 16 according to this modification. As shown in the figure, this example is characterized in that an emotion data management unit 52 is provided in the client 16. Other configurations are the same as those in FIG. 10, and the same reference numerals are given here, and detailed description will be omitted.
  • the emotion data management unit 52 receives a message character string from the message input unit 42, and further receives a message character string received from another client 16 from the communication unit 40. Then, when a message character string is input from the message input unit 42, the current time is acquired by a timing unit (not shown), and Read the last input time corresponding to the stored chat partner, and read the elapsed time from there to the current time. Then, similarly to the case of FIG. 11, the emotion level is changed according to the elapsed time. When a message character string is input from the communication unit 40, the current time is obtained by a timing unit (not shown), and the last input time corresponding to the user of the client 16 stored in the emotion data storage unit 50 is stored.
  • the emotion level is changed according to the elapsed time.
  • the timing at which the message string is received at the client 16 is treated as the input timing of the message string.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 メッセージ送信者の感情の変化を簡易な構成で判断し、それを受信側で出力させることができるチャットシステムを提供すること。  複数の装置を含んで構成され、各装置においてメッセージ文字列を入力するとともに、他の装置に送信し、該他の装置において前記メッセージ文字列を受信するとともに、出力するチャットシステムにおいて、あるメッセージ文字列の入力タイミングから別のメッセージ文字列の入力タイミングまでの経過時間に応じて感情レベルを決定する手段と、前記他の装置において、決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含むことを特徴とする。

Description

明 細 書
チャットシステム、通信装置、その制御方法及び情報記憶媒体
技術分野
[0001] 本発明はチャットシステム、チャットシステムに用いる通信装置、通信装置の制御方 法及び情報記憶媒体に関し、特にユーザの感情を表す画像等を出力するシステム に関する。
背景技術
[0002] チャットシステムにおいては、メッセージ送信者の感情を相手方に伝達するために 感情の内容を示す情報を入力させ、それをメッセージとともに、或いはメッセージとは 別に送信して、受信側において、その情報に応じて感情の内容を示す画像、例えば メッセージ送信者が入力した情報に応じた表情のアバター(分身)画像を表示させる ものがあった。こうしたシステムによれば、メッセージ送信者の感情の内容を相手方に 伝達することができ、それにより円滑なコミュニケーションを実現することができる。 発明の開示
発明が解決しょうとする課題
[0003] し力しながら、上記背景技術に係るシステムでは、メッセージ送信者は感情の内容 を示す情報をいちいち入力しなければ、それを相手方に伝達することができず、大 変煩わしレ、ものとなってレ、た。
[0004] 本発明は上記課題に鑑みてなされたものであって、その目的は、メッセージ送信者 の感情の変化を簡易な構成で判断し、それを受信側で出力させることができるチヤッ トシステム、チャットシステムに用いる通信装置、通信装置の制御方法及び情報記憶 媒体を提供することにある。
課題を解決するための手段
[0005] 上記課題を解決するために、本発明に係るチャットシステムは、複数の装置を含ん で構成され、各装置においてメッセージ文字列を入力するとともに、他の装置に送信 し、該他の装置において前記メッセージ文字列を受信するとともに、出力するチャット システムにおレ、て、あるメッセージ文字列の入力タイミングから他のメッセージ文字列 の入力タイミングまでの経過時間に応じて感情レベルを決定する手段と、前記他の 装置において、決定される前記感情レベルに応じた画像又は音のうち少なくとも一方 を出力する手段と、を含むことを特徴とする。
[0006] 本発明によれば、あるメッセージ文字列の入力タイミング力 別のメッセージ文字列 の入力タイミングまでの経過時間に応じて感情レベルが決定され、それに応じた画像 や音が第 2装置において出力されるので、メッセージ送信者に負担を掛けることなぐ その感情をメッセージ受信者が直感的に把握できるようになる。なお、音は、例えば 音声や音楽等である(以下、同様)。
[0007] また、本発明に係るチャットシステムは、第 1装置及び第 2装置を含むチャットシステ ムにおいて、前記第 1装置は、メッセージ文字列を入力する手段と、感情の種類を示 す感情種類データを入力する手段と、入力される前記メッセージ文字列を前記第 2 装置に送信する手段と、入力される前記感情種類データを前記第 2装置に送信する 手段と、を含み、前記第 2装置は、前記第 1装置から前記メッセージ文字列を受信す る手段と、前記第 1装置から前記感情種類データを受信する手段と、受信される前記 メッセージ文字列を出力する手段と、前記第 1装置における前記メッセージ文字列の 入力タイミングに応じて決定される感情レベルを取得する手段と、受信される前記感 情種類データ及び取得される前記感情レベルに応じた画像又は音のうち少なくとも 一方を出力する手段と、を含むことを特徴とする。
[0008] 本発明によれば、第 1装置において入力される感情種類データ、及び第 1装置に おけるメッセージ文字列の入力タイミングに応じて決定される感情レベルに応じた画 像や音が第 2装置において出力されるので、メッセージ送信者に負担を掛けることな ぐその感情をメッセージ受信者に直感的に把握させることができるようになる。
[0009] ここで、「感情種類データ」は、例えば喜怒哀楽等のメッセージ送信者の感情の種 類を示すデータである。また、「前記第 1装置における前記メッセージ文字列の入力 タイミング」は、第 1装置においてメッセージ文字列の入力が完了したタイミング、第 1 装置から第 2装置に宛ててメッセージ文字列が送信されるタイミング、第 2装置にぉレヽ てメッセージ文字列が受信又は出力されるタイミング、第 1装置と第 2装置との通信を 中継する中継装置においてメッセージ文字列が受信又は送信されるタイミング等、第 1装置におけるメッセージ文字列の入力タイミングに対応するあらゆるタイミングを含 む。
[0010] また、本発明に係る通信装置は、チャットシステムに用いられる通信装置であって、 メッセージ文字列を入力する手段と、感情の種類を示す感情種類データを入力する 手段と、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段 と、入力される前記メッセージ文字列を送信する手段と、入力される前記感情種類デ ータを送信する手段と、決定される前記感情レベルを送信する手段と、を含むことを 特徴とする。
[0011] また、本発明に係る方法は、チャットシステムに用いられる通信装置の制御方法で あって、メッセージ文字列の入力を受け付けるステップと、感情の種類を示す感情種 類データの入力を受け付けるステップと、前記メッセージ文字列の入力タイミングに 応じて感情レベルを決定するステップと、入力される前記メッセージ文字列を送信す るステップと、入力される前記感情種類データを送信するステップと、決定される前記 感情レベルを送信するステップと、を含むことを特徴とする。
[0012] また、本発明に係るプログラムを記憶した情報記憶媒体は、メッセージ文字列を入 力する手段、感情の種類を示す感情種類データを入力する手段、前記メッセージ文 字列の入力タイミングに応じて感情レベルを決定する手段、入力される前記メッセ一 ジ文字列を送信する手段、入力される前記感情種類データを送信する手段、及び決 定される前記感情レベルを送信する手段としてコンピュータを機能させるためのプロ グラムを記憶した情報記憶媒体である。
[0013] 本発明によれば、メッセージ文字列の入力 ·送信側において感情レベルを決定す ること力 Sできる。
[0014] また、本発明に係る通信装置は、チャットシステムに用いられる通信装置であって、 メッセージ文字列を受信する手段と、感情種類データを受信する手段と、受信される 前記メッセージ文字列を出力する手段と、前記メッセージ文字列の入力タイミングに 応じて感情レベルを決定する手段と、受信される前記感情種類データ及び決定され る前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含 むことを特徴とする。 [0015] また、本発明に係る方法は、チャットシステムに用いられる通信装置の制御方法で あって、メッセージ文字列を受信するステップと、感情種類データを受信するステップ と、受信される前記メッセージ文字列を出力するステップと、前記メッセージ文字列の 入力タイミングに応じて感情レベルを決定するステップと、受信される前記感情種類 データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を 出力するステップと、を含むことを特徴とする。
[0016] また、本発明に係るプログラムを記憶した情報記憶媒体は、メッセージ文字列を受 信する手段、感情種類データを受信する手段、受信される前記メッセージ文字列を 出力する手段、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定す る手段、及び受信される前記感情種類データ及び決定される前記感情レベルに応じ た画像又は音のうち少なくとも一方を出力する手段としてコンピュータを機能させるた めのプログラムを記憶した情報記憶媒体である。
[0017] 本発明によれば、メッセージ文字列の受信 ·出力側において感情レベルを決定す ること力 Sできる。
[0018] 本発明の一態様では、前記感情レベルは、前記メッセージ文字列の文字量にさら に応じて決定される。メッセージ文字列の文字量は、例えばメッセージ文字列の文字 数自体、或いは特殊漢字等の入力し難レ、文字にっレ、て重み付けした文字数等であ る。この態様によれば、メッセージ文字列を急いで入力したカ 或いは逆にゆっくりと 入力したか等を適切に評価でき、それに応じて適切な感情レベルを決定することが できる。
[0019] また、本発明の一態様では、前記感情レベルは、前記第 1装置における前記メッセ ージ文字列の入力間隔に応じて決定される。こうすれば、メッセージ送信者がメッセ ージ文字列を次々と入力している場合等に、例えばとても喜んでいる、或いはとても 怒っている等と感情レベルを判断することができる。
[0020] また、本発明の一態様では、前記第 2装置は、メッセージ文字歹 1Jを入力する手段と 、入力されるメッセージ文字列を前記第 1装置に送信する手段と、をさらに含み、前 記第 1装置は、前記第 2装置から前記メッセージ文字列を受信する手段と、受信され る前記メッセージ文字列を出力する手段と、をさらに含み、前記感情レベルは、前記 第 2装置におけるメッセージ文字列の入力タイミングと、前記第 1装置におけるメッセ ージ文字列の入力タイミングと、の差に応じて決定される。
[0021] 「前記第 2装置における前記メッセージ文字列の入力タイミング」は、第 2装置にお レ、てメッセージ文字列の入力が完了したタイミング、第 2装置から第 1装置に宛ててメ ッセージ文字列が送信されるタイミング、第 1装置にぉレ、てメッセージ文字列が受信 又は出力されるタイミング、第 1装置と第 2装置との通信を中継する中継装置におい てメッセージ文字列が受信又は送信されるタイミング等、第 2装置におけるメッセージ 文字列の入力タイミングに対応するあらゆるタイミングを含む。
[0022] この態様によれば、例えばメッセージ文字列を受信又は出力するタイミング等から、 それに応じてメッセージ文字列を入力又は送信するタイミング等までの間が短い場合 に、例えばとても喜んでいる、或いはとても怒っている等と感情レベルを判断すること ができる。
図面の簡単な説明
[0023] [図 1]本発明の実施形態に係るチャットシステムの全体構成を示す図である。
[図 2]チャット画面の一例を示す図である。
[図 3]チャットログの一例を示す図である。
[図 4]感情種類「喜楽」に対応するアバター画像群を示す図である。
[図 5]感情種類「怒」に対応するアバター画像群を示す図である。
[図 6]感情種類「哀」に対応するアバター画像群を示す図である。
[図 7]アバター画像の変化の様子を説明する図である。
[図 8]サーバの機能ブロック図である。
[図 9]感情データ記憶部の記憶内容を示す図である。
[図 10]クライアントの機能ブロック図である。
[図 11]サーバにおける感情データ管理処理を示すフロー図である。
[図 12]変形例に係るクライアントの機能ブロック図である。
符号の説明
[0024] 12 サーバ、 14 データ通信ネットワーク、 16A, 16B クライアント、 18 感情種類 入力欄、 20A 本人情報表示領域、 20B 相手情報表示領域、 22A, 22B 吹き出 し画像、 24A, 24B アバター画像、 26 メッセージ文字列入力欄、 30, 40 通信部 、 32, 52 感情データ管理部、 34, 50 感情データ記憶部、 42 メッセージ入力部 、44 表示部、 46 アバター画像記憶部、 48 感情種類入力部。
発明を実施するための最良の形態
[0025] 以下、本発明の一実施形態について図面に基づき詳細に説明する。
[0026] 図 1は、本発明の一実施形態に係るチャットシステムの全体構成を示す図である。
同図に示すように、このチャットシステムは、サーバ 12とクライアント 16A, 16Bとを含 んで構成されている。サーバ 12、クライアント 16A, 16Bは、いずれもインターネット 等のデータ通信ネットワーク 14に通信接続されており、相互にデータ通信可能となつ ている。以下では、特にクライアント 16A, 16Bを区別する必要の無い場合には、単 にクライアント 16と記す。
[0027] サーバ 12は、プロセッサ、各種記憶装置及びデータ通信装置を中心として構成さ れた公知のサーバコンピュータによって実現されるものであり、クライアント 16Aとクラ イアント 16Bで行われるチャットを管理 ·中継するものである。一方、クライアント 16は 、モニタ、キーボード等の入力手段、プロセッサ、各種記憶装置及びデータ通信装置 を中心として構成された公知のパーソナルコンピュータ或いは公知のコンピュータゲ ームシステム等の各種コンピュータシステムによって実現されるものであり、各ユーザ がチャット (メッセージ文字列の授受による会話)をするのに用いる。
[0028] 図 2は、クライアント 16Aのモニタに表示されるチャット画面の一例を示している。ク ライアント 16Bのモニタにも同様のチャット画面が表示される。同図に示すように、こ のチャット画面には、当該クライアント 16Aのユーザ(以下では、「ユーザ A」と記す。) に対応する本人情報表示領域 20Aと、チャット相手、すなわちクライアント 16Bのュ 一ザ (以下では、「ユーザ B」と記す。)に対応する相手情報表示領域 20Bと、メッセ一 ジ文字列を入力するためのメッセージ文字列入力欄 26と、感情種類入力欄 18と、が 設けられている。本人情報表示領域 20Aには、ユーザ Aを表象するアバター画像 24 Aが表示されている。また、本人情報表示領域 20Aの下方には吹き出し画像 22Aが 表示されており、この吹き出し画像 22Aの中にユーザ Aにより入力されるメッセージ 文字列が順次表示されるようになっている。同様に、相手情報表示領域 20Bには、 ユーザ Bを表象するアバター画像 24Bが表示されている。また、相手情報表示領域 2 0Bの下方には吹き出し画像 22Bが表示されており、この吹き出し画像 22Bの中にュ 一ザ Bにより入力されるメッセージ文字列が順次表示されるようになっている。メッセ ージ文字列入力欄 26は、ユーザ Aがキーボード等の文字入力手段によりメッセージ 文字列(相手へのメッセージである文字歹 IJ)を入力するのに用いる文字列編集領域 であり、同欄に表示されたカーソル位置に文字を順に入力することにより、メッセージ 文字列を完成させることができるようになつている。そして、リターンキー等の入力完 了操作を行うことにより、同欄に表示されたメッセージ文字列をチャット相手であるュ 一ザ Bに向けて送信できるようになつている。また、感情種類入力欄 18には、「喜楽」 、「怒」、「哀」の文字が表示されており、所定の感情種類切替操作によっていずれか を選択することで、ユーザ Aを表象するアバター画像 24Aの感情種類を設定入力で きるようになつている。これにより、アバター画像 24Aの表情を変化させることができる
[0029] 上述したように、チャット相手が用いるクライアント 16Bにも、同図に示したのと同様 のチャット画面が表示されており、そこにはアバター画像 24Aと同一の画像が、相手 情報表示領域に表示されている。また、アバター画像 24Bと同一の画像力 本人情 報表示領域に表示されている。このため、ユーザ Aが感情種類入力欄 18によりアバ ター画像 24Aの感情種類を設定入力し、アバター画像 24Aの表情を変化させると、 それに連動してクライアント 16Bのチャット画面の相手情報表示領域に表されたアバ ター画像も、同様の表情変化を見せるようになっている。こうして、文字だけでなぐァ バター画像を用いてチャット相手、すなわちユーザ Bに感情を伝えることができるよう になっている。
[0030] クライアント 16では、特定の操作を行うことにより、チャットログをモニタに表示させる ことができるようになつている。図 3は、このチャットログの一例を示している。同図に示 すように、チャットログは、チャット当事者であるユーザ A及びユーザ Bを識別する文 字 (ここでは「A」又は「B」 )と、そのチャット当事者の発言であるメッセージ文字列と、 そのメッセージ文字列が表示された時点での当該メッセージ文字列を入力したチヤッ ト当事者に対応する感情種類及び感情レベルに対応する画像と、を対応づけて時系 列に表示するものである。既に説明したチャット画面では、最新の発言のみが吹き出 し画像 22A, 22Bに表示されるのみであり、過去の発言については表示されないが、 同図に示すチャットログを表示させることで、直ちにそれを把握できるようになつてい る。
[0031] アバター画像 24A, 24Bは、予めクライアント 16の記憶手段に記憶されており、該 記憶手段から選択的に読み出されてモニタに表示されるようになっている。図 4乃至 図 6は、クライアント 16の記憶手段に記憶されてレ、るアバター画像群を示してレ、る。 図 4には、感情種類「喜楽」に対応するアバター画像群が示されている。具体的には 、同図(a)には、感情種類「喜楽」及び感情レベル「1」に対応するアバター画像群が 示されている。同様に、同図(b)には、感情種類「喜楽」及び感情レベル「2」に対応 するアバター画像群が示されており、同図(c)には、感情種類「喜楽」及び感情レべ ノレ「3」に対応するアバター画像群が示されており、同図(d)には、感情種類「喜楽」 及び感情レベル「4」に対応するアバター画像群が示されている。同図を見て分かる ように、同じ感情種類であっても、感情レベルが上昇するにつれて、その感情の強さ が増加するようになっており、それに応じてアバター画像の表情が変化するようにな つている。
[0032] クライアント 16には、同一の感情種類及び同一の感情レベルに対応づけて複数の アバター画像が記憶されている力 S、これらは異なるキャラクタを示すアバター画像で ある。すなわち、このチャットシステムでは、例えば「20代男性」、「10代女性」、「40 代女性」等を描いた複数のキャラクタが用意されており、各キャラクタに対応づけて、 各感情種類及び各感情レベルに対応する画像(アバター画像)が予め作成されてレ、 る。本実施形態では、予めユーザは自分のアバター画像として使用するキャラクタを 指定するようになっており、図 2に示すチャット画面においては、こうしてユーザにより 指定されたキャラクタの画像が同ユーザのアバター画像として表示されるようになって いる。
[0033] 感情種類「喜楽」の場合と同様に、図 5には、感情種類「怒」に対応するアバター画 像群が示されている。具体的には、同図(a)には、感情種類「怒」及び感情レベル「1 」に対応するアバター画像群が示されている。同様に、同図(b)には、感情種類「怒」 及び感情レベル「2」に対応するアバター画像群が示されており、同図(c)には、感情 種類「怒」及び感情レベル「3」に対応するアバター画像群が示されており、同図(d) には、感情種類「怒」及び感情レベル「4」に対応するアバター画像群が示されている 。また、図 6には、感情種類「哀」に対応するアバター画像群が示されている。具体的 には、同図(a)には、感情種類「哀」及び感情レベル「1」に対応するアバター画像群 が示されている。同様に、同図(b)には、感情種類「哀」及び感情レベル「2」に対応 するアバター画像群が示されており、同図(c)には、感情種類「哀」及び感情レベル「 3」に対応するアバター画像群が示されており、同図(d)には、感情種類「哀」及び感 情レベル「4」に対応するアバター画像群が示されている。
[0034] ここで、アバター画像の表情変化について、さらに詳細に説明する。図 7は、ユーザ A及びユーザ Bに対応するアバター画像の表情変化を説明する図である。同図の第 1列には、メッセージ文字列を送信し、又は感情種類切替操作を行ったユーザを識 別する文字(「A」又は「B」)が記されている。また、第 2列には、送信したメッセージ文 字列の内容、又は感情種類切替操作を行った旨が記されている。第 3列には、ユー ザ Aに対応するアバター画像の表情、第 4歹 IJには、ユーザ Bに対応するアバター画 像の表情が記されている。第 3列及び第 4列において、例えば「笑」は感情種類「喜 楽」を表しており、「怒」は感情種類「怒」を表しており、「1」等の数値は感情レベルを 表している。同図では、例えばユーザ Aによる「こんにちは。」から、ユーザ Bによる「こ んにちは!」までの入力間隔が短いので、感情レベルが上昇し、ユーザ Bに対応す るアバター画像の表情は、「笑 1」から「笑 2」に変化している。また、ユーザ Aが「ところ で〇〇で事件があって…。」と入力した後に感情種類切替操作を行うと、ユーザ Aに 対応するアバター画像の表情は「怒 1」に変化している。すなわち、本実施形態では 、感情種類切替操作を行うと、それに応じて感情レベルが 1にリセットされるようになつ ている。
[0035] 以下、本システムの構成 *動作について、さらに詳細に説明する
[0036] 図 8は、サーバ 12の機能的構成を示す図である。同図に示すようにサーバ 12は、 機能的には通信部 30、感情データ管理部 32及び感情データ記憶部 34を含んでい る。これらの機能ブロックは、サーバ 12において所定のプログラムが実行されることに より実現されている。通信部 30は、例えば公知のデータ通信カードを含んで構成さ れており、データ通信ネットワーク 14を介したクライアント 16とのデータ通信を行うも のであり、特にクライアント 16Aから送信されるメッセージ文字列を受信し、それをクラ イアント 16Bに転送する。また、クライアント 16Bから送信されるメッセージ文字列を受 信し、それをクライアント 16Aに転送する。このとき、各クライアント 16からメッセージ 文字列を受信した時刻を、クライアント 16におけるメッセージ文字列の入力タイミング として感情データ管理部 32に通知するようにしてレ、る。
[0037] また、通信部 30は、クライアント 16A又は 16Bから感情種類データを受信すると、 それを感情データ管理部 32に渡す。また、感情データ管理部 32から、感情データの 更新内容を表す感情データ更新要求を受け取り、それをクライアント 16Aゃクライア ント 16Bに送信する。なお、感情データは、感情種類データ及び感情レベルのいず れか少なくとも一方を含むデータである。
[0038] 感情データ管理部 32は、感情データ記憶部 34に記憶された感情データの管理 · 配信を行うものである。すなわち、感情データ記憶部 34は、ハードディスク記憶装置 や RAM等の記憶手段を含んで構成されており、感情データを記憶している。図 9は 、この感情データ記憶部 34に記憶された感情データの一例を示している。同図に示 すように、感情データは、チャットを行っている各ユーザを識別する情報と、そのユー ザが前回メッセージ文字列を入力した時刻と、現在設定 (指定)されている感情種類 と、現在の感情レベルとを対応づけてなる。ここでは、ユーザ Aの現在の感情種類は 「喜楽」であり、感情レベルは「2」であること、直前のメッセージ文字列の入力は 18時 30分 25秒に行われたことが記されている。また、ユーザ Bの現在の感情種類は「怒」 であり、感情レベルは「1」であること、直前のメッセージ文字列の入力は 18時 30分 1 4秒に行われたことが記されてレ、る。
[0039] 感情データ管理部 32は、まずクライアント 16から感情種類データを受信すると、そ のクライアント 16のユーザに対応づけて感情データ記憶部 34に記憶されている感情 種類を、その感情種類データが示すものに変更する。このとき、同ユーザに対応づけ て感情データ記憶部 34に記憶されてレ、る感情レベルを 1に初期化する。
[0040] また、クライアント 16からメッセージ文字列を受信し、メッセージ文字列の入カタイミ ングが通信部 30から通知されると、その時刻と、同メッセージ文字列を送信したユー ザのチャット相手に対応づけて感情データ記憶部 34に記憶されている前回入力時 刻と、の差を演算する。そして、この差をクライアント 16から受信したメッセージ文字列 の文字量で除し、単位文字量当たりの時間差を演算する。そして、この単位文字量 当たりの時間差が第 1の所定値未満であれば、同メッセージ文字列を送信したユー ザに対応づけて感情データ記憶部 34に記憶されている感情レベルを 1だけ上昇さ せる。なお、感情レベルが既に最大値である場合には同レベル上昇処理を行わない 。一方、単位文字量あたりの時間差が前記第 1の所定値とは異なる第 2の所定値以 上であれば、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部 34に記憶されている感情レベルを 1だけ下降させる。なお、感情レベルが既に最低 値である場合には同レベル下降処理を行わない。以上のようにすれば、チャット相手 力 入力されるメッセージ文字列に応答して、速やかにそれに応じたメッセージ文字 歹 IJを入力した場合に、そのユーザの感情レベルを上昇させることができる。また、応 答が鈍レ、場合には、そのユーザの感情レベルを下降させることができる。
[0041] その後、通信部から通知があった時刻を、メッセージ文字列の送信者であるユーザ に対応づけて感情データ記憶部 34に記憶させ、それにより前回入力時刻を更新す る。そして、感情データ記憶部 34に記憶された感情データの更新内容、すなわち感 情種類データ又は感情レベルの少なくとも一方を表す感情データ更新要求を、クラ イアント 16A及びクライアント 16Bの両方に対して送信する。
[0042] なお、クライアント 16からメッセージ文字列を受信し、メッセージ文字列の入カタイミ ングが通信部 30から通知される場合、その時刻と、同メッセージ文字列を送信したュ 一ザに対応づけて感情データ記憶部 34に記憶されている前回入力時刻と、の差を 演算してもよレ、。そして、この差をクライアント 16から受信したメッセージ文字列の文 字量で除し、単位文字量あたりの時間差を演算する。そして、この時間差が第 1の所 定値未満であれば、メッセージ文字列を送信したユーザに対応づけて感情データ記 憶部 34に記憶されている感情レベルを 1だけ上昇させ、第 1の所定値とは異なる第 2 の所定値以上であれば、同メッセージ文字列を送信したユーザに対応づけて感情デ ータ記憶部 34に記憶されている感情レベルを 1だけ下降させるようにすればよい。こ うすれば、次々とメッセージ文字列を送信するユーザについては、その感情レベルを 高くし、逆にメッセージ文字列を送信する間隔の長い場合、或いはメッセージ文字列 の入力作業そのものが遅い場合には、ユーザの感情レベルを低くすることができる。
[0043] 図 10は、クライアント 16の機能的構成を示す図である。同図に示すように、クライア ント 16は、機能的には通信部 40、メッセージ入力部 42、表示部 44、アバター画像記 憶部 46、感情データ記憶部 50及び感情種類入力部 48を含んで構成されている。こ れらの機能は、クライアント 16において所定のプログラムが実行されることにより実現 されるものである。
[0044] まず、通信部 40は、サーバ 12から受信するメッセージ文字列を受信して、それを表 示部 44に供給する。また、サーバ 12から感情データを受信する場合に、その内容を 感情データ記憶部 50の記憶内容に反映させる。また、メッセージ入力部 42によりメッ セージ文字列が入力されると、そのメッセージ文字列をサーバ 12に送信する。また、 通信部 40には、感情種類入力部 48から感情種類データが入力されるようになって おり、この感情種類データを受信すると、それをサーバ 12に送信する。
[0045] メッセージ入力部 42は、特にキーボード等の文字入力手段を含んでおり、チャット 画面のメッセージ文字列入力欄 26にメッセージ文字列を入力させる。入力されたメッ セージ文字列は、表示部 44においてチャット画面における吹き出し画像 22に合成さ れ、モニタにより表示出力される。
[0046] アバター画像記憶部 46は、例えばハードディスク記憶装置等を含んで構成されて おり、図 4乃至図 6に記載された各種アバター画像が記憶されている。感情データ記 憶部 50は、チャット当事者である各ユーザに対応づけて、感情種類及び感情レベル を記憶している。このうち、特に当該クライアント 16のユーザに対応する感情種類に ついては、感情種類入力部 48により設定入力できるようになつている。この場合、感 情種類入力欄 18の各感情種類を示す文字を選択することにより、その文字に対応 する感情種類を、当該クライアント 16のユーザに対応づけて感情データ記憶部 50に 格納することができるようになつている。また、感情データ記憶部 50は、通信部 40が サーバ 12から感情データ更新要求を受信した場合に、その内容に従って更新される ようになつている。 [0047] 表示部 44では、感情データ記憶部 50から各ユーザの感情種類及び感情レベルを 読み出し、それに対応するアバター画像をアバター画像記憶部 46から読み出すよう になっている。このとき、表示部 44は予め各ユーザのキャラクタ指定を取得しており、 指定されたキャラクタに対応するアバター画像を読み出すようにしている。読み出さ れたアバター画像は、表示部 44により、本人情報表示領域 20A及び相手情報表示 領域 20Bにそれぞれ表示される。
[0048] ここで、サーバ 12の処理についてさらに説明する。図 11は、サーバ 12による感情 データ管理処理を示すフロー図である。同図に示すように、サーバ 12では、いずれ かのクライアント 16からメッセージ文字列を受信するか否かを監視しており(S101)、 メッセージ文字列を受信した場合には、図示しない計時手段から現在時刻を取得す る(S102)。さらに、感情データ記憶部 34から、チャット相手であるユーザに対応する 前回入力時刻を読み出し、そこから現在時刻までの経過時間 tlを算出する(S103) 。そして、この経過時間 tlが第 1の所定値 TA未満であれば、メッセージ文字列の送 信者であるユーザに対応づけて感情データ記憶部 34に記憶されている感情レベル を、 1だけ上昇させるよう更新する(S105)。このとき、既に感情レベルが最大値に達 していれば、 S105での処理は行わなレ、。一方、経過時間 tlが第 1の所定値 TA以上 であれば、 S105の処理をスキップする。さらに、経過時間 tlが第 2の所定値 TB (TB >TA)より大きいか否かを判断する(S106)。もし大きければ、メッセージ文字列の 送信者であるユーザに対応づけて感情データ記憶部 34に記憶されている感情レべ ルを、 1だけ下降させるよう更新する(S107)。このとき、既に感情レベルが最低値に 達していれば、 S107での処理は行わなレ、。一方、経過時間 tlが第 2の所定値 TB以 下であれば、 S107の処理をスキップする。
[0049] その後、以上のようにして更新した感情レベルを感情データ更新要求として、各クラ イアント 16に送信する(S108)。また、 S102で取得した現在時刻を、感情データ記 憶部 34に、メッセージ文字列の送信者であるユーザに対応づけて記憶させる。こうし て、前回入力時刻を更新するようにしている。
[0050] 以上説明したチャットシステムによれば、メッセージ文字列の入力タイミングに応じ てアバター画像の表情が自動的に変化するので、アバター画像の表情を変化させる ための特別の入力を必要とせず、ユーザの利便性を大幅に向上できる。
[0051] なお、本発明は上記実施形態に限定されるものではない。
[0052] 例えば、以上の説明では、メッセージ文字列の入力タイミングに応じてアバター画 像を変化させるようにしたが、クライアント 16において音を出力させ、この音をメッセ一 ジ文字列の入力タイミングに応じて変化させるようにしてもよい。この場合の音は、音 楽や、例えばメッセージ文字列を読み上げる音声等である。こうしても、音の変化から 、チャット相手の感情を判断することができる。
[0053] また、以上の説明では、サーバ 12における受信タイミングを、クライアント 16におけ るメッセージ文字列の入力タイミングとして取り扱った力 クライアント 16においてメッ セージ文字列が入力されたときに現在時刻を取得しておき、それをサーバ 12に送信 させるようにすれば、メッセージ文字列が入力されたタイミングにさらに近レ、タイミング を、クライアント 16におけるメッセージ文字列の入力タイミングとして取り扱うことができ る。
[0054] また、ここでは直前のメッセージ文字列の入力タイミング力 今回のメッセージ文字 列の入力タイミングまでの経過時間に応じて、感情レベルを上下させるようにしたが、 同経過時間、或いはそれを文字量で除した値の範囲に感情レベルを対応づけてお いてもよい、こうすれば感情レベルを急激に変化させることができる。また、経過時間 、或いはそれを文字量で除した値の平均等その他の統計量を算出し、それに応じて 感情レベルを決定するようにしてもょレ、。
[0055] さらに、ここではサーバ 12において感情データの管理を行うようにした力 各クライ アント 16において行うようにしてもよい。図 12は、この変形例に係るクライアント 16の 機能的構成を示す図である。同図に示すように、この例では、クライアント 16に感情 データ管理部 52が設けられる点が特徴的である。他の構成については、図 10の場 合と同様であり、ここでは同一符号を付して詳細な説明を省略する。
[0056] 感情データ管理部 52には、メッセージ入力部 42からメッセージ文字列が入力され ており、さらに通信部 40から他のクライアント 16から受信したメッセージ文字列が入 力されている。そして、メッセージ入力部 42からメッセージ文字列が入力された場合 には、図示しない計時手段により現在時刻を取得し、さらに感情データ記憶部 50に 記憶されたチャット相手に対応する前回入力時刻を読み出し、そこから現在時刻まで の経過時間を読み出す。そして、図 11の場合と同様にして、この経過時間に応じて 感情レベルを変更する。また、通信部 40からメッセージ文字列が入力された場合に は、図示しない計時手段により現在時刻を取得し、さらに感情データ記憶部 50に記 憶された当該クライアント 16のユーザに対応する前回入力時刻を読み出し、そこから 現在時刻までの経過時間を読み出す。そして、図 11の場合と同様にして、この経過 時間に応じて感情レベルを変更する。この場合は、クライアント 16においてメッセ一 ジ文字列が受信されたタイミング力 当該メッセージ文字列の入力タイミングとして取 り扱われる。

Claims

請求の範囲
[1] 複数の装置を含んで構成され、各装置においてメッセージ文字列を入力するととも に、他の装置に送信し、該他の装置において前記メッセージ文字列を受信するととも に、出力するチャットシステムにおいて、
あるメッセージ文字列の入力タイミング力、ら別のメッセージ文字列の入力タイミング までの経過時間に応じて感情レベルを決定する手段と、
前記他の装置において、決定される前記感情レベルに応じた画像又は音のうち少 なくとも一方を出力する手段と、
を含むことを特徴とするチャットシステム。
[2] 第 1装置及び第 2装置を含むチャットシステムにおいて、
前記第 1装置は、
メッセージ文字列を入力する手段と、
感情の種類を示す感情種類データを入力する手段と、
入力される前記メッセージ文字歹 1Jを前記第 2装置に送信する手段と、
入力される前記感情種類データを前記第 2装置に送信する手段と、を含み、 前記第 2装置は、
前記第 1装置から前記メッセージ文字列を受信する手段と、
前記第 1装置から前記感情種類データを受信する手段と、
受信される前記メッセージ文字列を出力する手段と、
前記第 1装置における前記メッセージ文字列の入力タイミングに応じて決定される 感情レベルを取得する手段と、
受信される前記感情種類データ及び取得される前記感情レベルに応じた画像又は 音のうち少なくとも一方を出力する手段と、を含む、
ことを特徴とするチャットシステム。
[3] 請求の範囲第 2項に記載のチャットシステムにおいて、
前記感情レベルは、前記メッセージ文字列の文字量にさらに応じて決定される、 ことを特徴とするチャットシステム。
[4] 請求の範囲第 2項又は第 3項のいずれかに記載のチャットシステムにおいて、 前記感情レベルは、前記第 1装置における前記メッセージ文字列の入力間隔に応 じて決定される、
ことを特徴とするチャットシステム。
[5] 請求の範囲第 2項乃至第 4項のいずれかに記載のチャットシステムにおいて、 前記第 2装置は、
メッセージ文字列を入力する手段と、
入力されるメッセージ文字列を前記第 1装置に送信する手段と、をさらに含み、 前記第 1装置は、
前記第 2装置から前記メッセージ文字列を受信する手段と、
受信される前記メッセージ文字列を出力する手段と、をさらに含み、
前記感情レベルは、前記第 2装置におけるメッセージ文字列の入力タイミングと、前 記第 1装置におけるメッセージ文字列の入力タイミングと、の差に応じて決定される、 ことを特徴とするチャットシステム。
[6] チャットシステムに用いられる通信装置であって、
メッセージ文字列を入力する手段と、
感情の種類を示す感情種類データを入力する手段と、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段と、 入力される前記メッセージ文字列を送信する手段と、
入力される前記感情種類データを送信する手段と、
決定される前記感情レベルを送信する手段と、
を含むことを特徴とする通信装置。
[7] チャットシステムに用いられる通信装置であって、
メッセージ文字列を受信する手段と、
感情種類データを受信する手段と、
受信される前記メッセージ文字列を出力する手段と、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段と、 受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は 音のうち少なくとも一方を出力する手段と、 を含むことを特徴とする通信装置。
[8] チャットシステムに用いられる通信装置の制御方法であって、
メッセージ文字列の入力を受け付けるステップと、
感情の種類を示す感情種類データの入力を受け付けるステップと、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定するステップと、 入力される前記メッセージ文字列を送信するステップと、
入力される前記感情種類データを送信するステップと、
決定される前記感情レベルを送信するステップと、
を含むことを特徴とする通信装置の制御方法。
[9] チャットシステムに用いられる通信装置の制御方法であって、
メッセージ文字列を受信するステップと、
感情種類データを受信するステップと、
受信される前記メッセージ文字列を出力するステップと、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定するステップと、 受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は 音のうち少なくとも一方を出力するステップと、
を含むことを特徴とする通信装置の制御方法。
[10] メッセージ文字列を入力する手段、
感情の種類を示す感情種類データを入力する手段、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段、 入力される前記メッセージ文字列を送信する手段、
入力される前記感情種類データを送信する手段、及び
決定される前記感情レベルを送信する手段
としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体。
[11] メッセージ文字列を受信する手段、
感情種類データを受信する手段、
受信される前記メッセージ文字列を出力する手段、
前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段、及び 受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は 音のうち少なくとも一方を出力する手段
としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体。
PCT/JP2004/010936 2004-03-31 2004-07-30 チャットシステム、通信装置、その制御方法及び情報記憶媒体 WO2005101216A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP04771096A EP1734453A4 (en) 2004-03-31 2004-07-30 CHAT-SYSTEM, COMMUNICATION DEVICE, CONTROL PROCEDURE AND INFORMATION RECORDING MEDIUM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004108023A JP3930489B2 (ja) 2004-03-31 2004-03-31 チャットシステム、通信装置、その制御方法及びプログラム
JP2004-108023 2004-03-31

Publications (1)

Publication Number Publication Date
WO2005101216A1 true WO2005101216A1 (ja) 2005-10-27

Family

ID=35055666

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/010936 WO2005101216A1 (ja) 2004-03-31 2004-07-30 チャットシステム、通信装置、その制御方法及び情報記憶媒体

Country Status (7)

Country Link
US (1) US20050223078A1 (ja)
EP (1) EP1734453A4 (ja)
JP (1) JP3930489B2 (ja)
KR (1) KR100841590B1 (ja)
CN (1) CN100514312C (ja)
TW (1) TW200534901A (ja)
WO (1) WO2005101216A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4671880B2 (ja) * 2006-01-31 2011-04-20 株式会社コナミデジタルエンタテインメント チャットシステム、チャット装置及びチャットサーバの制御方法、プログラム
GB2443027B (en) * 2006-10-19 2009-04-01 Sony Comp Entertainment Europe Apparatus and method of audio processing
US8886537B2 (en) * 2007-03-20 2014-11-11 Nuance Communications, Inc. Method and system for text-to-speech synthesis with personalized voice
WO2008132533A1 (en) * 2007-04-26 2008-11-06 Nokia Corporation Text-to-speech conversion method, apparatus and system
US20090128567A1 (en) * 2007-11-15 2009-05-21 Brian Mark Shuster Multi-instance, multi-user animation with coordinated chat
US8788943B2 (en) * 2009-05-15 2014-07-22 Ganz Unlocking emoticons using feature codes
WO2013048225A2 (ko) * 2011-09-29 2013-04-04 Hur Min 감성표현데이터 전달 방법 및 그 시스템
TWI482108B (zh) 2011-12-29 2015-04-21 Univ Nat Taiwan To bring virtual social networks into real-life social systems and methods
KR101390228B1 (ko) * 2012-10-22 2014-05-07 (주)카카오 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버
WO2014129378A1 (ja) * 2013-02-20 2014-08-28 株式会社ソニー・コンピュータエンタテインメント 文字列入力システム
KR20140120506A (ko) * 2013-04-03 2014-10-14 삼성전자주식회사 휴대단말기에서의 대화 레벨 부여 방법 및 장치
JP2016118991A (ja) * 2014-12-22 2016-06-30 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
US10594638B2 (en) 2015-02-13 2020-03-17 International Business Machines Corporation Point in time expression of emotion data gathered from a chat session
US10652183B2 (en) * 2017-06-30 2020-05-12 Intel Corporation Incoming communication filtering system
CN108536499B (zh) * 2018-01-02 2021-05-18 联想(北京)有限公司 信息处理方法和电子设备
US10522143B2 (en) * 2018-02-27 2019-12-31 Microsoft Technology Licensing, Llc Empathetic personal virtual digital assistant
US10367931B1 (en) * 2018-05-09 2019-07-30 Fuvi Cognitive Network Corp. Apparatus, method, and system of cognitive communication assistant for enhancing ability and efficiency of users communicating comprehension
KR102117963B1 (ko) * 2019-06-27 2020-06-02 라인 가부시키가이샤 사용자의 행동 패턴에 기반하여 메시지의 기대 심리 레벨을 산출하는 전자 기기, 방법 및 컴퓨터 프로그램
CN112312225B (zh) 2020-04-30 2022-09-23 北京字节跳动网络技术有限公司 信息展示方法、装置、电子设备和可读介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203227A (ja) * 1998-01-19 1999-07-30 Network Community Creation:Kk チャット画面表示方法
US6064383A (en) 1996-10-04 2000-05-16 Microsoft Corporation Method and system for selecting an emotional appearance and prosody for a graphical character
WO2001046910A1 (en) 1999-12-21 2001-06-28 Electronic Arts Inc. Behavioral learning for a visual representation in a communication environment
JP2002325965A (ja) * 2001-04-27 2002-11-12 Sega Corp 入力文字処理方法
US20030110450A1 (en) 2001-12-12 2003-06-12 Ryutaro Sakai Method for expressing emotion in a text message
JP2003271277A (ja) * 2002-03-12 2003-09-26 Sony Corp 情報処理装置及び情報入力方法
US20030210265A1 (en) 2002-05-10 2003-11-13 Haimberg Nadav Y. Interactive chat messaging
EP1396984A1 (en) 2002-09-04 2004-03-10 Siemens Aktiengesellschaft User interface for a mobile communication device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6598020B1 (en) * 1999-09-10 2003-07-22 International Business Machines Corporation Adaptive emotion and initiative generator for conversational systems
KR20020059963A (ko) * 2001-01-09 2002-07-16 김재길 근린 배급소 경쟁방식 전자상거래방법 및 장치 및 물품배달방법
US7058566B2 (en) * 2001-01-24 2006-06-06 Consulting & Clinical Psychology, Ltd. System and method for computer analysis of computer generated communications to produce indications and warning of dangerous behavior
US20020194006A1 (en) * 2001-03-29 2002-12-19 Koninklijke Philips Electronics N.V. Text to visual speech system and method incorporating facial emotions
US10298700B2 (en) * 2002-06-25 2019-05-21 Artimys Technologies Llc System and method for online monitoring of and interaction with chat and instant messaging participants
US7137070B2 (en) * 2002-06-27 2006-11-14 International Business Machines Corporation Sampling responses to communication content for use in analyzing reaction responses to other communications
US20040082839A1 (en) * 2002-10-25 2004-04-29 Gateway Inc. System and method for mood contextual data output

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064383A (en) 1996-10-04 2000-05-16 Microsoft Corporation Method and system for selecting an emotional appearance and prosody for a graphical character
JPH11203227A (ja) * 1998-01-19 1999-07-30 Network Community Creation:Kk チャット画面表示方法
WO2001046910A1 (en) 1999-12-21 2001-06-28 Electronic Arts Inc. Behavioral learning for a visual representation in a communication environment
JP2002325965A (ja) * 2001-04-27 2002-11-12 Sega Corp 入力文字処理方法
US20030110450A1 (en) 2001-12-12 2003-06-12 Ryutaro Sakai Method for expressing emotion in a text message
JP2003271277A (ja) * 2002-03-12 2003-09-26 Sony Corp 情報処理装置及び情報入力方法
US20030210265A1 (en) 2002-05-10 2003-11-13 Haimberg Nadav Y. Interactive chat messaging
EP1396984A1 (en) 2002-09-04 2004-03-10 Siemens Aktiengesellschaft User interface for a mobile communication device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PICARD, R. W.: "Building HAL: computers that sense, recognize, and respond to human emotion", PROCEEDINGS OF THE SPIE, vol. 4299, June 2001 (2001-06-01), pages 518 - 523
See also references of EP1734453A4

Also Published As

Publication number Publication date
JP2005293280A (ja) 2005-10-20
JP3930489B2 (ja) 2007-06-13
US20050223078A1 (en) 2005-10-06
KR100841590B1 (ko) 2008-06-26
EP1734453A1 (en) 2006-12-20
KR20060045040A (ko) 2006-05-16
EP1734453A4 (en) 2008-05-07
TW200534901A (en) 2005-11-01
CN1934547A (zh) 2007-03-21
CN100514312C (zh) 2009-07-15

Similar Documents

Publication Publication Date Title
KR100841590B1 (ko) 채팅 시스템, 통신장치, 그 제어방법 및 정보기억매체
US20180011841A1 (en) Enabling an im user to navigate a virtual world
KR101740274B1 (ko) 이모티콘 탐색 방법 및 단말
CN110249325A (zh) 具有通信模型的输入***
KR101200559B1 (ko) 모바일 인스턴트 메신저에서 플래시콘을 제공하는 시스템,장치 및 방법
US11792141B2 (en) Automated messaging reply-to
US11625542B2 (en) Instant messaging application configuration based on virtual world activities
US10200338B2 (en) Integrating communication modes in persistent conversations
JP4854424B2 (ja) チャットシステム、通信装置、その制御方法及びプログラム
JP2001160021A (ja) 仮想空間による通信システム
KR101310274B1 (ko) 메신저 서비스를 제공하는 방법 및 그 서버
KR20090075397A (ko) 이모티콘을 포함한 통신 메시지의 송수신 방법
JP2009064418A (ja) 個人的対象体を備えるインスタントメッセージシステム及びその方法
CN104301202A (zh) 一种即时通讯的振动信息表达方法和***
CN110493120A (zh) 一种用于发送设备操作指令的方法与设备
KR20050027397A (ko) 그림 문자 채팅을 지원하는 메시지 전송 방법 및 시스템
JP2004102496A (ja) テキストおよびキャラクタ表示システム、コンピュータプログラムならびにサーバ
US20240022535A1 (en) System and method for dynamically generating suggestions to facilitate conversations between remote users
US11716298B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP3694516B2 (ja) 文字列表示システム、文字列表示方法及びプログラム
KR100415549B1 (ko) 관심도를 반영한 다자간 대화 인터페이스 방법
JP2003108506A (ja) 通信システム及び表示方法
KR20030063952A (ko) 텍스트필터 프로그램을 이용한 유무선 육성게임시스템 및그 운영방법
KR20060047148A (ko) 보이스 이모티콘 제공 시스템 및 그 방법
KR20040029643A (ko) 동적 아이템을 이용한 채팅 시스템에서 대화서비스 제공방법

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004771096

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200480042600.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2004771096

Country of ref document: EP