JP2014085952A - Expression generation device and program - Google Patents

Expression generation device and program Download PDF

Info

Publication number
JP2014085952A
JP2014085952A JP2012236066A JP2012236066A JP2014085952A JP 2014085952 A JP2014085952 A JP 2014085952A JP 2012236066 A JP2012236066 A JP 2012236066A JP 2012236066 A JP2012236066 A JP 2012236066A JP 2014085952 A JP2014085952 A JP 2014085952A
Authority
JP
Japan
Prior art keywords
facial expression
character
emotion classification
emotion
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012236066A
Other languages
Japanese (ja)
Inventor
Shinya Takayama
伸也 高山
Kenho Jo
建鋒 徐
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012236066A priority Critical patent/JP2014085952A/en
Publication of JP2014085952A publication Critical patent/JP2014085952A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To simply and quickly generate an expression of a character variable with information indicative of emotion.SOLUTION: The expression generation device according to the present invention refers to the expression generation device that generates the expression of a character variable with emotion, and comprises: an expression synthesis part 30-2 that synthesizes a basic expression of the character at a percentage of intensity of an expression classification in accordance with the expression classification of input data and information indicative of the intensity of the expression classification; and a movement control part 30-3 that temporally changes the synthesized expression of the character in accordance with time information corresponding to the analyzed expression classification.

Description

本発明は、感情を示す情報に応じて表情が変化し得るキャラクタの表情を生成する表情生成装置およびプログラムに関する。   The present invention relates to a facial expression generation apparatus and a program for generating a facial expression of a character whose facial expression can change according to information indicating emotion.

従来から、マウスクリックやテキストデータなど、任意の入力情報に基づいて、人間の顔画像やキャラクタの表情を生成する技術が知られている。例えば、特許文献1に開示されている技術では、マウス操作などの入力操作により顔画像を構成する複数の顔部品画像を制御して特定の表情を生成する。また、特許文献2に開示されている技術では、入力されたテキストデータを解析してセグメント毎に感情情報を付与し、付与された感情に対応するキャラクタを表情付で表示する。   2. Description of the Related Art Conventionally, a technique for generating a human face image or a facial expression of a character based on arbitrary input information such as a mouse click or text data is known. For example, in the technique disclosed in Patent Document 1, a specific facial expression is generated by controlling a plurality of facial part images constituting a facial image by an input operation such as a mouse operation. In the technique disclosed in Patent Document 2, input text data is analyzed, emotion information is assigned to each segment, and a character corresponding to the assigned emotion is displayed with a facial expression.

特開2002−342769号公報JP 2002-342769 A 特開2005−181840号公報JP 2005-181840 A

しかしながら、特許文献1に開示されている技術では、マウス操作などの入力操作により複数の顔部品画像を1つ1つ調整するため、感情表現のある表情を生成するまでに多大な時間を要するといった課題がある。また、生成する画像は1枚の静止画像であり、時間軸の制御によって表現可能な感情における表情については生成することができない。   However, since the technique disclosed in Patent Document 1 adjusts a plurality of facial part images one by one by an input operation such as a mouse operation, it takes a long time to generate a facial expression with emotional expression. There are challenges. Also, the image to be generated is a single still image, and it is not possible to generate a facial expression in emotion that can be expressed by controlling the time axis.

また、特許文献2に開示されている技術では、システムに登録されたキャラクタの表情をそのまま表示しているため、表現可能な表情の数に限りがある。また、多くの感情表現に対応するには、各表現に対応した大量の表情を予め生成しておかなければならず、手間を要してしまう。   In the technique disclosed in Patent Document 2, since the facial expressions of characters registered in the system are displayed as they are, the number of facial expressions that can be expressed is limited. Also, in order to deal with many emotional expressions, it is necessary to generate a large number of facial expressions corresponding to each expression in advance, which is troublesome.

本発明は、このような事情に鑑みてなされたものであり、感情を示す情報に応じて表情が変化し得るキャラクタの表情を簡易かつ迅速に生成することができる表情生成装置およびプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a facial expression generation apparatus and a program that can easily and quickly generate a facial expression of a character whose facial expression can change according to information indicating emotion. For the purpose.

(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明の表情生成装置は、感情に応じて表情が変化し得るキャラクタの表情を生成する表情生成装置であって、入力データの感情分類及び前記感情分類の強度を示す情報に応じて、前記キャラクタの基本表情を前記感情分類の強度の割合で合成する表情合成部と、前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情を時間的に変化させる動き制御部と、を備えることを特徴とする。   (1) In order to achieve the above object, the present invention takes the following measures. That is, the facial expression generation device of the present invention is a facial expression generation device that generates a facial expression of a character whose facial expression can change according to the emotion, and according to information indicating the emotion classification of the input data and the strength of the emotion classification A facial expression synthesis unit that synthesizes the basic facial expression of the character at a ratio of the intensity of the emotion classification, and a motion control unit that temporally changes the facial expression of the synthesized character according to time information corresponding to the analyzed emotion classification And.

(2)また、本発明の表情生成装置は、前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情が変化する速度または加速度を調整する時間制御部を更に備えることを特徴とする。   (2) The facial expression generation apparatus of the present invention further includes a time control unit that adjusts a speed or acceleration at which the facial expression of the synthesized character changes according to time information corresponding to the analyzed emotion classification. Features.

(3)また、本発明の表情生成装置は、任意のデータを入力し、前記入力データにおける感情分類及び前記感情分類の強度を解析する感情解析部を更に備えることを特徴とする。   (3) The facial expression generation apparatus of the present invention further includes an emotion analysis unit that inputs arbitrary data and analyzes the emotion classification in the input data and the strength of the emotion classification.

(4)また、本発明の表情生成装置は、前記表情合成部で合成し、前記時間制御部で時間的に変化したキャラクタの表情を再生する表情再生部をさらに備えることを特徴とする。   (4) In addition, the facial expression generation apparatus of the present invention further includes a facial expression reproduction unit that synthesizes the facial expression synthesis unit and reproduces the facial expression of the character that has been temporally changed by the time control unit.

(5)また、本発明のプログラムは、感情に応じて表情が変化し得るキャラクタの表情を生成するプログラムであって、任意のデータを入力し、前記入力データにおける感情分類及び前記感情分類の強度を解析する処理と、前記解析した感情分類に応じて、前記キャラクタの基本表情を前記感情分類の強度の割合で合成する処理と、前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情を時間的に変化させる処理と、の一連の処理をコンピュータに実行させることを特徴とする。   (5) Further, the program of the present invention is a program for generating a facial expression of a character whose facial expression can be changed according to emotions, input arbitrary data, and the emotion classification in the input data and the strength of the emotion classification A process of analyzing the character according to the analyzed emotion classification, a process of combining the basic facial expression of the character at a ratio of the intensity of the emotion classification, and the synthesis according to time information corresponding to the analyzed emotion classification The computer is caused to execute a series of processes of changing the facial expression of the character that has been changed over time.

本発明によれば、任意のデータを入力し、入力データにおける感情を解析し、解析された感情に応じたキャラクタの表情を合成するので、感情表現のある表情を一意に生成することができる。また、解析された感情に基づいて生成したキャラクタの表情を時間的に制御するので、時間軸の制御によって表現可能な感情における表情を生成することができる。さらに、大量の表情を予め用意しなくても、多くの感情を表現した表情を合成することが可能となる。   According to the present invention, since arbitrary data is input, emotions in the input data are analyzed, and facial expressions of the character corresponding to the analyzed emotions are synthesized, it is possible to uniquely generate facial expressions with emotional expressions. In addition, since the facial expression of the character generated based on the analyzed emotion is temporally controlled, it is possible to generate facial expressions in emotions that can be expressed by controlling the time axis. Furthermore, it is possible to synthesize facial expressions expressing many emotions without preparing a large number of facial expressions in advance.

本実施形態に係る表情生成装置の概略構成を示す図である。It is a figure which shows schematic structure of the facial expression production | generation apparatus which concerns on this embodiment. 本実施形態に係る表情生成装置の機能を示すブロック図である。It is a block diagram which shows the function of the facial expression production | generation apparatus which concerns on this embodiment. 本実施形態に係る表情生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the facial expression production | generation apparatus which concerns on this embodiment.

本発明の実施形態に係る表情生成装置は、任意のテキストデータを入力し、テキストデータにおける感情を解析し、解析された感情に基づいてキャラクタの表情を合成する。これにより、感情表現のある表情を自動的に生成することができる。また、解析された感情に基づいて生成したキャラクタの表情を時間的に制御する。この制御により、時間軸の制御によって表現可能な感情における表情を生成することができる。さらに、大量の表情を予め用意しなくても、多くの感情を表現した表情を生成することが可能となる。本実施形態に係る表情生成装置では、入力として、テキストデータを利用する。本明細書では、一例として、テキストデータを用いた表情生成装置を示すが、本発明の技術的思想は、テキストデータに限定されるわけではない。例えば、「音声」を入力情報とし、音声認識により、テキストデータを取得しても良い。また、「音響」を入力情報とし、平均テンポ、音色、音圧レベル、音圧レベルの変動により、感情分類およびその強度を抽出しても良い。また、「キー操作」を入力情報として、感情分類及びその強度をキー操作により入力するようにしても良い。また、「タッチ」を入力情報として、感情分類およびその強度をタッチ操作により入力するようにしても良い。また、「画像」を入力情報として、画像における表情認識技術を利用して、感情分類およびその強度を抽出しても良い。この場合、感情認識カメラを用いることも可能である。また、「映像」を入力情報として、「音声」と「画像」における例を併用し、感情分類及びその強度を抽出するようにしても良い。   The facial expression generation apparatus according to the embodiment of the present invention inputs arbitrary text data, analyzes emotions in the text data, and synthesizes the facial expressions of the character based on the analyzed emotions. As a result, facial expressions with emotional expressions can be automatically generated. In addition, the facial expression of the character generated based on the analyzed emotion is temporally controlled. With this control, it is possible to generate facial expressions in emotions that can be expressed by controlling the time axis. Furthermore, it is possible to generate facial expressions expressing many emotions without preparing a large number of facial expressions in advance. The facial expression generation apparatus according to the present embodiment uses text data as an input. In this specification, a facial expression generation apparatus using text data is shown as an example, but the technical idea of the present invention is not limited to text data. For example, text data may be acquired by voice recognition using “speech” as input information. In addition, “acoustic” may be input information, and emotion classification and intensity may be extracted based on fluctuations in average tempo, tone color, sound pressure level, and sound pressure level. Further, the emotion classification and its strength may be input by key operation using “key operation” as input information. In addition, “touch” may be used as input information, and emotion classification and intensity may be input by a touch operation. Further, the emotion classification and its intensity may be extracted using “image” as input information using facial expression recognition technology in the image. In this case, an emotion recognition camera can be used. In addition, with “video” as input information, the examples of “voice” and “image” may be used together to extract emotion classification and its intensity.

図1は、本実施形態に係る表情生成装置の概略構成を示す図である。図1に示すように、表情生成装置1は、ディスプレイ10と、キーボード20と、PC(Personal Computer)30とから構成されている。そして、キーボード20によりPC30にテキストデータ40が入力される。なお、図1では、キーボード20が、PC30に接続されているが、本発明の技術的思想は、これに限定されるわけではなく、任意手段によりPCに対してテキストデータが入力されれば十分である。   FIG. 1 is a diagram illustrating a schematic configuration of a facial expression generation apparatus according to the present embodiment. As shown in FIG. 1, the facial expression generation device 1 includes a display 10, a keyboard 20, and a PC (Personal Computer) 30. Then, text data 40 is input to the PC 30 by the keyboard 20. In FIG. 1, the keyboard 20 is connected to the PC 30, but the technical idea of the present invention is not limited to this, and it is sufficient if text data is input to the PC by any means. It is.

PC30は、ケーブル30aを介して表情再生装置としてのディスプレイ10に接続されている。PC30では、入力されるテキストデータ40における感情を解析し、解析された感情に基づいてキャラクタの表情を合成する。また、解析された感情に基づいて生成したキャラクタの表情を時間的に制御する。そして、PC30は、制御された時間情報に基づき、合成されたキャラクタの表情の画像を生成して、画像信号を随時ディスプレイ10に発信する。その際、PC30において生成された画像はディスプレイ10にA1として映写される。なお、本発明の実施形態に係る表情生成装置では、合成されたキャラクタの表情の画像信号をディスプレイ10に発信しなくても構わない。   The PC 30 is connected to the display 10 as a facial expression reproducing device via a cable 30a. The PC 30 analyzes the emotion in the input text data 40 and synthesizes the facial expression of the character based on the analyzed emotion. In addition, the facial expression of the character generated based on the analyzed emotion is temporally controlled. Then, the PC 30 generates a combined facial expression image of the character based on the controlled time information, and transmits an image signal to the display 10 as needed. At that time, the image generated in the PC 30 is projected on the display 10 as A1. In the facial expression generation apparatus according to the embodiment of the present invention, the synthesized facial expression image signal of the character may not be transmitted to the display 10.

図2は、本実施形態に係る表情生成装置1の機能を示すブロック図である。PC30の感情解析部30−1は、ユーザの入力操作を受け付けて、入力された任意のデータから各データにおける感情を解析する。すなわち、感情解析部30−1は、キーボード20により入力されたテキストデータ40を認識して、テキストデータ40における感情を解析する。また、PC30の表情合成部30−2は、キャラクタの表情を合成する。すなわち、表情合成部30−2は、感情解析部30−1が解析した感情に基づいて基本表情を合成し、キャラクタの表情を生成する。   FIG. 2 is a block diagram illustrating functions of the facial expression generation apparatus 1 according to the present embodiment. The emotion analysis unit 30-1 of the PC 30 accepts a user's input operation and analyzes emotions in each data from arbitrary input data. That is, the emotion analysis unit 30-1 recognizes the text data 40 input from the keyboard 20 and analyzes the emotion in the text data 40. Further, the facial expression synthesis unit 30-2 of the PC 30 synthesizes the facial expression of the character. That is, the facial expression synthesis unit 30-2 synthesizes a basic facial expression based on the emotion analyzed by the emotion analysis unit 30-1, and generates a facial expression of the character.

PC30の動き制御部30−3は、感情分類に対応する時間情報に応じて、合成したキャラクタの表情を時間的に変化させる。すなわち、動き制御部30−3は、感情解析部30−1が解析した感情に基づいて、表情合成部30−2が生成したキャラクタの表情を時間的に制御する。また、表情再生部30−4は、キャラクタの表情の画像を再生する。すなわち、表情再生部30−4は、動き制御部30−3が制御した時間情報に基づき、表情合成部30−2が生成したキャラクタの表情の画像を再生する。また、時間制御部30−5は、上記解析した感情分類に対応する時間情報に応じて、合成したキャラクタの表情が変化する速度または加速度を調整する。   The motion control unit 30-3 of the PC 30 temporally changes the facial expression of the synthesized character according to the time information corresponding to the emotion classification. That is, the motion control unit 30-3 temporally controls the facial expression of the character generated by the facial expression synthesis unit 30-2 based on the emotion analyzed by the emotion analysis unit 30-1. The facial expression reproduction unit 30-4 reproduces an image of the character's facial expression. That is, the facial expression reproduction unit 30-4 reproduces the facial expression image of the character generated by the facial expression synthesis unit 30-2 based on the time information controlled by the motion control unit 30-3. The time control unit 30-5 adjusts the speed or acceleration at which the facial expression of the synthesized character changes according to the time information corresponding to the analyzed emotion classification.

図3は、本実施形態に係る表情生成装置1の動作を示すフローチャートである。初めに、PC30に、キーボード20によりテキストデータ40が入力される(ステップS1)。次に、PC30において、入力されるテキストデータ40を認識して、テキストデータ40における感情分類及び強度を解析する(ステップS2)。ここでは、入力されるテキストデータ40が単語の場合を説明するが、本発明の技術的思想は、単語に限定されるわけではなく、句であっても文であっても良い。本実施形態では、感情分類とそれぞれの強度から構成される感情語データベースを使用する。   FIG. 3 is a flowchart showing the operation of the facial expression generation apparatus 1 according to this embodiment. First, text data 40 is input to the PC 30 using the keyboard 20 (step S1). Next, the PC 30 recognizes the input text data 40 and analyzes the emotion classification and strength in the text data 40 (step S2). Here, a case where the input text data 40 is a word will be described. However, the technical idea of the present invention is not limited to a word, and may be a phrase or a sentence. In this embodiment, an emotion word database composed of emotion classifications and respective intensities is used.

なお、感情語データベースは、日本語辞書などの大量の単語データベースに存在する全ての単語に対して、人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つがどれくらいの割合で存在するか規定し、それぞれの感情強度を0〜1の範囲で、0.1刻みに11段階で指定して、予め形成されている。また、入力されるテキストデータ40が句または文である場合は、単語の場合と同様に、句または文に全体における感情分類とそれぞれの強度から構成される感情句データベースまたは感情文データベースを使用すれば良い。ここで、「喜び」の強度をS1、「悲しみ」の強度をS2、「怒り」の強度をS3、「嫌悪」の強度をS4、「恐怖」の強度をS5、「罪」の強度をS6、「恥」の強度をS7、「興味」の強度をS8、「驚き」の強度をS9、「無感動」をS10で表す。ただし、次の2式をいずれも満たすものとする。 The emotion word database is the emotion classification "joy", "sadness", "anger", "disgust", "fear" used for human expression formation for all words in a large number of word databases such as Japanese dictionary Specify the ratio of 9 of “Sin”, “Shame”, “Interest” and “Surprise” and specify each emotional strength in the range of 0 to 11 in increments of 0.1. Is formed. In addition, when the input text data 40 is a phrase or sentence, as in the case of a word, an emotion phrase database or emotion sentence database composed of the emotion classification and the strength of each is used for the phrase or sentence. It ’s fine. Here, the intensity of “joy” is S 1 , the intensity of “sadness” is S 2 , the intensity of “anger” is S 3 , the intensity of “hate” is S 4 , the intensity of “fear” is S 5 , “sin” Is expressed as S 6 , “Shame” as S 7 , “Interest” as S 8 , “Surprise” as S 9 , and “Insensitive” as S 10 . However, both the following two formulas shall be satisfied.

Figure 2014085952
Figure 2014085952
Figure 2014085952
Figure 2014085952

そして、入力されるテキストデータ40と一致または類似する単語を感情語データベースの中から検索し、その単語における感情分類と強度を抽出する。すなわち、テキストデータ40における感情分類と強度Oは、次式で表わされる。   Then, a word that matches or is similar to the input text data 40 is searched from the emotion word database, and the emotion classification and strength in the word are extracted. That is, the emotion classification and the intensity O in the text data 40 are expressed by the following equations.

Figure 2014085952
Figure 2014085952

すなわち、上式のように、9次元のベクトルで示される。例えば、テキストデータ40として、「泣き笑い」を入力すると、抽出される感情分類と強度Oは、次のように表わされる。   That is, it is represented by a 9-dimensional vector as in the above equation. For example, when “crying laughter” is input as the text data 40, the extracted emotion classification and intensity O are expressed as follows.

Figure 2014085952
Figure 2014085952

次に、PC30において、解析された感情に基づいてキャラクタの表情を合成する。(ステップS3)。本実施形態では、基本表情を合成して、解析された感情におけるキャラクタの表情を合成する。ここでは、基本表情として、人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」「無感動」の10個の表情が予め用意されている。ここで、キャラクタの表情の中のあるポリゴンPに対して、「喜び」の基本表情におけるPの座標を(X1,Y1,Z1)、「悲しみ」の基本表情におけるPの座標を(X2,Y2,Z2)、「怒り」の基本表情におけるPの座標を(X3,Y3,Z3)、「嫌悪」の基本表情におけるPの座標を(X4,Y4,Z4)、「恐怖」の基本表情におけるPの座標を(X5,Y5,Z5)、「罪」の基本表情におけるPの座標を(X6,Y6,Z6)、「恥」の基本表情におけるPの座標を(X7,Y7,Z7)、「興味」の基本表情におけるPの座標を(X8,Y8,Z8)、「驚き」の基本表情におけるPの座標を(X9,Y9,Z9)、「無感動」の基本表情におけるPの座標を(X10,Y10,Z10)と表す。そして、抽出された感情分類に対応する基本表情を、それぞれの感情強度の割合で合成し、キャラクタの表情を生成する。すなわち、生成されたキャラクタの表情におけるPの座標(XE,YE,ZE)は、次式で表わされる。 Next, the PC 30 synthesizes the facial expression of the character based on the analyzed emotion. (Step S3). In this embodiment, the basic facial expressions are synthesized, and the facial expressions of the characters in the analyzed emotion are synthesized. Here, 10 emotion classifications used for human facial expression formation: "joy", "sadness", "anger", "hate", "fear", "sin", "shame", "interest", "surprise", "no emotion" Are prepared in advance. Here, for a polygon P in the character's facial expression, the coordinates of P in the basic expression of “joy” are (X 1 , Y 1 , Z 1 ), and the coordinates of P in the basic expression of “sadness” are ( X 2 , Y 2 , Z 2 ), the coordinates of P in the basic expression of “anger” (X 3 , Y 3 , Z 3 ), and the coordinates of P in the basic expression of “disgust” (X 4 , Y 4 , Z 4 ), the coordinates of P in the basic expression of “fear” (X 5 , Y 5 , Z 5 ), the coordinates of P in the basic expression of “sin” (X 6 , Y 6 , Z 6 ), “shame” P coordinates in the basic facial expression of (X 7 , Y 7 , Z 7 ), P coordinates in the basic facial expression of “interest” (X 8 , Y 8 , Z 8 ), P in the basic facial expression of “surprise” (X 9 , Y 9 , Z 9 ) and the coordinates of P in the basic expression of “no motion” are represented as (X 10 , Y 10 , Z 10 ). Then, the basic facial expressions corresponding to the extracted emotion classification are synthesized at the ratio of the respective emotion strengths to generate the facial expression of the character. That is, the coordinates of P (X E , Y E , Z E ) in the generated facial expression of the character are expressed by the following equations.

Figure 2014085952
Figure 2014085952

同様の操作をキャラクタの表情における全ポリゴンに対して実行し、キャラクタの表情を生成する。   A similar operation is performed on all polygons in the character's facial expression to generate the character's facial expression.

次に、PC30において、解析された感情に基づいて生成したキャラクタの表情が変化する速度を制御する(ステップS4)。本実施形態では、感情語データベースに対応した時間情報データベースを使用する。時間情報データベースは、日本語辞書などの大量の単語データベースに存在する全ての単語に対して、表情がどれくらいの速度で変化するか規定し、標準の速度を1として、予め形成されている。   Next, the PC 30 controls the speed at which the facial expression of the character generated based on the analyzed emotion changes (step S4). In this embodiment, a time information database corresponding to the emotion word database is used. The time information database prescribes how fast the facial expression changes for all words existing in a large number of word databases such as a Japanese dictionary, with a standard speed set to 1.

そして、入力されるテキストデータ40と一致または類似する単語を感情語データベースの中から検索し、その単語に対応する時間情報を時間情報データベースの中から抽出する。ここで、抽出された時間情報をVと表す。そして、抽出された時間情報Vに基づいて、生成したキャラクタの表情を時間的に制御する。すなわち、時刻0に(X0,Y0,Z0)であったキャラクタのPの座標を、生成されたキャラクタのPの座標(XE,YE,ZE)へ変化させる場合、任意の時刻Tにおける生成されたキャラクタのPの座標(XT,YT,ZT)は、次式で表わされる。 Then, a word that matches or is similar to the input text data 40 is searched from the emotion word database, and time information corresponding to the word is extracted from the time information database. Here, the extracted time information is represented as V. Then, based on the extracted time information V, the facial expression of the generated character is temporally controlled. That is, when the P coordinate of the character that was (X 0 , Y 0 , Z 0 ) at time 0 is changed to the P coordinate (X E , Y E , Z E ) of the generated character, an arbitrary P coordinates (X T , Y T , Z T ) of the generated character at time T are expressed by the following equations.

Figure 2014085952
ただし、時刻Tにおいて、次の3式を同時に満たす場合、それ以降の時刻では、(XT,YT,ZT)=(XE,YE,ZE)とする。
Figure 2014085952
However, when the following three expressions are satisfied simultaneously at time T , (X T , Y T , Z T ) = (X E , Y E , Z E ) at subsequent times.

Figure 2014085952
Figure 2014085952

同様の操作をキャラクタの表情における全ポリゴンに対して実行し、キャラクタの表情を時間的に制御する。   A similar operation is performed on all the polygons in the character's facial expression, and the character's facial expression is temporally controlled.

次に、PC30において、制御された時間に基づき、合成されたキャラクタの表情の画像を生成する(ステップS5)。もし、キーボード20により入力されるテキストデータ40が続く場合は、キャラクタの表情の画像を生成した後、ステップS2に戻り、次のテキストデータ40に対しての処理を開始する。   Next, the PC 30 generates an image of the facial expression of the synthesized character based on the controlled time (step S5). If the text data 40 input through the keyboard 20 continues, after generating an image of the character's facial expression, the process returns to step S2 and processing for the next text data 40 is started.

最後に、制御された時間情報に基づき、合成されたキャラクタの表情の画像をディスプレイ10に映写する(ステップS6)。   Finally, based on the controlled time information, the synthesized facial expression image of the character is projected on the display 10 (step S6).

なお、本発明は、以下のような態様を採ることも可能である。すなわち、(1)本発明の表情生成装置は、感情に応じて表情が変化し得るキャラクタの表情を生成する表情生成装置であって、入力データの感情分類及び前記感情分類の強度を示す情報に応じて、前記キャラクタの基本表情を前記感情分類の強度の割合で合成する表情合成部と、前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情を時間的に変化させる動き制御部と、を備えることを特徴とする。   In addition, this invention can also take the following aspects. That is, (1) a facial expression generation apparatus according to the present invention is a facial expression generation apparatus that generates a facial expression of a character whose facial expression can change according to emotion, and includes information indicating emotion classification of input data and the intensity of the emotion classification In response, a facial expression synthesis unit that synthesizes the basic facial expression of the character at a ratio of the intensity of the emotion classification, and temporally changes the facial expression of the synthesized character according to time information corresponding to the analyzed emotion classification. A motion control unit.

このように、入力データの感情分類及び前記感情分類の強度を示す情報に応じて、キャラクタの基本表情を前記感情分類の強度の割合で合成し、感情分類に対応する時間情報に応じて、合成したキャラクタの表情を時間的に変化させるので、感情表現のある表情を一意に生成することができる。また、時間軸の制御によって表現可能な感情における表情を生成することができる。さらに、大量の表情を予め用意しなくても、多くの感情を表現した表情を合成することが可能となる。   As described above, the basic facial expression of the character is synthesized at the ratio of the intensity of the emotion classification according to the emotion classification of the input data and the information indicating the intensity of the emotion classification, and is synthesized according to the time information corresponding to the emotion classification. Since the facial expression of the selected character is changed with time, a facial expression with emotional expression can be uniquely generated. It is also possible to generate facial expressions in emotions that can be expressed by controlling the time axis. Furthermore, it is possible to synthesize facial expressions expressing many emotions without preparing a large number of facial expressions in advance.

(2)また、本発明の表情生成装置は、前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情が変化する速度または加速度を調整する時間制御部を更に備えることを特徴とする。   (2) The facial expression generation apparatus of the present invention further includes a time control unit that adjusts a speed or acceleration at which the facial expression of the synthesized character changes according to time information corresponding to the analyzed emotion classification. Features.

このように、感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情が変化する速度または加速度を調整するので、時間軸の制御によって表現可能な感情における表情を生成することができる。   In this way, the speed or acceleration at which the combined facial expression of the synthesized character changes is adjusted according to the time information corresponding to the emotion classification, so that it is possible to generate facial expressions in emotions that can be expressed by controlling the time axis.

(3)また、本発明の表情生成装置は、任意のデータを入力し、前記入力データにおける感情分類及び前記感情分類の強度を解析する感情解析部を更に備えることを特徴とする。   (3) The facial expression generation apparatus of the present invention further includes an emotion analysis unit that inputs arbitrary data and analyzes the emotion classification in the input data and the strength of the emotion classification.

このように、任意のデータを入力し、前記入力データにおける感情分類及び前記感情分類の強度を解析するので、感情表現のある表情を一意に生成することができる。   As described above, since arbitrary data is input and the emotion classification and the strength of the emotion classification in the input data are analyzed, a facial expression with emotion expression can be uniquely generated.

(4)また、本発明の表情生成装置は、前記表情合成部で合成し、前記時間制御部で時間的に変化したキャラクタの表情を再生する表情再生部をさらに備えることを特徴とする。   (4) In addition, the facial expression generation apparatus of the present invention further includes a facial expression reproduction unit that synthesizes the facial expression synthesis unit and reproduces the facial expression of the character that has been temporally changed by the time control unit.

このように、表情合成部で合成し、時間制御部で時間的に変化したキャラクタの表情を再生するので、ユーザに対して処理したキャラクタの感情を表示することが可能となる。   In this way, since the facial expression of the character that is synthesized by the facial expression synthesis unit and temporally changed by the time control unit is reproduced, it is possible to display the emotion of the processed character to the user.

(5)また、本発明のプログラムは、感情に応じて表情が変化し得るキャラクタの表情を生成するプログラムであって、任意のデータを入力し、前記入力データにおける感情分類及び前記感情分類の強度を解析する処理と、前記解析した感情分類に応じて、前記キャラクタの基本表情を前記感情分類の強度の割合で合成する処理と、前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情を時間的に変化させる処理と、の一連の処理をコンピュータに実行させることを特徴とする。   (5) Further, the program of the present invention is a program for generating a facial expression of a character whose facial expression can be changed according to emotions, input arbitrary data, and the emotion classification in the input data and the strength of the emotion classification A process of analyzing the character according to the analyzed emotion classification, a process of combining the basic facial expression of the character at a ratio of the intensity of the emotion classification, and the synthesis according to time information corresponding to the analyzed emotion classification The computer is caused to execute a series of processes of changing the facial expression of the character that has been changed over time.

このように、入力データの感情分類及び前記感情分類の強度を示す情報に応じて、キャラクタの基本表情を前記感情分類の強度の割合で合成し、感情分類に対応する時間情報に応じて、合成したキャラクタの表情を時間的に変化させるので、感情表現のある表情を一意に生成することができる。また、時間軸の制御によって表現可能な感情における表情を生成することができる。さらに、大量の表情を予め用意しなくても、多くの感情を表現した表情を合成することが可能となる。   As described above, the basic facial expression of the character is synthesized at the ratio of the intensity of the emotion classification according to the emotion classification of the input data and the information indicating the intensity of the emotion classification, and is synthesized according to the time information corresponding to the emotion classification. Since the facial expression of the selected character is changed with time, a facial expression with emotional expression can be uniquely generated. It is also possible to generate facial expressions in emotions that can be expressed by controlling the time axis. Furthermore, it is possible to synthesize facial expressions expressing many emotions without preparing a large number of facial expressions in advance.

なお、本実施形態に係る表情生成装置では、表情合成部30−2で合成したキャラクタの表情を表示する画面を備えても良い。これにより、ユーザに対して合成したキャラクタの表情を視認可能とすることができる。また、その画面は、スクリーン、ディスプレイ、テレビ、建築物の壁面、窓、ガラス、鏡またはパネルのいずれかとすることも可能である。これにより、ユーザに対して、種々の形態での表示を行なうことが可能となる。   Note that the facial expression generation apparatus according to the present embodiment may include a screen that displays the facial expression of the character synthesized by the facial expression synthesis unit 30-2. Thereby, it is possible to make the facial expression of the synthesized character visible to the user. The screen may be any of a screen, a display, a television, a building wall, a window, glass, a mirror, or a panel. Thereby, it is possible to display in various forms to the user.

以上説明したように、本実施形態によれば、PC30に入力されるテキストデータ40における感情を解析し、解析された感情に応じたキャラクタの表情を合成する。また、解析された感情に基づいて生成したキャラクタの表情を時間的に制御する。そして、PC30は、制御された時間情報に基づき、合成されたキャラクタの表情の画像を生成して、画像信号を随時ディスプレイ10に発信する。その際、PC30において生成された画像はディスプレイ10にA1として映写される。これにより、本実施形態では、感情表現のある表情を自動的に生成することができる。また、解析された感情に基づいて生成したキャラクタの表情を時間的に制御するので、時間軸の制御によって表現可能な感情における表情を生成することができる。さらに、大量の表情を予め用意しなくても、多くの感情を表現した表情を生成することが可能となる。   As described above, according to the present embodiment, the emotion in the text data 40 input to the PC 30 is analyzed, and the facial expression of the character corresponding to the analyzed emotion is synthesized. In addition, the facial expression of the character generated based on the analyzed emotion is temporally controlled. Then, the PC 30 generates a combined facial expression image of the character based on the controlled time information, and transmits an image signal to the display 10 as needed. At that time, the image generated in the PC 30 is projected on the display 10 as A1. Thereby, in this embodiment, a facial expression with an emotional expression can be automatically generated. In addition, since the facial expression of the character generated based on the analyzed emotion is temporally controlled, it is possible to generate facial expressions in emotions that can be expressed by controlling the time axis. Furthermore, it is possible to generate facial expressions expressing many emotions without preparing a large number of facial expressions in advance.

10 ディスプレイ
20 キーボード
30−1 感情解析部
30−2 表情合成部
30−3 動き制御部
30−4 表情再生部
30−5 時間制御部
30a ケーブル

DESCRIPTION OF SYMBOLS 10 Display 20 Keyboard 30-1 Emotion analysis part 30-2 Expression synthesis part 30-3 Motion control part 30-4 Expression reproduction | regeneration part 30-5 Time control part 30a Cable

Claims (5)

感情に応じて表情が変化し得るキャラクタの表情を生成する表情生成装置であって、
入力データの感情分類及び前記感情分類の強度を示す情報に応じて、前記キャラクタの基本表情を前記感情分類の強度の割合で合成する表情合成部と、
前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情を時間的に変化させる動き制御部と、を備えることを特徴とする表情生成装置。
A facial expression generator that generates a facial expression of a character whose facial expression can change according to emotions,
A facial expression synthesizer that synthesizes the basic facial expression of the character at a ratio of the emotion classification intensity according to the emotion classification of the input data and the information indicating the intensity of the emotion classification;
A facial expression generating apparatus comprising: a motion control unit that temporally changes the facial expression of the synthesized character in accordance with time information corresponding to the analyzed emotion classification.
前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情が変化する速度または加速度を調整する時間制御部を更に備えることを特徴とする請求項1記載の表情生成装置。   The facial expression generation apparatus according to claim 1, further comprising a time control unit that adjusts a speed or acceleration at which the facial expression of the synthesized character changes according to time information corresponding to the analyzed emotion classification. 任意のデータを入力し、前記入力データにおける感情分類及び前記感情分類の強度を解析する感情解析部を更に備えることを特徴とする請求項1または請求項2記載の表情生成装置。   The facial expression generation apparatus according to claim 1, further comprising an emotion analysis unit that inputs arbitrary data and analyzes an emotion classification in the input data and an intensity of the emotion classification. 前記表情合成部で合成し、前記時間制御部で時間的に変化したキャラクタの表情を再生する表情再生部をさらに備えることを特徴とする請求項1から請求項3のいずれかに記載の表情生成装置。   The facial expression generation according to any one of claims 1 to 3, further comprising a facial expression reproducing unit that reproduces the facial expression of the character that is synthesized by the facial expression synthesis unit and temporally changed by the time control unit. apparatus. 感情に応じて表情が変化し得るキャラクタの表情を生成するプログラムであって、
任意のデータを入力し、前記入力データにおける感情分類及び前記感情分類の強度を解析する処理と、
前記解析した感情分類に応じて、前記キャラクタの基本表情を前記感情分類の強度の割合で合成する処理と、
前記解析した感情分類に対応する時間情報に応じて、前記合成したキャラクタの表情を時間的に変化させる処理と、の一連の処理をコンピュータに実行させることを特徴とするプログラム。

A program for generating a facial expression of a character whose facial expression can change according to emotions,
Processing for inputting arbitrary data and analyzing the emotion classification in the input data and the strength of the emotion classification;
In accordance with the analyzed emotion classification, a process of combining the basic facial expression of the character with a ratio of the intensity of the emotion classification;
A program for causing a computer to execute a series of processing of temporally changing the facial expression of the synthesized character in accordance with time information corresponding to the analyzed emotion classification.

JP2012236066A 2012-10-25 2012-10-25 Expression generation device and program Pending JP2014085952A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012236066A JP2014085952A (en) 2012-10-25 2012-10-25 Expression generation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012236066A JP2014085952A (en) 2012-10-25 2012-10-25 Expression generation device and program

Publications (1)

Publication Number Publication Date
JP2014085952A true JP2014085952A (en) 2014-05-12

Family

ID=50788932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012236066A Pending JP2014085952A (en) 2012-10-25 2012-10-25 Expression generation device and program

Country Status (1)

Country Link
JP (1) JP2014085952A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105404878A (en) * 2015-12-11 2016-03-16 广东欧珀移动通信有限公司 Photo classification method and apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (en) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd Emotion simulating device
JPH10255070A (en) * 1997-03-11 1998-09-25 Atr Chinou Eizo Tsushin Kenkyusho:Kk Three-dimensional image generating device
JP2001209820A (en) * 2000-01-25 2001-08-03 Nec Corp Emotion expressing device and mechanically readable recording medium with recorded program
JP2002032306A (en) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab Mail transmission system
JP2012160082A (en) * 2011-02-01 2012-08-23 Bond:Kk Input support device, input support method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (en) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd Emotion simulating device
JPH10255070A (en) * 1997-03-11 1998-09-25 Atr Chinou Eizo Tsushin Kenkyusho:Kk Three-dimensional image generating device
JP2001209820A (en) * 2000-01-25 2001-08-03 Nec Corp Emotion expressing device and mechanically readable recording medium with recorded program
JP2002032306A (en) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab Mail transmission system
JP2012160082A (en) * 2011-02-01 2012-08-23 Bond:Kk Input support device, input support method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016023481; 黒瀬 啓之: '感情に基づく表情選択手法の提案とその文章朗読への適用' 映像情報メディア学会技術報告 第29巻 第64号 メディア工学 ME2005-196, 20051103, P.57-62, (社)映像情報メディア学会 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105404878A (en) * 2015-12-11 2016-03-16 广东欧珀移动通信有限公司 Photo classification method and apparatus

Similar Documents

Publication Publication Date Title
WO2022048403A1 (en) Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal
KR102503413B1 (en) Animation interaction method, device, equipment and storage medium
US20200279553A1 (en) Linguistic style matching agent
WO2019196306A1 (en) Device and method for speech-based mouth shape animation blending, and readable storage medium
US9431027B2 (en) Synchronized gesture and speech production for humanoid robots using random numbers
KR101306221B1 (en) Method and apparatus for providing moving picture using 3d user avatar
KR102116309B1 (en) Synchronization animation output system of virtual characters and text
CN111145777A (en) Virtual image display method and device, electronic equipment and storage medium
JP2018014094A (en) Virtual robot interaction method, system, and robot
JP6711044B2 (en) Image processing device, display device, animation generation method, and program
JP6201212B2 (en) Character generating apparatus and program
CN112001323A (en) Digital virtual human mouth shape driving method based on pinyin or English phonetic symbol reading method
KR101089184B1 (en) Method and system for providing a speech and expression of emotion in 3D charactor
WO2018079332A1 (en) Information processing device and information processing method
US9449521B2 (en) Method for using virtual facial and bodily expressions
Charalambous et al. Audio‐driven emotional speech animation for interactive virtual characters
Pan et al. Expressive talking avatars
JP6222465B2 (en) Animation generating apparatus, animation generating method and program
JP2014085952A (en) Expression generation device and program
JP2017182261A (en) Information processing apparatus, information processing method, and program
Tolins et al. A verbal and gestural corpus of story retellings to an expressive embodied virtual character
JP2014167737A (en) Device and program for creating gestures
JP2022054326A (en) Interactive program, device, and method for expressing sense of listening of character in accordance with user's emotion
Mukashev et al. Facial expression generation of 3D avatar based on semantic analysis
Gibet et al. Challenges for the animation of expressive virtual characters: The standpoint of sign language and theatrical gestures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160927