JP2003150186A - Robot system, robot control method, robot controller and robot control program - Google Patents

Robot system, robot control method, robot controller and robot control program

Info

Publication number
JP2003150186A
JP2003150186A JP2001352242A JP2001352242A JP2003150186A JP 2003150186 A JP2003150186 A JP 2003150186A JP 2001352242 A JP2001352242 A JP 2001352242A JP 2001352242 A JP2001352242 A JP 2001352242A JP 2003150186 A JP2003150186 A JP 2003150186A
Authority
JP
Japan
Prior art keywords
robot
signal
emotion
information
robot control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001352242A
Other languages
Japanese (ja)
Inventor
Akira Nakayama
彰 中山
Tamotsu Machino
保 町野
Satoshi Iwaki
敏 岩城
Ikuo Kitagishi
郁雄 北岸
Masashi Okudaira
雅士 奥平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2001352242A priority Critical patent/JP2003150186A/en
Publication of JP2003150186A publication Critical patent/JP2003150186A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

PROBLEM TO BE SOLVED: To make information, through which a robot having multi-degree of freedom is precisely controlled transmittable, with a simply constituted transmitting means while the information is simultaneously synchronized with voice, music or synthesized voice. SOLUTION: The robot system is provided with a robot control section 10 which analyzes inputted text information, extracts feeling information that is used to express feeling from the text information, analyzes the feeling information and generates movement signals to move the robot based on the analysis results, a synthesized voice generating section 11 which synthesizes voice signals from the text information, a mixer 14 which outputs synthesized sound electric signals obtained by superimposing the voice signals and the movement signals as robot control signals and a USB interface 15.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、発信側において、
音楽や音声、合成音声信号に対して、ロボット動作コマ
ンド(ロボット動作信号)を埋め込み、受信側において、
該音響信号に埋め込まれているロボット動作信号を抽出
し、これによって多自由度ロボットの動作を精密に制御
すると同時に、音響信号を出力する技術に関するもので
ある。
TECHNICAL FIELD The present invention relates to
Embed a robot motion command (robot motion signal) for music, voice, and synthetic voice signals, and on the receiving side,
The present invention relates to a technique of extracting a robot motion signal embedded in the acoustic signal, precisely controlling the motion of the multi-degree-of-freedom robot by this, and simultaneously outputting the acoustic signal.

【0002】[0002]

【従来の技術】コンピュータからの動作信号に合わせ
て、動作するロボット玩具は従来から存在する。例え
ば、富士通製の「たっちおじさん」などは、その一例で
ある。これは、ロボットヘの動作信号を、シリアルイン
タフェースRS232Cを通してロボットヘ送信するものであ
った。また、同社よりシリアルインタフェースUSBを
通して、ロボットヘの動作信号を送信するものも商品化
されている。
2. Description of the Related Art There have been robot toys that move in response to a motion signal from a computer. For example, "Mr. Tacchi Oji" made by Fujitsu is one example. This is to transmit the operation signal to the robot to the robot through the serial interface RS232C. In addition, the company has also commercialized a device that sends an operation signal to a robot through a serial interface USB.

【0003】また、本出願人より先に出願された発明
で、ロボットヘの動作信号、ロボットの音声合成音をス
テレオのオーディオ信号で送信する方法も存在してい
る。このステレオのオーディオ信号は左チャネルには音
声合成音、右チャネルにはDTMF音、FM変調波、A
M変調波などがモータ制御信号として含まれている。こ
の方法により、ロボットの動作を制御するのと同時に、
音響信号を出力することができた。音楽・音声の強度に
単純に反応して動作するロボットも存在する。またスピ
ーカーのみ、つまりは音響出力手段のみを内包して、音
のみを発生する可動部のないロボットも従来から存在す
る。
Further, in the invention filed by the present applicant, there is also a method of transmitting a motion signal to a robot and a voice synthesized voice of the robot by a stereo audio signal. This stereo audio signal has a voice synthesis sound on the left channel, a DTMF sound, an FM modulated wave, and an A on the right channel.
An M-modulated wave or the like is included as a motor control signal. With this method, while controlling the movement of the robot,
It was possible to output an acoustic signal. There are also robots that simply react to the strength of music and voice. In addition, there is a conventional robot that includes only a speaker, that is, only a sound output unit and has no moving part that generates only sound.

【0004】[0004]

【発明が解決しようとする課題】富士通製の「たっちお
じさん」は使用中に常時、シリアルインタフェースRS23
2Cへの接続を必要とし、パーソナルコンピュータ側で
は、スキャナ、ターミナルアダプタ、プリンタなどのRS
232C接続を必要とする機器を同時に使えないという問題
があった。また、同社よりシリアルインタフェースUS
Bを通してロボットヘの動作信号を送信するものもある
が、ロボットから音声を出力することができないという
問題があった。
[Problems to be solved by the invention] Fujitsu's "Tachijiji" always uses the serial interface RS23 during use.
2C connection is required, and on the personal computer side, RS, such as scanner, terminal adapter, printer, etc.
There was a problem that equipment that requires 232C connection could not be used at the same time. In addition, serial interface US from the company
Although there are some that transmit an operation signal to the robot through B, there is a problem that the robot cannot output voice.

【0005】また、音響出力手段のみをもつ、可動部の
ないロボットに対して、モータを内蔵し、ロボットを制
御するためには、音響信号を伝送するケーブルの他に、
ロボットを制御するための信号線(たとえばRS232Cな
ど)を別に接続する必要があった。これらのロボットの
共通な課題としては、音と同期して信号線を制御する制
御ソフトウェアの開発であり、制御ソフトウェア自体の
開発も困難性を伴うものであるが、CPUの負荷変動に
対して頑健な同期を実現することは非常に困難であっ
た。
Further, in order to control the robot by incorporating a motor in a robot having only a sound output means and no moving part, in addition to a cable for transmitting a sound signal,
It was necessary to connect a signal line (such as RS232C) for controlling the robot separately. A common issue for these robots is the development of control software that controls the signal line in synchronization with sound, and although the development of the control software itself is difficult, it is robust against CPU load fluctuations. It was very difficult to achieve proper synchronization.

【0006】音声の強度に単純に反応して動作するロボ
ットの場合、ロボットの動作を任意に制御することが困
難であった。本出願人の先の発明によるロボットの場合
は、音響信号と動作信号の同期は保たれるものの、DT
MF信号を利用する場合は、DTMFの規格のためある
程度のトーンの持続時間が必要となるため、情報の伝送
量が低く押さえられ、多自由度をもつロボットを精密に
制御することができない。
In the case of a robot which operates by simply reacting to the strength of voice, it is difficult to arbitrarily control the motion of the robot. In the case of the robot according to the applicant's earlier invention, although the synchronization of the acoustic signal and the motion signal is maintained, the DT
When the MF signal is used, the tone duration is required to some extent due to the DTMF standard, so that the amount of information transmission is suppressed low, and the robot having multiple degrees of freedom cannot be precisely controlled.

【0007】またFM、AM変調波を用いる場合は、外
部からの雑音に弱い、また信号発信手段に良好な特性が
求められるという問題があった。本発明は、このような
事情に鑑みてなされたものであり、簡潔な構成の伝達手
段によって、音声や音楽また合成音声と同時に同期して
多自由度のロボットを精密に制御する情報を送信するこ
とが可能で、かつそのため経済的に実現することが可能
なロボットシステム、ロボット制御方法、ロボット制御
装置及びロボット制御プログラムを提供することを目的
としている。
Further, when the FM or AM modulated wave is used, there is a problem that it is vulnerable to external noise and that the signal transmitting means is required to have good characteristics. The present invention has been made in view of such circumstances, and transmits information for precisely controlling a robot having multiple degrees of freedom in synchronization with voice, music, or synthetic voice by a transmission means having a simple structure. It is an object of the present invention to provide a robot system, a robot control method, a robot control device, and a robot control program that can be realized and therefore can be economically realized.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に請求項1に記載の発明は、可聴音信号を生成する音源
と、人間がロボットの動作を定義して該ロボットを制御
するためのロボット動作信号を入力する入力手段と、前
記音源から出力された可聴音信号と前記入力手段より入
力されたロボット動作信号を電気的に合成して合成音電
気信号を生成する電気信号生成手段と、該電気信号生成
手段で生成された合成音電気信号を出力する電気信号出
力手段とを有するロボット制御装置と、前記電気信号出
力手段より出力された合成音電気信号を入力する電気信
号入力手段と、該電気信号入力手段から入力された合成
音電気信号からロボット動作信号を分離抽出する分離抽
出手段と、前記電気信号入力手段により入力された合成
音電気信号を空中に放射する放射手段とを有するロボッ
トと、からなることを特徴とする。
In order to achieve the above-mentioned object, the invention according to claim 1 is to provide a sound source for generating an audible sound signal and a human for defining the motion of the robot and controlling the robot. Input means for inputting a robot movement signal; and electric signal generation means for electrically combining an audible sound signal output from the sound source and a robot movement signal input from the input means to generate a synthetic sound electric signal, A robot controller having an electric signal output means for outputting the synthetic sound electric signal generated by the electric signal generating means, and an electric signal input means for inputting the synthetic sound electric signal output from the electric signal output means, Separation and extraction means for separating and extracting a robot motion signal from the synthetic sound electric signal inputted from the electric signal input means, and the synthetic sound electric signal inputted by the electric signal input means in the air A robot having a radiation means for radiating, that consists characterized.

【0009】請求項2に記載の発明は、入力されたテキ
スト情報を分析して該テキスト情報から感情を表現する
感情情報を抽出すると共に、該感情情報を分析し、該分
析結果に基づいてロボットを動作させるための動作信号
を生成するロボット制御手段と、前記テキスト情報から
音声信号を合成する合成音声生成手段と、前記音声信号
と動作信号を重畳して得られる合成音電気信号を前記ロ
ボット制御信号として出力するロボット制御信号出力手
段とを有するロボット制御装置と、前記ロボット制御信
号出力手段をから出力された合成音電気信号を入力する
電気信号入力手段と、前記電気信号入力手段に入力され
た合成音電気信号から前記音声信号と動作信号とを分離
抽出する分離抽出手段と、前記分離抽出手段で分離抽出
した動作信号を入力して可動部を駆動する駆動手段と、
前記分離抽出手段により分離抽出した音声信号を空中に
放射する放射手段とを有するロボットと、からなること
を特徴とする。
According to a second aspect of the present invention, the input text information is analyzed to extract emotion information expressing an emotion from the text information, the emotion information is analyzed, and the robot is based on the analysis result. Robot control means for generating a motion signal for operating the robot, synthetic voice generation means for synthesizing a voice signal from the text information, and synthetic robot electric signal obtained by superposing the voice signal and the motion signal on the robot control. A robot control device having a robot control signal output means for outputting as a signal, an electric signal input means for inputting a synthetic sound electric signal outputted from the robot control signal output means, and an electric signal input means The separation and extraction means for separating and extracting the voice signal and the motion signal from the synthesized sound electric signal and the operation signal separated and extracted by the separation and extraction means are input. Driving means for driving the movable portion and,
A robot having a radiating unit for radiating the audio signal separated and extracted by the separating and extracting unit into the air.

【0010】請求項3に記載の発明は、ロボットを入力
されたテキスト情報から得られるロボット制御信号によ
り制御するロボット制御方法であって、入力されたテキ
スト情報を分析して該テキスト情報から感情を表現する
感情情報を抽出する第1のステップと、前記感情情報を
分析し、該分析結果に基づいてロボットを動作させるた
めの動作信号を生成する第2のステップと、前記テキス
ト情報から音声信号を合成する第3のステップと、前記
音声信号と動作信号を重畳して得られる合成音電気信号
を前記ロボット制御信号として出力する第4のステップ
と、を有することを特徴とする。
A third aspect of the present invention is a robot control method for controlling a robot by a robot control signal obtained from input text information, wherein the input text information is analyzed to express emotions from the text information. A first step of extracting emotional information to be expressed, a second step of analyzing the emotional information and generating an operation signal for operating a robot based on the analysis result, and a voice signal from the text information. It is characterized by including a third step of synthesizing, and a fourth step of outputting a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal as the robot control signal.

【0011】請求項4に記載の発明は、請求項3に記載
のロボット制御方法において、感情表現を示す手がかり
となるキーワードと、感情に関わるタグ情報である感情
タグ情報との対応関係と、該感情タグ情報とロボットを
動作させるための動作パラメータとの対応関係が予め登
録されており、前記第1のステップでは、前記テキスト
情報を形態素解析して前記キーワードを抽出し、前記第
2のステップでは、前記キーワードと感情タグ情報との
対応関係から前記抽出されたキーワードが該当する感情
タグ情報を取得し、前記感情タグ情報と前記動作パラメ
ータとの対応関係から前記動作信号を生成することを特
徴とする。
According to a fourth aspect of the present invention, in the robot control method according to the third aspect, there is a correspondence relationship between a keyword serving as a clue indicating an emotional expression and emotional tag information that is tag information relating to emotions. Correspondence between emotion tag information and operation parameters for operating the robot is registered in advance. In the first step, the text information is subjected to morphological analysis to extract the keyword, and in the second step, And acquiring emotion tag information corresponding to the extracted keyword from the correspondence between the keyword and emotion tag information, and generating the motion signal from the correspondence between the emotion tag information and the motion parameter. To do.

【0012】請求項5に記載の発明は、ロボットを入力
されたテキスト情報から得られるロボット制御信号によ
り制御するロボット制御装置であって、入力されたテキ
スト情報を分析して該テキスト情報から感情を表現する
感情情報を抽出すると共に、該感情情報を分析し、該分
析結果に基づいてロボットを動作させるための動作信号
を生成するロボット制御手段と、前記テキスト情報から
音声信号を合成する合成音声生成手段と、前記音声信号
と動作信号を重畳して得られる合成音電気信号を前記ロ
ボット制御信号として出力するロボット制御信号出力手
段と、を有することを特徴とする。
According to a fifth aspect of the present invention, there is provided a robot control device for controlling a robot by a robot control signal obtained from input text information, wherein the input text information is analyzed to express emotions from the text information. Robot control means for extracting emotional information to be expressed, analyzing the emotional information, and generating a motion signal for operating the robot based on the analysis result, and synthetic voice generation for synthesizing a voice signal from the text information Means and a robot control signal output means for outputting a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal as the robot control signal.

【0013】請求項6に記載の発明は、請求項5に記載
のロボット制御装置において、前記ロボット制御手段
は、感情表現を示す手がかりとなるキーワードと、感情
に関わるタグ情報である感情タグ情報との対応関係を示
すテーブルが記憶されている第1の記憶手段と、前記感
情タグ情報とロボットを動作させるための動作パラメー
タとの対応関係を示すテーブルが記憶されている第2の
記憶手段とを有し、前記テキスト情報を形態素解析して
前記キーワードを抽出し、前記第1の記憶手段に記憶さ
れているテーブルを参照して前記抽出されたキーワード
が該当する感情タグ情報を取得すると共に、前記第2の
記憶手段に記憶されているテーブルを参照し、前記取得
した感情タグ情報に対応する前記動作パラメータを求
め、前記動作信号を生成することを特徴とする。
According to a sixth aspect of the present invention, in the robot control device according to the fifth aspect, the robot control means includes a keyword serving as a clue indicating emotional expression, and emotion tag information that is tag information relating to emotion. And a second storage unit in which a table indicating the correspondence between the emotion tag information and the operation parameters for operating the robot is stored. Morphologically analyzing the text information to extract the keyword, and referring to a table stored in the first storage unit to obtain emotion tag information to which the extracted keyword corresponds, and By referring to the table stored in the second storage means, the operation parameter corresponding to the acquired emotion tag information is obtained, and the operation signal is generated. Characterized in that it.

【0014】請求項7に記載の発明は、ロボットを入力
されたテキスト情報から得られるロボット制御信号によ
り制御するロボット制御方法であって、入力されたテキ
スト情報を分析して該テキスト情報から感情を表現する
感情情報を抽出する第1のステップと、前記感情情報を
分析し、該分析結果に基づいてロボットを動作させるた
めの動作信号を生成する第2のステップと、前記テキス
ト情報から音声信号を合成する第3のステップと、前記
音声信号と動作信号を重畳して得られる合成音電気信号
を前記ロボット制御信号として出力する第4のステップ
と、を有することを特徴とするロボット制御方法をコン
ピュータに実行させるためのロボット制御プログラムを
要旨とする。
According to a seventh aspect of the present invention, there is provided a robot control method for controlling a robot by a robot control signal obtained from input text information, wherein the input text information is analyzed to express emotions from the text information. A first step of extracting emotional information to be expressed, a second step of analyzing the emotional information and generating an operation signal for operating a robot based on the analysis result, and a voice signal from the text information. A robot control method comprising: a third step of synthesizing; and a fourth step of outputting, as the robot control signal, a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal on each other. The gist is a robot control program to be executed by the.

【0015】請求項8に記載の発明は、ロボットを入力
されたテキスト情報から得られるロボット制御信号によ
り制御するロボット制御方法であって、入力されたテキ
スト情報を分析して該テキスト情報から感情を表現する
感情情報を抽出する第1のステップと、前記感情情報を
分析し、該分析結果に基づいてロボットを動作させるた
めの動作信号を生成する第2のステップと、前記テキス
ト情報から音声信号を合成する第3のステップと、前記
音声信号と動作信号を重畳して得られる合成音電気信号
を前記ロボット制御信号として出力する第4のステップ
と、を有し、感情表現を示す手がかりとなるキーワード
と、感情に関わるタグ情報である感情タグ情報との対応
関係と、該感情タグ情報とロボットを動作させるための
動作パラメータとの対応関係が予め登録されており、前
記第1のステップでは、前記テキスト情報を形態素解析
して前記キーワードを抽出し、前記第2のステップで
は、前記キーワードと感情タグ情報との対応関係から前
記抽出されたキーワードが該当する感情タグ情報を取得
し、前記感情タグ情報と前記動作パラメータとの対応関
係から前記動作信号を生成することを特徴とするロボッ
ト制御方法をコンピュータに実行させるためのロボット
制御プログラムを要旨とする。
According to an eighth aspect of the present invention, there is provided a robot control method for controlling a robot by a robot control signal obtained from input text information, wherein the input text information is analyzed to express emotions from the text information. A first step of extracting emotional information to be expressed, a second step of analyzing the emotional information and generating an operation signal for operating a robot based on the analysis result, and a voice signal from the text information. A keyword having a third step of synthesizing and a fourth step of outputting a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal as the robot control signal, which is a clue to show an emotional expression. And a correspondence relationship between emotion tag information that is tag information relating to emotions, and operation parameters for operating the emotion tag information and the robot. Correspondence is registered in advance, and in the first step, the keyword is extracted by performing morpheme analysis on the text information, and in the second step, the extraction is performed from the correspondence between the keyword and emotion tag information. A robot control program for causing a computer to execute a robot control method, characterized in that emotion tag information corresponding to a specified keyword is acquired, and the action signal is generated from a correspondence relationship between the emotion tag information and the action parameter. Is the gist.

【0016】[0016]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳細に説明する。図1は、本発明が適用され
るロボットシステムの一例の概略構成が示されている。
同図において、ロボットシステムは、パーソナルコンピ
ュータ(PC)1と、パーソナルコンピュータ(PC)
1とUSBバス2を介して接続されるロボット3とから
構成されている。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a schematic configuration of an example of a robot system to which the present invention is applied.
In the figure, the robot system includes a personal computer (PC) 1 and a personal computer (PC).
1 and a robot 3 connected via a USB bus 2.

【0017】図1は、パーソナルコンピュータ(PC)
1から出力された合成音声信号と、動作情報とがディジ
タル化された音声音響信号が伝送路(USBバス2)を
介して、ロボット3に伝送され、音声音響信号に基づい
てロボット3が動作している状態を示している。ロボッ
ト3は、USBバス2を介して伝送される合成音声信号
をDA変換して増幅し、空中に放射しており、動作情報
を復調し、この動作情報に基づいて首を振っている。
FIG. 1 shows a personal computer (PC).
1 is transmitted to the robot 3 via a transmission path (USB bus 2), and the robot 3 operates based on the voice acoustic signal. It shows the state. The robot 3 DA-converts and amplifies the synthetic voice signal transmitted via the USB bus 2, radiates it in the air, demodulates motion information, and shakes its head based on this motion information.

【0018】本発明が適用されるロボットシステムの送
信側の構成、すなわち、本発明の第1の実施形態に係る
ロボット制御装置の構成を図2に示す。本実施の形態に
係るロボット制御装置は、ロボットを入力されたテキス
ト情報から得られるロボット制御信号により制御するロ
ボット制御方法であって、入力されたテキスト情報を分
析して該テキスト情報から感情を表現する感情情報を抽
出する第1のステップと、前記感情情報を分析し、該分
析結果に基づいてロボットを動作させるための動作信号
を生成する第2のステップと、前記テキスト情報から音
声信号を合成する第3のステップと、前記音声信号と動
作信号を重畳して得られる合成音電気信号を前記ロボッ
ト制御信号として出力する第4のステップとを有するこ
とを特徴とするロボット制御方法を実施するための装置
である。
FIG. 2 shows the configuration of the transmitting side of the robot system to which the present invention is applied, that is, the configuration of the robot controller according to the first embodiment of the present invention. The robot control device according to the present embodiment is a robot control method for controlling a robot by a robot control signal obtained from input text information, and analyzes the input text information to express emotions from the text information. First step of extracting emotion information to be performed, second step of analyzing the emotion information and generating an operation signal for operating the robot based on the analysis result, and synthesizing a voice signal from the text information In order to implement the robot control method, there is provided a third step for performing the same, and a fourth step for outputting a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal as the robot control signal. Device.

【0019】同図において、本実施形態に係るロボット
制御装置は、ロボット制御部10と、合成音声生成部1
1と、モータ制御部12と、データ変換部13と、ミキ
サ14と、USBインタフェースボード15とを有して
いる。
In FIG. 1, the robot control apparatus according to this embodiment includes a robot control unit 10 and a synthetic voice generation unit 1.
1, a motor control unit 12, a data conversion unit 13, a mixer 14, and a USB interface board 15.

【0020】また、S1はテキスト情報、S2は回転角
度指令値、S3はモータ制御信号、S4は音声信号(左
チャネルオーディオ信号)、S5は右チャネルオーディ
オ信号、S6は合成音電気信号を表している。なお、ロ
ボット制御部10は本発明のロボット制御手段に、合成
音声生成部11は本発明の合成音声生成手段に、ミキサ
14及びUSBインタフェースボード15は本発明のロ
ボット制御信号出力手段に、それぞれ相当する。
S1 is text information, S2 is a rotation angle command value, S3 is a motor control signal, S4 is a voice signal (left channel audio signal), S5 is a right channel audio signal, and S6 is a synthetic sound electric signal. There is. The robot control unit 10 corresponds to the robot control unit of the present invention, the synthetic voice generation unit 11 corresponds to the synthetic voice generation unit of the present invention, and the mixer 14 and the USB interface board 15 correspond to the robot control signal output unit of the present invention. To do.

【0021】次に、本発明が適用されるロボットシステ
ムの受信側(ロボット3)の構成を図3に示す。同図に
おいて、ロボット3は、USBオーディオインタフェー
ス30と、D/A変換器31と、増幅器32と、スピー
カ33と、モータ駆動信号生成部34と、モータ駆動部
35と、ロボットの各部を駆動するサーボモータ36と
を有している。なお、USBオーディオインタフェース
30は本発明の電気信号入力手段及び分離抽出手段に、
モータ駆動信号生成部34、モータ駆動部及びサーボモ
ータ36は本発明の駆動手段に、スピーカ33は本発明
の放射手段にそれぞれ、相当する。次に、図2、図3に
示したロボットシステムおける、信号の流れについて説
明する。まず、送信側では、ロボット制御部1が、テキ
スト情報S1と、サーボモータ36の回転角度指令値S
2を生成する。
Next, FIG. 3 shows the configuration of the receiving side (robot 3) of the robot system to which the present invention is applied. In the figure, the robot 3 drives a USB audio interface 30, a D / A converter 31, an amplifier 32, a speaker 33, a motor drive signal generation unit 34, a motor drive unit 35, and each unit of the robot. And a servo motor 36. The USB audio interface 30 serves as an electric signal input unit and a separation / extraction unit of the present invention.
The motor drive signal generation unit 34, the motor drive unit, and the servomotor 36 correspond to the driving means of the present invention, and the speaker 33 corresponds to the radiating means of the present invention. Next, the flow of signals in the robot system shown in FIGS. 2 and 3 will be described. First, on the transmission side, the robot control unit 1 uses the text information S1 and the rotation angle command value S of the servo motor 36.
Generates 2.

【0022】本実施形態ではロボット制御部10は、H
TMLファイルや、電子メールの文章から、形態素解析
を行ってテキスト情報とサーボモータ36の回転位置情
報を生成するように構成する。ここで、形態素解析と
は、電子メールなどのテキストファイルを単語に分けて
品詞のタグ付けを行うものである。
In the present embodiment, the robot control unit 10 controls the H
The text information and the rotational position information of the servo motor 36 are generated by performing morphological analysis from the TML file or the text of the electronic mail. Here, the morphological analysis is to tag a part of speech by dividing a text file such as an electronic mail into words.

【0023】ロボット制御部10の具体的構成を図4に
示す。同図に示すように、ロボット制御部10は、入力
されたテキスト情報を分析する形態素解析部100と、
形態素解析されたテキスト情報に基づいて感情タグ情報
を抽出する情報タグ抽出部101と、ロボット動作信号
生成部102と、感情表現を示す手がかりとなるキーワ
ードと、感情に関わるタグ情報である感情タグ情報との
対応関係を示すテーブルが記憶されている感情タグ情報
記憶部103と、感情タグ情報とロボットを動作させる
ための動作パラメータとの対応関係を示すテーブルが記
憶されているジェスチャデータベース104とを有して
いる。
The concrete structure of the robot controller 10 is shown in FIG. As shown in the figure, the robot control unit 10 includes a morphological analysis unit 100 that analyzes input text information,
An information tag extraction unit 101 that extracts emotion tag information based on the morphologically analyzed text information, a robot motion signal generation unit 102, a keyword serving as a clue indicating emotion expression, and emotion tag information that is tag information relating to emotion. An emotion tag information storage unit 103 that stores a table that indicates the correspondence relationship between the emotion tag information and a gesture database 104 that stores a table that indicates the correspondence relationship between the emotion tag information and the operation parameters for operating the robot. is doing.

【0024】なお、感情タグ情報記憶部103は本発明
の第1の記憶手段に、ジェスチャデータベース104は
本発明第2の記憶手段に、それぞれ相当する。電子メー
ルテキストは、単語に分けて、品詞のタグ付けを行う形
態素解析によって文章の内容を解析し、感情にかかわる
タグ情報である感情タグ情報を取得する(下記例参
照)。形態素解析部100、感情タグ情報抽出部101
の出力情報は感情タグ情報、感情タグ情報の手がかりと
なった単語(キーワード)のテキスト情報を含むテキス
トファイルである。
The emotion tag information storage unit 103 corresponds to the first storage means of the present invention, and the gesture database 104 corresponds to the second storage means of the present invention. The e-mail text is divided into words, the content of the sentence is analyzed by morphological analysis in which part-of-speech tagging is performed, and emotion tag information that is tag information relating to emotions is acquired (see the example below). Morphological analysis unit 100, emotion tag information extraction unit 101
The output information of is a text file including emotion tag information and text information of a word (keyword) that is a clue of the emotion tag information.

【0025】<出力情報の例> 感情タグ情報 @喜び 手がかりとなった単語(キーワード) {わーい} <形態素解析例>形態素解析例について以下に説明す
る。
<Example of Output Information> Emotional Tag Information @Words (Keywords) that became Joyful Clue {Wai} <Example of Morphological Analysis> An example of morphological analysis will be described below.

【0026】(入力メールテキスト) 「失礼しまーす。美穂です。さっちゃん家での、ホーム
パーティのお誘いでーす。今回は自分の得意料理を持ち
寄りましょう。」 この文章の中から感情タグ情報の手がかりとなる単語、
すなわちキーワードを抽出し、感情タグ情報を取得す
る。この例文の場合には、「失礼します。」というキー
ワードから感情タグ情報『挨拶』を取得し、「ホームパ
ーティ」というキーワードから感情タグ情報『楽しみ』
を取得し、文末の「(持ち寄り)ましょう」というキー
ワードから感情タグ情報『勧誘』を取得する。このよう
な処理結果を以下に示す。
(Input email text) "I'm sorry. It's Miho. It's an invitation to a home party at Satcha's house. Let's bring your favorite food this time." Feeling tag information from this sentence A clue word,
That is, the keyword is extracted and the emotion tag information is acquired. In the case of this example sentence, the emotion tag information "greeting" is acquired from the keyword "I'm sorry.", And the emotion tag information "enjoyment" is acquired from the keyword "home party".
And the emotion tag information “solicitation” is acquired from the keyword “(bring along)” at the end of the sentence. The results of such processing are shown below.

【0027】(処理後) @挨拶{失礼しまーす}。 美穂です。 さっちゃん家での、 @楽しみ{ホームパーティ}のお誘いでーす。 今回は自分の得意料理を持ち寄りま@勧誘{しょう}。 上記処理結果において、“@”の後から”{”までが感
情タグ情報、“{”から”}”までが感情タグ情報の手掛
かりとなった単語(キーワード)である。この感情タグ
情報の抽出は感情タグ情報記憶部103に記憶されてい
るテーブルを参照して行われる。
(After processing) @ Greeting {Excuse me}. This is Miho. Invitation to @home party at Satcha house. This time, bring your own specialty @ solicitation. In the above processing result, “@” to “{” are emotion tag information, and “{” to “}” are clues (keywords) that are clues to emotion tag information. The extraction of the emotion tag information is performed by referring to the table stored in the emotion tag information storage unit 103.

【0028】感情タグ情報記憶部103に記憶されてい
るテーブルの内容、すなわち、感情タグ情報とその感情
タグ情報の手がかりとなる感情表現を示すキーワードと
の関係の一例を以下に示す。 <感情タグ情報とその手掛かりとなるキーワードの例> 感情タグ情報:喜び キーワード :成功、おめでとう、(^^)Vなど 感情タグ情報:怒り キーワード :文句、怒、(‘ ’)など 感情タグ情報:悲しみ キーワード :失敗、痛、(T_T)など 感情タグ情報:楽しみ キーワード :笑、愉快、p(^^)q,など
An example of the relationship between the contents of the table stored in the emotion tag information storage unit 103, that is, the emotion tag information and the keyword indicating the emotion expression that serves as a clue for the emotion tag information is shown below. <Examples of emotion tag information and keywords serving as clues> Emotion tag information: pleasure keyword: success, congratulations, (^^) V, etc. emotion tag information: anger keyword: complaint, anger, (''), etc. emotion tag information: Sadness keyword: Failure, pain, (T_T), etc. Feeling tag information: Fun keyword: lol, pleasant, p (^^) q, etc.

【0029】上述した感情タグ情報抽出部101の出力
情報に基づいて、ロボット動作信号生成部102は、感
情タグ情報に対応付けられた、ロボットを動作させるた
めの動作パラメータである、ロボット関節駆動用モータ
(サーボモータ36)の指令値(モータ番号、位置)の
時系列データを格納したジェスチャデータベース104
を検索してロボット動作信号を生成し、モータ制御部1
2に出力する。また、ロボット制御部10は、これと同
時に合成音声部11にテキスト情報S1を出力する。
Based on the output information from the emotion tag information extraction unit 101 described above, the robot motion signal generation unit 102 causes the robot joint drive, which is a motion parameter associated with the emotion tag information, for operating the robot. Gesture database 104 storing time-series data of command values (motor number, position) of the motor (servo motor 36)
To generate a robot operation signal, and the motor control unit 1
Output to 2. At the same time, the robot control unit 10 outputs the text information S1 to the synthetic voice unit 11.

【0030】合成音声生成部11は、テキスト情報S1
から合成音声信号S4を生成する。このような技術とし
て、北脇信彦編著:「音のコミュニケーション工学」、p
p.62-86,コロナ社(1996)などに挙げられているもの
が知られている。また、モータ制御部12はロボット制
御部10より入力されたモータ回転角度指令値S2から
モータ制御信号S3を生成する。このモータ制御信号S
3は、図5に示すフォーマットで与えられる。
The synthetic speech generation unit 11 uses the text information S1.
To generate a synthesized voice signal S4. Nobuhiko Kitawaki, “Sound Communication Engineering”, p.
p. 62-86, those listed in Corona (1996), etc. are known. The motor controller 12 also generates a motor control signal S3 from the motor rotation angle command value S2 input from the robot controller 10. This motor control signal S
3 is given in the format shown in FIG.

【0031】本実施形態では、例えば、回転角度、-90
度から+90度までを500段階の精度でかつ8個のモータに
よりロボットの各(関節)を制御できるものを想定する。
コントロールワードは、図5示すように、16ビットの
うち、D8〜D0(bit 8〜0)がモータ回転角度指令値を示
す角度指定データ(000h〜1C1h)、C2〜C0(bit11〜9)
が制御対象となるサーボモータを指定するチャンネル番
号指定データ(0〜7)、 P(bit 13)が奇数パリティ
ビットである。
In this embodiment, for example, the rotation angle is -90.
Assume that each robot (joint) can be controlled from 8 degrees to +90 degrees with 500 steps of accuracy and 8 motors.
In the control word, as shown in FIG. 5, among the 16 bits, D8 to D0 (bits 8 to 0) are the angle designation data (000h to 1C1h) indicating the motor rotation angle command value, C2 to C0 (bits 11 to 9).
Is the channel number specification data (0 to 7) that specifies the servo motor to be controlled, and P (bit 13) is an odd parity bit.

【0032】モータ制御信号は、上記のコントロールワ
ードが、時間的に離散的に並んでいるものである。デー
タ変換部13では、通常の音声ディジタル信号による誤
動作を防ぐため、図6に示すフォーマットの同期ワード
AA55(16)を角度指定データの直前のサンプルに付加
し、右チャネルオーディオ信号S5を生成する。左チャ
ネルオーディオ信号S4と右チャネルオーディオ信号S
5とはミキサ14により合成され、パーソナルコンピュ
ータ1のUSBインタフェース15に送られ、合成音電
気信号S6としてUSBバス2に送出される。
In the motor control signal, the control words described above are arranged discretely in time. In order to prevent malfunction due to a normal audio digital signal, the data conversion unit 13 adds the synchronization word AA55 (16) in the format shown in FIG. 6 to the sample immediately before the angle designation data, and generates the right channel audio signal S5. Left channel audio signal S4 and right channel audio signal S
5 is synthesized by the mixer 14, sent to the USB interface 15 of the personal computer 1, and sent to the USB bus 2 as the synthesized sound electric signal S6.

【0033】合成音電気信号S6がUSBバス2に送出
されるまでの過程については、参考文献「インターフェ
ース増刊 USBハード&ソフト開発のすベて」CQ出
版社(2001)に詳しく解説がなされている。一方、
ロボットシステムの受信側(ロボット3)においては、
USBバス2から得られた合成音電気信号S6を、US
Bオーディオインタフェース30を介して左チャネルオ
ーディオ信号S4と、右チャネルオーディオ信号S5と
を分離して取り出す。この過程については、先に挙げた
文献に詳しい解説がなされている。オーディオ信号は通
常I2S(Inter IC Sound)などのフォーマットでディジ
タル信号の形で取り出せる(例えばPhilips社の
UDA1321など)。
The process until the synthesized sound electric signal S6 is sent to the USB bus 2 is described in detail in the reference document "Interface special edition USB hardware & software development", CQ publisher (2001). . on the other hand,
On the receiving side (robot 3) of the robot system,
The synthesized sound electric signal S6 obtained from the USB bus 2 is
The left channel audio signal S4 and the right channel audio signal S5 are separated and taken out via the B audio interface 30. A detailed explanation of this process is given in the literature cited above. The audio signal can usually be taken out in the form of a digital signal in a format such as I2S (Inter IC Sound) (for example, UDA1321 manufactured by Philips).

【0034】左チャネルオーディオ信号S4はD/A変
換器31によりアナログ信号に変換された後、増幅器3
2により増幅され、スピーカ33により空間に放射され
る。これにより人間は耳によりスピーカ33から放射さ
れた音声を聞くことが可能となる。また、USBオーデ
ィオインタフェース30より得られた右チャネルオーデ
ィオ信号S5はモータ駆動信号生成部34によりモータ
駆動信号(PWMパルス幅変調信号)S10に変換さ
れ、サーボモータ36はモータ駆動信号に基づき、あら
かじめ送信側(パーソナルコンピュータ1側)で意図し
たとおりの回転角度指令値S2により指定された角度ま
で回転する。
The left channel audio signal S4 is converted into an analog signal by the D / A converter 31, and then the amplifier 3
2 is amplified and radiated into space by the speaker 33. As a result, a human can hear the sound radiated from the speaker 33 by the ear. Also, the right channel audio signal S5 obtained from the USB audio interface 30 is converted into a motor drive signal (PWM pulse width modulation signal) S10 by the motor drive signal generation unit 34, and the servo motor 36 is transmitted in advance based on the motor drive signal. The side (personal computer 1 side) rotates to the angle designated by the intended rotation angle command value S2.

【0035】次に、本発明が適用される図1に示すロボ
ットシステムの受信側におけるモータ駆動信号生成部3
4の具体的動作について説明する。モータ駆動信号生成
部34の動作を図7及び図8のフローチャートを参照し
て説明する。モータ駆動信号生成部34の動作、すなわ
ち処理内容は、二つの独立したプロセス、すなわち「指
令値変換プロセス」(図7)と、「PWM信号生成プロ
セス」(図8)とからなる。指令値変換プロセスでは、
I2Sバスから受け取った信号を、回転角度指令値(タイ
マの設定値)に変換する処理を行う。まず、指令値変換
プロセスの処理内容について説明する。
Next, the motor drive signal generator 3 on the receiving side of the robot system shown in FIG. 1 to which the present invention is applied.
The specific operation of No. 4 will be described. The operation of the motor drive signal generator 34 will be described with reference to the flowcharts of FIGS. 7 and 8. The operation of the motor drive signal generation unit 34, that is, the processing content is composed of two independent processes, that is, a "command value conversion process" (Fig. 7) and a "PWM signal generation process" (Fig. 8). In the command value conversion process,
Performs processing to convert the signal received from the I2S bus into a rotation angle command value (timer setting value). First, the processing contents of the command value conversion process will be described.

【0036】図7において、まず、ステップ200では
I2Sバス37からディジタル値を取得する。次いで、同
期ワードをチェックする(ステップ201)。もし設定
された同期ワードでなければ、再びステップ200に戻
る。他方、ステップ201で設定された同期ワードであ
ると判定された場合には、次のワード(コントロールワ
ード)を取得するため、IISバス37から次のサンプル
値を取得する(ステップ202)。
In FIG. 7, first, in step 200,
Obtain a digital value from the I2S bus 37. Then, the synchronization word is checked (step 201). If it is not the set sync word, the process returns to step 200 again. On the other hand, when it is determined that the synchronization word is the one set in step 201, the next sample value is obtained from the IIS bus 37 to obtain the next word (control word) (step 202).

【0037】さらに、ステップ203でパリティチェッ
クを行う。ここで、正しい値が取得できていれば、ステ
ップ204へ進み、正しい値が取得できていなければ、
ステップ200に戻る。次に、ステップ204では、コ
ントロールワードにおけるチャネル番号指定データであ
る11ビット目から9ビット目にわたる値から回転角度
指令値を設定すベき共通メモリのアドレスを決定する。
なお、この共通メモリはモータ駆動信号生成部34内に
設けてもよいし、モータ駆動信号生成部34外に設けて
もよい。
Further, in step 203, a parity check is performed. Here, if the correct value has been acquired, the process proceeds to step 204, and if the correct value has not been acquired,
Return to step 200. Next, at step 204, the address of the common memory for setting the rotation angle command value is determined from the value from the 11th bit to the 9th bit which is the channel number designation data in the control word.
The common memory may be provided inside the motor drive signal generation section 34 or outside the motor drive signal generation section 34.

【0038】さらに、ステップ204では、コントロー
ルワードにおける角度指定データである8ビット目から
0ビット目にわたる値の定数倍(モータ仕様とプロセス
のクロックにより決定)を演算して回転角度指令値に変
換する。次いで、ステップ204で求められた共通メモ
リのアドレスに回転角度指令値を書き込む(ステップ2
05)。
Further, in step 204, a constant multiple of the value from the 8th bit to the 0th bit (determined by the motor specification and the process clock) which is the angle designation data in the control word is calculated and converted into a rotation angle command value. . Then, the rotation angle command value is written to the address of the common memory obtained in step 204 (step 2
05).

【0039】次に、PWM信号生成プロセスの処理内容
について説明する。PWM信号生成プロセスでは、共通
メモリに記憶された回転角度指令値からPWM信号を生
成する処理を行う。なお、このPWM信号生成プロセス
の処理はPWM信号の繰り返し周期(一般的には18ミリ
秒から23ミリ秒程度)ごとに実行される。図8におい
て、まず、ステップ210で共通メモリから回転角度指
令値を読み込む。次いで、8台の各モータ駆動部35毎
に、ひいては各サーボモータ36毎に設けられた各タイ
マにステップ210で読み込んだ回転角度指令値をそれ
ぞれ、セットする(ステップ211)。
Next, the processing contents of the PWM signal generation process will be described. In the PWM signal generation process, the PWM signal is generated from the rotation angle command value stored in the common memory. The process of the PWM signal generation process is executed at each repetition period of the PWM signal (generally, about 18 milliseconds to 23 milliseconds). In FIG. 8, first, at step 210, the rotation angle command value is read from the common memory. Next, the rotation angle command value read in step 210 is set in each timer provided for each of the eight motor drive units 35, and each servo motor 36 (step 211).

【0040】さらに、モータ駆動信号生成部の各出力を
アクティブ(活性化状態)にする(ステップ212)。
次いで、すベてのタイマが0になるまで、タイマの設定
値をディクリメントする(ステップ213)。次に、タ
イマが0になったところから、出力をパッシブ(非活性
化状態)にする(ステップ214、215)。ステップ
210〜215の処理により、タイマ設定に応じたPW
M信号を生成することができる。PWM信号をモータ駆
動部35を介してサーボモータ36に入力することによ
り、サーボモータ36は所望の角度まで回転する。
Further, each output of the motor drive signal generator is activated (activated) (step 212).
Next, the set values of the timers are decremented until all the timers become 0 (step 213). Next, when the timer reaches 0, the output is made passive (inactive state) (steps 214 and 215). By the processing of steps 210 to 215, the PW according to the timer setting
An M signal can be generated. By inputting the PWM signal to the servo motor 36 via the motor drive unit 35, the servo motor 36 rotates to a desired angle.

【0041】図9は、本発明の第1の実施形態に係るロ
ボット制御装置の各部の動作状態を示す波形図である。
同図において(A)はテキスト情報、(B)は合成音声
信号、(C)はモータ回転角度指令値、(D)はモータ
制御信号、(E)はPWM信号のパルス幅、(F)は右
チャンネルオーディオ信号であり、各信号の関係を図示
したものである。この例においては、「えりさんからメ
ールがきたよ」とロボット3に発声させて、ロボット3
の首を左から右に傾けることを想定している。
FIG. 9 is a waveform diagram showing the operating state of each part of the robot controller according to the first embodiment of the present invention.
In the figure, (A) is text information, (B) is a synthesized voice signal, (C) is a motor rotation angle command value, (D) is a motor control signal, (E) is a pulse width of a PWM signal, and (F) is It is a right channel audio signal and illustrates the relationship between the signals. In this example, the robot 3 is uttered, "Email came from Mr. Eri," and the robot 3
It is assumed that the neck of the person is tilted from left to right.

【0042】ディジタル化されたステレオの音声信号の
内、左チャネルに通常の音声信号、また右チャネルに、
ロボットを駆動するサーボモータ36ヘの制御信号を重
畳しているため、受信側(ロボット3側)においては、
その重畳した動作情報を抽出することによって、特にロ
ボットの動作と、ロボットが発生する音声との同期をと
るための機構を設けることなく、簡潔に構成できるロボ
ットシステムを実現できる。
Of the digitized stereo audio signals, the left channel is a normal audio signal, and the right channel is
Since the control signal to the servo motor 36 that drives the robot is superimposed, on the receiving side (robot 3 side),
By extracting the superimposed motion information, a robot system that can be simply configured can be realized without providing a mechanism for synchronizing the motion of the robot and the voice generated by the robot.

【0043】本実施形態では、ディジタル化された音声
信号を伝送する音声音響伝送路としてUSBバスを例に
とり、説明したが、ディジタル化された音声信号を伝送
する音声音響伝送路として、SPDIF規格に基づく伝
送路や、AES/EBU規格に基づくものを用いるよう
にしてもよい。
In the present embodiment, the USB bus has been described as an example of the audio sound transmission path for transmitting the digitized audio signal, but the audio sound transmission path for transmitting the digitized audio signal has the SPDIF standard. A transmission line based on the AES / EBU standard may be used.

【0044】次に、本発明が適用されるロボットシステ
ムの他の例の概略構成を図10に示す。図10に示すロ
ボットシステムにおいて、図1に示したロボットシステ
ムと、同一の構成要素には同一の参照符号を付してあ
る。同図において、ロボットシステムは、パーソナルコ
ンピュータ(PC)1Aと、パーソナルコンピュータ
(PC)1Aとオーディオライン2Aを介して接続され
るロボット3Aとから構成されている。
Next, FIG. 10 shows a schematic configuration of another example of the robot system to which the present invention is applied. In the robot system shown in FIG. 10, the same components as those of the robot system shown in FIG. 1 are designated by the same reference numerals. In the figure, the robot system includes a personal computer (PC) 1A and a robot 3A connected to the personal computer (PC) 1A via an audio line 2A.

【0045】図10に示したロボットシステムの送信
側、すなわちパーソナルコンピュータ1A側(ロボット
制御装置の第2の実施形態)の構成を図11に示す。本
実施の形態に係るロボット制御装置についても図2に示
した第1の実施の形態に係るロボット制御装置と同一の
構成要素には同一の符号を付してある。図11におい
て、本実施形態に係るロボット制御装置は、ロボット制
御部10と、合成音声生成部11と、モータ制御部12
と、データ変換部13Aと、ミキサ14と、サウンドカ
ード16とを有している。
FIG. 11 shows the configuration of the transmission side of the robot system shown in FIG. 10, that is, the personal computer 1A side (the second embodiment of the robot controller). Also in the robot controller according to the present embodiment, the same components as those of the robot controller according to the first embodiment shown in FIG. 2 are designated by the same reference numerals. Referring to FIG. 11, the robot control device according to the present exemplary embodiment includes a robot control unit 10, a synthetic voice generation unit 11, and a motor control unit 12.
The data conversion unit 13A, the mixer 14, and the sound card 16 are included.

【0046】また、S1はテキスト情報、S2は回転角
度指令値、S3はモータ制御信号、S4は音声信号(左
チャネルオーディオ信号)、S5‘は右チャネルオーデ
ィオ信号、S6’は合成音電気信号を表している。な
お、ロボット制御部10は本発明のロボット制御手段
に、合成音声生成部11は本発明の合成音声生成手段
に、ミキサ14及びサウンドカード16は本発明のロボ
ット制御信号出力手段に、それぞれ相当する。
S1 is text information, S2 is a rotation angle command value, S3 is a motor control signal, S4 is a voice signal (left channel audio signal), S5 'is a right channel audio signal, and S6' is a synthetic sound electric signal. It represents. The robot controller 10 corresponds to the robot controller of the present invention, the synthetic voice generator 11 corresponds to the synthetic voice generator of the present invention, and the mixer 14 and the sound card 16 correspond to the robot control signal output unit of the present invention. .

【0047】次に、本発明が適用される図10に示した
ロボットシステムの受信側(ロボット3A)の構成を図
12に示す。同図において、ロボット3Aは、14‘は
サウンドインタフェース300と、増幅器302と、ス
ピーカ303と、モータ駆動信号生成部304と、モー
タ駆動部305と、サーボモー306とを有している。
なお、サウンドインタフェース300は本発明の電気信
号入力手段及び分離抽出手段に、モータ駆動信号生成部
304、モータ駆動部305と及びサーボモー306は
本発明の駆動手段に、スピーカ303は本発明の放射手
段に相当する。
FIG. 12 shows the configuration of the receiving side (robot 3A) of the robot system shown in FIG. 10 to which the present invention is applied. In the figure, the robot 3A has a sound interface 14 ', an amplifier 302, a speaker 303, a motor drive signal generation unit 304, a motor drive unit 305, and a servo mode 306.
The sound interface 300 is the electric signal inputting means and the separating / extracting means of the present invention, the motor drive signal generating section 304, the motor driving section 305 and the servo mode 306 are the driving means of the present invention, and the speaker 303 is the radiating means of the present invention. Equivalent to.

【0048】次に、図11、図12に示したロボットシ
ステムにおける信号の流れについて説明する。まず、送
信側であるパーソナルコンピュータ1Aでは、ロボット
制御部10がテキスト情報S1を生成すると共に、生成
したテキスト情報S1からロボットの動作信号としての
サーボモータ306の回転角度指令値S2を生成する。
テキスト情報S1と回転角度指令値S2の生成方法につ
いては、既述した第1の実施形態と同じ方法を採用する
ことができる。
Next, the signal flow in the robot system shown in FIGS. 11 and 12 will be described. First, in the personal computer 1A on the transmission side, the robot control unit 10 generates the text information S1 and the rotation angle command value S2 of the servo motor 306 as the operation signal of the robot from the generated text information S1.
Regarding the method of generating the text information S1 and the rotation angle command value S2, the same method as in the above-described first embodiment can be adopted.

【0049】合成音声生成部11はロボット制御部10
から送信されたテキスト情報S1に基づいて、合成音声
信号(左チャネルオーディオ信号)S4を生成する。合
成音声信号S4の生成方法については、既述した第1の
実施の形態と同じ方法を採用することができる。モータ
制御部12はロボット制御部10から送信された回転角
度指令値S2からモータ制御信号S3を生成する。モー
タ制御信号S3はデータ変換部13Aで音声信号(右チ
ャネルオーディオ信号)S5’に変換される。
The synthetic speech generator 11 is a robot controller 10
A synthesized voice signal (left channel audio signal) S4 is generated based on the text information S1 transmitted from the. As the method of generating the synthetic voice signal S4, the same method as in the above-described first embodiment can be adopted. The motor control unit 12 generates a motor control signal S3 from the rotation angle command value S2 transmitted from the robot control unit 10. The motor control signal S3 is converted into an audio signal (right channel audio signal) S5 'by the data converter 13A.

【0050】データ変換部13Aの具体的な処理を図1
3及び図14を参照して説明する。図13にデータ変換
部13Aの構成を示す。同図において、データ変換部
は、パリティフォーマット計算部130と、PE変調部
131と、ガウシアン変調部132とから構成されてい
る。
The concrete processing of the data conversion unit 13A is shown in FIG.
3 and FIG. 14 will be described. FIG. 13 shows the configuration of the data conversion unit 13A. In the figure, the data conversion unit includes a parity format calculation unit 130, a PE modulation unit 131, and a Gaussian modulation unit 132.

【0051】データ変換部13Aにおいて、パリティフ
ォーマット計算部130では、モータ制御信号S3を以
下のようなフォーマットの12ビットの信号 「S C2 C1 C0 A6 A5 A4 A3 A2 A1
A0 P」 に変換する。ここで「S」はスタートビット、「C2
C1 C0」は8台のサーボモータ306のいずれかを指
定するためのモータ指定データ(チャンネル番号指定デ
ータ)、「A6 A5 A4 A3 A2 A1 A0」は角
度指定データ(モータ回転角度指令値)、「P」は奇数
パリティチェックビットを表している。具体的には、
「C2 C1 C0」が「000」では、モータ番号0の
サーボモータ306が指定される。また、角度指定デー
タ「A6 A5 A4 A3 A2 A1A0」が「0000
000」では、サーボモータ306の回転角度指令値が
0度であることを示している。角度指定データ「A6
A5 A4 A3 A2 A1A0」が「0000000」か
ら「1111111」の2進数で、回転角度指令値が0
度から127度までを指定する。
In the data converter 13A, the parity format calculator 130 converts the motor control signal S3 into a 12-bit signal "S C2 C1 C0 A6 A5 A4 A3 A2 A1" in the following format.
A0 P ". Where "S" is the start bit and "C2
“C1 C0” is motor designation data (channel number designation data) for designating any of the eight servo motors 306, “A6 A5 A4 A3 A2 A1 A0” is angle designation data (motor rotation angle command value), "P" represents an odd parity check bit. In particular,
When "C2 C1 C0" is "000", the servo motor 306 having the motor number 0 is designated. Also, the angle designation data "A6 A5 A4 A3 A2 A1 A0" is "0000."
"000" indicates that the rotation angle command value of the servo motor 306 is 0 degree. Angle designation data "A6
"A5 A4 A3 A2 A1 A0" is a binary number from "0000000" to "1111111", and the rotation angle command value is 0.
Specify from degrees to 127 degrees.

【0052】以下にモータ制御信号S3のデータフォー
マットにおける各ビットの対応関係を示す。 S:1 C2 C1 C0: 000(モータ0) 001(モータ1) 010(モータ2) 011(モータ3) 100(モータ4) 101(モータ5) 110(モータ6) 111(モータ7) A6 A5 A4 A3 A2 A1 A0 : 0000000 (モータ回転角 度指令値0度) 1111111 (モータ回転角 度指令値127度) (0度から127度の数値を2進数にした値) P:奇数パリティチェック
The correspondence relationship between each bit in the data format of the motor control signal S3 is shown below. S: 1 C2 C1 C0: 000 (motor 0) 001 (motor 1) 010 (motor 2) 011 (motor 3) 100 (motor 4) 101 (motor 5) 110 (motor 6) 111 (motor 7) A6 A5 A4 A3 A2 A1 A0: 0000000 (Motor rotation angle command value 0 degree) 1111111 (Motor rotation angle command value 127 degree) (Value from 0 degree to 127 degree converted to binary number) P: Odd parity check

【0053】PE変調部131では、パリティフォーマ
ット計算部130で得られた12ビットの信号を、以下
のルールで位相変調し24ビットの信号(チャネルビッ
ト)を得る。すなわち、パリティフォーマット計算部1
30で得られた9ビットの信号における各ビットにおい
てデータが「0」である場合には「01」に、データが
「1」である場合には「10」に変換することにより1
2ビットの信号を24ビットの信号に変換する。
The PE modulator 131 phase-modulates the 12-bit signal obtained by the parity format calculator 130 according to the following rules to obtain a 24-bit signal (channel bit). That is, the parity format calculation unit 1
If the data in each bit of the 9-bit signal obtained in 30 is "0", it is converted to "01", and if the data is "1", it is converted to "10" to obtain 1
A 2-bit signal is converted into a 24-bit signal.

【0054】ガウシアン変調部132では、 PE変調
部131で得られた、24ビットの信号0,1レベル間
における波形の遷移を滑らかに図14に示すように、ガ
ウス状の波形で結ぶ。また、24ビットの信号のデータ
「0」をマイナスの値、データ「1」をプラスの値に当
てはめる。滑らかに波形を遷移させることでサウンドカ
ード16から出力される不要な高調波を抑制することが
できる。また、周波数領域において、変調波が占有する
周波数帯域も小さくすることができ、それほど周波数特
性の良好でない、サウンドカード16も使用することが
できる。
In the Gaussian modulation section 132, the transition of the waveform between the 0 and 1 levels of the 24-bit signal obtained by the PE modulation section 131 is smoothly connected by a Gaussian waveform as shown in FIG. Also, the data "0" of the 24-bit signal is applied to the negative value and the data "1" is applied to the positive value. By smoothly transitioning the waveform, unnecessary harmonics output from the sound card 16 can be suppressed. In addition, the frequency band occupied by the modulated wave can be reduced in the frequency domain, and the sound card 16 having not so good frequency characteristics can be used.

【0055】データ変換部13Aによって音声信号S
5’になったモータ制御信号は、右チャネルオーディオ
信号として、ミキサ14にて合成音声生成部11から出
力された合成音声信号S4と混合され、サウンドカード
16からステレオ信号S6’としてオーディオライン2
Aに出力される。
The voice signal S by the data conversion unit 13A
The motor control signal which has become 5'is mixed as a right channel audio signal with the synthetic voice signal S4 output from the synthetic voice generation unit 11 in the mixer 14, and the audio line 2 is output from the sound card 16 as a stereo signal S6 '.
It is output to A.

【0056】次に、本発明が適用される図10に示すロ
ボットシステムの受信側の信号の流れを、図12を参照
して説明する。送信側から送出されたステレオオーディ
オ信号は、まず、サウンドインタフェース300に入力
される。サウンドインタフェース300における処理の
流れを、図15を参照して説明する。図15は、サウン
ドインタフェース300の構成を示している。同図にお
いて、サウンドインタフェース300は、信号分離部3
000と、信号整形部3001と、PE復調部3002
とを有している。
Next, the signal flow on the receiving side of the robot system shown in FIG. 10 to which the present invention is applied will be described with reference to FIG. The stereo audio signal sent from the transmitting side is first input to the sound interface 300. The flow of processing in the sound interface 300 will be described with reference to FIG. FIG. 15 shows the configuration of the sound interface 300. In the figure, the sound interface 300 includes a signal separation unit 3
000, a signal shaping unit 3001, and a PE demodulation unit 3002
And have.

【0057】まず、信号分離部3000では、オーディ
オライン2Aを介して入力されたステレオ信号S6’を
右チャネルと左チャネルに分離し、右チャネルの信号
を、信号整形部3001に送出する。信号整形部300
1では、ガウス波形状になった信号を低域フィルタリン
グ処理して雑音を取り除いた後、飽和領域まで増幅する
ことにより、2値化し、もとのPE変調信号を得る。P
E復調部3002では、データ変換部13AにおけるP
E変調部131と逆の処理を行う。すなわち、24ビッ
トのPE変調信号において、「10」となる2ビットの
データを「1」に、「01」となる2ビットのデータを
「0」に変換することにより12ビットのフォーマット
の信号を得る。
First, the signal separation unit 3000 separates the stereo signal S6 ′ input via the audio line 2A into the right channel and the left channel, and sends the right channel signal to the signal shaping unit 3001. Signal shaping unit 300
In No. 1, the Gaussian wave-shaped signal is subjected to low-pass filtering to remove noise, and then amplified to the saturation region to be binarized to obtain the original PE-modulated signal. P
In the E demodulation unit 3002, P in the data conversion unit 13A is
The reverse process of the E modulator 131 is performed. That is, in a 24-bit PE modulation signal, a 2-bit data of "10" is converted to "1" and a 2-bit data of "01" is converted to "0" to convert a signal of 12-bit format. obtain.

【0058】次に、モータ駆動信号生成部304の具体
的動作について説明する。モータ駆動信号生成部304
の動作を図16及び図17のフローチャートを参照して
説明する。モータ駆動信号生成部304の動作、すなわ
ち処理内容は、二つの独立したプロセス「指令値変換プ
ロセス」(図16)と、「PWM信号生成プロセス」
(図17)とからなる。指令値変換プロセスでは、サウ
ンドインタフェース300より受け取った信号を、回転
角度指令値(タイマの設定値)に変換する処理を行う。
まず、指令値変換プロセスの処理内容について説明す
る。
Next, the specific operation of the motor drive signal generator 304 will be described. Motor drive signal generation unit 304
The operation will be described with reference to the flowcharts of FIGS. 16 and 17. The operation of the motor drive signal generation unit 304, that is, the processing content, includes two independent processes “command value conversion process” (FIG. 16) and “PWM signal generation process”.
(FIG. 17). In the command value conversion process, the signal received from the sound interface 300 is converted into a rotation angle command value (timer setting value).
First, the processing contents of the command value conversion process will be described.

【0059】図16において、ステップ500では、オ
ーディオライン2Aを介してサウンドインタフェース3
00よりディジタル値を取得する。次いで、取得したデ
ィジタル値をチェックする(ステップ501)。ステッ
プ500で取得したディジタル値が設定されたスタート
ビット(=1)でなければ、再びステップ500に戻
る。他方、ステップ500で取得したディジタル値がス
タートビットであれば、一連のディジタル信号を取得す
る(ステップ502)。
In FIG. 16, in step 500, the sound interface 3 is transmitted via the audio line 2A.
A digital value is acquired from 00. Next, the acquired digital value is checked (step 501). If the digital value acquired in step 500 is not the set start bit (= 1), the process returns to step 500. On the other hand, if the digital value acquired in step 500 is the start bit, a series of digital signals is acquired (step 502).

【0060】さらに、ステップ503でパリティチェッ
クを行う。ここで、正しい値が取得できていれば、ステ
ップ504へ進み、正しい値が取得できていなければ、
ステップ500に戻る。次に、ステップ504では、
「A6 A5 A4 A3 A2 A1 A0」ビット値の定
数倍(モータ仕様とプロセスのクロックにより決定)の
定数倍の値を演算して回転角度指令値に変換すると共
に、チャンネル番号指定データである「C2C1 C0」
ビット値から設定すべき共通メモリのアドレスを決定す
る。
Further, in step 503, a parity check is performed. If the correct value has been acquired, the process proceeds to step 504. If the correct value has not been acquired,
Return to step 500. Next, in step 504,
"A6 A5 A4 A3 A2 A1 A0" A constant multiple of the bit value (determined by the motor specifications and process clock) is calculated and converted into a rotation angle command value, and the channel number designation data "C2C1" C0 "
The address of the common memory to be set is determined from the bit value.

【0061】次いで、ステップ504で求められた共通
メモリのアドレスに回転角度指令値を書き込む(ステッ
プ505)。なお、共通メモリはモータ駆動信号生成部
304内に設けてもよいし、モータ駆動信号生成部30
4外に設けてもよい。
Then, the rotation angle command value is written in the address of the common memory obtained in step 504 (step 505). The common memory may be provided in the motor drive signal generation unit 304 or the motor drive signal generation unit 30.
4 may be provided outside.

【0062】次に、PWM信号生成プロセスの処理内容
について説明する。PWM信号生成プロセスでは、共通
メモリに記憶された回転角度指令値からPWM信号を生
成する処理を行う。なお、このPWM信号生成プロセス
の処理はPWM信号の繰り返し周期(一般的には18ミリ
秒から23ミリ秒程度)ごとに実行される。図17におい
て、まず、ステップ510で共通メモリから回転角度指
令値を読み込む。次いで、8台の各モータ駆動部35毎
に、ひいては各サーボモータ306毎に設けられた各タ
イマにステップ510で読み込んだ回転角度指令値をそ
れぞれ、セットする(ステップ511)。
Next, the processing contents of the PWM signal generation process will be described. In the PWM signal generation process, the PWM signal is generated from the rotation angle command value stored in the common memory. The process of the PWM signal generation process is executed at each repetition period of the PWM signal (generally, about 18 milliseconds to 23 milliseconds). In FIG. 17, first, in step 510, the rotation angle command value is read from the common memory. Next, the rotation angle command value read in step 510 is set in each timer provided for each of the eight motor drive units 35, and thus for each servo motor 306 (step 511).

【0063】さらに、モータ駆動信号生成部304の各
出力をアクティブ(活性化状態)にする(ステップ51
2)。次いで、すベてのタイマが0になるまで、タイマ
の設定値をディクリメントする(ステップ513)。次
に、タイマが0になったところから、出力をパッシブ
(非活性化状態)にする(ステップ514、515)。
ステップ510〜515の処理により、タイマ設定に応
じたPWM信号を生成することができる。PWM信号を
モータ駆動部305を介してサーボモータ306に入力
することにより、サーボモータ306は所望の角度まで
回転する。
Further, each output of the motor drive signal generator 304 is activated (activated) (step 51).
2). Next, the set values of the timers are decremented until all the timers become 0 (step 513). Next, when the timer reaches 0, the output is made passive (inactive state) (steps 514 and 515).
By the processes of steps 510 to 515, the PWM signal according to the timer setting can be generated. By inputting the PWM signal to the servo motor 306 via the motor driving unit 305, the servo motor 306 rotates to a desired angle.

【0064】あらかじめ送信側の処理で作成したステレ
オ音声信号を、CD、ビデオテープ、カセットテープな
どに記録し、その記憶媒体を再生することにより、ロボ
ットを動作させるような構成をとることもできる。PE
変復調、ガウシアン変調を用いることで、それほど周波
数特性の良好でないサウンドカードでも、安価で簡便
に、ロボット制御信号を音声または音響信号を使用して
伝送することができる。
It is also possible to make the robot operate by recording a stereo audio signal created in advance on the transmitting side on a CD, a video tape, a cassette tape, etc. and reproducing the storage medium. PE
By using modulation / demodulation and Gaussian modulation, even a sound card having not so good frequency characteristics can inexpensively and easily transmit a robot control signal by using a voice or acoustic signal.

【0065】なお、上記各実施の形態では、ロボットの
動作信号を入力されたテキスト情報から生成するように
しているが、これに限らず、例えば、人間がロボットの
動作を定義してロボットを駆動するモータの制御情報
(例えば、モータの回転角度指令値)を直接、入力する
ことによりロボット動作信号を生成するようにしてもよ
い。この場合に、ロボットから出力させる音声信号は、
CDプレヤー等の可聴音を生成する音源を使用する。こ
の音源から出力されるロボット動作信号と音声信号とを
電気的に合成して合成音電気信号を既述した手段により
生成すればよい。
In each of the above embodiments, the motion signal of the robot is generated from the input text information. However, the invention is not limited to this. For example, a person defines the motion of the robot to drive the robot. The robot operation signal may be generated by directly inputting the control information of the motor (for example, the rotation angle command value of the motor). In this case, the audio signal output from the robot is
A sound source that produces an audible sound such as a CD player is used. The robot motion signal and the voice signal output from this sound source may be electrically combined to generate a synthetic sound electric signal by the means described above.

【0066】また、図2及び図4、または図11及び図
4におけるロボット制御装置(パーソナルコンピュータ
1、1A側)の機能を実現するためのロボット制御プロ
グラムをコンピュータ読み取り可能な記録媒体に記録し
て、この記録媒体に記録されたロボット制御プログラム
をコンピュータシステムに読み込ませ、実行することに
よりロボット動作信号を生成する処理を行ってもよい。
Further, a robot control program for realizing the functions of the robot controller (personal computer 1, 1A side) in FIGS. 2 and 4 or 11 and 4 is recorded in a computer-readable recording medium. Alternatively, the robot control program recorded in the recording medium may be read into a computer system and executed to perform a process of generating a robot operation signal.

【0067】ここで、ロボット制御プログラムとは、ロ
ボットを入力されたテキスト情報から得られるロボット
制御信号により制御するロボット制御方法であって、入
力されたテキスト情報を分析して該テキスト情報から感
情を表現する感情情報を抽出する第1のステップと、前
記感情情報を分析し、該分析結果に基づいてロボットを
動作させるための動作信号を生成する第2のステップ
と、前記テキスト情報から音声信号を合成する第3のス
テップと、前記音声信号と動作信号を重畳して得られる
合成音電気信号を前記ロボット制御信号として出力する
第4のステップとを有することを特徴とするロボット制
御方法をコンピュータに実行させるためのロボット制御
プログラム、あるいは、ロボットを入力されたテキスト
情報から得られるロボット制御信号により制御するロボ
ット制御方法であって、入力されたテキスト情報を分析
して該テキスト情報から感情を表現する感情情報を抽出
する第1のステップと、前記感情情報を分析し、該分析
結果に基づいてロボットを動作させるための動作信号を
生成する第2のステップと、前記テキスト情報から音声
信号を合成する第3のステップと、前記音声信号と動作
信号を重畳して得られる合成音電気信号を前記ロボット
制御信号として出力する第4のステップとを有し、感情
表現を示す手がかりとなるキーワードと、感情に関わる
タグ情報である感情タグ情報との対応関係と、該感情タ
グ情報とロボットを動作させるための動作パラメータと
の対応関係が予め登録されており、前記第1のステップ
では、前記テキスト情報を形態素解析して前記キーワー
ドを抽出し、前記第2のステップでは、前記キーワード
と感情タグ情報との対応関係から前記抽出されたキーワ
ードが該当する感情タグ情報を取得し、前記感情タグ情
報と前記動作パラメータとの対応関係から前記動作信号
を生成することを特徴とするロボット制御方法をコンピ
ュータに実行させるためのロボット制御プログラムをい
う。
Here, the robot control program is a robot control method for controlling a robot by a robot control signal obtained from input text information, and analyzes the input text information to express emotions from the text information. A first step of extracting emotional information to be expressed, a second step of analyzing the emotional information and generating an operation signal for operating a robot based on the analysis result, and a voice signal from the text information. A computer is provided with a robot control method comprising: a third step of synthesizing; and a fourth step of outputting, as the robot control signal, a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal. A robot control program to be executed, or a robot obtained from text information entered by the robot. A robot control method of controlling by a control signal, the first step of analyzing input text information and extracting emotion information expressing an emotion from the text information; and analyzing the emotion information, A second step of generating a motion signal for operating the robot based on the analysis result, a third step of synthesizing a voice signal from the text information, and a synthesis obtained by superimposing the voice signal and the motion signal. A fourth step of outputting a sonoelectric signal as the robot control signal, and a correspondence relationship between a keyword serving as a clue indicating an emotional expression and emotion tag information that is tag information relating to emotion, and the emotion tag information. And a motion parameter for operating the robot are registered in advance. In the first step, the text information is morphologically analyzed. The keyword is extracted by the second step, and in the second step, the emotion tag information to which the extracted keyword corresponds is acquired from the correspondence between the keyword and the emotion tag information, and the emotion tag information and the operation parameter are obtained. A robot control program for causing a computer to execute a robot control method characterized in that the operation signal is generated from a correspondence relationship.

【0068】なお、ここでいう「コンピュータシステ
ム」とは、OSや周辺機器等のハードウェアを含むもの
とする。また、「コンピュータシステム」は、WWWシ
ステムを利用している場合であれば、ホームページ提供
環境(あるいは表示環境)を含むものとする。また、
「コンピュータ読み取り可能な記録媒体」とは、フレキ
シブルディスク、光磁気ディスク、ROM、CD−RO
M等の可搬媒体、コンピュータシステムに内蔵されるハ
ードディスク等の記憶装置のことをいう。
The term "computer system" used herein includes an OS and hardware such as peripheral devices. Further, the "computer system" includes a homepage providing environment (or display environment) when using a WWW system. Also,
"Computer-readable recording medium" means a flexible disk, a magneto-optical disk, a ROM, a CD-RO.
A portable medium such as M or a storage device such as a hard disk built in a computer system.

【0069】さらに「コンピュータ読み取り可能な記録
媒体」とは、インターネット等のネットワークや電話回
線等の通信回線を介してプログラムが送信された場合の
サーバやクライアントとなるコンピュータシステム内部
の揮発性メモリ(RAM)のように、一定時間プログラ
ムを保持しているものも含むものとする。また上記プロ
グラムは、このプログラムを記憶装置等に格納したコン
ピュータシステムから、伝送媒体を介して、あるいは、
伝送媒体中の伝送波により他のコンピュータシステムに
伝送されてもよい。
Further, the "computer-readable recording medium" means a volatile memory (RAM) inside a computer system which serves as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. ), Which holds the program for a certain period of time. Further, the above program is transmitted from a computer system that stores the program in a storage device or the like via a transmission medium, or
It may be transmitted to another computer system by a transmission wave in a transmission medium.

【0070】ここで、プログラムを伝送する「伝送媒
体」とは、インターネット等のネットワーク(通信網)
や電話回線等の通信回線(通信線)のように情報を伝送
する機能を有する媒体のことをいう。また上記プログラ
ムは、前述した機能の一部を実現するためのものであっ
ても良く、さらに前述した機能をコンピュータシステム
にすでに記録されているプログラムとの組み合わせで実
現できるもの、いわゆる差分ファイル(差分プログラ
ム)であっても良い。以上、本発明の実施形態を図面を
参照して詳述してきたが、具体的な構成はこの実施形態
に限られるものではなく、この発明の要旨を逸脱しない
範囲の設計等も含まれる。
The "transmission medium" for transmitting the program is a network (communication network) such as the Internet.
And a communication line (communication line) such as a telephone line having a function of transmitting information. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and a program that can realize the above-mentioned functions in combination with a program already recorded in a computer system, that is, a so-called difference file (difference file). Program). Although the embodiment of the present invention has been described in detail above with reference to the drawings, the specific configuration is not limited to this embodiment, and includes a design and the like within a range not departing from the gist of the present invention.

【0071】[0071]

【発明の効果】本発明によれば、ロボット制御装置でロ
ボットを制御するステレオの音声信号の内、左チャネル
に通常の音声信号、また右チャネルに、モータヘの制御
信号を重畳してロボット制御信号を生成しているため、
受信側(ロボット側)においては、その重畳したロボッ
トの動作情報を抽出することによって、特にロボットの
動作と放音する音声との同期のための機構を設けること
なく、簡潔に構成できるロボットシステムを実現でき
る。また、本発明では、テキスト情報を分析してそれに
応じた制御信号が生成される。そのためテキスト情報の
内容に応じたロボットの動作が実現し、興趣を増すこと
ができる。
According to the present invention, of the stereo audio signals for controlling the robot by the robot controller, the normal audio signal is superimposed on the left channel, and the control signal to the motor is superimposed on the right channel. To generate
On the receiving side (robot side), a robot system that can be simply configured by extracting the superimposed motion information of the robot without particularly providing a mechanism for synchronizing the motion of the robot and the sound to be emitted realizable. Further, according to the present invention, the text information is analyzed and a control signal corresponding to the text information is generated. Therefore, the operation of the robot according to the content of the text information can be realized, and the interest can be increased.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明が適用されるロボットシステムの一例
の概略構成を示す構成図。
FIG. 1 is a configuration diagram showing a schematic configuration of an example of a robot system to which the present invention is applied.

【図2】 図1に示したロボットシステムにおける送信
側の構成を示すブロック図。
FIG. 2 is a block diagram showing a configuration of a transmitting side in the robot system shown in FIG.

【図3】 図1に示したロボットシステムにおける送信
側の構成を示すブロック図。
3 is a block diagram showing a configuration of a transmitting side in the robot system shown in FIG.

【図4】 図2に示したロボットシステムにおける送信
側におけるロボット制御部の構成を示すブロック図。
4 is a block diagram showing the configuration of a robot control unit on the transmission side in the robot system shown in FIG.

【図5】 図2に示したロボットシステムにおける送信
側におけるモータ制御部より出力されるモータ制御信号
を構成するコントロールワードのデータフォーマットを
示す説明図。
5 is an explanatory diagram showing a data format of a control word forming a motor control signal output from a motor control unit on the transmission side in the robot system shown in FIG.

【図6】 図5に示したコントロールワードに付加され
る同期ワードのデータ構成を示す説明図。
6 is an explanatory diagram showing a data structure of a synchronization word added to the control word shown in FIG.

【図7】 図3に示したロボットシステムの受信側にお
けるモータ駆動信号生成部の処理内容を示すフローチャ
ート。
7 is a flowchart showing the processing contents of a motor drive signal generation unit on the receiving side of the robot system shown in FIG.

【図8】 図3に示したロボットシステムの受信側にお
けるモータ駆動信号生成部の処理内容を示すフローチャ
ート。
8 is a flowchart showing the processing contents of a motor drive signal generator on the receiving side of the robot system shown in FIG.

【図9】 第1の実施の形態に係るロボット制御装置の
各部の動作状態を示す波形図。
FIG. 9 is a waveform diagram showing an operation state of each unit of the robot control device according to the first embodiment.

【図10】 本発明が適用されるロボットシステムの他
の例の概略構成を示す構成図。
FIG. 10 is a configuration diagram showing a schematic configuration of another example of a robot system to which the present invention is applied.

【図11】 図10に示したロボットシステムにおけ
る送信側の構成を示すブロック図。
11 is a block diagram showing a configuration of a transmitting side in the robot system shown in FIG.

【図12】 図10に示したロボットシステムにおける
受信側の構成を示すブロック図。
12 is a block diagram showing a configuration of a receiving side in the robot system shown in FIG.

【図13】 図11に示したロボットシステムの送信側
におけるデータ変換部の構成を示すブロック図。
13 is a block diagram showing the configuration of a data conversion unit on the transmission side of the robot system shown in FIG.

【図14】 図13に示したデータ変換部の動作状態を
示す説明図。
14 is an explanatory diagram showing an operation state of the data conversion unit shown in FIG.

【図15】 図12に示したロボットシステムの受信側
におけるサウンドインタフェースの構成を示すブロック
図。
15 is a block diagram showing the configuration of a sound interface on the receiving side of the robot system shown in FIG.

【図16】 図12に示したロボットシステムの受信側
におけるモータ駆動信号生成部の処理内容を示すフロー
チャート。
16 is a flowchart showing the processing contents of a motor drive signal generation unit on the receiving side of the robot system shown in FIG.

【図17】 図12に示したロボットシステムの受信側
におけるモータ駆動信号生成部の処理内容を示すフロー
チャート。
17 is a flowchart showing the processing contents of a motor drive signal generation unit on the receiving side of the robot system shown in FIG.

【符号の説明】[Explanation of symbols]

1、1A…パーソナルコンピュータ(PC) 2…USBバス 2A…オーディオライン 3、3A…ロボット 10…ロボット制御部 11…合成音声生成部 12…モータ制御部 13…データ変換部 14…ミキサ 15…USBインタフェース 16…サウンドカード 30…USBオーディオインタフェース 31…D/A変換器 32、302…増幅器 33、303…スピーカ 34、304…モータ駆動信号生成部 35、305…モータ駆動部 36、306…サーボモータ 100…形態素解析 101…感情タグ情報抽出部 102…ロボット動作信号生成部 103…感情タグ情報記憶部 104…ジェスチャデータベース 300…サウンドインタフェース 1, 1A ... Personal computer (PC) 2 ... USB bus 2A ... Audio line 3, 3A ... Robot 10 ... Robot control unit 11 ... Synthetic voice generator 12 ... Motor control unit 13 ... Data converter 14 ... Mixer 15 ... USB interface 16 ... sound card 30 ... USB audio interface 31 ... D / A converter 32, 302 ... Amplifier 33, 303 ... speaker 34, 304 ... Motor drive signal generator 35, 305 ... Motor drive unit 36, 306 ... Servo motor 100 ... Morphological analysis 101 ... emotion tag information extraction unit 102 ... Robot motion signal generation unit 103 ... emotion tag information storage unit 104 ... Gesture database 300 ... Sound interface

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/08 G10L 3/00 H (72)発明者 岩城 敏 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 北岸 郁雄 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 奥平 雅士 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 2C150 CA01 CA02 CA04 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF08 ED42 ED52 EF07 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 3C007 AS36 HS27 MT14 WB25 WB26 WC06 WC13 WC30 5D045 AA07 AB11 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G10L 13/08 G10L 3/00 H (72) Inventor Satoshi Iwaki 2-3-3 Otemachi, Chiyoda-ku, Tokyo Issue Japan Telegraph and Telephone Corporation (72) Inventor Ikuo Kitagishi 2-3-1, Otemachi, Chiyoda-ku, Tokyo Japan Telegraph and Telephone Corporation (72) Inventor Masashi Okuhira 2-3, Otemachi, Chiyoda-ku, Tokyo No. 1 Nihon Telegraph and Telephone Corporation F-term (reference) 2C150 CA01 CA02 CA04 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF08 ED42 ED52 EF07 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 WC36 WB25 WC25 WB25 WC26 WB25 WC26 WB25 WC25 WB25 WC26 WB25 WC25 WB25 WB26 AB11

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 可聴音信号を生成する音源と、 人間がロボットの動作を定義して該ロボットを制御する
ためのロボット動作信号を入力する入力手段と、 前記音源から出力された可聴音信号と前記入力手段より
入力されたロボット動作信号を電気的に合成して合成音
電気信号を生成する電気信号生成手段と、 該電気信号生成手段で生成された合成音電気信号を出力
する電気信号出力手段とを有するロボット制御装置と、 前記電気信号出力手段より出力された合成音電気信号を
入力する電気信号入力手段と、 該電気信号入力手段から入力された合成音電気信号から
ロボット動作信号を分離抽出する分離抽出手段と、 前記電気信号入力手段により入力された合成音電気信号
を空中に放射する放射手段とを有するロボットと、 からなることを特徴とするロボットシステム。
1. A sound source for generating an audible sound signal, input means for inputting a robot motion signal for a human to define the motion of a robot and control the robot, and an audible sound signal output from the sound source. An electrical signal generating means for electrically synthesizing a robot motion signal input from the input means to generate a synthetic sound electrical signal, and an electrical signal output means for outputting the synthetic sound electrical signal generated by the electrical signal generating means. A robot controller having: an electric signal input means for inputting a synthetic sound electric signal output from the electric signal output means; and a robot operation signal separated and extracted from the synthetic sound electric signal input from the electric signal input means. And a radiating means for radiating the synthetic sound electric signal input by the electric signal inputting means into the air. Robot system to be.
【請求項2】 入力されたテキスト情報を分析して該テ
キスト情報から感情を表現する感情情報を抽出すると共
に、該感情情報を分析し、該分析結果に基づいてロボッ
トを動作させるための動作信号を生成するロボット制御
手段と、 前記テキスト情報から音声信号を合成する合成音声生成
手段と、 前記音声信号と動作信号を重畳して得られる合成音電気
信号を前記ロボット制御信号として出力するロボット制
御信号出力手段とを有するロボット制御装置と、 前記ロボット制御信号出力手段から出力された合成音電
気信号を入力する電気信号入力手段と、 前記電気信号入力手段に入力された合成音電気信号から
前記音声信号と動作信号とを分離抽出する分離抽出手段
と、 前記分離抽出手段で分離抽出した動作信号を入力して可
動部を駆動する駆動手段と、 前記分離抽出手段により分離抽出した音声信号を空中に
放射する放射手段とを有するロボットと、 からなることを特徴とするロボットシステム。
2. An operation signal for analyzing the input text information to extract emotion information expressing an emotion from the text information, analyzing the emotion information, and operating a robot based on the analysis result. A robot control means for generating a voice signal, a synthetic voice generating means for synthesizing a voice signal from the text information, and a robot control signal for outputting a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal as the robot control signal. A robot controller having an output means, an electric signal input means for inputting a synthetic sound electric signal output from the robot control signal output means, and a voice signal from the synthetic sound electric signal input to the electric signal input means And a motion signal are separated and extracted, and a motion signal separated and extracted by the separation and extraction unit is input to drive the movable part. Robot system for the motion means, and a robot having a radiation means for radiating a sound signal separated and extracted in the air by the separation extraction means, characterized in that it consists of.
【請求項3】 ロボットを入力されたテキスト情報から
得られるロボット制御信号により制御するロボット制御
方法であって、 入力されたテキスト情報を分析して該テキスト情報から
感情を表現する感情情報を抽出する第1のステップと、 前記感情情報を分析し、該分析結果に基づいてロボット
を動作させるための動作信号を生成する第2のステップ
と、 前記テキスト情報から音声信号を合成する第3のステッ
プと、 前記音声信号と動作信号を重畳して得られる合成音電気
信号を前記ロボット制御信号として出力する第4のステ
ップと、 を有することを特徴とするロボット制御方法。
3. A robot control method for controlling a robot by a robot control signal obtained from input text information, wherein the input text information is analyzed and emotion information expressing an emotion is extracted from the text information. A first step; a second step of analyzing the emotion information and generating an operation signal for operating a robot based on the analysis result; and a third step of synthesizing a voice signal from the text information. A fourth step of outputting, as the robot control signal, a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal, the robot control method.
【請求項4】 感情表現を示す手がかりとなるキーワー
ドと、感情に関わるタグ情報である感情タグ情報との対
応関係と、該感情タグ情報とロボットを動作させるため
の動作パラメータとの対応関係が予め登録されており、 前記第1のステップでは、前記テキスト情報を形態素解
析して前記キーワードを抽出し、 前記第2のステップでは、前記キーワードと感情タグ情
報との対応関係から前記抽出されたキーワードが該当す
る感情タグ情報を取得し、前記感情タグ情報と前記動作
パラメータとの対応関係から前記動作信号を生成するこ
とを特徴とする請求項3に記載のロボット制御方法。
4. A correspondence relationship between a keyword serving as a clue indicating an emotional expression and emotion tag information that is tag information relating to emotion, and a correspondence relationship between the emotion tag information and an operation parameter for operating a robot are set in advance. It is registered, in the first step, the text information is subjected to morpheme analysis to extract the keyword, and in the second step, the extracted keyword is extracted from the correspondence between the keyword and emotion tag information. The robot control method according to claim 3, wherein corresponding emotion tag information is acquired, and the motion signal is generated from a correspondence relationship between the emotion tag information and the motion parameter.
【請求項5】 ロボットを入力されたテキスト情報から
得られるロボット制御信号により制御するロボット制御
装置であって、 入力されたテキスト情報を分析して該テキスト情報から
感情を表現する感情情報を抽出すると共に、該感情情報
を分析し、該分析結果に基づいてロボットを動作させる
ための動作信号を生成するロボット制御手段と、 前記テキスト情報から音声信号を合成する合成音声生成
手段と、 前記音声信号と動作信号を重畳して得られる合成音電気
信号を前記ロボット制御信号として出力するロボット制
御信号出力手段と、を有することを特徴とするロボット
制御装置。
5. A robot control device for controlling a robot with a robot control signal obtained from input text information, wherein the input text information is analyzed to extract emotion information expressing an emotion from the text information. At the same time, a robot control unit that analyzes the emotion information and generates an operation signal for operating the robot based on the analysis result, a synthetic voice generation unit that synthesizes a voice signal from the text information, and the voice signal A robot control signal output means for outputting a synthetic sound electric signal obtained by superimposing an operation signal as the robot control signal, the robot control device.
【請求項6】 前記ロボット制御手段は、 感情表現を示す手がかりとなるキーワードと、感情に関
わるタグ情報である感情タグ情報との対応関係を示すテ
ーブルが記憶されている第1の記憶手段と、 前記感情タグ情報とロボットを動作させるための動作パ
ラメータとの対応関係を示すテーブルが記憶されている
第2の記憶手段とを有し、 前記テキスト情報を形態素解析して前記キーワードを抽
出し、前記第1の記憶手段に記憶されているテーブルを
参照して前記抽出されたキーワードが該当する感情タグ
情報を取得すると共に、前記第2の記憶手段に記憶され
ているテーブルを参照し、前記取得した感情タグ情報に
対応する前記動作パラメータを求め、前記動作信号を生
成することを特徴とする請求項5に記載のロボット制御
装置。
6. The robot control means includes a first storage means for storing a table showing a correspondence relationship between a keyword serving as a clue indicating an emotional expression and emotion tag information which is tag information relating to emotion. A second storage unit that stores a table indicating a correspondence relationship between the emotion tag information and the operation parameters for operating the robot, and extracts the keyword by performing morphological analysis on the text information, The emotion tag information corresponding to the extracted keyword is obtained by referring to the table stored in the first storage means, and the table is stored by referring to the table stored in the second storage means. The robot control apparatus according to claim 5, wherein the operation parameter corresponding to emotion tag information is obtained and the operation signal is generated.
【請求項7】 ロボットを入力されたテキスト情報から
得られるロボット制御信号により制御するロボット制御
方法であって、 入力されたテキスト情報を分析して該テキスト情報から
感情を表現する感情情報を抽出する第1のステップと、 前記感情情報を分析し、該分析結果に基づいてロボット
を動作させるための動作信号を生成する第2のステップ
と、 前記テキスト情報から音声信号を合成する第3のステッ
プと、 前記音声信号と動作信号を重畳して得られる合成音電気
信号を前記ロボット制御信号として出力する第4のステ
ップと、を有することを特徴とするロボット制御方法を
コンピュータに実行させるためのロボット制御プログラ
ム。
7. A robot control method for controlling a robot by a robot control signal obtained from input text information, wherein the input text information is analyzed and emotion information expressing an emotion is extracted from the text information. A first step; a second step of analyzing the emotion information and generating an operation signal for operating a robot based on the analysis result; and a third step of synthesizing a voice signal from the text information. And a fourth step of outputting, as the robot control signal, a synthetic sound electrical signal obtained by superimposing the voice signal and the motion signal, the robot control for causing a computer to execute the robot control method. program.
【請求項8】 ロボットを入力されたテキスト情報から
得られるロボット制御信号により制御するロボット制御
方法であって、 入力されたテキスト情報を分析して該テキスト情報から
感情を表現する感情情報を抽出する第1のステップと、 前記感情情報を分析し、該分析結果に基づいてロボット
を動作させるための動作信号を生成する第2のステップ
と、 前記テキスト情報から音声信号を合成する第3のステッ
プと、 前記音声信号と動作信号を重畳して得られる合成音電気
信号を前記ロボット制御信号として出力する第4のステ
ップと、を有し、 感情表現を示す手がかりとなるキーワードと、感情に関
わるタグ情報である感情タグ情報との対応関係と、該感
情タグ情報とロボットを動作させるための動作パラメー
タとの対応関係が予め登録されており、 前記第1のステップでは、前記テキスト情報を形態素解
析して前記キーワードを抽出し、前記第2のステップで
は、前記キーワードと感情タグ情報との対応関係から前
記抽出されたキーワードが該当する感情タグ情報を取得
し、前記感情タグ情報と前記動作パラメータとの対応関
係から前記動作信号を生成することを特徴とするロボッ
ト制御方法をコンピュータに実行させるためのロボット
制御プログラム。
8. A robot control method for controlling a robot by a robot control signal obtained from input text information, wherein the input text information is analyzed to extract emotion information expressing an emotion from the text information. A first step; a second step of analyzing the emotional information and generating an operation signal for operating a robot based on the analysis result; and a third step of synthesizing a voice signal from the text information. A fourth step of outputting, as the robot control signal, a synthetic sound electric signal obtained by superimposing the voice signal and the motion signal, a keyword serving as a clue indicating emotion expression, and tag information relating to emotion The correspondence relationship between the emotion tag information and the emotion tag information is registered in advance in correspondence with the motion parameter for operating the robot. In the first step, the keyword is extracted by morphologically analyzing the text information, and in the second step, the extracted keyword corresponds to the correspondence between the keyword and emotion tag information. A robot control program for causing a computer to execute a robot control method, characterized in that the emotion tag information to be obtained is acquired, and the action signal is generated from a correspondence relationship between the emotion tag information and the action parameter.
JP2001352242A 2001-11-16 2001-11-16 Robot system, robot control method, robot controller and robot control program Pending JP2003150186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001352242A JP2003150186A (en) 2001-11-16 2001-11-16 Robot system, robot control method, robot controller and robot control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001352242A JP2003150186A (en) 2001-11-16 2001-11-16 Robot system, robot control method, robot controller and robot control program

Publications (1)

Publication Number Publication Date
JP2003150186A true JP2003150186A (en) 2003-05-23

Family

ID=19164448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001352242A Pending JP2003150186A (en) 2001-11-16 2001-11-16 Robot system, robot control method, robot controller and robot control program

Country Status (1)

Country Link
JP (1) JP2003150186A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005342862A (en) * 2004-06-04 2005-12-15 Nec Corp Robot
EP2031481A1 (en) * 2007-08-29 2009-03-04 Industrial Technology Research Institut Information communication and interaction device and method for the same
JP2010509650A (en) * 2006-10-26 2010-03-25 ディー−ボックス テクノロジーズ インコーポレイテッド Voice interface for controlling motion signals
JP4972218B1 (en) * 2011-08-12 2012-07-11 株式会社バンダイ Action body toy
JP2013042476A (en) * 2012-04-05 2013-02-28 Bandai Co Ltd Moving body toy
JP2015148701A (en) * 2014-02-06 2015-08-20 日本電信電話株式会社 Robot control device, robot control method and robot control program
JP2019511036A (en) * 2016-02-09 2019-04-18 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation System and method for linguistic feature generation across multiple layer word representations

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62145697U (en) * 1986-03-10 1987-09-14
JPS62183894U (en) * 1986-05-13 1987-11-21
JPH1145474A (en) * 1997-07-28 1999-02-16 Sony Corp Transmitter/receiver for acoustic control signal, control system by acoustic control signal and control method
JPH11327872A (en) * 1998-05-18 1999-11-30 Nippon Telegr & Teleph Corp <Ntt> Electronic mail presenting method, electronic mail terminal and storage medium for storing electronic mail presenting program
JP2001277163A (en) * 2000-04-03 2001-10-09 Sony Corp Device and method for controlling robot
JP2001310281A (en) * 2000-04-27 2001-11-06 Sony Corp Method of configuration acquisition and method of detecting condition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62145697U (en) * 1986-03-10 1987-09-14
JPS62183894U (en) * 1986-05-13 1987-11-21
JPH1145474A (en) * 1997-07-28 1999-02-16 Sony Corp Transmitter/receiver for acoustic control signal, control system by acoustic control signal and control method
JPH11327872A (en) * 1998-05-18 1999-11-30 Nippon Telegr & Teleph Corp <Ntt> Electronic mail presenting method, electronic mail terminal and storage medium for storing electronic mail presenting program
JP2001277163A (en) * 2000-04-03 2001-10-09 Sony Corp Device and method for controlling robot
JP2001310281A (en) * 2000-04-27 2001-11-06 Sony Corp Method of configuration acquisition and method of detecting condition

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005342862A (en) * 2004-06-04 2005-12-15 Nec Corp Robot
JP2010509650A (en) * 2006-10-26 2010-03-25 ディー−ボックス テクノロジーズ インコーポレイテッド Voice interface for controlling motion signals
EP2031481A1 (en) * 2007-08-29 2009-03-04 Industrial Technology Research Institut Information communication and interaction device and method for the same
JP4972218B1 (en) * 2011-08-12 2012-07-11 株式会社バンダイ Action body toy
CN102772901A (en) * 2011-08-12 2012-11-14 万代股份有限公司 Action body toy and control method
JP2013039207A (en) * 2011-08-12 2013-02-28 Bandai Co Ltd Operable toy
JP2013042476A (en) * 2012-04-05 2013-02-28 Bandai Co Ltd Moving body toy
JP2015148701A (en) * 2014-02-06 2015-08-20 日本電信電話株式会社 Robot control device, robot control method and robot control program
JP2019511036A (en) * 2016-02-09 2019-04-18 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation System and method for linguistic feature generation across multiple layer word representations

Similar Documents

Publication Publication Date Title
US7487093B2 (en) Text structure for voice synthesis, voice synthesis method, voice synthesis apparatus, and computer program thereof
US20030028380A1 (en) Speech system
WO2001057851A1 (en) Speech system
CN110032355B (en) Voice playing method and device, terminal equipment and computer storage medium
JP2017021125A (en) Voice interactive apparatus
US20080162559A1 (en) Asynchronous communications regarding the subject matter of a media file stored on a handheld recording device
JP2003150186A (en) Robot system, robot control method, robot controller and robot control program
JP2002127062A (en) Robot system, robot control signal generating device, robot control signal generating method, recording medium, program and robot
CN110022510A (en) A kind of generation method, analytic method and the relevant apparatus of acoustical vibration file
JP6775218B2 (en) Swallowing information presentation device
JP2005062420A (en) System, method, and program for content generation
JP6596903B2 (en) Information providing system and information providing method
US8219402B2 (en) Asynchronous receipt of information from a user
JP3668402B2 (en) Voice response type machine, transmitter and receiver
JP6150707B2 (en) Voice data synthesis terminal, voice data recording terminal, voice data synthesis method, voice output method, and program
JP2004185055A (en) Electronic mail system and communication terminal
JP2005249880A (en) Digital picture book system by portable communication terminal
JP2002305781A (en) Control system, device control signal generating method, device control method, recording medium and program
JPH09135264A (en) Media conversion system in electronic mail communication
JP2004271620A (en) Mobile terminal
JP2007127994A (en) Voice synthesizing method, voice synthesizer, and program
JP2001022371A (en) Method for transmitting and receiving voice-synthesized electronic mail
JP2001195080A (en) Speech synthesis method
JP2003140677A (en) Read-aloud system
JP2005266671A (en) Robot and voice reproduction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040204

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060404