WO2007138944A1 - 情報付与システム、情報付与方法、情報付与プログラム及び情報付与プログラム記録媒体 - Google Patents

情報付与システム、情報付与方法、情報付与プログラム及び情報付与プログラム記録媒体 Download PDF

Info

Publication number
WO2007138944A1
WO2007138944A1 PCT/JP2007/060490 JP2007060490W WO2007138944A1 WO 2007138944 A1 WO2007138944 A1 WO 2007138944A1 JP 2007060490 W JP2007060490 W JP 2007060490W WO 2007138944 A1 WO2007138944 A1 WO 2007138944A1
Authority
WO
WIPO (PCT)
Prior art keywords
attribute information
language
information
language unit
unit
Prior art date
Application number
PCT/JP2007/060490
Other languages
English (en)
French (fr)
Inventor
Yoshiko Matsukawa
Shinichi Doi
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to JP2008517872A priority Critical patent/JP5321058B2/ja
Priority to US12/302,698 priority patent/US8340956B2/en
Publication of WO2007138944A1 publication Critical patent/WO2007138944A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools

Definitions

  • Information grant system information grant method, information grant program, and information grant program recording medium
  • the present invention relates to an information providing system (including an application system), an information providing method, an information providing program, and a recording medium on which an information providing program is recorded, and in particular, attribute information indicating a sentence emotion, an utterance style, and the like.
  • the present invention relates to an information grant system, an information grant method, an information grant program, and a recording medium on which the information grant program is recorded.
  • attribute information is information that is different from the original meaning of characters that can be used to improve the expressiveness at the time of text output, such as emotions of speakers such as emotions and readings.
  • Information indicating the speaker's utterance style such as DJ (disc jockey) tone.
  • methods for expressing sentences using this attribute information methods that appeal to the ear with voice, music, etc., and methods that appeal to the eyes with text color, pictures, light, etc. are considered.
  • voice synthesis systems that read texts with emotion and mobile phones that display the contents of received emails with a single icon have already been realized.
  • Patent Document 1 describes an example of a speech synthesis system that can read a text with emotion.
  • This conventional speech synthesis system includes an utterance mode designating unit, a speech control parameter storage unit, a speech control level setting unit, and a synthesized speech unit.
  • the speech synthesis system of Patent Document 1 is a system that reads out the entire sentence according to attribute information given to a user. In other words, upon receiving an arbitrary utterance mode designation from the user, the speech synthesis system of Patent Document 1 uses a combination of levels such as the generation speed and the amount of inflection corresponding to the designated utterance mode as a voice control parameter. Read memory power The In the speech synthesis system, the speech control level setting unit collectively sets the combination of the read levels, and the synthesized speech unit generates synthesized speech representing emotion.
  • Patent Document 2 discloses a speech synthesis system capable of smoothly expressing emotional transitions by giving attribute information in detail.
  • the speech synthesis system disclosed in Patent Document 2 includes a text analysis unit, an emotion information adding unit, and an emotion information interpolation unit.
  • an input sentence is divided into segments by a text analysis unit, and emotion information is defined by referring to an emotion provision rule that defines emotion information for a character string expression representing emotion. Emotion information is added to the segment containing the character string.
  • emotion information is defined by referring to an emotion provision rule that defines emotion information for a character string expression representing emotion.
  • Emotion information is added to the segment containing the character string.
  • Patent Document 1 JP-A-5-100692
  • Patent Document 2 JP 2005-181840
  • the speech synthesis system of Patent Document 2 can give more attribute information than the speech synthesis system of Patent Document 1, but it does not provide attribute information (emotion information). Only segments that contain vocabulary registered in the dictionary (emotion rules) are granted.
  • the present invention has been made in view of the above circumstances, and the object of the present invention is not only a language unit including a specific character string expression but also a language unit to which attribute information is added. In view of the relationship, it is an object of the present invention to provide an information providing system, an information providing method, an information providing program, and a recording medium on which the information providing program is recorded.
  • analysis means for dividing a linguistic expression into a predetermined language unit using a dictionary, and extracting a predetermined vocabulary from the language unit using the dictionary and obtaining attribute information.
  • a first attribute information determination means for determining, and an attribute assignment system for assigning attribute information to a language expression at a language unit level, wherein the connection relation between each language unit and the first attribute information determination means
  • a second attribute information determination means for determining attribute information for each language unit, wherein the attribute information is assigned based on the attribute information already assigned by An information processing system that performs speech synthesis and text output using attribute information assigned by the information assignment system is provided.
  • an analysis unit that divides a language expression into predetermined language units using a dictionary, and a predetermined vocabulary is extracted from the language units using the dictionary to determine attribute information.
  • a first attribute information determination means for executing an information grant system for assigning attribute information to a language expression at a language unit level, wherein the information grant system is connected to each language unit. And the attribute information already assigned by the first attribute information determination means, the attribute information is added and functions as the second attribute information determination means for determining the attribute information for each language unit.
  • a recording medium on which the program is recorded are provided.
  • an analysis unit that divides a language expression into predetermined language units using a dictionary, and a predetermined vocabulary is extracted from the language units using the dictionary to determine attribute information.
  • An information providing method implemented using an information providing system that assigns attribute information to a language expression at a language unit level, wherein the information providing system includes the first attribute information determining means. Determining attribute information in language units included in the language expression by one attribute information determining means, and the information providing system assigning the connection relation of each language unit and the first attribute information determining means.
  • an information providing method characterized by including: a step of determining attribute information for each language unit, wherein the attribute information is assigned based on the attribute information already completed.
  • FIG. 1 is a block diagram showing a configuration of a speech synthesis system according to a first embodiment of the present invention.
  • FIG. 2 is a flowchart showing the operation of the speech synthesis system according to the first embodiment of the present invention.
  • FIG. 3 is a block diagram showing a configuration of a text display system according to a second embodiment of the present invention.
  • FIG. 4 is a flowchart showing the operation of the text display system according to the second exemplary embodiment of the present invention.
  • FIG. 5 is a diagram for explaining the correspondence between vocabulary defined in a dictionary and attribute information.
  • FIG.6 A diagram for explaining the concept of analyzing the connection relationship between sentences (language units)
  • FIG. 7 is a sample sentence used in the explanation of the embodiment of the present invention.
  • FIG. 8 is a diagram showing an example of the analysis result of the input sentence in FIG.
  • FIG. 9 State power of FIG. 8 is a diagram showing a state in which attribute information is given based on the vocabulary included in each sentence.
  • FIG. 10 is a diagram showing the result of assigning attribute information based on the connection relation of the state sentence in FIG.
  • FIG. 11 is a diagram showing the result of assigning attribute information using the prior art (Patent Document 2).
  • FIG. 12 is a diagram for explaining the correspondence between attribute information defined in the expression dictionary and expression information.
  • FIG. 13 is a diagram showing an output example by the text display system according to the second embodiment of the present invention.
  • FIG. 14 is a diagram showing an output example by the text display system according to the second embodiment of the present invention.
  • FIG. 15 is a diagram showing an output example by the text display system according to the second embodiment of the present invention. Explanation of symbols
  • FIG. 1 is a block diagram showing the configuration of a speech synthesis system according to the first embodiment of the present invention.
  • the speech synthesis system includes an input means 10 such as a keyboard and a microphone, a data processing unit 20 that operates by program control, a storage unit 30 that stores information, a display device, and a speaker. And first-class output means 40.
  • the input means 10 is for inputting a sentence or inputting an instruction when selection by an operator is necessary.
  • the data processing unit 20 includes an analysis unit 21 and an attribute information determination unit (first attribute information determination unit).
  • the analysis unit 21 refers to the dictionary 31 and performs morphological analysis and syntax analysis on the sentence.
  • Attribute information determining means (first attribute information determining means) 22 refers to the dictionary 31 and extracts the vocabulary for determining attribute information from the analysis result by the analyzing means 21, and determines attribute information to be given. Determine.
  • Attribute information addition language unit selection means (second attribute information determination means) 23 analyzes the connection relation of the language units with reference to the analysis result by the analysis means 21 and the dictionary 31, and the attribute information determination means. (First attribute information determining means) Based on the attribute information determined by 22 and the connection relationship of the language units, a language unit to which attribute information is added is additionally determined.
  • the synthesizing unit 24 refers to the output result of the attribute information determining unit (first attribute information determining unit) 22 and the attribute information addition language unit selecting unit (second attribute information determining unit) 23 and the synthesis dictionary 32. Then, information necessary for reading out the sentence with synthesized speech is output.
  • the storage unit 30 includes a dictionary 31 and a synthesis dictionary 32 for speech synthesis processing by the synthesis means 24.
  • the output means 40 is for displaying the input text on the screen or outputting it by voice using the result output by the data processing unit 20.
  • the analysis means 21 refers to the dictionary 31 and performs morphological analysis and syntax analysis on the sentence (step S101 in FIG. 2).
  • the attribute information determining means (first attribute information determining means) 22 refers to the dictionary 31 and searches whether there is a vocabulary for determining attribute information in the analysis result (FIG. 2). Step S102). If no vocabulary for determining attribute information is extracted (NO in step S103 in FIG. 2), the synthesizing means 24 refers to the synthesizing dictionary 32 and standard prosody for the entire sentence. And the synthesized speech is output to the output means 40 (step S108 in FIG. 2).
  • attribute information determining means (first attribute information determining means) 22 determines attribute information to be given ( Step S104 in Figure 2).
  • the attribute information addition language unit selection means (second attribute information determination means) 23 analyzes the connection relation of the language units with reference to the analysis result by the analysis means 21 and the dictionary 31, and also determines the attribute information determination means (first Based on the attribute information determined by the attribute information determining means) 22 and the connection relation of the language units, a language unit to which attribute information is added is additionally determined (step S 105 in FIG. 2).
  • the synthesis means 24 refers to the synthesis dictionary 32 and refers to the prosody corresponding to the attribute information. Is added to the sentence (step S106 in Fig. 2).
  • the output means 40 outputs the sentence to which the prosody is given as synthesized speech (step S107 in FIG. 2).
  • the attribute information determination language unit selection is performed after the attribute information determination means (first attribute information determination means) 22 determines the attribute information in the sentence.
  • Means (second attribute information determination means) 23 is configured to further determine the language unit to which each attribute information is assigned, so it reflects the emotional flow at the time of writing the sentence and the intended change in utterance style. Can do.
  • FIG. 3 is a block diagram showing the configuration of the text display system according to the second embodiment of the present invention.
  • the difference from the first embodiment is that an expression dictionary 33 and an expression providing means 25 are provided instead of the composition dictionary 32 and the composition means 24 in the first embodiment. Is a point.
  • the expression assigning means 25 refers to the output results of the attribute information determining means (first attribute information determining means) 22 and the attribute information giving language unit selecting means (second attribute information determining means) 23 and the expression dictionary 33. Thus, the font information and the icons to be added are added.
  • steps S111 to S115 in Fig. 4 are the same as the operations in steps S101 to S105 in Fig. 2 in the first embodiment, and thus the description thereof is omitted.
  • step S113 in FIG. 4 if no vocabulary for determining attribute information is extracted in step S113 in FIG. 4 (NO in step S113 in FIG. 4), the entire sentence without attribute information is added. Output without attribute information (step S 118 in FIG. 4).
  • the assigning means 25 refers to the expression dictionary 33 and assigns a font designation or icon corresponding to the attribute information to the sentence (step S 116 in FIG. 4).
  • the output means 40 displays the text with fonts and icons on the screen (see FIG.
  • the second embodiment of the present invention it is possible to express sentence attribute information even in an environment where voice output is not possible (not allowed).
  • the first embodiment of the present invention corresponds to the first embodiment of the present invention described above, and includes a keyboard as the input means 10, a personal computer as the data processing means 20, and a magnetic disk as the storage means 30. Is realized with a configuration including a speaker as the output means 40.
  • the analysis means 21 and the attribute information determiner are included in the magnetic disk. (First attribute information determination means) 22, attribute information addition language unit selection means (second attribute information determination means) 23, synthesis means 24, held by a computer program that functions a personal computer (central processing unit) It has been.
  • the analyzing means 21 performs morphological analysis and syntax analysis with reference to the dictionary 31, and divides the linguistic expression into a plurality of language units 1 to n.
  • the language expression refers to everything expressed in a language.
  • the language unit is a unit such as a paragraph, a section, a chapter, or a sentence that constitutes a sentence, a unit such as a word, a phrase, or a phrase that constitutes a sentence, and a newspaper or a web page. It also refers to each single sentence when it consists of multiple sentences.
  • the analysis technology is a publicly known technology, so the explanation is omitted.
  • the attribute information determining means (first attribute information determining means) 22 refers to the dictionary 31 to search whether or not the vocabulary for determining the attribute information is included in the language units 1 to n.
  • the attribute information refers to emotions such as emotions, utterance styles such as readings and DJs.
  • the vocabulary includes emoticons (face marks), symbols, and fixed expressions.
  • the fixed expressions include fixed phrases such as proverbs.
  • FIG. 5 shows an example of correspondence between vocabulary included in the dictionary 31 and attribute information.
  • the attribute information of the language unit is determined as “joy”.
  • the attribute information of the language unit determined by the attribute information determination means (first attribute information determination means) 22 is converted into the adjacent language unit. Decide whether to give to. For example, if the vocabulary “I am happy” is extracted from the d-th language unit and the attribute information “joy” of the d-th language unit has been determined, whether the attribute information is given to the d—first language unit Please, iteratively decide whether to grant d + 1st language unit! /
  • the vocabulary power included in the language unit is also related to the relationship between the language unit and the language unit (connection (Relationship) is analyzed and determined based on the analysis result.
  • the analysis (judgment) of the relationship between language units and language units (connection relationship) can be done with at least one of the adjacent language units. It is done by using linguistic unit vocabulary such as conjuncts and conjunctions included, anaphoric references in adjacent language units, relations between words, changes in subject matter, changes in sentence ending expressions, and so on.
  • FIG. 6 is a diagram for explaining the concept when analyzing the relationship (connection relationship) of language units “sentences” extracted from “sentences” that also have a plurality of sentence powers as language expressions.
  • connection relationship between language units is (1) relationship, (2) no relationship, (3) independent sentence (language unit), (4) adjacent sentence ( Different attribute information is determined for each (language unit), and can be classified into four main categories.
  • connection relations (1) to (4) will be described in detail with examples with reference to FIG.
  • Sentences are related to sentences when, for example, the topic or tone does not change between the sentences before and after, and the reason or supplement is stated.
  • Vocabularies that are determined not to change the topic include conjunctions and conjunction particles.
  • the conjunctive conjunction “So”, “There”, the cumulative conjunction “Nao”, “And”, the parallel conjunction “M”, “And”, and the explanation 'Supplemental conjunction “that is”, “Because”
  • conjunctions such as “for example” and “from” can be given at the end of the sentence.
  • the range in which there is a relationship between words should also be analyzed as (1) a relationship.
  • the range related to a word is a range where the same word is used repeatedly, such as “Buy” and “Purchase”. Concluding like an "elementary school student” Tsuki strong! Words are used!
  • the rule for assigning attribute information is determined, and attribute information of adjacent sentences is set one by one. Instead of (iteratively) determining the attribute information, it is also possible to set the attribute information in a batch based on the relative position to the sentence containing the vocabulary that determines the attribute information.
  • the rules for assigning the attribute information include the following: “Assign the same attribute information to the three sentences before and after the sentence that includes the vocabulary that determines the attribute information”, ”And“ assuming there is a relationship until a sentence with different attribute information appears ”
  • a vocabulary that determines that the topic has changed includes a conjunction.
  • the conjunctive conjunctions “Tokoro”, “Now”, the conjunctive conjunctions “but”, “but”, the contrasting choices “or”, “or”, etc. can be mentioned.
  • the change in tone appears prominently at the end of the sentence. For example, if the final particle or auxiliary verb changes, such as “It was fun, I ’ll see you again.” If there is a plan to respond to this question, please tell me? This may be the case where the type of sentence such as a command sentence has changed. However, the change in the expression at the end of the sentence has less impact than others. . For example, if the subject matter does not change even if the sentence end expression changes, (1) it is often determined that there is a relationship.
  • greetings and quoted parts of e-mails that begin with “>” should be analyzed as (3) independent sentences (language units).
  • independent sentences language units
  • an independent sentence for example, a greeting sentence such as "Good morning” or "Thank you for taking care of” is a composite dictionary.
  • the prosody is often assigned to the text, so it can be used as it is, and it is sufficient to read out the quoted part in the standard prosody.
  • the attribute information of each sentence should be retained without being affected by each other's attribute information.
  • the topic or word tone does not change, such as “I felt sad.
  • the synthesizing means 24 refers to the synthesizing dictionary 32, and if the attribute information determining means (first attribute information determining means) 22 does not extract any vocabulary for determining attribute information, A synthetic speech is generated with a standard prosody without attribute information as a whole, and output to the output means 40. Also, attribute information determination means (first attribute information determination means) 22 determines sentence attribute information, and attribute information addition language unit selection means (second attribute information determination means) 23 determines the range of sentences to which each attribute information is assigned. If determined, a prosody corresponding to the determined attribute information is added to generate a synthesized speech and output it to the output means 40.
  • the operation of the present embodiment having the above configuration will be described in detail with reference to the correspondence example between the vocabulary and attribute information in FIG. 5 and the example sentence in FIG.
  • FIG. 8 shows an example in which the above sentence is divided into six sentences (language units) by the analysis means 21 activated on the personal computer.
  • Attribute information determination means (first attribute information determination means) 22 activated on the personal 'computer includes a vocabulary for determining attribute information in the above six sentences with reference to the dictionary 31. Search whether or not. Referring to FIG. 5, “!” And “( ⁇ .” Are “joy”, “warm” and “-me” are “anger” ⁇ Decision means (first attribute information decision means) 22, as shown in Fig. 9, the attribute information of the first sentence is "joy”, the attribute information of the fourth sentence is "anger”, Decide information as “joy”.
  • attribute information is added by the attribute information addition language unit selection means (second attribute information determination means) 23 activated on the personal computer.
  • the attribute information addition language unit selection means (second attribute information determination means) 23 determines whether or not to give the attribute information of “joy” of the first sentence also to the second sentence. However, since the first sentence is a greeting sentence “Ohayo ⁇ ” ((3) Independence), the standard prosody is used, and the attribute information of “joy” is discarded. Also, no attribute information is given.
  • the attribute information addition language unit selection means (second attribute information determination means) 23 determines whether or not the attribute information of "anger” in the fourth sentence is also given to the third and fifth sentences. .
  • the 5th sentence starts with a conjunctive conjunction, which is “by the way”, so it is judged that the topic has changed here ((2) unrelated). Do not give the attribute information of “anger”.
  • the 4th and 3rd sentences there is no vocabulary that determines whether the topic or tone has changed from the 4th sentence in the 3rd sentence!
  • the attribute information addition language unit selection means (second attribute information determination means) 23 determines whether or not the third sentence “anger” attribute information is also given to the second sentence.
  • the attribute information addition language unit selection means (second attribute information determination means) 23 determines whether or not the third sentence “anger” attribute information is also given to the second sentence.
  • the second sentence there is no vocabulary to determine whether the topic or tone has changed from the third sentence, but there is no vocabulary that determines attribute information different from “anger” ((1) relation), 3 Attach the same “anger” attribute information as the sentence.
  • the attribute information addition language unit selection means (second attribute information determination means) 23 determines whether or not the sixth sentence “joy” attribute information is also given to the fifth sentence.
  • “Accept” and “Examination” are related to the word, so it is decided to give the same attribute information ((1) relationship), and the 5th sentence also has the attribute of “joy” Give information.
  • FIG. 10 shows a state in which attribute information is given to an adjacent sentence (language unit) by the attribute information addition language unit selection means (second attribute information determination means) 23 from the state of FIG. ! /
  • the synthesizing means 24 activated on the personal computer refers to the synthesizing dictionary 32 and gives a prosody to the sentence with attribute information in FIG.
  • the input text is finally read out in the output means 40 as follows.
  • FIG. 11 shows an output result when the same text as FIG. 7 is assigned attribute information to each sentence using the speech synthesis system of Patent Document 2.
  • the input text is read as follows.
  • the range of sentences to which attribute information is added differs between the present embodiment and the prior art (Patent Document 2).
  • the attribute information specific vocabulary is not included. In this way, the speaker's emotions in the second sentence (second sentence, third sentence, and fifth sentence) cannot be expressed.
  • the process of spreading the attribute information before and after the sentence that does not include the attribute information specific vocabulary is performed as appropriate, it is possible to express how the emotion moves and not feel uncomfortable. The way of speaking is realized.
  • emotion attribute information is added has been described above, but the present invention is also effective in the case of adding utterance style attribute information.
  • An example in which utterance style attribute information is added is described below.
  • the dictionary 31 is associated with attribute information “DJ tone” for the vocabulary “Let ’s go!”.
  • the input sentence is, "Hello, everybody. Retsusu down in charge of is Hanako. Today's lesson is be a verb. Now, I'm cormorant! Including today's lesson” is assumed to be.
  • the analysis means 21 the input sentence "Hello, everyone.”, “This is Hanako of lessons in charge.”, "Today's lesson is be a verb.”, "Come on, including today's lesson or Divide it into four sentences.
  • the attribute information determination means (first attribute information determination means) 22 extracts the vocabulary “Saa! Let's!” To determine attribute information from the fourth sentence, and sets the attribute information of the fourth sentence to “DJ Key.
  • the attribute information addition language unit selection means (second attribute information determination means) 23 determines whether or not the fourth sentence "DJ tone" attribute information is also given to the third sentence.
  • the same attribute information is decided to be given because the word “lesson” is used repeatedly, and the attribute information of “DJ tone” is also given to the 3rd sentence.
  • the attribute information addition language unit selection means (second attribute information determination means) 23 determines whether or not the third sentence "DJ tone" attribute information is also given to the second sentence. In the 3rd sentence and the 2nd sentence, it is decided to give the same attribute information because the word “lesson” is repeatedly used, and the attribute information of “DJ tone” is also given to the second sentence.
  • the attribute information addition language unit selection means (second attribute information determination means) 23 determines whether or not the attribute information of the second sentence "DJ tone" is also given to the first sentence. However, since the first sentence is a greeting sentence, the standard prosody is used and no attribute information is given. As a result, the input sentence is finally read out by the output means 40 as follows.
  • the first example is the operation until input sentence is analyzed, sentence attribute information is determined, and the range of sentences (language unit) to which attribute information is added is determined by the connection relation of the sentence (language unit). Since it is the same as that, description is abbreviate
  • the expression adding means 25 activated on the personal computer is referred to the expression dictionary 33 and the expression information corresponding to the attribute information is displayed. Is granted.
  • the expression information of the system pre-selected by the operator is given from the change of the font stored in the expression dictionary 33 in association with the attribute information, the icon display of symbols, figures, pictograms, etc. .
  • FIG. 12 shows an example of correspondence between attribute information and expression information included in the expression dictionary 33.
  • the above sentence is divided into six sentences, the attribute information of each sentence is determined, and until the range of sentences to which the attribute information is assigned is the same as in the first embodiment, input up to this point
  • the attribute information is given to the text as follows.
  • the expression assigning means 25 refers to the expression dictionary 33 and assigns information necessary for expressing the result by font change.
  • the attribute information “joy” is associated with “pop”, and the attribute information “anger” is associated with “gothic”. Therefore, the above example sentences are each expressed in fonts corresponding to the attribute information as shown in FIG.
  • icon display as expression information.
  • the position where the icon is given is only the beginning and end of the language unit to which the attribute information is given as shown in FIG. 14, and the beginning of the language unit to which the attribute information is given as shown in FIG. Desirable to be able to choose.
  • the degree of emphasis! / Can also be set in a stepwise manner by the above-described (1) to (3) V, shift method. For example, if the strength of a sentence containing a vocabulary that determines attribute information is 10, then the next sentence can be set in multiple steps, 5 for the next sentence and 3 for the next sentence.
  • add strength is an optional item for attribute information addition processing so that the operator can select and set in advance.
  • the present invention is not limited to these descriptions, and attribute information determined based on a dictionary is spread to other language units. It does not deviate from the gist of the present invention including an additional attribute information determining means Various modifications can be made within the range.
  • the present invention has been described with reference to an example in which the present invention is applied to a speech synthesis system and a text display system, but the present invention can also be applied to other application systems.
  • the present invention can be applied to uses such as a speech synthesis system that expresses attribute information such as sentence emotions and speech styles by sound, and a program for realizing the functions of the speech synthesizer by a computer.
  • the present invention can also be applied to various text output systems such as a device having a display means for visually expressing the attribute information and a device for transmitting and receiving sentences.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

 特定の文字列表現を含む言語単位のみならず、文脈上適切な部分に属性情報を付与できる情報付与システムを提供する。情報付与システムは、言語表現を所定の言語単位に分割する解析手段21と、属性情報を決定する語彙の抽出と前記属性情報を付与する言語単位の選択を行うための辞書31と、前記辞書を用いて前記言語単位から所定の語彙を抽出し属性情報を決定する属性情報決定手段(第1属性情報決定手段)22と、第1の属性情報決定手段22によって決定された属性情報と、前記各言語単位の接続関係に基づいて、隣接する言語単位の属性情報を決定する属性情報付与言語単位選択手段(第2属性情報決定手段)23と、を備える。

Description

明 細 書
情報付与システム、情報付与方法、情報付与プログラム及び情報付与プ ログラム記録媒体
技術分野
[0001] 本発明は、情報付与システム (応用システムを含む)、情報付与方法、情報付与プ ログラムおよび情報付与プログラムを記録した記録媒体に関し、特に、文章の感情や 発話スタイル等を示す属性情報を付与したテキストを得ることのできる情報付与シス テム、情報付与方法、情報付与プログラムおよび情報付与プログラムを記録した記録 媒体に関する。
背景技術
[0002] 近年、文章に、文字の単純な羅列だけでは表現できな!/、感情や発話スタイル等の 属性情報を付与し、平板なテキストや合成音声ではなぐより自然に表現したいという 要求が高まっている。ここで属性情報とは、文章の出力時の表現性を高めるために 利用可能な文字本来の意味合いとは離れた情報のことであり、例えば、喜怒哀楽等 の話者の感情や、朗読調、 DJ (ディスクジョッキー)調といった話者の発話スタイル等 を示す情報が挙げられる。この属性情報を用いた文章の表現方法としては、声や音 楽等で耳に訴える方法、テキストの色、絵や光などで目に訴える方法が考えられてい る。また既に、感情を込めて文章を読み上げる音声合成システムや、受信したメール の内容を一つのアイコンで表示する携帯電話等が実現されて 、る。
[0003] 特許文献 1に、感情を込めてテキストを読み上げることのできる音声合成システムの 一例が記載されている。この従来の音声合成システムは、発話モード指定部と、音声 制御パラメータ記憶部と、音声制御レベル設定部と、合成音声部と、から構成されて いる。
[0004] 特許文献 1の音声合成システムは、ユーザに付与された属性情報に従って文章全 体を読み上げるシステムである。即ち、ユーザより任意の発話モードの指定を受け付 けると、特許文献 1の音声合成システムは、指定された発話モードに対応する発生速 度、抑揚の大きさ等のレベルの組み合わせを音声制御パラメータ記憶部力 読み出 す。そして、この音声合成システムは、音声制御レベル設定部にて、前記読み出した レベルの組み合わせを一括して設定し、合成音声部にて感情を表す合成音声を生 成する。
[0005] 特許文献 2には、属性情報を細力べ付与して感情の遷移をなめらかに表すことので きる音声合成システムが開示されている。特許文献 2の音声合成システムは、テキスト 解析部と、感情情報付与部と、感情情報補間部と、力 構成されている。
[0006] 特許文献 2の音声合成システムは、テキスト解析部で入力文章をセグメントに分割 し、感情を表す文字列表現に対して感情情報を定義した感情付与規則を参照して、 感情情報が定義された文字列を含むセグメントに感情情報を付与する。そして、この 音声合成システムは、隣接するセグメントに異なる感情情報が付与されて 、る場合に 、その感情の移り変わりをなめらかに変化させる補間感情情報を付与することによつ て、自然な感情の変化を表現可能としている。
[0007] 特許文献 1 :特開平 5— 100692号公報
特許文献 2 :特開 2005— 181840号公報
発明の開示
発明が解決しょうとする課題
[0008] 以下に本発明による関連技術の分析を与える。上述の各特許文献、非特許文献の 全記載内容は、引用をもって本書に繰り込み記載される。
[0009] し力しながら、上記した従来技術は、依然として、自然な表現ができないという問題 点がある。本来、文章における感情や発話スタイルは、特定の文字列表現を含むセ グメントのみでなく複数文にまたがり、また、文章の途中で変化することが一般的であ るところ、上記した従来技術は、文章全体、あるいは、文字列表現の有無にて属性情 報を付与するものであるため、属性情報の付与単位が長すぎたり短すぎたりするため である。
[0010] この点、特許文献 2の音声合成システムは、特許文献 1の音声合成システムよりも属 性情報を細力べ付与することが可能となって 、るが、属性情報 (感情情報)を付与され るのは、辞書 (感情付与規則)に登録されている語彙を含んだセグメントのみである。
[0011] 以下、特許文献 2の音声合成システムに、「人身事故だって。まったくあったまきち やう、また遅刻だよ (- _-メ)。」という文章を読み上げさせる場合の例を挙げて、その問 題点を説明する。セグメントの分割単位 (言語単位)が「一文」であるとすると、特許文 献 2の音声合成システムのテキスト解析部は、入力文章を「人身事故だって。」「まつ たくあったまきちやう、また遅刻だよ (- _-メ)。」という 2つの文に分割する。
[0012] ここで、感情付与規則に「(-—-メ)」と!、う顔文字に対して「怒り」の属性情報が対応付 けられているとすると、特許文献 2の音声合成システムは、第 2文「まったくあったまき ちゃう、また遅刻だよ (- _-メ)。」に「怒り」の属性情報を付与し、第 1文「人身事故だって 。」には属性情報を付与しない。
[0013] 更に、第 1文「人身事故だって。」と、第 2文「まったくあったまきちやう、また遅刻だよ (- _-メ)。」との間に適宜感情補間処理 (平静 (なし)→怒り)が行われるが、基本的には 、第 2文「まったくあったまきちやう、また遅刻だよ (- _-メ)。」のみが怒りの感情で読み 上げられ、第 1文「人身事故だって。」は標準の韻律で読み上げられることになる。
[0014] し力しながら、第 2文「まったくあったまきちやう、また遅刻だよ (- _-メ)。」の方が怒りの 感情が強いとしても、文脈からすると、第 1文「人身事故だって。」の部分にも遅刻の 理由に対する怒りの感情が含まれていると考えるのが自然である。
[0015] 同様のことが発話スタイルを決定する属性情報を付与する場合にも起こり得る。例 えば、特許文献 2の音声合成システムでは、「DJ調」の属性情報に対応付けられた文 字列を含む文を DJ調にて読み上げることが可能となるが、前後の文に該文字列が含 まれない場合、 DJ調で読み上げることができなくなり、聞き手側に大きな違和感を感 じさせる。
[0016] 本発明は、上記した各事情に鑑みてなされたものであって、その目的とするところ は、特定の文字列表現を含む言語単位のみならず、属性情報を付与した言語単位と の関係に鑑みて、文脈上適切な部分に属性情報を付与できる情報付与システム、情 報付与方法、情報付与プログラムおよび情報付与プログラムを記録した記録媒体を 提供することにある。
課題を解決するための手段
[0017] 本発明の第 1の視点によれば、辞書を用いて言語表現を所定の言語単位に分割 する解析手段と、辞書を用いて前記言語単位から所定の語彙を抽出し属性情報を 決定する第 1の属性情報決定手段と、を備えて、言語単位レベルで言語表現に属性 情報を付与する情報付与システムであって、前記各言語単位の接続関係と前記第 1 の属性情報決定手段によって付与済みの属性情報とに基づいて、属性情報が付与 されて 、な 、言語単位の属性情報を決定する第 2の属性情報決定手段を備えたこと 、を特徴とする情報付与システムと、該情報付与システムによって付与された属性情 報を用いた音声合成やテキスト出力を行う情報処理システムが提供される。
[0018] 本発明の第 2の視点によれば、辞書を用いて言語表現を所定の言語単位に分割 する解析手段と、辞書を用いて前記言語単位から所定の語彙を抽出し属性情報を 決定する第 1の属性情報決定手段と、を備えて、言語単位レベルで言語表現に属性 情報を付与する情報付与システムに実行させるプログラムであって、前記情報付与 システムを、前記各言語単位の接続関係と前記第 1の属性情報決定手段によって付 与済みの属性情報とに基づ 、て、属性情報が付与されて 、な 、言語単位の属性情 報を決定する第 2の属性情報決定手段として機能させるためのプログラム及び該プロ グラムを記録した記録媒体が提供される。
[0019] 本発明の第 3の視点によれば、辞書を用いて言語表現を所定の言語単位に分割 する解析手段と、辞書を用いて前記言語単位から所定の語彙を抽出し属性情報を 決定する第 1の属性情報決定手段と、を備えて、言語単位レベルで言語表現に属性 情報を付与する情報付与システムを用いて実施する情報付与方法であって、前記情 報付与システムが、前記第 1の属性情報決定手段によって、言語表現に含まれる言 語単位の属性情報を決定するステップと、前記情報付与システムが、前記各言語単 位の接続関係と前記第 1の属性情報決定手段によって付与済みの属性情報とに基 づ 、て、属性情報が付与されて 、な 、言語単位の属性情報を決定するステップと、 を含むこと、を特徴とする情報付与方法が提供される。
発明の効果
[0020] 本発明によれば、属性情報が対応付けられた特定の文字列表現を含まな!/、言語 単位にも、文脈上適切な属性情報を付与することが可能となり、文章中の感情の流 れゃ発話スタイルの変化に対応し、より自然な態様で文章全体を出力することが可 能となる。 図面の簡単な説明
[0021] [図 1]本発明の第 1の実施形態に係る音声合成システムの構成を表したブロック図で ある。
[図 2]本発明の第 1の実施形態に係る音声合成システムの動作を表した流れ図であ る。
[図 3]本発明の第 2の実施形態に係るテキスト表示システムの構成を表したブロック図 である。
[図 4]本発明の第 2の実施形態に係るテキスト表示システムの動作を表した流れ図で ある。
[図 5]辞書に定義される語彙と属性情報の対応関係を説明するための図である。
[図 6]文 (言語単位)間の接続関係を分析する際の考え方を説明するための図である
[図 7]本発明の実施例の説明で使用するサンプル文章である。
[図 8]図 7の入力文章の解析結果の一例を表した図である。
[図 9]図 8の状態力 各文に含まれる語彙に基づき属性情報を付与した状態を表した 図である。
[図 10]図 9の状態力 文の接続関係に基づき属性情報の付与を行った結果を表した 図である。
[図 11]従来技術 (特許文献 2)を用いて属性情報の付与を行った結果を表した図であ る。
[図 12]表現辞書に定義される属性情報と表現情報の対応関係を説明するための図 である。
[図 13]本発明の実施例 2のテキスト表示システムによる出力例を表した図である。
[図 14]本発明の実施例 2のテキスト表示システムによる出力例を表した図である。
[図 15]本発明の実施例 2のテキスト表示システムによる出力例を表した図である。 符号の説明
[0022] 10 入力手段
20 データ処理部 21 解析手段
22 属性情報決定手段
23 属性情報付与言語単位選択手段
24 合成手段
25 表現付与手段
30 L | P¾
31 辞書
32 合成辞書
33 表現辞書
40 出力手段
発明を実施するための最良の形態
[0023] 続いて、本発明を実施するための最良の形態について図面を参照して詳細に説明 する。
[0024] 図 1は、本発明の第 1の実施形態に係る音声合成システムの構成を表したブロック 図である。図 1を参照すると、本実施形態に係る音声合成システムは、キーボードや マイク等の入力手段 10と、プログラム制御により動作するデータ処理部 20と、情報を 記憶する記憶部 30と、ディスプレイ装置やスピーカ一等の出力手段 40とから構成さ れている。
[0025] 入力手段 10は、文章を入力したり、オペレータによる選択が必要な場合に指示を 入力したりするためのものである。
[0026] データ処理部 20は、解析手段 21と、属性情報決定手段 (第 1属性情報決定手段)
22と、属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23と、合成手段 2
4とを含む。
[0027] 解析手段 21は、辞書 31を参照して、文章に対して形態素解析及び構文解析を実 行する。
[0028] 属性情報決定手段 (第 1属性情報決定手段) 22は、辞書 31を参照して、解析手段 21による解析結果カゝら属性情報を決定する語彙を抽出し、付与する属性情報を決 定する。 [0029] 属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、解析手段 21に よる解析結果と辞書 31を参照して言語単位の接続関係を解析するとともに、属性情 報決定手段 (第 1属性情報決定手段) 22によって決定された属性情報と、前記言語 単位の接続関係に基づいて、追加に、属性情報を付与する言語単位を決定する。
[0030] 合成手段 24は、属性情報決定手段 (第 1属性情報決定手段) 22及び属性情報付 与言語単位選択手段 (第 2属性情報決定手段) 23の出力結果と合成辞書 32とを参 照して、文章を合成音声で読み上げるために必要な情報を出力する。
[0031] 記憶部 30は、辞書 31と、合成手段 24による音声合成処理のための合成辞書 32と を含む。
[0032] 辞書 31には、見出しと、該見出しに対応する読み、品詞、用例などの情報が登録さ れている。
[0033] 合成辞書 32には、文章を合成音で読み上げるために必要な韻律等の情報が属性 情報等と対応付けて登録されて!、る。
[0034] 出力手段 40は、データ処理部 20により出力された結果を用いて、入力された文章 を画面に表示したり、音声で出力したりするためのものである。
[0035] 続いて、図 1及び図 2のフローチャートを参照して、本実施形態の全体の動作につ いて詳細に説明する。
[0036] 入力手段 10から文章が入力されると、解析手段 21は、辞書 31を参照して、文章に 対して形態素解析及び構文解析を実行する(図 2のステップ S101)。
[0037] 続いて、属性情報決定手段 (第 1属性情報決定手段) 22が、辞書 31を参照して、 解析結果中に属性情報を決定する語彙が存在するか否かを検索する(図 2のステツ プ S102)。ここで、属性情報を決定する語彙が一つも抽出されな力つた場合には(図 2のステップ S103の NO)、合成手段 24が、合成辞書 32を参照して、文章全体に標 準の韻律を付与し、出力手段 40に合成音声を出力する(図 2のステップ S 108)。
[0038] 一方、図 2のステップ S103にて、属性情報を決定する語彙が抽出された場合は、 属性情報決定手段 (第 1属性情報決定手段) 22は、付与すべき属性情報を決定する (図 2のステップ S 104)。
[0039] 属性情報決定手段 (第 1属性情報決定手段) 22による属性情報の決定が完了する と、属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、解析手段 21 による解析結果と辞書 31を参照して言語単位の接続関係を解析するとともに、属性 情報決定手段 (第 1属性情報決定手段) 22によって決定された属性情報と、前記言 語単位の接続関係に基づいて、追加に、属性情報を付与する言語単位を決定する( 図 2のステップ S 105)。
[0040] 属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23による追加の属性 情報の付与が完了すると、合成手段 24が、合成辞書 32を参照して、属性情報に対 応した韻律を文章に付与する(図 2のステップ S 106)。
[0041] 最後に出力手段 40が、韻律が付与された文章を合成音声で出力する(図 2のステ ップ S 107)。
[0042] 以上のように、本発明の第 1の実施形態では、属性情報決定手段 (第 1属性情報決 定手段) 22で文章中の属性情報を決定してから、属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23で各属性情報を付与する言語単位を更に決定するよう に構成されて ヽるため、文章作成時の感情の流れや意図した発話スタイルの変化を 反映することができる。
[0043] 続いて、上記第 1の実施形態に変更を加え、テキストに表示態様等を変更すること により前記属性情報を表現するようにした本発明の第 2の実施形態について図面を 参照して詳細に説明する。
[0044] 図 3は、本発明の第 2の実施形態に係るテキスト表示システムの構成を表したブロッ ク図である。図 3を参照すると、上記第 1の実施形態との変更点は、上記第 1の実施 形態における合成辞書 32と合成手段 24とに代えて、表現辞書 33と表現付与手段 2 5を備えている点である。
[0045] 表現付与手段 25は、属性情報決定手段 (第 1属性情報決定手段) 22及び属性情 報付与言語単位選択手段 (第 2属性情報決定手段) 23の出力結果と表現辞書 33と を参照して、フォント情報や付加するアイコン等の表現を付与する。
[0046] 表現辞書 33には、フォントや記号、図形、絵文字等のアイコンが属性情報と対応付 けて登録されている。
[0047] 続いて、図 3及び図 4のフローチャートを参照して、本実施形態の全体の動作につ いて詳細に説明する。
[0048] 図 4のステップ S111から S115までで示される動作は、第 1の実施の形態における 図 2のステップ S101〜S105の動作と同一のため、説明を省略する。
[0049] まず、図 4のステップ S113で属性情報を決定する語彙が一つも抽出されな力つた 場合には(図 4のステップ S113の NO)、属性情報が付与されることはなぐ文章全体 が属性情報なしで出力される(図 4のステップ S 118)。
[0050] 一方、図 4のステップ S113で属性情報を決定する語彙が抽出され、属性情報付与 言語単位選択手段 (第 2属性情報決定手段) 23による追加の属性情報の付与が完 了すると、表現付与手段 25は、表現辞書 33を参照して、属性情報に対応したフォン トの指定やアイコンを文章に付与する(図 4のステップ S 116)。
[0051] なお、アイコンを付与する場合、その位置は「属性情報を付与する言語単位の始ま りと終わり」か「属性情報を付与する言語単位の始まりのみ」の 、ずれかをオペレータ が予め選択できるようにすることが望ま 、。
[0052] 最後に出力手段 40が、フォントやアイコンが付与された文章を画面に表示する(図
4のステップ S 117)。
[0053] 以上のように、本発明の第 2の実施形態では、音声出力ができない (許されない)環 境においても、文章の属性情報を表現することが可能となる。また、本実施形態では 、容量の大きい合成辞書 32を用意する必要がなくなり、記憶部の容量を削減するこ とがでさる。
実施例
[0054] 続いて、上記した本発明の実施形態をより具体的に説明すベぐ本発明の第 1の実 施例について図面を参照して説明する。
[0055] [実施例 1]
本発明の第 1の実施例は、上記本発明の第 1の実施形態に対応するものであり、入 力手段 10としてキーボードを、データ処理手段 20としてパーソナル 'コンピュータを、 記憶手段 30として磁気ディスクを、出力手段 40としてスピーカーを備えた構成にて 実現される。
[0056] 磁気ディスクには、辞書 31、合成辞書 32のほか、解析手段 21、属性情報決定手 段 (第 1属性情報決定手段) 22、属性情報付与言語単位選択手段 (第 2属性情報決 定手段) 23、合成手段 24として、パーソナル ·コンピュータ(中央演算装置)を機能さ せるコンピュータプログラムが保持されて 、る。
[0057] 入力手段 10から言語表現が入力されると、解析手段 21は、辞書 31を参照して形 態素解析や構文解析を実行し、言語表現を 1から nの複数の言語単位に分割する。 なお、本実施例では、言語表現とは言語で表現されたものすべてを指す。また、本実 施例では、言語単位とは、文章を構成する段落、節、章、文などの単位、文を構成す る単語、文節、句などの単位、さらには新聞や WEBページのように複数の文章から 構成される場合の一つ一つの文章も指すものとする。また、解析技術については公 知の技術であるので説明を省略する。
[0058] 属性情報決定手段 (第 1属性情報決定手段) 22では、辞書 31を参照して、 1から n の言語単位に属性情報を決定する語彙が含まれている力否かを検索する。なお、本 実施例では、属性情報とは、喜怒哀楽などの感情や、朗読調、 DJ調といった発話ス タイルをいう。また、語彙には顔文字 (フェイスマーク)、記号、定型表現を含み、定型 表現とはことわざ等の決まった言い回しも含まれるものとする。
[0059] 図 5は、辞書 31に含まれる語彙と属性情報の対応例を示している。図 5を参照する と、例えば、 1から nの言語単位力 語彙「うれしい」が抽出された場合は、該言語単 位の属性情報を「喜び」と決定する。
[0060] 属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23では、属性情報決 定手段 (第 1属性情報決定手段) 22で決定した言語単位の属性情報を、隣接する言 語単位に付与するかどうかを決定する。例えば、語彙「うれしい」が d番目の言語単位 力 抽出され、 d番目の言語単位の属性情報「喜び」が決定されている場合に、その 属性情報を d— 1番目の言語単位に付与するかどうか、 d+ 1番目の言語単位に付与 するかどうかを反復的に決定して!/、く。
[0061] 上記隣接する言語単位に属性情報を波及させる力否かは、解析手段 21による解 析結果と辞書 31を参照して、言語単位に含まれる語彙力も言語単位と言語単位の 関係 (接続関係)を分析し、その分析結果に基づいて決定する。言語単位と言語単 位の関係 (接続関係)の分析 (判定)は、隣接する言語単位の ヽずれか一方以上に 含まれる接続詞や接続助詞のような言語単位接続用語彙や、隣接する言語単位に 含まれる指示語の照応、単語間の関連、主題の変化、文末表現の変化などを用いて なされる。
[0062] 図 6は、言語表現として複数の文力もなる「文章」から切り出された言語単位「文」の 関係 (接続関係)を分析する際の考え方を説明するための図である。
[0063] 言語単位と言語単位の関係 (接続関係)は、(1)関係がある、(2)関係がない、(3) 独立した文 (言語単位)である、(4)隣接する文 (言語単位)に別の属性情報が決定 している、の大きく 4つに分類することができる。以下、図 6を参照しながら、上記接続 関係(1)〜 (4)について、例を交えて詳細に説明する。
[0064] (1)関係がある
文と文に関係があるとは、例えば、前後の文で話題や語調が変わらず、理由や補 足を述べているときである。
[0065] 話題が変わらないと判断する語彙には、接続詞と接続助詞がある。例えば、文頭に 順接の接続詞「だから」、「そこで」、累加の接続詞「なお」、「しかも」、並立の接続詞「 また」、「および」、説明'補足の接続詞「つまり」、「なぜなら」、例示の接続詞「たとえ ば」、等がある場合と、文末に「ので」、「から」などの理由の接続助詞を挙げることが できる。
[0066] また、「これ」、「それ」等の指示語がそれ以前に出現している事柄と照応している範 囲も、(1)関係があると分析すべきである。例えば、「セーター送ってくれてありがとう。 あれ、前力も欲しかった力もすつごくうれし力つた。」というような場合が挙げられる。ま た、上記指示語の照応範囲は、複数の言語単位に及ぶことも考えられる。
[0067] また、図 6では省略している力 主語の省略のように、以前に述べられた事柄が省 略されていると認められる範囲も、(1)関係があると分析すべきである。例えば、「私 たちも本当に驚いています。こんなことになるとは思ってもいませんでした。」というよう な場合が挙げられる。
[0068] また、単語間に関連がある範囲も、 (1)関係があると分析すべきである。単語間に 関連がある範囲とは、同じ単語が繰り返し使われている範囲、「買う」と「購入する」の ように意味の似て 、る語が使われて 、る範囲、「ランドセル」と「小学生」のように結び つきの強!、語が使われて!/、る範囲を!、う。
[0069] また、主題が変わらない範囲も、 (1)関係があると分析すべきである。例えば、「新し い仲間を紹介します。名前は鈴木太郎君。出身は北海道です。」のように、主語は変 わっても、「名前」や「出身地」は「人 (仲間)」に付随する事柄であることからテーマの 一貫性が認められる場合である。
[0070] また、理由や背景が属性情報を決定する語彙の前後に記述されていることが多い という知見に照らせば、属性情報の付与規則を定め、隣接する文の属性情報を一つ 一つ (反復的に)決定していくのではなくて、属性情報を決定する語彙が含まれる文 との相対位置により属性情報を一括設定することも可能である。前記属性情報の付 与規則としては、「属性情報を決定する語彙を含む文の前後 3文には同じ属性情報 を付与する」、「転換'逆接の接続詞が出現しない限り、関係があると見做す」、「別の 属性情報を持つ文が出現するまで、関係があると見做す」といったものが考えられる
[0071] 以上のように、隣接する文同士に(1)関係がある、との接続関係が認められる場合 、隣接する文に同じ属性情報を付与すべきであり、いずれか一方の文 (言語単位)と 同じ属性情報 (既に決定済みの属性情報)が他方の文 (言語単位)にも付与される。
[0072] (2)関係がない
文と文に関係がないとは、例えば、前後の文で話題や語調が変わるときである。
[0073] 話題が変わったと判断する語彙には、接続詞がある。文頭に転換の接続詞「ところ で」、「さて」、逆接の接続詞「しかし」、「だが」、対比'選択の接続詞「それとも」、「また は」等を挙げることができる。
[0074] また、先に主語が省略されている場合は(1)関係があると述べたが、反対に、主題 が変わる場合は、原則として、(2)関係がない、と分析すべきである。
[0075] また、語調が変わった場合も、原則として、 (2)関係がな 、、と分析すべきである。
語調の変化は、文末表現に顕著に現れる。例えば、「楽しかったですね一。また会い ましょう。」のように終助詞や助動詞が変わる場合、「対応する予定はあるのでしょうか ?教えてください。」のように、疑問文、平叙文、命令文等の文の種類が変わった場 合を挙げることができる。但し、この文末表現の変化は、他に比べて影響度は小さい 。例えば、文末表現が変わっても主題が変わらなければ、(1)関係があると判断すベ きことが多い。
[0076] 以上のように、隣接する文同士に (2)関係がない、との接続関係が認められる場合 、先行する文 (言語単位)と同じ属性情報を付与させるべきではない。後ろの文 (言語 単位)の属性情報は、以降の文 (言語単位)との接続関係と、以降に最初に現れる属 性情報に基づ 、て決定されるべきである。
[0077] (3)独立した文 (言語単位)である
あいさつ文や「〉」で始まる電子メールの引用部分は、原則として、(3)独立した文( 言語単位)である、と分析すべきである。また例えば、あいさつ文や引用部分であるこ とは、解析結果、引用記号の存在や文章全体のレイアウト等力も判断することができ る。
[0078] このように、後続する文が(3)独立した文 (言語単位)である場合、例えば、「おはよ う」「お世話になっております」等のあいさつ文は、合成辞書 32にその韻律が付与さ れていることが多いので、それをそのまま利用して出力することができ、また、引用部 分も標準の韻律で読み上げれば足りる。以上のように、(3)独立した文 (言語単位)で ある場合、前後の文 (言語単位)の属性情報に合わせる必要がな 、。
[0079] (4)隣接する文 (言語単位)に別の属性情報が決定して!/、る
隣接する文 (言語単位)にそれぞれ別の属性情報が決まっているときには、お互い の属性情報の影響は受けず、それぞれの文 (言語単位)の属性情報を保持させるベ きである。例えば、「悲し力つた。腹が立った。」のように、話題や語調は変わらないの に、隣接する文で別の属性情報が決まっている場合が該当する。
[0080] 合成手段 24では、合成辞書 32を参照して、属性情報決定手段 (第 1属性情報決 定手段) 22で属性情報を決定する語彙が一つも抽出されな力 た場合には、文章 全体に属性情報のない、標準の韻律を付与して合成音声を生成し、出力手段 40に 出力する。また、属性情報決定手段 (第 1属性情報決定手段) 22で文の属性情報が 決まり、属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23で各属性情報 を付与する文の範囲が決まった場合には、決定した属性情報に対応した韻律を付与 して合成音声を生成し、出力手段 40に出力する。 [0081] 以上の構成よりなる本実施例の動作について、図 5の語彙と属性情報の対応例と、 図 7の例文を用いて詳細に説明する。
[0082] 図 7に示すとおり、入力手段 10から「おはよ〜!今電車が止まつちゃったよ。人身 事故だって。まったくあったまきちやう、また遅刻だよ (- _-メ)。ところでさあ、こないだの 試験どうだった?私は受かったよ Γ。 lo」という文章が入力されたとする。
[0083] 図 8は、パーソナル 'コンピュータ上に起動された解析手段 21により、上記文章を 6 つの文 (言語単位)に分割した例を示して 、る。
[0084] パーソナル 'コンピュータ上に起動された属性情報決定手段 (第 1属性情報決定手 段) 22は、辞書 31を参照して、上記 6つの文中に、属性情報を決定する語彙が含ま れているか否かを検索する。図 5を参照すると、「!」と「(~。 」が「喜び」、「あったまく る」と「 -メ)」が「怒り」 ヽぅ属性情報と対応付けられて ヽるので、属性情報決定手 段 (第 1属性情報決定手段) 22は、図 9に表されたように、 1文目の属性情報を「喜び 」、 4文目の属性情報を「怒り」、 6文目の属性情報を「喜び」と決定する。
[0085] 続いて、パーソナル 'コンピュータ上に起動された属性情報付与言語単位選択手 段 (第 2属性情報決定手段) 23により、属性情報の付与が行われる。
[0086] まず属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、 1文目の「 喜び」の属性情報を 2文目にも付与するかどうかを決定する。し力しながら、 1文目は「 おはよ〜」というあいさつ文であるので((3)独立)、標準の韻律を利用することとし、「 喜び」の属性情報は廃棄され、 2文目にも属性情報は付与されない。
[0087] 次に属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、 4文目の「 怒り」の属性情報を 3文目と 5文目にも付与するかどうかを決定する。 4文目と 5文目で は、 5文目が「ところで」と 、う転換の接続詞で始まって 、るので、ここで話題が変わつ たと判断し((2)関係なし)、 5文目に「怒り」の属性情報は付与しな 、。一方、 4文目と 3文目では、 3文目に、 4文目と話題や語調が変わったか否かを判断する語彙がな!ヽ 力 「怒り」と異なる属性情報を決定する語彙も存在しないので((1)関係)、 4文目と 同じ「怒り」の属性情報を付与する。
[0088] 次に属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、前記 3文目 の「怒り」の属性情報を 2文目にも付与するかどうかを決定する。 3文目と 2文目では、 2文目に、 3文目と話題や語調が変わったカゝ否かを判断する語彙がないが、「怒り」と 異なる属性情報を決定する語彙も存在しないので((1)関係)、 3文目と同じ「怒り」の 属性情報を付与する。
[0089] 最後に、属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、 6文目 の「喜び」の属性情報を 5文目にも付与するかどうかを決定する。 6文目と 5文目では 、「受かる」と「試験」と 、う単語に関連があるので同じ属性情報を付与すると決定し(( 1)関係)、 5文目にも「喜び」の属性情報を付与する。
[0090] 図 10は、図 9の状態から、上記属性情報付与言語単位選択手段 (第 2属性情報決 定手段) 23により隣接する文 (言語単位)に属性情報が付与された状態を表して!/、る
[0091] パーソナル 'コンピュータ上に起動された合成手段 24は、合成辞書 32を参照し、図 10の属性情報付きの文章に韻律を付与する。そして、入力文章は最終的に出力手 段 40にて、次のように読み上げられる。
[0092] 「おはよ〜!」…標準の韻律。
「今電車が止まつちゃったよ。人身事故だって。まったくあったまきちやう、また遅刻 だよ (- _-メ)。」…怒り。
「ところでさあ、こないだの試験どうだった?私は受力つたよ Γ。 lo」…喜び。
[0093] 図 11は、図 7と同じ文章を、特許文献 2の音声合成システムを用いて、文単位に属 性情報を付与した場合の出力結果を示している。この場合、入力文章は次のよう〖こ 読み上げられる。
[0094] 「おはよ〜!」…喜び。
「今電車が止まつちゃったよ。」…属性情報なし。
「人身事故だって。」…属性情報なし。
「まったくあったまきちやう、また遅刻だよ (- _-メ)。」…怒り。
「ところでさあ、こな 、だの試験どうだった?」 · "属性情報なし。
「私は受力つたよ Γ。 。」…喜び。
[0095] このように本実施例と従来技術 (特許文献 2)とでは、属性情報を付与する文の範囲 が異なるものとなる。従来技術 (特許文献 2)では、属性情報特定語彙を含んでいな い文(2文目、 3文目、 5文目)における話者の感情を表現できず、文章を一連に読み 上げた場合に、感情がころころ変わるような話し方となる。これに対し、本実施例では 、属性情報特定語彙を含んでいない文についても、前後の属性情報を適宜波及さ せる処理を行っているため、感情が移り行く様を表現でき、違和感を覚えない話し方 を実現できている。
[0096] 以上、感情の属性情報を付与した例をあげて説明したが、本発明は、発話スタイル の属性情報を付与する場合にも有効である。以下、発話スタイルの属性情報を付与 した例を説明する。
[0097] ここでは、辞書 31に、「さあ〜ましょう!」という語彙について「DJ調」という属性情報 が対応付けられているものとする。また、入力文章は、「みなさん、こんにちは。レツス ン担当の花子です。今日のレッスンは be動詞です。さあ、今日のレッスンを始めましよ う!」であるものとする。
[0098] この場合、解析手段 21は、入力文章を「みなさん、こんにちは。」、 「レッスン担当の 花子です。」、「今日のレッスンは be動詞です。」、「さあ、今日のレッスンを始めましょう !」という 4つの文に分割する。
[0099] そして、属性情報決定手段 (第 1属性情報決定手段) 22は、 4文目から属性情報を 決定する語彙「さあ〜ましょう!」を抽出し、 4文目の属性情報を「DJ調」と決定する。
[0100] そして、属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、 4文目 の「DJ調」の属性情報を 3文目にも付与するかどうかを決定する。 4文目と 3文目では 、 「レッスン」という単語が繰り返し使用されていることから同じ属性情報を付与すると 決定し、 3文目にも「DJ調」の属性情報を付与する。
[0101] 次に属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、前記 3文目 の「DJ調」の属性情報を 2文目にも付与するかどうかを決定する。 3文目と 2文目でも 、 「レッスン」という単語が繰り返し使用されていることから同じ属性情報を付与すると 決定し、 2文目にも「DJ調」の属性情報を付与する。
[0102] 最後に属性情報付与言語単位選択手段 (第 2属性情報決定手段) 23は、 2文目の 「DJ調」の属性情報を 1文目にも付与するかどうかを決定する。しかし、 1文目はあい さつ文であるので、標準の韻律を利用することし、属性情報は付与しない。 [0103] この結果、入力文章は最終的に出力手段 40にて、次のように読み上げられる。
[0104] 「みなさん、こんにちは。」…標準の韻律。
「レッスン担当の花子です。今日のレッスンは be動詞です。さあ、今日のレッスンを 始めましょう!」〜DJ調。
[0105] 一方、特許文献 2の音声合成システムを用いた場合、上記文章は次のように読み 上げられる。
[0106] 「みなさん、こんにちは。」…属性情報なし。
「レッスン担当の花子です。」…属性情報なし。
「今日のレッスンは be動詞です。」…属性情報なし。
「さあ、今日のレッスンを始めましょう!」〜DJ調。
[0107] 以上のように、発話スタイルの属性情報を付与する場合にぉ 、ても、本実施例の方 力 属性情報特定語彙を含んでいない文についても、前後の属性情報を適宜波及さ せる処理を行って 、るため、違和感を覚えな 、話し方を実現できて 、る。
[0108] [実施例 2]
続いて、上記本発明の第 2の実施形態に対応する本発明の第 2の実施例を、図面 を参照して説明する。本実施例と上記第 1の実施例との相違点は、合成手段 24に代 えて表現付与手段 25を有し、記憶手段 30としての磁気ディスクに、合成辞書 32に代 えて表現辞書 33を記憶し、更に、出力手段 40としてディスプレイを用いる点である。
[0109] 以下、実施例 1で既に説明した事項は適宜省略して、その動作について説明する 。入力文章が解析され、文の属性情報が決定され、更に文 (言語単位)の接続関係 により属性情報を付与する文 (言語単位)の範囲が決定されるまでの動作は第 1の実 施例と同様なので、説明を省略する。
[0110] 属性情報と属性情報を付与する文の範囲が決定されると、パーソナル'コンビユー タ上に起動された表現付与手段 25が表現辞書 33を参照して、属性情報に応じた表 現情報を付与する。ここでは、表現辞書 33に属性情報と対応付けて記憶されたフォ ントの変化や、記号、図形、絵文字等のアイコン表示等から、オペレータが予め選択 した体系の表現情報が付与されるものとする。
[0111] ここでは、フォントの変化により、属性情報に対応する表現を行う例を挙げて説明す る。図 12は、表現辞書 33に含まれる属性情報と表現情報の対応例を示している。
[0112] 以下、実施例 1の図 7に示した「おはよ〜!今電車が止まつちゃったよ。人身事故 だって。まったくあったまきちやう、また遅刻だよ (- _-メ)。ところでさあ、こないだの試験 どうだった?私は受かったよ Γ。 」という文章が入力されたものとして説明する。
[0113] 上記文章が 6つの文に分割され、各文の属性情報が決定され、属性情報を付与す る文の範囲が決定されるまでは第 1の実施例と同様で、ここまでで入力文章には次の ように属性情報が付与される。
[0114] 「おはよ〜!」…標準の韻律。
「今電車が止まつちゃったよ。人身事故だって。まったくあったまきちやう、また遅刻 だよ (- _-メ)。」…怒り。
「ところでさあ、こないだの試験どうだった?私は受力つたよ Γ。 lo」…喜び。
[0115] 表現付与手段 25は、表現辞書 33を参照して、この結果をフォントの変化で表現す るのに必要な情報を付与する。
[0116] 即ち、「喜び」という属性情報は「ポップ体」、「怒り」という属性情報は「ゴシック体」と 対応付けられている。従って、上記例文は、図 13のようにそれぞれ属性情報に対応 するフォントで表現され出力手段 40に出力される。
[0117] また、表現情報としてアイコン表示を選択することも可能である。この場合、アイコン を付与する位置は、図 14に示すように属性情報を付与する言語単位の始まりと終わ りとする力 図 15に示すように属性情報を付与する言語単位の始まりのみとする等を 選択することができるようにすることが望まし 、。
[0118] 以上本発明の好適な実施形態について説明したが、更に、上記属性情報付与言 語単位選択手段 (第 2属性情報決定手段) 23が付与する属性情報に該属性の強弱 に関する情報を付けることも可能である。強弱の付け方としては、(1)語彙の持つ強 さに応じる方法や(2)隣接する言語単位のつながりの強さに応じる方法、(3)ォペレ ータが設定した規則に従う方法等を採ることができる。
[0119] (1)属性情報を決定する語彙の強さに応じる方法の場合、「怒っていた」のように感 情を直接的に表現する語彙が使われているときには、属性情報を決定する語彙を含 む文 (言語単位)の前後 3文を強調し、「腹に据えかねた」のように感情を間接的に表 現する語彙が使われているときには、属性情報を決定する語彙を含む文 (言語単位) のみを強調するというようにして強弱を付けることができる。また、属性情報を決定す る語彙が複数存在する文 (言語単位)は、属性情報を決定する語彙が一つしかない 文 (言語単位)よりも 2倍強調すると 、うように違 、を付けることもできる。
[0120] (2)隣接する言語単位のつながりの強さに応じる方法の場合、例えば、「だから」と いう接続詞でつながる文はつながりが強ぐ指示語の照応でつながる文はつながりが 弱い等と、属性情報を付与する文の範囲を決定する際に用いた言語単位の接続関 係の分析結果に基づ 、て、強弱を付けることができる。
[0121] (3)また、オペレータが入力文章の内容等に応じて定めた規則に応じる方法の場 合、例えば、「属性情報を決定する語彙のみ」、「属性情報を決定する語彙を含む一 文」、「属性情報を決定する語彙を含む文の前後 3文」等の、属性情報を決定する語 彙カもの位置による規則で強弱を付けることができる。
[0122] 上記(1)〜(3) V、ずれの方法でも、強調する度合!/、を段階的に設定することも可能 である。例えば、属性情報を決定する語彙を含む文の強さを 10とすると、すぐ隣の文 は 5、そのまた隣の文は 3等と強弱の度合 、を多段階に設定することができる。
[0123] 以上のうち(3)オペレータが設定した規則に従う方法を用いて、図 7の「今電車が止 まっちゃつたよ。人身事故だって。まったくあったまきちやう、また遅刻だよ (- _-メ)。」と いう文章に強弱をつける例を示す。
[0124] 例えば、オペレータが「属性情報を決定する語彙を含む一文」を強調する規則を設 定した場合、文章の後半の「まったくあったまきちやう、また遅刻だよ (- _-メ)。」に対し、 前半の「今電車が止まつちゃったよ。人身事故だって。」よりも強い「怒り」の属性情報 が付与され、強く読みあげられ、あるいは、強調する字体やアイコンで表現されること になる。
[0125] もちろん、上記「強弱をつける」を、属性情報の付与処理のオプション項目とし、ォ ペレータが予め選択設定できるようにすることも好ま 、。
[0126] 以上、本発明を実施するための好適な形態を説明したが、本発明はこれら記載に よって限定されるものではなぐ辞書に基づいて決定された属性情報を他の言語単 位に波及させる追加の属性情報決定手段を備えるという本発明の要旨を逸脱しない 範囲で、各種の変形を加えることが可能である。例えば、上記した実施形態では、本 発明を音声合成システムと、テキスト表示システムに適用した例を挙げて説明したが 、その他の応用システムにも適用可能である。
[0127] また、上記した各実施形態、実施例に示した各要素もあくまでその好適な一例を示 したものであり、本発明の要旨を逸脱しない範囲で、各種の変形を加えることが可能 であることは 、うまでもな!/、。
産業上の利用可能性
[0128] 本発明は、上記のとおり、文章の感情や発話スタイル等の属性情報を音で表現す る音声合成システムや、音声合成装置の機能をコンピュータにより実現させるための プログラムといった用途に適用できる。また、前記属性情報を視覚的に表現するため の表示手段を有する装置や、文章の送受信のための装置といった各種テキスト出力 システムにも適用可能である。

Claims

請求の範囲
[1] 辞書を用いて言語表現を所定の言語単位に分割する解析手段と、辞書を用いて 前記言語単位から所定の語彙を抽出し属性情報を決定する第 1の属性情報決定手 段と、を備えて、言語単位レベルで言語表現に属性情報を付与する情報付与システ ムであって、
前記各言語単位の接続関係と前記第 1の属性情報決定手段によって付与済みの 属性情報とに基づ 、て、属性情報が付与されて 、な 、言語単位の属性情報を決定 する第 2の属性情報決定手段を備えたこと、
を特徴とする情報付与システム。
[2] 前記第 2の属性情報決定手段は、隣接する言語単位に前記辞書に登録された言 語単位接続用語彙が含まれているか否かにより、前記各言語単位の接続関係を判 定すること、
を特徴とする請求項 1に記載の情報付与システム。
[3] 前記属性情報として、少なくとも感情又は発話スタイルのいずれか一方を規定する 属性情報を付与可能であること、
を特徴とする請求項 1又は 2に記載の情報付与システム。
[4] 前記解析手段は、前記言語表現を、単語、文節、句、文、段落、項、節、章の!ヽず れかの言語単位に分割すること、
を特徴とする請求項 1乃至 3いずれか一に記載の情報付与システム。
[5] 前記第 2の属性情報決定手段は、前記各言語単位に含まれる指示語の照応、単 語間の関連、主題の変化、文末表現の変化のいずれか一つ以上に基づいて、前記 属性情報が付与されて 、な 、言語単位の属性情報を決定すること、
を特徴とする請求項 1乃至 4いずれか一に記載の情報付与システム。
[6] 前記各言語単位に含まれる語彙又は文の構成が予め定める条件を満たす場合に は、前記第 2の属性情報決定手段は、該当する言語単位に付与された属性情報を 削除すること、
を特徴とする請求項 1乃至 5いずれか一に記載の情報付与システム。
[7] 前記第 2の属性情報決定手段は、前記各言語単位の接続関係と付与済みの属性 情報とに基づいて、前記属性情報を決定した言語単位に隣接する言語単位の属性 情報の決定を反復的に実行することにより、前記属性情報が付与されていない言語 単位の属性情報を決定すること、
を特徴とする請求項 1乃至 6いずれか一に記載の情報付与システム。
[8] 前記第 2の属性情報決定手段は、前記第 1の属性情報決定手段によって属性情報 が決定された言語単位に対し、所定の範囲内にある言語単位の属性情報を一括し て決定すること、
を特徴とする請求項 1乃至 7いずれか一に記載の情報付与システム。
[9] 属性の強弱を示す強弱レベル情報を含んだ属性情報を付与可能であること、 を特徴とする請求項 1乃至 8いずれか一に記載の情報付与システム。
[10] 請求項 1乃至 9 、ずれか一に記載の情報付与システムを含んだ音声合成システム であって、
前記情報付与システムにより決定された各言語単位の属性情報と、言語表現を前 記属性情報に対応する合成音声にて読み上げるためのデータを格納した合成辞書 と、を用いて音声データを合成する合成手段を備えたこと、
を特徴とする音声合成システム。
[11] 請求項 1乃至 9いずれか一に記載の情報付与システムを含んだテキスト表示システ ムであって、
前記情報付与システムにより決定された各言語単位の属性情報と、言語表現を前 記属性情報に対応する態様にて表示するためのデータを格納した表現辞書と、を用 いて、前記言語単位で、テキストの表示態様を制御する表現付与手段を備えたこと、 を特徴とするテキスト表示システム。
[12] 辞書を用いて言語表現を所定の言語単位に分割する解析手段と、辞書を用いて 前記言語単位から所定の語彙を抽出し属性情報を決定する第 1の属性情報決定手 段と、を備えて、言語単位レベルで言語表現に属性情報を付与する情報付与システ ムに実行させるプログラムであって、
前記情報付与システムを、前記各言語単位の接続関係と前記第 1の属性情報決定 手段によって付与済みの属性情報とに基づいて、属性情報が付与されていない言 語単位の属性情報を決定する第 2の属性情報決定手段として機能させるためのプロ グラム。
[13] 隣接する言語単位に前記辞書に登録された言語単位接続用語彙が含まれて!/ヽる か否かにより、前記各言語単位の接続関係を判定すること、
を特徴とする請求項 12に記載のプログラム。
[14] 前記属性情報として、少なくとも感情又は発話スタイルのいずれか一方を規定する 属性情報を付与可能であること、
を特徴とする請求項 12又は 13に記載のプログラム。
[15] 単語、文節、句、文、段落、項、節、章のいずれかにより分割された言語単位の属 性情報を決定すること、
を特徴とする請求項 12乃至 14 ヽずれか一に記載のプログラム。
[16] 前記各言語単位に含まれる指示語の照応、単語間の関連、主題の変化、文末表 現の変化のいずれか一つ以上に基づいて、前記隣接する言語単位の属性情報を決 定すること、
を特徴とする請求項 12乃至 15 ヽずれか一に記載のプログラム。
[17] 前記各言語単位に含まれる語彙又は文の構成が予め定める条件を満たす場合に は、該当する言語単位に付与された属性情報を削除すること、
を特徴とする請求項 12乃至 16いずれか一に記載のプログラム。
[18] 前記各言語単位の接続関係と付与済みの属性情報とに基づ!、て、前記属性情報 を決定した言語単位に隣接する言語単位の属性情報の決定を反復的に実行するこ とにより、前記属性情報が付与されていない言語単位の属性情報を決定すること、 を特徴とする請求項 12乃至 17 ヽずれか一に記載のプログラム。
[19] 前記第 1の属性情報決定手段によって属性情報が決定された言語単位に対し、所 定の範囲内にある言語単位の属性情報を一括して決定すること、
を特徴とする請求項 12乃至 18いずれか一に記載のプログラム。
[20] 属性の強弱を示す強弱レベル情報を含んだ属性情報を付与可能であること、 を特徴とする請求項 12乃至 19 ヽずれか一に記載のプログラム。
[21] 辞書を用いて言語表現を所定の言語単位に分割する解析手段と、辞書を用いて 前記言語単位から所定の語彙を抽出し属性情報を決定する第 1の属性情報決定手 段と、を備えて、言語単位レベルで言語表現に属性情報を付与する情報付与システ ムを用いて実施する情報付与方法であって、
前記情報付与システムが、前記第 1の属性情報決定手段によって、言語表現に含 まれる言語単位の属性情報を決定するステップと、
前記情報付与システムが、前記各言語単位の接続関係と前記第 1の属性情報決 定手段によって付与済みの属性情報とに基づいて、属性情報が付与されていない 言語単位の属性情報を決定するステップと、を含むこと、
を特徴とする情報付与方法。
[22] 前記情報付与システムが、隣接する言語単位に前記辞書に登録された言語単位 接続用語彙が含まれているか否かにより、前記各言語単位の接続関係を判定するこ と、
を特徴とする請求項 21に記載の情報付与方法。
[23] 前記情報付与システムが、少なくとも感情又は発話スタイルを規定する属性情報を 付与すること、
を特徴とする請求項 21又は 22に記載の情報付与方法。
[24] 前記言語単位が、単語、文節、句、文、段落、項、節、章の!/、ずれかであること、 を特徴とする請求項 21乃至 23いずれか一に記載の情報付与方法。
[25] 前記情報付与システムが、前記各言語単位に含まれる指示語の照応、単語間の関 連、主題の変化、文末表現の変化のいずれか一つ以上に基づいて、前記隣接する 言語単位の属性情報を決定すること、
を特徴とする請求項 21乃至 24いずれか一に記載の情報付与方法。
[26] 前記情報付与システムは、前記各言語単位に含まれる語彙又は文の構成が予め 定める条件を満たす場合には、該当する言語単位に付与された属性情報を削除す ること、
を特徴とする請求項 21乃至 25いずれか一に記載の情報付与方法。
[27] 前記情報付与システムが、前記各言語単位の接続関係と付与済みの属性情報と に基づ!/、て、前記属性情報を決定した言語単位に隣接する言語単位の属性情報の 決定を反復的に実行することにより、前記属性情報が付与されていない言語単位の 属性情報を決定すること、
を特徴とする請求項 21乃至 26いずれか一に記載の情報付与方法。
[28] 前記情報付与システムが、前記第 1の属性情報決定手段によって属性情報が決定 された言語単位に対し、所定の範囲内にある言語単位の属性情報を一括して決定 すること、
を特徴とする請求項 21乃至 27いずれか一に記載の情報付与方法。
[29] 前記情報付与システムは、所定の属性にっ 、て、その強弱レベル情報を含んだ属 性情報を付与すること、
を特徴とする請求項 21乃至 28いずれか一に記載の情報付与方法。
[30] 辞書を用いて言語表現を所定の言語単位に分割する解析手段と、辞書を用いて 前記言語単位から所定の語彙を抽出し属性情報を決定する第 1の属性情報決定手 段と、を備えて、言語単位レベルで言語表現に属性情報を付与する情報付与システ ムに実行させるプログラムを記録した記録媒体であって、
前記情報付与システムを、前記各言語単位の接続関係と前記第 1の属性情報決定 手段によって付与済みの属性情報とに基づいて、属性情報が付与されていない言 語単位の属性情報を決定する第 2の属性情報決定手段として機能させるためのプロ グラムを格納した記録媒体。
PCT/JP2007/060490 2006-05-26 2007-05-23 情報付与システム、情報付与方法、情報付与プログラム及び情報付与プログラム記録媒体 WO2007138944A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008517872A JP5321058B2 (ja) 2006-05-26 2007-05-23 情報付与システム、情報付与方法、情報付与プログラム及び情報付与プログラム記録媒体
US12/302,698 US8340956B2 (en) 2006-05-26 2007-05-23 Information provision system, information provision method, information provision program, and information provision program recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006147096 2006-05-26
JP2006-147096 2006-05-26

Publications (1)

Publication Number Publication Date
WO2007138944A1 true WO2007138944A1 (ja) 2007-12-06

Family

ID=38778464

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/060490 WO2007138944A1 (ja) 2006-05-26 2007-05-23 情報付与システム、情報付与方法、情報付与プログラム及び情報付与プログラム記録媒体

Country Status (3)

Country Link
US (1) US8340956B2 (ja)
JP (1) JP5321058B2 (ja)
WO (1) WO2007138944A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2217899A1 (en) * 2007-12-12 2010-08-18 Nokia Corporation Methods, apparatuses, and computer program products for semantic media conversion from source data to audio/video data
JP2015075993A (ja) * 2013-10-10 2015-04-20 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2018235326A1 (ja) * 2017-06-23 2018-12-27 大日本印刷株式会社 コンピュータプログラム、フォント切替装置及びフォント切替方法
JP2019514131A (ja) * 2016-05-09 2019-05-30 ネイバー コーポレーションNAVER Corporation 顔文字が共に提供される翻訳文提供方法、ユーザ端末、サーバ及びコンピュータプログラム
JP2020012867A (ja) * 2018-07-13 2020-01-23 日本電信電話株式会社 韻律制御装置、韻律制御方法及びプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198277A (ja) * 2011-03-18 2012-10-18 Toshiba Corp 文書読み上げ支援装置、文書読み上げ支援方法および文書読み上げ支援プログラム
GB2501067B (en) * 2012-03-30 2014-12-03 Toshiba Kk A text to speech system
CN103543979A (zh) * 2012-07-17 2014-01-29 联想(北京)有限公司 一种输出语音的方法、语音交互的方法及电子设备
GB2516965B (en) 2013-08-08 2018-01-31 Toshiba Res Europe Limited Synthetic audiovisual storyteller
US9361290B2 (en) 2014-01-18 2016-06-07 Christopher Bayan Bruss System and methodology for assessing and predicting linguistic and non-linguistic events and for providing decision support
SG11201708285RA (en) * 2014-09-09 2017-11-29 Botanic Tech Inc Systems and methods for cinematic direction and dynamic character control via natural language output
WO2019246239A1 (en) 2018-06-19 2019-12-26 Ellipsis Health, Inc. Systems and methods for mental health assessment
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
CN114446323B (zh) * 2022-01-25 2023-03-10 电子科技大学 一种动态多维度的音乐情感分析方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324708A (ja) * 1992-05-20 1993-12-07 Agency Of Ind Science & Technol 文脈構造解析装置
JPH08123812A (ja) * 1994-10-21 1996-05-17 Nippon Telegr & Teleph Corp <Ntt> 話題構造認識方法及び装置
JP2004259238A (ja) * 2003-02-25 2004-09-16 Kazuhiko Tsuda 自然言語解析における感情理解システム
JP2004272807A (ja) * 2003-03-11 2004-09-30 Matsushita Electric Ind Co Ltd 文字列処理装置および文字列処理方法
JP2005222294A (ja) * 2004-02-05 2005-08-18 Seiko Epson Corp 文章の感情認識装置及び文章の感情認識方法ならびにそのプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4931934A (en) * 1988-06-27 1990-06-05 Snyder Thomas E Method and system for measuring clarified intensity of emotion
JPH04119467A (ja) * 1990-09-10 1992-04-20 Nippon Telegr & Teleph Corp <Ntt> 自然言語翻訳方法
JPH05100692A (ja) 1991-05-31 1993-04-23 Oki Electric Ind Co Ltd 音声合成装置
US5860064A (en) * 1993-05-13 1999-01-12 Apple Computer, Inc. Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system
JPH1078952A (ja) * 1996-07-29 1998-03-24 Internatl Business Mach Corp <Ibm> 音声合成方法、音声合成装置、ハイパーテキストの制御方法及び制御装置
US5836771A (en) * 1996-12-02 1998-11-17 Ho; Chi Fai Learning method and system based on questioning
US6947893B1 (en) * 1999-11-19 2005-09-20 Nippon Telegraph & Telephone Corporation Acoustic signal transmission with insertion signal for machine control
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
US6963839B1 (en) * 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
US20020194006A1 (en) * 2001-03-29 2002-12-19 Koninklijke Philips Electronics N.V. Text to visual speech system and method incorporating facial emotions
JP2002304188A (ja) * 2001-04-05 2002-10-18 Sony Corp 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
EP1256937B1 (en) * 2001-05-11 2006-11-02 Sony France S.A. Emotion recognition method and device
JP2002366186A (ja) * 2001-06-11 2002-12-20 Hitachi Ltd 音声合成方法及びそれを実施する音声合成装置
US7853863B2 (en) * 2001-12-12 2010-12-14 Sony Corporation Method for expressing emotion in a text message
US7401020B2 (en) * 2002-11-29 2008-07-15 International Business Machines Corporation Application of emotion-based intonation and prosody to speech in text-to-speech systems
JP2003295882A (ja) * 2002-04-02 2003-10-15 Canon Inc 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム
GB0215123D0 (en) * 2002-06-28 2002-08-07 Ibm Method and apparatus for preparing a document to be read by a text-to-speech-r eader
US20040024822A1 (en) * 2002-08-01 2004-02-05 Werndorfer Scott M. Apparatus and method for generating audio and graphical animations in an instant messaging environment
AU2002950502A0 (en) * 2002-07-31 2002-09-12 E-Clips Intelligent Agent Technologies Pty Ltd Animated messaging
US7360151B1 (en) * 2003-05-27 2008-04-15 Walt Froloff System and method for creating custom specific text and emotive content message response templates for textual communications
US7434176B1 (en) * 2003-08-25 2008-10-07 Walt Froloff System and method for encoding decoding parsing and translating emotive content in electronic communication
JP2005135169A (ja) * 2003-10-30 2005-05-26 Nec Corp 携帯端末およびデータ処理方法
JP4409279B2 (ja) 2003-12-22 2010-02-03 株式会社日立製作所 音声合成装置及び音声合成プログラム
EP1667031A3 (en) * 2004-12-02 2009-01-14 NEC Corporation HTML-e-mail creation system
JP5259050B2 (ja) * 2005-03-30 2013-08-07 京セラ株式会社 音声合成機能付き文字情報表示装置、およびその音声合成方法、並びに音声合成プログラム
US7720784B1 (en) * 2005-08-30 2010-05-18 Walt Froloff Emotive intelligence applied in electronic devices and internet using emotion displacement quantification in pain and pleasure space
US7983910B2 (en) * 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
US20070266090A1 (en) * 2006-04-11 2007-11-15 Comverse, Ltd. Emoticons in short messages

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324708A (ja) * 1992-05-20 1993-12-07 Agency Of Ind Science & Technol 文脈構造解析装置
JPH08123812A (ja) * 1994-10-21 1996-05-17 Nippon Telegr & Teleph Corp <Ntt> 話題構造認識方法及び装置
JP2004259238A (ja) * 2003-02-25 2004-09-16 Kazuhiko Tsuda 自然言語解析における感情理解システム
JP2004272807A (ja) * 2003-03-11 2004-09-30 Matsushita Electric Ind Co Ltd 文字列処理装置および文字列処理方法
JP2005222294A (ja) * 2004-02-05 2005-08-18 Seiko Epson Corp 文章の感情認識装置及び文章の感情認識方法ならびにそのプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2217899A1 (en) * 2007-12-12 2010-08-18 Nokia Corporation Methods, apparatuses, and computer program products for semantic media conversion from source data to audio/video data
JP2015075993A (ja) * 2013-10-10 2015-04-20 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP2019514131A (ja) * 2016-05-09 2019-05-30 ネイバー コーポレーションNAVER Corporation 顔文字が共に提供される翻訳文提供方法、ユーザ端末、サーバ及びコンピュータプログラム
WO2018235326A1 (ja) * 2017-06-23 2018-12-27 大日本印刷株式会社 コンピュータプログラム、フォント切替装置及びフォント切替方法
JPWO2018235326A1 (ja) * 2017-06-23 2020-04-23 大日本印刷株式会社 コンピュータプログラム、フォント切替装置及びフォント切替方法
JP2020012867A (ja) * 2018-07-13 2020-01-23 日本電信電話株式会社 韻律制御装置、韻律制御方法及びプログラム
JP7125599B2 (ja) 2018-07-13 2022-08-25 日本電信電話株式会社 韻律制御装置、韻律制御方法及びプログラム

Also Published As

Publication number Publication date
US20090287469A1 (en) 2009-11-19
US8340956B2 (en) 2012-12-25
JPWO2007138944A1 (ja) 2009-10-01
JP5321058B2 (ja) 2013-10-23

Similar Documents

Publication Publication Date Title
JP5321058B2 (ja) 情報付与システム、情報付与方法、情報付与プログラム及び情報付与プログラム記録媒体
Taylor Text-to-speech synthesis
US8498867B2 (en) Systems and methods for selection and use of multiple characters for document narration
US8346557B2 (en) Systems and methods document narration
KR101594057B1 (ko) 텍스트 데이터의 처리 방법 및 장치
Aylett et al. Building and designing expressive speech synthesis
JP2007264284A (ja) 感情付加装置、感情付加方法及び感情付加プログラム
JPWO2016002879A1 (ja) 音声合成装置、音声合成方法およびプログラム
JP4964695B2 (ja) 音声合成装置及び音声合成方法並びにプログラム
JP2006236037A (ja) 音声対話コンテンツ作成方法、装置、プログラム、記録媒体
JP2005215888A (ja) テキスト文の表示装置
Kehoe et al. Designing help topics for use with text-to-speech
KR20080060909A (ko) 문장 상태에 따른 음성을 합성하여 출력하는 방법 및 이를이용한 음성합성기
JP4409279B2 (ja) 音声合成装置及び音声合成プログラム
JP3578961B2 (ja) 音声合成方法及び装置
Trouvain et al. Speech synthesis: text-to-speech conversion and artificial voices
JP6289950B2 (ja) 読み上げ装置、読み上げ方法及びプログラム
JP3589972B2 (ja) 音声合成装置
JP2002268664A (ja) 音声変換装置及びプログラム
JP2011180368A (ja) 合成音声修正装置および合成音声修正方法
JPH11296193A (ja) 音声合成装置
JP2002366175A (ja) 音声コミュニケーション支援装置およびその方法
JP2002108378A (ja) 文書読み上げ装置
JP2007122510A (ja) 提示装置及び提示プログラム
JP2006302149A (ja) 日本語入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07743924

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2008517872

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12302698

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07743924

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)