WO2000075810A1 - Procede de tri de documents, appareil de tri de documents et support enregistre sur lequel un programme de tri de documents est memorise - Google Patents

Procede de tri de documents, appareil de tri de documents et support enregistre sur lequel un programme de tri de documents est memorise Download PDF

Info

Publication number
WO2000075810A1
WO2000075810A1 PCT/JP2000/003625 JP0003625W WO0075810A1 WO 2000075810 A1 WO2000075810 A1 WO 2000075810A1 JP 0003625 W JP0003625 W JP 0003625W WO 0075810 A1 WO0075810 A1 WO 0075810A1
Authority
WO
WIPO (PCT)
Prior art keywords
class
cluster
documents
document
merge
Prior art date
Application number
PCT/JP2000/003625
Other languages
English (en)
French (fr)
Inventor
Michihiro Nagaishi
Shinji Miwa
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Priority to US09/762,126 priority Critical patent/US7213205B1/en
Priority to EP00931690A priority patent/EP1124189A4/en
Priority to AU49542/00A priority patent/AU4954200A/en
Publication of WO2000075810A1 publication Critical patent/WO2000075810A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99935Query augmenting and refining, e.g. inexact access

Definitions

  • the present invention relates to a document classifying method and a document classifying apparatus for classifying a large number of documents into a plurality of classes having semantical commonality, and a recording medium recording a document classifying program.
  • feature elements are extracted from each document and classified based on the feature elements.
  • the entire document (the entire document content that constitutes one document, such as the title and text) is the target of feature element extraction, and the feature elements are extracted from the entire document and the extracted features are extracted.
  • the title part (title) of each document is detected as a part appropriately representing the purpose of each document, and the characteristic element is extracted from the title part.
  • the present invention performs a class merging process on a large number of clusters obtained as a result of classification, thereby presenting a more easily understandable and concise classification result to the user.
  • the purpose is.
  • FIG. 1 is a block diagram illustrating a first embodiment of the present invention.
  • FIG. 2 is a diagram showing a plurality of document examples for explaining the first embodiment of the present invention.
  • FIG. 3 is a flowchart schematically illustrating a processing procedure of the document classification processing according to the first embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of the contents of a feature table showing the relationship between feature elements and their respective documents.
  • FIG. 5 is a diagram showing a classification result obtained by classifying documents based on the feature table shown in FIG.
  • FIG. 6 is a diagram for explaining a cluster merge process between two classes, and is a diagram showing an example of a document included in each class.
  • FIG. 7 is a diagram showing a result of performing a cluster merge process on the classification result of FIG.
  • Fig. 8 is a block diagram of the document classification device when class merge is performed depending on how the feature element appears in the original document.
  • FIG. 9 is a block diagram illustrating a second embodiment of the present invention.
  • FIG. 10 is a diagram showing a plurality of document examples for explaining the second embodiment of the present invention. is there.
  • FIG. 11 is a flowchart schematically illustrating a processing procedure of a document classification process performed in the second embodiment of the present invention.
  • FIG. 12 is a diagram showing an example of the contents of a feature table showing the relationship between feature elements and their respective documents.
  • FIG. 13 is a diagram showing a classification result obtained by classifying documents based on the feature table shown in FIG.
  • FIG. 14 is a diagram illustrating a cluster merging process between two clusters, and is a diagram illustrating an example of a document included in each class.
  • FIG. 15 is a diagram showing a result of performing a cluster merge process on the classification result of FIG.
  • Figure 16 shows an example in which the names of the clusters included in the new class obtained by merging the classes are displayed in the AND format (when they are arranged in a row). It is a figure showing an example of a classification result.
  • Figure 17 shows an example of displaying the cluster names of each of the clusters included in the new cluster obtained by cluster merging in the AND format (when the cluster names are arranged vertically one by one). It is a figure showing the example of a classification result shown. Disclosure of the invention
  • a document classification method is a document classification method for classifying a plurality of documents into a plurality of clusters having semantically commonality, wherein After classifying into multiple classes, the relevance of each class is determined based on the documents included in each class during the multiple classes, and it has a certain level of relevance. Class merger to integrate at least two clusters is performed.
  • the class merge process performs the relevance between clusters based on the number of documents commonly included in each of the plurality of documents included in the cluster merge process. This is the process of judging and merging classes.
  • the class merge process includes a plurality of clusters to be subjected to the cluster merge process. Investigate the state in which the characteristic element that characterizes each element appears in the original document content included in the class that will be the subject of the class merge process, and merge the cluster based on the appearance state. May be performed.
  • these cluster merging processes are performed between at least two clusters.
  • the cluster merging process that has been subjected to the class merging process is performed again, and the cluster merging process is performed. Repeat until no more occurs.
  • the fact that the cluster merge has been executed and the grounds for performing the cluster merge are output as additional information.
  • the present invention classifies each document into a plurality of clusters, and then, based on the contents of the documents included in each of the plurality of classes, in each of the plurality of classes.
  • the relevance is determined, and a class merge process is performed to integrate at least two clusters that have a certain level of relevance.
  • a class merge process is performed to integrate at least two clusters that have a certain level of relevance.
  • the determination of the relevance between clusters is performed based on the number of documents included in each cluster among a plurality of documents included in a plurality of clusters to be subjected to the cluster merge processing, it is simple and easy.
  • An accurate cluster merge process can be performed.
  • Another method for determining the relevance of class evenings is to examine how the feature elements appear in the original document content included in the cluster to be merged in the class evening, The class merging process may be performed based on the appearance state. According to this, the relevance of the clusters can be determined based on the actual document contents, so that an appropriate class merging result can be obtained. be able to.
  • the class evening merge process is performed with a combination of at least two class evenings, and when the class evening merge process is completed for a predetermined number of class evenings, the class evening group subjected to the cluster merge process is By performing the class merge process again and repeating until the cluster merge does not occur, eventually, It is possible to obtain a more simplified and organized classification result.
  • the user can output the fact that the cluster merge has been performed and the grounds for performing the cluster merge as additional information, so that the user can recognize the class merge under any circumstances. Since it is possible to know whether or not the processing has been performed, it is possible to refer to the additional situation when searching for the desired information from the result after the cluster merge processing.
  • a second document classification method of the present invention is a document classification method for classifying a plurality of documents into a plurality of clusters having semantically common, wherein the plurality of documents are classified into a plurality of classes having semantically common.
  • the relevance of each cluster is determined based on the documents included in each cluster in the plurality of classes, and at least two clusters having a certain level of relevance are integrated.
  • a display content that indicates whether the integration has been performed with a high degree of relevance is generated, and the display content is included in the classification result to be presented to the user and output.
  • the display content that allows the user to understand the content of the cluster merge process is based on the high degree of relevance between the integrated clusters, and how to display the class name of each class.
  • the display method of the changed display contents is as follows. When the degree of relevance between the clusters is larger than a preset value, the class display name is ANDed. If the relevance of the class or evening is less than a preset value, the class or evening name of each class should be displayed in OR format. ing.
  • the notation method of the AND format is that the class names corresponding to each class are arranged side by side in the horizontal direction, or they are written consecutively, or the cluster names corresponding to each class are arranged in a new line and arranged vertically.
  • the OR format is described by inserting a delimiter between the cluster names corresponding to the respective classes.
  • the included class evening is written in parentheses with the class evening of the enclosing class evening. It is also possible to display in the manner described above.
  • the user can see the appearance of the class evening before the class evening is merged, that is, which class evening and which class evening were integrated with a certain degree of association. You can know just by looking at the display contents. Then, as a method of displaying the relations, the cluster merge processing is performed based on the high degree of relevance of the class included in the new cluster obtained by the cluster merge processing. The way to display the cluster name of each class is changed.
  • the method of displaying the cluster name is as follows. Specifically, when the relevance of the class evening is larger than a predetermined value, the cluster name of each class is displayed in an AND format. If the value indicating the degree of relevance between the clusters is less than a preset value, the name of each cluster is displayed in the form of 0R format. For example, if the relevance is extremely high, the class names are displayed continuously in a horizontal line, or the cluster names are displayed vertically one by one, If it is not so, it will be displayed by inserting a separator between each class name. By looking at such a display, the user can know what kind of cluster each class is before being integrated, and how relevant each cluster is to each other. .
  • the included cluster name may be displayed in parentheses with respect to the included cluster. It is possible to display the inclusive relation clearly without using complicated images.
  • the document classification device of the present invention is a document classification device for classifying a plurality of documents into a plurality of clusters having semantically commonality, wherein the plurality of documents have semantically commonality.
  • a class grouping unit that classifies the clusters into a plurality of classes and a plurality of clusters obtained by the class grouping unit, and determines the relevance of each cluster based on documents included in each cluster.
  • a cluster merging unit that integrates at least two classes having a certain degree of association.
  • the document classification device of the present invention is a document classification device that classifies a plurality of documents into a plurality of classes having a semantically common property, wherein the plurality of documents are classified into a plurality of classes having a semantically common property.
  • a cluster merge unit that integrates at least two classes and a new class that is obtained by performing the class merge process by the class merge unit are displayed, the class merge process is performed on the new cluster.
  • a cluster content generator that generates a display that shows what classes are integrated and with what relevance It has a configuration including a component unit and a classification result output means for outputting the display contents included in the classification result to be presented to the user.
  • a recording medium on which the document classification processing program of the present invention is recorded is a recording medium on which a document classification processing program for classifying a plurality of documents into a plurality of clusters having semantical commonality is recorded.
  • the processing program comprises: a clustering processing procedure for classifying the plurality of documents into a plurality of classes having meaningful commonality; and a plurality of clusters classified in accordance with a document included in each cluster. Then, the relevance of each cluster is determined, and a cluster merging procedure for integrating at least two clusters having a relevance of a certain level or more is included.
  • the recording medium on which the document classification processing program of the present invention is recorded is a recording medium on which a document classification processing program for classifying and outputting a plurality of documents into a plurality of classes having a semantically common property is output.
  • the processing program includes a procedure for classifying a plurality of documents into a plurality of clusters having semantic commonality, and a method for associating each class with the plurality of clusters based on documents included in each class.
  • a cluster merge process that determines at least two clusters that have a certain degree of relevance and that integrates at least two clusters.
  • a procedure of including the display content in the classification result to be presented to the user and outputting the result.
  • a title part (a title) of each document is detected, and a feature element is extracted from the title part, and the extracted feature element is extracted. It is assumed that a method of classifying documents based on is used.
  • FIG. 1 shows the configuration of the apparatus according to the present embodiment, which can be roughly divided into a clustering unit 1 for classifying a plurality of documents into a plurality of clusters having meaningful commonality, and a clustering unit 1 for obtaining the documents.
  • a class part merger that determines the relevance of each cluster based on the contents of documents included in each class among a plurality of clusters, and integrates at least two clusters having a certain degree of relevance.
  • 2 and a classification result output unit 3 that outputs the classification result subjected to the cluster merge processing in the cluster merging unit 2.
  • the clustering unit 1 has a document storage unit 11, a sentence analysis unit 12, a feature element extraction unit 13, a feature table creation unit 14, a document classification unit 15, and a classification result storage unit 16.
  • the cluster merging unit 2 integrates classes, and the processing content for this will be described in detail later.
  • the classification result output unit 3 includes an output control unit 31 and a display unit 32, and performs control for outputting a cluster merge processing result by the cluster merge unit 2.
  • the document storage unit 11 included in the class setting unit 1 described above has a large number of document data as a data base.
  • FIG. 2 A case where such a document group is classified will be described.
  • the group of documents shown in FIG. 2 has independent documents D l, D 2,..., D 7, and these documents D l, D 2,. 1, T 2, ⁇ ⁇ ⁇ , T 7 and the corresponding text A 1, A 2, ⁇ ⁇ ⁇ ,
  • the sentence analyzer 12 analyzes the sentence stored in the document storage 11 and detects the title of each document.
  • the detection of the title part performed by the sentence analysis unit 12 is specifically performed as follows.
  • first method if there is a part specified as the title by the document structure form, that part is used as the title part.
  • a second method if there is a part specified in the document structure format to display characters larger than the standard, that part is used as the title part.
  • a third method a specified number of sentences or words are extracted from the beginning of the document, and the extracted portion is used as the title part. Further, the first, second, and third methods are sequentially performed, and when the first method is performed, if there is a part specified as the title, the part is used as the title part, and the part specified as the title is used.
  • the second method is used. If there is a part specified to be displayed in a character larger than the standard, if that part is specified as the title part and the specification to display the character larger than the standard is not made, Perform the third method to detect the title part.
  • the characteristic element extraction unit 13 extracts characteristic elements from the title part of each document detected by the sentence analysis unit 2.
  • the feature table creating means 14 creates a feature table indicating the relationship between the feature elements extracted from the title section and the respective documents. The specific contents of this feature table will be described later.
  • the document classifying unit 15 classifies the documents D 1, D 2,..., D 7 into a plurality of classes having semantic commonality by referring to the contents of the above-mentioned feature table.
  • documents to be processed having common feature elements are defined as one unit, and the unit is defined as one cluster.
  • the document classifying unit 15 has a synonymous feature dictionary (not shown), and performs a process of combining documents to be processed having a common feature element into one unit. Is determined based on whether there is a synonym using the synonym dictionary, If a synonym exists, it can be processed to make it the same cluster.
  • the classification result storage unit 16 stores the contents classified by the document classification unit 15.
  • the document classification process classifies a large number of documents to be processed into a plurality of clusters having semantic commonality (step S 1). Based on the documents included in each cluster among the plurality of classified clusters (this will be described later), the relevance of each class is determined (step S2). Then, at least two classes having a certain degree of relevance are integrated (step S3).
  • this will be described in detail with reference to specific examples.
  • the titles of these documents D 1, D 2,..., D 7 are detected by the sentence analyzer 12. For example, for document D1, title T1 is detected, for document D2, title T2 is detected, for document D3, title T3 is detected, and so on. , T7 of 1, D2,..., D7 are detected.
  • the characteristic element .existing in the title part is extracted by the characteristic element extracting part 13, and then the characteristic element and the document including the characteristic element in the title part are extracted by the characteristic table creating part 14.
  • a characteristic table indicating the relationship with is created.
  • Figure 4 shows an example of this feature table. Here, the relationship between the feature element from which three or more documents are extracted and the document containing the feature element is shown, and the numerical value shown in the feature table indicates how many such feature elements are included in the title part of each document It indicates the number of For example, the characteristic element "paper" indicates that the titles of documents D1, D4, D6, and D7 are included one by one. As can be seen from the feature table in Fig.
  • documents that include the feature element “paper” in the title section are documents D1, D4, D6, and D7, and the title section contains “force set”.
  • Documents that include the characteristic element are documents Dl, D4, and D7, and documents that include the characteristic element "extension” in the title section are documents D2, D3, D5, and D7.
  • the document classifying unit 15 refers to such a feature table and classifies the document classes for each feature element.
  • Figure 5 shows the classification results. When classifying into such clusters, as described above, whether or not they are common feature elements is also determined based on whether or not there is a synonym using a synonym dictionary, and the synonym exists. In such a case, it is possible to perform a process of setting the same document class.
  • document D1 is the content for the paper cassette
  • Document D4 describes the paper settings
  • Document D7 describes the addition of paper cassettes.
  • Classes classified as “Expansion” (Documents D2, D3, D5, D7 are included. 2), as can be seen from the contents of the document in Fig. 2, Document D 2 is for the expansion of memory, Document D 3 is for the expansion of the interface, and Document D 5 is Document D 7 is about adding a hard disk, and Document D 7 is about adding a paper cassette.
  • the reason why such appropriate classification can be performed is that characteristic elements are extracted from the title part of each document and the documents are classified based on the characteristic elements.
  • the title of a document often expresses the content of the creator of the document, which indicates the purpose of the document. Therefore, by performing classification using the characteristic elements included in the title part of the document, the classification result is less likely to be scattered, and the generation rate of noise clusters can be reduced.
  • the title of each document expresses the content indicating the purpose of the document by the creator of the document, classification from the viewpoint of the creator of the document can be obtained.
  • the documents D 1, D 4, D 6, and D 7 belonging to the cluster are stored in the document storage unit 1. It is read from 1 and displayed on the display unit 32.
  • the display content at this time may be only the document number or the document name, or the content of the document may be displayed.
  • the result of the above-described class setting ring processing is further subjected to the class setting merging processing by the cluster merge unit 2.
  • the documents D1, D4, and D7 are commonly present in the “paper” class evening and the “cassette” class evening.
  • the feature element “paper” and the feature element “force set” are often used in an interconnected state. I taste.
  • the term “paper cassette” is used in the title section or in the text of documents D 1, D 4 and D 7.
  • these documents Dl, D4, and D7 are highly common documents, and it is considered that these documents Dl, D4, and D7 are more preferably classified into the same cluster.
  • the clustering process is performed on the clustering result.
  • documents common to the two clusters C l and C 2 are documents D 3, D 4 and D 8.
  • the association between the classes and the classes is determined based on the number of documents included in each cluster.
  • the merging is performed and the cluster merge process is performed. Specifically, as a plurality of class evenings, we calculate the ratio of the number of documents common to a certain two clusters to the total number of documents existing in the two class evenings, and calculate the result. Decide whether to merge based on whether or not it is equal to or greater than a predetermined threshold.
  • the total number of documents existing in the two classes C l and C 2 is 11 and the number of documents common to both classes is three. From these, calculate the ratio (%) of the number of common documents to the total number of documents, and decide whether to merge them based on the result.
  • the ratio (%) the number of common documents may be simply divided by the total number of documents and multiplied by 100, but a coefficient arbitrarily set to the number of common documents May be divided by the total number of documents, and then multiplied by 100 to obtain the result.
  • FIG. 7 shows the classification result after the processing of whether or not to merge the classification results of FIG. 5 (referred to as the classification result after the merge processing).
  • “paper” and “force set” are classified into one class “paper + cassette”, and the documents belonging to that class are documents D1, D4, D6, and D7. become.
  • “expansion” a single cluster is configured as it is.
  • FIG. 7 looking at the clusters (including documents D1, D4, D6, and D7) classified by “paper + cassette”, FIG.
  • Document D 1 is for the paper cassette
  • Document D 4 is for the paper setting
  • Document D 6 is for paper stains after printing.
  • Document D 7 is about adding paper cassettes.
  • clustering is performed based on the extracted feature elements, and each of the classes obtained by performing the class ring processing is obtained. More appropriate clustering can be performed by performing a cluster merge process for each combination of two class evenings.
  • the first class evening merge process is completed for every two class evenings, and the classification result after the cluster merge process as shown in FIG. 7 is obtained.
  • a second cluster merge process is performed on the classification result after the cluster merge process.
  • the class evening merge processing is performed for the “paper + cassette” class evening and the “additional” class evening.
  • there are four documents D2, D3, D5, and D7 in the “expansion” cluster The only document that is common to the two classes is document D7.
  • the second cluster merge process is performed in the new two class evenings for the first class evening merge process
  • the cluster merge process of performing the third class evening merge process between two new clusters after the second cluster merge process is sequentially performed, and a new class evening merge process is performed. This process is repeated until is no longer generated (until cluster merge occurs).
  • class merge processing is performed between two clusters.
  • cluster merge processing can be performed on a combination of three or more clusters.
  • the class evening merge process is performed in three or more class evenings by one class evening merge process, and the class evening merge process is performed on the results classified into several class evenings. It is also possible to perform the merge process sequentially until the problem does not occur.
  • the ratio (%) of the number of common documents to the total number of documents in each cluster as described above. be able to.
  • the ratio of the number of documents common to each cluster to the total number of documents is calculated based on the classification results shown in Fig. 5.
  • FIG. 8 shows an example of the configuration of a document classification device to achieve this.
  • the respective components shown in FIG. 8 are the same as those in FIG. 1, and the same portions are denoted by the same reference numerals.
  • the output of the document storage unit 11 is provided to the cluster merge unit 2.
  • cluster merge processing is performed on the “paper” cluster and the “cassette” class based on the classification results shown in FIG.
  • the "paper” class includes documents D1, D4, D6, and D7
  • the "cassette” class includes documents D1, D4, and D7.
  • paper and “force set” extracted as feature elements are feature elements that are often used continuously or used in close proximity, and both are highly relevant. It turns out that it is a characteristic element. From this, at least documents Dl, D4, and D7 are highly relevant documents, and document D6 cannot be said to be completely unrelated. It can be judged that there is no problem even if the class evening of “power set” is put together as a class evening of “paper + cassette”. Next, the class of “paper” and the cluster of “expansion” are merged.
  • the “Paper” class includes documents D1, D4, D6, and D7, and the “Expansion” class includes documents D2, D3, D5, and D7. .
  • paper and “extension” extracted as characteristic elements are not characteristic elements that are frequently used continuously or used in close proximity, and both are not closely related. It can be seen that it is not a certain feature element. This indicates that it is better not to merge the “paper” cluster and the “expansion” class.
  • the class evening of the “cassette” and the class evening of the “expansion” are merged, the class evening of the “paper” cluster and the class evening of the “expansion” are also merged. Few parts are used in conjunction with “cassette” and “expansion” or are used in close proximity.
  • the “cassette” and “extension” extracted as the feature elements are not feature elements that are frequently used continuously or used in close proximity, and the two are not closely related. It can be seen that it is not a sexual characteristic element. This indicates that it is better not to merge the “Cassette” cluster and the “Expansion” class.
  • cluster merge process not only the cluster merge process between two class evenings, but also the class evening merge process is possible for a combination of three or more class evenings.
  • three or more cluster merging processes are performed by one cluster merging process, and cluster merging is performed sequentially until cluster merging does not occur for the results classified into several classes. Processing can also be performed.
  • additional information indicating in what situation the cluster merge was performed is added information. Is preferably presented to the user. This can be performed by causing the output control unit 31 to receive the content of the processing performed by the cluster merge unit 2 and to display it on the display unit 32.
  • the present embodiment is not limited to the above-described contents, and can be variously modified without departing from the above-described gist.
  • clustering is performed based on the feature elements obtained from the title section so that the feature elements for obtaining the classification result as shown in FIG. 5 are obtained from the title section of each document.
  • a plurality of documents are classified into clusters having semantic commonality, and a cluster merge process is performed on the classification result.
  • the method of ringing is not particularly limited.
  • a URL address for example, http : Use the part excluding ⁇
  • update date and time simple time or update date within the last one month
  • file size web size-byte size of the body text, etc.
  • the clustering result is processed as described in the above embodiment, that is, the commonality of the documents included in each cluster is determined.
  • Class merge can also be performed by performing a process of deciding whether or not to integrate each cluster.
  • whether or not to perform cluster merging is represented by a ratio (%) obtained by dividing the number of common documents by the total number of documents included in the target cluster. Was performed by comparing with a preset threshold (%).
  • the present invention is not limited to this. For example, the number of common documents is counted, and the number and the documents included in each class are counted. It is also possible to decide whether to merge or not from the relationship with numbers.
  • the documents D1, D2,..., D7 are independent documents and the documents are classified independently. It can also be applied to the case where one document is divided into several contents, and the contents are classified (the contents here mean a semantic unit in the document).
  • the content extracted here is assumed to be a semantic unit in the document obtained by being divided for each title part.
  • documents D1, D2,..., D7 shown in FIG. 2 constitute one document
  • documents D1, D2, Each can be considered content. If these are the contents, each content is composed of the title part T1, T2,..., T7 and the text A1, A2,.
  • clustering target document described in the present embodiment for example, a plurality of documents searched by a general-purpose search service can be considered as a clustering target document. In this case, clustering is performed on a large number of found documents. Then, a cluster merge process is performed on the clustered result.
  • processing program for performing the document classification processing of the present embodiment described above can be recorded on a recording medium such as a floppy disk, an optical disk, or a hard disk, and the present invention also includes the recording medium. Further, the processing program may be obtained from a network.
  • a new cluster is displayed.
  • the new class evening is displayed so that the contents of the class evening merge process, such as which class evening and which cluster were integrated because of their relevance, are so clear.
  • the title part (title) of each document is detected, and the feature elements are extracted from the title part and extracted. It is assumed that a method of classifying documents based on the characteristic elements is used.
  • FIG. 9 shows the second embodiment, which can be roughly divided into a clustering unit 91 that classifies each document into a plurality of classes having meaningful commonality, and a clustering unit 91.
  • a class merger that determines the relevance of each cluster based on the documents included in each cluster among the obtained classes and integrates at least two classes with a certain degree of relevance.
  • the contents of the class merge process for the new cluster are understood.
  • a class content merge processing content generation unit 93 that generates display content indicating what kind of class content is integrated with what kind of association, and presents the display content to the user.
  • a classification result output unit 94 for outputting the classification result to be included in the power classification result.
  • the clustering section 91 includes a document storage section 911, a sentence analysis section 912, a feature element extraction section 913, a feature table creation section 914, a document classification section 915, and a classification result storage section 916. have.
  • the document storage unit 911 has a large number of document data as a database.
  • the group of documents shown in FIG. 10 has independent documents D 1, D 2,..., D 7, and these documents D 1, D 2,. It is assumed that T1, T2,..., T7 and the corresponding texts A1, A2,.
  • the sentence analysis unit 912 analyzes a sentence stored in the document storage unit 911 and detects the title of each document. The detection of the title part performed by the sentence analysis unit 912 is specifically performed as follows.
  • first method if there is a part specified as the title by the document structure form, that part is used as the title part.
  • a second method if there is a part specified in the document structure format to display characters larger than the standard, that part is used as the title part.
  • a third method a specified number of sentences or words are extracted from the beginning of the document, and the extracted portion is used as the title part. Further, the first, second, and third methods are sequentially performed, and when the first method is performed, if there is a part specified as the title, the part is used as the title part, and the part specified as the title is used.
  • the second method is used. If there is a part specified to be displayed in a character larger than the standard, if that part is specified as the title part and the specification to display the character larger than the standard is not made, Perform the third method to detect the title part.
  • the feature element extraction section 913 extracts feature elements from the title section of each document detected by the sentence analysis section 92.
  • the feature table creation means 914 creates a feature table indicating the relationship between the feature elements extracted from the title section and their documents. The features of this feature table The physical contents will be described later.
  • the document classifying unit 915 classifies the documents Dl, D2, ',-, and D7 into a plurality of clusters having semantic commonality by referring to the contents of the above-mentioned feature table. In other words, based on the feature elements present in the titles of documents D1, D2,..., D7, documents to be processed having common feature elements are grouped into one, and the group is defined as one class. I do.
  • the document classification unit 915 has a synonymous feature dictionary (not shown), and when performing processing to combine documents to be processed having a common feature element into one unit, is it a common feature element? It is possible to determine whether or not there is a synonym using the synonym dictionary, and if there is a synonym, it is also possible to perform processing to make it the same cluster.
  • the classification result storage unit 916 stores the contents classified by the document classification unit 915.
  • the class part merger 92 determines the relevance of each cluster based on the documents included in each class part between a plurality of class parts, and at least two classes having a certain degree or more relevance. Evening processing is performed, and the specific processing will be described later.
  • the class merge processing content generation unit 93 uses a value (described later) indicating the degree of relevance between the clusters determined by the cluster merge unit 92 and uses the value as a predetermined threshold ( Based on the relevance judgment unit 931 that determines the degree of relevance by comparing with the And a cluster name display content determining unit 932 that determines how to display each cluster name so that it can be understood how they are integrated with each other. It will be described later.
  • the classification result output unit 94 includes an output control unit 941 and a display unit 942, and outputs a document classification result according to the present invention.
  • the rough document classification process performed by the present invention classifies a large number of documents to be processed into a plurality of classes having a semantically common property (step 11 S 1). ), Which is included in each class among multiple clusters Determine the relevance between each cluster based on the documents (step 1 IS 2). Then, at least two clusters having a certain degree of relevance are integrated (step 11S3). Then, the new clusters obtained by the class merge are used to generate cluster merge contents so that it is possible to know what clusters have been integrated with what kind of association.
  • the degree of relevance of the cluster-merged class evening is determined (step 11 S 4), and based on the high degree of relevance, information on the individual class evenings before integration is obtained.
  • the display contents that can be understood that is, the new class evenings obtained by the cluster merge, are displayed so that you can see which class evenings and which class evenings have been integrated with a certain degree of association.
  • a feature element is extracted from the title part of each document, a clustering process is performed based on the extracted feature element, and a cluster merge process is performed on the result of the clustering process.
  • the feature elements are extracted from the title part, and the class ringing process (the process performed by the clustering unit 1) performed based on the extracted feature elements will be described.
  • the titles of these documents D 1, D 2,..., D 7 are detected by the sentence analyzer 12. For example, for document D1, title T1 is detected, for document D2, title T2 is detected, for document D3, title T3 is detected, and so on. , D7, the title parts T1, T2,..., T7 of D7 are detected.
  • Fig. 12 shows an example of this feature table.
  • the relationship between the feature element whose number of documents is three or more and the document containing the feature element is shown, and the numerical value shown in the feature table indicates that the feature element is included in the title part of each document. It shows how many are included.
  • the characteristic element "paper" indicates that the titles of documents D1, D4, D6, and D7 are included one by one.
  • documents that include the feature element “paper” in the title section are documents D1, D4, D6, and D7.
  • Documents that include the characteristic element “set” are documents D1, D4, and D7.
  • Documents that include the characteristic element “extension” in the title section are documents D2, D3, D5, and D7. It is.
  • the document classifying section 915 refers to such a feature table and performs document clustering for each feature element.
  • Figure 13 shows the classification results. When classifying into such a class, as described above, whether or not they are common feature elements is also determined based on whether or not there is a synonym using a synonym dictionary. In such a case, it is also possible to perform processing for making the same document cluster. For example, if both “paper” and “printed paper” are extracted as feature elements, processing is performed such that documents that include these feature elements in the title part are in the same cluster.
  • Such a classification result is stored in the classification result storage unit 916.
  • Document D 1 is about paper cassettes
  • Document D 4 is about paper settings
  • Document D 6 is about paper stains after printing
  • Document D 7 is about paper stains. This is about the addition of cassettes.
  • document D 1 contains the contents of the paper cassette.
  • Document D 4 describes the paper setting
  • Document D 7 describes the paper cassette extension.
  • documents Dl, D4, D6, and D7 all contain information on loading paper, and are classified as one class and have no problem. However, the classification result is appropriate. Looking at the clusters classified by “extension” (including documents D2, D3, D5, and D7), as can be seen from the document contents in FIG. 10, document D2 is stored in the memory. Document D 3 describes the addition of an ink face card, Document D 5 describes the addition of a hard disk, and Document D 7 describes the addition of a paper cassette. It is.
  • the reason why such appropriate classification can be performed is that characteristic elements are extracted from the title part of each document and the documents are classified based on the characteristic elements.
  • the title of a document often expresses the content of the creator of the document, which indicates the purpose of the document. Therefore, by performing classification using the feature elements included in the title part of the document, the classification result is less likely to be scattered, and the rate of generation of noise classes can be reduced.
  • the title of each document expresses the content indicating the purpose of the document by the creator of the document, classification from the viewpoint of the creator of the document can be obtained.
  • the display content at this time may be only the document number or the document name, or the content of the document may be displayed.
  • the cluster merge processing is further performed by the class merge unit 2 on the result of the class ring processing as described above. That is, in the classification results shown in Fig. 13, looking at the characteristic elements "paper” and “cassette", the cluster of "paper” includes documents D1, D4, D6, and D7. It can be seen that the cluster of “force set” exists in documents D 1, D 4 and D 7.
  • the documents D1, D4, and D7 are commonly present in the “paper” class evening and the “cassette” class evening. This is due to the characteristic element “paper” and “power”
  • the feature element “set” means that it is often used in an interconnected state.
  • the term “paper cassette” is used in the title section or in the text of documents D 1, D 4 and D 7. That is, these documents Dl, D4, and D7 are highly common documents, and it is considered that these documents Dl, D4, and D7 are more preferably classified into the same class.
  • clustering is performed based on the feature elements, and the clustering results are subjected to cluster merge processing.
  • documents common to the two classes C I and C 2 are documents D 3, D 4 and D 8.
  • the relevance between the clusters is determined based on the number of documents commonly included in each cluster.
  • Judge and perform class evening merge processing Specifically, as a plurality of clusters, calculate the ratio of the number of documents common to a certain two class evenings to the total number of documents existing in the two class evenings, and the calculation result is determined in advance. Decide whether to merge based on whether or not it is equal to or greater than the threshold.
  • the total number of documents existing in the two clusters C l and C 2 is 11 and the number of documents common to both is three. From these, calculate the ratio (%) of the number of common documents to the total number of documents, and decide whether to merge them based on the result.
  • the ratio (%) the number of common documents may be simply divided by the total number of documents and multiplied by 100, but a coefficient arbitrarily set to the number of common documents May be divided by the total number of documents, and then multiplied by 100 to obtain the result.
  • the threshold TH is set to 70%
  • the calculation result (55%) is smaller than the threshold TH (70%). Do not merge. Note that the coefficient is set arbitrarily, and the coefficient (%) obtained from the calculation result is set appropriately so as to be easily compared with the threshold value. Was set to 2, but there is no particular problem even if the coefficient is set to 1.
  • the “cassette” cluster and the “expansion” cluster there are three documents D1, D4 and D7 in the “cassette” class, and the documents in the “expansion” class. There are four documents, D 2, D 3, D 5, and D 7. Then, the only document that is common to the two classes is document D7, which is calculated using the above formula. In this case, a result of about 28% is obtained. 0%), so in this case the two are not merged.
  • FIG. 15 shows the classification result after the processing of whether or not to merge the classification results of FIG. 13 (referred to as the classification result after the merge processing).
  • “paper” and “force set” are classified into one cluster “paper + cassette”, and documents belonging to that class are documents D1, D4, D6, and D7. That is to say.
  • documents belonging to that class are documents D1, D4, D6, and D7. That is to say.
  • a single class evening will be composed as it is.
  • the classification results after cluster merge processing shown in Fig. 15 for example, if you look at the class classified by "paper + cassette” (including documents D1, D4, D6, and D7), As can be seen from the document contents in FIG. 10, document D1 is for the paper cassette, document D4 is for the paper setting, and document D6 is the paper stain after printing. Document D7 describes how to increase the number of paper cassettes.
  • the first class evening merge process is performed every two class evenings
  • the second cluster merge processing is performed on the classification result after the class merge processing.
  • the cluster merge process is performed for the “paper + cassette” class evening and the “expansion” cluster.
  • the “paper + cassette” cluster and the “expansion” cluster there are four documents D1, D4, D6, and D7 in the “paper + cassette” class.
  • the only document that is common to the two classes is document D7.
  • the second class evening merge process is performed for the two new class evenings in the first class evening merge process.
  • the cluster merge process of performing a third cluster merge process between two new clusters after the second cluster merge process is sequentially performed. The process is repeated until no evening is generated (until cluster merging occurs).
  • cluster merge processing can be performed on a combination of three or more clusters.
  • the cluster merge process is performed in three or more classes by one cluster merge process, and further, until the cluster merge does not occur for the results classified into several classes, the cluster merge process is sequentially performed. It is also possible to perform class evening merge processing.
  • class evening merge processing When deciding whether or not to perform cluster merging for three or more classes, consider the ratio (%) of the number of common documents to the total number of documents in each cluster, as described above. be able to.
  • the cluster merging process generation unit 93 next executes the cluster merging process. Based on the results, the display content that determines the degree of relevance between the clusters that have been merged and, based on the degree of relevance, gives information about the individual clusters before merging. In other words, the new clusters obtained by the cluster merge generate display contents such that it is possible to know which class evenings and which class evenings have been integrated with a certain degree of association.
  • the processing performed by the class merge processing content generation unit 93 will be described.
  • the relevance judging unit 931 judges the degree of relevance of the merged class evening depending on whether the value is close to the threshold TH. Specifically, for the above-mentioned threshold TH, a threshold TH1 of a higher value (%) is set, and the degree of relevance obtained by the class merging unit 92 (represented by K If) is K ⁇ T ⁇ 1, it is judged that the relationships between clusters are very large and almost the same. On the other hand, if the degree of relevance obtained by the class evening merge section 92 is ⁇ ⁇ 1> ⁇ ⁇ , it is determined that the degree is a little similar.
  • the characteristic element of the new cluster that has undergone cluster merging is “paper + cassette”.
  • This “paper + cassette” cluster is the result of merging the paper class and the cassette class shown in Figure 13 into the class class.
  • each cluster name is simply described as “paper” and “cassette”.
  • the value of 86% is obtained for the class of “paper + cassette”, which is the cluster merge result, by the above-described calculation by the class / merge unit 92.
  • the threshold value set when the relevancy is determined in the relevance determination unit 931 is set. Assuming that TH1 is set to 80%, in this case, the degree of relevance K obtained by the cluster merging unit 92 is K ⁇ TH1, so that the paper cluster and the force set cluster The relevance is extremely large, and it can be determined that the contents are almost the same. In this way, when the value indicating the relevance obtained by the class merger 9 2 is K ⁇ TH 1, the relevance of each cluster-merged cluster is extremely large, and the content is almost the same. Class evenings, and the names of each class evening are displayed continuously. For example, in the above example of “paper cluster” and “force set cluster”, the cluster names “paper” and “force set” are attached to each other and displayed as “paper cassette”.
  • the cluster name of the new cluster obtained by the cluster merge is “paper cassette”.
  • the new cluster obtained by the class merge is the new cluster.
  • the new class evening can be used as a “paper cassette” at all.
  • Fig. 16 shows a display example after such processing is performed.
  • "Paper cassette” as the cluster name of the new class that has been merged and the new class
  • the titles (titles) of the respective documents (documents D1, D4, D6, D7) shown in Fig. 10 are displayed. I have.
  • the value indicating the relevance obtained by the class evening merge part 92 is K ⁇ TH1
  • the value of the class evening newly obtained in the cluster evening included in the cluster evening is obtained.
  • the cluster name is displayed in AND format, and the class names are displayed in a horizontal line, or the cluster names corresponding to each class are displayed in a vertical line with a line break.
  • the new class evening that is obtained by the cluster merge is the class evening that has been integrated with what kind of association, and the new class evening that has been merged.
  • the original cluster is a cluster formed by integrating the cluster “Paper” and the class “Cassette”, and their relevance is extremely high. It can be seen that it is a class evening with documents of various contents.
  • K ⁇ TH1 and TH1> K ⁇ TH may be mixed in the relevance of some clusters included in the new cluster obtained by class merge.
  • the notation is divided into AND format and OR format so that the degree of relevance can be understood.
  • each of the cluster-merged classes has an inclusive relationship.
  • a cluster may be a cluster related to “products”, a cluster evening may be called “TV”, a cluster evening may be called “radio”, and a cluster evening may be called “video”. Assume that these clusters have been merged.
  • the “TV” cluster, the “Radio” class evening, and the “Video” cluster are included in the “Product” class evening, and the degree of relevance of each class evening If the relationship is TH1> K ⁇ TH, the display will be in a notation such as "product ⁇ (TV ⁇ radio 'video')".
  • the present embodiment is not limited to the above contents, and various modifications can be made without departing from the spirit of the present embodiment.
  • a feature element for obtaining a classification result as shown in FIG. 13 is obtained from the title part of each document, and clustering is performed based on the feature element obtained from the title part.
  • the method of classifying a plurality of documents is not particularly limited.
  • the URL address http: ⁇ It is also possible to perform clustering using the part
  • update date and time simple time or update date within the last one month
  • file size such as the byte size of the web page body. These may be used alone for class evening rings, or some of them may be combined. Which of these is used can be selected by first selecting a selection item from a menu or the like. If there is no selected item, substitute another item. For example, if you select the evening title and there is no title on the web page, substitute the URL address.
  • Class merge can also be performed by performing the process of deciding whether or not to merge each class.
  • the cluster of URL 1 Decide whether to integrate the URL 2 cluster.
  • the determination as to whether or not to perform class merge is represented by a ratio (%) obtained by dividing the number of common documents by the total number of documents included in the target cluster.
  • the above-described threshold value may be determined by using the number. For example, the total number of documents is 10, and the number of common documents is 7. If the merge is performed when the above is the case, the above-mentioned threshold value TH is, for example, seven, and TH1 is, for example, nine. If there are nine or more common documents, the AND format is used. It can be displayed, and if there are seven or eight, it can be displayed in the OR notation. It is needless to say that this numerical value is an example and is not limited to this. The same can be said for the threshold values TH and TH1 described in the above-described embodiment.
  • the documents D1, D2,..., D7 are independent documents and the documents are classified independently. It can also be applied to the case where one document is divided into several contents, and the contents are classified (the contents here mean a semantic unit in the document).
  • the content extracted here is assumed to be a semantic unit in the document obtained by being divided for each title part.
  • documents D 1, D 2,..., D 7 shown in FIG. 10 constitute one document
  • documents D l, D 2,. 7 can be regarded as content. If these are the contents, the contents are composed of the title part T1, T2, ⁇ , T7 and the main text A1, A2, ⁇ , A7. .
  • the present invention can be similarly applied to the case where the contents are clustered and the clustering result is cluster-merged.
  • the clustering target document used in the present embodiment for example, a plurality of documents searched by a general-purpose search service can be considered as a classing target document.
  • the clustering process is performed on a large number of retrieved documents, and the class merge process is performed on the result of the class merge.
  • the new class obtained by performing the cluster merge is processed. It is easy to know which class evening and which class evening were originally integrated and with what degree of association.
  • processing program for performing the above-described document classification processing can be recorded on a recording medium such as a floppy disk, an optical disk, or a hard disk.
  • a recording medium such as a floppy disk, an optical disk, or a hard disk.
  • the present invention also includes the recording medium.
  • the processing blog program may be obtained from the network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

明細書 文書分類方法および文書分類装置並びに文書分類処理プログラムを記録した記 録媒体 景技術
本発明は多数の文書を意味的に共通性を有する複数のクラス夕に分類する文書 分類方法および文書分類装置並びに文書分類処理プログラムを記録した記録媒体 に関する。
多数の文書を意味的なまとまりごとの複数のクラスタに分類する際、 それそれ の文書から特徴要素を抽出し、 その特徴要素に基づいて分類することが行われて いる。 その分類手法として、 それそれの文書全体 (表題や本文など 1つの文書を 構成する文書内容全体) を特徴要素の抽出対象とし、 それそれの文書全体から特 徴要素を抽出し、 抽出された特徴要素に基づいて複数のクラスタに分類する文書 分類方法がある。
この文書全体を特徴要素抽出の対象として分類を行うと、 文書の形態素解析や、 特徴抽出処理が非常に繁雑であり、 情報処理装置において、 中央処理装置 (C P U ) がその処理を行う場合、 C P Uに対する負荷を大きいものとしている。 また、 一般に、 文書はその文書の主旨とは直接関係のない記述を多く含んでいるのが普 通である。 したがって、 文書全体を特徴要素抽出の対象とすると、 それによつて 分類されたクラスタは情報の分類という観点から見たとき、 あまり意味のない分 類となることも多い。 つまり、 ノイズクラス夕が多数生成されてしまうというこ とにもなる。
このような問題点を解消する手法として、 それそれの文書の主旨を適切に表す 部分としてそれそれの文書の表題部 (タイ トル) を検出して、 その表題部から特 徴要素を抽出して、 抽出された特徴要素に基づいて文書を分類する手法がある。 この手法は、 文書の主旨を適切に反映した文書分類を可能とすることができる ものとして期待されている。
このように、 文書を幾つかのクラス夕に分類する手法は幾つか考えられている。 しかしながら、 上述した文書の表題部から抽出された特徴要素に基づいて文書 を分類する手法を用いたとしても、 それによつて得られる分類結果は、 クラス夕 の数が多くなりすぎることもあり、 ユーザ側から見たときに、 決して適切な分類 が行われたとは思えない場合もでてくる。 例えば、 分類されて得られる多数のク ラスタを比較した場合、 それそれのクラスタに共通した文書が数多く含まれる場 合もある。 このような場合、 ュ一ザは提示された多数のクラスタについて、 結局 は、 自分で整理し、 その中から自分の本当に欲しい情報を探すというような面倒 な処理を行うことになる。
そこで、 本発明は、 分類結果として得られた多数のクラスタに対してクラス夕 マージ処理を行うことで、 より一層、 ユーザにとってわかりやすく簡潔的に分類 された分類結果を提示できるようにすることを目的としている。 図面の簡単な説明
図 1は、 本発明の第 1の実施形態を説明するプロック図である。
図 2は、 本発明の第 1の実施形態を説明するための複数の文書例を示す図であ る。
図 3は、 本発明の第 1の実施形態における文書分類処理の処理手順を概略的に 説明するフローチャートである。
図 4は、 特徴要素とそれそれの文書との関係を示す特徴テーブル内容の一例を 示す図である。
図 5は、 図 4に示す特徴テーブルに基づいて文書を分類した分類結果を示す図 である。
図 6は、 2つのクラス夕間でのクラスタマージ処理を説明する図であり、 それ それのクラス夕に含まれる文書例を示す図である。
図 7は、 図 5の分類結果についてクラスタマージ処理した結果を示す図である。 図 8は、 特徴要素が元の文書にどのように出現するかによってクラス夕マージ を行う場合の文書分類装置のプロック図である。
図 9は、 本発明の第 2の実施形態を説明するプロック図である。
図 1 0は、 本発明の第 2の実施形態を説明するための複数の文書例を示す図で ある。
図 1 1は、 本発明の第 2の実施形態において行う文書分類処理の処理手順を概 略的に説明するフローチャートである。
図 1 2は、 特徴要素とそれそれの文書との関係を示す特徴テーブル内容の一例 を示す図である。
図 1 3は、 図 1 2に示す特徴テーブルに基づいて文書を分類した分類結果を示 す図である。
図 1 4は、 2つのクラスタ間でのクラスタマージ処理を説明する図であり、 そ れそれのクラス夕に含まれる文書例を示す図である。
図 1 5は、 図 1 3の分類結果についてクラスタマージ処理した結果を示す図で ある。
図 1 6は、 クラス夕マージされて得られた新たなクラス夕に含まれるそれそれ のクラスタのクラス夕名を A N D形式 (横一列に並べた場合) の表記の仕方で表 示した例を示す分類結果例を示す図である。
図 1 7は、 クラスタマージされて得られた新たなクラスタに含まれるそれそれ のクラスタのクラスタ名を A N D形式 (クラスタ名を 1つづつ縦に並べた場合) の表記の仕方で表示した例を示す分類結果例を示す図である。 発明の開示
前述の目的を達成するために、 本発明の文書分類方法は、 複数の文書を意味的 に共通性を有する複数のクラスタに分類する文書分類方法において、 前記複数の 文書を意味的に共通性を有する複数のクラス夕に分類したのちに、 その複数のク ラス夕間でそれそれのクラス夕に含まれる文書に基づいてそれそれのクラス夕の 関連性を判断し、 一定以上の関連性を有する少なくとも 2つのクラスタを統合す るクラス夕マージ処理を行うようにしている。
また、 前記クラス夕マージ処理は、 クラスタマージ処理対象となる複数のクラ ス夕に含まれる複数の文書のうち、 それそれのクラスタに共通して含まれる文書 数を基にクラスタ間の関連性を判断してクラス夕マージする処理である。
また、 前記クラス夕マージ処理は、 クラスタマージ処理対象となる複数のクラ スタそれそれを特徴づける特徴要素が、 そのクラス夕マージ処理対象となるそれ それのクラス夕に含まれる元の文書内容にどのような状態で出現するかを調べ、 その出現状態に基づいてクラスタマージする処理であってもよい。
そして、 これらクラスタマージ処理は、 少なくとも 2つのクラスタ間で行い、 一回目のクラスタマージ処理が終了すると、 そのクラス夕マージ処理されたクラ ス夕群に対し、 再度のクラスタマージ処理を行い、 クラスタマージが起こらなく なるまでそれを繰り返すようにする。
さらに、 前記クラスタマージ処理を行った後は、 クラスタマージを実行したこ とおよびクラスタマージを行つた根拠を付加情報として出力する。
このように本発明は、 それそれの文書を複数のクラスタに分類したのちに、 そ の複数のクラス夕間でそれそれのクラス夕に含まれる文書の内容に基づいてそれ それのクラス夕間の関連性を判断し、 一定以上の関連性を有する少なく とも 2つ のクラスタを統合するクラス夕マージ処理を行うようにしている。 これによつて、 最初のクラスタリング処理によって、 多数のクラス夕が生成されたとしても、 そ れそれのクラス夕間でクラスタ同志の関連性を判断し、 関連性の高い複数のクラ ス夕を統合することができるので、 簡潔化された分類結果をユーザに提示するこ とができ、 ユーザは自分の欲しい情報を効率よく探すことができるようになる。 また、 クラスタ間の関連性の判断は、 クラスタマージ処理対象となる複数のク ラスタに含まれる複数の文書のうち、 各々のクラスタに共通して含まれる文書数 を基にして行うので、 簡単で的確なクラスタマージ処理を行うことができる。 また、 クラス夕間の関連性の判断を行うための他の方法として、 特徴要素がク ラス夕マージ処理対象となるクラスタに含まれる元の文書内容にどのような状態 で出現するかを調べ、 その出現状態に基づいてクラス夕マージ処理を行うように してもよく、 これによれば、 実際の文書内容に基づいたクラスタ同志の関連性の 判断が行えるので、 適切なクラス夕マージ結果を得ることができる。
そして、 クラス夕マージ処理は、 少なくとも 2つのクラス夕の組み合わせで行 い、 さらに、 所定の数のクラス夕間でのクラス夕マージ処理が終了すると、 その クラスタマージ処理されたクラス夕群に対し、 再度のクラス夕マージ処理を行い、 クラスタマージが起こらなくなるまでそれを繰り返すことによって、 最終的には、 より簡潔的に整理された分類結果を得ることができる。
また、 このようなクラス夕マージ処理を行った後は、 クラスタマージを実行し たことおよびクラスタマージを行った根拠を付加情報として出力することにより、 ユーザはどのような状況でクラス夕マ一ジ処理がなされたかを知ることができる ので、 クラスタマージ処理後の結果から自分の欲しい情報を探す際に、 その付加 状況を参考にして探すことができる。
本発明の第 2の文書分類方法は、 複数の文書を意味的に共通性を有する複数の クラスタに分類する文書分類方法において、 前記複数の文書を意味的に共通性を 有する複数のクラス夕に分類したのちに、 その複数のクラス夕間でそれそれのク ラスタに含まれる文書に基づいてそれそれのクラスタの関連性を判断し、 一定以 上の関連性を有する少なくとも 2つのクラスタを統合するクラス夕マージ処理を 行い、 このクラス夕マージ処理によって得られた新たなクラスタの表示を行う際、 その新たなクラス夕に対し、 クラス夕マージ処理内容がわかるように、 どのよう なクラスタがどのような関連性を有して統合されたかを示す表示内容を生成し、 その表示内容をユーザに提示すべき分類結果に含めて出力するようにしている。 また、 前記クラスタマージ処理内容がわかるような表示内容とは、 前記統合さ れたそれそれのクラスタ間の関連性の高さに基づき、 当該それそれのクラス夕の クラス夕名の表示の仕方を変えた表示内容であって、 それそれのクラス夕名の表 示の仕方は、 前記クラスタ間の関連性の高さが予め設定された値より大きい場合 には、 それそれのクラス夕名を A N D形式の表記の仕方で表示させ、 前記クラス 夕間の関連性の高さが予め設定された値未満である場合には、 それそれのクラス 夕名を O R形式の表記の仕方で表示させるようにしている。
そして、 前記 A N D形式の表記の仕方は、 それぞれのクラス夕対応のクラス夕 名を横方向に並べて連続的に表記するか、 それそれのクラス夕対応のクラスタ名 ごとに改行して縦に並べて表記するかのいずれかで行い、 前記 O R形式の表記の 仕方は、 それぞれのクラス夕対応のクラスタ名の間に区切り記号を挿入して表記 するようにしている。
さらに、 あるクラス夕の中に包含されるようなクラスタが存在する場合には、 包含されるクラス夕名を、 包含するクラス夕のクラス夕名に対し括弧書きの表記 の仕方で表示することも可能としている。
このように本発明は、 クラス夕マージされて得られた新たなクラス夕の表示を 行う際、 その新たなクラス夕に対し、 クラス夕マージ処理内容がわかるように、 どのようなクラスタがどのような関連性を有して統合されたかを示す表示内容を 生成し、 それを表示するようにしている。
これによつて、 ユーザは、 クラス夕マージされる前のクラス夕の様子、 すなわ ち、 どのクラス夕とどのクラス夕がどの程度の関連性を有して統合されたのかと いったことを表示内容を見るだけで知ることができる。 そして、 どのような関連 性を有しているかを示す表示の仕方としては、 クラスタマージ処理されて得られ た新たなクラスタに含まれるクラス夕間の関連性の高さに基づき、 クラスタマ一 ジ処理されたそれそれのクラス夕のクラスタ名の表示の仕方を変えるようにして いる。
そのクラスタ名の表示の仕方は、 具体的には、 前記クラス夕間の関連性の高さ が予め設定された値より大きい場合には、 それそれのクラスタ名を A N D形式の 表記の仕方で表示させ、 前記クラスタ間の関連性の高さを表す値が予め設定され た値未満である場合には、 それそれのクラスタ名を 0 R形式の表記の仕方で表示 させるようにしている。 たとえば、 関連性の高さがきわめて高い場合には、 それ それのクラス夕名を横一列に連続的に表示したり、 それそれのクラスタ名を 1つ づっ縦に並べて表示し、 関連性の高さがそれほどでもない場合には、 それそれの クラス夕名の間に区切り記号を挿入するなどして表示する。 ユーザはこのような 表示を見ることで、 統合される前のそれそれのクラス夕がどのようなクラスタで あって、 それそれのクラスタ同志の関連性がどの程度であるかなどを知ることが できる。
また、 あるクラス夕の中に包含されるようなクラス夕が存在する場合には、 包 含されるクラスタ名を、 包含するクラス夕のクラスタ名に対し括弧書きの表記の 仕方で表示することも可能であり、 包含関係であることを繁雑なイメージを使わ ないでもわかりやすく表示できる。
また、 本発明の文書分類装置は、 複数の文書を意味的に共通性を有する複数の クラスタに分類する文書分類装置において、 前記複数の文書を意味的に共通性を 有する複数のクラス夕に分類するクラス夕リング部と、 このクラス夕リング部に より得られた複数のクラスタ間でそれそれのクラスタに含まれる文書に基づいて それそれのクラスタの関連性を判断し、 一定以上の関連性を有する少なくとも 2 つのクラス夕を統合するクラスタマージ部とを有する構成としている。
また、 本発明の文書分類装置は、 複数の文書を意味的に共通性を有する複数の クラス夕に分類する文書分類装置において、 前記複数の文書を意味的に共通性を 有する複数のクラス夕に分類するクラスタリング部と、 このクラスタリング部に よって得られた複数のクラスタ間でそれそれのクラス夕に含まれる文書に基づい てそれそれのクラス夕の関連性を判断し、 一定以上の関連性を有する少なくとも 2つのクラス夕を統合するクラスタマージ部と、 このクラス夕マージ部によって クラス夕マージ処理されて得られた新たなクラス夕の表示を行う際、 その新たな クラスタに対し、 クラス夕マージ処理内容がわかるように、 どのようなクラス夕 がどのような関連性を有して統合されたかを示す表示内容を生成するクラスタマ —ジ内容生成部と、 その表示内容をユーザに提示すべき分類結果に含めて出力す る分類結果出力手段とを有した構成としている。
また、 本発明の文書分類処理プログラムを記録した記録媒体は、 複数の文書を 意味的に共通性を有する複数のクラスタに分類する文書分類処理プログラムを記 録した記録媒体であって、 その文書分類処理プログラムは、 前記複数の文書を意 味的に共通性を有する複数のクラス夕に分類するクラスタリング処理手順と、 こ れにより分類された複数のクラスタ間でそれそれのクラスタに含まれる文書に基 づいてそれそれのクラスタの関連性を判断し、 一定以上の関連性を有する少なく とも 2つのクラスタを統合するクラスタマージ処理手順とを含むものである。 さらに、 本発明の文書分類処理プログラムを記録した記録媒体は、 複数の文書 を意味的に共通性を有する複数のクラス夕に分類して出力する文書分類処理プロ グラムを記録した記録媒体であって、 その処理プログラムは、 複数の文書を意味 的に共通性を有する複数のクラスタに分類する手順と、 その複数のクラスタ間で それぞれのクラス夕に含まれる文書に基づいてそれそれのクラス夕の関連性を判 断し、 一定以上の関連性を有する少なくとも 2つのクラスタを統合するクラスタ マージ処理を行う手順と、 クラスタマージ処理されて得られた新たなクラスタの 表示を行う際、 その新たなクラス夕に対し、 クラス夕マージ処理内容がわかるよ うに、 どのようなクラス夕がどのような関連性を有して統合されたかを示す表示 内容を生成する手順と、 その表示内容をユーザに提示すべき分類結果に含めて出 力する手順とを含むようにしている。 発明を実施するための最良の形態
(第 1の実施形態)
以下、 本発明の第 1の実施形態について説明する。 なお、 この実施形態で説明 する内容は、 本発明の文書分類方法および文書分類装置についての説明であると ともに、 本発明の文書分類処理プログラムを記録した記録媒体における文書分類 処理プログラムの具体的な処理内容をも含むものである。
また、 この実施形態では、 文書分類の手法として、 前述したように、 それぞれ の文書の表題部 (夕ィ トル) を検出して、 その表題部から特徴要素を抽出して、 抽出された特徴要素に基づいて文書を分類する手法を用いるものとする。
図 1は本実施形態の装置構成を示すもので、 大きく分けると、 複数の文書を意 味的に共通性を有する複数のクラスタに分類するクラスタリング部 1と、 このク ラスタリング部 1により得られた複数のクラスタ間で各々のクラス夕に含まれる 文書の内容に基づいて各々のクラスタの関連性を判断し、 一定以上の関連性を有 する少なくとも 2つのクラスタを統合するクラス夕マ一ジ部 2と、 このクラスタ マージ部 2でクラスタマージ処理された分類結果を出力する分類結果出力部 3と を有した構成となっている。
クラスタリング部 1は、 文書記憶部 1 1、 文解析部 1 2、 特徴要素抽出部 1 3、 特徴テーブル作成部 1 4、 文書分類部 1 5、 分類結果記憶部 1 6を有している。 クラスタマージ部 2はクラス夕を統合するものであるがこれについての処理内 容については後に詳細に説明する。
分類結果出力部 3は、 出力制御部 3 1、 表示部 3 2を有し、 クラスタマージ部 2によるクラスタマージ処理結果を出力させるための制御を行う。
上述のクラス夕リング部 1に含まれる文書記憶部 1 1はこの場合、 多数の文書 データをデ一夕ベースとして持つものである。 ここでは、 たとえば、 図 2に示す ような文書群を分類する場合を説明する。 図 2に示される文書群は、 それそれが 独立した文書 D l , D 2 , · · · , D 7を有し、 これらの文書 D l, D 2 , · · ·, D 7は表題部 T 1 , T 2, · · ·, T 7と、 それに対する本文 A 1, A 2, · · · ,
A 7を持っているものとする。
文解析部 1 2は文書記憶部 1 1に記憶されている文書を文解析し、 それそれの 文書の表題部を検出する。 この文解析部 1 2が行う表題部の検出は、 具体的には 次のようにして行う。
まず、 第 1の方法として、 文書構造様式によって表題と規定される部分があれ ばその部分を表題部とする。 また、 第 2の方法として、 文書構造様式によって、 標準より大きな文字で表示する指定がなされている部分があれば、 その部分を表 題部とする。 また、 第 3の方法として、 定められた数の文または単語を文書先頭 より抽出し、 その抽出した部分を表題部とする。 さらには、 これら第 1、 第 2、 第 3の方法を順次行い、 第 1の方法を行ったとき、 表題と規定されている部分が あればその部分を表題部とし、 表題と規定される部分が存在しなければ、 第 2の 方法を行い、 標準より大きな文字で表示する指定がなされている部分があれば、 その部分を表題部とし、 標準より大きな文字で表示する指定がなされていなけれ ば、 第 3の方法を行って表題部を検出する。
特徴要素抽出部 1 3は、 文解析部 2で検出されたそれそれの文書の表題部の中 から特徴要素を抽出する。
特徴テーブル作成手段 1 4は、 前記表題部から抽出された特徴要素とそれそれ の文書との関係を示す特徴テーブルを作成する。 なお、 この特徴テーブルの具体 的な内容については後述する。
文書分類部 1 5は、前述の特徴テーブルの内容を参照し、文書 D 1, D 2 , · · ·, D 7を意味的に共通性のある複数のクラス夕に分類する。 つまり、 文書 D l , D 2 , · · · , D 7の表題部に存在する特徴要素に基づいて、 共通する特徴要素を 持つ処理対象文書を 1つのまとまりとし、 そのまとまりを 1つのクラスタとする。 なお、 この文書分類部 1 5は同義特徴辞書 (図示せず) を有し、 共通する特徴要 素を持つ処理対象文書を 1つのまとまりとする処理を行う際、 共通する特徴要素 であるか否かの判断を、 その同義語辞書を用い同義語が有るか否かにより行い、 同義語が存在する場合にはそれを同じクラスタとする処理を行うことも可能であ る。
分類結果記憶部 1 6は、 文書分類部 1 5によって分類された内容を記憶する。
このような構成において、 本発明の文書分類処理について説明する。 本実施形 態においては、 文書分類処理は、 図 3のフローチャートに示すように、 処理対象 となる多数の文書を意味的に共通性を有する複数のクラスタに分類し (ステップ S 1 ) 、 これにより分類された複数のクラスタ間で各々のクラスタに含まれる文 書に基づいて (これについては後に説明する) それそれのクラス夕の関連性を判 断する (ステップ S 2 ) 。 そして、 一定以上の関連性を有する少なくとも 2つの クラス夕を統合する (ステップ S 3 ) 。 以下、 具体例を参照して詳細に説明する。
ここでは、 図 2で示した文書 D l, D 2 , · · · , D 7を分類する例について 説明する。 この実施の形態では、 それそれぞれの文書の表題部から特徴要素を抽 出し、 その抽出された特徴要素に基づいてクラスタリング処理を行い、 かつ、 そ のクラス夕リング処理された結果についてクラスタマージ処理を行う。 まず始め に、 表題部から特徴要素を抽出し、 その抽出された特徴要素に基づいて行われる クラスタリング処理 (クラス夕リング部 1が行う処理) について説明する。
これらの文書 D 1 , D 2 , · · · , D 7は、 文解析部 1 2にて表題部が検出さ れる。 たとえば、 文書 D 1については表題部 T 1が検出され、 文書 D 2について は表題部 T 2が検出され、 文書 D 3については表題部 T 3が検出されるというよ うに、 それそれの文書 D 1, D 2, · · · , D 7の表題部 T 1, T 2, · · · , T 7が検出される。
そして、 特徴要素抽出部 1 3によって、 それそれの表題部に存在する特徴要素 . が抽出されたのち、 特徴テーブル作成部 1 4により、 それそれの特徴要素とその 特徴要素を表題部に含む文書との関係を示す特徴テ一ブルが作成される。 この特 徴テ一ブルの例を図 4に示す。 なお、 ここでは、 文書数が 3つ以上取り出される 特徴要素とその特徴要素を含む文書との関係を示し、 特徴テーブル内に示される 数値は、 その特徴要素が各文書の表題部に幾つ含まれるているかの数を示してい る。 たとえば、 「用紙」 という特徴要素は、 文書 D l, D 4 , D 6 , D 7のそれ それの表題部に、 それそれ 1個ずつ含まれていることを示している。 図 4の特徴テーブルからもわかるように、 表題部に 「用紙」 という特徴要素を 含む文書は、 文書 D 1, D 4, D 6, D 7であり、 また、 表題部に 「力セヅト」 という特徴要素を含む文書は、 文書 D l, D 4 , D 7であり、 さらに、 表題部に 「増設」 という特徴要素を含む文書は、 文書 D 2, D 3 , D 5 , D 7である。 な お、 図 2において、 これら各特徴要素部分にはアンダーラインが施されている。 そして、 文書分類部 1 5はこのような特徴テーブルを参照して、 それそれの特 徴要素ごとの文書クラス夕分けを行う。 その分類結果を図 5に示す。 なお、 この ようなクラスタに分類する際、 前述したように、 共通する特徴要素であるか否か の判断を、 同義語辞書を用い同義語が有るか否かによっても行い、 同義語が存在 する場合にはそれを同じ文書クラス夕とする処理を行うことも可能である。 たと えば、 「用紙」 と 「印刷紙」 の両方が特徴要素として抽出されたとすれば、 これ らの特徴要素を表題部に含む文書は同じクラス夕とするなどという処理を行う。 このような分類結果は分類結果記憶部 1 6に格納される。 図 5に示される分類 結果において、 たとえば、 「用紙」 で分類されたクラスタ (文書 D 1 , D 4 , D 6, D 7が含まれる) について見れば、 図 2の文書内容からもわかるように、 文 書 D 1は用紙カセットについての内容であり、 文書 D 4は用紙設定についての内 容であり、 文書 D 6は印刷された後の用紙の汚れについての内容であり、 文書 D 7は用紙カセッ卜の増設についての内容である。
このように、 これらの文書 D l , D 4 , D 6 , D 7はどれも用紙に関する内容 であり、 1つのクラスタとして分類されて何等問題のないものとなり、 その分類 結果は適切であるといえる。
また、 「カセット」で分類されたクラスタ (文書 D 1, 4, D 7が含まれる) について見れば、 図 2の文書内容からもわかるように、 文書 D 1は用紙カセット についての内容であり、 文書 D 4は用紙設定についての内容であり、 文書 D 7は 用紙カセットの増設についての内容である。
このように、 これらの文書 D l, D 4 , D 6, D 7にはどれも用紙をセットす ることに関する内容が含まれており、 1つのクラスタとして分類されて何等問題 のないものとなり、 その分類結果は適切であるといえる。
また、 「増設」 で分類されたクラス夕 (文書 D 2 , D 3 , D 5 , D 7が含まれ る) について見れば、 図 2の文書内容からもわかるように、 文書 D 2はメモリの 増設についての内容であり、 文書 D 3はィンタフエース力一ドの増設についての 内容であり、 文書 D 5はハードディスクの増設についての内容であり、 文書 D 7 は用紙カセットの増設についての内容である。
このように、 これらの文書 D 2, D 3, D 5, D 7はどれも何かを増設する場 合についての内容であり、 1つのクラスタとして分類されて何等問題のないもの となり、 その分類結果は適切であるといえる。
このような適切な分類が行える理由としては、 それそれの文書の表題部から特 徴要素を抽出し、 その特徴要素に基づいて文書を分類しているからである。 つま り、 文書の表題部は、 その文書の作成者がその文書の主旨を表す内容を表現して いることが多い。 したがって、 文書の表題部に含まれる特徴要素を用いて分類を 行うことにより、 分類結果が散漫になることが少なく、 また、 ノイズクラスタが 生成される率も少なくすることができる。 また、 各文書の表題部は、 その文書の 作成者がその文書の主旨を表す内容を表現していることから、 文書の制作者側の 視点による分類が得られる。
そして、 分類が行われた後、 ユーザによって、 たとえば、 「用紙」 についての クラスタの選択指示が出されたとすると、 そのクラスタに属する文書 D 1, D 4 , D 6 , D 7が文書記憶部 1 1から読み出されて表示部 3 2に表示される。 なお、 このときの表示内容としては、 前述したように、 文書番号や文書名のみでもよく、 さらには、 その文書内容を表示させるようにしてもよい。
ところで、 本発明は以上のようにクラス夕リング処理した結果について、 さら に、 クラスタマ一ジ部 2によってクラス夕マージ処理を行う。
すなわち、 図 5に示す分類結果において、 特徴要素である 「用紙」 と 「力セッ ト」 について見ると、 「用紙」 のクラス夕には文書 D 1 , D 4 , D 6, D 7が含 まれ、 「カセット」 のクラスタには文書 D 1, D 4, D 7に存在することがわか る。
このように、 「用紙」 のクラス夕と 「カセット」 のクラス夕には、 共に文書 D 1 , D 4 , D 7が共通して存在している。 これは、 「用紙」 という特徴要素と「力 セット」 という特徴要素は相互に関連した状態で用いられることが多いことを意 味している。 たとえば、 文書 D 1 , D 4 , D 7の表題部または本文のなかに 「用 紙カセット」 という用語が用いられている。 つまり、 これらの文書 D l , D 4 , D 7は共通性の高い文書であり、 これら文書 D l , D 4 , D 7は同じクラスタに 分類した方がより好ましいと考えられる。
これを実現するために本発明では特徴要素に基づいてクラス夕リングしたあと、 そのクラスタリング結果に対しクラスタマージ処理を施す。
このクラスタマ一ジ処理について以下に説明する。 まず始めに、 図 5の分類結 果とは関係なく一般的な例について図 6を参照しながら説明する。
今、 2つのクラスタ C I , C 2があるとする。 クラス夕 C 1として 5個の文書 D 1 , D 2 , D 3 , D 4 , D 8が抽出され、 クラス夕 C 2には 6個の文書 D 3 , D 4 , D 5 , D 6 , D 7 , D 8が抽出されたとする。
ここで、 2つのクラスタ C l , C 2に共通している文書は、 文書 D 3, D 4 , D 8である。 この実施の形態では、 クラス夕マージ処理対象となる複数のクラス 夕に含まれる複数の文書のうち、 それそれのクラスタに共通して含まれる文書数 を基に、 それそれのクラス夕間の関連性を判断してクラスタマージ処理を行う。 具体的には、 複数のクラス夕ととして、 ある 2つのクラスタに共通している文 書数が 2つのクラス夕に存在する合計の文書数に対しどのくらいの割合かを計算 し、 その計算結果が予め定めたしきい値以上かどうかによつてマージするか否か を決める。
たとえば、 この場合、 2つのクラス夕 C l , C 2に存在する文書数の合計は 1 1個であり、 両者に共通する文書数は 3個である。 これらから合計の文書数に占 める共通する文書数の割合 (%) を計算し、 その結果からマージするか否かを決 定する。 この割合 (%) を求める際、 合計の文書数で共通する文書数を単純に割 り算してそれに 1 0 0を掛けて求めてもよいが、 共通する文書数に任意に設定さ れる係数を掛け算したものを合計の文書数で割り算してそれに 1 0 0を掛けて求 めるようにしてもよい。
—例として、 クラス夕 C 1に存在する文書数をひ 1、 クラス夕 C 2に存在する 文書数をひ 2とし、 両者に共通する文書数を/?とした場合、 たとえば/?に係数と してたとえば 2を掛けて、 2 ? / (ひ 1 +ひ 2 ) X 1 0 0を計算し、 その値 (%) が予め設定されたしきい値 TH (%) と比較して、 上式による計算結果がしきい 値 TH以上であればマージするというようなことを行う。 図 6で示した例につい て考えれば、 2 ?は 2 x 3 = 6個、 ひ 1 +ひ 2は 5 + 6= 1 1個であるので、 こ の場合、 約 55%と求められる。 ここで、 しきい値 THが仮に 70%と設定され ているとすれば、 計算結果 (55%) はしきい値 TH (70%) より小さいので、 クラスタ C 1とクラスタ C 2はマージしないとする。 なお、 係数は任意に設定さ れるもので、 計算結果で得られる数値 (%) がしきい値と比較し易いような値と なるように適当に設定されるものであり、 この場合は係数を 2としたが、 係数を 1としても特に問題はない。
ここで、 図 5で示した分類結果を例にして説明すれば、 図 5の場合、 「用紙」 のクラスタには文書 D l, D 4 , D 6 , D 7の 4つの文書が存在し、 「カセット」 のクラスタには文書 D l, D4, D 7の 3つの文書が存在する。 そして、 2つの クラス夕に共通する文書は文書 D 1, D 4 , D 7の 3つの文書であり、 これを合 計の文書数に対する割合 (%) で考える。
これを前述した計算式によって計算する。 図 5の分類結果の場合、 合計の文書 数 (ひ 1 +ひ 2) は、 4 + 3 = 7となり、 共通の文書数は 3で 2 ?は 6となる。 したがって、 この場合、 約 86%という高い値が得られる。 これは、 設定された しきい値 (ここでは 70%としている) よりも高いので、 この 「用紙」 のクラス 夕と 「カセット」 のクラス夕はマージして 1つのクラスタとするということにな る。
同様に考えて、 図 5の 「用紙」 のクラス夕と 「増設」 のクラスタとをマージす るか否か、 「力セット」 のクラスタと 「増設」 のクラス夕とをマージするか否か について判断する。
まず、 「用紙」 のクラスタと 「増設」 のクラス夕については、 「用紙」 のクラ ス夕には文書 D l , D 4 , D 6 , D 7の 4つの文書が存在し、 「増設」 のクラス 夕には文書 D 2, D 3, D 5, D 7の 4つの文書が存在する。 そして、 2つのク ラスタに共通する文書は文書 D 7のみであり、 これを上式を用いて計算すると、 この場合、 25%という結果が得られ、 これは、 しきい値 (70%) よりも低い 値であるので、 この場合は、 両者はマージしないとする。 また、 「カセット」のクラスタと 「増設」のクラスタについては、 「カセット」 のクラスタには文書 D l, D 4 , D 7の 3つの文書が存在し、 「増設」 のクラス 夕には文書 D 2, D 3 , D 5 , D 7の 4つの文書が存在する。 そして、 2つのク ラス夕に共通する文書は文書 D 7のみであり、 これを上式を用いて計算すると、 この場合、 約 2 8 %という結果が得られ、 これは、 しきい値 (7 0 %) よりも低 い値であるので、 この場合は、 両者はマージしないとする。
このようにして、 それそれのクラスタに対し 2つのクラスタごとにそれそれマ —ジするか否かを判断する。 この図 5の分類結果についてマージするか否かの処 理を行ったあとの分類結果 (マージ処理後の分類結果という) が図 7である。 図 7によれば、 「用紙」 と 「力セット」 が 「用紙 +カセヅト」 という 1つのクラス 夕に分類され、 そのクラス夕に属する文書は文書 D 1, D 4 , D 6 , D 7という ことになる。 また、 「増設」 についてはそのまま単独のクラスタを構成する。 図 7に示されるクラス夕マージ処理後の分類結果において、 たとえば、 「用紙 +カセヅト」 で分類されたクラスタ (文書 D 1, D 4 , D 6, D 7が含まれる) について見れば、 図 2の文書内容からもわかるように、 文書 D 1は用紙カセット についての内容であり、 文書 D 4は用紙設定についての内容であり、 文書 D 6は 印刷された後の用紙の汚れた場合にはどのようにするかについての内容であり、 文書 D 7は用紙カセットの増設についての内容である。
このように、 これらの文書 D l , D 4 , D 6 , D 7はどれも用紙やカセットに 関する内容であり、 1つのクラスタとして分類されて何等問題のないものとなり、 むしろ、 「用紙 +カセット」 を 1つのクラスタとした方がよい分類結果であると いえる。
このように、 始めにそれそれの文書の表題部から特徴要素を抽出し、 その抽出 された特徴要素に基づいてクラスタリング処理を行い、 かつ、 そのクラス夕リン グ処理されて得られたそれそれのクラス夕に対し、 2つづつのクラス夕の組み合 わせについてクラスタマージ処理を行うことによって、 より適切なクラスタリン グが行える。
また、 以上のようにして 2つのクラス夕ごとに 1回目のクラス夕マージ処理が 終了し、 図 7のようなクラスタマージ処理後の分類結果が得られると、 今度は、 そのクラスタマージ処理後の分類結果について、 2回目のクラスタマージ処理を 行う。 つまり、 図 7の 1回目のクラスタマージ処理後の結果で考えた場合、 「用 紙 +カセヅ ト」 のクラス夕と 「増設」 のクラス夕についてクラス夕マージ処理を 行う。 この場合、 「用紙 +カセヅ ト」 のクラスタと 「増設」 のクラス夕について は、 「用紙 +カセッ ト」 のクラスタには文書 D 1, D 4, D 6 , D 7の 4つの文 書が存在し、 「増設」 のクラスタには文書 D 2, D 3 , D 5 , D 7の 4つの文書 が存在する。 そして、 2つのクラス夕に共通する文書は文書 D 7のみであり、 こ れを合計の文書数に対する割合 (%) で考えると、 共通する文書数 1に定数 2を 掛けたものを合計の文書数 8で割り算し、 それに 1 0 0を掛けると、 2 5 %とい う結果が得られ、 これは、 しきい値 ( 7 0 %) よりも低い値であるので、 この場 合は、 両者はマージしないとする。
このようにして、 2つのクラスタ間で 1回目のクラスタマージ処理が終了した 後、 その 1回目のクラス夕マージ処理に新たな 2つのクラス夕間で 2回目のクラ スタマ一ジ処理を行い、 その 2回目のクラス夕マージ処理が終了した後、 その 2 回目のクラスタマージ処理後に新たな 2つのクラスタ間で 3回目のクラス夕マ一 ジ処理を行うというクラスタマージ処理を順次行い、 新たなクラス夕が生成され なくなるまで (クラスタマージが起こらなるまで) その処理を繰り返す。
また、 これまでの説明は、 2つのクラスタ間でクラス夕マージ処理を行う例に ついてであるが、 クラスタマージ処理は 3つ以上のクラスタの組み合わせについ ても可能である。 この場合、 1回のクラス夕マージ処理によって 3つ以上のクラ ス夕間でクラス夕マ一ジ処理を行い、 さらに、 これによつて幾つかのクラス夕に 分類された結果についてクラス夕マージが起こらなくなるまで、 順次、 クラス夕 マージ処理を行うことも可能である。 なお、 3つ以上のクラス夕についてクラス 夕マージするか否かを判断する場合、 前述したように、 それそれのクラスタに存 在する合計の文書数に対する共通の文書数の割合 (%) で考えることができる。 さらに、 これまで説明した複数のクラス夕間でのクラス夕マージ処理は、 図 5 に示すような分類結果に基づき、 それそれのクラスタ間に共通する文書数が合計 の文書数に占める割合を求め、 それを設定されたしきい値との比較によって求め るようにしたが、 このような方法によらず、 それそれのクラスタを特徴づける特 徴要素が、 元の文書においてどのような状態で用いられているかを調べることに よってもクラス夕マージ処理を行うことができる。 これを実現するための文書分 類装置の構成例を図 8に示す。 図 8に示されるそれそれの構成要素は図 1と同じ であり、 同一部分には同一符号が付されているが、 この場合、 元の文書内容から クラスタマージするか否かを判断するため、 クラスタマ一ジ部 2には、 文書記憶 部 1 1の出力が与えられるようになつている。 以下、 これについて説明する。 図 5に示すような分類結果において、 「用紙」 のクラスタと 「カセット」 のク ラス夕をクラスタマ一ジ処理する場合について説明する。 「用紙」 のクラス夕に は、 文書 D 1 , D 4 , D 6 , D 7が含まれ、 「カセヅト」 のクラス夕には、 文書 D 1 , D 4 , D 7が含まれる。
これら文書おいて、 「用紙」 と 「カセット」 がどのように用いられているかを 調べる。 文書 D 1においては、 「用紙」 と 「力セヅト」 が結びついた 「用紙カセ ット」 という用語が複数箇所出現し、 文書 D 4には文書 D 1と同様に 「用紙カセ ット」 という用語が存在するとともに、 「用紙」 と 「カセット」 が近接した状態 で用いられている。 また、 文書 D 7にも 「用紙カセット」 という用語や 「用紙力 セヅトュニヅト」 という用語が存在する。 また、 文書 D 6には 「力セット」 とい う用語は存在しないが 「用紙」 という用語が複数出現する。
これらのことから考えれば、 特徴要素として抽出された「用紙」 と 「力セット」 は、 連続的に用いられたり近接して用いられたりすることの多い特徴要素であり、 両者は関連性の高い特徴要素であることがわかる。 このことから、 少なくとも文 書 D l , D 4, D 7は関連性の高い文書であり、 文書 D 6も全く関連性がないと は言えないので、 この場合、 「用紙」のクラス夕と「力セヅト」のクラス夕は「用 紙 +カセット」 のクラス夕として 1つにまとめても問題がないと判断できる。 次に、 「用紙」 のクラス夕と 「増設」 のクラスタをクラス夕マージ処理する。 「用紙」 のクラス夕には、 文書 D 1 , D 4 , D 6 , D 7が含まれ、 「増設」 のク ラス夕には、 文書 D 2 , D 3 , D 5 , D 7が含まれる。
これら文書おいて、 「用紙」 と 「カセット」 がどのように用いられているかを 調べる。 文書 D l、 D 2 , D 3 , D 4, D 5 , D 6においては、 「用紙」 と 「増 設」 が結びついて用いられた部分や、 近接して用いられている部分はなく、 文書 D 7のみにおいて 「用紙カセッ ト」 と 「増設」 が近接した状態で用いられている 程度である。
したがって、 これらのことから、 特徴要素として抽出された 「用紙」 と 「増設」 は、 連続的に用いられたり近接して用いられたりすることの多い特徴要素ではな く、 両者はあまり関連性のある特徴要素であるとはいえないことがわかる。 この ことから、 「用紙」 のクラスタと 「増設」 のクラス夕はマージしない方がよいと いうことがわかる。
また、 「カセッ ト」 のクラス夕と 「増設」 のクラス夕をクラス夕マージ処理す ると、 この場合も、 「用紙」 のクラスタと 「増設」 のクラス夕におけるクラス夕 マージ処理と同様に、 「カセッ ト」 と 「増設」 が結びついて用いられた部分や、 近接して用いられている部分は少ない。
したがって、 これらのことから、 特徴要素として抽出された「カセッ ト」 と「増 設」 は、 連続的に用いられたり近接して用いられたりすることの多い特徴要素で はなく、 両者はあまり関連性のある特徴要素であるとはいえないことがわかる。 このことから、 「カセッ ト」 のクラスタと 「増設」 のクラス夕はマージしない方 がよいということがわかる。
なお、 このようなそれそれのクラスタを特徴づける特徴要素が元の文書におい てどのような状態で存在するかによってクラス夕マージする処理においても、 前 述したように、 それそれのクラスタ間で 1回目のクラス夕マージ処理が終了した 後、 その 1回目のクラスタマージ処理後に新たなクラス夕間で 2回目のクラス夕 マージ処理を行い、 その 2回目のクラス夕マージ処理が終了した後、 その 2回目 のクラスタマージ処理後に新たなクラスタ間で 3回目のクラス夕マージ処理を行 うというクラスタマ一ジ処理を順次行い、 新たなクラスタが生成されなくなるま で (クラスタマージが起こらなるまで) その処理を繰り返す。
また、 この場合も 2つのクラス夕間でのクラスタマージ処理だけでなく、 クラ ス夕マ一ジ処理は 3つ以上のクラス夕の組み合わせについても可能である。 この 場合、 1回のクラスタマ一ジ処理によって 3つ以上のクラスタマージ処理を行い、 さらに、 これによつて幾つかのクラス夕に分類された結果についてクラスタマー ジが起こらなくなるまで、 順次、 クラスタマージ処理を行うことも可能である。 ところで、 以上のようにしてクラス夕マージ処理を行ったあと、 クラス夕マー ジされた後の結果をユーザに表示する際、 どのような状況でクラスタマ一ジを行 つたのかを示す情報を付加情報としてユーザに提示することが好ましい。 これは、 クラスタマージ部 2で行った処理内容を出力制御部 3 1が受けてそれを表示部 3 2に表示させるようにすることで行える。
なお、 本実施形態は、 上記内容に限定されるものではなく、 上記の要旨を逸脱 しない範囲で種々変形実施可能となるものである。 たとえば、 前述の実施の形態 では、 図 5に示すような分類結果を得るための特徴要素を各文書の表題部から得 るようにして、 表題部から得られた特徴要素に基づいたクラスタリングを行う例 について説明したが、 本実施形態においては、 複数の文書を意味的に共通性のあ るクラスタに分類し、 その分類結果についてクラスタマージ処理を行うものであ るので、 複数の文書をクラス夕リングする手法は、 特に限定されるものではない。 複数の文書をクラスタリングする手法としては、 前述の実施の形態で説明した文 書の表題部から得られた特徴要素に基づいてクラス夕リングを行う例の他、 たと えば、 U R Lアドレス (たとえば、 http:〃を取り除いた部分を使用する)、 更新 日時 (単純な時間または最近 1力月以内の更新日時) 、 ファイルサイズ (webぺ —ジ本文のバイ トサイズなど) を用いてクラス夕リングすることもできる。 また、 これらは、 単独で用いてクラス夕リングするようにしてもよく、 幾つかを組み合 わせてもよい。 これらのどれを用いるかは、 最初にメニューなどで選択項目を選 ぶことで可能となる。 また、 選んだ項目が無い場合には、 他の項目を代用する。 たとえば、 夕ィ トルを選んだ場合、 webページに夕ィ トルが無い場合には、 U R Lアドレスを代用する。
そして、 いずれかの方法によってクラス夕リングされたのち、 そのクラスタリ ング結果に対し、 前述の実施の形態で説明したような処理、 すなわち、 それそれ のクラスタに含まれる文書の共通性を判断してそれそれのクラスタ同志を統合す るか否かを決めるという処理を施すことによつてもクラス夕マージを行うことが できる。
たとえば、 U R Lによってクラスタリングする場合について説明すれば、 ある U R L (これを U R L 1とする) のクラス夕と、 ある U R L (これを U R L 2と する) のクラス夕に分類されたとし、 U R L 1のクラスタには文書 D 1 , D 2 , D 3, D 4が存在し、 U R L 2のクラスタには文書 D 2 , D 3 , D 4 , D 5が存 在したとする。 この場合、 これら 2つのクラスタには、 共通する文書として文書 D 2 , D 3 , D 4が含まれることになり、 この共通する文書数と合計の文書数と の関係から、 U R L 1のクラスタと U R L 2のクラス夕を統合するか否かを決め る。
また、 クラスタマージするか否かの判断は、 前述の実施の形態では、 対象とな るクラスタに含まれる合計の文書数で共通の文書数を割って得られる割合 (%) で表し、 その値が予め設定されたしきい値 (%) と比較することによって行った が、 これに限られるものではなく、 たとえば、 共通する文書の個数を数え、 その 個数とそれそれのクラス夕に含まれる文書数との関係からマージするかしないか を決めるようにすることも可能である。
また、 前述の実施の形態では、 文書 D l, D 2 , · · · , D 7は、 それそれが 独立した文書であって、 それそれ独立した文書を分類する場合について説明した が、 ある 1つの文書を幾つかのコンテンツに分けて、 それそれのコンテンツ (こ こでいうコンテンツとは文書の中の意味的なまとまりを指す) を分類する場合に も適用できる。 ここで抽出されるコンテンツは、 各表題部ごとに切り分けられて 得られる文書の中の意味的なまとまりであるとする。
たとえば、 図 2で示した文書 D l, D 2, · · ·, D 7が集まって 1つの文書 が構成されていると仮定すれば、 文書 D 1, D 2 , · · ·, D 7をそれそれコン テンッとみなすことができる。 これらをコンテンツとすれば、 それそれのコンテ ンッは、 表題部 T 1 , T 2, · · ·, T 7と本文 A 1 , A 2 , · ' ·, Α 7から 構成されたものとなる。
このように、 1つの文書を複数のコンテンツに分けて考えた場合、 それそれの コンテンツをクラスタリングし、 そのクラスタリング結果をクラス夕マージする 場合にも同様に適応できる。
さらに、 本実施形態で説明したクラスタリング対象文書は、 たとえば、 汎用の 検索サービスで検索された複数の文書をクラスタリング対象文書として考えるこ ともできる。 この場合、 検索された多数の文書に対してクラスタリング処理を行 い、 そのクラスタリングされた結果についてクラスタマージ処理を行う。
また、 以上説明した本実施形態の文書分類処理を行う処理プログラムは、 フロ ツビィディスク、 光ディスク、 ハードディスクなどの記録媒体に記録させておく ことができ、 本発明はその記録媒体をも含むものである。 また、 ネットワークか ら処理プログラムを得るようにしてもよい。
(第 2の実施形態)
クラスタマージ後のクラス夕をユーザに提示する際、 単に、 クラスタマ一ジ処 理結果が提示されたとすると、 ユーザ側からみたとき、 どのようなクラスタマ一 ジ処理がなされて統合されたのかといつたクラスタマージ処理内容、 すなわち、 そのクラス夕マージによって得られた新たなクラス夕は、 もともとどのクラスタ とどのクラス夕がどの程度の関連性があるから統合されたのかといつた内容がわ かりにくになることがある。
そこで、 本実施形態においては、 内容に関連性のある複数のクラスタを統合す るクラス夕マージ処理がなされたあと、 そのクラスタマ一ジ処理されて得られた ら新たなクラスタを表示する際、 その新たなクラス夕は、 どのクラス夕とどのク ラスタがどの程度の関連性があるから統合されたのかといったクラス夕マージ処 理内容がわかるように表示している。
以下、 本発明の第 2の実施形態について詳細に説明する。
また、 第 2の実施形態では、 文書分類の手法として、 前述したように、 それそ れの文書の表題部 (タイ トル) を検出して、 その表題部から特徴要素を抽出して、 抽出された特徴要素に基づいて文書を分類する手法を用いるものとする。
図 9は、 第 2の実施形態を示すもので、 大きく分けると、 それそれの文書を意 味的に共通性を有する複数のクラス夕に分類するクラスタリング部 9 1と、 この クラスタリング部 9 1によって得られた複数のクラス夕間でそれそれのクラスタ に含まれる文書に基づいてそれそれのクラスタの関連性を判断し、 一定以上の関 連性を有する少なくとも 2つのクラス夕を統合するクラス夕マージ部 9 2と、 こ のクラスタマージ部 2によってクラス夕マージ処理されて得られた新たなクラス 夕の表示を行う際、 その新たなクラスタに対し、 クラス夕マージ処理内容がわか るように、 どのようなクラス夕がどのような関連性を有して統合されたかを示す 表示内容を生成するクラス夕マージ処理内容生成部 9 3と、 その表示内容をュ一 ザに提示すべき分類結果に含めて出力する分類結果出力部 9 4とを有した構成と なっている。
クラスタリング部 9 1は、 文書記憶部 9 1 1、 文解析部 9 1 2、 特徴要素抽出 部 9 1 3、 特徴テーブル作成部 9 1 4、 文書分類部 9 1 5、 分類結果記憶部 9 1 6を有している。
文書記憶部 9 1 1はこの場合、 多数の文書データをデータベースとして持つも のである。 ここでは、 たとえば、 図 1 0に示すような文書群を分類する場合を説 明する。図 1 0に示される文書群は、 それそれが独立した文書 D 1 , D 2 , · · · , D 7を有し、 これらの文書 D 1, D 2 , · · ·, D 7は表題部 T 1, T 2 , · · · , T 7と、 それに対する本文 A l, A 2 , · · ·, A 7を持っているものとする。 文解析部 9 1 2は文書記憶部 9 1 1に記憶されている文書を文解析し、 それそ れの文書の表題部を検出する。 この文解析部 9 1 2が行う表題部の検出は、 具体 的には次のようにして行う。
まず、 第 1の方法として、 文書構造様式によって表題と規定される部分があれ ばその部分を表題部とする。 また、 第 2の方法として、 文書構造様式によって、 標準より大きな文字で表示する指定がなされている部分があれば、 その部分を表 題部とする。 また、 第 3の方法として、 定められた数の文または単語を文書先頭 より抽出し、 その抽出した部分を表題部とする。 さらには、 これら第 1、 第 2、 第 3の方法を順次行い、 第 1の方法を行ったとき、 表題と規定されている部分が あればその部分を表題部とし、 表題と規定される部分が存在しなければ、 第 2の 方法を行い、 標準より大きな文字で表示する指定がなされている部分があれば、 その部分を表題部とし、 標準より大きな文字で表示する指定がなされていなけれ ば、 第 3の方法を行って表題部を検出する。
特徴要素抽出部 9 1 3は、 文解析部 9 2で検出されたそれそれの文書の表題部 の中から特徴要素を抽出する。
特徴テーブル作成手段 9 1 4は、 前記表題部から抽出された特徴要素とそれそ れの文書との関係を示す特徴テーブルを作成する。 なお、 この特徴テーブルの具 体的な内容については後述する。
文書分類部 9 1 5は、前述の特徴テーブルの内容を参照し、文書 D l,D 2, ', -, D 7を意味的に共通性のある複数のクラスタに分類する。 つまり、 文書 D 1, D 2, · . · , D 7の表題部に存在する特徴要素に基づいて、 共通する特徴要素を 持つ処理対象文書を 1つのまとまりとし、 そのまとまりを 1つのクラス夕とする。 なお、 この文書分類部 9 1 5は同義特徴辞書 (図示せず) を有し、 共通する特徴 要素を持つ処理対象文書を 1つのまとまりとする処理を行う際、 共通する特徴要 素であるか否かの判断を、 その同義語辞書を用い同義語が有るか否かにより行い、 同義語が存在する場合にはそれを同じクラスタとする処理を行うことも可能であ る。
分類結果記憶部 9 1 6は、 文書分類部 9 1 5によって分類された内容を記憶す る。
クラス夕マージ部 9 2は、 複数のクラス夕間でそれそれのクラス夕に含まれる 文書に基づいてそれそれのクラスタの関連性を判断し、 一定以上の関連性を有す る少なくとも 2つのクラス夕を統合する処理を行うものであるが、 その具体的な 処理については後述する。
クラス夕マージ処理内容生成部 9 3は、 クラスタマージ部 9 2で判断されたク ラスタ間の関連性の高さを示す値 (後述する) を用い、 その値を予め設定された しきい値 (後述する) と比較して関連性の高さを判断する関連性判断部 9 3 1と、 この関連性判断部 9 3 1によるクラス夕間の関連性の高さに基づいて、 どのよう なクラスタがどのような関連性を有して統合されたかがわかるように、 それそれ のクラスタ名の表示の仕方を決めるクラスタ名表示内容決定部 9 3 2とを有し、 その具体的な処理内容については後述する。
また、 分類結果出力部 9 4は、 出力制御部 9 4 1と表示部 9 4 2を有し、 本発 明による文書分類結果を出力する。
このような構成において、 本発明の文書分類処理について説明する。 本発明が 行う概略的な文書分類処理は、 図 1 1のフローチャートに示すように、 処理対象 となる多数の文書を意味的に共通性を有する複数のクラス夕に分類し (ステツブ 1 1 S 1 ) 、 これにより分類された複数のクラスタ間で各々のクラス夕に含まれ る文書に基づいて、 それそれのクラスタ間の関連性を判断する (ステップ 1 I S 2 ) 。 そして、 一定以上の関連性を有する少なくとも 2つのクラスタを統合する (ステップ 1 1 S 3 ) 。 その後、 クラス夕マージされて得られた新たなクラスタ は、 どのようなクラスタがどのような関連性を有して統合されたかがわかるよう なクラスタマージ内容を生成する。 具体的には、 クラスタマージされたクラス夕 間の関連性の高さを判定し (ステップ 1 1 S 4 ) 、 その関連性の高さに基づいて、 統合される前の個々のクラス夕に関する情報がわかるような表示内容、 すなわち、 クラスタマ一ジによって得られた新たなクラス夕は、 どのクラス夕とどのクラス 夕がどの程度の関連性を有して統合されたのかがわかるような表示内容を生成す る (ステップ 1 1 S 5 ) 。 以下、 具体例を参照して詳細に説明する。
ここでは、 図 1 0で示した文書 D l , D 2 , · · · , D 7を分類する例につい て説明する。 この実施の形態では、 それそれそれの文書の表題部から特徴要素を 抽出し、 その抽出された特徴要素に基づいてクラスタリング処理を行い、 かつ、 そのクラスタリング処理された結果についてクラスタマージ処理を行う。 まず始 めに、 表題部から特徴要素を抽出し、 その抽出された特徴要素に基づいて行われ るクラス夕リング処理 (クラスタリング部 1が行う処理) について説明する。 これらの文書 D 1, D 2 , · · ·, D 7は、 文解析部 1 2にて表題部が検出さ れる。 たとえば、 文書 D 1については表題部 T 1が検出され、 文書 D 2について は表題部 T 2が検出され、 文書 D 3については表題部 T 3が検出されるというよ うに、 それそれの文書 D 1 , D 2 , · · · , D 7の表題部 T 1, T 2, · · ·, T 7が検出される。
そして、 特徴要素抽出部 9 1 3によって、 それそれの表題部に存在する特徴要 素が抽出されたのち、 特徴テーブル作成部 9 1 4により、 それそれの特徴要素と その特徴要素を表題部に含む文書との関係を示す特徴テーブルが作成される。 こ の特徴テーブルの例を図 1 2に示す。 なお、 ここでは、 文書数が 3つ以上取り出 される特徴要素とその特徴要素を含む文書との関係を示し、 特徴テーブル内に示 される数値は、 その特徴要素が各文書の表題部に幾つ含まれるているかの数を示 している。 たとえば、 「用紙」 という特徴要素は、 文書 D 1, D 4, D 6 , D 7 のそれそれの表題部に、 それそれ 1個ずつ含まれていることを示している。 図 1 2の特徴テ一ブルからもわかるように、 表題部に 「用紙」 という特徴要素 を含む文書は、 文書 D 1, D 4, D 6 , D 7であり、 また、 表題部に「力セット」 という特徴要素を含む文書は、 文書 D l, D 4, D 7であり、 さらに、 表題部に 「増設」 という特徴要素を含む文書は、 文書 D 2, D 3 , D 5 , D 7である。 な お、 図 1 0において、 これら各特徴要素部分にはアンダーラインが施されている。 そして、 文書分類部 9 1 5はこのような特徴テーブルを参照して、 それぞれの 特徴要素ごとの文書クラスタ分けを行う。 その分類結果を図 1 3に示す。 なお、 このようなクラス夕に分類する際、 前述したように、 共通する特徴要素であるか 否かの判断を、 同義語辞書を用い同義語が有るか否かによっても行い、 同義語が 存在する場合にはそれを同じ文書クラスタとする処理を行うことも可能である。 たとえば、 「用紙」 と 「印刷紙」 の両方が特徴要素として抽出されたとすれば、 これらの特徴要素を表題部に含む文書は同じクラスタとするなどという処理を行 ラ o
このような分類結果は分類結果記憶部 9 1 6に格納される。 図 1 3に示される 分類結果において、 たとえば、 「用紙」 で分類されたクラスタ (文書 D l , D 4 , D 6 , D 7が含まれる) について見れば、 図 1 0の文書内容からもわかるように、 文書 D 1は用紙カセットについての内容であり、 文書 D 4は用紙設定についての 内容であり、 文書 D 6は印刷された後の用紙の汚れについての内容であり、 文書 D 7は用紙カセッ卜の増設についての内容である。
このように、 これらの文書 D l, D 4 , D 6 , D 7はどれも用紙に関する内容 であり、 1つのクラスタとして分類されて何等問題のないものとなり、 その分類 結果は適切であるといえる。
また、 「カセヅト」で分類されたクラスタ (文書 D 1 , D 4 , D 7が含まれる) について見れば、 図 1 0の文書内容からもわかるように、 文書 D 1は用紙カセッ トについての内容であり、 文書 D 4は用紙設定についての内容であり、 文書 D 7 は用紙カセッ卜の増設についての内容である。
このように、 これらの文書 D l, D 4 , D 6, D 7にはどれも用紙をセットす ることに関する内容が含まれており、 1つのクラス夕として分類されて何等問題 のないものとなり、 その分類結果は適切であるといえる。 また、 「増設」 で分類されたクラスタ (文書 D 2, D 3, D 5 , D 7が含まれ る) について見れば、 図 1 0の文書内容からもわかるように、 文書 D 2はメモリ の増設についての内容であり、 文書 D 3はィン夕フエ一スカードの増設について の内容であり、 文書 D 5はハードディスクの増設についての内容であり、 文書 D 7は用紙カセッ卜の増設についての内容である。
このように、 これらの文書 D 2 , D 3 , D 5 , D 7はどれも何かを増設する場 合についての内容であり、 1つのクラス夕として分類されて何等問題のないもの となり、 その分類結果は適切であるといえる。
このような適切な分類が行える理由としては、 それそれの文書の表題部から特 徴要素を抽出し、 その特徴要素に基づいて文書を分類しているからである。 つま り、 文書の表題部は、 その文書の作成者がその文書の主旨を表す内容を表現して いることが多い。 したがって、 文書の表題部に含まれる特徴要素を用いて分類を 行うことにより、 分類結果が散漫になることが少なく、 また、 ノイズクラス夕が 生成される率も少なくすることができる。 また、 各文書の表題部は、 その文書の 作成者がその文書の主旨を表す内容を表現していることから、 文書の制作者側の 視点による分類が得られる。
そして、 分類が行われた後、 ユーザによって、 たとえば、 「用紙」 についての クラスタの選択指示が出されたとすると、 そのクラスタに属する文書 D 1, D 4 , D 6, D 7が文書記憶部 1 1から読み出されて表示部 3 2に表示される。 なお、 このときの表示内容としては、 前述したように、 文書番号や文書名のみでもよく、 さらには、 その文書内容を表示させるようにしてもよい。
ところで、 本発明実施形態においては以上のようにクラス夕リング処理した結 果について、 さらに、 クラス夕マージ部 2によってクラスタマージ処理を行う。 すなわち、 図 1 3に示す分類結果において、 特徴要素である 「用紙」 と 「カセ ット」 について見ると、 「用紙」 のクラスタには文書 D 1 , D 4 , D 6 , D 7が 含まれ、 「力セヅト」 のクラスタには文書 D 1, D 4 , D 7に存在することがわ かる。
このように、 「用紙」 のクラス夕と 「カセット」 のクラス夕には、 共に文書 D 1, D 4 , D 7が共通して存在している。 これは、 「用紙」 という特徴要素と「力 セット」 という特徴要素は相互に関連した状態で用いられることが多いことを意 味している。 たとえば、 文書 D 1 , D 4 , D 7の表題部または本文のなかに 「用 紙カセット」 という用語が用いられている。 つまり、 これらの文書 D l , D 4 , D 7は共通性の高い文書であり、 これら文書 D l , D 4, D 7は同じクラス夕に 分類した方がより好ましいと考えられる。
これを実現するために、 特徴要素に基づいてクラスタリングしたあと、 そのク ラスタリング結果に対しクラスタマージ処理を施す。
このクラス夕マージ処理について以下に説明する。 まず始めに、 図 1 3の分類 結果とは関係なく一般的な例について図 1 4を参照しながら説明する。
今、 2つのクラスタ C l , C 2があるとする。 クラス夕 C 1として 5個の文書 D 1 , D 2 , D 3 , D 4 , D 8が抽出され、 クラスタ C 2には 6個の文書 D 3 , D 4 , D 5 , D 6 , D 7 , D 8が抽出されたとする。
ここで、 2つのクラス夕 C I , C 2に共通している文書は、 文書 D 3, D 4 , D 8である。 この実施の形態では、 クラスタマージ処理対象となる複数のクラス 夕に含まれる複数の文書のうち、 それそれのクラスタに共通して含まれる文書数 を基に、 それそれのクラスタ間の関連性を判断してクラス夕マージ処理を行う。 具体的には、 複数のクラスタとして、 ある 2つのクラス夕に共通している文書 数が 2つのクラス夕に存在する合計の文書数に対しどのくらいの割合かを計算し、 その計算結果が予め定めたしきい値以上かどうかによつてマージするか否かを決 める。
たとえば、 この場合、 2つのクラスタ C l , C 2に存在する文書数の合計は 1 1個であり、 両者に共通する文書数は 3個である。 これらから合計の文書数に占 める共通する文書数の割合 (%) を計算し、 その結果からマージするか否かを決 定する。 この割合 (%) を求める際、 合計の文書数で共通する文書数を単純に割 り算してそれに 1 0 0を掛けて求めてもよいが、 共通する文書数に任意に設定さ れる係数を掛け算したものを合計の文書数で割り算してそれに 1 0 0を掛けて求 めるようにしてもよい。
一例として、 クラス夕 C 1に存在する文書数をひ 1、 クラス夕 C 2に存在する 文書数をひ 2とし、 両者に共通する文書数を/?とした場合、 たとえば/?に係数と してたとえば 2を掛けて、 2 ?/ (ひ 1 +ひ 2) X 1 00を計算し、 その値 (%) が予め設定されたしきい値 TH (%) と比較して、 上式による計算結果がしきい 値 TH以上であればマージするというようなことを行う。 図 14で示した例につ いて考えれば、 2 ?は 2 x 3 = 6個、 ひ 1 +ひ 2は 5 + 6 = 1 1個であるので、 この場合、 約 55%と求められる。 ここで、 しきい値 THが仮に 70%と設定さ れているとすれば、 計算結果 (55%) はしきい値 TH (70%) より小さいの で、 クラス夕 C 1とクラスタ C 2はマージしないとする。 なお、 係数は任意に設 定されるもので、 計算結果で得られる数値 (%) がしきい値と比較し易いような 値となるように適当に設定されるものであり、 この場合は係数を 2としたが、 係 数を 1としても特に問題はない。
ここで、 図 1 3で示した分類結果を例にして説明すれば、 図 13の場合、 「用 紙」 のクラスタには文書 D 1 , D 4 , D 6, D 7の 4つの文書が存在し、 「カセ ヅト」 のクラス夕には文書 D 1, D 4, D 7の 3つの文書が存在する。 そして、 2つのクラス夕に共通する文書は文書 D 1, D 4 , D 7の 3つの文書であり、 こ れを合計の文書数に対する割合 (%) で考える。
これを前述した計算式によって計算する。 図 1 3の分類結果の場合、 合計の文 書数 (ひ 1 +ひ 2) は、 4 + 3 = 7となり、 共通の文書数は 3で 2 は 6となる。 したがって、 この場合、 約 86%という高い値が得られる。 これは、 設定された しきい値 (ここでは 70 %としている) よりも高いので、 この 「用紙」 のクラス 夕と 「カセット」 のクラスタはマージして 1つのクラス夕とするということにな る。
同様に考えて、 図 1 3の 「用紙」 のクラス夕と 「増設」 のクラス夕とをマージ するか否か、 「カセット」 のクラス夕と 「増設」 のクラス夕とをマージするか否 かについて判断する。
まず、 「用紙」 のクラスタと 「増設」 のクラスタについては、 「用紙」 のクラ ス夕には文書 D 1 , D 4 , D 6, D 7の 4つの文書が存在し、 「増設」 のクラス 夕には文書 D 2, D 3 , D 5 , D 7の 4つの文書が存在する。 そして、 2つのク ラス夕に共通する文書は文書 D 7のみであり、 これを上式を用いて計算すると、 この場合、 25%という結果が得られ、 これは、 しきい値 (70%) よりも低い 値であるので、 この場合は、 両者はマージしないとする。
また、 「カセット」のクラスタと 「増設」のクラスタについては、 「カセット」 のクラス夕には文書 D 1, D 4 , D 7の 3つの文書が存在し、 「増設」 のクラス 夕には文書 D 2 , D 3 , D 5 , D 7の 4つの文書が存在する。 そして、 2つのク ラス夕に共通する文書は文書 D 7のみであり、 これを上式を用いて計算すると、 この場合、 約 2 8 %という結果が得られ、 これは、 しきい値 (7 0 %) よりも低 い値であるので、 この場合は、 両者はマージしないとする。
このようにして、 それそれのクラス夕に対し 2つのクラスタごとにそれそれマ —ジするか否かを判断する。 この図 1 3の分類結果についてマージするか否かの 処理を行ったあとの分類結果 (マージ処理後の分類結果という) が図 1 5である。 図 1 5によれば、 「用紙」 と 「力セヅト」 が 「用紙 +カセヅト」 という 1つのク ラスタに分類され、 そのクラス夕に属する文書は文書 D 1, D 4, D 6 , D 7と いうことになる。 また、 「増設」 についてはそのまま単独のクラス夕を構成する。 図 1 5に示されるクラスタマ一ジ処理後の分類結果において、 たとえば、 「用 紙 +カセット」で分類されたクラス夕 (文書 D 1, D 4, D 6, D 7が含まれる) について見れば、 図 1 0の文書内容からもわかるように、 文書 D 1は用紙カセヅ 卜についての内容であり、 文書 D 4は用紙設定についての内容であり、 文書 D 6 は印刷された後の用紙の汚れた場合にはどのようにするかについての内容であり、 文書 D 7は用紙カセットの増設についての内容である。
このように、 これらの文書 D l , D 4 , D 6 , D 7はどれも用紙やカセットに 関する内容であり、 1つのクラスタとして分類されて何等問題のないものとなり、 むしろ、 「用紙 +カセット」 を 1つのクラス夕とした方がよい分類結果であると いえる。
このように、 始めにそれそれの文書の表題部から特徴要素を抽出し、 その抽出 された特徴要素に基づいてクラスタリング処理を行い、 かつ、 そのクラスタリン グ処理されて得られたそれそれのクラスタに対し、 2つづつのクラス夕の組み合 わせについてクラス夕マージ処理を行うことによって、 より適切なクラス夕リン グが行える。
また、 以上のようにして 2つのクラス夕ごとに 1回目のクラス夕マージ処理が 終了し、 図 1 5のようなクラスタマ一ジ処理後の分類結果が得られると、 今度は、 そのクラス夕マ一ジ処理後の分類結果について、 2回目のクラスタマージ処理を 行う。つまり、 図 1 5の 1回目のクラス夕マージ処理後の結果で考えた場合、 「用 紙 +カセッ ト」 のクラス夕と 「増設」 のクラスタについてクラスタマージ処理を 行う。 この場合、 「用紙 +カセヅ ト」 のクラスタと 「増設」 のクラスタについて は、 「用紙 +カセヅ ト」 のクラス夕には文書 D 1, D 4, D 6, D 7の 4つの文 書が存在し、 「増設」 のクラスタには文書 D 2 , D 3 , D 5 , D 7の 4つの文書 が存在する。 そして、 2つのクラス夕に共通する文書は文書 D 7のみであり、 こ れを合計の文書数に対する割合 (%) で考えると、 共通する文書数 1に定数 2を 掛けたものを合計の文書数 8で割り算し、 それに 1 0 0を掛けると、 2 5 %とい う結果が得られ、 これは、 しきい値 (7 0 %) よりも低い値であるので、 この場 合は、 両者はマ一ジしないとする。
このようにして、 2つのクラスタ間で 1回目のクラス夕マ一ジ処理が終了した 後、 その 1回目のクラス夕マージ処理に新たな 2つのクラス夕間で 2回目のクラ ス夕マージ処理を行い、 その 2回目のクラス夕マージ処理が終了した後、 その 2 回目のクラスタマージ処理後に新たな 2つのクラスタ間で 3回目のクラスタマ一 ジ処理を行うというクラスタマージ処理を順次行い、 新たなクラス夕が生成され なくなるまで (クラスタマージが起こらなるまで) その処理を繰り返す。
また、 これまでの説明では、 2つのクラス夕間でクラスタマージ処理を行う例 について説明したが、 クラスタマージ処理は 3つ以上のクラスタの組み合わせに ついても可能である。 この場合、 1回のクラスタマージ処理によって 3つ以上の クラス夕間でクラスタマージ処理を行い、 さらに、 これによつて幾つかのクラス 夕に分類された結果についてクラスタマージが起こらなくなるまで、 順次、 クラ ス夕マージ処理を行うことも可能である。 なお、 3つ以上のクラス夕についてク ラスタマ一ジするか否かを判断する場合、 前述したように、 それそれのクラスタ に存在する合計の文書数に対する共通の文書数の割合 (%) で考えることができ る。
以上のようにして、 図 9に示したクラス夕マージ部 9 2によるクラスタマージ 処理が終了すると、 次に、 クラスタマージ処理内容生成部 9 3がそのクラスタマ —ジ結果に対し、 クラスタマージされたクラスタ間の関連性の高さを判定し、 そ の関連性の高さに基づいて、 統合される前の個々のクラスタに関する情報がわか るような表示内容、 すなわち、 クラスタマージによって得られた新たなクラスタ は、 どのクラス夕とどのクラス夕がどの程度の関連性を有して統合されたのかが わかるような表示内容を生成する。 以下、 このクラス夕マージ処理内容生成部 9 3が行う処理について説明する。
この実施の形態では、 クラス夕マージ部 9 2によって得られた関連性の高さと しての関連性の度合い (%) の値が、 前述したしきい値 T Hよりずつと大きい値 であるか、 しきい値 T Hに近い値であるかによって、 そのクラス夕マージされた クラス夕間の関連性の高さを関連性判断部 9 3 1によって判断する。 具体的には、 前述のしきい値 T Hに対し、 それよりも高い値 (%) のしきい値 T H 1を設定し、 クラス夕マージ部 9 2によって得られた関連性の度合い (Kで表す) が、 K≥T Η 1であれば、 クラスタ同志の関連性はきわめて大きく殆ど同じ内容であると判 断する。 一方、 クラス夕マージ部 9 2によって得られた関連性の度合い が、 Τ Η 1 > Κ≥Τ Ηであれば、 少し似ている程度と判断する。
今、 Κ≥Τ Η 1である場合、 すなわち、 クラス夕マージされて得られた新たな クラスタに含まれる幾つかのクラスタ同志の関連性がきわめて高い場合は、 次の ような処理を行う。
これを図 1 5の例で説明すれば、 クラスタマージされた新たなクラスタの特徴 要素は、 「用紙 +カセッ ト」 である。 この 「用紙 +カセヅ ト」 のクラスタは、 図 1 3に示す用紙のクラス夕とカセッ トのクラス夕をクラス夕マージした結果であ る。
このそれそれのクラスタにクラス夕名を付けるとすれば、 特徴要素が 「用紙」 であるクラス夕を 「用紙クラスタ」 、 特徴要素が 「力セヅ ト」 であるクラス夕を 「カセッ トクラスタ」 といように表すことができ、 それそれのクラスタ名を以下 では、 単に、 「用紙」 、 「カセッ ト」 と表記する。
ここで、 クラスタマージ結果である 「用紙 +カセッ ト」 のクラス夕は、 クラス 夕マージ部 9 2による前述の計算によって、 8 6 %という値が得られている。 こ こで、 関連性判断部 9 3 1において、 関連性を判断する際に設定されたしきい値 T H 1が 8 0 %と設定されているとすれば、 この場合、 クラスタマージ部 9 2に よって得られた関連性の度合い Kは、 K≥T H 1であるので、 用紙クラスタと力 セットクラスタの関連性はきわめて大きく殆ど同じ内容であると判断できる。 このように、 クラス夕マージ部 9 2によって得られた関連性を示す値 が、 K ≥T H 1である場合には、 クラスタマージされたそれそれのクラスタ同志の関連 性はきわめて大きく、 殆ど同じ内容のクラス夕であると判断でき、 それそれのク ラス夕の名称を、 連続的に表示する。 たとえば、 上述の 「用紙クラスタ」 と 「力 セヅトクラスタ」 の例では、 それらのクラスタ名である 「用紙」 と 「力セヅト」 をくっつけて 「用紙カセット」 などと表記してそれを表示する。
これは、 いわゆる A N D形式の表記の仕方であり、 クラス夕名をくっつけて表 記しても差し支えないような場合である。 この例では、 クラスタマージされて得 られた新たなクラスタのクラスタ名を 「用紙カセット」 とすることになるが、 こ の場合は、 クラス夕マージされて得られた新たなクラスタは、 その新たなクラス 夕を構成する用紙クラスタとカセッ トクラス夕に含まれるそれそれの文書内容 (図 1 0参照) から見て、 新たなクラス夕名を 「用紙カセット」 として何等差し 支えないものである。
図 1 6はこのような処理を行ったあとの表示例を示すもので、 この図 1 6では、 クラスタマージされた新たなクラス夕のクラスタ名としての 「用紙カセット」 と、 その新たなクラス夕に含まれる文書として、 ここでは、 図 1 0で示されたそれそ れの文書 (文書 D 1 , D 4 , D 6 . D 7 ) のそれそれの表題 (タイ トル) 名が表 示されている。
また、 このように、 それそれのクラス夕名を、 連続的に表示する方法の他に、 図 1 7に示すように、それそれのクラスタ対応のクラス夕名である「用紙」と「力 セット」 を、 それそれのクラスタ名ごとに改行して縦に並べて表記するようにし てもよい。
このように、 それそれのクラスタの名称を縦に並べると、 言語的なつながりが 気にならなくなり、 違和感を与えない効果がある。 この実施の形態で用いている 「用紙」 と 「カセット」 は、 連続して 「用紙カセット」 としても何等問題ないが、 場合によっては、 違和感を持つ場合もある。 たとえば、 これまでの説明とは全く 関係のない例として、 クラス夕マージされた得られた新たなクラスタに含まれる それそれのクラス夕名が、 仮に、 「製品」 、 「使用」 、 「概要」 であったとする。 このようなクラスタ名を上述のように、 連続して横に一列に並べると 「製品仕様 概要」 となる。 これでも意味が全く不明というものではないが、 言語的に少し違 和感が生じる。 このような場合、 本来は、 言語処理を行って、 「製品仕様の概要」 というようにすればよいが、 そのような言語処理は複雑で時間を要する。
したがって、 このような場合、 図 1 7と同様に、 「製品」 、 「使用」 、 「概要」 を 1つづつ縦に並べると違和感を与えることがなくなる。 また、 縦に並べること で、 実際に表示したときに、 横並び一列での表示に比べ、 クラスタマージされた クラスタ名の数が多くても、 横方向にむやみに伸びることがないので見易くなる という効果もある。
このように、 クラス夕マ一ジ部 9 2によって得られた関連性を示す値 が、 K ≥T H 1であって、 クラスタマ一ジされて得られた新たにクラス夕に含まれるク ラス夕のクラスタ名を A N D形式の表記とし、 クラス夕名を横一列に並べた表記 の仕方で表示するか、 あるいは、 各クラス夕対応のクラスタ名称ごとに改行して 縦に並べる表記の仕方で表示する。
これによつて、 クラスタマージされて得られた新たなクラス夕は、 どのような クラス夕がどのような関連性を有して統合されたかということが、 そのクラス夕 マージされた新たなクラス夕名を見るだけでわかる。 たとえば、 図 1 6や図 1 7 の例では、 元のクラスタは 「用紙」 というクラスタと 「カセッ ト」 というクラス 夕が統合されてできたクラスタであり、 しかも、 その関連性はきわめて高く同じ ような内容の文書を持ったクラス夕であるということがわかる。
次に、 T H 1 > K≥T Hである場合、 すなわち、 クラスタマージされて得られ た新たなクラスタに含まれる幾つかのクラスタの関連性の度合いは、 殆どがォ一 バーラッブするほどでもないが同じ文書を幾つか含んでいるといった場合の処理 について説明する。
このように、 クラスタマージ部 9 2によって得られた関連性を示す値 が、 T H 1 > K≥T Hである場合には、 それそれのクラス夕の名称を、 いわゆる O R形 式の表記の仕方で行う。 たとえば、 前述の 「製品」 、 「使用」 、 「概要」 の例で説明すれば、 この場合、 「製品」 、 「使用」 、 「概要」 を連続的な表示ではなく、 たとえば、 「製品 -使 用 '概要」 というように、 それそれの名称間に区切りの記号を挿入して表示する。 このような区切りの記号がある場合には O R的な内容であることを予めユーザに 報知しておけば、 それを見たユーザはそのクラス夕マージされて得られた新たな クラスタには、 「製品」 、 「使用」 、 「概要」 といった内容を持った文書が幾つ か含まれているというように理解できる。 なお、 この O R形式の表記の仕方を行 う場合、 クラスタ名の間に挿入する記号は上述したような 「製品 ·使用 '概要」 の例に限られるものではなく、 たとえば、 クラスタ名の間に「/」を挿入して「製 品/使用ノ概要」 ようにしてもよい。
また、 クラス夕マージされて得られた新たなクラスタに含まれる幾つかのクラ スタの関連性に、 K≥T H 1 と、 T H 1 > K≥T Hが混在するような場合もある。 このような場合には、 それそれの関連性の度合いがわかるように、 A N D形式と O R形式に分けて表記する。
さらに、 クラスタマ一ジされたそれそれのクラス夕同志が包含関係にあるよう な場合もある。 たとえば、 あるクラスタが 「製品」 に関するクラスタであり、 あ るクラス夕のクラスタ名が 「テレビ」 、 あるクラス夕のクラス夕名が 「ラジオ」 、 あるクラスタのクラス夕名が 「ビデオ」 であって、 これらのクラスタがクラスタ マージされたとする。 このとき、 「テレビ」 のクラスタ、 「ラジオ」 のクラス夕、 「ビデオ」 のクラスタが 「製品」 のクラス夕に包含されるものであって、 しかも、 それそれのクラス夕同志の関連性の度合いが T H 1 > K≥ T Hの関係であつたと すれば、 「製品 · (テレビ · ラジオ ' ビデオ) 」 というような表記の仕方で表示 する。 これは、 「製品」 、 「テレビ」 · 「ラジオ」 · 「ビデオ」 はそれそれが 0 R的な関係にあり、 しかも、 「テレビ」 · 「ラジオ」 · 「ビデオ」 が括弧でく く られていることから、 これら 「テレビ」 · 「ラジオ」 · 「ビデオ」 の各クラスタ は 「製品」 に包含されるクラス夕であることを意味している。
このように、 クラス夕マージ処理がなされて得られた新たなクラス夕のクラス 夕名を見るだけで、 どのようなクラス夕がどの程度の関連性を有して統合された のかを容易に知ることができる。 なお、 本実施形態は上記内容に限定されるものではなく、 本実施形態の要旨を 逸脱しない範囲で種々変形実施可能となるものである。 たとえば、 前述の実施の 形態では、 図 13に示すような分類結果を得るための特徴要素を各文書の表題部 から得るようにして、 表題部から得られた特徴要素に基づいたクラスタリングを 行う例について説明したが、 本発明においては、 複数の文書をクラス夕リングす る手法は、 特に限定されるものではない。
複数の文書をクラスタリングする手法としては、 前述の実施の形態で説明した 文書の表題部から得られた特徴要素に基づいてクラスタリングを行う例の他に、 たとえば、 URLアドレス (http:〃を取り除いた部分) 、 更新日時 (単純な時間 または最近 1力月以内の更新日時) 、 ファイルサイズ (webページ本文のバイ ト サイズなど) を用いてクラスタリングすることもできる。 また、 これらは、 単独 で用いてクラス夕リングするようにしてもよく、 幾つかを組み合わせてもよい。 これらのどれを用いるかは、 最初にメニューなどで選択項目を選ぶことで可能と なる。 また、 選んだ項目が無い場合には、 他の項目を代用する。 たとえば、 夕ィ トルを選んだ場合、 webページにタイ トルが無い場合には、 URLアドレスを代 用する。
そして、 いずれかの方法によってクラス夕リングされたのち、 そのクラスタリ ング結果に対し、 前述の実施の形態で説明したような処理、 すなわち、 それそれ のクラスタに含まれる文書の共通性を判断してそれそれのクラス夕同志を統合す るか否かを決めるという処理を施すことによつてもクラス夕マージを行うことが できる。
たとえば、 URLによってクラスタリングする場合について説明すれば、 ある URL (これを URL 1とする) のクラス夕と、 ある URL (これを URL 2と する) のクラス夕に分類されたとし、 UR L 1のクラス夕には文書 D 1 , D 2, D 3 , D 4が存在し、 URL 2のクラスタには文書 D 2, D 3 , D 4 , D 5が存 在したとする。 この場合、 これら 2つのクラスタには、 共通する文書として文書 D 2 , D 3 , D 4が含まれることになり、 この共通する文書数と合計の文書数と の関係から、 URL 1のクラスタと URL 2のクラスタを統合するか否かを決め る。 また、 クラス夕マージするか否かの判断は、 前述の実施の形態では、 対象とな るクラスタに含まれる合計の文書数で共通の文書数を割って得られる割合 (%) で表し、 その値が予め設定されたしきい値 (%) と比較することによって行った が、 これに限られるものではなく、 たとえば、 共通する文書の個数を数え、 その 個数とそれぞれのクラス夕に含まれる文書数との関係からマージするかしないか を決めるようにすることも可能である。
このように、 個数によってクラスタマージするか否かを判断する場合、 前述し たしきい値は個数を用いればよい、 たとえば、 合計の文書数が 1 0個あって、 共 通する文書が 7個以上であるときにマージするとした場合、 前述のしきい値 T H は、 たとえば 7個で、 T H 1をたとえば 9個とし、 9個以上共通した文書がある 場合には A N D形式の表記の仕方での表示を行い、 7個または 8個の場合は O R 形式の表記の仕方での表示を行うというようにもできる。 なお、 この数値は一例 であってこれに限られるものではないことは言うまでもない。 これは、 前述の実 施の形態のなかで説明したしきい値 T Hや T H 1の値についても同様のことがい える。
また、 前述の実施の形態では、 文書 D 1, D 2 , · · ·, D 7は、 それそれが 独立した文書であって、 それそれ独立した文書を分類する場合について説明した が、 ある 1つの文書を幾つかのコンテンツに分けて、 それそれのコンテンツ (こ こでいうコンテンツとは文書の中の意味的なまとまりを指す) を分類する場合に も適用できる。 ここで抽出されるコンテンツは、 各表題部ごとに切り分けられて 得られる文書の中の意味的なまとまりであるとする。
たとえば、 図 1 0で示した文書 D 1 , D 2 , · · ·, D 7が集まって 1つの文 書が構成されていると仮定すれば、 文書 D l, D 2 , · ■ ·, D 7をそれそれコ ンテンヅとみなすことができる。 これらをコンテンツとすれば、 それそれのコン テンッは、 表題部 T 1, T 2 , · · ·, T 7と本文 A 1 , A 2 , · · ·, A 7か ら構成されたものとなる。
このように、 1つの文書を複数のコンテンツに分けて考えた場合、 本発明はそ れそれのコンテンツをクラスタリングし、 そのクラスタリング結果をクラスタマ —ジする場合にも同様に適応できる。 さらに、 本実施形態で用いられるクラスタリング対象文書は、 たとえば、 汎用 の検索サービスで検索された複数の文書をクラス夕リング対象文書として考える こともできる。 この場合、 検索された多数の文書に対してクラスタリング処理を 行い、 そのクラス夕リングされた結果についてクラス夕マージ処理を行う。 そし て、 クラスタマージされて得られた新たなクラス夕に含まれるそれそれのクラス 夕について前述の実施の形態で説明したように処理を行うことで、 そのクラスタ マージによって得られた新たなクラス夕は、 もともとどのクラス夕とどのクラス 夕がどの程度の関連性を有して統合されたのかといつた内容を容易に知ることが できる。
また、 以上説明した文書分類処理を行う処理プログラムは、 フロッピイデイス ク、 光ディスク、 ハードディスクなどの記録媒体に記録させておくことができ、 本発明はその記録媒体をも含むものである。 また、 ネッ トワークから処理ブログ ラムを得るようにしてもよい。

Claims

請求の範囲
1 . 複数の文書を意味的に共通性を有する複数のクラス夕に分類する文書分 類方法において、
前記複数の文書を意味的に共通性を有する複数のクラスタに分類したのちに、 その複数のクラス夕間でそれそれのクラスタに含まれる文書に基づいてそれぞれ のクラス夕の関連性を判断し、 一定以上の関連性を有する少なくとも 2つのクラ スタを統合するクラス夕マージ処理を行うことを特徴とする文書分類方法。
2 . 前記クラスタマージ処理は、 クラスタマージ処理対象となる複数のクラ ス夕に含まれる複数の文書のうち、 それそれのクラスタに共通して含まれる文書 数を基にクラス夕間の関連性を判断してクラスタマージすることを特徴とする請 求項 1記載の文書分類方法。
3 . 前記クラスタマージ処理は、 クラス夕マージ処理対象となる複数のクラ スタそれそれを特徴づける特徴要素が、 そのクラスタマージ処理対象となるそれ それのクラス夕に含まれる元の文書内容にどのような状態で出現するかを調べ、 その出現状態に基づいてクラス夕マ一ジすることを特徴とする請求項 1記載の文 書分類方法。
4 . 前記クラス夕マージ処理は、 少なくとも 2つのクラス夕間で行い、 一回 目のクラスタマージ処理が終了すると、 そのクラスタマージ処理されたクラス夕 群に対し、 再度のクラスタマージ処理を行い、 クラスタマージが起こらなくなる までそれを繰り返すことを特徴とする請求項 1から 3のいずれか 1項に記載の文 書分類方法。
5 . 前記クラス夕マージ処理を行った後は、 クラスタマージを実行したこと およびクラス夕マージを行った根拠を付加情報として出力することを特徴とする 請求項 1から 4のいずれか 1項に記載の文書分類方法。
6 . 複数の文書を意味的に共通性を有する複数のクラス夕に分類する文書分 類方法において、
前記複数の文書を意味的に共通性を有する複数のクラスタに分類したのちに、 その複数のクラス夕間でそれそれのクラスタに含まれる文書に基づいてそれそれ のクラス夕の関連性を判断し、 一定以上の関連性を有する少なくとも 2つのクラ スタを統合するクラスタマージ処理を行い、
このクラス夕マージ処理によって得られた新たなクラスタの表示を行う際、 そ の新たなクラスタに対し、 クラスタマージ処理内容がわかるように、 どのような クラス夕がどのような関連性を有して統合されたかを示す表示内容を生成し、 そ の表示内容をユーザに提示すべき分類結果に含めて出力することを特徴とする文 書分類方法。
7 . 前記クラス夕マージ処理内容がわかるような表示内容とは、 前記統合さ れたそれそれのクラス夕間の関連性の高さに基づき、 当該それそれのクラスタの クラスタ名の表示の仕方を変えた表示内容であって、 それそれのクラス夕名の表 示の仕方は、 前記クラス夕間の関連性の高さが予め設定された値より大きい場合 には、 それそれのクラスタ名を A N D形式の表記の仕方で表示させ、 前記クラス 夕間の関連性の高さが予め設定された値未満である場合には、 それそれのクラス 夕名を〇R形式の表記の仕方で表示させることを特徴とする請求項 6に記載の文 書分類方法。
8 . 前記 A N D形式の表記の仕方は、 それそれのクラス夕対応のクラスタ名 を横方向に並べて連続的に表記するか、 それそれのクラスタ対応のクラスタ名ご とに改行して縦に並べて表記するかのいずれかで行い、 前記 O R形式の表記の仕 方は、 それそれのクラスタ対応のクラス夕名の間に区切り記号を挿入して表記す ることを特徴とする請求項 7に記載の文書分類方法。
9 . あるクラスタの中に包含されるようなクラス夕が存在する場合には、 包 含されるクラスタ名を、 包含するクラスタのクラス夕名に対し括弧書きの表記の 仕方で表示することを特徴とする請求項 7または 8に記載の文書分類方法。
1 0 . 複数の文書を意味的に共通性を有する複数のクラス夕に分類する文書 分類装置において、
前記複数の文書を意味的に共通性を有する複数のクラスタに分類するクラスタ リング部と、
このクラスタリング部により得られた複数のクラスタ間でそれそれのクラス夕 に含まれる文書に基づいてそれそれのクラス夕の関連性を判断し、 一定以上の関 連性を有する少なくとも 2つのクラス夕を統合するクラス夕マージ部と、 を有することを特徴とする文書分類装置。
1 1 . 複数の文書を意味的に共通性を有する複数のクラスタに分類する文書 分類装置において、
前記複数の文書を意味的に共通性を有する複数のクラス夕に分類するクラス夕 リング部と、
このクラスタリング部によって得られた複数のクラスタ間でそれそれのクラス 夕に含まれる文書に基づいてそれそれのクラスタの関連性を判断し、 一定以上の 関連性を有する少なくとも 2つのクラスタを統合するクラス夕マージ部と、 このクラス夕マージ部によってクラス夕マージ処理されて得られた新たなクラ ス夕の表示を行う際、 その新たなクラスタに対し、 クラスタマージ処理内容がわ かるように、 どのようなクラスタがどのような関連性を有して統合されたかを示 す表示内容を生成するクラスタマージ内容生成部と、
その表示内容をユーザに提示すべき分類結果に含めて出力する分類結果出力手 段と、
を有したことを特徴とする文書分類装置。
1 2 . 複数の文書を意味的に共通性を有する複数のクラスタに分類する文書 分類処理プログラムを記録した記録媒体であって、 その文書分類処理プログラム は、
前記複数の文書を意味的に共通性を有する複数のクラスタに分類するクラスタ リング処理手順と、
これにより分類された複数のクラスタ間でそれそれのクラス夕に含まれる文書 に基づいてそれそれのクラスタの関連性を判断し、 一定以上の関連性を有する少 なくとも 2つのクラスタを統合するクラス夕マージ処理手順と、
を含むことを特徴とする文書分類処理プログラムを記録した記録媒体。
1 3 . 複数の文書を意味的に共通性を有する複数のクラス夕に分類して出力 する文書分類処理プログラムを記録した記録媒体であって、 その処理プログラム は、
複数の文書を意味的に共通性を有する複数のクラス夕に分類する手順と、 その複数のクラス夕間でそれそれのクラスタに含まれる文書に基づいてそれそ れのクラス夕の関連性を判断し、 一定以上の関連性を有する少なくとも 2つのク ラスタを統合するクラスタマージ処理を行う手順と、
クラスタマージ処理されて得られた新たなクラスタの表示を行う際、 その新た なクラス夕に対し、 クラス夕マージ処理内容がわかるように、 どのようなクラス 夕がどのような関連性を有して統合されたかを示す表示内容を生成する手順と、 その表示内容をユーザに提示すべき分類結果に含めて出力する手順と、 を含むことを特徴とする文書分類処理プログラムを記録した記録媒体。
PCT/JP2000/003625 1999-06-04 2000-06-02 Procede de tri de documents, appareil de tri de documents et support enregistre sur lequel un programme de tri de documents est memorise WO2000075810A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/762,126 US7213205B1 (en) 1999-06-04 2000-06-02 Document categorizing method, document categorizing apparatus, and storage medium on which a document categorization program is stored
EP00931690A EP1124189A4 (en) 1999-06-04 2000-06-02 DOCUMENT SORTING PROCESS, DOCUMENT SORTING AND RECORDING MEDIUM ON WHICH THE DOCUMENT SORTING PROGRAM IS RECORDED
AU49542/00A AU4954200A (en) 1999-06-04 2000-06-02 Document sorting method, document sorter, and recorded medium on which document sorting program is recorded

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP15849899 1999-06-04
JP11/158498 1999-06-04
JP21250199 1999-07-27
JP11/212501 1999-07-27

Publications (1)

Publication Number Publication Date
WO2000075810A1 true WO2000075810A1 (fr) 2000-12-14

Family

ID=26485601

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/003625 WO2000075810A1 (fr) 1999-06-04 2000-06-02 Procede de tri de documents, appareil de tri de documents et support enregistre sur lequel un programme de tri de documents est memorise

Country Status (4)

Country Link
US (1) US7213205B1 (ja)
EP (1) EP1124189A4 (ja)
AU (1) AU4954200A (ja)
WO (1) WO2000075810A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250693A (ja) * 2004-03-02 2005-09-15 Tsubasa System Co Ltd 文字情報分類プログラム
GB2379051B (en) * 2001-06-04 2005-12-07 Hewlett Packard Co System and method for combining voice annotation and recognition search criteria with traditional search criteria into metadata

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2412988B (en) * 2001-06-04 2005-12-07 Hewlett Packard Co System for storing documents in an electronic storage media
JP4406815B2 (ja) * 2002-06-26 2010-02-03 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
CN100470544C (zh) * 2005-05-24 2009-03-18 国际商业机器公司 用于链接文档的方法、设备和***
TW200837581A (en) * 2007-03-13 2008-09-16 Sunonwealth Electr Mach Ind Co Verifying method for reliability of patent data
US20090063470A1 (en) * 2007-08-28 2009-03-05 Nogacom Ltd. Document management using business objects
US20110119261A1 (en) * 2007-10-12 2011-05-19 Lexxe Pty Ltd. Searching using semantic keys
US9875298B2 (en) * 2007-10-12 2018-01-23 Lexxe Pty Ltd Automatic generation of a search query
US9396262B2 (en) * 2007-10-12 2016-07-19 Lexxe Pty Ltd System and method for enhancing search relevancy using semantic keys
KR100987330B1 (ko) * 2008-05-21 2010-10-13 성균관대학교산학협력단 사용자 웹 사용 정보에 기반한 멀티 컨셉 네트워크 생성시스템 및 방법
MY158574A (en) * 2008-05-30 2016-10-14 Mimos Berhad A document categorization system
EP2478451A2 (en) 2009-09-18 2012-07-25 Lexxe PTY Ltd Method and system for scoring texts
US8903794B2 (en) * 2010-02-05 2014-12-02 Microsoft Corporation Generating and presenting lateral concepts
US8983989B2 (en) * 2010-02-05 2015-03-17 Microsoft Technology Licensing, Llc Contextual queries
US8150859B2 (en) 2010-02-05 2012-04-03 Microsoft Corporation Semantic table of contents for search results
US8260664B2 (en) * 2010-02-05 2012-09-04 Microsoft Corporation Semantic advertising selection from lateral concepts and topics
US20110231395A1 (en) * 2010-03-19 2011-09-22 Microsoft Corporation Presenting answers
US10198506B2 (en) 2011-07-11 2019-02-05 Lexxe Pty Ltd. System and method of sentiment data generation
US10311113B2 (en) 2011-07-11 2019-06-04 Lexxe Pty Ltd. System and method of sentiment data use
US9069768B1 (en) 2012-03-28 2015-06-30 Emc Corporation Method and system for creating subgroups of documents using optical character recognition data
US8832108B1 (en) 2012-03-28 2014-09-09 Emc Corporation Method and system for classifying documents that have different scales
US9396540B1 (en) 2012-03-28 2016-07-19 Emc Corporation Method and system for identifying anchors for fields using optical character recognition data
US8843494B1 (en) * 2012-03-28 2014-09-23 Emc Corporation Method and system for using keywords to merge document clusters
US9244919B2 (en) * 2013-02-19 2016-01-26 Google Inc. Organizing books by series
US20140245066A1 (en) * 2013-02-27 2014-08-28 Lionel J. Riviere-Cazaux Scan diagnosis analysis using callout clustering
US9858330B2 (en) 2013-10-21 2018-01-02 Agile Legal Technology Content categorization system
US9535974B1 (en) * 2014-06-30 2017-01-03 Palantir Technologies Inc. Systems and methods for identifying key phrase clusters within documents
US9619557B2 (en) 2014-06-30 2017-04-11 Palantir Technologies, Inc. Systems and methods for key phrase characterization of documents
WO2016122512A1 (en) * 2015-01-29 2016-08-04 Hewlett-Packard Development Company, L.P. Segmentation based on clustering engines applied to summaries
JP7439435B2 (ja) * 2019-09-30 2024-02-28 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162012A (ja) * 1996-11-27 1998-06-19 Matsushita Electric Ind Co Ltd 文分類装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0513652A2 (en) * 1991-05-10 1992-11-19 Siemens Aktiengesellschaft Method for modelling similarity function using neural network
US5488725A (en) * 1991-10-08 1996-01-30 West Publishing Company System of document representation retrieval by successive iterated probability sampling
US5442778A (en) * 1991-11-12 1995-08-15 Xerox Corporation Scatter-gather: a cluster-based method and apparatus for browsing large document collections
JP3566720B2 (ja) * 1992-04-30 2004-09-15 アプル・コンピュータ・インコーポレーテッド コンピュータ・システムにおいて情報を編成する方法と装置
US5544352A (en) * 1993-06-14 1996-08-06 Libertech, Inc. Method and apparatus for indexing, searching and displaying data
US5619709A (en) * 1993-09-20 1997-04-08 Hnc, Inc. System and method of context vector generation and retrieval
US5931907A (en) * 1996-01-23 1999-08-03 British Telecommunications Public Limited Company Software agent for comparing locally accessible keywords with meta-information and having pointers associated with distributed information
NZ503279A (en) * 1997-09-04 2001-07-27 British Telecomm Selecting data sets using keywords suitable for searching
US5991756A (en) * 1997-11-03 1999-11-23 Yahoo, Inc. Information retrieval from hierarchical compound documents
US6330576B1 (en) * 1998-02-27 2001-12-11 Minolta Co., Ltd. User-friendly information processing device and method and computer program product for retrieving and displaying objects
DE69916272D1 (de) * 1998-06-08 2004-05-13 Kcsl Inc Methode und verfahren um relevante dokumente in einer datenbank zu finden
US6463430B1 (en) * 2000-07-10 2002-10-08 Mohomine, Inc. Devices and methods for generating and managing a database
WO2002033541A2 (en) * 2000-10-16 2002-04-25 Tangis Corporation Dynamically determining appropriate computer interfaces

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162012A (ja) * 1996-11-27 1998-06-19 Matsushita Electric Ind Co Ltd 文分類装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
OREN ZAMIR, OREN ETZIONI: "Grouper: A dynamic clustering interface to web search results", COMPUTER NETWORKS, vol. 31, no. 11-16, 17 May 1999 (1999-05-17), pages 1361 - 1374, XP002930746 *
See also references of EP1124189A4 *
SHIOMI ET AL.: "Thesaurus wo mochiita bunsho data no jidou bunrui hou", RESEARCH REPORT OF INFORMATION PROCESSING SOCIETY OF JAPAN (IPSJ), vol. 97, no. 4 (97-NL-117), 20 January 1997 (1997-01-20), (JAPAN), pages 99 - 104, XP002945886 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2379051B (en) * 2001-06-04 2005-12-07 Hewlett Packard Co System and method for combining voice annotation and recognition search criteria with traditional search criteria into metadata
JP2005250693A (ja) * 2004-03-02 2005-09-15 Tsubasa System Co Ltd 文字情報分類プログラム

Also Published As

Publication number Publication date
AU4954200A (en) 2000-12-28
US7213205B1 (en) 2007-05-01
EP1124189A4 (en) 2004-07-21
EP1124189A1 (en) 2001-08-16

Similar Documents

Publication Publication Date Title
WO2000075810A1 (fr) Procede de tri de documents, appareil de tri de documents et support enregistre sur lequel un programme de tri de documents est memorise
US10127225B2 (en) Automatic semantic rating and abstraction of literature
US5960383A (en) Extraction of key sections from texts using automatic indexing techniques
WO2000075809A1 (fr) Procede de triage d'informations, trieur d'informations, support enregistre sur lequel le programme de triage d'informations est enregistre
JP4129048B2 (ja) 固有表現抽出装置、方法、及びプログラム
US20060190435A1 (en) Document retrieval using behavioral attributes
JPWO2009096523A1 (ja) 情報分析装置、検索システム、情報分析方法及び情報分析用プログラム
JP2004287725A (ja) 検索処理方法及びプログラム
US7430552B2 (en) Computer based system and method of determining a satisfaction index of a text
CN109508448A (zh) 基于长篇文章生成短资讯方法、介质、装置和计算设备
JP3921837B2 (ja) 情報判別支援装置、情報判別支援プログラムを記録した記録媒体及び情報判別支援方法
US20060210171A1 (en) Image processing apparatus
JP6868576B2 (ja) 事象提示システムおよび事象提示装置
JP2010061176A (ja) テキストマイニング装置、テキストマイニング方法、および、テキストマイニングプログラム
JPH1027181A (ja) 文書評価装置
CN110909247B (zh) 文本信息的推送方法、电子设备及计算机存储介质
JP5224532B2 (ja) 評判情報分類装置及びプログラム
JP2009098952A (ja) 情報検索システム
JP3692416B2 (ja) 情報フィルタリング方法および装置
JP2005128872A (ja) 文書検索システム及び文書検索プログラム
JP2007293377A (ja) 主観的ページと非主観的ページを分離する入出力装置
CN114297449A (zh) 内容查找方法、装置、电子设备及计算机可读介质及产品
CN107943965B (zh) 相似文章检索方法及装置
JP2004246491A (ja) テキストマイニング装置及びテキストマイニングプログラム
JP2004206571A (ja) 文書情報提示方法及び装置並びにプログラム及び記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2001 502012

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09762126

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2000931690

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2000931690

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWR Wipo information: refused in national office

Ref document number: 2000931690

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2000931690

Country of ref document: EP