WO2020032125A1 - 議論支援装置および議論支援装置用のプログラム - Google Patents

議論支援装置および議論支援装置用のプログラム Download PDF

Info

Publication number
WO2020032125A1
WO2020032125A1 PCT/JP2019/031183 JP2019031183W WO2020032125A1 WO 2020032125 A1 WO2020032125 A1 WO 2020032125A1 JP 2019031183 W JP2019031183 W JP 2019031183W WO 2020032125 A1 WO2020032125 A1 WO 2020032125A1
Authority
WO
WIPO (PCT)
Prior art keywords
node
discussion
ideas
unit
idea
Prior art date
Application number
PCT/JP2019/031183
Other languages
English (en)
French (fr)
Inventor
孝行 伊藤
俊 白松
鈴木 祥太
Original Assignee
国立大学法人名古屋工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人名古屋工業大学 filed Critical 国立大学法人名古屋工業大学
Priority to US17/266,893 priority Critical patent/US11847421B2/en
Priority to JP2020535844A priority patent/JP7360655B2/ja
Publication of WO2020032125A1 publication Critical patent/WO2020032125A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/226Validation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present invention relates to a discussion support device and a program for the discussion support device.
  • the discussion support apparatus acquires a plurality of remarks (Xm) to the subject of discussion (Xs) via a communication network (2), and acquires the acquired plurality of statements (Xm).
  • a creating unit (S200) wherein the facilitation structure includes the subject (Xs) as a root node, each of a plurality of ideas included in the plurality of remarks, a plurality of evaluations, and a plurality of tasks.
  • the plurality of evaluations includes a node representing an idea of solving a problem to be a parent node among the problems, the plurality of evaluations includes a node representing an evaluation of a parent node of the plurality of ideas, and the plurality of problems are
  • the structure creation unit includes a node representing a task for evaluation to be a parent node among a plurality of ideas, and the structure creation unit reads the plurality of ideas (Xm) recorded in the storage medium (13) by the speech acquisition unit (S100).
  • An extracting unit (S205) for extracting the plurality of ideas, the plurality of evaluations, and the plurality of tasks; and the plurality of ideas, the plurality of evaluations, and the plurality of ideas extracted by the extracting unit (S205).
  • the discussion support apparatus extracts a plurality of ideas, a plurality of evaluations, and a plurality of issues from a plurality of remarks, and includes them as nodes and a tree structure having the subject of the discussion as a root node, that is, facilitation. Generate a structure.
  • the facilitation structure created in this manner is a structure for solving a problem in which a plurality of ideas, a plurality of evaluations, and a plurality of issues are interconnected. Therefore, the discussion support apparatus can assist in organizing discussions by generating a facilitation structure.
  • the extraction unit is a neural network that has been learned to output, for each of the plurality of utterances, an idea included in the utterance when the utterance is input.
  • a task extraction model (M04) which is a neural network that has been learned to output the included tasks, an idea, an evaluation, or a task included in the utterance is extracted.
  • the inventor has conceived of a method using a plurality of neural networks as a method of substituting this judgment by a computer.
  • the idea was conceived of preparing a neural network learned to output nodes corresponding to each type of idea, evaluation, and task, and using the neural network as described above.
  • it is possible to appropriately extract ideas, evaluations, and issues from statements while not relying on human intuition.
  • the specifying unit specifies a predicted parent node to be a parent node of the new node by the facility.
  • a prediction parent node generation unit (S210) to generate separately from the nodes in the stationation structure; and a high similarity node selection unit that selects, from the facilitation structure, a node whose similarity with the prediction parent node is higher than a predetermined reference. (S215), wherein the recording unit adds the new node to the facilitation structure as a child node of the node selected by the high similarity node selection unit.
  • a node to be a parent node of the node is generated in advance so as to be generated separately from the node in the facilitation structure.
  • the learning has been learned model is a neural network (M11-M16), by entering the new node, generating the prediction parent node.
  • the inventor of the present invention has conceived a method of substituting this judgment by a computer, instead of directly selecting a parent node of a new node corresponding to an idea, an evaluation, or a task, through indirect processing.
  • the idea when an idea, evaluation, or issue is extracted as a new node, the idea was to generate a predicted parent node to be the parent node of the new node separately from the nodes in the facilitation structure. In other words, the idea was first to create a predicted parent node as an ideal parent node, regardless of the nodes in the facilitation structure. Then, based on the similarity with the predicted parent node generated in this way, the idea of extracting a parent node to which a new node should be connected was conceived.
  • the inventor has found that it is relatively easy for a computer to generate an ideal parent node for a new node without being tied to a node in the facilitation structure. Therefore, by using an indirect method of generating an ideal parent node without being once tied to a node in the facilitation structure, it is possible to properly generate the parent node from the facilitation structure without relying on human intuition. You can select a node.
  • the predictive parent node generation unit is learned in advance so as to generate, when a certain node is input, a node to be the parent node of the node separately from the node in the facilitation structure.
  • the predicted parent node is generated by inputting the new node to the learned model (M11-M16) which is a neural network.
  • the neural network is suitable for processing of generating an ideal parent node without being bound by external data such as a facilitation structure, so that a more appropriate predicted parent node can be generated.
  • the prediction parent node generation unit when a certain idea is input, sets a node to be a parent node of the idea in the facilitation structure.
  • the predicted parent node is generated by inputting to a trained model (M11, M12) which is a neural network previously learned to be generated separately from the node.
  • a trained model (M13, M14) which is a neural network previously learned to generate a node to be a parent node of the evaluation separately from the nodes in the facilitation structure
  • the predicted parent node is generated by inputting the new Is a task, a learned model (M15, which is a neural network previously learned to generate a node to be a parent node of the task separately from a node in the facilitation structure when a task is input is generated. M16), the predicted parent node is generated.
  • the neural network is suitable for processing of generating an ideal parent node without being bound by external data such as a facilitation structure, so that a more appropriate predicted parent node can be generated.
  • a more appropriate prediction parent node is generated. Can be.
  • the discussion support device includes: a determination unit (S300) that determines whether a predetermined termination condition is satisfied for the discussion based on the facilitation structure; And a termination unit (S600) for creating data indicating that the discussion has been terminated so that the data can be transmitted via the communication network, based on the determination unit determining that the condition is satisfied.
  • a determination unit S300
  • S600 termination unit
  • the discussion support apparatus determines whether or not the termination condition is satisfied based on the facilitation structure, so that the discussion termination timing according to the content of the discussion can be selected. Further, based on the fulfillment of the termination condition, the data indicating that the discussion has been completed is created so that the data can be transmitted through the communication network, and the discussion is guided in the form of notifying the end of the discussion. It can be carried out.
  • the discussion support apparatus includes a question sentence for inducing a comment in the discussion based on the facilitation structure recorded in the storage medium (13) by the recording unit (S220). Is provided so as to be able to be transmitted via the communication network.
  • the discussion support apparatus acquires a plurality of remarks (Xm) for the subject of the discussion (Xs) via the communication network (2), and converts the acquired remarks (Xm).
  • a statement acquisition unit (S100) to be recorded on a storage medium (13); and a facilitation structure created based on the plurality of statements (Xm) acquired and recorded by the acquisition unit (S100).
  • a question sentence for inducing a comment in the discussion based on the facilitation structure recorded in the storage medium (13) by the structure acquisition unit (S200) recorded in the storage medium (S200).
  • a guidance unit (S500) for generating the data so that the subject (Xs) can be transmitted via a communication network.
  • the plurality of evaluations includes an evaluation of an idea to be a parent node among the plurality of ideas
  • the plurality of tasks include a node representing a task for an evaluation to be a parent node among the plurality of ideas.
  • the discussion support apparatus generates a question sentence based on the facilitation structure, which is a structure for solving a problem in which a plurality of ideas, a plurality of evaluations, and a plurality of issues are interconnected. This can guide the progress of the discussion according to the facilitation structure, and thus can support the progress of the discussion according to the content of the discussion.
  • the guiding unit determines, based on the fact that there is a specific node (M) having no child node among a plurality of nodes included in the facilitation structure, as the question sentence. , A sentence for inquiring about a phrase to be a child node of the specific node is created.
  • M specific node
  • the plurality of evaluations include a plurality of advantages and a plurality of disadvantages
  • the facilitation structure determines each of the plurality of advantages and each of the plurality of disadvantages.
  • the plurality of advantages represent advantages of the parent node idea among the plurality of ideas
  • the plurality of disadvantages represent disadvantages of the parent node idea of the plurality of ideas. It is characterized by the following. In this way, the evaluation is divided into advantages and disadvantages, so that the facilitation structure can be created more complicatedly.
  • the guiding unit determines the specific sentence as the question sentence based on the fact that there is a specific idea (C) in which a child node which is an advantage does not exist among the plurality of ideas.
  • the feature is to create a sentence inquiring about the merits of the idea.
  • the guiding unit determines, based on the fact that there is a specific idea that does not have a disadvantageous child node among the plurality of ideas, as the question sentence, It is characterized by creating a sentence for inquiring about disadvantages.
  • the guiding unit may be configured to, among a plurality of nodes included in the facilitation structure, a leaf node (L ), A sentence that prompts a comment based on the ancestor node (C) of the leaf node is created as the question sentence.
  • a plurality of remarks (Xm) for the subject of discussion (Xs) is obtained via the communication network (2), and the obtained remarks (Xm) are stored in the storage medium (13).
  • the discussion support apparatus includes: a statement acquisition unit (S100) that records a message in a form; and a structure creation unit (S200) that creates a facilitation structure based on the plurality of statements (Xm) acquired and recorded by the acquisition unit (S100).
  • the facilitation structure includes the subject (Xs) as a root node, and stores each of a plurality of ideas, a plurality of evaluations, and a plurality of tasks included in the plurality of remarks, Data representing a tree structure included as one node, wherein the plurality of ideas are the subject (Xs) or the plurality
  • the plurality of evaluations includes a node representing an idea of solving a problem to be a parent node among the problems
  • the plurality of evaluations includes a node representing an evaluation of a parent node of the plurality of ideas
  • the plurality of problems are
  • the structure creation unit includes a node representing a task for evaluation to be a parent node among a plurality of ideas, and the structure creation unit reads the plurality of ideas (Xm) recorded in the storage medium (13) by the speech acquisition unit (S100).
  • An extracting unit (S205) for extracting the plurality of ideas, the plurality of evaluations, and the plurality of tasks; and the plurality of ideas, the plurality of evaluations, and the plurality of ideas extracted by the extracting unit (S205).
  • a specifying unit (S210, S215) for specifying a connection mode between tasks;
  • a storage medium configured to create the facilitation structure so as to realize the connection between the plurality of ideas, the plurality of evaluations, and the plurality of tasks specified by the link unit (S210, S215);
  • a recording unit (S220) for recording the information in the program.
  • a plurality of remarks (Xm) on the subject of discussion (Xs) are obtained via the communication network (2), and the obtained plurality of remarks (Xm) are stored in the storage medium (13).
  • S200 based on the facilitation structure recorded in the storage medium (13) by the structure acquisition unit (S200), a question sentence for inducing a comment in the discussion can be transmitted via the communication network.
  • the program that causes the discussion support device to function as the guiding unit (S500) generated as described above includes the following: ) As a root node, and is data representing a tree structure including, as one node, each of a plurality of ideas, a plurality of evaluations, and a plurality of tasks included in the plurality of remarks.
  • the idea includes a node representing the subject (Xs) serving as a parent node or a plan for solving a task serving as a parent node among the plurality of tasks, and the plurality of evaluations serve as a parent node among the plurality of ideas.
  • the program includes a node representing an evaluation of an idea, and the plurality of tasks include a node representing a task for an evaluation to be a parent node among the plurality of ideas. Thereby, the same effect as the fourth aspect can be obtained.
  • FIG. 1 is a configuration diagram of a communication system according to an embodiment.
  • FIG. 3 is a block diagram illustrating a hardware configuration of the discussion support device.
  • FIG. 3 is a diagram illustrating a subject and a plurality of remarks for a certain agenda. It is a flowchart of a discussion support process. It is a figure showing an example of a facilitation structure. It is a flowchart of a process of creating a facilitation structure. It is a figure which shows the learned model which extracts an idea, an advantage, a disadvantage, and a task from a statement. It is a figure showing the learned model which outputs a prediction parent node from a node.
  • the communication system according to the present embodiment includes a discussion support device 1, a wide area network 2, a plurality of terminals 3 to 6, and the like. Although the number of the plurality of terminals 3 to 6 is only four in FIG. 1, it may be one hundred or more, one thousand or more, one million or more, or one billion or more.
  • the discussion support apparatus 1 and the plurality of terminals 3 to 6 are connected to the wide area network 2.
  • the wide area network 2 is a communication network covering a wide area such as the Internet. Transmission and reception performed by the discussion support apparatus 1 via the wide area network 2 are all performed using the communication interface 11.
  • the terminals 3 to 6 may be connected to the wide area network 2 by wire or wirelessly.
  • the wide area network 2 may be a personal computer, a smart phone, or a tablet PC.
  • the terminal 3 to 6 transmits the utterance data input by the user to the discussion support apparatus 1 via the wide area network 2.
  • the discussion support device 1 is an agreement formation support device that manages the progress of a plurality of types of discussions, supports the organization and progress of these types of discussions, and supports agreement formation. As shown in FIG. 2, the discussion support device 1 has a communication interface 11, a RAM 12, a flash memory 13, and a CPU 14. The communication interface 11 is an interface circuit for connecting to the wide area network 2.
  • the RAM 12 is a volatile storage medium.
  • the flash memory 13 is a nonvolatile storage medium.
  • the flash memory 13 may be replaced with a magnetic storage medium. Both the RAM 12 and the flash memory 13 are non-transitional substantive storage media.
  • the CPU 14 executes various programs stored in the flash memory 13, uses the RAM 12 as a work memory at the time of execution, and performs communication via the wide area network 2 using the communication interface 11.
  • the CPU 14 may receive the text data of the subject of the discussion and the corresponding discussion ID from another device connected to the wide area network 2 and record the text data in the flash memory 13.
  • the text data of the input subject and a corresponding discussion ID are stored in a flash memory. 13 may be recorded.
  • the discussion ID to be recorded may be a serial number indicating the order of recording in the flash memory 13, or may be another number.
  • the CPU 14 reads out a display program such as a Web server from the flash memory 13 and executes it.
  • the CPU 14 can transmit the subject and the discussion ID recorded in the flash memory 13 to the terminals 3 to 6 via the wide area network 2. That is, when the CPU 14 receives data of a predetermined display request from any one of the terminals 3 to 6 via the wide area network 2 in executing the display program, the CPU 14 reads all the data from the flash memory 13 in accordance with the received display request. Of the subject and the discussion ID. Then, the CPU 14 transmits the read subject and the discussion ID to the one terminal via the wide area network 2.
  • the one terminal that has received the subject and the discussion ID displays the received subject on a display unit (for example, a liquid crystal display) (not illustrated) of the one terminal. Thereby, the users of the terminals 3 to 6 can browse the subject of the discussion recorded in the discussion support apparatus 1.
  • a display unit for example, a liquid crystal display
  • each of the terminals 3 to 6 wishes to express an opinion on one of the plurality of the viewed subjects
  • the user operates an operation unit (not shown) of the terminal to operate the one of the terminals. Specify the subject, and then enter your remark. Then, the terminal generates text data representing the input utterance, and posts, via the wide area network 2, the post data in which the generated text data is associated with the discussion ID corresponding to the specified subject. Send to 1.
  • the CPU 14 of the discussion support apparatus 1 When the CPU 14 of the discussion support apparatus 1 receives the post data transmitted in this way via the wide area network 2, the CPU 14 of the discussion support apparatus 1 includes a time stamp in the received post data and further flashes the post data including the time stamp.
  • the data is additionally recorded in the memory 13.
  • the time stamp included in the posted data is the time stamp (for example, date and time) when the discussion support device 1 receives the posted data.
  • the CPU 14 executes the above-described display program to transfer these subjects recorded in the flash memory 13, the discussion ID associated with the subjects, and the posted data to the terminals 3 to 6 via the wide area network 2. Transmission is possible. That is, when the CPU 14 receives display request data specifying a specific discussion ID from any one of the terminals 3 to 6 via the wide area network 2 in the execution of the display program, the CPU 14 responds to the received display request. , The subject corresponding to the discussion ID and all the statements corresponding to the discussion ID are read from the flash memory 13. Then, the CPU 14 transmits the read subject and the remark to the one terminal via the wide area network 2.
  • the one terminal that has received the subject and the statement displays the received subject and the statement on a display unit (for example, a liquid crystal display) (not illustrated) of the one terminal.
  • a display unit for example, a liquid crystal display
  • the users of the terminals 3 to 6 can browse all the subjects and remarks of the specific discussion recorded in the discussion support apparatus 1.
  • the CPU 14 of the discussion support apparatus 1 executes the discussion support processing shown in FIG. 4 in parallel with the number of discussions recorded in the flash memory 13.
  • the plurality of consensus building support processes correspond one-to-one with a plurality of types of discussions recorded in the flash memory 13.
  • Each of the plurality of consensus building support processes is a process for supporting that consensus is formed in the corresponding discussion.
  • the consensus formation support processing program is stored in the flash memory 13 in advance. The CPU 14 realizes the processing shown in FIG. 4 by executing this program.
  • the CPU 14 first waits at step S100 until new post data having the same discussion ID as the corresponding discussion is received via the wide area network 2, and upon receiving the new post data, Read and get the utterance.
  • step S200 the CPU 14 creates a facilitation structure based on the acquired remark.
  • the facilitation structure corresponding to a certain discussion is data representing a tree structure as shown in FIG.
  • This facilitation structure includes the subject Xs of the corresponding discussion as a root node.
  • this facilitation structure is designed to include each of a plurality of ideas B1 to B6, a plurality of advantages C1 to C4, a plurality of disadvantages D1 to D6, and a plurality of problems E1 to E3 included in a plurality of remarks Xm regarding the corresponding discussion.
  • the advantages C1 to C4 and the disadvantages D1 to D6 are also evaluation nodes. In this way, the evaluation is divided into advantages and disadvantages, so that the facilitation structure can be created more complicatedly.
  • the plurality of nodes Xs, B1 to B6, C1 to C4, D1 to D6, and E1 to E3 are connected by a plurality of links.
  • the links are represented by arrow lines. Any one of the plurality of links is connected to only one parent node and two child nodes of the parent node. The tip of the arrow connects to the parent node, and the root connects to the child node. A parent node is closer to the root node than a child node of the parent node. Note that being close to the root node means that the number of links to be reached to reach the root node is small. Each child node has only one parent node.
  • the idea is a node that represents a solution to the subject Xs or a problem, such as “increase the number of lanes” or “the traffic congestion problem is not related to people leaving”.
  • the idea B6 of "there is no relation to the traffic congestion problem with people going out” is a plan to solve the problem by invalidating the target problem of "would people go out?" . Therefore, the ideas B1 to B6 have the subject Xs, the tasks E1 to E3, or another idea B2 as the parent node, and do not have the advantages and disadvantages as the parent nodes. If an idea has a subject or problem as a parent node, the idea represents a solution to the subject or problem.
  • the ideas B3 and B4 have another idea B2 as a parent node
  • the ideas B3 and B3 represent ideas that are more specialized or embodied versions of idea B2 that is a parent node.
  • Advantages C1 to C4 are nodes that represent the advantages (that is, good evaluation) of the idea to be the parent node, such as “the amount of cars that can be run is likely to increase” and “the train can be used easily”. Therefore, the advantages C1 to C4 use the ideas B1 to B5 as parent nodes, and do not use any of the theme, other advantages, disadvantages, and tasks as parent nodes.
  • Disadvantages D1 to C6 are nodes that represent the disadvantages (that is, bad evaluation) of the idea to be the parent node, such as “influences the management of private railway companies” and “costs construction”. Therefore, the disadvantages D1 to D6 have the ideas B1 to B5 as parent nodes, and do not have any of the theme, advantages, other disadvantages, and tasks as parent nodes.
  • the tasks E1 to E3 are nodes that represent tasks for the advantages of the parent node or the disadvantages of the parent node, such as “Is congestion in trains a problem?” Or “Is there a way to move a company?” It is. Therefore, in the tasks E1 to E3, the advantages C2 and C3 or the disadvantage D6 are set as the parent nodes, and none of the subjects, ideas, and tasks are set as the parent nodes.
  • the CPU 14 of the discussion support apparatus 1 performs the process shown in FIG. 6 in step S200 to create such a facilitation structure.
  • the CPU 14 first determines in step S205, from one statement newly acquired in step S100 immediately before the corresponding discussion (hereinafter referred to as a newly acquired statement), zero or more ideas and zero or more ideas.
  • a newly acquired statement one statement newly acquired in step S100 immediately before the corresponding discussion (hereinafter referred to as a newly acquired statement).
  • the advantages, zero or more disadvantages, and zero or more issues are extracted as new nodes.
  • a certain statement may include only one of an idea phrase, an advantage phrase, a disadvantage phrase, and a problem phrase.
  • the CPU 14 extracts the one phrase.
  • a phrase refers to a group of words that appear continuously in the same utterance.
  • step S205 the CPU 14 extracts a phrase of the idea of "increase the number of lanes” and does not extract other phrases.
  • the CPU 14 determines in step S205 whether the advantage phrase is extracted and other phrases are not extracted, or the disadvantage phrase is extracted and other phrases are not extracted. May be extracted and other phrases may not be extracted.
  • the CPU 14 may extract a plurality of combinations of the idea phrase, the advantage phrase, the disadvantage phrase, and the problem phrase from the same statement.
  • the CPU 14 performs the processing of step S205 using a learned model formed of a neural network.
  • the learned models used in step S205 are an idea extraction model M01, an advantage extraction model M02, a disadvantage extraction model M03, and a task extraction model M04 shown in FIG. These learned models M01 to M04 to be used are recorded in the flash memory 13 in advance.
  • the advantage extraction model M02 and the disadvantage extraction model M03 each correspond to an example of an evaluation extraction model.
  • step S205 the CPU 14 divides the newly acquired utterance into a plurality of words (ie, morphemes) by a known morphological analysis process or the like. Further, a distributed expression is calculated for each of the obtained words.
  • the calculation method of the distributed expression is well-known, for example, a well-known algorithm used in Wrod2Vec, Glove, or the like may be adopted.
  • the CPU 14 inputs the obtained distributed expressions of the plurality of words to each of the learned models M01 to M04.
  • a group of distributed expressions of a plurality of words included in the phrase is output from the idea extraction model M01.
  • the advantage extraction model M02 if there is a phrase corresponding to an advantage in a new comment, a group of distributed expressions of a plurality of words included in the phrase is output.
  • the weak point extraction model M03 if there is a phrase corresponding to a weak point during a new comment, a group of distributed expressions of a plurality of words included in the phrase is output.
  • a group of distributed expressions of a plurality of words included in the phrase is output.
  • a group of distributed expressions of the phrases output from the learned models M01 to M04 in this manner becomes a new node.
  • these learned models M01 to M04 for example, well-known neural networks such as well-known neural networks such as Bilateral RNN (Recent Neural Network), LSTM (Long short-term memory), and CNN (Convolution Neural Network) are also used. Good.
  • well-known neural networks such as Bilateral RNN (Recent Neural Network), LSTM (Long short-term memory), and CNN (Convolution Neural Network) are also used. Good.
  • the inventor has conceived of a method of using a plurality of learned models M01 to M04, which are a plurality of neural networks, as a method of substituting this judgment by a computer.
  • the idea was conceived of preparing a neural network learned to output nodes corresponding to each type of idea, evaluation, and task, and using the neural network as described above.
  • it is possible to appropriately extract ideas, evaluations, and issues from statements while not relying on human intuition.
  • step S210 the CPU 14 proceeds from step S205 to step S210, and generates a predicted parent node corresponding to the new node extracted in the immediately preceding step S205 for the corresponding discussion, separately from the node in the current facilitation structure.
  • To be generated separately from a node in the current facilitation structure means to newly create a node irrelevant to a node in the current facilitation structure.
  • the CPU 14 performs the process of step S210 using a learned model of the neural network.
  • the learned models used in step S205 are the learned models M11 to M16 shown in FIG. These used learned models M11 to M16 are recorded in the flash memory 13 in advance.
  • the learned model M11 is a model that, when a representative distributed expression of an idea is input, outputs a predicted value of a representative distributed expression of a task to be a parent node of the idea (that is, a predicted parent node to be a task).
  • the representative distributed expression of a certain node is a representative value of the distributed expression of a plurality of words included in the phrase represented by the node.
  • the number of dimensions of the representative distributed expression is the same as the number of dimensions of each distributed expression. For example, an average value may be used as the representative value.
  • the learned model M12 is a model that, when a representative distributed expression of an idea is input, outputs a predicted value of a representative distributed expression of an idea to be a parent node of the idea (that is, a predicted parent node to be an idea).
  • the learned model M13 is a model that, when a representative distributed expression of an advantage is input, outputs a predicted value of a representative distributed expression of an idea to be a parent node of the advantage (that is, a predicted parent node serving as an idea).
  • the learned model M14 is a model that, when a representative variance expression of a disadvantage is input, outputs a predicted value of a representative variance expression of an idea to be a parent node of the disadvantage (that is, a prediction parent node serving as an idea).
  • the learned model M15 is a model that, when a representative distributed expression of a task is input, outputs a predicted value of a representative distributed expression of an advantage to be a parent node of the task (that is, a predicted parent node that is an advantage).
  • the learned model M16 is a model that, when a representative distributed expression of a task is input, outputs a predicted value of a representative distributed expression of a disadvantage to be a parent node of the task (that is, a predicted parent node that is a disadvantage).
  • step S205 If the new node extracted in step S205 is an idea, the CPU 14 inputs the idea to both the learned model M11 and the learned model M12. As a result, a predicted parent node serving as a task is extracted from the learned model M11, and a predicted parent node serving as an idea is extracted from the learned model M12.
  • step S205 If the new node extracted in step S205 is an advantage, the CPU 14 inputs it to the learned model M13. As a result, a predicted parent node serving as an idea is extracted from the learned model M13. If the new node extracted in step S205 is a disadvantage, the CPU 14 inputs it to the learned model M14. As a result, a predicted parent node serving as an idea is extracted from the learned model M14.
  • step S205 If the new node extracted in step S205 is a task, the CPU 14 inputs it to both the learned model M15 and the learned model M16. As a result, a predicted parent node that is an advantage is extracted from the learned model M15, and a predicted parent node that is a disadvantage is extracted from the learned model M16.
  • the learned models M11 to M16 for example, well-known neural networks such as a known Bilateral RNN (Recent Neural Network), an LSTM (Long Short-Term Network), and a CNN (Convolution Neural Network) may be used. Good.
  • a known Bilateral RNN Recent Neural Network
  • LSTM Long Short-Term Network
  • CNN Convolution Neural Network
  • step S215 a node having the highest similarity to the predicted parent node generated in step S210 immediately before for the corresponding discussion is selected from the facilitation structure currently created for the corresponding discussion.
  • the node included in the facilitation structure corresponding to a certain discussion is only the root node Xs corresponding to the subject of the discussion at the point in time when the discussion support apparatus 1 has not yet obtained a comment corresponding to the discussion.
  • the data of the root node Xs corresponding to the subject of the discussion includes text data of a phrase constituting the subject of the discussion, a set of distributed expressions of words constituting the phrase, and a representative distributed expression of the phrase.
  • step S205 it is assumed that the CPU 14 extracts an idea as a new node in step S205, and generates a predicted parent node to be a problem and a predicted parent node to be an idea as described above in step S210.
  • step S215 based on the fact that the node included in the facilitation structure is only the root node, the CPU 14 determines the similarity between the target parent node and the root node Xs as shown in FIG. calculate.
  • the index of the similarity for example, the cosine similarity between the representative variance of the predicted parent node to be the subject and the representative variance of the root node may be used, or another similarity index may be used. . The same applies to the similarity between the predicted parent node and the node in the facilitation structure.
  • the root node Xs is selected as the parent node of the new node. If the similarity between the predicted parent node and the root node is less than the reference value, the root node Xs is not selected as the parent node of the new node.
  • FIG. 9 is a conceptual diagram of a process of selecting the root node Xs as a parent node of a new node, which is an idea, when the node included in the facilitation structure is only the root node Xs.
  • the CPU 14 extracts any of the advantages, disadvantages, and issues as a new node in step S205, and determines a predicted parent node corresponding to the new node in step S210. Assume that it is generated. At this time, in step S215, the CPU 14 does not select the parent node of the new node based on the fact that the node included in the facilitation structure is only the root node.
  • FIG. 10 is a conceptual diagram of a process of selecting a parent node from new nodes as ideas when there are a plurality of nodes included in the facilitation structure.
  • the CPU 14 extracts the idea as a new node in step S205, and generates the predicted parent node as the problem and the predicted parent node as the idea in step S210 as described above. I do.
  • step S215 the CPU 14 calculates the similarity between the subject parent node and the root node Xs, and includes the predicted parent node and the facilitation structure in the facilitation structure. The similarity between each of the tasks is calculated. Further, in step S215, as shown in FIG. 10, the CPU 14 calculates the similarity between the predicted parent node as the idea and each of the tasks included in the facilitation structure. Therefore, the number of calculated similarities is equal to the total number of root nodes Xs, issues, and ideas included in the facilitation structure.
  • the CPU 14 assigns the node having the highest similarity higher than the reference value and the highest similarity among the calculated similarities to the root node Xs, the task, and the idea (that is, the root node Xs, the task, or the idea) to the new node Select as parent node of. If all of the plurality of calculated similarities are lower than the reference value, the parent node of the new node is not selected.
  • FIG. 11 is a conceptual diagram of a process of selecting a parent node from new nodes, which are advantages when there are a plurality of nodes included in the facilitation structure.
  • the CPU 14 extracts advantages as a new node in step S205 and generates a predicted parent node as an idea in step S210 as described above.
  • the CPU 14 calculates the similarity between the predicted parent node as the idea and each of the ideas included in the facilitation structure, as shown in FIG. Then, among the calculated similarities, the CPU 14 selects a node having a higher similarity than the reference value and the highest similarity as a parent node of the new node. If all of the plurality of calculated similarities are lower than the reference value, the parent node of the new node is not selected.
  • FIG. 12 is a conceptual diagram of a process of selecting a parent node from new nodes, which are disadvantages, when there are a plurality of nodes included in the facilitation structure.
  • the CPU 14 extracts the disadvantages as new nodes in step S205 and generates a predicted parent node as an idea in step S210 as described above.
  • step S215 as shown in FIG. 12, the CPU 14 calculates the similarity between the predicted parent node serving as the idea and each of the ideas included in the facilitation structure.
  • the CPU 14 selects a node having a higher similarity than the reference value and the highest similarity as a parent node of the new node. If all of the plurality of calculated similarities are lower than the reference value, the parent node of the new node is not selected.
  • FIG. 13 is a conceptual diagram of a process of selecting a parent node from a new node which is an issue when there are a plurality of nodes included in the facilitation structure.
  • the CPU 14 extracts the task as a new node in step S205 and generates the predicted parent node as the advantage and the predicted parent node as the disadvantage in step S210 as described above. I do.
  • step S215 the CPU 14 calculates the similarity between the predicted parent node, which is the advantage, and each of the advantages included in the facilitation structure. Further, as shown in FIG. 13, the CPU 14 calculates the similarity between the disadvantageous predicted parent node and each of the disadvantages included in the facilitation structure.
  • the CPU 14 selects, as the parent node of the new node, a node having a higher similarity than the reference value and the highest similarity among the calculated similarities with the advantages and disadvantages. If all the calculated similarities are lower than the reference value, the parent node of the new node is not selected.
  • step S215 any node in the existing facilitation structure whose new node is an existing node is selected as a parent node of the new node. Thereby, the parent-child relationship between the node in the existing facilitation structure and the new node is specified.
  • the inventor of the present invention has conceived a method of substituting this judgment by a computer, instead of directly selecting a parent node of a new node corresponding to an idea, an evaluation, or a task, through indirect processing.
  • the idea when an idea, evaluation, or issue is extracted as a new node, the idea was to generate a predicted parent node to be the parent node of the new node separately from the nodes in the facilitation structure. In other words, the idea was first to create a predicted parent node as an ideal parent node, regardless of the nodes in the facilitation structure. Then, based on the similarity with the predicted parent node generated in this way, the idea of extracting a parent node to which a new node should be connected was conceived.
  • the inventor has found that it is relatively easy for a computer to generate an ideal parent node for a new node without being tied to a node in the facilitation structure. Therefore, by using an indirect method of generating an ideal parent node without being once tied to a node in the facilitation structure, it is possible to properly generate the parent node from the facilitation structure without relying on human intuition. You can select a node.
  • the neural network is suitable for processing of generating an ideal parent node without being bound by external data such as a facilitation structure, so that a more appropriate predicted parent node can be generated.
  • a more appropriate predicted parent node is generated by using a neural network that has been learned to output a predicted parent node suitable for a node corresponding to the type of a new node such as an idea, an evaluation, and a task. be able to.
  • the CPU 14 can perform the above-described processing without any particular problem, regardless of whether the total number of obtained statements is 100 or more, 1000 or more, or 10,000 or more. it can.
  • step S220 the CPU 14 adds the new node to the facilitation structure so that the new node becomes a child node of the node selected as the parent node in step S215 immediately before the corresponding discussion.
  • the CPU 14 records a time stamp in the flash memory 13 in association with the new node to be added and the new node.
  • the recorded time stamp is the time stamp of the posted data including the phrase indicated by the associated new node.
  • the contents of the facilitation structure in the flash memory 13 are rewritten.
  • the new node becomes a child node of the existing node.
  • the time stamp associated with the child node in the facilitation structure indicates a time point later than the time stamp associated with the parent node.
  • step S215 If the parent node of the new node is not selected in step S215 immediately before the corresponding discussion, the new node is not added to the facilitation structure in step S220.
  • step S220 ends, the process of step S200 in FIG. 4 ends.
  • step S300 the CPU 14 determines the agreement of the subject discussion.
  • agreement determination it is determined whether or not the agreement condition is satisfied, that is, whether or not the target discussion has been sufficiently exhausted.
  • the terms of the agreement are used as a terminating condition for the discussion.
  • the point in time when the subject discussion starts may be the point in time when the subject Xs of the discussion can be browsed by the terminals 3 to 6, or the CPU 14 of the discussion support apparatus 1 determines the first time corresponding to the discussion. It may be the time when the post data is received.
  • the time point when the first post data is received can be specified from the earliest time stamp among the time stamps included in the post data corresponding to the discussion.
  • the agreement condition may be a condition that the number of ideas exceeds the reference number in the facilitation structure of the subject discussion. Further, as the agreement condition, a condition that the number of issues exceeds the reference number in the facilitation structure of the target discussion may be adopted.
  • a condition that the facilitation structure of the subject discussion is sufficiently uniform and the complexity of the facilitation structure exceeds a reference value may be adopted.
  • the shape of the facilitation structure is sufficiently uniform is sufficiently uniform, for example, when the degree of variation (for example, standard deviation) of the depth of all leaf nodes from the average value is smaller than a reference value. If the value is not less than the value, it may be determined that the values are not sufficiently equal.
  • whether or not the form of the facilitation structure is sufficiently uniform is sufficiently uniform, for example, when the degree of variation (for example, standard deviation) of the number of branches of all nodes from the average value is smaller than a reference value. If it is not less than the reference value, it may be determined that it is not sufficiently uniform.
  • degree of variation for example, standard deviation
  • a leaf node refers to a node having no child nodes.
  • the leaf node depth refers to the number of links that pass from the leaf node to the root node.
  • the number of branches of a node refers to the number of child nodes of the node.
  • the complexity of the facilitation structure may be the depth of the node having the largest depth in the facilitation structure, or may be the total number of nodes included in the facilitation structure. As the complexity of the facilitation structure, any index may be used as long as the index increases as the facilitation structure becomes more complex.
  • agreement may be set differently for each discussion. This is because while some discussions should be performed broadly and shallowly, others should be performed narrowly and deeply. Which agreement condition is set for which discussion may be determined by a person or may be determined automatically.
  • step S400 If it is determined in step S400 that the agreement condition is not satisfied in step S300 immediately before the corresponding discussion, the CPU 14 proceeds to step S500 and determines that the agreement condition is satisfied. The process proceeds to step S600.
  • step S500 facilitation is performed based on the created facilitation structure. That is, a question sentence for inducing a corresponding discussion to guide the user of the terminal 3 to 6 to make a comment can be transmitted to the terminal 3 to 6 via the wide area network 2. I do.
  • the process of step S500 may be performed each time a new comment is obtained for the corresponding discussion, or may be performed each time a new comment is obtained a predetermined number of times (for example, 10 times). It may be.
  • step S500 as shown in FIG. 14, first, in step S510, the CPU 14 extracts a node of interest from the corresponding discussion facilitation structure.
  • the attention node is a node for creating a question sentence based on the attention node.
  • the node of interest is a node that is expected to be deepened by adding a child node to the node of interest.
  • the node of interest is a node that is likely to have child nodes added to the node of interest.
  • the nodes of interest in the facilitation structure include, for example, the following nodes.
  • (1) The problem where the child node which is the idea does not exist (2) The idea where the child node which is the advantage does not exist (3) The idea where the child node which is the disadvantage does not exist (4)
  • the predetermined grace time elapses after being generated Even if no child node is generated, a leaf node that meets any of the conditions (1) to (4) is extracted as a target node.
  • a descendant node of a certain node refers to all nodes that can be reached from the certain node by following links in a direction opposite to the root node.
  • descendant nodes of the node B5 illustrated in FIG. 5 are the nodes C4, D5, D6, and E3.
  • the ancestor node of a certain node means all nodes that can be reached from the certain node by following links in the direction of the root node.
  • the grace time in the condition (4) may be, for example, a time of one hour or more, a time of two days or more, a time of one week or more, or the like.
  • the generation time of a node can be confirmed by the time stamp associated with the node.
  • node A is a root node
  • nodes B, C, J, K, and L are nodes corresponding to ideas
  • nodes D, F, and G are nodes corresponding to advantages
  • node E is a disadvantage
  • nodes H, I, and M are the nodes corresponding to the problem.
  • the connection relationship between these nodes is as shown by the link represented by the arrow line.
  • the discussion on the idea of the node L is stagnant, and the child node of the node L is not generated even after the grace period has elapsed after the generation of the node L. In that case, the node L is extracted as the target node corresponding to the condition (4).
  • step S520 the CPU 14 generates a question sentence corresponding to the attention node for each attention node extracted in step S510 immediately before the corresponding discussion.
  • a question sentence is generated by applying the phrase represented by the node of interest to a predetermined template.
  • the template is a fixed phrase and is recorded in the flash memory 13 in advance.
  • the template corresponding to the target node extracted by satisfying the above condition (1) is “Do you have an idea for assignment Y?”, And the part of Y represents the target node.
  • Phrases eg, "Is there a way to move a company?”
  • the question is, "Do you have any ideas for the challenge” Is there a way to move the company? " ".
  • the question sentence is a sentence for inquiring about an idea for a specific task that is a node of interest.
  • the question sentence associated with the node of interest M is generated in such a manner.
  • the template corresponding to the target node extracted by satisfying the above condition (2) is “Is there an advantage to idea Y?”
  • the question sentence becomes a sentence for inquiring about the merits of the specific idea that is the node of interest.
  • a question sentence a sentence that inquires about the advantages of an idea that does not have child nodes that are advantages, it is possible to inform the user of a part of the discussion that still has room for progress. Therefore, it is possible to effectively promote the progress of the discussion.
  • the template corresponding to the target node extracted by satisfying the above condition (3) is “Is there a disadvantage to idea Y?”, And the part of Y corresponds to the target node.
  • the question sentence becomes a sentence for inquiring about the shortcomings of the particular idea that is the node of interest.
  • the question sentence associated with the node of interest C is generated in such a manner. In this way, by creating, as a question sentence, a sentence for asking a disadvantage for an idea that does not have a child node that is a disadvantage, it is possible to inform the user of a part of the discussion that still has room for progress. Therefore, it is possible to effectively promote the progress of the discussion.
  • the template corresponding to the attention node extracted by satisfying the above condition (4) is “Deadlined, but since V: W was originally discussed, let's go back and discuss.” That is. Then, the type (for example, idea) of a specific ancestor node (for example, node C) of the target node is applied to the portion of V. Also, the phrase represented by the ancestor node is applied to the W portion.
  • the question sentence is a sentence that prompts a comment based on the ancestor node of the node of interest.
  • the question sentence associated with the node L in FIG. 15 is also generated in such a manner.
  • the CPU 14 may adopt, for example, an idea node closest to the target node among all the ancestor nodes of the target node as the specific ancestor node of the target node.
  • an issue node closest to the target node among all ancestor nodes of the target node may be adopted.
  • the node closest to the target node is a node that has the fewest number of links to follow from the target node to the closest node.
  • the node selected as a specific ancestor node of the target node changes from the target node every time the target node is selected. You may move away one step at a time.
  • One stage refers to following one link.
  • step S530 the CPU 14 determines whether or not each of the one or more question sentences generated in step S520 immediately before the corresponding discussion is valid.
  • the syntax analysis of the question sentence whose validity is to be determined is performed. That is, the question sentence is divided into a plurality of words by morphological analysis, the parts of speech of the plurality of words are specified, the dependency relation between the parts of speech is specified, and the subject and the predicate are further specified. Then, when there is an abnormality in the syntax analysis, it is determined that the question sentence is not valid, and when there is no abnormality, it is determined that the question sentence is valid.
  • An abnormality in the syntax analysis refers to, for example, a state in which the subject is not specified, a plurality of predicates are specified, a verb cannot be specified, or there is an adjective having no relation to the grammar.
  • the CPU 14 may determine whether or not each question sentence is valid using a learned validity determination model formed of a neural network.
  • the learned validity determination model is recorded in the flash memory 13 in advance.
  • step S530 the CPU 14 inputs a group of distributed expressions of a plurality of words included in the question sentence to the learned validity determination model.
  • the validity determination model outputs a determination result as to whether the question sentence is valid or not.
  • the learned validity determination model for example, a well-known neural network such as a well-known Bilateral RNN (Recent Neural Network), an LSTM (Long short-term network), and a CNN (Convolution Neural Network) is used. Is also good.
  • a well-known neural network such as a well-known Bilateral RNN (Recent Neural Network), an LSTM (Long short-term network), and a CNN (Convolution Neural Network) is used. Is also good.
  • step S540 the CPU 14 posts a question sentence determined to be appropriate in the immediately preceding step S530 for the corresponding discussion as a statement to the corresponding discussion.
  • the post data at the present time is associated with the text data of the question sentence and the discussion ID of the corresponding discussion.
  • the time stamp is recorded in the flash memory 13.
  • the post data generated by the discussion support apparatus 1 and recorded in the flash memory 13 in this manner is not used for creating a facilitation structure in step S200 in FIG.
  • step S540 CPU 14 ends the process of step S500.
  • step S500 the process returns to step S100 and waits until the next comment is posted via the wide area network 2 in the corresponding discussion.
  • the posting data of the question sentence generated by the discussion support apparatus 1 in step S500 and recorded in the flash memory 13 is transmitted to the terminal via the wide area network 2 by the discussion support apparatus 1 executing the above-described display program.
  • step S600 after determining that the agreement condition has been satisfied, CPU 14 ends the corresponding discussion.
  • the text data indicating that the discussion has ended and the discussion ID of the corresponding discussion are associated with each other and recorded in the flash memory 13 as posted data.
  • the text data indicating that the discussion has ended may be, for example, text data of a character string “this discussion has ended”.
  • the post data indicating that the discussion has ended is transmitted to the terminals 3 to 6 via the wide area network 2 by the discussion support apparatus 1 executing the above-described display program. Therefore, the post data indicating that the discussion has ended can be browsed by the terminals 3 to 6 in the same manner as other post data. Further, the CPU 14 discards post data including the discussion ID of the corresponding discussion without recording it in the flash memory 13 even if it is received thereafter. That is, the CPU 14 ends the reception of a comment on the corresponding discussion.
  • the discussion support apparatus 1 determines whether or not the agreement condition is satisfied based on the facilitation structure, so that the discussion end timing according to the content of the discussion can be selected.
  • the discussion support device 1 creates data indicating that the discussion has ended based on the satisfaction of the agreement condition so that the data can be transmitted via the wide area network 2. Thereby, it is possible to guide the discussion in a form of notifying the end of the discussion.
  • the CPU 14 may allow the terminals 3 to 6 to browse the current facilitation structure in step S600.
  • the image data representing the current facilitation structure is recorded in the flash memory 13 in association with the discussion ID of the corresponding discussion.
  • the image data representing the current facilitation structure is posted as one statement of the corresponding discussion. Therefore, the image data can be browsed by the terminals 3 to 6 by the discussion support apparatus 1 executing the above-described display program, like the other posted data.
  • the CPU 14 of the discussion support apparatus 1 repeats the processing of steps S100, S200, S330, S400, and S500 in this order before determining that the agreement condition is satisfied in step S400.
  • step S100 is repeated a plurality of times, so that a plurality of remarks Xm for the subject Xs of the corresponding discussion is obtained via the wide area network 2, and the obtained plurality of remarks Xm are recorded in the flash memory 13. .
  • the CPU 14 functions as a comment acquisition unit by repeatedly executing step S100.
  • a facilitation structure is created based on a plurality of statements Xm in the flash memory 13.
  • the CPU 14 functions as a structure creation unit and a structure acquisition unit by repeatedly executing step S200.
  • step S205 a plurality of ideas, a plurality of evaluations, and a plurality of tasks are extracted from the plurality of remarks Xm in the flash memory 13.
  • the CPU 14 functions as an extraction unit by repeatedly executing step S205.
  • connection mode between the plurality of nodes in the facilitation structure is specified.
  • the connection mode between a plurality of nodes refers to a connection mode via a link between the nodes, that is, a parent-child relationship between the nodes.
  • the CPU 14 functions as a specifying unit by repeatedly executing steps S210 and S215.
  • step S220 By repeatedly executing step S220, a facilitation structure is created and recorded in the flash memory 13 so as to realize a connection form among a plurality of ideas, a plurality of evaluations, and a plurality of tasks.
  • the CPU 14 functions as a recording unit by repeatedly executing step S220.
  • the CPU 14 functions as a determination unit by executing step S300, functions as a guiding unit by executing step S500, and functions as a termination unit by executing step S600.
  • the CPU 14 functions as a predicted parent node generating unit by executing step S210, and functions as a highly similar node selecting unit by executing step S215.
  • the discussion support apparatus 1 extracts a plurality of ideas, a plurality of evaluations, and a plurality of issues from a plurality of remarks, and includes them as nodes and a tree structure having the subject of the discussion as a root node, that is, a facilitation tree. Generate the configuration of the station.
  • the facilitation structure created in this manner is a structure for solving a problem in which a plurality of ideas, a plurality of evaluations, and a plurality of issues are interconnected. Therefore, the discussion support device 1 can support the arrangement and progress of the discussion by generating the facilitation structure.
  • the creation of the learned models M01 to M04 may be performed by the discussion support apparatus 1 or by a computer other than the discussion support apparatus 1.
  • a case where the discussion support apparatus 1 performs the processing will be described, but the same applies to a case where a computer other than the discussion support apparatus 1 performs the processing.
  • the creator of the learned models M01 to M04 creates teaching data and records it in the flash memory 13.
  • the teaching data includes a plurality of (for example, 1,000 or more, one million or more, one billion or more, etc.) utterance text data, and first type annotation data for each of the plurality of utterance text data. .
  • Each type 1 annotation data includes information indicating a phrase corresponding to an idea, information indicating a phrase corresponding to an advantage, information indicating a phrase corresponding to a disadvantage in text data of a target utterance, and And information indicating the corresponding phrase.
  • the text data of a statement constituting the teaching data may be obtained from the server of another SNS via the wide area network 2 and recorded in the flash memory 13 by the CPU 14, for example.
  • SNS is an abbreviation for Social ⁇ Networking ⁇ Service.
  • Each type 1 annotation data may be created after a person understands the meaning of the text data of the corresponding utterance, and may be input to the discussion support apparatus 1 using an input device (not shown). In that case, the CPU 14 of the discussion support apparatus 1 records the input first type annotation data in the flash memory 13 in association with the corresponding utterance.
  • the CPU 14 learns the learned models M01 to M04 using the teaching data prepared in this way. For this reason, the neural network corresponding to the model before learning of the learned models M01 to M04 is recorded in the flash memory 13 as a model before learning.
  • the CPU 14 when creating the trained model M01, causes the neural network having the same structure as that of the pre-learning model to perform supervised learning. Specifically, for each of a plurality of utterances in the teaching data in the flash memory 13, the utterance is input, and the phrase of the idea indicated by the first type annotation data corresponding to the utterance is used as the correct answer data, and the error is output. Learning is performed using a back propagation method or the like. Thereby, the learned model M01 is created.
  • the data format of an utterance used as an input is a group of distributed expressions of a plurality of words included in the utterance.
  • the data format of the phrase used as the correct answer data is a group of distributed expressions of a plurality of words included in the phrase.
  • the learned models M02, M03, and M04 are the same as the learned model M01, except that the advantages, disadvantages, and task phrases indicated by the first type annotation data are used as output correct data, not the idea phrases, respectively. Created by learning methods.
  • the creation of the learned models M11 to M16 may be performed by the discussion support apparatus 1 or by a computer other than the discussion support apparatus 1.
  • a case where the discussion support apparatus 1 performs the processing will be described, but the same applies to a case where a computer other than the discussion support apparatus 1 performs the processing.
  • the creator of the learned models M11 to M16 creates teaching data and records it in the flash memory 13.
  • the teaching data has a plurality of (for example, 1,000 or more, one million or more, one billion or more, etc.) text data of utterances, and second type annotation data for each of the text data of the plurality of utterances. .
  • Each type 2 annotation data includes, in text data of a target utterance, information indicating a phrase corresponding to an idea, information indicating a phrase corresponding to an advantage, information indicating a phrase corresponding to a disadvantage, and And information indicating the corresponding phrase.
  • each type 2 annotation data includes information on the parent node of the phrase corresponding to the idea, information on the parent node of the phrase corresponding to the advantage, and the parent node of the phrase corresponding to the disadvantage in the text data of the target utterance. It includes node information and information on the parent node of the phrase corresponding to the assignment.
  • the information on the parent node of a phrase is information indicating which phrase of which statement the parent node of the phrase corresponds to. That is, the information of the parent node of a certain phrase indicates the position of the parent node of the phrase in the teaching data.
  • the text data of a statement constituting the teaching data may be acquired from the server of another SNS via the wide area network 2 and recorded in the flash memory 13 by the CPU 14, for example.
  • a person creates a facilitation structure from all remarks, creates second annotation data based on the facilitation structure, and sends it to the discussion support device 1 using an input device (not shown). You may enter it.
  • the CPU 14 of the discussion support apparatus 1 records the input second type annotation data in the flash memory 13 in association with the corresponding comment.
  • the CPU 14 learns the learned models M11 to M16 using the teaching data prepared in this way. For this reason, the neural network corresponding to the model before learning of the learned models M11 to M16 is recorded in the flash memory 13 as a model before learning.
  • the CPU 14 when creating the trained model M11, causes the neural network having the same structure as the pre-learning model to perform supervised learning. More specifically, learning is performed by using an error back propagation method or the like with the phrase of the idea in the teaching data in the flash memory 13 as input and the phrase of the task corresponding to the parent node of the idea as the output correct data. Let it do. Thereby, the learned model M11 is created.
  • the data format of the phrase used as the input is a representative distributed expression of a plurality of words included in the phrase.
  • the data format of the phrase used as the correct answer data is a representative distributed expression of a plurality of words included in the phrase.
  • the learned model M12 is also created by the same learning method as the learned model M11, except that the phrase of the idea corresponding to the parent node is used as the output correct data instead of the phrase of the task.
  • the learned model M13 is the same as the learned model M11 except that the input is a phrase of an advantage instead of the phrase of an idea, and the phrase of the idea corresponding to a parent node is used as the output correct data instead of the phrase of the task. Created in a way.
  • the learned model M14 is the same as the learned model M11 except that the weak phrase is input instead of the idea phrase, and the idea phrase corresponding to the parent node is used as the output correct data instead of the task phrase. Created in a way.
  • the learned model M15 is the same as the learned model M11 except that the input is not the phrase of the idea but the phrase of the task, and the phrase of the advantage corresponding to the parent node is used as the output correct data instead of the phrase of the task. Created in a way.
  • the learned model M16 is the same as the learned model M11 except that the task phrase is input instead of the idea phrase, and the disadvantage phrase corresponding to the parent node is used as the output correct data instead of the task phrase. Created in a way.
  • the creation of the learned validity determination model may be performed by the discussion support device 1 or by a computer other than the discussion support device 1.
  • a case where the discussion support apparatus 1 performs the processing will be described, but the same applies to a case where a computer other than the discussion support apparatus 1 performs the processing.
  • the creator of the learned validity determination model creates teaching data and causes the flash memory 13 to record the teaching data.
  • the teaching data includes text data of a plurality of question sentences (for example, 1000 or more, 1 million or more, 1 billion or more, etc.) and data indicating the validity of each of the plurality of question sentences. Have. Some of the plurality of questions are valid and are therefore associated with valid data. The remainder of the plurality of questions is not valid and is therefore associated with invalid data.
  • These teaching data may be created by the creator, for example, or may be obtained by the CPU 14 via the wide area network 2 and recorded in the flash memory 13.
  • the CPU 14 learns the learned models M01 to M04 using the teaching data prepared in this way. For this reason, the neural network corresponding to the model before learning of the learned models M01 to M04 is recorded in the flash memory 13 as a model before learning.
  • the CPU 14 when creating the learned model M01, causes the neural network having the same structure as the learned validity determination model to perform supervised learning. Specifically, with respect to each of a plurality of question sentences in the teaching data in the flash memory 13, the question sentence is input, and data on the validity associated with the question sentence is output as the correct answer data. Learning is performed using a back propagation method or the like. Thereby, a learned validity determination model is created.
  • SNS such as Twitter (registered trademark) and Facebook (registered trademark) have made it possible to collect the opinions of tens of thousands and millions of people on the Internet. These opinions could be put together to help or organize and conclude the discussions of millions of people. If a large agreement can be formed, a large number of people can make decisions that were not possible before.
  • the discussion support apparatus 1 can organize a creative viewpoint included in a statement that creates a facilitation structure from a statement of a crowd that is a user of the terminals 3 to 6.
  • IDeliveratorium (see Non-Patent Documents 3, 4, and 5) is known as a system for supporting the discussion of the crowd.
  • the crowd needs to develop a debate based on the prescribed structure, and free natural language debate is not possible.
  • all users need to have a deep understanding of this structure.
  • Existing research is forcing discussions to be structured based, in order to properly develop the discussion at Deliberatorium.
  • the discussion support device 1 of the present embodiment the user can post a freely described remark regardless of the structure of the discussion. If it is a free description, jokes for prompting the participant to speak can be made, but it is impossible with Deliberatorium.
  • the discussion support device 1 of the present embodiment implements a system that supports the organization and progress of discussions based on the opinions and preferences of the crowd on the wide area network 2.
  • a facilitator agent that mediates the discussion of the crowd on a large scale and at a high speed, and supports the organization and the progress of the discussion more creatively, in order to support the organization and the progress of the discussion of the crowd, is a discussion support device of the present embodiment. It is one.
  • the discussion support apparatus 1 of the present embodiment uses a problem solving structuring method inspired by IBIS (see Non-Patent Documents 9 and 10), which is one of the facilitation techniques, to solve a problem in the discussion.
  • IBIS Non-Patent Documents 9 and 10
  • the structure i.e., the facilitation structure
  • the crowd can be assisted in organizing and proceeding with a creative discussion.
  • Argumentation Mining (see Non-Patent Document 11) is known as a method of extracting the structure itself of the argument.
  • most of the research extracts the structure of logical arguments, and even if the extraction is successful, it is considered that it is difficult to obtain consensus because the opposition is conflicting.
  • consensus In order to form consensus, it is not enough to extract the structure of the existing argument, and at the same time, create a creative consensus proposal while interacting with the crowd while extracting the structure of problem solving. Is considered important.
  • the discussion support apparatus 1 extracts a problem-solving structure while mediating discussions based on a new consensus structure expression method inspired by the IBIS method, which is a typical method of creative facilitation. This can assist in organizing and proceeding with the discussion.
  • the conventional IBIS method is known as a technique that is manually performed by a person in order to collect a small number of human opinions in a limited space such as a conference room, and the crowd through the wide area network 2 is used. It was never supposed to be used for large-scale discussions with the other party.
  • Patent Document 1 discloses a discussion support apparatus having a function of calculating an optimal solution of each opinion leader based on the opinions of a plurality of opinion leaders and a function of voting an opinion leader to instruct general participants.
  • Patent Literature 2 describes a discussion support device that supports analysis of general participants 'opinions in discussions on a target problem by a plurality of opinion leaders and in forming consensus with general participants' opinions on the discussions. I have. In each of Patent Documents 1 and 2, there is no description about the facilitation structure.
  • the facilitation structure is automatically created by the discussion support device 1.
  • the facilitation structure may be created from a plurality of statements Xm by a person.
  • the CPU 14 of the discussion support apparatus 1 acquires the data of the facilitation structure created by the person and input by the person in step S200, and records the data in the flash memory 13.
  • the CPU 14 generates an interrogative sentence for inducing a comment in the discussion based on the facilitation structure created by a person so that it can be transmitted via the communication network.
  • the CPU 14 executes step S200 and subsequent steps each time a new utterance is acquired in step S100 of FIG.
  • the CPU 14 may execute step S200 and subsequent steps every time a new utterance is acquired 10 or more times.
  • the CPU 14 may be configured to execute step S200 and subsequent steps every time a new utterance is acquired a predetermined number of times of 100 or more.
  • the CPU 14 may execute step S200 and subsequent steps every time a new utterance is acquired a predetermined number of times equal to or more than 1000 times.
  • the feature of facilitation performed by humans is that the operation of prompting a comment on a specific node and adding a small number of obtained comments to child nodes is repeated. In such a flow, it is self-evident to the facilitator which node the received remark should be added as a child node. This is because, as described above, the facilitator has called for a statement to be a child node of a specific node.
  • 10 or more, 100 or more, or 1000 or more remarks can be added to the facilitation structure as nodes at one time. It is very difficult for a person to create a facilitation structure from a large number of utterances in a situation where it is not specified which utterance includes a phrase that is a child node of which node.
  • the CPU 14 can extract a new node from a comment by using the algorithm described in the above embodiment, and can select a parent node of the new node.
  • the discussion support device of the above embodiment is very difficult for a person to create a facilitation structure from a large number of remarks, even if it is not explicitly specified which node is a child node of which node. It is very suitable for performing various processing.
  • the CPU 14 performs a process of generating a question sentence for inducing a comment in the discussion as shown in step S500 of FIG. 4, but execution of this process is not essential. Even in such a case, the CPU 14 achieves a function and an effect which have not existed in the past by performing a process of automatically creating a facilitation structure from a comment.
  • the CPU 14 can extract a new node from a comment by using the algorithm described in the above embodiment, and can further select a parent node of the new node.
  • the discussion support apparatus of the above embodiment is very difficult for a person to create a facilitation structure from statements obtained sequentially, even if it is not explicitly specified which node is a child node of which node. Very suitable for difficult processing.
  • the CPU 14 executes step S500 based on the fact that a new utterance has been acquired. However, this need not be the case. For example, the CPU 14 may execute the step S500 even when not receiving a message for a predetermined waiting period (for example, one hour).
  • the wide area network 2 is illustrated as an example of the communication network to which the discussion support device 1 connects.
  • the communication network to which the discussion support device 1 connects is not limited to the wide area network 2 and may be any communication network.
  • the condition that the node in the facilitation structure becomes the target node may be other than the above-mentioned conditions (1) to (4).
  • an advantage in which there is no problem child node and a disadvantage in which there is no problem child node may also be attention nodes.
  • the CPU 14 determines a problem with respect to the node as a question statement based on the fact that among the plurality of advantages or disadvantages in the facilitation structure, there is a node having advantages or disadvantages in which no child node exists. You may create a query statement.
  • an idea that does not have a child node that is an evaluation may be a node of interest.
  • the CPU 14 may create, as a question sentence, a sentence that inquires about the evaluation of the idea, based on the fact that among the plurality of ideas in the facilitation structure, there is an idea that does not have a child node that is the evaluation. .
  • the CPU 14 creates, as an interrogative sentence, a sentence for inquiring a phrase to be a child node of a specific node, based on the fact that there is a specific node having no child node among a plurality of nodes included in the facilitation structure. May be.
  • the learned models M01 to M04 of the neural network are used for the process of extracting a new node from a comment.
  • a neural network such as a naive Bayes classifier may be used in this processing.
  • the learned models M11 to M16 of the neural network are used for calculating the predicted parent node from the new node.
  • a neural network such as a naive Bayes classifier may be used in this processing.
  • the problem is a child node having advantages or disadvantages.
  • an issue may be a child node of an idea.
  • an assignment may be a child node of another assignment.
  • the assignment may also be a child node of the subject.
  • the parent-child relationship between the issues, advantages, disadvantages, and ideas is not limited to the above example, and may be appropriately changed.
  • the facilitation structure includes five types of nodes: subject, idea, problem, advantage, and disadvantage, but the facilitation structure includes only three types of nodes, means, idea, and problem. You may go out.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】通信ネットワークを介して発言を取得するシステムにおいて、議論の整理または進行を支援する技術を提供する。 【解決手段】議論支援装置は、議論の主題に対する複数の発言を通信ネットワークを介して取得し、取得した複数の発言から、複数のアイデア、複数の長所、複数の短所、および複数の課題を抽出し(S205)、抽出された複数のアイデア、複数の長所、複数の短所、および複数の課題の間の接続形態を特定し(S210、S215)、特定された接続形態を実現するよう、ファシリテーション構造を作成する。

Description

議論支援装置および議論支援装置用のプログラム
 本発明は、議論支援装置および議論支援装置用のプログラムに関するものである。
 近年、ソーシャルネットワーキングシステムの発達によって、インターネットを介して数万人、数百万人等の人の発言を収集することが可能になっている。従来、群衆のアイデアの集約や質問応答を支援するシステムとして、Innocentive、Quolaが知られている(非特許文献1、2参照)。
特開2012-14234号公報 特開2013-3880号公報
Innocentive、[online]、[平成30年7月27日検索]、インターネット<URL:http://Innocentive.com> Quora、[online]、[平成30年7月27日検索]、インターネット<URL: http://Quora.com> Thomas W. Malone; Mark Klein (Summer 2007), "Harnessing Collective Intelligence to Address Global Climate Change", Innovations: Technology, Governance, Globalization. MIT Press. 2 (3): 15-26, doi:10.1162/itgg.2007.2.3.15, ISSN 1558-2477, Retrieved 2013-09-25 Mark Klein (2012), "Enabling Large-Scale Deliberation Using Attention-Mediation Metrics" (PDF), Computer Supported Cooperative Work. 21: 449-473, doi:10.1007/s10606-012-9156-4 Mark Klein; Ali Gurkan; Luca Iandoli, "Deliberatorium: Supporting Large-Scale Online Deliberation", MIT Center for Collective Intelligence, Retrieved 2013-09-25 Sycara, K. "The PERSUADER", In The Encyclopedia of Artificial Intelligence, D. Shapiro (Ed.), John Wiley and Sons Inc., New York, N.Y., January, 1992 Sycara, K. "Arguments of Persuasion in Labour Mediation", In Proceedings of the Ninth International Joint Conference on Artificial Intelligence (IJCAI-85), vol 1, pp. 294-296, Los Angeles, Ca., August 1985. Bain W.M. (1986) Judge: A Case-based Reasoning System, In: Machine Learning, The Kluwer International Series in Engineering and Computer Science (Knowledge Representation, Learning and Expert Systems), vol 12. Springer, Boston, MA KUNZ, W., AND RITTEL, H. Issues as elements of information systems. Working Paper No. 131, Institute of Urban and Regional Development, Univ. of California, Berkeley, Calif., 1970. Conklin, E. Jeffrey; Begeman, Michael L. (October 1988). "gIBIS: a hypertext tool for exploratory policy discussion" (PDF). ACM Transactions on Information Systems. 6 (4): 303-331. doi:10.1145/58566.59297. Retrieved 2017-05-26. Marie-Francine Moens, Argumentation mining: How can a machine acquire common sense and world knowledge? DOI: 10.3233/AAC-170025, Argument & Computation, vol. 9, no. 1, pp. 1-14, 2018
 発明者の検討によれば、通信ネットワークを介して取得した発言をうまくまとめて、多人数による大規模な議論の整理または進行を支援すれば、これまでには不可能だった、大規模な人数による意思決定が可能になる。しかし、上述のInnocentive、Quolaは、主にアイデアを生成する事に主眼が置かれたシステムであり、意見や好みに基づく議論を支援することまでは対象としていない。例えば、旅行先を決めているときに、行きたい場所の候補だけたくさん挙げても、議論の整理や進行は捗らない。
 本発明は上記点に鑑み、通信ネットワークを介して発言を取得するシステムにおいて、議論の整理または進行を支援する技術を提供することを目的とする。
 上記目的を達成するための第1の観点によれば、議論支援装置は、議論の主題(Xs)に対する複数の発言(Xm)を通信ネットワーク(2)を介して取得し、取得した前記複数の発言(Xm)を記憶媒体(13)に記録する発言取得部(S100)と、前記取得部(S100)によって取得および記録された前記複数の発言(Xm)に基づいてファシリテーション構造を作成する構造作成部(S200)と、を備え、前記ファシリテーション構造は、前記主題(Xs)をルートノードとして含み、前記複数の発言に含まれる複数のアイデアのそれぞれ、複数の評価のそれぞれ、および複数の課題のそれぞれを、1つのノードとして含む木構造を表すデータであり、前記複数のアイデアは、親ノードとなる前記主題(Xs)または前記複数の課題のうち親ノードとなる課題を解決する案を表すノードを含み、前記複数の評価は、前記複数のアイデアのうち親ノードとなるアイデアの評価を表すノードを含み、前記複数の課題は、前記複数のアイデアのうち親ノードとなる評価に対する課題を表すノードを含み、前記構造作成部は、前記発言取得部(S100)によって前記記憶媒体(13)に記録された前記複数の発言(Xm)から、前記複数のアイデア、前記複数の評価、および前記複数の課題を抽出する抽出部(S205)と、前記抽出部(S205)によって抽出された前記複数のアイデア、前記複数の評価、および前記複数の課題の間の接続形態を特定する特定部(S210、S215)と、前記リンク部(S210、S215)によって特定された前記複数のアイデア、前記複数の評価、および前記複数の課題の間の接続形態を実現するよう、前記ファシリテーション構造を作成して記憶媒体(13)に記録する記録部(S220)と、を有する。
 このように、議論支援装置は、複数の発言から複数のアイデア、複数の評価、および複数の課題を抽出し、それらをノードとして含むと共に議論の主題をルートノードとする木構造、すなわち、ファシリテーション構造を生成する。このように作成されたファシリテーション構造は、複数のアイデア、複数の評価、および複数の課題が相互に関連した問題解決のための構造である。したがって、議論支援装置は、ファシリテーション構造を生成することで、議論の整理を支援することができる。
 また、第2の観点によれば、前記抽出部は、前記複数の発言の各々について、当該発言を、発言が入力されると当該発言に含まれるアイデアを出力するよう学習されたニューラルネットワークであるアイデア抽出モデル(M01)、発言が入力されると当該発言に含まれる評価を出力するよう学習されたニューラルネットワークである評価抽出モデル(M02、M03)、および、発言が入力されると当該発言に含まれる課題を出力するよう学習されたニューラルネットワークである課題抽出モデル(M04)に、入力することで、当該発言に含まれるアイデア、評価、または課題を抽出する。
 人がファシリテータとなって議論を進行しながらファシリテーション構造を作成する場合、得られた発言がアイデアを含むのか、アイデアに対する評価を含むのか、それとも課題を含むのかの判断は、多くの場合直感的に為される。この直感的な判断は、無意識のうちにファシリテータの脳内で行われる極めて複雑な知的作業の産物であり、同じことをコンピュータが行うのは従来不可能であった。
 本発明者は、この判断をコンピュータで代替する方法として、複数のニューラルネットワークを用いる方法を着想した。すなわち、アイデア、評価、課題という種類別に、その種類に対応するノードを出力するよう学習されたニューラルネットワークを用意して上記のように使用することを着想した。このような手法を用いることで、人の直観に頼らなくても、発言中からアイデア、評価、課題を適切に抽出することができる。
 また、第3の観点によれば、前記特定部は、前記抽出部によってアイデア、評価、または課題が新規ノードとして抽出されたとき、前記新規ノードの親ノードになるべき予測親ノードを、前記ファシリテーション構造中のノードとは別に、生成する予測親ノード生成部(S210)と、前記ファシリテーション構造から、前記予測親ノードとの類似度が所定の基準より高いノードを選択する高類似ノード選択部(S215)と、を備え、前記記録部は、前記高類似ノード選択部が選択したノードの子ノードとして、前記新規ノードを前記ファシリテーション構造に追加し、予測親ノード生成部は、あるノードが入力されるとそのノードの親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M11-M16)に、前記新規ノードを入力することで、前記予測親ノードを生成する。
 人がファシリテータとなって議論を進行しながらファシリテーション構造を作成する場合、発言から抽出されたアイデア、評価、または課題に相当する新規ノードに対して、それがファシリテーション構造中のどのノードの子ノードとなるべきかを判断する。この判断は多くの場合直感的に為される。この直感的な判断は、無意識のうちにファシリテータの脳内で行われる極めて複雑な知的作業の産物であり、同じことをコンピュータが行うのは従来不可能であった。
 本発明者は、この判断をコンピュータで代替する方法として、アイデア、評価、または課題に相当する新規ノードの親ノードを直接選ぶのではなく、間接的な処理を経て選ぶことを着想した。
 具体的には、アイデア、評価、または課題が新規ノードとして抽出されたとき、新規ノードの親ノードになるべき予測親ノードを、ファシリテーション構造中のノードとは別に生成することを着想した。つまり、ファシリテーション構造中のノードとは無関係に、まず理想的な親ノードとして予測親ノードを創作することを着想した。そして、そのように生成した予測親ノードとの類似度に基づいて、新規ノードが接続されるべき親ノードを抽出することを着想した。
 新規ノードにとって理想的な親ノードを、ファシリテーション構造中のノードに縛られることなく生成することは、コンピュータにとって比較的容易であることが、本発明者の検討により判明した。したがって、一旦ファシリテーション構造中のノードに縛られることなく理想的な親ノードを生成するという間接的な手法を用いることで、人の直観に頼らなくても、適切にファシリテーション構造から適切に親ノードを選択することができる。
 また、第4の観点によれば、予測親ノード生成部は、あるノードが入力されるとそのノードの親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M11-M16)に、前記新規ノードを入力することで、前記予測親ノードを生成する。
 ニューラルネットワークは、ファシリテーション構造等の外部データに縛られることなく理想的な親ノードを生成するという処理に適しているので、より適切な予測親ノードを生成することができる。
 また、第5の観点によれば、前記予測親ノード生成部は、前記新規ノードがアイデアであれば、あるアイデアが入力されるとそのアイデアの親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M11、M12)に入力することで、前記予測親ノードを生成し、前記予測親ノード生成部は、前記新規ノードが評価であれば、ある評価が入力されるとその評価の親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M13、M14)に入力することで、前記予測親ノードを生成し、前記予測親ノード生成部は、前記新規ノードが課題であれば、ある課題が入力されるとその課題の親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M15、M16)に入力することで、前記予測親ノードを生成する。
 ニューラルネットワークは、ファシリテーション構造等の外部データに縛られることなく理想的な親ノードを生成するという処理に適しているので、より適切な予測親ノードを生成することができる。
 しかも、アイデア、評価、課題という新規ノードの種類別に、その種類に対応するノードに適した予測親ノードを出力するよう学習されたニューラルネットワークを用いることで、より適切な予測親ノードを生成することができる。
 また、第6の観点によれば、議論支援装置は、前記ファシリテーション構造に基づいて、前記議論について所定の終結条件が満たされたか否かを判定する判定部(S300)と、前記所定の終結条件が満たされたと前記判定部が判定したことに基づいて、議論が終結したことを示すデータを、前記通信ネットワークを介して送信可能なように作成する終結部(S600)とを備える。
 このように、議論支援装置が、ファシリテーション構造に基づいて終結条件が満たされるか否かを判定することにより、議論の内容に応じた議論の終結タイミングを選ぶことができる。また、終結条件が満たされたことに基づいて、議論が終結したことを示すデータを、通信ネットワークを介して送信可能なように作成することで、議論の終結を報知するという形態で議論誘導を行うことができる。
 また、第7の観点によれば、議論支援装置は、前記記録部(S220)が前記記憶媒体(13)に記録した前記ファシリテーション構造に基づいて、前記議論における発言を誘導するための問いかけ文を、前記通信ネットワークを介して送信可能なように生成する誘導部(S500)を備えることを特徴とする。
 このように、ファシリテーション構造に基づいて問いかけ文を生成することで、そのファシリテーション構造に適した議論の進行を誘導することができる、したがって、その議論の内容に応じた議論の進行を支援することができる。
 また、第8の観点によれば、議論支援装置は、議論の主題(Xs)に対する複数の発言(Xm)を通信ネットワーク(2)を介して取得し、取得した前記複数の発言(Xm)を記憶媒体(13)に記録する発言取得部(S100)と、前記取得部(S100)によって取得および記録された前記複数の発言(Xm)に基づいて作成されたファシリテーション構造を取得して記憶媒体に記録する構造取得部(S200)と、前記構造取得部(S200)が前記記憶媒体(13)に記録した前記ファシリテーション構造に基づいて、前記議論における発言を誘導するための問いかけ文を、前記通信ネットワークを介して送信可能なように生成する誘導部(S500)と、を備え、前記ファシリテーション構造は、前記主題(Xs)をルートノードとして含み、前記複数の発言に含まれる複数のアイデアのそれぞれ、複数の評価のそれぞれ、および複数の課題のそれぞれを、1つのノードとして含む木構造を表すデータであり、前記複数のアイデアは、親ノードとなる前記主題(Xs)または前記複数の課題のうち親ノードとなる課題を解決する案を表すノードを含み、前記複数の評価は、前記複数のアイデアのうち親ノードとなるアイデアの評価を表すノードを含み、前記複数の課題は、前記複数のアイデアのうち親ノードとなる評価に対する課題を表すノードを含む。
 このように、複数のアイデア、複数の評価、および複数の課題が相互に関連した問題解決のための構造であるファシリテーション構造に基づいて、議論支援装置が問いかけ文を生成する。これにより、そのファシリテーション構造に応じた議論の進行を誘導することができる、したがって、その議論の内容に応じた議論の進行を支援することができる。
 また、第9の観点によれば、前記誘導部は、前記ファシリテーション構造に含まれる複数のノードのうち、子ノードが存在しない特定のノード(M)があることに基づいて、前記問いかけ文として、前記特定のノードの子ノードとなるフレーズを問い合わせる文を作成することを特徴とする。
 このように、問いかけ文として、子ノードが存在しない特定のノードに対して当該特定のノードの子ノードとなるフレーズを問い合わせる文を作成することで、議論のうちまだ進行の余地のある部分をユーザに伝えることができる。したがって、議論の進行を効果的に促すことができる。
 また、第10の観点によれば、前記複数の評価は、複数の長所と、複数の短所とを含み、前記ファシリテーション構造は、前記複数の長所のそれぞれ、および、前記複数の短所のそれぞれを、1つのノードとして含み、前記複数の長所は、前記複数のアイデアのうち親ノードとなるアイデアの長所を表し、前記複数の短所は、前記複数のアイデアのうち親ノードとなるアイデアの短所を表すことを特徴とする。このように、評価が長所と短所に分けられていることで、ファシリテーション構造をより複雑に作成することができる。
 また、第11の観点によれば、前記誘導部は、前記複数のアイデアのうち、長所である子ノードが存在しない特定のアイデア(C)があることに基づいて、前記問いかけ文として、前記特定のアイデアに対する長所を問い合わせる文を作成することを特徴とする。
 このように、問いかけ文として、長所である子ノードが存在しないアイデアに対して長所を問い合わせる文を作成することで、議論のうちまだ進行の余地のある部分をユーザに伝えることができる。したがって、議論の進行を効果的に促すことができる。
 また、第12の観点によれば、前記誘導部は、前記複数のアイデアのうち、短所である子ノードが存在しない特定のアイデアがあることに基づいて、前記問いかけ文として、前記特定のアイデアに対する短所を問い合わせる文を作成することを特徴とする。
 このように、問いかけ文として、短所である子ノードが存在しないアイデアに対して短所を問い合わせる文を作成することで、議論のうちまだ進行の余地のある部分をユーザに伝えることができる。したがって、議論の進行を効果的に促すことができる。
 また、第13の観点によれば、前記誘導部は、前記ファシリテーション構造に含まれる複数のノードのうち、生成された後に所定の猶予時間を経過しても子ノードが生成されない葉ノード(L)があることに基づいて、前記問いかけ文として、前記葉ノードの先祖ノード(C)に基づいた発言を促す文を作成することを特徴とする。
 このように、問いかけ文として、生成された後に所定の猶予時間を経過しても子ノードが生成されない葉ノードに対して、当該葉ノードの先祖ノードに立ち返った発言を促す文を作成することで、行き詰まった議論を再度進めるための支援ができる。
 また、第14の観点によれば、議論の主題(Xs)に対する複数の発言(Xm)を通信ネットワーク(2)を介して取得し、取得した前記複数の発言(Xm)を記憶媒体(13)に記録する発言取得部(S100)、前記取得部(S100)によって取得および記録された前記複数の発言(Xm)に基づいてファシリテーション構造を作成する構造作成部(S200)、として、議論支援装置を機能させるプログラムは、前記ファシリテーション構造は、前記主題(Xs)をルートノードとして含み、前記複数の発言に含まれる複数のアイデアのそれぞれ、複数の評価のそれぞれ、および複数の課題のそれぞれを、1つのノードとして含む木構造を表すデータであり、前記複数のアイデアは、親ノードとなる前記主題(Xs)または前記複数の課題のうち親ノードとなる課題を解決する案を表すノードを含み、前記複数の評価は、前記複数のアイデアのうち親ノードとなるアイデアの評価を表すノードを含み、前記複数の課題は、前記複数のアイデアのうち親ノードとなる評価に対する課題を表すノードを含み、前記構造作成部は、前記発言取得部(S100)によって前記記憶媒体(13)に記録された前記複数の発言(Xm)から、前記複数のアイデア、前記複数の評価、および前記複数の課題を抽出する抽出部(S205)と、前記抽出部(S205)によって抽出された前記複数のアイデア、前記複数の評価、および前記複数の課題の間の接続形態を特定する特定部(S210、S215)と、
 前記リンク部(S210、S215)によって特定された前記複数のアイデア、前記複数の評価、および前記複数の課題の間の接続形態を実現するよう、前記ファシリテーション構造を作成して記憶媒体(13)に記録する記録部(S220)と、を有するプログラムである。これにより、請求項1と同様の効果を得ることができる。
 また、第15の観点によれば、議論の主題(Xs)に対する複数の発言(Xm)を通信ネットワーク(2)を介して取得し、取得した前記複数の発言(Xm)を記憶媒体(13)に記録する発言取得部(S100)、前記取得部(S100)によって取得および記録された前記複数の発言(Xm)に基づいて作成されたファシリテーション構造を取得して記憶媒体に記録する構造取得部(S200)、前記構造取得部(S200)が前記記憶媒体(13)に記録した前記ファシリテーション構造に基づいて、前記議論における発言を誘導するための問いかけ文を、前記通信ネットワークを介して送信可能なように生成する誘導部(S500)として、議論支援装置を機能させるプログラムは、前記ファシリテーション構造は、前記主題(Xs)をルートノードとして含み、前記複数の発言に含まれる複数のアイデアのそれぞれ、複数の評価のそれぞれ、および複数の課題のそれぞれを、1つのノードとして含む木構造を表すデータであり、前記複数のアイデアは、親ノードとなる前記主題(Xs)または前記複数の課題のうち親ノードとなる課題を解決する案を表すノードを含み、前記複数の評価は、前記複数のアイデアのうち親ノードとなるアイデアの評価を表すノードを含み、前記複数の課題は、前記複数のアイデアのうち親ノードとなる評価に対する課題を表すノードを含む、プログラムである。これにより、請求項4と同様の効果を得ることができる。
 なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。
実施形態に係る通信システムの構成図である。 議論支援装置のハードウェア構成を示すブロック図である。 ある議題に対する主題および複数の発言を例示する図である。 議論支援処理のフローチャートである。 ファシリテーション構造の一例を示す図である。 ファシリテーション構造を作成する処理のフローチャートである。 発言からアイデア、長所、短所、課題を抽出する学習済みモデルを示す図である。 ノードから予測親ノードを出力する学習済みモデルを示す図である。 アイデアである新規ノードからルートノードを選ぶ処理の概念図である。 アイデアである新規ノードから親ノードを選ぶ処理の概念図である。 長所である新規ノードから親ノードを選ぶ処理の概念図である。 短所である新規ノードから親ノードを選ぶ処理の概念図である。 課題である新規ノードから親ノードを選ぶ処理の概念図である。 ファシリテーション構造に基づいてファシリテートを行う処理のフローチャートである。 ファシリテーション構造に基づいて生成される問いかけ文を例示する図である。
 以下、本発明の一実施形態について説明する。本実施形態に係る通信システムは、議論支援装置1、広域ネットワーク2、複数の端末3~6等を含んでいる。複数の端末3~6の数は、図1では4つのみ記載されているが、百以上でもよいし、千以上でもよいし、百万以上でもよいし、十億以上でもよい。
 議論支援装置1および複数の端末3~6は、広域ネットワーク2に接続されている。広域ネットワーク2は、インターネット等の、広範囲をカバーする通信ネットワークである。議論支援装置1が広域ネットワーク2を介して行う送信、受信は、すべて、この通信インターフェース11を用いたものである。
 端末3~6は、広域ネットワーク2に有線接続されてもよいし、無線接続されてもよい。広域ネットワーク2はパーソナルコンピュータでも、スマートホンでも、タブレットPCでもよい。端末3~6の各々は、当該端末のユーザに操作されることによって、当該ユーザが入力した発言のデータを、広域ネットワーク2を介して議論支援装置1に送信する。
 議論支援装置1は、複数種類の議論の進行を管理し、これら複数種類の議論の整理および進行を支援すると共に合意形成を支援する合意形成支援装置である。図2に示すように、議論支援装置1は、通信インターフェース11、RAM12、フラッシュメモリ13、CPU14を有している。通信インターフェース11は、広域ネットワーク2と接続するためのインターフェース回路である。
 RAM12は、揮発性の記憶媒体である。フラッシュメモリ13は、不揮発性の記憶媒体である。フラッシュメモリ13は磁気記憶媒体に置き換えられてもよい。RAM12、フラッシュメモリ13は、いずれも、非遷移的実体的記憶媒体である。
 CPU14は、フラッシュメモリ13に記憶された各種プログラムを実行し、その実行の際にRAM12をワークメモリとして使用し、更に、通信インターフェース11を用いて広域ネットワーク2を介した通信を行う。
 以下、このような構成の通信システムの作動について、説明する。議論支援装置1のフラッシュメモリ13には、複数種類の議論の各々について、その議論の主題が表されたテキストデータが、その主題に対応する議論に固有な識別子である議論IDと共に、記録されている。主題とは、「名古屋市の渋滞をどう解決するか」のように、対応する議論において解決すべき根本の課題を表すデータである。
 CPU14は、これら議論の主題のテキストデータおよび対応する議論IDを、広域ネットワーク2に接続された他の装置から受信してフラッシュメモリ13に記録してもよい。あるいは、議論支援装置1に接続された不図示の入力装置(例えばキーボード)に対して作業者がある議論の主題を入力したとき、その入力された主題のテキストデータおよび対応する議論IDをフラッシュメモリ13に記録してもよい。なお、記録する議論IDは、フラッシュメモリ13に記録された順番を表す通し番号でもよいし、その他のものでもよい。
 そして、CPU14は、例えばWebサーバ等の表示プログラムを、フラッシュメモリ13から読み出して実行する。この表示プログラムを実行することで、CPU14は、フラッシュメモリ13に記録されているこれら主題および議論IDを、広域ネットワーク2を介して端末3~6に送信可能となる。すなわち、CPU14は、表示プログラムの実行において、広域ネットワーク2を介して端末3~6のうち任意の1つの端末から所定の表示要求のデータを受信すると、受信した表示要求に従って、フラッシュメモリ13からすべての主題および議論IDを読み出す。そしてCPU14は、読み出した主題および議論IDを、広域ネットワーク2を介して、当該1つの端末に送信する。これら主題および議論IDを受信した当該1つの端末は、受信した主題を当該1つの端末の不図示の表示部(例えば液晶ディスプレイ)に表示する。これにより、端末3~6のユーザは、議論支援装置1に記録された議論の主題を閲覧することができる。
 そして、端末3~6の各々のユーザは、閲覧した複数の主題のうち1つの主題に対して、何らかの意見を表明したい場合は、当該端末の不図示の操作部を操作して、当該1つの主題を指定すると共に、その後に、自分の発言を入力する。すると当該端末は、入力された発言を表すテキストデータを生成し、生成したテキストデータと、指定された主題に対応する議論IDとを関連付けた投稿データを、広域ネットワーク2を介して、議論支援装置1に送信する。
 議論支援装置1のCPU14は、このようにして送信された投稿データを、広域ネットワーク2を介して受信すると、受信した投稿データにタイムスタンプを含め、更に、タイムスタンプが含まれた投稿データをフラッシュメモリ13に追加記録する。ここで、投稿データに含められるタイムスタンプは、議論支援装置1が当該投稿データを受信した時点のタイムスタンプ(例えば日付と時刻)である。
 また、CPU14は、上述の表示プログラムを実行することで、フラッシュメモリ13に記録されているこれら主題、主題に関連付けられた議論ID、および投稿データを、広域ネットワーク2を介して端末3~6に送信可能となる。すなわち、CPU14は、表示プログラムの実行において、広域ネットワーク2を介して端末3~6のうち任意の1つの端末から、特定の議論IDを指定する表示要求のデータを受信すると、受信した表示要求に従って、フラッシュメモリ13から当該議論IDに対応する主題および当該議論IDに対応する発言すべてを読み出す。そしてCPU14は、読み出した主題および発言を、広域ネットワーク2を介して、当該1つの端末に送信する。これら主題および発言を受信した当該1つの端末は、受信した主題および発言を当該1つの端末の不図示の表示部(例えば液晶ディスプレイ)に表示する。これにより、端末3~6のユーザは、議論支援装置1に記録された特定の議論の主題および発言をすべて閲覧することができる。
 端末3~6からは、複数の議題に対して多数の投稿データが議論支援装置1に対して送信される。したがって、議論支援装置1のフラッシュメモリ13には、複数の議論の各々について、図3に示すように、その議論Xの主題Xsおよび複数の発言Xmが、当該議論に対応する議論IDで関連付けられて、記録される。図3中では、議論IDはIxと表されている。
 また、議論支援装置1のCPU14は、図4に示す議論支援処理を、フラッシュメモリ13に記録されている議論の数だけ、同時並行的に、実行する。これら複数の合意形成支援処理は、フラッシュメモリ13に記録されている複数種類の議論と1対1に対応する。複数の合意形成支援処理の各々は、対応する議論において合意が形成されることを支援するための処理である。合意形成支援処理のプログラムは、フラッシュメモリ13にあらかじめ記憶されている。CPU14は、このプログラムを実行することで、図4に示す処理を実現する。
 これら合意形成支援処理の各々において、CPU14は、まずステップS100で、対応する議論と同じ議論IDを有する新規な投稿データを広域ネットワーク2を介して受信するまで待ち、受信すると、当該投稿データ中の発言を読み出して取得する。
 CPU14は続いてステップS200で、取得した発言に基づいてファシリテーション構造を作成する。ある議論に対応するファシリテーション構造は、図5に示すような木構造を表すデータである。このファシリテーション構造は、対応する議論の主題Xsをルートノードとして含む。また、このファシリテーション構造は、対応する議論に関する複数の発言Xmに含まれる複数のアイデアB1~B6、複数の長所C1~C4、複数の短所D1~D6、および複数の課題E1~E3のそれぞれを、1つのノードとして含む。長所C1~C4、短所D1~D6は、いずれも評価のノードでもある。このように、評価が長所と短所に分けられていることで、ファシリテーション構造をより複雑に作成することができる。
 これら複数のノードXs、B1~B6、C1~C4、D1~D6、E1~E3は、複数のリンクによって接続されている。図5中では、リンクは矢印線で表されている。複数のリンクのうちどのリンクも、1つの親ノードと、その親ノードの子ノードの2つにのみ繋がる。矢印線の先端が親ノードに繋がり、根元が子ノードに繋がる。親ノードはその親ノードの子ノードよりも、ルートノードに近い。なお、ルートノードに近いとは、ルートノードに到達するために辿るリンクの数が少ないことをいう。そして、各子ノードには1つの親ノードしか有さない。
 アイデアは、「車線を増やす」、「人が出て行くのと渋滞問題は関係ない」のように、主題Xsまたは課題を解決する案を表すノードである。「人が出て行くのと渋滞問題は関係ない」というアイデアB6は、対象とする「むしろ人が出て行くのでは?」という課題を無効化することで、当該課題を解決する案である。したがって、アイデアB1~B6は、主題Xs、課題E1~E3、または他のアイデアB2を親ノードとし、長所、短所を親ノードとしない。あるアイデアが主題または課題を親ノードとする場合、そのアイデアは当該主題または当該課題を解決する案を表す。アイデアB3、B4が別のアイデアB2を親ノードとする場合、当該アイデアB3、B3は、親のノードとなるアイデアB2をより特殊化または具体化したアイデアを表す。
 長所C1~C4は、「車が走れる量が増えそう」、「手軽に電車を使える」のように、親ノードとなるアイデアの長所(すなわち良い評価)を表すノードである。したがって、長所C1~C4は、アイデアB1~B5を親ノードとし、主題、他の長所、短所、課題のいずれも親ノードとしない。
 短所D1~C6は、「民間の鉄道会社の経営に影響」、「工事にコストがかかる」のように、親ノードとなるアイデアの短所(すなわち悪い評価)を表すノードである。したがって、短所D1~D6は、アイデアB1~B5を親ノードとし、主題、長所、他の短所、課題のいずれも親ノードとしない。
 課題E1~E3は、「電車内の混雑が問題になるのでは?」、「企業を動かす方法はないか?」のように、親ノードとなる長所または親ノードとなる短所に対する課題を表すノードである。したがって、課題E1~E3は、長所C2、C3または短所D6を親ノードとし、主題、アイデア、課題のいずれも親ノードとしない。
 議論支援装置1のCPU14は、このようなファシリテーション構造を作成するために、ステップS200で、図6に示す処理を行う。図6の処理では、CPU14は、まずステップS205で、対応する議論に対する直前のステップS100で新たに取得した1つの発言(以下、新規取得発言という)から、0個以上のアイデア、0個以上の長所、0個以上の短所、および0個以上の課題、を、新規ノードとして抽出する。
 ある発言には、アイデアとなるフレーズ、長所となるフレーズ、短所となるフレーズ、および課題となるフレーズのうち、1個のみが含まれる場合がある。その場合、ステップS205では、CPU14は、当該1個のフレーズを抽出する。ここで、フレーズとは、同じ発言中に連続して出現する単語の一群をいう。
 例えば、図3に示した「車線を増やすのはどうでしょう?」という発言が新規取得発言であるとする。この発言中には、「車線を増やす」という、アイデアのフレーズが含まれている。この場合、CPU14は、ステップS205で、「車線を増やす」というアイデアのフレーズを抽出し、その他のフレーズは抽出しない。
 また、新規取得発言によっては、CPU14は、ステップS205で、長所のフレーズを抽出してその他のフレーズは抽出しない場合も、短所のフレーズを抽出してその他のフレーズは抽出しない場合も、課題のフレーズを抽出してその他のフレーズは抽出しない場合もある。
 また、CPU14は、ステップS205で、アイデアとなるフレーズ、長所となるフレーズ、短所となるフレーズ、および課題となるフレーズのうち、複数個の組み合わせを、同じ発言から抽出する場合もある。
 CPU14は、このようなステップS205の処理を、ニューラルネットワークで構成される学習済みモデルを用いて行う。このステップS205で用いられる学習済みモデルとは、図7に示すアイデア抽出モデルM01、長所抽出モデルM02、短所抽出モデルM03、課題抽出モデルM04である。使用されるこれら学習済みモデルM01~M04は、あらかじめフラッシュメモリ13に記録されている。長所抽出モデルM02、短所抽出モデルM03は、それぞれ、評価抽出モデルの一例に相当する。
 CPU14は、ステップS205で、新規取得発言を周知の形態素解析処理等によって複数の単語(すなわち、形態素)に分割する。そして更に、得られた複数の単語の各々について、分散表現を算出する。分散表現の算出方法は周知であるが、例えば、Wrod2Vec、Glove等で用いられる周知のアルゴリズムを採用してもよい。
 そしてCPU14は、得られた複数の単語の分散表現を、学習済みモデルM01~M04の各々に入力する。その結果、アイデア抽出モデルM01からは、新規発言中に、アイデアに該当するフレーズがあれば、そのフレーズに含まれる複数の単語の分散表現の群が出力される。また、長所抽出モデルM02からは、新規発言中に、長所に該当するフレーズがあれば、そのフレーズに含まれる複数の単語の分散表現の群が出力される。また、短所抽出モデルM03からは、新規発言中に、短所に該当するフレーズがあれば、そのフレーズに含まれる複数の単語の分散表現の群が出力される。また、課題抽出モデルM04からは、新規発言中に、課題に該当するフレーズがあれば、そのフレーズに含まれる複数の単語の分散表現の群が出力される。このようにして学習済みモデルM01~M04から出力されるフレーズの分散表現の群が、新規ノードとなる。
 これら学習済みモデルM01~M04の学習方法については後述する。また、これら学習済みモデルM01~M04としては、例えば、周知のBilateral RNN(Recurrent Neural Network)、LSTM(Long short-term memory)、CNN(Convolution Neural Network)等の周知のニューラルネットワークが採用されてもよい。
 人がファシリテータとなって議論を進行しながらファシリテーション構造を作成する場合、得られた発言がアイデアを含むのか、アイデアに対する評価を含むのか、それとも課題を含むのかの判断は、多くの場合直感的に為される。この直感的な判断は、無意識のうちにファシリテータの脳内で行われる極めて複雑な知的作業の産物であり、同じことをコンピュータが行うのは従来不可能であった。
 本発明者は、この判断をコンピュータで代替する方法として、複数のニューラルネットワークである学習済みモデルM01~M04を用いる方法を着想した。すなわち、アイデア、評価、課題という種類別に、その種類に対応するノードを出力するよう学習されたニューラルネットワークを用意して上記のように使用することを着想した。このような手法を用いることで、人の直観に頼らなくても、発言中からアイデア、評価、課題を適切に抽出することができる。
 続いてCPU14は、ステップS205からステップS210に進み、対応する議論について直前のステップS205で抽出した新規ノードに対応する予測親ノードを、現在のファシリテーション構造中のノードとは別に、生成する。現在のファシリテーション構造中のノードとは別に生成するとは、現在のファシリテーション構造中のノードとは無関係なノードとして新規に作成することをいう。CPU14は、このようなステップS210の処理を、ニューラルネットワークの学習済みモデルを用いて行う。このステップS205で用いられる学習済みモデルとは、図8に示す学習済みモデルM11~M16である。これら使用される学習済みモデルM11~M16は、あらかじめフラッシュメモリ13に記録されている。
 学習済みモデルM11は、アイデアの代表分散表現が入力されると、そのアイデアの親ノードになるべき課題の代表分散表現の予測値(すなわち、課題となる予測親ノード)を出力するモデルである。ここで、あるノードの代表分散表現とは、そのノードによって表されるフレーズに含まれる複数の単語の分散表現の代表値である。代表分散表現の次元数は、各分散表現の次元数と同じである。代表値としては、例えば平均値を採用してもよい。
 学習済みモデルM12は、アイデアの代表分散表現が入力されると、そのアイデアの親ノードになるべきアイデアの代表分散表現の予測値(すなわち、アイデアとなる予測親ノード)を出力するモデルである。学習済みモデルM13は、長所の代表分散表現が入力されると、その長所の親ノードになるべきアイデアの代表分散表現の予測値(すなわち、アイデアとなる予測親ノード)を出力するモデルである。
 学習済みモデルM14は、短所の代表分散表現が入力されると、その短所の親ノードになるべきアイデアの代表分散表現の予測値(すなわち、アイデアとなる予測親ノード)を出力するモデルである。学習済みモデルM15は、課題の代表分散表現が入力されると、その課題の親ノードになるべき長所の代表分散表現の予測値(すなわち、長所となる予測親ノード)を出力するモデルである。学習済みモデルM16は、課題の代表分散表現が入力されると、その課題の親ノードになるべき短所の代表分散表現の予測値(すなわち、短所となる予測親ノード)を出力するモデルである。
 CPU14は、ステップS205で抽出された新規ノードがアイデアであれば、それを学習済みモデルM11および学習済みモデルM12の両方に入力する。その結果、学習済みモデルM11からは、課題となる予測親ノードが抽出され、学習済みモデルM12からは、アイデアとなる予測親ノードが抽出される。
 またCPU14は、ステップS205で抽出された新規ノードが長所であれば、それを学習済みモデルM13に入力する。その結果、学習済みモデルM13からは、アイデアとなる予測親ノードが抽出される。またCPU14は、ステップS205で抽出された新規ノードが短所であれば、それを学習済みモデルM14に入力する。その結果、学習済みモデルM14からは、アイデアとなる予測親ノードが抽出される。
 またCPU14は、ステップS205で抽出された新規ノードが課題であれば、それを学習済みモデルM15および学習済みモデルM16の両方に入力する。その結果、学習済みモデルM15からは、長所となる予測親ノードが抽出され、学習済みモデルM16からは、短所となる予測親ノードが抽出される。
 これら学習済みモデルM11~M16の学習方法については後述する。また、これら学習済みモデルM11~M16としては、例えば、周知のBilateral RNN(Recurrent Neural Network)、LSTM(Long short-term memory)、CNN(Convolution Neural Network)等の周知のニューラルネットワークが採用されてもよい。
 続いてCPU14は、ステップS210からステップS215に進む。ステップS215では、対応する議論について直前のステップS210で生成された予測親ノードに対して最も類似度が高いノードを、現時点において対応する議論について作成されているファシリテーション構造から選択する。
 ある議論に対応するファシリテーション構造に含まれるノードは、まだその議論に対応する発言を議論支援装置1が取得していない時点では、その議論の主題に対応するルートノードXsのみである。その議論の主題に対応するルートノードXsのデータは、その議論の主題を構成するフレーズのテキストデータ、当該フレーズを構成する単語の分散表現の集合、当該フレーズの代表分散表現を含む。
 そのような場合に、CPU14が、ステップS205でアイデアを新規ノードとして抽出し、かつステップS210で上述の通り課題となる予測親ノードおよびアイデアとなる予測親ノードを生成したとする。このとき、CPU14は、ステップS215では、ファシリテーション構造に含まれるノードがルートノードだけであることに基づいて、図9に示すように、課題となる予測親ノードとルートノードXsとの類似度を算出する。類似度の指標としては、例えば、課題となる予測親ノードの代表分散表現とルートノードの代表分散表現とのコサイン類似度を採用してもよいし、その他の類似度指標を採用してもよい。予測親ノードとファシリテーション構造中のノードとの類似度については、以下も同様である。
 そして、当該予測親ノードとルートノードとの類似度が基準値以上であれば、新規ノードの親ノードとして、ルートノードXsを選択する。また、当該予測親ノードとルートノードとの類似度が基準値未満であれば、新規ノードの親ノードとして、ルートノードXsを選択しない。
 図9は、ファシリテーション構造に含まれるノードがルートノードXsだけである場合に、アイデアである新規ノードの親ノードとしてルートノードXsを選ぶ処理の概念図である。
 ファシリテーション構造に含まれるノードがルートノードだけである場合、CPU14が、ステップS205で長所、短所、課題のいずれかを新規ノードとして抽出し、かつステップS210でその新規ノードに対応する予測親ノードを生成したとする。このとき、CPU14は、ステップS215では、ファシリテーション構造に含まれるノードがルートノードだけであることに基づいて、新規ノードの親ノードを選択しない。
 図10は、ファシリテーション構造に含まれるノードが複数ある場合に、アイデアである新規ノードから親ノードを選ぶ処理の概念図である。ファシリテーション構造に含まれるノードが複数ある場合、CPU14が、ステップS205でアイデアを新規ノードとして抽出し、かつステップS210で上述の通り課題となる予測親ノードおよびアイデアとなる予測親ノードを生成したとする。
 このときCPU14は、ステップS215では、図10に示すように、当該課題となる予測親ノードとルートノードXsとの類似度を算出すると共に、当該課題となる予測親ノードとファシリテーション構造に含まれる課題の各々との間の類似度を算出する。更にCPU14は、ステップS215では、図10に示すように、当該アイデアとなる予測親ノードとファシリテーション構造に含まれる課題の各々との間の類似度を算出する。したがって、算出される類似度の数は、ファシリテーション構造に含まれるルートノードXsと課題とアイデアの総数と同じになる。
 そしてCPU14は、算出したルートノードXs、課題、およびアイデアとの類似度のうち、基準値よりも高くかつ最も高い類似度を有するノード(すなわち、ルートノードXs、課題、またはアイデア)を、新規ノードの親ノードとして選択する。なお、算出した複数の類似度のすべてが上記基準値より低ければ、新規ノードの親ノードを選択しない。
 図11は、ファシリテーション構造に含まれるノードが複数ある場合に、長所である新規ノードから親ノードを選ぶ処理の概念図である。ファシリテーション構造に含まれるノードが複数ある場合、CPU14が、ステップS205で長所を新規ノードとして抽出し、かつステップS210で上述の通りアイデアとなる予測親ノードを生成したとする。このときCPU14は、ステップS215では、図11に示すように、当該アイデアとなる予測親ノードとファシリテーション構造に含まれるアイデアの各々との間の類似度を算出する。そしてCPU14は、算出した類似度のうち、基準値よりも高くかつ最も高い類似度を有するノードを、新規ノードの親ノードとして選択する。なお、算出した複数の類似度のすべてが上記基準値より低ければ、新規ノードの親ノードを選択しない。
 図12は、ファシリテーション構造に含まれるノードが複数ある場合に、短所である新規ノードから親ノードを選ぶ処理の概念図である。ファシリテーション構造に含まれるノードが複数ある場合、CPU14が、ステップS205で短所を新規ノードとして抽出し、かつステップS210で上述の通りアイデアとなる予測親ノードを生成したとする。このときCPU14は、ステップS215では、図12に示すように、当該アイデアとなる予測親ノードとファシリテーション構造に含まれるアイデアの各々との間の類似度を算出する。そしてCPU14は、算出した類似度のうち、基準値よりも高くかつ最も高い類似度を有するノードを、新規ノードの親ノードとして選択する。なお、算出した複数の類似度のすべてが上記基準値より低ければ、新規ノードの親ノードを選択しない。
 図13は、ファシリテーション構造に含まれるノードが複数ある場合に、課題である新規ノードから親ノードを選ぶ処理の概念図である。ファシリテーション構造に含まれるノードが複数ある場合、CPU14が、ステップS205で課題を新規ノードとして抽出し、かつステップS210で上述の通り長所となる予測親ノードおよび短所となる予測親ノードを生成したとする。
 このときCPU14は、ステップS215では、図13に示すように、当該長所となる予測親ノードとファシリテーション構造に含まれる長所の各々との間の類似度を算出する。更にCPU14は、図13に示すように、当該短所となる予測親ノードとファシリテーション構造に含まれる短所の各々との間の類似度を算出する。
 そしてCPU14は、算出した長所および短所との類似度のうち、基準値よりも高くかつ最も高い類似度を有するノード(すなわち、長所または短所)を、新規ノードの親ノードとして選択する。なお、算出した複数の類似度のすべてが上記基準値より低ければ、新規ノードの親ノードを選択しない。
 このようにすることで、ステップS215において、新規ノードが既存のファシリテーション構造中のいずれかのノードが、新規ノードの親ノードとして選択される。これにより、既存のファシリテーション構造中のノードと新規ノードの間の親子関係が特定される。
 人がファシリテータとなって議論を進行しながらファシリテーション構造を作成する場合、発言から抽出されたアイデア、評価、または課題に相当する新規ノードに対して、それがファシリテーション構造中のどのノードの子ノードとなるべきかを判断する。この判断は多くの場合直感的に為される。この直感的な判断は、無意識のうちにファシリテータの脳内で行われる極めて複雑な知的作業の産物であり、同じことをコンピュータが行うのは従来不可能であった。しかも、そのような直感的な作業は、全体の発言数が50未満程度の議論においては可能であるものの、全体の発言数が100以上、1000以上等になると、ファシリテーション構造が複雑になり過ぎて、人にはとてもできるものではなくなる。
 本発明者は、この判断をコンピュータで代替する方法として、アイデア、評価、または課題に相当する新規ノードの親ノードを直接選ぶのではなく、間接的な処理を経て選ぶことを着想した。
 具体的には、アイデア、評価、または課題が新規ノードとして抽出されたとき、新規ノードの親ノードになるべき予測親ノードを、ファシリテーション構造中のノードとは別に生成することを着想した。つまり、ファシリテーション構造中のノードとは無関係に、まず理想的な親ノードとして予測親ノードを創作することを着想した。そして、そのように生成した予測親ノードとの類似度に基づいて、新規ノードが接続されるべき親ノードを抽出することを着想した。
 新規ノードにとって理想的な親ノードを、ファシリテーション構造中のノードに縛られることなく生成することは、コンピュータにとって比較的容易であることが、本発明者の検討により判明した。したがって、一旦ファシリテーション構造中のノードに縛られることなく理想的な親ノードを生成するという間接的な手法を用いることで、人の直観に頼らなくても、適切にファシリテーション構造から適切に親ノードを選択することができる。
 また、ニューラルネットワークは、ファシリテーション構造等の外部データに縛られることなく理想的な親ノードを生成するという処理に適しているので、より適切な予測親ノードを生成することができる。
 しかも、アイデア、評価、課題という新規ノードの種類別に、その種類に対応するノードにf適した予測親ノードを出力するよう学習されたニューラルネットワークを用いることで、より適切な予測親ノードを生成することができる。しかも、CPU14は、人と違って、取得される発言の全体数が100以上であろうが、1000以上であろうが、10000以上であろうが、特に問題なく、上記の処理を行うことができる。
 続いてCPU14は、ステップS220では、新規ノードが、対応する議論についての直前のステップS215で親ノードとして選択されたノードの子ノードとなるよう、ファシリテーション構造に新規ノードを追加する。このとき、CPU14は、追加される新規ノードと共に、その新規ノードに関連付けてタイムスタンプをフラッシュメモリ13に記録する。ここで、記録されるタイムスタンプは、関連付けられる新規ノードが示すフレーズが含まれていた投稿データのタイムスタンプである。
 これにより、フラッシュメモリ13中のファシリテーション構造の内容が書き換えられる。この結果、新規ノードが既存のノードの子ノードとなる。なお、ファシリテーション構造中の子ノードに関連付けられたタイムスタンプは、その親ノードに関連付けられたタイムスタンプよりも後の時点を示す。
 なお、対応する議論についての直前のステップS215で新規ノードの親ノードが選択されなかった場合は、ステップS220では、ファシリテーション構造に新規ノードを追加しない。ステップS220が終了することで、図4のステップS200の処理が終了する。
 ステップS200に続いてCPU14は、ステップS300で、対象となる議論の合意判定を行う。合意判定では、合意条件が満たされたか否か、すなわち、対象となる議論が十分尽くされたか否かの判定を行う。合意条件は、議論の終結条件として用いられる。
 合意条件としては、対象の議論が始まってからの時間が基準時間を超えたという条件を採用してもよい。ここで、対象の議論が始まった時点は、端末3~6によって当該議論の主題Xsが閲覧可能になった時点であってもよいし、議論支援装置1のCPU14が当該議論に対応する最初の投稿データを受信した時点であってもよい。最初の投稿データを受信した時点は、当該議論に対応する投稿データに含まれるタイムスタンプのうち、最も早い時点のタイムスタンプから特定できる。
 また、合意条件としては、対象の議論のファシリテーション構造中でアイデアの数が基準数を超えたという条件を採用してもよい。また、合意条件としては、対象の議論のファシリテーション構造中で課題の数が基準数を超えたという条件を採用してもよい。
 また、合意条件としては、対象の議論のファシリテーション構造について、その形が充分均等であり、かつ、ファシリテーション構造の複雑度が基準値を超えたという条件を採用してもよい。ファシリテーション構造の形が充分均等であるか否かは、例えば、すべての葉ノードの深さの平均値からのばらつき度合い(例えば標準偏差)が基準値より小さい場合に充分均等であり、当該基準値以上である場合に充分均等でないと判断されてもよい。
 また、ファシリテーション構造の形が充分均等であるか否かは、例えば、すべてのノードの分岐数の平均値からのばらつき度合い(例えば標準偏差)が基準値より小さい場合に充分均等であり、当該基準値以上である場合に充分均等でないと判断されてもよい。
 ここで、葉ノードとは、子ノードがいないノードをいう。また、葉ノードの深さは、その葉ノードからルートノードに到達するまでに通るリンクの数をいう。また、ノードの分岐数とは、そのノードの子ノードの数をいう。
 また、ファシリテーション構造の複雑度は、ファシリテーション構造中で深さが最も大きいノードの深さをであってもよいし、ファシリテーション構造に含まれるノードの総数であってもよい。ファシリテーション構造の複雑度としては、ファシリテーション構造が複雑になるほど大きくなる指標であれば、どのような指標が採用されてもよい。
 なお、合意条件は、議論毎に異なるように設定されていてもよい。広く浅く行うことが望ましい議論がある一方で、狭く深く行うことが望ましい議論もあるからである。どの議論にどの合意条件を設定するかは、人が決定してもよいし、自動的に決定されてもよい。
 CPU14は続いてステップS400で、対応する議論についての直前のステップS300で合意条件が満たされていないと判定されている場合、ステップS500に進み、合意条件が満たされていると判定されている場合、ステップS600に進む。
 ステップS500では、作成されたファシリテーション構造に基づいてファシリテートを行う。すなわち、対応する議論を誘導して、端末3~6のユーザが発言を作成することを誘導するための、問いかけ文を、広域ネットワーク2を介して端末3~6に送信可能なように、作成する。なお、ステップS500の処理は、対応する議論について新たな発言を取得する度に行われてもよいし、あるいは、新たな発言を所定の待ち回数(例えば10回)だけ取得する度に行うようになっていてもよい。
 以下、ステップS500の処理について説明する。CPU14は、ステップS500において、図14に示すように、まずステップS510で、対応する議論のファシリテーション構造中から、注目ノードを抽出する。
 注目ノードは、それに基づいて問いかけ文を作成するためのノードである。ある観点では、注目ノードは、その注目ノードに子ノードが追加されることで議論が深まることが期待されるノードである。別の観点では、注目ノードは、その注目ノードに子ノードが追加される可能性が高いノードである。
 ファシリテーション構造中の注目ノードとしては、例えば、以下のようなノードがある。
(1)アイデアである子ノードが存在しない課題
(2)長所である子ノードが存在しないアイデア
(3)短所である子ノードが存在しないアイデア
(4)生成された後に所定の猶予時間を経過しても子ノードが生成されない葉ノード
 これら条件(1)~(4)のいずれかに該当するノードが、注目ノードとして抽出される。ここで、あるノードの子孫ノードとは、当該あるノードからルートノードとは反対方向にリンクを辿って到達できるすべてのノードをいう。例えば、図5に示したノードB5の子孫ノードは、ノードC4、D5、D6、E3である。また、あるノードの先祖ノードとは、当該あるノードからルートノードの方向にリンクを辿って到達できるすべてのノードをいう。また、条件(4)における猶予時間は、例えば、1時間以上の時間、2日以上の時間、一週間以上の時間等であってもよい。なお、ノードの生成時点は、そのノードに関連付けられたタイムスタンプで確認することができる。
 例えば、対応する議論のファシリテーション構造が図15のようになっているとする。図15では、ノードAがルートノードであり、ノードB、C、J、K、Lがアイデアに該当するノードであり、ノードD、F、Gが長所に該当するノードであり、ノードEが短所に該当するノードであり、ノードH、I、Mが課題に該当するノードである。これらノードの接続関係は、矢印線で表させるリンクの通りである。
 図15のファシリテーション構造においては、課題Mは、アイデアである子ノードが存在しない課題であるので、上述の条件(1)に該当する。またアイデアCは、短所である子ノードが存在しないアイデアであるので、上述の条件(2)に該当する。したがって、課題MおよびアイデアCは、注目ノードとして抽出される。
 また、図15のファシリテーション構造において、ノードLのアイデアに関する議論が停滞しており、ノードLが生成された後に上記猶予期間経過しても、ノードLの子ノードが生成されなかったとする。その場合は、ノードLは、条件(4)に該当する注目ノードとして抽出される。
 続いてCPU14は、ステップS520で、対応する議論について直前のステップS510で抽出した注目ノードの各々について、当該注目ノードに応じた問いかけ文を生成する。具体的には、注目ノードが表すフレーズを、所定のテンプレートに当てはめることで、問いかけ文を生成する。テンプレートは、定型文であり、フラッシュメモリ13にあらかじめ記録されている。
 例えば、上述の条件(1)に該当することにより抽出された注目ノードに対応するテンプレートは、「課題Yに対してアイデアはありますか?」というものであり、Yの部分に当該注目ノードの表すフレーズ(例えば、「企業を動かす方法はないか?」)が適用される。つまり、問いかけ文は、「課題「企業を動かす方法はないか?」に対してアイデアはありますか?」となる。これにより、問いかけ文は、注目ノードである特定の課題に対するアイデアを問い合わせる文となる。図15において注目ノードMに付随する問いかけ文も、そのようにして生成される。このように、問いかけ文として、アイデアである子ノードが存在しない課題に対してアイデアを問い合わせる文を作成することで、議論のうちまだ進行の余地のある部分をユーザに伝えることができる。したがって、議論の進行を効果的に促すことができる。
 また例えば、上述の条件(2)に該当することにより抽出された注目ノードに対応するテンプレートは、「アイデアYに対して長所はありますか?」というものであり、Yの部分に当該注目ノードの表すフレーズが適用される。これにより、問いかけ文は、注目ノードである特定のアイデアに対する長所を問い合わせる文となる。このように、問いかけ文として、長所である子ノードが存在しないアイデアに対して長所を問い合わせる文を作成することで、議論のうちまだ進行の余地のある部分をユーザに伝えることができる。したがって、議論の進行を効果的に促すことができる。
 また例えば、上述の条件(3)に該当することにより抽出された注目ノードに対応するテンプレートは、「アイデアYに対して短所はありますか?」というものであり、Yの部分に当該注目ノードの表すフレーズが適用される。これにより、問いかけ文は、注目ノードである特定のアイデアに対する短所を問い合わせる文となる。図15において注目ノードCに付随する問いかけ文も、そのようにして生成される。このように、問いかけ文として、短所である子ノードが存在しないアイデアに対して短所を問い合わせる文を作成することで、議論のうちまだ進行の余地のある部分をユーザに伝えることができる。したがって、議論の進行を効果的に促すことができる。
 また例えば、上述の条件(4)に該当することにより抽出された注目ノードに対応するテンプレートは、「議論が行き詰まりましたが、もともとV:Wについて議論していましたので立ち返って議論しましょう」というものである。そして、Vの部分には、注目ノードの特定の先祖ノード(例えばノードC)の種類(例えば、アイデア)が適用される。また、Wの部分に当該先祖ノードの表すフレーズが適用される。これにより、問いかけ文は、注目ノードの先祖ノードに基づいた発言を促す文となる。図15においてノードLに付随する問いかけ文も、そのようにして生成される。このように、問いかけ文として、生成された後に所定の猶予時間を経過しても子ノードが生成されない葉ノードに対して、当該葉ノードの先祖ノードに立ち返った発言を促す文を作成することで、行き詰まった議論を再度進めるための支援ができる。
 なお、CPU14は、注目ノードの特定の先祖ノードとしては、例えば、注目ノードのすべての先祖ノードのうち、注目ノードに最も近いアイデアノードを採用してもよい。あるいは、注目ノードの特定の先祖ノードとしては、例えば、注目ノードのすべての先祖ノードのうち、注目ノードに最も近い課題ノードを採用してもよい。なお、注目ノードに最も近いノードとは、注目ノードから当該最も近いノードに到達するために辿るリンクの数が最も少ないノードをいう。
 あるいは、同じ1つの葉ノードが上述の条件(4)に繰り返して注目ノードになる場合、当該注目ノードの特定の先祖ノードとして選ばれるノードは、当該注目ノードが選ばれる度に、当該注目ノードから1段階ずつ遠ざかっていってもよい。1段階とは、1つのリンクを辿ることをいう。
 続いてCPU14は、ステップS530で、対応する議論について直前のステップS520で生成した1つ以上の問いかけ文の各々について、妥当性があるか否かを判定する。具体的には、妥当性を判定する対象の問いかけ文の構文解析を行う。すなわち、当該問いかけ文を形態素解析して複数の単語に分け、それら複数の単語の品詞を特定し、更にそれら品詞間の係り受けの関係を特定し、さらに、主語、述語を特定する。そして、この構文解析において異常があった場合に、当該問いかけ文に妥当性がないと判定し、異常がなかった場合に、当該問いかけ文に妥当性があると判定する。構文解析における異常とは、例えば、主語を特定できない、述語が複数個特定された、動詞を特定できない、係り先のない形容詞がある等の、文法に反する状態をいう。
 あるいは、CPU14は、ニューラルネットワークで構成される学習済みの妥当性判定モデルを用いて、問いかけ文の各々について、妥当性があるか否かを判定してもよい。学習済みの妥当性判定モデルは、あらかじめフラッシュメモリ13に記録されている。
 この場合、CPU14は、ステップS530で、問いかけ文に含まれる複数の単語の分散表現の群を、当該学習済みの妥当性判定モデルに入力する。これにより、当該妥当性判定モデルからは、当該問いかけ文が妥当であるか妥当でないかの判定結果が出力される。
 これら学習済みの妥当性判定モデルの学習方法については後述する。また、これら学習済みの妥当性判定モデルとしては、例えば、周知のBilateral RNN(Recurrent Neural Network)、LSTM(Long short-term memory)、CNN(Convolution Neural Network)等の周知のニューラルネットワークが採用されてもよい。
 CPU14は、ステップS540では、対応する議論について直前のステップS530で妥当だと判定された問いかけ文を、対応する議論に対する発言として投稿する。具体的には、直前のステップS530で妥当だと判定された1つ以上の問いかけ文の各々について、当該問いかけ文のテキストデータと、対応する議論の議論IDとを関連付けた投稿データに、現時点のタイムスタンプを含め、フラッシュメモリ13に記録する。なお、このように議論支援装置1が生成してフラッシュメモリ13に記録した投稿データは、図4のステップS200においては、ファシリテーション構造の作成には用いられない。ステップS540の後、CPU14はステップS500の処理を終了する。ステップS500の後は、ステップS100に戻って、対応する議論において次の発言が広域ネットワーク2を介して投稿されるまで待つ。
 このように、ステップS500において議論支援装置1が生成してフラッシュメモリ13に記録した問いかけ文の投稿データは、議論支援装置1が上述の表示プログラムを実行することにより、広域ネットワーク2を介して端末3~6に送信される。したがって、問いかけ文の投稿データは、端末3~6によって、他の投稿データと同様に、閲覧可能となる。したがって、端末3~6のユーザは、投稿された問いかけ文に促されて、議論をより深め、議論を導く発言を、より容易に思い付いて投稿することができるようになる。
 一方、CPU14は、合意条件が満たされたと判定した後のステップS600では、対応する議論を終了する。具体的には、議論を終結したことを示すテキストデータと対応する議論の議論IDとを関連付けて投稿データとしてフラッシュメモリ13に記録する。議論を終結したことを示すテキストデータは、例えば「この議論は終結しました」という文字列のテキストデータであってもよい。
 これにより、議論が終結したことを示す投稿データは、議論支援装置1が上述の表示プログラムを実行することにより、広域ネットワーク2を介して端末3~6に送信される。したがって、議論が終結したことを示す投稿データは、端末3~6によって、他の投稿データと同様に、閲覧可能となる。また、CPU14は、対応する議論の議論IDを含む投稿データを、これ以降受信してもフラッシュメモリ13に記録せずに破棄する。つまり、CPU14は、対応する議論についての発言の受け付けを終了する。
 このように、議論支援装置1が、ファシリテーション構造に基づいて合意条件が満たされるか否かを判定することにより、議論の内容に応じた議論の終結タイミングを選ぶことができる。また、上記の通り、議論支援装置1は、合意条件が満たされたことに基づいて、議論が終結したことを示すデータを、広域ネットワーク2を介して送信可能なように作成する。これにより、議論の終結を報知するという形態で議論誘導を行うことができる。
 また、CPU14は、ステップS600で、現時点のファシリテーション構造を端末3~6に対して閲覧可能にしてもよい。具体的には、現時点のファシリテーション構造を表す画像データを、対応する議論の議論IDと関連付けて、フラッシュメモリ13に記録する。これにより、現時点のファシリテーション構造を表す画像データが、対応する議論の1つの発言として、投稿された状態になる。したがって、この画像データは、議論支援装置1が上述の表示プログラムを実行することにより、端末3~6によって、他の投稿データと同様に、閲覧可能となる。
 以上の通り、議論支援装置1のCPU14は、ステップS400で合意条件が満たされたと判定する前は、ステップS100、S200、S330、S400、S500の処理をこの順に繰り返す。
 この繰り返しにおいて、ステップS100が複数回繰り返されることにより、対応する議論の主題Xsに対する複数の発言Xmが広域ネットワーク2を介して取得され、取得された複数の発言Xmがフラッシュメモリ13に記録される。CPU14が、ステップS100を繰り返し実行することで、発言取得部として機能する。
 また、この繰り返しにおいて、フラッシュメモリ13中の複数の発言Xmに基づいてファシリテーション構造が作成される。CPU14が、ステップS200を繰り返し実行することで、構造作成部および構造取得部として機能する。
 より詳しくは、ステップS205が繰り返し実行されることで、フラッシュメモリ13中の複数の発言Xmから、複数のアイデア、複数の評価、および複数の課題が抽出される。CPU14が、ステップS205を繰り返し実行することで、抽出部として機能する。
 また、ステップS210、S215が繰り返し実行されることで、複数のアイデア、複数の評価、および複数の課題の間の接続形態が特定される。すなわち、ファシリテーション構造中の複数のノード間の接続形態が特定される。複数のノード間の接続形態とは、複数のノード間のリンクを介した接続形態、すなわち、複数のノード間の親子関係をいう。CPU14が、ステップS210、S215を繰り返し実行することで、特定部として機能する。
 また、ステップS220が繰り返し実行されることで、複数のアイデア、複数の評価、および複数の課題の間の接続形態を実現するよう、ファシリテーション構造が作成されてフラッシュメモリ13に記録される。CPU14が、ステップS220を繰り返し実行することで、記録部として機能する。
 また、CPU14が、ステップS300を実行することで判定部として機能し、ステップS500を実行することで誘導部として機能し、ステップS600を実行することで終結部として機能する。また、CPU14が、ステップS210を実行することで、予測親ノード生成部として機能し、ステップS215を実行することで、高類似ノード選択部として機能する。
 このように、議論支援装置1は、複数の発言から複数のアイデア、複数の評価、および複数の課題を抽出し、それらをノードとして含むと共に議論の主題をルートノードとする木構造、すなわち、ファシリテーション構造を生成する。このように作成されたファシリテーション構造は、複数のアイデア、複数の評価、および複数の課題が相互に関連した問題解決のための構造である。したがって、議論支援装置1は、ファシリテーション構造を生成することで、議論の整理および進行の支援を行うことができる。
 ここで、図7に示した学習済みモデルM01~M04の作成方法について、説明する。学習済みモデルM01~M04の作成は、議論支援装置1が行っても、議論支援装置1以外のコンピュータが行ってもよい。ここでは、議論支援装置1が行う場合について説明するが、議論支援装置1以外のコンピュータが行う場合も同様である。
 まず、学習済みモデルM01~M04の作成者は、教示データを作成してフラッシュメモリ13に記録させる。教示データは、複数個(例えば、千個以上、百万個以上、10億個以上等)の発言のテキストデータと、それら複数個の発言のテキストデータの各々に対する第1種アノテーションデータとを有する。
 各第1種アノテーションデータは、対象とする発言のテキストデータ中の、アイデアに該当するフレーズを指し示す情報と、長所に該当するフレーズを指し示す情報と、短所に該当するフレーズを指し示す情報と、課題に該当するフレーズを指し示す情報とを、含む。
 教示データを構成する発言のテキストデータは、例えば、CPU14が、広域ネットワーク2を介して他のSNSのサーバから取得してフラッシュメモリ13に記録してもよい。SNSは、Social Networking Serivceの略である。各第1種アノテーションデータは、人が、対応する発言のテキストデータの意味を理解した上で作成し、不図示の入力装置を用いて議論支援装置1に入力してもよい。その場合、議論支援装置1のCPU14は、入力された第1種アノテーションデータを、対応する発言に関連付けてフラッシュメモリ13に記録する。
 CPU14は、このようにして用意された教示データを用いて学習済みモデルM01~M04の学習を行う。このために、フラッシュメモリ13には、学習済みモデルM01~M04の学習前のモデルに該当するニューラルネットワークが、学習前モデルとして記録されている。
 具体的には、学習済みモデルM01を作成する場合、CPU14は、上記学習前モデルと同じ構造を有するニューラルネットに対し、教師あり学習を行わせる。具体的には、フラッシュメモリ13中の教示データにおける、複数の発言の各々について、当該発言を入力とし、当該発言に対応する第1種アノテーションデータが示すアイデアのフレーズを出力の正解データとして、誤差逆伝播法等を用いて、学習を行わせる。これにより、学習済みモデルM01が作成される。
 なお、入力として用いられる発言のデータ形式は、当該発言に含まれる複数の単語の分散表現の群である。また、正解データとして用いられるフレーズのデータ形式は、当該フレーズに含まれる複数の単語の分散表現の群である。
 学習済みモデルM02、M03、M04についても、アイデアのフレーズではなく、それぞれ、第1種アノテーションデータが示す長所、短所、課題のフレーズを出力の正解データとする点以外は、学習済みモデルM01と同じ学習方法で、作成される。
 次に、図8に示した学習済みモデルM11~M16の作成方法について、説明する。学習済みモデルM11~M16の作成は、議論支援装置1が行っても、議論支援装置1以外のコンピュータが行ってもよい。ここでは、議論支援装置1が行う場合について説明するが、議論支援装置1以外のコンピュータが行う場合も同様である。
 まず、学習済みモデルM11~M16の作成者は、教示データを作成してフラッシュメモリ13に記録させる。教示データは、複数個(例えば、千個以上、百万個以上、10億個以上等)の発言のテキストデータと、それら複数個の発言のテキストデータの各々に対する第2種アノテーションデータとを有する。
 各第2種アノテーションデータは、対象とする発言のテキストデータ中の、アイデアに該当するフレーズを指し示す情報と、長所に該当するフレーズを指し示す情報と、短所に該当するフレーズを指し示す情報と、課題に該当するフレーズを指し示す情報とを、含む。
 更に各第2種アノテーションデータは、対象とする発言のテキストデータ中の、アイデアに該当するフレーズの親ノードの情報と、長所に該当するフレーズの親ノードの情報と、短所に該当するフレーズの親ノードの情報と、課題に該当するフレーズの親ノードの情報とを、含む。ここで、あるフレーズの親ノードの情報とは、当該フレーズの親ノードがどの発言のどのフレーズに該当するかを示す情報である。すなわち、あるフレーズの親ノードの情報は、当該フレーズの親ノードの、教示データ中の位置を示す。
 教示データを構成する発言のテキストデータは、例えば、CPU14が、広域ネットワーク2を介して他のSNSのサーバから取得してフラッシュメモリ13に記録してもよい。各第2種アノテーションデータは、人が、全発言からファシリテーション構造を作成し、そのファシリテーション構造に基づいて、第2アノテーションデータを作成し、不図示の入力装置を用いて議論支援装置1に入力してもよい。その場合、議論支援装置1のCPU14は、入力された第2種アノテーションデータを、対応する発言に関連付けてフラッシュメモリ13に記録する。
 CPU14は、このようにして用意された教示データを用いて学習済みモデルM11~M16の学習を行う。このために、フラッシュメモリ13には、学習済みモデルM11~M16の学習前のモデルに該当するニューラルネットワークが、学習前モデルとして記録されている。
 具体的には、学習済みモデルM11を作成する場合、CPU14は、上記学習前モデルと同じ構造を有するニューラルネットに対し、教師あり学習を行わせる。具体的には、フラッシュメモリ13中の教示データにおける、アイデアのフレーズを入力とし、当該アイデアの親ノードに該当する課題のフレーズを出力の正解データとして、誤差逆伝播法等を用いて、学習を行わせる。これにより、学習済みモデルM11が作成される。
 なお、入力として用いられるフレーズのデータ形式は、当該フレーズに含まれる複数の単語の代表分散表現である。また、正解データとして用いられるフレーズのデータ形式は、当該フレーズに含まれる複数の単語の代表分散表現である。
 学習済みモデルM12についても、課題のフレーズではなく親ノードに該当するアイデアのフレーズを出力の正解データとして用いる点以外は、学習済みモデルM11と同じ学習方法で、作成される。
 学習済みモデルM13についても、アイデアのフレーズではなく長所のフレーズを入力とし、課題のフレーズではなく親ノードに該当するアイデアのフレーズを出力の正解データとして用いる点以外は、学習済みモデルM11と同じ学習方法で、作成される。学習済みモデルM14についても、アイデアのフレーズではなく短所のフレーズを入力とし、課題のフレーズではなく親ノードに該当するアイデアのフレーズを出力の正解データとして用いる点以外は、学習済みモデルM11と同じ学習方法で、作成される。
 学習済みモデルM15についても、アイデアのフレーズではなく課題のフレーズを入力とし、課題のフレーズではなく親ノードに該当する長所のフレーズを出力の正解データとして用いる点以外は、学習済みモデルM11と同じ学習方法で、作成される。学習済みモデルM16についても、アイデアのフレーズではなく課題のフレーズを入力とし、課題のフレーズではなく親ノードに該当する短所のフレーズを出力の正解データとして用いる点以外は、学習済みモデルM11と同じ学習方法で、作成される。
 次に、図14のステップS530で用いられる学習済みの妥当性判定モデルの作成方法について、説明する。学習済みの妥当性判定モデルの作成は、議論支援装置1が行っても、議論支援装置1以外のコンピュータが行ってもよい。ここでは、議論支援装置1が行う場合について説明するが、議論支援装置1以外のコンピュータが行う場合も同様である。
 まず、学習済みの妥当性判定モデルの作成者は、教示データを作成してフラッシュメモリ13に記録させる。教示データは、複数個(例えば、千個以上、百万個以上、10億個以上等)の問いかけ文のテキストデータと、それら複数個の問いかけ文の各々に対する妥当性の有無を示すデータとを有する。これら複数個の問いかけ文の一部は、妥当性があり、それゆえ、妥当性がある旨のデータと関連付けられている。これら複数個の問いかけ文の残りの一部は、妥当性がなく、それゆえ、妥当性がない旨のデータと関連付けられている。これら教示データは、例えば、上記作成者が作成してもよいし、CPU14が、広域ネットワーク2を介して取得してフラッシュメモリ13に記録してもよい。
 CPU14は、このようにして用意された教示データを用いて学習済みモデルM01~M04の学習を行う。このために、フラッシュメモリ13には、学習済みモデルM01~M04の学習前のモデルに該当するニューラルネットワークが、学習前モデルとして記録されている。
 具体的には、学習済みモデルM01を作成する場合、CPU14は、学習済みの妥当性判定モデルと同じ構造を有するニューラルネットに対し、教師あり学習を行わせる。具体的には、フラッシュメモリ13中の教示データにおける、複数の問いかけ文の各々について、当該問いかけ文を入力とし、当該問いかけ文に関連付けられた妥当性の有無のデータを出力の正解データとして、誤差逆伝播法等を用いて、学習を行わせる。これにより、学習済みの妥当性判定モデルが作成される。
 以上のような議論支援装置1およびそれを含む通信システムの、従来技術に対するアドバンテージについて、以下説明する。本実施形態では、インターネット等の広域ネットワーク2上で群衆の議論の整理および進行を支援する通信システムが実現する。
 近年、Twitter(登録商標)やFacebook(登録商標)などのSNSによって、インターネットで何万人、何百万人という人たちの意見を収集できるようになってきている。これらの意見をうまくまとめて、何百万人という人たちの議論の整理および進行を支援できたり合意を形成できる可能性がある。大規模な合意を形成できれば、これまでには不可能だった、大規模な人数による意思決定が可能になる。
 ファシリテータの立場で合意を形成しようとすると、ああ言わなければうまく行ったかもしれない、こうしておけばよかったと思うような失敗を経験することもある。そんな失敗をしないために、様々な相手と交渉することを練習する自動交渉シミュレーションが知られている。ただし、既存の自動交渉シミュレーションで得られる合意は妥協の産物になっている。自動交渉シミュレーションでは、前もって与えられた条件の中で、合意を探すことしかできないからである。
 議論の整理および進行を支援するにはもっと創造的な視点が必要ある。なぜなら、創造的な視点がないと、対立しているような状況では、いくら交渉や議論を続けても対立したままになり、より良い合意を探すことができないからである。例えば、今年の夏休みに家族で旅行する先を決めるときに、母はハワイ、父はボストンに行きたいとする。創造的な視点がないと、どちらかの選択肢をコスト、魅力、地域などから分析してからしか選べない。どちらかに決めることで、母か父の心情も悪くなるかもしれない。創造的な視点があれば、例えば、今年は母の意見を優先する代わりに、来年は父の意見を優先しようというようなメタレベルの合意を創造する事も可能である。本実施形態の議論支援装置1は、端末3~6のユーザである群衆の発言からファシリテーション構造を作成する、発言に含まれる創造的な視点を整理することができる。
 また、群衆のアイデアの集約や質問応答を支援するシステムとしては、Innocentive、Quolaなどがあるが、主にアイデアを生成する事に主眼が置かれ、意見や好みに基づく議論の整理および進行を支援することまでは対象としていない。例えば、旅行先を決めているときに、行きたい場所の候補だけたくさんあげても、議論の整理も進行も行えない。たくさんのアイデアを生成する支援をする他に、そのアイデアに対する好みや意見に基づいて、アイデアを導くことが必要である。本実施形態の議論支援装置1ではそれが可能になる。
 群衆の討論を支援するシステムとしては、Deliberatorium(非特許文献3、4、5参照)が知られている。ただしこのシステムでは、群衆は規定の構造に基づいて討論を展開する必要があり、自由な自然言語による討論はできない。規定の構造に基づいて討論をする場合、全てのユーザがこの構造について深く理解している必要がある。既存の研究では、Deliberatoriumで適切に討論を展開するために、構造に基づいて討論を進めることを強制される。これに対し、本実施形態の議論支援装置1は、ユーザは、議論の構造にとらわれず、自由に記述した発言を投稿することができる。自由記述であれば、参加者の発言を促すためのジョークなども発言することができるが、Deliberatoriumでは不可能である。
 また、1990年代に、PERSUADER(非特許文献6、7参照)やJUDGE(非特許文献8参照)といった人工知能の事例ベース推論を用いた合意形成の支援システムが開発されている。しかし、これは特定のドメインでの合意形成を支援するものであり、インターネット上で多人数を対象とした内容ではない。また、ファシリテーション構造を作成するものでもない。
 本実施形態の議論支援装置1は、広域ネットワーク2上での群衆の意見や好みに基づいて議論の整理および進行を支援するシステムを実現する。上の例で示した通り、例えば、旅行先を決めているときに、行きたい場所の候補のアイデアだけたくさん挙げても、議論の整理も進行も支援できない。たくさんのアイデアを生成する他に、そのアイデアに対する好みや意見に基づいて、議論の整理および進行を支援することが必要である。そして、群衆の議論の整理および進行を支援するために、群衆の議論を大規模かつ高速に仲介し、より創造的な議論の整理および進行を支援するファシリテータエージェントが、本実施形態の議論支援装置1である。
 本実施形態の議論支援装置1は、ファシリテーション技法の一つであるIBIS(非特許文献9、10参照)にヒントを得た問題解決の構造化手法を用いて、議論の中にある問題解決の構造(すなわち、ファシリテーション構造)を、大規模かつ高速に抽出することによって、群衆を創造的な議論の整理および進行を支援することができる。
 議論の構造そのものを抽出する方法としてArgumentation Mining(非特許文献11参照)が知られている。しかし、その研究のほとんどが論理的な議論の構造を抽出するものであり、仮に抽出がうまくできたとしても、対立したものは対立しており、合意を得ることは難しいと考えらえる。合意を形成するためには、今ある議論の構造を抽出するだけでは不十分であり、それと同時に問題解決の構造を抽出しながら創造的な合意案を群衆とインタラクションをしながら、形成していくことが重要だと考えられる。
 本実施形態の議論支援装置1は、創造的なファシリテーションの代表的な方法論であるIBISの手法にヒント得た新しい合意構造表現手法に基づき、議論を仲介しながら問題解決の構造を抽出することによって、議論の整理および進行を支援することができる。ない、従来のIBISの手法は、会議室等の限られたスペース内で少数の人間の意見を集約するために人が手作業で行う技法として知られており、広域ネットワーク2を介した群衆を相手とする大規模な議論に使用することなど、これまで全く想定されていなかった。
 なお、特許文献1には、複数のオピニオンリーダのそれぞれの意見に基づいて各オピニオンリーダの最適解を算出する機能と、一般参加者に指示するオピニオンリーダを投票させる機能とを有する議論支援装置が記載されている。また、特許文献2には、対象問題について、複数のオピニオンリーダによる議論と、議論に対する一般参加者の意見との合意形成において、一般参加者の意見の分析を支援する議論支援装置が記載されている。特許文献1、2のいずれにおいても、ファシリテーション構造についての記載は無い。
 (他の実施形態)
 なお、本発明は上記した実施形態に限定されるものではなく、適宜変更が可能である。また、上記実施形態において、実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではない。また、上記実施形態において、実施形態の構成要素の個数、数値、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではない。特に、ある量について複数個の値が例示されている場合、特に別記した場合および原理的に明らかに不可能な場合を除き、それら複数個の値の間の値を採用することも可能である。また、本発明は、上記実施形態に対する以下のような変形例および均等範囲の変形例も許容される。なお、以下の変形例は、それぞれ独立に、上記実施形態に適用および不適用を選択できる。すなわち、以下の変形例のうち明らかに矛盾する組み合わせを除く任意の組み合わせを、上記実施形態に適用することができる。
 (変形例1)
 上記実施形態においては、ファシリテーション構造は議論支援装置1によって自動で作成されている。しかし、ファシリテーション構造は人によって複数の発言Xmから作成されてもよい。その場合、議論支援装置1のCPU14は、ステップS200において、人によって作成されて人によって入力されたファシリテーション構造のデータを取得してフラッシュメモリ13に記録する。その場合、CPU14は、人によって作成されたファシリテーション構造に基づいて、議論における発言を誘導するための問いかけ文を、通信ネットワークを介して送信可能なように生成する。
 (変形例2)
 上記実施形態では、ファシリテーション構造において、評価に属する長所と短所は、互いに区別されて記録されている。しかし、必ずしもこのようになっておらずともよく、長所と短所に区別されずに単なる評価としてフラッシュメモリ13に記録されていてもよい。
 (変形例3)
 上記実施形態では、CPU14は、図4のステップS100で新規の発言を1回取得する度にステップS200以降を実行する。しかし、必ずしもこのようになっておらずともよい。例えば、CPU14は、新規の発言を10回以上の所定回数取得する度にステップS200以降を実行するようになっていてもよい。また例えば、CPU14は、新規の発言を100回以上の所定回数取得する度にステップS200以降を実行するようになっていてもよい。また例えば、CPU14は、新規の発言を1000回以上の所定回数取得する度にステップS200以降を実行するようになっていてもよい。
 通常、人がファシリテータとなって議論をファシリテートするときは、既にあるファシリテーション構造に基づいて、「このアイデアに対する長所はないですか」等、特定のノードの子ノードとなるべき発言を促す呼びかけを行う。そしてファシリテータは、その呼びかけに呼応した1個または2、3個の発言を当該特定ノードの子ノードとして追加する。
 このように、特定のノードに対する発言を促し、それに応じて得られた少数の発言を子ノードに付け加えるという作業が繰り返されるのが、人によって行われるファシリテーションの特徴である。このような流れにおいては、受けた発言をどのノードの子ノードとして追加するべきかは、ファシリテータにとって自明である。上述のように、ファシリテータが特定のノードの子ノードとなるべき発言を求める呼びかけを行ったからである。
 これに対し、本例では、10個以上、100個以上、あるいは1000個以上の発言を一度にそれぞれノードとしてファシリテーション構造に加えることができる。どの発言がどのノードの子ノードとなるフレーズを含んでいるかが明示されていない状況で、多数の発言からファシリテーション構造を作成する作業は、人にとっては非常に困難である。
 本例においては、CPU14が、上記実施形態で説明したようなアルゴリズムで発言中から新規ノードを抽出し、さらに当該新規ノードの親ノードを選択することができる。つまり、上記実施形態の議論支援装置は、どのノードがどのノードの子ノードとなるかということについて明示されていなくても、多数の発言からファシリテーション構造を作成するという、人にとっては非常に困難な処理を行うのに、非常に適している。
 (変形例4)
 上記実施形態では、CPU14は、図4のステップS500に示すような、議論における発言を誘導するための問いかけ文を生成する処理を行っているが、この処理の実行は必須事項ではない。その場合でも、CPU14は、発言から自動的にファシリテーション構造を作成する処理行うことで、従来にない機能および効果を達成する。
 この場合、どの発言がどのノードの子ノードとなるフレーズを含んでいるかが明示されていない状況となる。このような場合において、もし人がファシリテータになるのなら、順次得られる発言からファシリテーション構造をファシリテータが作成するのは、非常に困難である。ファシリテータが問いかけをすることができなくなるからである。
 これに対し、本例においては、CPU14が、上記実施形態で説明したようなアルゴリズムで発言中から新規ノードを抽出し、さらに当該新規ノードの親ノードを選択することができる。つまり、上記実施形態の議論支援装置は、どのノードがどのノードの子ノードとなるかということについて明示されていなくても、順次得られる発言からファシリテーション構造を作成するという、人にとっては非常に困難な処理を行うのに、非常に適している。
 (変形例5)
 上記実施形態では、CPU14は、新規の発言を取得したことに基づいてステップS500を実行している。しかし、必ずしもこのようになっておらずともよい。例えば、CPU14は、所定の待機期間(例えば1時間)発言を受信しないときにも、ステップS500を実行してもよい。
 (変形例6)
 上記実施形態では、議論支援装置1が接続する通信ネットワークの一例として広域ネットワーク2が例示されている。しかし、議論支援装置1が接続する通信ネットワークは、広域ネットワーク2に限らず、どのような通信ネットワークであってもよい。
 (変形例7)
 ファシリテーション構造中のノードが注目ノードとなる条件は、上述の条件(1)~(4)以外にあってもよい。例えば、課題である子ノードが存在しない長所、および、課題である子ノードが存在しない短所も、注目ノードとなってもよい。その場合、CPU14は、ファシリテーション構造中の複数の長所または複数の短所のうち、課題である子ノードが存在しない長所または短所のノードがあることに基づいて、問いかけ文として、当該ノードに対する課題を問い合わせる文を作成してもよい。
 また同様に、評価である子ノードが存在しないアイデアも、注目ノードとなってもよい。その場合、CPU14は、ファシリテーション構造中の複数のアイデアのうち、評価である子ノードが存在しないアイデアがあることに基づいて、問いかけ文として、当該アイデアに対する評価を問い合わせる文を作成してもよい。
 つまり、CPU14は、ファシリテーション構造に含まれる複数のノードのうち、子ノードが存在しない特定のノードがあることに基づいて、問いかけ文として、特定のノードの子ノードとなるフレーズを問い合わせる文を作成してもよい。
 (変形例8)
 上記実施形態では、発言中から新規ノードを抽出する処理にニューラルネットの学習済みモデルM01~M04が用いられている。しかし、この処理には、単純ベイズ分類器等のニューラルネット以外のものが用いられてもよい。
 また、上記実施形態では、新規ノードから予測親ノードを算出する処理にニューラルネットの学習済みモデルM11~M16が用いられている。しかし、この処理には、単純ベイズ分類器等のニューラルネット以外のものが用いられてもよい。
 (変形例9)
 上記実施形態では、ファシリテーション構造中において、課題は長所または短所の子ノードとなっている。しかし、課題は、アイデアの子ノードになってもよい。また、課題は、他の課題の子ノードになってもよい。また、課題は、主題の子ノードになってもよい。また、課題、長所、短所、アイデア間の親子関係は、上記例に限らず適宜変更してもよい。また、上記実施形態では、ファシリテーション構造は、主題、アイデア、課題、長所、短所の5種類のノードを含んでいるが、ファシリテーション構造は、手段、アイデア、課題の3種類のノードのみを含んでいてもよい。
 (変形例10)
 CPU14は、ステップS530における妥当性のチェックを行わなくてもよい。すなわち、CPU14は、ステップS520で生成した問いかけ文を、その妥当性をチェックすることなく、ステップS540で投稿してもよい。
1        議論支援装置
2        広域ネットワーク
3~6      端末
13       フラッシュメモリ
Xs       主題
Xm       発言

Claims (15)

  1.  議論の主題(Xs)に対する複数の発言(Xm)を通信ネットワーク(2)を介して取得し、取得した前記複数の発言(Xm)を記憶媒体(13)に記録する発言取得部(S100)と、
     前記発言取得部(S100)によって取得および記録された前記複数の発言(Xm)に基づいてファシリテーション構造を作成する構造作成部(S200)と、を備え、
     前記ファシリテーション構造は、前記主題(Xs)をルートノードとして含み、前記複数の発言に含まれる複数のアイデアのそれぞれ、複数の評価のそれぞれ、および複数の課題のそれぞれを、1つのノードとして含む木構造を表すデータであり、
     前記複数のアイデアは、親ノードとなる前記主題(Xs)または前記複数の課題のうち親ノードとなる課題を解決する案を表すノードを含み、前記複数の評価は、前記複数のアイデアのうち親ノードとなるアイデアの評価を表すノードを含み、前記複数の課題は、前記複数のアイデアのうち親ノードとなる評価に対する課題を表すノードを含み、
     前記構造作成部は、
     前記発言取得部(S100)によって前記記憶媒体(13)に記録された前記複数の発言(Xm)から、前記複数のアイデア、前記複数の評価、および前記複数の課題を抽出する抽出部(S205)と、
     前記抽出部(S205)によって抽出された前記複数のアイデア、前記複数の評価、および前記複数の課題の間の接続形態を特定する特定部(S210、S215)と、
     前記特定部(S210、S215)によって特定された前記複数のアイデア、前記複数の評価、および前記複数の課題の間の接続形態を実現するよう、前記ファシリテーション構造を作成して記憶媒体(13)に記録する記録部(S220)と、を有する議論支援装置。
  2.  前記抽出部は、前記複数の発言の各々について、当該発言を、発言が入力されると当該発言に含まれるアイデアを出力するよう学習されたニューラルネットワークであるアイデア抽出モデル(M01)、発言が入力されると当該発言に含まれる評価を出力するよう学習されたニューラルネットワークである評価抽出モデル(M02、M03)、および、発言が入力されると当該発言に含まれる課題を出力するよう学習されたニューラルネットワークである課題抽出モデル(M04)に、入力することで、当該発言に含まれるアイデア、評価、または課題を抽出する、請求項1に記載の議論支援装置。
  3.  前記特定部は、
     前記抽出部によってアイデア、評価、または課題が新規ノードとして抽出されたとき、前記新規ノードの親ノードになるべき予測親ノードを、前記ファシリテーション構造中のノードとは別に、生成する予測親ノード生成部(S210)と、
     前記ファシリテーション構造から、前記予測親ノードとの類似度が所定の基準より高いノードを選択する高類似ノード選択部(S215)と、
     を備え、
     前記記録部は、前記高類似ノード選択部が選択したノードの子ノードとして、前記新規ノードを前記ファシリテーション構造に追加し、
     予測親ノード生成部は、あるノードが入力されるとそのノードの親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M11-M16)に、前記新規ノードを入力することで、前記予測親ノードを生成する請求項1または2に記載の議論支援装置。
  4.  前記予測親ノード生成部は、あるノードが入力されるとそのノードの親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M11-M16)に、前記新規ノードを入力することで、前記予測親ノードを生成する請求項3に記載の議論支援装置。
  5.  前記予測親ノード生成部は、前記新規ノードがアイデアであれば、あるアイデアが入力されるとそのアイデアの親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M11、M12)に入力することで、前記予測親ノードを生成し、
     前記予測親ノード生成部は、前記新規ノードが評価であれば、ある評価が入力されるとその評価の親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M13、M14)に入力することで、前記予測親ノードを生成し、
     前記予測親ノード生成部は、前記新規ノードが課題であれば、ある課題が入力されるとその課題の親ノードになるべきノードを前記ファシリテーション構造中のノードとは別に生成するようあらかじめ学習されたニューラルネットワークである学習済みモデル(M15、M16)に入力することで、前記予測親ノードを生成する、請求項3に記載の議論支援装置。
  6.  前記ファシリテーション構造に基づいて、前記議論について所定の終結条件が満たされたか否かを判定する判定部(S300)と、
     前記所定の終結条件が満たされたと前記判定部が判定したことに基づいて、議論が終結したことを示すデータを、前記通信ネットワークを介して送信可能なように作成する終結部(S600)とを備えたことを特徴とする請求項1ないし5のいずれか1つに記載の議論支援装置。
  7.  前記記録部(S220)が前記記憶媒体(13)に記録した前記ファシリテーション構造に基づいて、前記議論における発言を誘導するための問いかけ文を、前記通信ネットワークを介して送信可能なように生成する誘導部(S500)を備えた請求項1ないし6のいずれか1つに記載の議論支援装置。
  8.  議論の主題(Xs)に対する複数の発言(Xm)を通信ネットワーク(2)を介して取得し、取得した前記複数の発言(Xm)を記憶媒体(13)に記録する発言取得部(S100)と、
     前記発言取得部(S100)によって取得および記録された前記複数の発言(Xm)に基づいて作成されたファシリテーション構造を取得して記憶媒体に記録する構造取得部(S200)と、
     前記構造取得部(S200)が前記記憶媒体(13)に記録した前記ファシリテーション構造に基づいて、前記議論における発言を誘導するための問いかけ文を、前記通信ネットワークを介して送信可能なように生成する誘導部(S500)と、を備え、
     前記ファシリテーション構造は、前記主題(Xs)をルートノードとして含み、前記複数の発言に含まれる複数のアイデアのそれぞれ、複数の評価のそれぞれ、および複数の課題のそれぞれを、1つのノードとして含む木構造を表すデータであり、
     前記複数のアイデアは、親ノードとなる前記主題(Xs)または前記複数の課題のうち親ノードとなる課題を解決する案を表すノードを含み、前記複数の評価は、前記複数のアイデアのうち親ノードとなるアイデアの評価を表すノードを含み、前記複数の課題は、前記複数のアイデアのうち親ノードとなる評価に対する課題を表すノードを含む、議論支援装置。
  9.  前記誘導部は、前記ファシリテーション構造に含まれる複数のノードのうち、子ノードが存在しない特定のノード(M)があることに基づいて、前記問いかけ文として、前記特定のノードの子ノードとなるフレーズを問い合わせる文を作成することを特徴とする請求項7または8に記載の議論支援装置。
  10.  前記複数の評価は、複数の長所と、複数の短所とを含み、
     前記ファシリテーション構造は、前記複数の長所のそれぞれ、および、前記複数の短所のそれぞれを、1つのノードとして含み、
     前記複数の長所は、前記複数のアイデアのうち親ノードとなるアイデアの長所を表し、
     前記複数の短所は、前記複数のアイデアのうち親ノードとなるアイデアの短所を表すことを特徴とする請求項7ないし9のいずれか1つに記載の議論支援装置。
  11.  前記誘導部は、
     前記複数のアイデアのうち、長所である子ノードが存在しない特定のアイデア(C)があることに基づいて、前記問いかけ文として、前記特定のアイデアに対する長所を問い合わせる文を作成することを特徴とする請求項10に記載の議論支援装置。
  12.  前記誘導部は、
     前記複数のアイデアのうち、短所である子ノードが存在しない特定のアイデアがあることに基づいて、前記問いかけ文として、前記特定のアイデアに対する短所を問い合わせる文を作成することを特徴とする請求項10または11に記載の議論支援装置。
  13.  前記誘導部は、
     前記ファシリテーション構造に含まれる複数のノードのうち、生成された後に所定の猶予時間を経過しても子ノードが生成されない葉ノード(L)があることに基づいて、前記問いかけ文として、前記葉ノードの先祖ノード(C)に基づいた発言を促す文を作成することを特徴とする請求項7ないし12のいずれか1つに記載の議論支援装置。
  14.  議論の主題(Xs)に対する複数の発言(Xm)を通信ネットワーク(2)を介して取得し、取得した前記複数の発言(Xm)を記憶媒体(13)に記録する発言取得部(S100)、
     前記発言取得部(S100)によって取得および記録された前記複数の発言(Xm)に基づいてファシリテーション構造を作成する構造作成部(S200)、として、議論支援装置を機能させるプログラムであって、
     前記ファシリテーション構造は、前記主題(Xs)をルートノードとして含み、前記複数の発言に含まれる複数のアイデアのそれぞれ、複数の評価のそれぞれ、および複数の課題のそれぞれを、1つのノードとして含む木構造を表すデータであり、
     前記複数のアイデアは、親ノードとなる前記主題(Xs)または前記複数の課題のうち親ノードとなる課題を解決する案を表すノードを含み、前記複数の評価は、前記複数のアイデアのうち親ノードとなるアイデアの評価を表すノードを含み、前記複数の課題は、前記複数のアイデアのうち親ノードとなる評価に対する課題を表すノードを含み、
     前記構造作成部は、
     前記発言取得部(S100)によって前記記憶媒体(13)に記録された前記複数の発言(Xm)から、前記複数のアイデア、前記複数の評価、および前記複数の課題を抽出する抽出部(S205)と、
     前記抽出部(S205)によって抽出された前記複数のアイデア、前記複数の評価、および前記複数の課題の間の接続形態を特定する特定部(S210、S215)と、
     前記特定部(S210、S215)によって特定された前記複数のアイデア、前記複数の評価、および前記複数の課題の間の接続形態を実現するよう、前記ファシリテーション構造を作成して記憶媒体(13)に記録する記録部(S220)と、を有するプログラム。
  15.  議論の主題(Xs)に対する複数の発言(Xm)を通信ネットワーク(2)を介して取得し、取得した前記複数の発言(Xm)を記憶媒体(13)に記録する発言取得部(S100)、
     前記発言取得部(S100)によって取得および記録された前記複数の発言(Xm)に基づいて作成されたファシリテーション構造を取得して記憶媒体に記録する構造取得部(S200)、
     前記構造取得部(S200)が前記記憶媒体(13)に記録した前記ファシリテーション構造に基づいて、前記議論における発言を誘導するための問いかけ文を、前記通信ネットワークを介して送信可能なように生成する誘導部(S500)として、議論支援装置を機能させるプログラムであって、
     前記ファシリテーション構造は、前記主題(Xs)をルートノードとして含み、前記複数の発言に含まれる複数のアイデアのそれぞれ、複数の評価のそれぞれ、および複数の課題のそれぞれを、1つのノードとして含む木構造を表すデータであり、
     前記複数のアイデアは、親ノードとなる前記主題(Xs)または前記複数の課題のうち親ノードとなる課題を解決する案を表すノードを含み、前記複数の評価は、前記複数のアイデアのうち親ノードとなるアイデアの評価を表すノードを含み、前記複数の課題は、前記複数のアイデアのうち親ノードとなる評価に対する課題を表すノードを含む、プログラム。
PCT/JP2019/031183 2018-08-07 2019-08-07 議論支援装置および議論支援装置用のプログラム WO2020032125A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/266,893 US11847421B2 (en) 2018-08-07 2019-08-07 Discussion support device and program for discussion support device
JP2020535844A JP7360655B2 (ja) 2018-08-07 2019-08-07 議論支援装置および議論支援装置用のプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018148665 2018-08-07
JP2018-148665 2018-08-07

Publications (1)

Publication Number Publication Date
WO2020032125A1 true WO2020032125A1 (ja) 2020-02-13

Family

ID=69414817

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/031183 WO2020032125A1 (ja) 2018-08-07 2019-08-07 議論支援装置および議論支援装置用のプログラム

Country Status (3)

Country Link
US (1) US11847421B2 (ja)
JP (1) JP7360655B2 (ja)
WO (1) WO2020032125A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238511A1 (ja) * 2022-06-07 2023-12-14 株式会社日立製作所 発想支援装置、発想支援プログラムおよび発想支援方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200123945A (ko) * 2019-04-23 2020-11-02 현대자동차주식회사 자연어 생성 장치, 이를 포함하는 차량 및 자연어 생성 방법
US11841914B2 (en) * 2021-10-19 2023-12-12 Intelling Media Corp. System and method for topological representation of commentary

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011187064A (ja) * 2011-03-09 2011-09-22 Fuji Xerox Co Ltd 画像処理システム及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7266548B2 (en) * 2004-06-30 2007-09-04 Microsoft Corporation Automated taxonomy generation
JP2012014234A (ja) 2010-06-29 2012-01-19 Tokyo Denki Univ 合意形成支援装置および合意形成支援プログラム
JP2013003880A (ja) 2011-06-17 2013-01-07 Tokyo Denki Univ 合意形成支援装置、合意形成支援プログラムおよび合意形成支援方法
US9946809B2 (en) * 2014-04-09 2018-04-17 Introspective Systems LLC Executable graph framework for the management of complex systems
TWI602064B (zh) * 2016-11-23 2017-10-11 財團法人工業技術研究院 資料傳輸系統,以及其所使用的拓樸架構建立方法與拓樸架構修復方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011187064A (ja) * 2011-03-09 2011-09-22 Fuji Xerox Co Ltd 画像処理システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HISAKANE, DAICHI,: "A Diagramming Method of Case Method Discussion by using Cascade SVM", DOCUMENTS OF RESEARCH GROUP OF THE INSTITUTE OF ELECTRICAL ENGINEERING OF JAPAN), 28 May 2015 (2015-05-28), pages 69 - 74 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238511A1 (ja) * 2022-06-07 2023-12-14 株式会社日立製作所 発想支援装置、発想支援プログラムおよび発想支援方法

Also Published As

Publication number Publication date
JPWO2020032125A1 (ja) 2021-08-10
JP7360655B2 (ja) 2023-10-13
US11847421B2 (en) 2023-12-19
US20210319187A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
Androutsopoulou et al. Transforming the communication between citizens and government through AI-guided chatbots
Deriu et al. Survey on evaluation methods for dialogue systems
CN111641514B (zh) 会议智能***、用于会议智能的方法和存储介质
CN106685916B (zh) 电子会议智能装置及方法
JP6793975B2 (ja) 動画基盤求人求職マッチングサーバーおよび方法ならびにその方法を遂行するためのプログラムが記録されたコンピュータ読み取り可能記録媒体
WO2020032125A1 (ja) 議論支援装置および議論支援装置用のプログラム
MX2014004409A (es) Esqueleto de curso para el aprendizaje adaptativo.
JP2019502981A (ja) 自動的な音声対話スクリプトの発見
Bell et al. Microblogging as a mechanism for human–robot interaction
Chen et al. Cognitive computing on unstructured data for customer co-innovation
Wilks et al. A prototype for a conversational companion for reminiscing about images
CN111737432A (zh) 一种基于联合训练模型的自动对话方法和***
EP4060476A2 (en) Establishment of audio-based network sessions with non-registered resources
CN116932733A (zh) 基于生成式大语言模型的信息推荐方法及相关装置
Huang et al. Developing context-aware dialoguing services for a cloud-based robotic system
Demetriadis et al. Conversational agents and language models that learn from human dialogues to support design thinking
US20230064816A1 (en) Automated cognitive load-based task throttling
CN114757206A (zh) 咨询服务方法、***及存储介质
US20200401279A1 (en) User interface for providing machine-learned reviewer recommendations
Badami et al. On how cognitive computing will plan your next systematic review
Becker et al. Future home stories: participatory predicaments and methodological scaffolding in narrative speculation on alternative domestic lives
Agarwal et al. CodeUP: A Web Application for Collaborative Question-answering System
JP7339310B2 (ja) 登録されていないリソースによるオーディオベースのネットワークセッションの確立
Almajano et al. Assistant agents to advice users in hybrid structured 3D virtual environments
Bhutada et al. Chatra Paryesana: A Student Enquiry System

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19848102

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020535844

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19848102

Country of ref document: EP

Kind code of ref document: A1