WO2021053758A1 - データ処理装置、学習装置、データ処理方法、及び、記録媒体 - Google Patents

データ処理装置、学習装置、データ処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2021053758A1
WO2021053758A1 PCT/JP2019/036576 JP2019036576W WO2021053758A1 WO 2021053758 A1 WO2021053758 A1 WO 2021053758A1 JP 2019036576 W JP2019036576 W JP 2019036576W WO 2021053758 A1 WO2021053758 A1 WO 2021053758A1
Authority
WO
WIPO (PCT)
Prior art keywords
odor
label
data
space
data processing
Prior art date
Application number
PCT/JP2019/036576
Other languages
English (en)
French (fr)
Inventor
山田 聡
江藤 力
純子 渡辺
鈴木 亮太
ひろみ 清水
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2021546109A priority Critical patent/JPWO2021053758A5/ja
Priority to PCT/JP2019/036576 priority patent/WO2021053758A1/ja
Priority to US17/640,474 priority patent/US20220343184A1/en
Publication of WO2021053758A1 publication Critical patent/WO2021053758A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Definitions

  • the present invention relates to odor data analysis.
  • odor analysis has been performed using odor data obtained from odor sensors.
  • odor analysis it is desired to quantitatively show the meaningful relationship between odor data acquired from the odor sensor.
  • odors of completely different genres such as coffee and tire odors, it is required to quantitatively express the odor relationship in an integrated manner.
  • Patent Document 1 describes a method called "Word Embedding” or “Distributed expression of words” using, for example, Word2vec, Grove, and the like.
  • word embedding or “distributed expression of words” is a technique for expressing the meaning of a word with a low-dimensional real number vector.
  • Patent Document 1 is a method of expressing the semantic relationship of natural language as a vector, and cannot quantitatively express the relationship between odor data obtained from an odor sensor.
  • One object of the present invention is to quantitatively express the relationship between odor data obtained from an odor sensor.
  • the data processing device is The acquisition department that acquires odor data, A prediction unit that predicts the label of the acquired odor data in the label space using a model that learns the relationship between the odor data and the label space that indicates the characteristics of the odor. To be equipped.
  • the learning device A learning data acquisition unit that acquires learning data in which the odor data of an object and a label indicating the object are associated with each other in a label space indicating the characteristics of the odor.
  • a learning unit that learns a model that predicts the label of the odor data in the label space from the odor data using the learning data. To be equipped.
  • the data processing method Get odor data, Using a model that learns the relationship between the odor data and the label space indicating the characteristics of the odor, the label of the acquired odor data in the label space is predicted.
  • the recording medium is: Get odor data, Using a model that has learned the relationship between the odor data and the label space that indicates the characteristics of the odor, a program that causes a computer to execute a process of predicting the label of the acquired odor data in the label space is recorded.
  • the basic principle using the prediction device of the embodiment is shown. It is a block diagram which shows the hardware configuration of the prediction apparatus which concerns on embodiment. It is a block diagram which shows the functional structure for learning by 1st Embodiment. An example of label space is shown. Another example of label space is shown. It is a flowchart of the learning process by the prediction apparatus of 1st Embodiment. It is a block diagram which shows the functional structure for prediction by 1st Embodiment. It is a flowchart of the label prediction processing by the prediction apparatus of 1st Embodiment. The functional configuration of the prediction device that performs the distance calculation process is shown. It is a flowchart of a distance calculation process. The functional configuration of the prediction device that performs the article proposal processing is shown.
  • the predictor of the embodiment expresses the odor data by a vector by predicting the label in a certain vector space with respect to the input odor data.
  • FIG. 1 shows the basic principle using the prediction device of the present embodiment.
  • the odor sensor 5 detects the odor of the object and outputs the odor data.
  • the odor sensor 5 may be a semiconductor type sensor, a crystal vibration type sensor, a FET biosensor, or the like as long as it can quantitatively acquire odor data.
  • the film type surface stress sensor is used. It will be described as used.
  • the odor sensor 5 detects the deflection of the detection film when odor molecules adhere to the detection film such as silicon, and outputs it as a voltage change. Since the method of bending the detection film is different for each odor molecule, the odor sensor 5 outputs a different voltage waveform (also referred to as “odor waveform”) for each odor.
  • odor waveform also referred to as “odor waveform”
  • odor data a feature amount indicating the odor waveform output by the odor sensor 5 is used.
  • the odor waveform output by the odor sensor 5 for the object may be used as it is, or the average value obtained by a plurality of detections, the value indicating the characteristic in the shape of the odor waveform, and the odor waveform are decomposed into exponential components.
  • the value, maximum value, minimum value, median value, etc. of the component composition of the time can be used as odor data.
  • pretreatment such as noise removal may be performed in advance.
  • the prediction device 10 predicts the label in the vector space indicating the characteristics of the odor based on the input odor data. Since the label in the vector space indicates the vector quantity in the vector space, the odor data is represented by a vector. By expressing the odor data in the vector space, it is possible to quantitatively analyze the relationship between a plurality of odors and to add and subtract a plurality of odors.
  • FIG. 2 is a block diagram showing a hardware configuration of the prediction device according to the first embodiment.
  • the prediction device 10 includes an interface (IF) 12, a processor 13, a memory 14, a recording medium 15, and a database 16.
  • Interface 12 communicates with an external device. Specifically, the interface 12 is used when inputting odor data from the odor sensor 5 or a device storing odor data, or when outputting a label obtained as a prediction result to the outside.
  • the processor 13 is a computer such as a CPU (Central Processing Unit) or a CPU and a GPU (Graphics Processing Unit), and controls the entire prediction device 10 by executing a program prepared in advance.
  • the memory 14 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the memory 14 stores various programs executed by the processor 13.
  • the memory 14 is also used as a working memory during execution of various processes by the processor 13.
  • the recording medium 15 is a non-volatile, non-temporary recording medium such as a disk-shaped recording medium or a semiconductor memory, and is configured to be detachable from the prediction device 10.
  • the recording medium 15 records various programs executed by the processor 13. When the prediction device 10 executes each of the processes described later such as the label prediction process, the program recorded on the recording medium 15 is loaded into the memory 14 and executed by the processor 13.
  • the database 16 stores data necessary for the processing performed by the prediction device 10. Specifically, the database 16 stores training data used when training a model for predicting labels.
  • the prediction device 10 may include an input device such as a keyboard and a mouse, a display device, and the like.
  • FIG. 3 is a block diagram showing a functional configuration for learning.
  • the prediction device 10 includes a prediction model 21, a parameter update unit 22, and a teacher database (hereinafter, the database is also referred to as “DB”) 23.
  • the prediction model 21 is a model for predicting labels in a vector space (hereinafter, also referred to as “label space”) showing odor characteristics from odor data, and is composed of, for example, a neural network (NN).
  • the parameter update unit 22 updates a plurality of parameters constituting the prediction model 21 in the learning process of the prediction model 21.
  • the teacher DB 23 stores learning data for learning the prediction model.
  • the prediction model 21 is learned using the learning data stored in the teacher DB 23.
  • the learning data is data in which odor data of various objects are associated with labels indicating the objects in the label space. Each label is defined for each label space as described later.
  • odor data of a certain object is input to the prediction model 21, and the prediction model 21 predicts a label for the odor data and generates a prediction result (referred to as “prediction label”).
  • Prediction label a prediction result
  • Output to the parameter update unit 22 acquires the correct label of the odor data of the object from the teacher DB 23.
  • the parameter updating unit 22 calculates the error between the prediction label and the correct answer label, and updates the parameter of the prediction model 21 so that the error becomes small. In this way, the prediction model 21 is trained using the training data.
  • the label space is a vector space showing the characteristics of odor, and is a space in which the label obtained as a prediction result is defined.
  • odors By expressing odors using labels indicating the amount of vectors in the label space, it is possible to quantitatively express the relationship between a plurality of odors. For example, labels located close together in a label space exhibit a close odor in that label space, and labels located in opposite directions in a label space exhibit odors of contrasting properties in that label space. It can be considered that there is. However, even if the smell is the same, if the label space is different, the vector expressing it will be different. In this embodiment, the odor is expressed using some label spaces as described below.
  • a space showing the structure and chemical properties of a substance is used as a label space. Since the odor of a substance is considered to be determined by the structure and chemical properties of the substance, it is considered effective to use a space showing the structure and chemical properties of the substance as a label space.
  • the label space is a vector space centered on an index that quantitatively indicates the structure and chemical properties of a molecule.
  • FIG. 4A shows an example in which a vector space centered on “molecular weight” and “boiling point” is used as a label space as chemical properties of a substance, and labels “ethylene” and “ethanol” are expressed in this space.
  • Labels that can be used in addition to the molecular weight and boiling point include composition formula, demonstrative formula, structural formula, type / number of functional groups, carbon number, degree of unsaturation, concentration, solubility in water, polarity, melting point, density, Molecular orbitals, etc. can be mentioned. Further, mol2vc, which is a method of expressing the molecular structure as a vector, may be used.
  • FIG. 4B shows an example in which a vector space centered on “unpleasant” and “sweet” is used as a sensory evaluation index, and labels “chocolate” and “fragrance” are expressed on this space.
  • a large number of words are appropriately selected to express odors, and these words can be used as sensory evaluation indexes to form a label space.
  • the sensory test includes, for example, a discriminant test such as a two-point discrimination method or a three-point discrimination method, a descriptive test such as a scoring method or a QDA (Quantitative Dynamic Analysis) method, a time intensity test, and a TDS (Temporal Dynamic Of). Examples), a time dynamic method such as TCATA (Temporal Check All That Application), a preference type sensory evaluation method using a general panel, and the like can be mentioned.
  • a discriminant test such as a two-point discrimination method or a three-point discrimination method
  • a descriptive test such as a scoring method or a QDA (Quantitative Dynamic Analysis) method
  • a time intensity test such as a time intensity test
  • TDS Temporal Dynamic Of
  • word2vec space is used as the label space.
  • "Word2vec” is a method of expressing the meaning of a word in a vector (distributed expression), and in this example, the space of word2vec is used as a label space.
  • the odor data can be defined as a vector in the waveform space that defines the feature amount indicating the odor waveform.
  • the prediction model 21 transforms this odor data into a vector in word2vec space. That is, the prediction model 21 learns the conversion from the waveform space to the word2vec space.
  • word2vec space is basically a space that expresses the meaning of a word, but since it is thought that the meaning of a word and the odor that we humans imagine from that word are related to some extent, word2vec The method of expressing the odor using space is considered to be effective.
  • word2vec space since the nature of the word2vec space depends on the sentence (corpus) used when learning it, when using the word2vec space as the label space, the word2vec learning is performed using the sentence related to the odor. There is a need to do. Therefore, for example, word2vec learned using sentences related to odor, such as research documents such as olfactory papers, cosmetic review comments, food catalogs, and gourmet guide review articles, is used as a label space.
  • sentences related to odor such as research documents such as olfactory papers, cosmetic review comments, food catalogs, and gourmet guide review articles
  • a label space may be constructed by using some biological reaction that occurs in the human body when a human smells. For example, brain waves when a human smells, a functional magnetic resonance imaging (fMRI), a heartbeat interval (RRI: RR Interval), and the like can be used.
  • fMRI functional magnetic resonance imaging
  • RRI heartbeat interval
  • a new label space may be created by simply combining two or more label spaces in the first to fourth examples.
  • the sensory evaluation index space of the second example and the word2vec space of the third example may be used in two stages. Sensory evaluation indicators often use nouns, adjectives, and onomatopes to express odors. For example, hexane is said to have a "kerosene-like odor" and hexanal is said to have an "old rice odor", and the odor is expressed by associating it with an appropriate language. In this way, by first connecting languages to odors and then using word2vec, which represents the distance between languages, it is possible to use a label space that is close to the sensation of human recognition of odors.
  • FIG. 6 is a flowchart of the learning process. This process is performed by the processor 13 shown in FIG. 2 executing a program prepared in advance and functioning as each component shown in FIG.
  • the odor data is input to the prediction device 10 (step S11).
  • the output of the odor sensor 5 may be directly input to the prediction device 10, or the odor data stored in the storage device or the like may be input to the prediction device 10.
  • the prediction device 10 predicts the label of the odor data using the prediction model 21 and outputs the prediction label (step S12).
  • the parameter update unit 22 compares the prediction label acquired from the prediction model 21 with the correct label of the odor data acquired from the teacher DB 23, and updates the parameters of the prediction model based on those errors ( Step S13).
  • the prediction device 10 determines whether or not the predetermined end condition is satisfied (step S14). If the end condition is not satisfied (step S14: No), the process returns to step S11, and steps S11 to S13 are repeated. On the other hand, when the end condition is satisfied (step S14: Yes), the process ends.
  • the end condition is a predetermined condition relating to the number of repetitions of the processes of steps S11 to S13, the degree of change in the error between the predicted label and the correct label, and the like.
  • FIG. 7 is a block diagram showing a functional configuration for prediction.
  • the prediction device 30 has the same hardware configuration as the prediction device 10 shown in FIG.
  • the prediction device 30 has a prediction model 31.
  • the prediction model 31 is a model that has been trained by the above-mentioned learning process, has the same network configuration as the prediction model 21 used in the learning process, and has parameters updated by the learning process.
  • the prediction model 31 predicts and outputs a label in a predetermined label space based on the input odor data.
  • FIG. 8 is a flowchart of the prediction process by the prediction device 30.
  • the prediction device 30 predicts the label using the prediction model 31 (step S22), and outputs the label as the prediction result (step S23). Then, the process ends. In this way, the prediction device 30 outputs a label corresponding to the input odor data. Since this label represents the amount of vector in the label space used in the learning process, the odor is quantitatively shown by the position and direction in the label space.
  • FIG. 9 shows the functional configuration of the prediction device 30a that performs the distance calculation process.
  • the distance calculation process calculates the distance between the labels corresponding to the plurality of input odor data.
  • the prediction device 30a includes a prediction model 31 and a distance calculation unit 32.
  • the prediction model 31 is the same as that of the prediction device 30 shown in FIG.
  • FIG. 10 is a flowchart of the distance calculation process.
  • the prediction model 31 predicts a label for each odor data and outputs the label to the distance calculation unit 32 (step S32).
  • the distance calculation unit 32 calculates the distance between the plurality of input labels (step S33). As the distance, the Euclidean distance, the Mahalanobis distance, or the like can be used. Then, the distance calculation unit 32 outputs the calculated distance between the labels (step S34).
  • the distance calculation unit 32 may output the calculated distance value between the labels, or may output a level of several levels indicating the distance between the labels.
  • the distance calculation process can determine the closeness of a plurality of input odor data, and is effective when it is desired to quantitatively determine how close the plurality of odors are.
  • FIG. 11 shows the functional configuration of the prediction device 30b that performs the article proposal processing.
  • the article proposal process is a process of proposing an article having an odor close to the input odor data.
  • the prediction device 30b includes a prediction model 31, an article DB 33, and an article determination unit 34.
  • the prediction model 31 is the same as that of the prediction device 30 shown in FIG.
  • the article DB 33 stores a label indicating the odor of the article for each article.
  • the article determination unit 34 calculates the distance between the label output by the prediction model 31 and the label of the article stored in the article DB 33, determines an article closer than a predetermined value, and presents the information.
  • the article stored in the article DB 33 may be an article whose odor is learned when the prediction model 31 is created, or may be an article that has not been learned. That is, this article only needs to have a label in the label space, and does not need to have odor data. Even if the article has an odor that has not been used for learning the prediction model 31, it is possible to propose the article if the odor of the article can be labeled in the label space.
  • FIG. 12 is a flowchart of the article proposal process.
  • the prediction model 31 predicts a label for the odor data and outputs the prediction label to the article determination unit 34 (step S42).
  • the article determination unit 34 calculates the distance between the prediction label input from the prediction model 31 and the labels of the plurality of candidate articles stored in the article DB 33 (step S43). Then, the article determination unit 34 determines one or a plurality of articles whose distance from the prediction label is equal to or less than a predetermined value, and outputs the information (step S43).
  • the article proposal process it is possible to search for an article having an odor close to a specific odor.
  • the article proposal process can be used, for example, when searching for another perfume that is close to the perfume preferred by one customer.
  • the odor data proposal processing is a process of proposing the form of odor data when an arbitrary label is output.
  • FIG. 13 shows the functional configuration of the prediction device 30c that performs the odor data proposal processing.
  • the prediction device 30c includes a prediction model 31, an odor data generator 35, and a distance determination unit 36.
  • the prediction model 31 is the same as that of the prediction device 30 shown in FIG.
  • the odor data generator 35 systematically changes the odor data and comprehensively outputs the odor data.
  • the prediction model 31 predicts the label for the odor data comprehensively output by the odor data generator 35, and outputs the label to the distance determination unit 36.
  • the distance determination unit 36 calculates the distance between the label predicted by the prediction model 31 and an arbitrary label.
  • the distance determination unit 36 rejects the distance, adopts the odor data when the distance becomes less than a certain value, and outputs the determination result.
  • the odor data proposal processing can be used, for example, when searching for an odor type / combination that satisfies arbitrary properties when developing a new product.
  • FIG. 14 shows an example of discriminating the label of odor data using a neural network.
  • the neural network constituting the prediction model 40 has an input layer 41, an intermediate layer 42, and an output layer 43.
  • the output layer 43 is configured by a softmax function or the like, and outputs a label 44 for the input odor data.
  • training data odor data and labels corresponding to the odor data are prepared, and the prediction model 40 is trained.
  • the label of the training data the one related to the odor is prepared.
  • the feature vector obtained by a part 42x of the intermediate layer 42 located immediately before the output layer 43 is used as a vector expressing the input odor data.
  • the labels used for training are not defined in the label space, but when the prediction model 40 is trained so that a large number of labels can be correctly discriminated, a feature 42x generated by a part 42x of the intermediate layer 42 is generated.
  • the vector though implicitly, is thought to be characteristic of the input odor data. Therefore, the feature vector output by a part 42x of the intermediate layer 42 with respect to the input odor data may be used as a vector for the odor data.
  • FIG. 15A is a block diagram showing a functional configuration of the data processing device according to the second embodiment.
  • the data processing device 50 includes an acquisition unit 51 and a prediction unit 52.
  • the acquisition unit 51 acquires odor data from the outside.
  • the prediction unit 52 predicts the label of the odor data acquired by the acquisition unit 51 in the label space by using a model that has learned the relationship between the odor data and the label in the label space showing the characteristics of the odor. In this way, the label in the label space can be predicted for the input odor data.
  • FIG. 15B is a block diagram showing a functional configuration of the learning device according to the second embodiment.
  • the learning device 60 includes a learning data acquisition unit 61, a learning unit 62, and a model 63.
  • the learning data acquisition unit 61 acquires learning data in which the odor data of the object is associated with the label indicating the object in the label space indicating the characteristics of the odor.
  • the learning unit 62 learns the model 63 for predicting the label of the odor data in the label space from the odor data by using the learning data. Thereby, the model 63 for predicting the label in the label space of the odor data can be learned.
  • a data processing device comprising.
  • Appendix 2 The label space is a space that expresses the semantic relationship of words as a distributed expression.
  • the label space is a space showing a sensory evaluation index of odor.
  • the label space is a space that expresses the chemical properties of odor.
  • the label space is a space that represents the characteristics of the biological reaction to odor.
  • the data processing device according to Appendix 1, wherein the model is learned by using the characteristics of the biological reaction when a person smells.
  • the acquisition unit acquires two or more odor data and obtains them.
  • the prediction unit predicts the labels of the two or more odor data.
  • the data processing apparatus according to any one of Appendix 1 to 5, further comprising a calculation unit for calculating the distance between labels of predicted odor data.
  • Appendix 7 A storage unit that stores labels in the label space for a plurality of articles, An article presentation unit that determines an article in which the distance between the label predicted by the prediction unit and the label for a plurality of articles stored in the storage unit is equal to or less than a predetermined value and presents the article.
  • the data processing apparatus according to any one of Appendix 1 to 5.
  • Appendix 8 A distance determination unit that determines whether or not the distance between the label predicted by the prediction unit and an arbitrary label is equal to or less than a predetermined value and outputs a determination result.
  • the data processing apparatus according to any one of Appendix 1 to 5.
  • Appendix 9 The data processing apparatus according to any one of Appendix 1 to 8, wherein the odor data is data indicating a feature amount of an odor waveform output by an odor sensor.
  • a learning data acquisition unit that acquires learning data in which the odor data of an object and a label indicating the object are associated with each other in a label space indicating the characteristics of the odor.
  • a learning unit that learns a model that predicts the label of the odor data in the label space from the odor data using the learning data.
  • a learning device equipped with
  • a recording medium that records a program that causes a computer to execute a process of predicting the label of the acquired odor data in the label space using a model that learns the relationship between the odor data and the label in the label space indicating the characteristics of the odor. ..

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

学習装置は、対象物のにおいデータと、においの特徴を示すラベル空間において対象物を示すラベルとを対応付けた学習データを取得し、においデータから、当該においデータのラベル空間におけるラベルを予測するモデルを学習する。においデータを処理するデータ処理装置において、取得部は、外部からにおいデータを取得する。予測部は、においデータと、においの特徴を示すラベル空間におけるラベルとの関係を学習したモデルを用いて、取得部が取得したにおいデータのラベル空間におけるラベルを予測する。

Description

データ処理装置、学習装置、データ処理方法、及び、記録媒体
 本発明は、においデータ分析に関する。
 近年、においセンサから得られたにおいデータを用いて、においの分析が行われている。においの分析においては、においセンサから取得したにおいデータ同士の意味ある関係性を定量的に示すことが望まれている。例えば、においセンサから得られたワインAにおいを示すにおいデータと、ワインBのにおいを示すにおいデータとの関係を定量的に表すことが求められている。さらに、例えばコーヒーやタイヤのにおいといった全くジャンルの違うにおいであっても、統合的ににおいの関係を定量的に表すことが求められている。
 特許文献1は、例えばword2vec、Gloveなどを用いた「単語埋め込み(Word Embedding)」又は「単語の分散表現」と呼ばれる手法を記載している。なお、「単語埋め込み」又は「単語の分散表現」とは、単語の意味を低次元の実数ベクトルで表現する技術である。
特開2017-151838号公報
 しかし、特許文献1は、自然言語の意味関係をベクトルで表す手法であり、においセンサから得られたにおいデータ同士の関係性を定量的に表すことはできない。
 本発明の1つの目的は、においセンサから得られたにおいデータ同士の関係を定量的に表すことにある。
 上記の課題を解決するため、本発明の一つの観点では、データ処理装置は、
 においデータを取得する取得部と、
 においデータと、においの特徴を示すラベル空間との関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測する予測部と、
 を備える。
 本発明の他の観点では、学習装置は、
 対象物のにおいデータと、においの特徴を示すラベル空間において前記対象物を示すラベルとを対応付けた学習データを取得する学習データ取得部と、
 前記学習データを用いて、においデータから、当該においデータの前記ラベル空間におけるラベルを予測するモデルを学習する学習部と、
 を備える。
 本発明のさらに他の観点では、データ処理方法は、
 においデータを取得し、
 においデータと、においの特徴を示すラベル空間との関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測する。
 本発明のさらに他の観点では、記録媒体は、
 においデータを取得し、
 においデータと、においの特徴を示すラベル空間との関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測する処理をコンピュータに実行させるプログラムを記録する。
 本発明によれば、においセンサから得られたにおいデータ同士の関係を定量的に表すことが可能となる。
実施形態の予測装置を用いた基本的な原理を示す。 実施形態に係る予測装置のハードウェア構成を示すブロック図である。 第1実施形態による学習のための機能構成を示すブロック図である。 ラベル空間の例を示す。 ラベル空間の他の例を示す。 第1実施形態の予測装置による学習処理のフローチャートである。 第1実施形態による予測のための機能構成を示すブロック図である。 第1実施形態の予測装置によるラベル予測処理のフローチャートである。 距離算出処理を行う予測装置の機能構成を示す。 距離算出処理のフローチャートである。 物品提案処理を行う予測装置の機能構成を示す。 物品提案処理のフローチャートである。 においデータ提案処理を行う予測装置の機能構成を示す。 ラベル空間を用いずにラベルを判別する例を模式的に示す。 第2実施形態に係るデータ処理装置及び学習装置の構成を示す。
 [原理説明]
 まず、本発明の実施形態の基本原理について説明する。実施形態の予測装置は、入力されたにおいデータに対して、あるベクトル空間におけるラベルを予測することにより、においデータをベクトルにより表現する。
 図1は、本実施形態の予測装置を用いた基本的な原理を示す。まず、においセンサ5は、対象物のにおいを検出し、においデータを出力する。においセンサ5は、定量的ににおいデータを取得できるものであれば良く、例えば、半導体式センサ、水晶振動式センサ、FETバイオセンサ、などであっても良いが、ここでは膜型表面応力センサを用いたものとして説明する。においセンサ5は、シリコンなどの検出膜ににおい分子が付着したときの検出膜のたわみを検知し、電圧変化として出力する。検出膜のたわみ方は、におい分子毎に異なるため、においセンサ5はにおい毎に異なる電圧波形(「におい波形」とも呼ぶ。)を出力する。よって、におい波形を分析することにより、様々な物質を判別することもできる。なお、においデータとしては、においセンサ5が出力したにおい波形を示す特徴量を使用する。例えば、対象物についてにおいセンサ5が出力したにおい波形をそのまま使っても良いし、複数回の検出により得られた平均値、におい波形の形状における特徴を示す値、におい波形を指数成分に分解したときの成分構成の値、最大値、最小値、中央値などをにおいデータとして使用することができる。また、ノイズ除去などの前処理を事前に行っても良い。
 予測装置10は、入力されたにおいデータに基づいて、においの特徴を示すベクトル空間におけるラベルを予測する。ベクトル空間におけるラベルは、そのベクトル空間におけるベクトル量を示すため、においデータがベクトルで表現される。においデータをベクトル空間上で表現することにより、複数のにおいの関係を定量的に分析したり、複数のにおいを足し引きしたりすることが可能となる。
 [第1実施形態]
 (ハードウェア構成)
 図2は、第1実施形態に係る予測装置のハードウェア構成を示すブロック図である。図示のように、予測装置10は、インタフェース(IF)12と、プロセッサ13と、メモリ14と、記録媒体15と、データベース16と、を備える。
 インタフェース12は、外部装置との通信を行う。具体的に、インタフェース12は、においセンサ5やにおいデータを記憶した装置からにおいデータを入力したり、予測結果として得られたラベルを外部へ出力したりする際に使用される。
 プロセッサ13は、CPU(Central Processing Unit)、又はCPUとGPU(Graphics Processing Uit)などのコンピュータであり、予め用意されたプログラムを実行することにより、予測装置10の全体を制御する。メモリ14は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ14は、プロセッサ13により実行される各種のプログラムを記憶する。また、メモリ14は、プロセッサ13による各種の処理の実行中に作業メモリとしても使用される。
 記録媒体15は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、予測装置10に対して着脱可能に構成される。記録媒体15は、プロセッサ13が実行する各種のプログラムを記録している。予測装置10がラベル予測処理などの後述の各処理を実行する際には、記録媒体15に記録されているプログラムがメモリ14にロードされ、プロセッサ13により実行される。
 データベース16は、予測装置10が行う処理に必要なデータを記憶する。具体的にはデータベース16は、ラベルを予測するためのモデルを学習する際に使用する学習データを記憶する。なお、上記に加えて、予測装置10は、キーボード、マウスなどの入力機器や、表示装置などを備えていても良い。
 (学習のための機能構成)
 図3は、学習のための機能構成を示すブロック図である。予測装置10は、機能的には、予測モデル21と、パラメータ更新部22と、教師データベース(以下、データベースを「DB」とも記す。)23と、を備える。予測モデル21は、においデータから、においの特徴を示すベクトル空間(以下、「ラベル空間」とも呼ぶ。)におけるラベルを予測するためのモデルであり、例えばニューラルネットワーク(NN)などにより構成される。パラメータ更新部22は、予測モデル21の学習処理において、予測モデル21を構成する複数のパラメータを更新する。教師DB23は、予測モデルを学習するための学習データを記憶している。
 予測装置10の学習時には、教師DB23に記憶されている学習データを用いて、予測モデル21を学習する。学習データは、様々な対象物のにおいデータと、ラベル空間において当該対象物を示すラベルとを対応付けたデータとなっている。なお、各ラベルは、後述するように、ラベル空間毎に定義される。予測装置10の学習時には、ある対象物のにおいデータが予測モデル21に入力され、予測モデル21はそのにおいデータに対してラベルを予測して予測結果(「予測ラベル」と呼ぶ。)を生成し、パラメータ更新部22に出力する。パラメータ更新部22は、教師DB23から、その対象物のにおいデータの正解ラベルを取得する。そして、パラメータ更新部22は、予測ラベルと正解ラベルとの誤差を算出し、その誤差が小さくなるように、予測モデル21のパラメータを更新する。こうして、学習データを用いて予測モデル21の学習が行われる。
 (ラベル空間)
 次に、ラベル空間について説明する。ラベル空間は、においの特徴を示すベクトル空間であり、予測結果として得られるラベルが定義される空間である。ラベル空間におけるベクトル量を示すラベルを用いてにおいを表現することにより、複数のにおいの関係を定量的に表すことが可能となる。例えば、あるラベル空間において近い距離に位置するラベルは、そのラベル空間において近いにおいを示しており、あるラベル空間において逆方向に位置するラベルは、そのラベル空間において対照的な性質のにおいを示していると考えることができる。但し、同じにおいであっても、ラベル空間が違えば、それを表現するベクトルは異なる。本実施形態では、以下に述べるように、いくつかのラベル空間を使用してにおいを表現する。
(1)物質の構造や化学的性質を示す空間
 第1の例では、ラベル空間として物質の構造や化学的性質を示す空間を使用する。物質のにおいは、その物質の構造や化学的性質によって決まると考えられているため、物質の構造及び化学的性質を示す空間をラベル空間として使用することは有効と考えらえる。具体的には、分子の構造や化学的性質を定量的に示す指標を軸とするベクトル空間をラベル空間とする。図4(A)は、物質の化学的性質として「分子量」及び「沸点」を軸とするベクトル空間をラベル空間とし、この空間上でラベル「エチレン」及び「エタノール」を表現した例を示す。分子量及び沸点以外に使用可能なラベルとしては、組成式、示性式、構造式、官能基の種類・数、炭素数、不飽和度、濃度、水に対する溶けやすさ、極性、融点、密度、分子軌道、などが挙げられる。また、分子構造をベクトル表現する手法であるmol2vecを利用してもよい。
(2)官能評価指標を示す空間
 第2の例では、人間による官能試験で得られた指標を示す空間をラベル空間として使用する。図4(B)は、官能評価指標として「不快」及び「あまい」を軸とするベクトル空間をラベル空間とし、この空間上でラベル「チョコ」及び「芳香剤」を表現した例を示す。香料や食品などの分野では、多数の言葉を適切に選択してにおいを表現しており、それらの言葉を官能評価指標として使用してラベル空間を構成することができる。なお、官能試験としては、例えば、2点識別法や3点識別法などの識別型試験、スコアリング法やQDA(Quantitative Descriptive Analysis)法などの記述型試験、時間強度試験、TDS(Temporal Dominance of Sensations)、TCATA(Temporal Check All That Apply)などのタイムダイナミック法、一般パネルを用いた嗜好型の官能評価方法などが挙げられる。
(3)word2vec空間
 第3の例では、ラベル空間として、word2vec空間を使用する。「word2vec」とは、単語の意味をベクトル表現(分散表現)する手法であり、本例ではword2vecの空間をラベル空間として使用する。図5に示すように、においデータは、におい波形を示す特徴量を規定する波形空間におけるベクトルとして定義できる。予測モデル21は、このにおいデータを、word2vec空間におけるベクトルに変換する。即ち、予測モデル21は、波形空間からword2vec空間への変換を学習する。図5は、word2vecを使用したラベル空間上に、ラベルとして「コーヒー」、「お茶」、「タイヤ」、「ゴム」を規定した例である。前述のように、word2vec空間は、基本的には単語の意味を表現する空間であるが、単語の意味と、その単語から我々人間が想像するにおいとはある程度関連があると考えられるため、word2vec空間を利用してにおいを表現する手法は有効であると考えられる。
 但し、word2vec空間の性質は、それを学習する際に使用する文章(コーパス)に依存するため、ラベル空間としてword2vec空間を利用する場合には、においに関連する文章を使用してword2vecの学習を行う必要がある。よって、例えば、嗅覚に関する論文などの研究文書、化粧品のレビューコメント、食料品カタログ、グルメガイドのレビュー記事など、においに関連する文章を用いて学習したword2vecをラベル空間として使用する。
(4)においを嗅いだときの反応を示す空間
 第4の例として、人間がにおいを嗅いだときに人体に生じる何らかの生体反応を使用してラベル空間を構成してもよい。例えば、人間がにおいを嗅いだときの脳波、機能的核磁気共鳴画像(fMRI:functional Magnetic Resonance Imaging)、心拍間隔(RRI:R-R Interval)などを用いることができる。
(5)第1~第4の例の組み合わせ
 第5の例として、上記の第1~第4の例のうち2つ以上を組み合わせたものであっても良い。具体的には、まず、単純に第1~第4の例のうちの2つ以上のラベル空間を結合することで新しいラベル空間を作っても良い。また、第2の例の官能評価指標空間と第3の例のword2vec空間を二段階で用いるなどしてもよい。官能評価指標では、しばしば名詞や形容詞、オノマトペを用いて、においを表現する。例えば、ヘキサンは「灯油のようなにおい」、ヘキサナールは「古米臭」などと言われ、においを適切な言語と結びつけることで表現する。このように、まずにおいに言語を結び付け、その後に言語間の距離を表すword2vecを用いることで、ヒトがにおいを認識する感覚に近いラベル空間を使用することができる。
 (学習処理)
 次に、予測装置10による学習処理について説明する。図6は、学習処理のフローチャートである。この処理は、図2に示すプロセッサ13が、予め用意されたプログラムを実行し、図3に示す各構成要素として機能することにより行われる。
 まず、予測装置10ににおいデータが入力される(ステップS11)。この場合、においセンサ5の出力を予測装置10に直接入力してもよいし、記憶装置などに蓄積されたにおいデータを予測装置10に入力してもよい。予測装置10は、予測モデル21を用いてにおいデータのラベルを予測し、予測ラベルを出力する(ステップS12)。次に、パラメータ更新部22は、予測モデル21から取得した予測ラベルと、教師DB23から取得した、そのにおいデータの正解ラベルとを比較し、それらの誤差に基づいて予測モデルのパラメータを更新する(ステップS13)。
 次に、予測装置10は、所定の終了条件が具備されたか否かを判定する(ステップS14)。終了条件が具備されていない場合(ステップS14:No)、処理はステップS11へ戻り、ステップS11~S13が繰り返される。一方、終了条件が具備された場合(ステップS14:Yes)、処理は終了する。なお、終了条件とは、ステップS11~S13の処理の繰返し回数や、予測ラベルと正解ラベルとの誤差の変化度合いなどに関する予め決められた条件である。
 (予測のための機能構成)
 次に、上記の学習処理により学習された予測モデルを用いて予測を行うための構成について説明する。図7は、予測のための機能構成を示すブロック図である。なお、予測装置30は、図2に示す予測装置10と同一のハードウェア構成を有する。予測装置30は、予測モデル31を有する。予測モデル31は、上述の学習処理による学習済みのモデルであり、学習処理で用いた予測モデル21と同一のネットワーク構成を有し、学習処理により更新済みのパラメータを有する。予測モデル31は、入力されたにおいデータに基づいて、所定のラベル空間におけるラベルを予測し、出力する。
 (予測処理)
 次に、予測装置30による予測処理について説明する。図8は、予測装置30による予測処理のフローチャートである。においデータが入力されると(ステップS21)、予測装置30は、予測モデル31を用いてラベルを予測し(ステップS22)、予測結果としてラベルを出力する(ステップS23)。そして、処理は終了する。こうして、予測装置30は、入力されたにおいデータに対応するラベルを出力する。このラベルは、学習処理において用いられたラベル空間におけるベクトル量を表すものであるため、ラベル空間における位置や方向などにより、そのにおいを定量的に示すものとなっている。
 (応用例)
 次に、予測装置30による処理の応用例について説明する。
(1)距離算出処理
 図9は、距離算出処理を行う予測装置30aの機能構成を示す。距離算出処理は、入力された複数のにおいデータに基づいて、それらに対応するラベル間の距離を算出するものである。図示のように、予測装置30aは、予測モデル31と、距離算出部32とを備える。予測モデル31は、図7に示す予測装置30のものと同一である。
 図10は、距離算出処理のフローチャートである。複数のにおいデータが入力されると(ステップS31)、予測モデル31は、それぞれのにおいデータに対してラベルを予測し、距離算出部32に出力する(ステップS32)。距離算出部32は、入力された複数のラベル間の距離を算出する(ステップS33)。距離としては、ユークリッド距離、マハラノビス距離などを用いることができる。そして、距離算出部32は、算出されたラベル間の距離を出力する(ステップS34)。なお、距離算出部32は、算出されたラベル間の距離の値を出力してもよいし、ラベル間の距離を示す何段階かのレベルなどを出力してもよい。距離算出処理は、入力した複数のにおいデータの近さを判定することができ、複数のにおいがどの程度近いかを定量的に判定したい場合に有効である。
(2)物品提案処理
 図11は、物品提案処理を行う予測装置30bの機能構成を示す。物品提案処理は、入力されたにおいデータに近いにおいを有する物品を提案する処理である。図示のように、予測装置30bは、予測モデル31と、物品DB33と、物品決定部34とを備える。予測モデル31は、図7に示す予測装置30のものと同一である。物品DB33は、物品毎に、その物品のにおいを示すラベルを記憶している。物品決定部34は、予測モデル31が出力したラベルと、物品DB33に記憶されている物品のラベルとの間の距離を算出し、所定値より近い物品を決定してその情報を提示する。ここで、物品DB33に記憶されている物品は、予測モデル31を作成する際にそのにおいが学習されている物品であってもいいし、学習されていない物品であっても良い。即ち、この物品は、ラベル空間のラベルさえあればよく、においデータはなくても良い。予測モデル31の学習に用いられていないにおいの物品であっても、その物品のにおいに対してラベル空間上でラベルを付与できれば、その物品を提案することが可能となる。
 図12は、物品提案処理のフローチャートである。においデータが入力されると(ステップS41)、予測モデル31は、そのにおいデータに対してラベルを予測し、予測ラベルを物品決定部34に出力する(ステップS42)。物品決定部34は、予測モデル31から入力された予測ラベルと、物品DB33に記憶されている複数の候補物品のラベルとの距離を算出する(ステップS43)。そして、物品決定部34は、予測ラベルとの距離が所定値以下である一又は複数の物品を決定し、その情報を出力する(ステップS43)。物品提案処理によれば、特定のにおいと近いにおいを有する物品を探すことができる。物品提案処理は、例えば、ある顧客が好む香水に近い別の香水を探す場合などに利用することができる。
 (3)においデータ提案処理
 においデータ提案処理は、任意のラベルを出力するときのにおいデータの形を提案する処理である。図13は、においデータ提案処理を行う予測装置30cの機能構成を示す。予測装置30cは、予測モデル31と、においデータ生成器35と、距離判定部36とを備える。予測モデル31は、図7に示す予測装置30のものと同一である。においデータ生成器35は、においデータを系統的に変化させて網羅的に出力する。予測モデル31は、においデータ生成器35によって網羅的に出力されたにおいデータに対するラベルを予測し、距離判定部36に出力する。距離判定部36は、予測モデル31により予測されたラベルと、任意のラベルとの距離を算出する。距離判定部36は、この距離が一定以上であれば棄却し、一定未満になったときのにおいデータを採用することとし、その判定結果を出力する。においデータ提案処理は、例えば、新製品開発の際に任意の性質を満たすようなにおいの種類・配合を探す場合などに利用することができる。
 (変形例)
 上記の例では、ラベル空間を用いてラベルを表現しているが、ラベル空間を用いずに、においデータに対するベクトル表現を生成してもよい。図14は、ニューラルネットワークを用いてにおいデータのラベルを判別する例を示す。予測モデル40を構成するニューラルネットワークは、入力層41と、中間層42と、出力層43とを有する。出力層43は、softmax関数などにより構成され、入力されたにおいデータに対するラベル44を出力する。学習データとして、においデータと、そのにおいデータに対応するラベルを用意し、予測モデル40を学習する。学習データのラベルとしては、においに関連するものを用意する。こうして、学習済みの予測モデル40が得られると、出力層43の直前に位置する中間層42の一部分42xで得られる特徴ベクトルを、入力されたにおいデータを表現するベクトルとして使用する。この場合、学習に用いられるラベルはラベル空間上で定義されたものではないが、予測モデル40が多数のラベルを正しく判別できるように学習された状態では、中間層42の一部分42xが生成する特徴ベクトルは、非明示的にではあるが、入力されたにおいデータの特徴を示すものになっていると考えられる。よって、入力されたにおいデータに対して中間層42の一部分42xが出力する特徴ベクトルを、そのにおいデータに対するベクトルとして利用してもよい。
 [第2実施形態]
 次に、第2実施形態について説明する。
 (データ処理装置)
 図15(A)は、第2実施形態に係るデータ処理装置の機能構成を示すブロック図である。図示のように、データ処理装置50は、取得部51と、予測部52を備える。取得部51は、外部からにおいデータを取得する。予測部52は、においデータと、においの特徴を示すラベル空間におけるラベルとの関係を学習したモデルを用いて、取得部51が取得したにおいデータのラベル空間におけるラベルを予測する。こうして、入力されたにおいデータに対する、ラベル空間におけるラベルを予測することができる。
 (学習装置)
 図15(B)は、第2実施形態に係る学習装置の機能構成を示すブロック図である。図示のように、学習装置60は、学習データ取得部61と、学習部62と、モデル63とを備える。学習データ取得部61は、対象物のにおいデータと、においの特徴を示すラベル空間において対象物を示すラベルとを対応付けた学習データを取得する。学習部62は、学習データを用いて、においデータから、当該においデータのラベル空間におけるラベルを予測するモデル63を学習する。これにより、においデータのラベル空間におけるラベルを予測するモデル63を学習することができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 においデータを取得する取得部と、
 においデータと、においの特徴を示すラベル空間におけるラベルとの関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測する予測部と、
 を備えるデータ処理装置。
 (付記2)
 前記ラベル空間は、語の意味関係を分散表現として表す空間であり、
 前記モデルは、においに関する文章を用いて学習されている付記1に記載のデータ処理装置。
 (付記3)
 前記ラベル空間は、においの官能評価指標を示す空間であり、
 前記モデルは、においの官能試験結果を用いて学習されている付記1に記載のデータ処理装置。
 (付記4)
 前記ラベル空間は、においの化学的性質を表す空間であり、
 前記モデルは、対象物の化学的性質を用いて学習されている付記1に記載のデータ処理装置。
 (付記5)
 前記ラベル空間は、においに対する生体反応の特徴を表す空間であり、
 前記モデルは、人がにおいを嗅いだときの生体反応の特徴を用いて学習されている付記1に記載のデータ処理装置。
 (付記6)
 前記取得部は、2以上のにおいデータを取得し、
 前記予測部は、前記2以上のにおいデータのラベルを予測し、
 予測されたにおいデータのラベル間の距離を算出する算出部をさらに備える付記1乃至5のいずれか一項に記載のデータ処理装置。
 (付記7)
 複数の物品について、前記ラベル空間におけるラベルを記憶した記憶部と、
 前記予測部が予測したラベルと、前記記憶部に記憶されている複数の物品についてのラベルとの距離が、所定値以下である物品を決定し、当該物品を提示する物品提示部と、
 を備える付記1乃至5のいずれか一項に記載のデータ処理装置。
 (付記8)
 前記予測部が予測したラベルと、任意のラベルとの距離が所定値以下であるか否かを判定し、判定結果を出力する距離判定部と、
 を備える付記1乃至5のいずれか一項に記載のデータ処理装置。
 (付記9)
 前記においデータは、においセンサが出力するにおい波形の特徴量を示すデータである付記1乃至8のいずれか一項に記載のデータ処理装置。
 (付記10)
 対象物のにおいデータと、においの特徴を示すラベル空間において前記対象物を示すラベルとを対応付けた学習データを取得する学習データ取得部と、
 前記学習データを用いて、においデータから、当該においデータの前記ラベル空間におけるラベルを予測するモデルを学習する学習部と、
 を備える学習装置。
 (付記11)
 においデータを取得し、
 においデータと、においの特徴を示すラベル空間におけるラベルとの関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測するにおいデータ処理方法。
 (付記12)
 においデータを取得し、
 においデータと、においの特徴を示すラベル空間におけるラベルとの関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測する処理をコンピュータに実行させるプログラムを記録した記録媒体。
 以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 5 においセンサ
 10、30、30a、30b 予測装置
 21 予測モデル
 22 パラメータ更新部
 23 教師データベース
 32 距離算出部
 33 物品データベース
 34 物品決定部
 35 においデータ生成器
 36 距離判定部
 50 データ処理装置
 60 学習装置

Claims (12)

  1.  においデータを取得する取得部と、
     においデータと、においの特徴を示すラベル空間におけるラベルとの関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測する予測部と、
     を備えるデータ処理装置。
  2.  前記ラベル空間は、語の意味関係を分散表現として表す空間であり、
     前記モデルは、においに関する文章を用いて学習されている請求項1に記載のデータ処理装置。
  3.  前記ラベル空間は、においの官能評価指標を示す空間であり、
     前記モデルは、においの官能試験結果を用いて学習されている請求項1に記載のデータ処理装置。
  4.  前記ラベル空間は、においの化学的性質を表す空間であり、
     前記モデルは、対象物の化学的性質を用いて学習されている請求項1に記載のデータ処理装置。
  5.  前記ラベル空間は、においに対する生体反応の特徴を表す空間であり、
     前記モデルは、人がにおいを嗅いだときの生体反応の特徴を用いて学習されている請求項1に記載のデータ処理装置。
  6.  前記取得部は、2以上のにおいデータを取得し、
     前記予測部は、前記2以上のにおいデータのラベルを予測し、
     予測されたにおいデータのラベル間の距離を算出する算出部をさらに備える請求項1乃至5のいずれか一項に記載のデータ処理装置。
  7.  複数の物品について、前記ラベル空間におけるラベルを記憶した記憶部と、
     前記予測部が予測したラベルと、前記記憶部に記憶されている複数の物品についてのラベルとの距離が、所定値以下である物品を決定し、当該物品を提示する物品提示部と、
     を備える請求項1乃至5のいずれか一項に記載のデータ処理装置。
  8.  前記予測部が予測したラベルと、任意のラベルとの距離が所定値以下であるか否かを判定し、判定結果を出力する距離判定部と、
     を備える請求項1乃至5のいずれか一項に記載のデータ処理装置。
  9.  前記においデータは、においセンサが出力するにおい波形の特徴量を示すデータである請求項1乃至8のいずれか一項に記載のデータ処理装置。
  10.  対象物のにおいデータと、においの特徴を示すラベル空間において前記対象物を示すラベルとを対応付けた学習データを取得する学習データ取得部と、
     前記学習データを用いて、においデータから、当該においデータの前記ラベル空間におけるラベルを予測するモデルを学習する学習部と、
     を備える学習装置。
  11.  においデータを取得し、
     においデータと、においの特徴を示すラベル空間におけるラベルとの関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測するにおいデータ処理方法。
  12.  においデータを取得し、
     においデータと、においの特徴を示すラベル空間におけるラベルとの関係を学習したモデルを用いて、取得した前記においデータの前記ラベル空間におけるラベルを予測する処理をコンピュータに実行させるプログラムを記録した記録媒体。
PCT/JP2019/036576 2019-09-18 2019-09-18 データ処理装置、学習装置、データ処理方法、及び、記録媒体 WO2021053758A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021546109A JPWO2021053758A5 (ja) 2019-09-18 データ処理装置、学習装置、データ処理方法、及び、プログラム
PCT/JP2019/036576 WO2021053758A1 (ja) 2019-09-18 2019-09-18 データ処理装置、学習装置、データ処理方法、及び、記録媒体
US17/640,474 US20220343184A1 (en) 2019-09-18 2019-09-18 Data processing apparatus, learning apparatus, information processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/036576 WO2021053758A1 (ja) 2019-09-18 2019-09-18 データ処理装置、学習装置、データ処理方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2021053758A1 true WO2021053758A1 (ja) 2021-03-25

Family

ID=74884381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/036576 WO2021053758A1 (ja) 2019-09-18 2019-09-18 データ処理装置、学習装置、データ処理方法、及び、記録媒体

Country Status (2)

Country Link
US (1) US20220343184A1 (ja)
WO (1) WO2021053758A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11740097B2 (en) * 2020-08-24 2023-08-29 Hyundai Motor Company Method, device and system for managing smell sensibility based on route of moving object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018073250A (ja) * 2016-11-01 2018-05-10 ヤフー株式会社 検索装置、検索方法および検索プログラム
WO2018101128A1 (ja) * 2016-11-29 2018-06-07 国立研究開発法人物質・材料研究機構 試料に対応付けられた推定対象値を推定する方法及び装置
JP2018179603A (ja) * 2017-04-06 2018-11-15 高砂香料工業株式会社 心理、神経、内分泌、免疫指標を用いた香りの生理心理効果の評価方法
JP2019149035A (ja) * 2018-02-27 2019-09-05 ヤフー株式会社 提供装置、提供方法および提供プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018073250A (ja) * 2016-11-01 2018-05-10 ヤフー株式会社 検索装置、検索方法および検索プログラム
WO2018101128A1 (ja) * 2016-11-29 2018-06-07 国立研究開発法人物質・材料研究機構 試料に対応付けられた推定対象値を推定する方法及び装置
JP2018179603A (ja) * 2017-04-06 2018-11-15 高砂香料工業株式会社 心理、神経、内分泌、免疫指標を用いた香りの生理心理効果の評価方法
JP2019149035A (ja) * 2018-02-27 2019-09-05 ヤフー株式会社 提供装置、提供方法および提供プログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "REVORN, a scent AI startup, launches "iinioi® Project" utilizing the world's No. 1 scent database and AI", PRTIMES, 20 November 2018 (2018-11-20), pages 1 - 7, XP055808967, Retrieved from the Internet <URL:https://prtimes.jp/main/html/rd/p/000000002.000038832.html> [retrieved on 20191203] *
MATSUKI, MOE ET AL.: "Toward improving Zero-shot learning with semantic word vectors for activity recognition", PROCEEDINGS OF THE 31ST ANNUAL CONFERENCE OF JSAI DVD, 23 May 2017 (2017-05-23), pages 1 - 4 *
NAKAYAMA, SHUNTARO ET AL.: "Study on odor discrimination using odor separation measurement device", PROCEEDINGS OF THE 2011 ANNUAL MEETING OF THE INSTITUTE OF ELECTRICAL ENGINEERS OF JAPAN, vol. 3, 5 March 2011 (2011-03-05), pages 217 *

Also Published As

Publication number Publication date
US20220343184A1 (en) 2022-10-27
JPWO2021053758A1 (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
Scheinost et al. Ten simple rules for predictive modeling of individual differences in neuroimaging
Keller et al. Olfactory perception of chemically diverse molecules
CN111356997B (zh) 具有颗粒化注意力的层次神经网络
JP7457721B2 (ja) 機械学習を使って分子の嗅覚特性を予測するためのシステムおよび方法
Despotovic et al. Speech based estimation of Parkinson’s disease using Gaussian processes and automatic relevance determination
Freitas On rule interestingness measures
Schlobach et al. Non-standard reasoning services for the debugging of description logic terminologies
Ten Cate Assessing the uniqueness of language: Animal grammatical abilities take center stage
Ganzert et al. Analysis of respiratory pressure–volume curves in intensive care medicine using inductive machine learning
Diniz-Filho et al. Multiple components of phylogenetic non-stationarity in the evolution of brain size in fossil hominins
Kaushal et al. Stationary wavelet singular entropy based electronic tongue for classification of milk
WO2021053758A1 (ja) データ処理装置、学習装置、データ処理方法、及び、記録媒体
Yao et al. Markov chain Monte Carlo methods for hierarchical clustering of dynamic causal models
Kropat et al. Operations research in neuroscience
Güler et al. A recurrent neural network classifier for Doppler ultrasound blood flow signals
Haynes Treatment implications of psychological assessment.
CN112259260A (zh) 基于智能穿戴设备的智能医疗问答方法、***及装置
Volna et al. ECG prediction based on classification via neural networks and linguistic fuzzy logic forecaster
Khosravi et al. Demystifying statistics and machine learning in analysis of structured tabular data
Soh et al. A comparison between the human sense of smell and neural activity in the olfactory bulb of rats
Fischer-von Rönn et al. Predicting the ride comfort of passenger cars for single-obstacle crossings through an innovative feature extraction method consisting of non-linear geometric approximations of wavelet-transformed acceleration data and airborne sound
Hart et al. A nonparametric Bayesian model for estimating spectral densities of resting-state EEG twin data
Lombardi et al. Models of relevant cue integration in name retrieval
Tokutaka et al. Application of self-organizing maps to chemical analysis
Krishna et al. Speech Parameter and Deep Learning Based Approach for the Detection of Parkinson’s Disease

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19946116

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021546109

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19946116

Country of ref document: EP

Kind code of ref document: A1