JP2020135298A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2020135298A
JP2020135298A JP2019026617A JP2019026617A JP2020135298A JP 2020135298 A JP2020135298 A JP 2020135298A JP 2019026617 A JP2019026617 A JP 2019026617A JP 2019026617 A JP2019026617 A JP 2019026617A JP 2020135298 A JP2020135298 A JP 2020135298A
Authority
JP
Japan
Prior art keywords
data
analysis
item
tool
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019026617A
Other languages
Japanese (ja)
Inventor
功 遠山
Isao Toyama
功 遠山
聡 横尾
Satoshi Yokoo
聡 横尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Insight Lab
Insight Lab Inc
Original Assignee
Insight Lab
Insight Lab Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Insight Lab, Insight Lab Inc filed Critical Insight Lab
Priority to JP2019026617A priority Critical patent/JP2020135298A/en
Publication of JP2020135298A publication Critical patent/JP2020135298A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To analyze a variety of information such as characteristics and property of an item in detail.SOLUTION: A learning device communication information management part 52 acquires at least either teacher data or a group of input data and output data of a prediction model as data to be analyzed by controlling communication with a learning device 12. A statistical analysis device communication information management part 53 provides a statistic analysis device 13 with the data to be analyzed by controlling communication with the statistic analysis device 13, and acquires analysis data including a result of analysis of the data to be analyzed from the statistic analysis device 13. A visualization tool generation part 51 presents, to a user, information based on at least one of the teacher data, the group of the input data and output data of the prediction model and the analysis data in a form of visual information, and generates a sensitivity analysis solution tool that receives operation of a user including instruction operation to change or process an analysis subject.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置に関する。 The present invention relates to an information processing device.

近年、電子商取引の発達などにより、商品を分析する様々な技術の開発が活発に行われている。
例えば、特許文献1には、商品の属性情報を整理して顧客の要望に応じた商品を検索する技術が開示されている。
In recent years, with the development of electronic commerce, various technologies for analyzing products have been actively developed.
For example, Patent Document 1 discloses a technique for organizing product attribute information and searching for a product according to a customer's request.

特開2013−45183号公報Japanese Unexamined Patent Publication No. 2013-45183

しかしながら、特許文献1を含め従来の技術は、顧客向が簡易的に商品を検索するために利用され得る技術に過ぎず、商品の他アイテムに関する各種情報(性質や特性等)を詳細に分析することには不十分であった。 However, the conventional techniques including Patent Document 1 are merely techniques that can be used by customers to easily search for products, and various information (characteristics, characteristics, etc.) related to other items of the products are analyzed in detail. It wasn't enough.

本発明は、このような状況に鑑みてなされたものであり、アイテムに関する性質や特性等の各種情報を詳細に分析する技術を提供することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to provide a technique for analyzing various information such as properties and characteristics of an item in detail.

上記目的を達成するため、本発明の一態様の情報処理装置は、
アイテムの画像のデータと当該アイテムの1以上の属性とを対応付けたデータを教師データとして1以上用いて学習することで、新たなアイテムの画像のデータを入力データとして入力することで当該新たなアイテムと対応付けられ得る1以上の属性の各値を出力データとして出力する予測モデルを生成又は更新する学習装置と、
所定の1以上の手法でデータを分析する分析装置と、
の夫々の間で通信をする情報処理装置において、
前記学習装置との通信を制御することで、前記教師データと、前記予測モデルの前記入力データ及び前記出力データの組とのうち少なくとも一方を分析対象データとして取得する学習装置通信制御手段と、
前記分析装置との通信を制御することで、前記分析対象データを前記分析装置に提供し、当該分析対象データに対する分析結果を含む分析データを前記分析装置から取得する分析装置通信制御手段と、
前記教師データと、前記予測モデルの前記入力データ及び前記出力データの組と、前記分析データとのうち少なくとも1つに基づく情報を、視覚情報の形態でユーザに提示すると共に、前記分析対象の変更又は加工の指示操作を含む前記ユーザの操作を受け付けるツールを生成するツール生成手段と、
を備える。
In order to achieve the above object, the information processing device of one aspect of the present invention is
By learning using one or more data that associates the image data of the item with one or more attributes of the item as teacher data, the new item can be input by inputting the image data of the new item as input data. A learning device that generates or updates a prediction model that outputs each value of one or more attributes that can be associated with an item as output data.
An analyzer that analyzes data by one or more predetermined methods,
In the information processing device that communicates between each of
A learning device communication control means that acquires at least one of the teacher data and a set of the input data and the output data of the prediction model as analysis target data by controlling communication with the learning device.
An analyzer communication control means that provides the analysis target data to the analysis device by controlling communication with the analysis device and acquires analysis data including analysis results for the analysis target data from the analysis device.
Information based on at least one of the teacher data, the input data and output data sets of the prediction model, and the analysis data is presented to the user in the form of visual information, and the analysis target is changed. Alternatively, a tool generation means for generating a tool that accepts the user's operation including a processing instruction operation, and
To be equipped.

本発明によれば、アイテムに関する性質や特性等の各種情報を詳細に分析することができる。 According to the present invention, various information such as properties and characteristics related to an item can be analyzed in detail.

本発明の一実施形態に係る感性分析装置を利用したアイテムに関する各種情報を詳細に分析することを支援可能にする基盤の概要を示す概要図である。It is a schematic diagram which shows the outline of the base which makes it possible to support the detailed analysis of various information about the item using the sensitivity analyzer which concerns on one Embodiment of this invention. 本発明の一実施形態に係る感性分析装置を含む情報処理システムの一例を示す構成図である。It is a block diagram which shows an example of the information processing system including the sensitivity analyzer which concerns on one Embodiment of this invention. 図2の情報処理システムのうち、感性分析装置のハードウェア構成を示すブロック図である。Of the information processing system of FIG. 2, it is a block diagram which shows the hardware configuration of the sensitivity analyzer. 図3の感性分析装置の機能的構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the functional structure of the sensitivity analyzer of FIG. 図2の情報処理システムのうち学習装置の学習により生成または更新される予測モデルの具体例を示す図である。It is a figure which shows the specific example of the prediction model generated or updated by the learning of the learning apparatus in the information processing system of FIG. 図3の感性分析装置により提示される感性分析ソリューションツールのうち、情緒タグの成分分析を行うツールの画面の一例を示す図である。It is a figure which shows an example of the screen of the tool which performs component analysis of an emotion tag among the Kansei analysis solution tools presented by the Kansei analyzer of FIG. 図3の感性分析装置により提示される感性分析ソリューションツールのうち、情緒タグの共起分析を行うツールの画面の一例を示す図である。It is a figure which shows an example of the screen of the tool which performs co-occurrence analysis of an emotion tag among the Kansei analysis solution tools presented by the Kansei analysis apparatus of FIG. 図3の感性分析装置により提示される感性分析ソリューションツールのうち、アイテム毎のタグの出力値を基に、選択した情緒成分の強さを指定して該当するアイテムを抽出するツールの画面の一例を示す図である。Among the Kansei analysis solution tools presented by the Kansei analyzer in Fig. 3, an example of the screen of the tool that extracts the corresponding item by specifying the strength of the selected emotional component based on the output value of the tag for each item. It is a figure which shows.

以下、本発明の実施形態について、図面を用いて説明する。
図1は、本発明の情報処理装置の一実施形態に係る感性分析装置を利用したアイテムに関する各種情報を詳細に分析することを支援可能にする基盤の概要について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 describes an outline of a base capable of supporting detailed analysis of various information related to an item using the Kansei analyzer according to an embodiment of the information processing apparatus of the present invention.

図1に示すように、感性分析装置を利用したアイテムに関する各種情報を詳細に分析することを支援可能にする基盤は、感性分析ソリューション部1と、Deep Learning部2と、統計解析・データマイニングライブラリ部3とが協働することで実現される。
なお、感性分析ソリューション部1と統計解析・データマイニングライブラリ部3とは、Integrated Interface部4と、Mining Connector部5とを介して相互にデータを送受信する。
即ち、Integrated Interface部4は、感性分析ソリューション部1と統計解析・データマイニングライブラリ部3との連携を行うためのユーザインタフェースである。
Mining Connector部5は、感性分析ソリューション部1と統計解析・データマイニングライブラリ部3とを接続する専用コネクタである。
As shown in FIG. 1, the foundations that can support the detailed analysis of various information related to items using the Kansei analyzer are the Kansei analysis solution unit 1, the Deep Learning unit 2, and the statistical analysis / data mining library. This is achieved by collaborating with Department 3.
The sensitivity analysis solution unit 1 and the statistical analysis / data mining library unit 3 transmit and receive data to and from each other via the integrated interface unit 4 and the mining connector unit 5.
That is, the Integrated Interface unit 4 is a user interface for linking the sensitivity analysis solution unit 1 and the statistical analysis / data mining library unit 3.
The Mining Connector section 5 is a dedicated connector that connects the sensitivity analysis solution section 1 and the statistical analysis / data mining library section 3.

Deep Learning部2は、深層学習などの技術を利用して、アイテムの画像データと情緒タグとを関連付けてデータ化して感性分析ソリューション部1に送信する。ユーザは、感性分析ソリューション部1を介して、アイテムの画像データと情緒タグとを関連付けたデータを利用して各種の分析を行うことができる。
情緒タグとは、詳しくは後述するが、「アイテムの属性」の一種であって、とあるアイテムをとある自然人が見た時に、当該自然人が当該アイテムに対してどのような情緒を感じるのかを表す種類の「アイテムの属性」である。
Deep Learning部2において、1つのアイテムの画像に対して、n種類(nは1以上の任意の整数値)の情緒タグが関連付けられる。
なお、後述するように、アイテムは各種各様なものを採用することができるが、ここでは、洋服等の商品が採用されているものとして、以下説明をする。即ち、以下においてアイテムの画像データと記載している場合、それは図1等に示す「商品画像」のデータを意味するものとする。
The Deep Learning unit 2 uses a technique such as deep learning to associate the image data of the item with the emotional tag, convert it into data, and transmit it to the Kansei analysis solution unit 1. The user can perform various analyzes by using the data in which the image data of the item and the emotion tag are associated with each other through the Kansei analysis solution unit 1.
The emotional tag is a kind of "item attribute", which will be described in detail later, and what kind of emotion the natural person feels about the item when the natural person sees the item. The type of "item attribute" to represent.
In the Deep Learning unit 2, n types of emotion tags (n is an arbitrary integer value of 1 or more) are associated with the image of one item.
As will be described later, various kinds of items can be adopted, but here, it will be described below assuming that products such as clothes are adopted. That is, when the item image data is described below, it means the data of the "product image" shown in FIG. 1 and the like.

感性分析ソリューション部1は、上記のアイテムの画像データと情緒タグとを関連付けたデータや自身での分析結果を分析対象情報として、統計解析・データマイニングライブラリ部3に送信する。
統計解析・データマイニングライブラリ部3は、例えば全世界で開発されたフリーの統計やデータマイニングパッケージが利用可能なライブラリとして構成される。統計解析・データマイニングライブラリ部3は、感性分析ソリューション部1からの分析対象情報に基づいて、各種分析や解析を行い、その結果(以下、「分析結果」と呼ぶ)を感性分析ソリューション部1に送信する。
感性分析ソリューション部1は、分析結果を統計解析・データマイニングライブラリ部3から取得して、その分析結果を視覚化情報に変換してユーザに提示する。
ユーザは、この提示された視覚情報を用いて、アイテムに関する各種情報を詳細に分析することができる。
The sensitivity analysis solution unit 1 transmits the data associated with the image data of the above item and the emotional tag and the analysis result by itself to the statistical analysis / data mining library unit 3 as analysis target information.
The statistical analysis / data mining library unit 3 is configured as a library in which free statistics and data mining packages developed all over the world can be used, for example. The statistical analysis / data mining library unit 3 performs various analyzes and analyzes based on the analysis target information from the sensitivity analysis solution unit 1, and the results (hereinafter referred to as "analysis results") are transferred to the sensitivity analysis solution unit 1. Send.
The sensitivity analysis solution unit 1 acquires the analysis result from the statistical analysis / data mining library unit 3, converts the analysis result into visualization information, and presents it to the user.
The user can use this presented visual information to analyze various information about the item in detail.

ここで、統計解析・データマイニングライブラリ部3の分析結果を視覚情報としてユーザに提示したり、ユーザの指示操作に基づいて、各種情報を入力したり、感性分析ソリューション部1やDeep Learning部2との間で各種情報を送受信することで、ユーザの分析作業を支援するツールが、感性分析ソリューション部1により生成される。
このようなツールを、以下、「感性分析ソリューションツール」と呼ぶ。
感性分析ソリューションツールの具体例については、図6乃至図8を用いて後述する。
Here, the analysis result of the statistical analysis / data mining library unit 3 is presented to the user as visual information, various information is input based on the user's instruction operation, and the sensitivity analysis solution unit 1 and the Deep Learning unit 2 are used. A tool for supporting the user's analysis work is generated by the sensitivity analysis solution unit 1 by transmitting and receiving various information between the two.
Such a tool will be referred to as an "Kansei analysis solution tool" below.
Specific examples of the Kansei analysis solution tool will be described later with reference to FIGS. 6 to 8.

図1についてまとめると、Deep Learning部2は、アイテムの画像データと当該アイテムの1以上の情緒タグとを対応付けたデータ群を教師データとして用いて学習することで、新たなアイテムの画像データを入力データとして入力することで当該新たなアイテムと対応付けられ得る1以上の情緒タグの各値を出力データとして出力する予測モデルを生成又は更新する。
感性分析ソリューション部1は、Deep Learning部2との通信を制御することで、教師データ又は予測モデルの入力データと出力データとの組を分析対象データとして取得する機能を有している。
また、感性分析ソリューション部1は、統計解析・データマイニングライブラリ部3との通信を制御することで、分析対象データを統計解析・データマイニングライブラリ部3に提供し、当該分析データに対する分析結果を含む分析データを統計解析・データマイニングライブラリ部3から取得する機能を有する。
また、感性分析ソリューション部1は、分析データに基づいて、分析結果を視覚情報の形態でユーザに提示すると共に、分析対象の変更又は加工の指示操作を含むユーザの操作を受け付けるツールとして、感性分析ソリューションツールを生成する機能を有する。
Summarizing FIG. 1, the Deep Learning unit 2 learns the image data of a new item by learning using the data group in which the image data of the item is associated with one or more emotional tags of the item as the teacher data. A prediction model that outputs each value of one or more emotion tags that can be associated with the new item by inputting as input data as output data is generated or updated.
The Kansei analysis solution unit 1 has a function of acquiring a set of input data and output data of teacher data or a prediction model as analysis target data by controlling communication with the Deep Learning unit 2.
In addition, the sensitivity analysis solution unit 1 provides the data to be analyzed to the statistical analysis / data mining library unit 3 by controlling the communication with the statistical analysis / data mining library unit 3, and includes the analysis result for the analysis data. It has a function to acquire analysis data from the statistical analysis / data mining library unit 3.
In addition, the Kansei analysis solution unit 1 presents the analysis result to the user in the form of visual information based on the analysis data, and as a tool for accepting the user's operation including the change of the analysis target or the instruction operation of processing, the Kansei analysis Has the ability to generate solution tools.

ここで、着目すべき点は、これらの機能はリアルタイムに発揮可能である点である。
この点により、ユーザは、感性分析ソリューションツールを用いて、分析作業を行いながら、気になるデータを、分析データを統計解析・データマイニングライブラリ部3に渡すことができる。これは、Integrated Interface部4とMining Connector部5とによる、感性分析ソリューション部1と統計解析・データマイニングライブラリ部3との自動連携により実現可能になる。
また、ユーザは、感性分析ソリューションツールを用いて、統計解析・データマイニングライブラリ部3の分析結果をリアルタイムに直接取り込み、その分析結果に基づいて各種各様な分析を行うことができる。
What should be noted here is that these functions can be exhibited in real time.
From this point, the user can pass the analysis data to the statistical analysis / data mining library unit 3 while performing the analysis work by using the sensitivity analysis solution tool. This can be realized by the automatic cooperation between the sensitivity analysis solution unit 1 and the statistical analysis / data mining library unit 3 by the integrated interface unit 4 and the mining connector unit 5.
In addition, the user can directly capture the analysis result of the statistical analysis / data mining library unit 3 in real time by using the sensitivity analysis solution tool, and perform various kinds of analysis based on the analysis result.

図2は、図1の基盤を実装した情報処理システム、即ち、本発明の情報処理装置の一実施形態に係る感性分析装置を含む情報処理システムの一例を示す構成図である。 FIG. 2 is a configuration diagram showing an example of an information processing system on which the infrastructure of FIG. 1 is mounted, that is, an information processing system including an information processing device according to an embodiment of the information processing device of the present invention.

図2に示すように、情報処理システムは、感性分析装置11と、学習装置12と、統計解析装置13とを含むように構成されている。感性分析装置11と、学習装置12と、統計解析装置13とは、インターネット等の所定のネットワークNを介して相互に接続されている。
感性分析装置11は、上述の図1に示す基盤のうち、感性分析ソリューション部1と、Deep Learning部2と、統計解析・データマイニングライブラリ部3との夫々の各機能を有する装置である。
学習装置12は、上述の図1に示す基盤のうち、Deep Learning部2の機能を有する装置である。
統計解析装置13は、上述の図1に示す基盤のうち、統計解析・データマイニングライブラリ部3の機能を有する装置である。
なお、感性分析装置11と、学習装置12と、統計解析装置13との夫々は、図2の例では1台とされているが、特にこれに限定されず、任意の台数でよい。
As shown in FIG. 2, the information processing system is configured to include a sensitivity analysis device 11, a learning device 12, and a statistical analysis device 13. The sensitivity analysis device 11, the learning device 12, and the statistical analysis device 13 are connected to each other via a predetermined network N such as the Internet.
The Kansei analysis device 11 is a device having each function of the Kansei analysis solution unit 1, the Deep Learning unit 2, and the statistical analysis / data mining library unit 3 among the platforms shown in FIG. 1 described above.
The learning device 12 is a device having the function of the deep learning unit 2 among the substrates shown in FIG. 1 described above.
The statistical analysis device 13 is a device having the function of the statistical analysis / data mining library unit 3 among the substrates shown in FIG. 1 described above.
The sensitivity analysis device 11, the learning device 12, and the statistical analysis device 13 are each set to one in the example of FIG. 2, but the number is not particularly limited to this, and any number may be used.

図3は、図2の情報処理システムのうち、本発明の一実施形態である感性分析装置11のハードウェア構成を示すブロック図である。 FIG. 3 is a block diagram showing a hardware configuration of the Kansei analyzer 11 according to the embodiment of the present invention in the information processing system of FIG.

感性分析装置11は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、バス24と、入出力インターフェース25と、出力部26と、入力部27と、記憶部28と、通信部29と、ドライブ30と、を備えている。 The sensitivity analyzer 11 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a bus 24, an input / output interface 25, an output unit 26, and an input unit. 27, a storage unit 28, a communication unit 29, and a drive 30 are provided.

CPU21は、ROM22に記録されているプログラム、又は、記憶部28からRAM23にロードされたプログラムに従って各種の処理を実行する。
RAM23には、CPU21が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 21 executes various processes according to the program recorded in the ROM 22 or the program loaded from the storage unit 28 into the RAM 23.
Data and the like necessary for the CPU 21 to execute various processes are also appropriately stored in the RAM 23.

CPU21、ROM22及びRAM23は、バス24を介して相互に接続されている。このバス24にはまた、入出力インターフェース25も接続されている。入出力インターフェース25には、出力部26、入力部27、記憶部28、通信部29及びドライブ30が接続されている。 The CPU 21, ROM 22 and RAM 23 are connected to each other via the bus 24. An input / output interface 25 is also connected to the bus 24. An output unit 26, an input unit 27, a storage unit 28, a communication unit 29, and a drive 30 are connected to the input / output interface 25.

出力部26は、ディスプレイやスピーカ等で構成され、各種情報を画像や音声として出力する。
入力部27は、キーボードやマウス等で構成され、各種情報を入力する。
The output unit 26 is composed of a display, a speaker, and the like, and outputs various information as images and sounds.
The input unit 27 is composed of a keyboard, a mouse, and the like, and inputs various information.

記憶部28は、ハードディスクやDRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部29は、インターネットを含むネットワークNを介して他の装置(図2の例では学習装置12及び統計解析装置13)との間で通信を行う。
The storage unit 28 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various data.
The communication unit 29 communicates with other devices (learning device 12 and statistical analysis device 13 in the example of FIG. 2) via the network N including the Internet.

ドライブ30には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ30によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部28にインストールされてもよい。
また、リムーバブルメディア31は、記憶部28に記憶されている各種データも、記憶部28と同様に記憶することができる。
A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 30. The program read from the removable media 31 by the drive 30 may be installed in the storage unit 28, if necessary.
In addition, the removable media 31 can also store various data stored in the storage unit 28 in the same manner as the storage unit 28.

なお、図示はしないが、図2の情報処理システムのうち、学習装置12と統計解析装置13のハードウェア構成は、感性分析装置11のハードウェア構成と、基本的に同様とすることができるため、ここでは説明を省略する。 Although not shown, the hardware configuration of the learning device 12 and the statistical analysis device 13 in the information processing system of FIG. 2 can be basically the same as the hardware configuration of the sensitivity analysis device 11. , The description is omitted here.

図4は、図3の感性分析装置11の機能的構成の一例を示す機能ブロック図である。 FIG. 4 is a functional block diagram showing an example of the functional configuration of the Kansei analyzer 11 of FIG.

感性分析装置11のCPU21(図3)においては、分析部41と、インターフェース部42と、コネクタ部43と、通信制御部44と、提示部45とが機能する。
分析部41は、可視化ツール生成部51と、学習装置通信情報管理部52と、統計解析装置通信情報管理部53とを含む。
In the CPU 21 (FIG. 3) of the Kansei analyzer 11, the analysis unit 41, the interface unit 42, the connector unit 43, the communication control unit 44, and the presentation unit 45 function.
The analysis unit 41 includes a visualization tool generation unit 51, a learning device communication information management unit 52, and a statistical analysis device communication information management unit 53.

可視化ツール生成部51は、図5乃至図8の夫々で後述するような感性分析ソリューションツールを生成する。 The visualization tool generation unit 51 generates a Kansei analysis solution tool as described later in each of FIGS. 5 to 8.

学習装置通信情報管理部52は、通信制御部44を介して学習装置12との間の通信を制御する。
ここで、学習装置12は、アイテムの画像のデータと当該アイテムの1以上の属性とを対応付けたデータを教師データとして用いて学習することで、新たなアイテムの画像のデータを入力データとして入力することで当該新たなアイテムと対応付けられ得る1以上の属性の各値を出力データとして出力する予測モデルを生成又は更新する。
学習装置通信情報管理部52は、教師データ、又は予測モデルの入力データと出力データとの組を分析対象データとして取得する。
The learning device communication information management unit 52 controls communication with the learning device 12 via the communication control unit 44.
Here, the learning device 12 inputs the image data of a new item as input data by learning using the data in which the image data of the item and one or more attributes of the item are associated with each other as the teacher data. By doing so, a prediction model that outputs each value of one or more attributes that can be associated with the new item as output data is generated or updated.
The learning device communication information management unit 52 acquires the teacher data or the set of the input data and the output data of the prediction model as the analysis target data.

統計解析装置通信情報管理部53は、インターフェース部42、コネクタ部43、及び通信制御部44を介して、統計解析装置13との通信を制御する。統計解析装置通信情報管理部53は、分析対象データを統計解析装置13に提供する。また、統計解析装置通信情報管理部53は、その分析データに対する分析結果を含む分析データを統計解析装置13から取得する。
なお、インターフェース部42は、上述の図1の基盤のうち、Integrated Interface部4の機能を有する。コネクタ部43は、Mining Connector部5を有する。
The communication information management unit 53 of the statistical analysis device controls communication with the statistical analysis device 13 via the interface unit 42, the connector unit 43, and the communication control unit 44. The communication information management unit 53 of the statistical analysis device provides the data to be analyzed to the statistical analysis device 13. Further, the communication information management unit 53 of the statistical analysis device acquires analysis data including the analysis result for the analysis data from the statistical analysis device 13.
The interface unit 42 has the function of the integrated interface unit 4 in the base of FIG. 1 described above. The connector unit 43 has a Mining Connector unit 5.

通信制御部44は、学習装置12と統計解析装置13との夫々との間の通信を行う通信部29(図3)に対する制御を実行する。
提示部45は、可視化ツール生成部33により生成された感性分析ソリューションツールを、出力部26(図3)を介してユーザに提示する。
The communication control unit 44 executes control for the communication unit 29 (FIG. 3) that communicates between the learning device 12 and the statistical analysis device 13.
The presentation unit 45 presents the Kansei analysis solution tool generated by the visualization tool generation unit 33 to the user via the output unit 26 (FIG. 3).

次に、図5を参照して、学習装置12の学習の具体例について説明する。
図5は、図2の情報処理システムのうち学習装置の学習により生成または更新される予測モデルの具体例を示す図である。
Next, a specific example of learning of the learning device 12 will be described with reference to FIG.
FIG. 5 is a diagram showing a specific example of a prediction model generated or updated by learning of the learning device in the information processing system of FIG.

図5に示すように、画像KG1は、1つのアイテム(洋服等の商品)を被写体に含む画像である。情緒タグ群KT1は、画像KG1に写るアイテムに対して、とある1人以上の自然人が感じた1つの感性を示す情報を情緒タグとして、1以上の情緒タグがリスト化されたものである。具体的には例えば、情緒タグ群KT1は、「かわいい」、「ガーリー」、「涼しげ」、「デート」といった情緒タグがリスト化されたものである。
画像KG2は、画像KG2に写るものとは別の1つのアイテム(洋服等の商品)を被写体に含む画像である。情緒タグ群KT2は、画像KG2に写るアイテムに対して、とある1人以上の自然人が感じた1つの感性を示す情報を情緒タグとして、1以上の情緒タグがリスト化されたものである。具体的には例えば、情緒タグ群KT2は、「こなれ感」、「着回しやすい」、「ナチュラル」、「休日」といった情緒タグがリスト化されたものである。
このように、所定の1つのアイテムについて、それを被写体に含む画像のデータと、その情緒タグ群とが対応付けられたデータが、教師データとして、学習装置12に入力される。
As shown in FIG. 5, the image KG1 is an image including one item (product such as clothes) as a subject. The emotional tag group KT1 is a list of one or more emotional tags, with information indicating one sensibility felt by one or more natural persons as an emotional tag for the item shown in the image KG1. Specifically, for example, the emotional tag group KT1 is a list of emotional tags such as "cute", "girly", "cool", and "date".
The image KG2 is an image including one item (a product such as clothes) different from the one shown in the image KG2 as a subject. The emotional tag group KT2 is a list of one or more emotional tags, with information indicating one sensibility felt by one or more natural persons as an emotional tag for the item shown in the image KG2. Specifically, for example, the emotional tag group KT2 is a list of emotional tags such as "feeling comfortable", "easy to wear", "natural", and "holiday".
In this way, for one predetermined item, the data of the image including the predetermined item and the data in which the emotional tag group is associated with the data are input to the learning device 12 as the teacher data.

学習装置12は、このような教師データを多数個用いて機械学習の各種手法を適用することで、新たなアイテムの画像のデータが入力された際に、1以上の情緒タグの値を出力データとして出力する予測モデルを生成又は更新する。
例えば、予測モデルは、図5に示す新たなアイテムの画像Gのデータが入力されると、表Tに表されるような1以上の情緒タグの値を出力データとして出力する。
表Tによれば、例えば、タグの大項目として「素材感」が存在し、それに属するタグ名として「夏らしい、夏に着たい」が存在している。これは、「夏らしい、夏に着たい」は、大項目「素材感」に属する情緒タグであることを意味する。画像Gに示されるアイテム
に対しては、「夏らしい、夏に着たい」という情緒タグのタグ値は「0.859」であることを示している。
ここで、情緒タグの値とは、情緒タグが対応付けられるか否かの2択(2値)ではなくて、とあるアイテムに対応付けられる確率の値であって、0〜1.00範囲の数値をとるものである。とあるアイテムに対して、当該情緒タグが示す情緒(上述の例では夏らしいとか夏に着たい)が対応付けられる確率が(学習の結果として)高いと判断される場合には、当該アイテムに対する情緒タグの値が1.00に近い値となる。これに対して、当該アイテムに対して当該情緒タグが対応付けられる確率が少ない場合には、当該アイテムに対する情緒タグの値が0に近い値となるも。
By applying various methods of machine learning using a large number of such teacher data, the learning device 12 outputs the value of one or more emotional tags when the image data of a new item is input. Generate or update the prediction model that is output as.
For example, when the data of the image G of the new item shown in FIG. 5 is input, the prediction model outputs the values of one or more emotion tags as shown in the table T as output data.
According to Table T, for example, "texture" exists as a major item of the tag, and "summer-like, want to wear in summer" exists as the tag name belonging to it. This means that "summer-like, want to wear in summer" is an emotional tag that belongs to the major item "texture". For the item shown in image G, the tag value of the emotional tag "Summer-like, I want to wear in summer" is "0.859".
Here, the value of the emotion tag is not a two-choice (binary value) of whether or not the emotion tag is associated, but a value of the probability of being associated with a certain item, and ranges from 0 to 1.00. It takes the numerical value of. If it is determined that there is a high probability (as a result of learning) that the emotion indicated by the emotion tag (in the above example, it seems to be summer or you want to wear it in summer) is associated with a certain item, the item is The value of the emotional tag is close to 1.00. On the other hand, when the probability that the emotion tag is associated with the item is low, the value of the emotion tag for the item is close to 0.

なお、学習装置12における学習の手法は、特に制限されないが、例えば、深層ニューラルネットワークを利用した深層学習を用いることができる。また、学習装置12は、上述の教師データ(正解データ)に対してCNN(Convolution Neural Network)を用いることで、アイテムの画像Gのデータに対して、1以上の情緒タグの夫々を0〜1.00範囲の数値として付与する予測モデルを生成又は更新することができる。 The learning method in the learning device 12 is not particularly limited, but for example, deep learning using a deep neural network can be used. Further, the learning device 12 uses CNN (Convolution Neural Network) for the above-mentioned teacher data (correct answer data), so that each of one or more emotion tags is 0 to 1 with respect to the data of the image G of the item. A prediction model can be generated or updated to be given as a numerical value in the range of .00.

次に、図6乃至図8を用いて、感性分析ソリューションツールの3つの具体例の夫々について説明する。 Next, each of the three specific examples of the Kansei analysis solution tool will be described with reference to FIGS. 6 to 8.

例えば、感性分析装置11の出力部26には、感性分析ソリューションツールのうち情緒タグの成分分析を行うツールが表示される。
情緒タグの成分分析を行うツールとは、所定のグループ(複数の企業、複数の部署、複数のブランド)が取り扱うアイテムについて2以上のクラスに分類し、2以上のクラス毎の、アイテムに対応付けられる情緒成分(情緒タグ)の差異についての統計解析装置13の分析結果を視覚情報としてユーザに提示することにより、情緒タグの成分分析の作業をユーザが行うことが可能な感性分析ソリューションツールである。なお、以下、このような感性分析ソリューションツールを、「成分分析ツール」と呼ぶ。
For example, the output unit 26 of the Kansei analyzer 11 displays a tool for analyzing the component of the emotional tag among the Kansei analysis solution tools.
A tool that analyzes the components of emotional tags is to classify items handled by a predetermined group (multiple companies, multiple departments, multiple brands) into two or more classes and associate them with items in each of two or more classes. It is a Kansei analysis solution tool that enables the user to perform the work of component analysis of the emotional tag by presenting the analysis result of the statistical analysis device 13 regarding the difference in the emotional component (emotional tag) to the user as visual information. .. Hereinafter, such a Kansei analysis solution tool will be referred to as a “component analysis tool”.

ここで、成分分析ツールの前提として、統計解析装置13は、予測モデルに対する入出力データ、即ちアイテムの画像のデータ(入力データ)とその情緒タグの値(出力データ)とを対応付けたデータを、2つのクラスに分類し、その2つのクラス間での情緒タグの値の差異を分析し(例えば2つのクラス分類の重要度を抽出し)、その分析結果を示す情報(以下、「情緒成分情報」と呼ぶ)を感性分析装置11に送信するものとする。
2つのクラスは、特に制限されず、ユーザが希望する任意の手法により分類されるクラスを採用することができる。ここでは、所定のグループ(複数の企業、複数の部署、複数のブランド)が取り扱うアイテムのうち、所定条を満たす顧客が購入したアイテムを示すクラス(以下、「第1クラス」と呼ぶ)と、アイテム全体を示すクラス(以下、「第2クラス」と呼ぶ)とが採用されている。
成分分析ツールは、情緒成分情報に基づいて、購入されたアイテムについての2つのクラスの間の差異をユーザが分析することが可能な感性分析ソリューションツールである。
即ち、ユーザは、成分分析ツールを用いて、2つに分類されたクラスの差異に対して、影響を与える重要度の高い指標を発見することができる。
Here, as a premise of the component analysis tool, the statistical analysis device 13 converts input / output data for the prediction model, that is, data in which the image data (input data) of the item and the emotion tag value (output data) are associated with each other. It is classified into two classes, the difference in the value of the emotion tag between the two classes is analyzed (for example, the importance of the two class classifications is extracted), and the information showing the analysis result (hereinafter, "emotional component"). Information ") shall be transmitted to the emotional analyzer 11.
The two classes are not particularly limited, and a class classified by any method desired by the user can be adopted. Here, among the items handled by a predetermined group (multiple companies, multiple departments, multiple brands), a class indicating items purchased by a customer who meets the predetermined articles (hereinafter referred to as "first class") is used. A class (hereinafter referred to as "second class") indicating the entire item is adopted.
The component analysis tool is a Kansei analysis solution tool that allows the user to analyze the difference between two classes of purchased items based on emotional component information.
That is, the user can use the component analysis tool to find a highly important index that influences the difference between the two classified classes.

感性分析装置11の出力部26には、図示しない結果欄Rが表示される。図示しない結果欄Rには、1以上の結果欄が配置される。具体的には例えば図6に示す結果欄R2が図示しない結果欄Rの右方に配置される。
結果欄R2は、第1クラスのアイテムに対応付けられる情緒タグの値と、第2クラスのアイテムに対応付けられる情緒タグの値との差異を表現すべく、コンボチャートが表示されている。
具体的には例えば、コンボチャートでは、第2クラスと比較すると、第1クラスのアイテムに多く含まれている情緒タグ(例えば、図7の例では「リボンが使われている」、「無地」、「子どもの送り迎えに行ける」など)の値は右に振れている。これに対して、第1クラスのアイテムと比較して、第2クラスのアイテム全体に多く含まれている情緒タグ(例えば、図6の例では「花柄」、「ドロップショルダー」)の値は左に振れている。
換言すると、結果欄R2に表示されるコンボチャートは、第1クラスと第2クラスとの非共通部分の情緒成分(情緒タグ)の内訳を示している。このコンボチャートは、統計解析装置13により演算された2クラス分類(第1クラスと第2クラス)の寄与度が大きい情緒成分(情緒タグ)が抽出されたもの、即ち、第1クラスと第2クラスとを決定付ける情緒成分(情緒タグ)が抽出されたものである。なお、寄与度は、結果欄R2の各情緒成分(情緒タグ)において丸印でしめされている。
このコンボチャートにおいて、所定のグループのアイテムについてみると、右側に振られている情緒成分(情緒タグ)は不足していることを示し、左側に振れている情緒成分(情緒タグ)は出すぎていることを意味している。
なお、このようなコンボチャートは、成分分析ツールのみならず、感性分析ソリューションツールに属する任意のツール、例えば図7で後述する共起分析ツールや、図8で後述するアイテム抽出ツール等に表示させることが可能である。
A result column R (not shown) is displayed on the output unit 26 of the Kansei analyzer 11. One or more result columns are arranged in the result column R (not shown). Specifically, for example, the result column R2 shown in FIG. 6 is arranged on the right side of the result column R (not shown).
In the result column R2, a combo chart is displayed in order to express the difference between the value of the emotion tag associated with the item of the first class and the value of the emotion tag associated with the item of the second class.
Specifically, for example, in the combo chart, the emotional tags contained in the items of the first class more than those of the second class (for example, in the example of FIG. 7, "ribbon is used" and "plain". , "I can pick up my child", etc.) values are swinging to the right. On the other hand, the values of the emotional tags (for example, "floral pattern" and "drop shoulder" in the example of FIG. 6) that are contained more in the entire second class item than in the first class item are It is swinging to the left.
In other words, the combo chart displayed in the result column R2 shows the breakdown of the emotional components (emotional tags) of the non-common parts between the first class and the second class. In this combo chart, the emotional components (emotional tags) having a large contribution of the two-class classifications (first class and second class) calculated by the statistical analysis device 13 are extracted, that is, the first class and the second class. The emotional component (emotional tag) that determines the class is extracted. The degree of contribution is indicated by a circle in each emotional component (emotional tag) in the result column R2.
In this combo chart, looking at the items in a predetermined group, it shows that the emotional component (emotional tag) swaying to the right is insufficient, and the emotional component (emotional tag) swaying to the left is too much. Means.
It should be noted that such a combo chart is displayed not only on the component analysis tool but also on any tool belonging to the Kansei analysis solution tool, for example, the co-occurrence analysis tool described later in FIG. 7, the item extraction tool described later in FIG. It is possible.

図7は、図3の感性分析装置により提示される感性分析ソリューションツールのうち、情緒タグの共起分析を行うツールの画面の一例を示す図である。
情緒タグの共起分析を行うツールとは、所定のグループ(複数の企業、複数の部署、複数のブランド)が取り扱う各アイテムについて、対応付けられる情緒タグの共起関係(同一のアイテムに対して共に対応付けられているか否かの関係)についての統計解析装置13の分析結果を視覚情報としてユーザに提示することにより、情緒タグの共起分析の作業をユーザが行うことが可能な感性分析ソリューションツールである。なお、以下、このような感性分析ソリューションツールを、「共起分析ツール」と呼ぶ。
即ち、共起分析ツールが用いられる場合、図示しない結果欄Rには、図7に示す画面が表示される。
FIG. 7 is a diagram showing an example of a screen of a tool that performs co-occurrence analysis of emotional tags among the Kansei analysis solution tools presented by the Kansei analyzer of FIG.
A tool for co-occurrence analysis of emotional tags is a co-occurrence relationship of emotional tags (for the same item) that is associated with each item handled by a predetermined group (multiple companies, multiple departments, multiple brands). A Kansei analysis solution that enables the user to perform co-occurrence analysis of emotional tags by presenting the analysis results of the statistical analysis device 13 regarding (relationship between whether or not they are associated with each other) to the user as visual information. It is a tool. Hereinafter, such a Kansei analysis solution tool will be referred to as a “co-occurrence analysis tool”.
That is, when the co-occurrence analysis tool is used, the screen shown in FIG. 7 is displayed in the result column R (not shown).

ここで、統計解析装置13は、成分分析ツールの前提として、所定のグループ(複数の企業、複数の部署、複数のブランド)が取り扱うアイテムについての学習装置12における教師データ、即ち、アイテムの画像のデータと当該アイテムの1以上の情緒タグとを対応付けたデータを取得すると、出現確率の高い情緒タグを抽出し、同時に出現しやすい情緒成分(同一のアイテムに対して共に対応付けられやすい情緒タグ)を関連付ける等の分析をして、その分析結果を示す情報(以下、「共起関係情報」と呼ぶ)を感性分析装置11に送信するものとする。
共起分析ツールは、このような共起関係情報を視覚情報として、即ち、とあるアイテムやアイテム群に対して同時に対応付けられる情緒タグ同士の依存関係を図式化した視覚情報としてユーザに提示することにより、情緒タグの共起分析の作業をユーザが行うことが可能な感性分析ソリューションツールである。
Here, as a premise of the component analysis tool, the statistical analysis device 13 is a teacher data in the learning device 12 for items handled by a predetermined group (a plurality of companies, a plurality of departments, a plurality of brands), that is, an image of the item. When data that associates data with one or more emotion tags of the item is acquired, emotion tags with a high appearance probability are extracted, and emotion components that are likely to appear at the same time (emotion tags that are easily associated with the same item). ), Etc., and information indicating the analysis result (hereinafter referred to as “co-occurrence relationship information”) is transmitted to the Kansei analyzer 11.
The co-occurrence analysis tool presents such co-occurrence relationship information to the user as visual information, that is, as visual information that schematizes the dependency relationships between emotional tags that are simultaneously associated with a certain item or group of items. This is a Kansei analysis solution tool that allows the user to perform the work of co-occurrence analysis of emotional tags.

図7に示す共起分析ツールの画面において、条件欄J5では、所定のグループ、必要に応じて商品カテゴリを選択する。2つのグループを比較する場合は、グループを2つ選択する。 On the screen of the co-occurrence analysis tool shown in FIG. 7, in the condition column J5, a predetermined group and, if necessary, a product category are selected. To compare two groups, select two groups.

図7に示す共起分析ツールの画面において、条件欄J6は、選択したタグに関連するタグのみを抽出してタグ同士の関係を表示するものである。 On the screen of the co-occurrence analysis tool shown in FIG. 7, the condition column J6 extracts only the tags related to the selected tag and displays the relationship between the tags.

結果欄R3には、第1のグループ(図7の例ではグループA)のアイテムについて、同時に出現しやすい情緒タグ同士の関係が、視覚情報して表示されている。結果欄R4には、第2のグループ(図7の例ではグループB)のアイテムについて、同時に出現しやすい情緒タグ同士の関係が、視覚情報して表示されている。
結果欄R3,R4において、各円は1つの情緒タグを示し、各円の大きさは、情緒タグ同士が同時に出現する確率が高い組み合わせほど大きく表示される。また、情緒タグ同士の依存関係が強い組み合わせほど、円の色が濃くなっている。
例えば、結果欄R3に示される例(グループAの例)では、きれい、ジャストサイズ、着回しやすい、無地等の自身の着こなしを中心とした情緒成分(情緒タグ)が出現しやすいアイテムが取り扱われていることがわかる。
一方、例えば、結果欄R4に示される例(グループBの例)では、デートに対する指向性が強く、女子会、合コン、デート等他者に見せる情緒成分(情緒タグ)が出現しやすいアイテムが取り扱われていることがわかる。
このように、ユーザは、結果欄R3と結果欄R4とを見比べて、各グループ(図7の例ではグループAとグループB)のアイテム毎の情緒成分(情緒タグ)同士の関係を比較することで、各グループが取り扱うアイテムの特徴の違い等を分析することが容易にできる。
In the result column R3, the relationships between emotional tags that are likely to appear at the same time for the items of the first group (group A in the example of FIG. 7) are displayed as visual information. In the result column R4, the relationships between emotional tags that are likely to appear at the same time for the items of the second group (group B in the example of FIG. 7) are displayed as visual information.
In the result columns R3 and R4, each circle indicates one emotional tag, and the size of each circle is displayed larger as the combination of emotional tags having a higher probability of appearing at the same time. In addition, the stronger the dependency between emotional tags, the darker the color of the circle.
For example, in the example shown in the result column R3 (example of group A), items such as beautiful, just-sized, easy to wear, and plain, in which emotional components (emotional tags) that are centered on one's own dress are likely to appear are handled. You can see that.
On the other hand, for example, in the example shown in the result column R4 (example of group B), items that have a strong directivity toward dating and are likely to have emotional components (emotional tags) to be shown to others such as girls-only gatherings, joint parties, and dates are handled. You can see that it is.
In this way, the user compares the result column R3 and the result column R4, and compares the relationships between the emotional components (emotional tags) for each item in each group (group A and group B in the example of FIG. 7). Therefore, it is possible to easily analyze the difference in the characteristics of the items handled by each group.

図8は、図3の感性分析装置により提示される感性分析ソリューションツールのうち、アイテム毎のタグの出力値を基に、選択した情緒成分の強さを指定して該当するアイテムを抽出するツールの画面の一例を示す図である。
アイテムの抽出ツールとは、所定のグループ(複数の企業、複数の部署、複数のブランド)が取り扱うアイテムの中から、所定の条件に合致する1以上のアイテムの画像を含む資格情報をユーザに提示する。比較検討を行う場合はグループを複数選択する。なお、以下、このような感性分析ソリューションツールを、「アイテム抽出ツール」と呼ぶ。
ここで、アイテム抽出ツールでは、予測モデルに対する入出力データ、即ちアイテムの画像のデータ(入力データ)とその情緒タグの値(出力データ)とを対応付けたデータが用いられる。
即ち、アイテム抽出ツールが用いられる場合、図示しない結果欄Rには、図8に示す画面が表示される。
FIG. 8 is a tool for extracting the corresponding item by designating the strength of the selected emotional component based on the output value of the tag for each item among the Kansei analysis solution tools presented by the Kansei analyzer of FIG. It is a figure which shows an example of the screen of.
The item extraction tool presents the user with credentials including images of one or more items that meet certain conditions from among the items handled by a given group (multiple companies, multiple departments, multiple brands). To do. Select multiple groups for comparison. Hereinafter, such a sensitivity analysis solution tool will be referred to as an "item extraction tool".
Here, in the item extraction tool, input / output data for the prediction model, that is, data in which the image data (input data) of the item and the value of the emotion tag (output data) are associated with each other is used.
That is, when the item extraction tool is used, the screen shown in FIG. 8 is displayed in the result column R (not shown).

図8に示すアイテム抽出ツールの画面において、条件欄J9は、例えば、アイテムに対応付けられている情緒タグのうち所望の条件を満たすものを選択(限定)することが可能な欄である。 On the screen of the item extraction tool shown in FIG. 8, the condition field J9 is, for example, a field in which it is possible to select (limit) an emotional tag associated with an item that satisfies a desired condition.

条件欄J9により選択された条件に合致する1以上のアイテムの画像が、結果欄R5,R6に表示される。図8の例では、第1グループ(図8の例ではグループC)が扱うアイテムのうちカテゴリBについての複数の画像が結果欄R5に表示されると共に、第2グループ(図8の例ではグループD)が扱うアイテムのうちカテゴリBについての複数の画像が結果欄R6に表示される。
また、結果欄R5に表示された1以上のアイテムの画像の夫々の情緒タグの値の平均値が条件欄J9に表示される。比較を行う場合は、結果欄R6に表示された1以上のアイテムの画像の夫々の情緒タグの値の平均値が条件欄J10に表示される。
Images of one or more items that match the conditions selected by the condition column J9 are displayed in the result columns R5 and R6. In the example of FIG. 8, a plurality of images for category B among the items handled by the first group (group C in the example of FIG. 8) are displayed in the result column R5, and the second group (group in the example of FIG. 8) is displayed. Among the items handled by D), a plurality of images for category B are displayed in the result column R6.
Further, the average value of the values of the emotion tags of the images of one or more items displayed in the result column R5 is displayed in the condition column J9. When the comparison is performed, the average value of the values of the emotion tags of the images of one or more items displayed in the result column R6 is displayed in the condition column J10.

ユーザは、結果欄R5と条件欄J10の表示内容と、結果欄R6と条件欄J11の表示内容とを見比べることによって、第1のグループ(図8の例ではグループC)と第2のグループ(図8の例ではグループD)との違いを一目瞭然で視認することができる。 By comparing the display contents of the result column R5 and the condition column J10 with the display contents of the result column R6 and the condition column J11, the user can compare the first group (group C in the example of FIG. 8) and the second group (group C). In the example of FIG. 8, the difference from the group D) can be visually recognized at a glance.

ここで、図8に示すアイテム抽出ツールの画面において、ユーザは、条件欄J9を用いることで、アイテムがカテゴリBで第1グループ(図8の例ではグループC)の場合において、例えば、かわいい、ガーリー、デート、フェミニン、女子会等の各情緒タグの値(平均値)を変更する操作をすることができる。
すると、結果欄R5には、変更後の各情緒タグの値に近いアイテムの画像が表示される(表示が更新される)。ここで、各情緒タグの値に近いアイテムとは、各情緒タグの値として高値(1により近い値)を有するアイテムを意味する。
このように、ユーザは、条件欄J10の所望の情緒タグの値を変更する操作(強弱を変更する操作)をすることで、第1グループ(図8の例ではグループC)が取り扱うアイテムの中から、ユーザの要望に合致するアイテムを探索することもできる。
このような操作は、条件欄J11に対しても同様に行うことができる。したがって、ユーザは、条件欄J11の所望の情緒タグの値を変更する操作(強弱を変更する操作)をすることで、第2グループ(図8の例ではグループD)が取り扱うアイテムの中から、ユーザの要望に合致するアイテムを探索することもできる。
Here, on the screen of the item extraction tool shown in FIG. 8, the user can use the condition field J9 to make the item cute, for example, when the item is in the category B and the first group (group C in the example of FIG. 8). You can change the value (average value) of each emotion tag such as girly, date, feminine, and girls-only gathering.
Then, in the result column R5, an image of an item close to the value of each emotion tag after the change is displayed (the display is updated). Here, the item close to the value of each emotion tag means an item having a high value (a value closer to 1) as the value of each emotion tag.
In this way, the user performs an operation of changing the value of the desired emotion tag in the condition column J10 (an operation of changing the strength), and is among the items handled by the first group (group C in the example of FIG. 8). It is also possible to search for an item that matches the user's request.
Such an operation can be performed similarly for the condition column J11. Therefore, the user performs an operation of changing the value of the desired emotional tag in the condition column J11 (an operation of changing the strength), so that the item handled by the second group (group D in the example of FIG. 8) can be selected. It is also possible to search for items that match the user's request.

以上、本発明の実施の形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and modifications, improvements, etc. within the range in which the object of the present invention can be achieved are included in the present invention. Is. Moreover, the effects described in the present embodiment merely list the most preferable effects arising from the present invention, and the effects according to the present invention are not limited to those described in the present invention.

例えば、上述の実施形態では、洋服等の商品に対する分析がなされたが、分析の対象は、特にこれに限定されず、1以上の属性と対応付けが可能な任意のアイテムでよい。
換言すると、例えば、上述の実施形態では、アイテムには1以上の情緒タグが対応付けられたが、特に情緒タグに限定されず、アイテムに対して1以上の任意の属性を対応付けてもよい。
For example, in the above-described embodiment, the analysis is performed on a product such as clothes, but the analysis target is not particularly limited to this, and any item that can be associated with one or more attributes may be used.
In other words, for example, in the above-described embodiment, one or more emotion tags are associated with the item, but the item is not particularly limited to the emotion tag, and one or more arbitrary attributes may be associated with the item. ..

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processes are executed by software, the programs constituting the software are installed on a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されるリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されているROMや、記憶部に含まれるハードディスク等で構成される。 The recording medium containing such a program is not only composed of removable media distributed separately from the device main body in order to provide the program to the user, but is also provided to the user in a state of being preliminarily incorporated in the device main body. It is composed of a recording medium and the like. The removable media is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versaille Disk), or the like. The magneto-optical disk is composed of MD (Mini-Disk) or the like. Further, the recording medium provided to the user in a state of being incorporated in the apparatus main body in advance is composed of, for example, a ROM in which a program is recorded, a hard disk included in a storage unit, or the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップ及びセールスステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the steps for describing the program recorded on the recording medium and the sales steps are not necessarily processed in chronological order as well as processed in chronological order, but are in parallel. Alternatively, it also includes processes that are executed individually.
Further, in the present specification, the term of the system shall mean an overall device composed of a plurality of devices, a plurality of means, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。 The series of processes described above can be executed by hardware or software.

また、図3に示す各ハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。 Further, each hardware configuration shown in FIG. 3 is merely an example for achieving the object of the present invention, and is not particularly limited.

また、図4に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行出来る機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図4の例に限定されない。 Further, the functional block diagram shown in FIG. 4 is merely an example and is not particularly limited. That is, it is sufficient that the information processing system is provided with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. ..

以上まとめると、本発明が適用される情報処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば、図4の感性分析装置11)は、
アイテムの画像(例えば図5の画像KG1,KG2)のデータと当該アイテムの1以上の属性(例えば図5の情緒タグ群KT1,KT2)とを対応付けたデータを教師データとして1以上用いて学習することで、新たなアイテムの画像(例えば図5の画像G)のデータを入力データとして入力することで当該新たなアイテムと対応付けられ得る1以上の属性の各値(例えば図5の表Tに表される1以上の情緒タグの値)を出力データとして出力する予測モデル(例えば図5の予測モデル)を生成又は更新する学習装置(例えば、図4の学習装置12)と、
所定の1以上の手法(例えば統計解析やデータマイニング)でデータを分析する分析装置(例えば、図4の統計解析装置13)と、
夫々の間で通信をする情報処理装置であって、
前記学習装置との通信を制御することで、前記教師データと、前記予測モデルの前記入力データ及び前記出力データの組とのうち少なくとも一方を分析対象データとして取得する学習装置通信制御手段(例えば、図4の学習装置通信)と、
前記分析装置との通信を制御することで、前記分析対象データを前記分析装置に提供し、当該分析対象データに対する分析結果を含む分析データを前記分析装置から取得する分析装置通信制御手段(例えば、図4の統計解析装置通信情報管理部53)と、
前記教師データと、前記予測モデルの前記入力データ及び前記出力データの組と、前記分析データとのうち少なくとも1つに基づく情報を、視覚情報の形態でユーザに提示すると共に、前記分析対象の変更又は加工の指示操作を含む前記ユーザの操作を受け付けるツール(例えば上述の実施形態でいう「感性分析ソリューションツール」)を生成するツール生成手段(例えば、図4の可視化ツール生成部51)と、
を備える。
これにより、アイテムに関する性質や特性等の各種情報を詳細に分析することができる。
Summarizing the above, the information processing apparatus to which the present invention is applied need only have the following configurations, and various various embodiments can be taken.
That is, the information processing device to which the present invention is applied (for example, the Kansei analyzer 11 in FIG. 4) is
Learning using one or more data as teacher data in which the data of the image of the item (for example, the images KG1 and KG2 of FIG. 5) is associated with one or more attributes of the item (for example, the emotional tag group KT1 and KT2 of FIG. 5). By doing so, each value of one or more attributes that can be associated with the new item by inputting the data of the image of the new item (for example, the image G in FIG. 5) as the input data (for example, Table T in FIG. 5). A learning device (for example, the learning device 12 of FIG. 4) that generates or updates a prediction model (for example, the prediction model of FIG. 5) that outputs (for example, the value of one or more emotional tags represented by) as output data.
An analyzer that analyzes data by one or more predetermined methods (for example, statistical analysis or data mining) (for example, the statistical analysis device 13 in FIG. 4) and
It is an information processing device that communicates between each other.
By controlling the communication with the learning device, the learning device communication control means (for example, the learning device communication control means) that acquires at least one of the teacher data and the set of the input data and the output data of the prediction model as analysis target data. (Learning device communication in Fig. 4) and
An analyzer communication control means (for example,) that provides the analysis target data to the analysis device by controlling communication with the analysis device and acquires analysis data including analysis results for the analysis target data from the analysis device. Statistical analysis device communication information management unit 53) in FIG.
Information based on at least one of the teacher data, the input data and output data sets of the prediction model, and the analysis data is presented to the user in the form of visual information, and the analysis target is changed. Alternatively, a tool generation means (for example, the visualization tool generation unit 51 in FIG. 4) for generating a tool (for example, the “sensitivity analysis solution tool” in the above-described embodiment) that accepts the user's operation including a processing instruction operation, and
To be equipped.
As a result, various information such as properties and characteristics related to the item can be analyzed in detail.

1・・・感性分析ソリューション部、2・・・Deep Learning部、3・・・統計解析・データマイニングライブラリ部、4・・・Integrated Interface部、5・・・Mining Connector部、11・・・感性分析装置、12・・・学習装置、13・・・統計解析装置、21・・・CPU、22・・・ROM、23・・・RAM、24・・・バス、25・・・入出力インターフェース、26・・・出力部、27・・・入力部、28・・・記憶部、29・・・通信部、30・・・ドライブ、31・・・リムーバブルメディア、41・・・分析部、42・・・インターフェース部、43・・・コネクタ部、44・・・通信制御部、45・・・提示部、51・・・可視化ツール生成部、52・・・学習装置通信情報管理部、53・・・統計解析装置通信情報管理部G・・・アイテムの画像、J1〜J10・・・条件欄、KG1、KG2・・・教師画像、KT1、KT2・・・教師タグ、N・・・ネットワーク、R1〜R6・・・結果欄、T・・・表 1 ... Sensitivity analysis solution department, 2 ... Deep Learning department, 3 ... Statistical analysis / data mining library department, 4 ... Integrated Interface department, 5 ... Mining Connector part, 11 ... Sensitivity Analytical device, 12 ... learning device, 13 ... statistical analysis device, 21 ... CPU, 22 ... ROM, 23 ... RAM, 24 ... bus, 25 ... input / output interface, 26 ... Output unit, 27 ... Input unit, 28 ... Storage unit, 29 ... Communication unit, 30 ... Drive, 31 ... Removable media, 41 ... Analysis unit, 42.・ ・ Interface part, 43 ・ ・ ・ Connector part, 44 ・ ・ ・ Communication control part, 45 ・ ・ ・ Presentation part, 51 ・ ・ ・ Visualization tool generation part, 52 ・ ・ ・ Learning device Communication information management part, 53 ・ ・-Statistical analysis device Communication information management unit G ... Item image, J1 to J10 ... Condition column, KG1, KG2 ... Teacher image, KT1, KT2 ... Teacher tag, N ... Network, R1 ~ R6 ... Result column, T ... Table

Claims (5)

アイテムの画像のデータと当該アイテムの1以上の属性とを対応付けたデータを教師データとして1以上用いて学習することで、新たなアイテムの画像のデータを入力データとして入力することで当該新たなアイテムと対応付けられ得る1以上の属性の各値を出力データとして出力する予測モデルを生成又は更新する学習装置と、
所定の1以上の手法でデータを分析する分析装置と、
の夫々の間で通信をする情報処理装置において、
前記学習装置との通信を制御することで、前記教師データと、前記予測モデルの前記入力データ及び前記出力データの組とのうち少なくとも一方を分析対象データとして取得する学習装置通信制御手段と、
前記分析装置との通信を制御することで、前記分析対象データを前記分析装置に提供し、当該分析対象データに対する分析結果を含む分析データを前記分析装置から取得する分析装置通信制御手段と、
前記教師データと、前記予測モデルの前記入力データ及び前記出力データの組と、前記分析データとのうち少なくとも1つに基づく情報を、視覚情報の形態でユーザに提示すると共に、分析対象の変更又は加工の指示操作を含む前記ユーザの操作を受け付けるツールを生成するツール生成手段と、
を備える情報処理装置。
By learning using one or more data that associates the image data of the item with one or more attributes of the item as teacher data, the new item can be input by inputting the image data of the new item as input data. A learning device that generates or updates a prediction model that outputs each value of one or more attributes that can be associated with an item as output data.
An analyzer that analyzes data by one or more predetermined methods,
In the information processing device that communicates between each of
A learning device communication control means that acquires at least one of the teacher data and a set of the input data and the output data of the prediction model as analysis target data by controlling communication with the learning device.
An analyzer communication control means that provides the analysis target data to the analysis device by controlling communication with the analysis device and acquires analysis data including analysis results for the analysis target data from the analysis device.
Information based on the teacher data, the set of the input data and the output data of the prediction model, and the analysis data is presented to the user in the form of visual information, and the analysis target is changed or analyzed. A tool generation means for generating a tool that accepts the user's operation including a processing instruction operation, and a tool generation means.
Information processing device equipped with.
前記アイテムの属性は、自然人が前記アイテムに対して感じ得る感情を言語化した情緒タグを含む、
請求項1に記載の情報処理装置。
The attributes of the item include an emotional tag that verbalizes the emotions that a natural person can feel about the item.
The information processing device according to claim 1.
前記ツールは、所定のグループが取り扱うアイテムについて2以上のクラスに分類し、2以上のクラス毎の、アイテムに対応付けられる前記情緒タグの差異についての前記分析装置の分析結果を視覚情報として前記ユーザに提示することにより、前記情緒タグの成分分析の作業をユーザが行うことが可能なツールを含む、
請求項2に記載の情報処理装置。
The tool classifies items handled by a predetermined group into two or more classes, and uses the analysis result of the analyzer for the difference in the emotional tag associated with the item for each of the two or more classes as visual information for the user. Including a tool that allows the user to perform the task of component analysis of the emotional tag by presenting to.
The information processing device according to claim 2.
前記ツールは、所定のグループが取り扱う各アイテムについて、対応付けられる前記情緒タグの共起関係についての前記分析装置の分析結果を視覚情報として前記ユーザに提示することにより、前記情緒タグの共起分析の作業を前記ユーザが行うことが可能なツールを含む、
請求項2に記載の情報処理装置。
The tool presents to the user as visual information the analysis result of the analyzer regarding the co-occurrence relationship of the emotional tags associated with each item handled by a predetermined group, thereby performing the co-occurrence analysis of the emotional tags. Including tools that allow the user to perform the work of
The information processing device according to claim 2.
前記ツールは、所定のグループが取り扱うアイテムの中から、所定の条件に合致する1以上のアイテムの画像を含む視覚情報をユーザに提示することにより、各アイテムの比較検討をユーザが行うことが可能なツールを含む、
請求項2に記載の情報処理装置。
The tool allows the user to compare and examine each item by presenting to the user visual information including images of one or more items that meet the predetermined conditions from the items handled by the predetermined group. Tools, including
The information processing device according to claim 2.
JP2019026617A 2019-02-18 2019-02-18 Information processor Pending JP2020135298A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019026617A JP2020135298A (en) 2019-02-18 2019-02-18 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026617A JP2020135298A (en) 2019-02-18 2019-02-18 Information processor

Publications (1)

Publication Number Publication Date
JP2020135298A true JP2020135298A (en) 2020-08-31

Family

ID=72263159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026617A Pending JP2020135298A (en) 2019-02-18 2019-02-18 Information processor

Country Status (1)

Country Link
JP (1) JP2020135298A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271801A (en) * 1994-04-01 1995-10-20 Hitachi Ltd Filing device
JPH1166283A (en) * 1997-08-13 1999-03-09 Matsushita Electric Ind Co Ltd Correlation extracting method for image feature quantity and image retrieval device
JP2002288216A (en) * 2001-03-27 2002-10-04 Densan:Kk Sensitivity item search system and method therefor
JP2010072699A (en) * 2008-09-16 2010-04-02 Nikon Corp Image classification device and image processor
JP2015162193A (en) * 2014-02-28 2015-09-07 富士フイルム株式会社 Device, method, and system for product search
JP6431231B1 (en) * 2017-12-24 2018-11-28 オリンパス株式会社 Imaging system, learning apparatus, and imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271801A (en) * 1994-04-01 1995-10-20 Hitachi Ltd Filing device
JPH1166283A (en) * 1997-08-13 1999-03-09 Matsushita Electric Ind Co Ltd Correlation extracting method for image feature quantity and image retrieval device
JP2002288216A (en) * 2001-03-27 2002-10-04 Densan:Kk Sensitivity item search system and method therefor
JP2010072699A (en) * 2008-09-16 2010-04-02 Nikon Corp Image classification device and image processor
JP2015162193A (en) * 2014-02-28 2015-09-07 富士フイルム株式会社 Device, method, and system for product search
JP6431231B1 (en) * 2017-12-24 2018-11-28 オリンパス株式会社 Imaging system, learning apparatus, and imaging apparatus

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
丹羽 志門 外: "商品写真から受ける印象と画像特徴の関係のモデル化", 情報処理学会研究報告 2012(平成24)年度▲6▼ [DVD−ROM], JPN6019033040, 15 April 2013 (2013-04-15), JP, pages 1 - 4, ISSN: 0004302789 *
飯塚 修平: "Webアプリ+機械学習の即戦力 君は使わずにいられるか? TensorFlow.js", SOFTWAREDESIGN, vol. 通巻401号(発刊335号), JPN6019033037, 18 September 2018 (2018-09-18), JP, pages 76 - 83, ISSN: 0004302790 *
高山 毅 外: "データベース検索を感性値の組合せで行なう場合の検索空間の直接的インタフェースの提案", 第65回(平成15年)全国大会講演論文集(3) データベースとメディア ネットワーク, JPN6020005163, 25 March 2003 (2003-03-25), JP, pages 3 - 35, ISSN: 0004211545 *

Similar Documents

Publication Publication Date Title
US20220129834A1 (en) Systems and methods for improving recommendation systems
US11222183B2 (en) Creation of component templates based on semantically similar content
CN109416765A (en) The machine learning of metadata driven for system
CN110363213A (en) The cognitive analysis of image of clothing and classification
US20210350068A1 (en) Descriptive insight generation and presentation system
JP2018169986A (en) Enterprise information providing system and program
KR20220047234A (en) Method and system for providing marketing service based on artificial intelligence and blockchain
JP2009157899A (en) Information processor and method, program, and recording medium
CN111159601B (en) Social contact method for visually displaying community based on feature data
WO2017049917A1 (en) Email processing method and apparatus
Shiau et al. The Intellectual Structure of Human Computer Interaction Research.
US20020138295A1 (en) Systems, methods and computer program products for processing and displaying performance information
JPH1049544A (en) Method and device for supporting analysis of multi-dimensional data while visualizing then
US11847599B1 (en) Computing system for automated evaluation of process workflows
CN112348615A (en) Method and device for auditing information
JP2020135298A (en) Information processor
JP6178480B1 (en) DATA ANALYSIS SYSTEM, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
US10755342B1 (en) Multisource augmented reality model
Cantu et al. A Knowledge Based Information System for Managing Research Programs and Value Creation in a University Environment
Sołtysik-Piorunkiewicz The evaluation method of Web 2.0/3.0 usability in e-health knowledge management system
US20040133461A1 (en) Commodity developing method, commodity developing system, commodity development program, and record medium on which commodity development program is recorded
US20220261856A1 (en) Method for generating search results in an advertising widget
Cho et al. Literature review on human-automation interaction: relation between work from home and virtual environments
JP4176691B2 (en) Problem creation program and problem creation device
Daneshmand et al. Real-time, automatic digi-tailor mannequin robot adjustment based on human body classification through supervised learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190405

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190405

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200714