JP2019144639A - Method for training model outputting vector indicating tag set corresponding to image - Google Patents

Method for training model outputting vector indicating tag set corresponding to image Download PDF

Info

Publication number
JP2019144639A
JP2019144639A JP2018025847A JP2018025847A JP2019144639A JP 2019144639 A JP2019144639 A JP 2019144639A JP 2018025847 A JP2018025847 A JP 2018025847A JP 2018025847 A JP2018025847 A JP 2018025847A JP 2019144639 A JP2019144639 A JP 2019144639A
Authority
JP
Japan
Prior art keywords
image
tag
vector
model
tag set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018025847A
Other languages
Japanese (ja)
Other versions
JP6877374B2 (en
Inventor
彬 童
Bin Tong
彬 童
マルティン クリンキグト
Klinkigt Martin
マルティン クリンキグト
ヨコ ジョバンニ クリスティアント
Yoko Giovanni Kristianto
ヨコ ジョバンニ クリスティアント
真 岩山
Makoto Iwayama
真 岩山
義行 小林
Yoshiyuki Kobayashi
義行 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018025847A priority Critical patent/JP6877374B2/en
Publication of JP2019144639A publication Critical patent/JP2019144639A/en
Application granted granted Critical
Publication of JP6877374B2 publication Critical patent/JP6877374B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To obtain a model capable of estimating a tag set to be related with an image with high accuracy.SOLUTION: A first model includes: an encoder which outputs a vector indicating a tag set to be related with an input image from the input image; and a decoder into which output from the encoder is inputted. A method for training the first model inputs a first training image into the encoder; acquires a first output image from the decoder; acquires a first output vector from the encoder; and updates parameters of the first model, on the basis of the error between the first training image and the first output image, and restriction to the first output vector from the encoder, which is preset based on a first tag set previously associated with the first training image.SELECTED DRAWING: Figure 12A

Description

本発明は、画像に対応するタグセットを表すベクトルを出力するモデルを訓練する方法に関する。   The present invention relates to a method for training a model that outputs a vector representing a tag set corresponding to an image.

画像の解析や検索のために、画像に対して画像を表すタグを付与する技術が知られている。例えば、特許文献1又は特許文献2は、画像に関連するタグを推定するシステムを開示している。   A technique for adding a tag representing an image to an image for image analysis or search is known. For example, Patent Literature 1 or Patent Literature 2 discloses a system for estimating a tag related to an image.

特許文献1において、「最初に、訓練中に、特徴データをトレーニングするために畳み込みニューラルネットワーク(CNN)に入力されるデータのクラスタ不均衡を低減するためにクラスタリング技術が利用される。実施形態では、クラスタリング技術を利用して、(タグ付けされていない画像をタグ付けするための)タグ伝搬に利用できるデータポイント類似性を計算することもできる。テスト中に、多様性ベースの投票フレームワークがユーザのタグ付けバイアスを克服するために利用される。いくつかの実施形態では、バイグラム再重み付けは、予測タグセットに基づいてバイグラムの一部である可能性が高いキーワードの重みを小さくすることができる。」(要約)と開示されている。   In Patent Document 1, “First, during training, a clustering technique is used to reduce cluster imbalance of data input to a convolutional neural network (CNN) to train feature data. Clustering techniques can also be used to calculate the data point similarity that can be used for tag propagation (to tag untagged images), during which the diversity-based voting framework In some embodiments, bigram reweighting may reduce the weight of keywords that are likely to be part of a bigram based on a predictive tag set. It can be done "(summary).

特許文献2において、「システム、方法、および非一時的なコンピュータ可読媒体は、訓練段階において、第1のコンテンツアイテム変換に基づいて第1のコンテンツアイテムの第1のコンテンツアイテム表現を生成することができる。第1のコンテンツアイテムは、1または複数の画像及びビデオを含むことができる。第1のユーザメタデータの第1のユーザメタデータ表現は、第1のユーザメタデータ変換に基づいて作成することができる。第1のコンテンツアイテム表現及び第1のユーザメタデータ表現を組み合わせて、第1の結合表現を生成することができる。第1の組み合わせ表現及び第1のタグの第1のタグ表現は、互いに第1の閾値距離内の埋め込み空間に埋め込むことができる。」(要約)と開示されている。   In U.S. Patent No. 6,099,059, "The system, method, and non-transitory computer readable medium may generate a first content item representation of a first content item based on a first content item transformation in a training phase. The first content item can include one or more images and videos, and a first user metadata representation of the first user metadata is created based on the first user metadata transformation. The first content item representation and the first user metadata representation can be combined to generate a first combined representation, the first combination representation and the first tag representation of the first tag. Can be embedded in embedded spaces within a first threshold distance from each other ”(summary).

米国特許出願公開2017/0236055号US Patent Application Publication No. 2017/0236055 米国特許出願公開2016/0188592号US Patent Application Publication No. 2016/0188592

機械学習の技術により、入力された画像に対して、関連する1又は複数タグ(タグセット)を出力するモデルを形成することができる。機械学習によりモデルを適切に訓練するためには、大量の訓練用データが必要とされ、一般に、画像データに関連付けられるタグの出現頻度分布は、ロングテイル属性を有する。つまり、多くのタグの出現頻度(関連づけられる画像の数)は低く、一部のタグのみその出現頻度が高い。   A machine learning technique can form a model that outputs one or a plurality of related tags (tag sets) for an input image. In order to properly train a model by machine learning, a large amount of training data is required, and generally, an appearance frequency distribution of tags associated with image data has a long tail attribute. That is, the appearance frequency (number of images associated) of many tags is low, and only some tags have high appearance frequencies.

出現頻度が低いタグセットの多くの訓練用データを収集することは困難である。一方、画像に関連付けるべきタグセットを推定するシステムに対して、出現頻度が低いタグセットであっても高精度に推定することができる能力が要求される。   It is difficult to collect a lot of training data for tag sets with low appearance frequency. On the other hand, a system that estimates a tag set to be associated with an image is required to have a capability of estimating with high accuracy even if the tag set has a low appearance frequency.

本開示の一態様は、入力画像から前記入力画像と関連付けるべきタグセットを表すベクトルを出力する第1モデルを訓練する、ことを含む、計算機に実行される方法であって、前記計算機は、記憶装置と、前記記憶装置に格納されているプログラムに従って動作するプロセッサと、を含み、前記第1モデルは、入力画像から前記入力画像に関連付けるべきタグセットを表すベクトルを出力するエンコーダと、前記エンコーダからの出力を入力されるデコーダとを含み、前記方法は、前記プロセッサが、前記エンコーダに第1訓練画像を入力し、前記デコーダからの第1出力画像を取得し、前記エンコーダからの第1出力ベクトルを取得し、前記第1訓練画像と前記第1出力画像との間の誤差と、前記第1訓練画像に予め関連付けられている第1タグセットに基づき予め設定された、前記エンコーダからの前記第1出力ベクトルに対する制約と、に基づいて、前記第1モデルのパラメータを更新する。   One aspect of the present disclosure is a computer-implemented method comprising training a first model that outputs a vector representing a tag set to be associated with an input image from an input image, the computer comprising: And a processor that operates according to a program stored in the storage device, wherein the first model is an encoder that outputs a vector representing a tag set to be associated with the input image from an input image; and And a decoder that receives the output of the first input image from the encoder, wherein the processor inputs a first training image to the encoder, obtains a first output image from the decoder, and a first output vector from the encoder. And an error between the first training image and the first output image and a first associated with the first training image in advance. Previously set on the basis of the tag set, constraints and, based on for the first output vector from the encoder to update the parameters of the first model.

本開示の一態様によれば、画像と関連付けるべきタグセットを高精度に推定できるモデルを得ることができる。   According to one aspect of the present disclosure, it is possible to obtain a model that can accurately estimate a tag set to be associated with an image.

タグ推定装置を含む計算機システムの構成例を示す。The structural example of the computer system containing a tag estimation apparatus is shown. 画像−テキスト関連データベースの構成例を示すAn example of the configuration of an image-text related database 画像−タグ関連データベースの構成例を示す。The structural example of an image-tag related database is shown. ユーザが、入力画像に対応するタグセットを取得するための、GUI画像の例を示す。The example of a GUI image for a user to acquire the tag set corresponding to an input image is shown. ユーザが、入力タグセットに対応する画像を取得するための、GUI画像の例を示す。The example of a GUI image for a user to acquire the image corresponding to an input tag set is shown. 運用プログラムによる、入力画像に対する推奨タグセットの決定の処理のフローチャートを示す。The flowchart of the process of the recommendation tag set determination with respect to an input image by an operation program is shown. 運用プログラムによる、入力タグセットに関連する画像をする処理のフローチャートを示す。The flowchart of the process which performs the image relevant to an input tag set by an operation program is shown. 画像−タグ関連データ生成プログラムによる処理のフローチャートを示す。The flowchart of the process by the image-tag related data generation program is shown. タグ分布テーブル構成例を示す。An example of a tag distribution table configuration is shown. 訓練プログラムによる、マッチングモデルの訓練(学習)の方法を示すフローチャートである。It is a flowchart which shows the method of training (learning) of a matching model by a training program. 訓練におけるマッチングモデルの処理のフローチャートである。It is a flowchart of the process of the matching model in training. 意味表現モデルに構成例を模式的に示す。A configuration example is schematically shown in the semantic expression model. 意味表現モデルの訓練における入力データ及び出力データを示す。The input data and output data in the training of the semantic expression model are shown. 訓練プログラムによる、意味表現モデルの訓練のフローチャートである。It is a flowchart of the training of a semantic expression model by a training program.

以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。各図において共通の構成については同一の参照符号が付されている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that this embodiment is merely an example for realizing the present invention, and does not limit the technical scope of the present invention. In each figure, the same reference numerals are given to common configurations.

図1は、タグ推定装置100を含む計算機システムの構成例を示す。タグ推定装置 100は、プロセッサ110、メモリ120、補助記憶装置130、入出力インタフェース140、及びネットワーク(NW)インタフェース145を含む。上記構成要素は、バスによって互いに接続されている。メモリ120、補助記憶装置130又はこれらの組み合わせは記憶装置の例である。   FIG. 1 shows a configuration example of a computer system including a tag estimation device 100. The tag estimation device 100 includes a processor 110, a memory 120, an auxiliary storage device 130, an input / output interface 140, and a network (NW) interface 145. The above components are connected to each other by a bus. The memory 120, the auxiliary storage device 130, or a combination thereof is an example of a storage device.

メモリ120は、例えば半導体メモリから構成され、主にプログラムやデータを一時的に保持するために利用される。メモリ120が格納しているプログラムは、マッチングモデル121、意味表現モデル122、訓練プログラム123、運用プログラム124、データクローラ125、及び、画像−タグ関連データ生成プログラム126を含む。   The memory 120 is composed of, for example, a semiconductor memory, and is mainly used for temporarily storing programs and data. The programs stored in the memory 120 include a matching model 121, a semantic expression model 122, a training program 123, an operation program 124, a data crawler 125, and an image-tag related data generation program 126.

メモリ120は、さらに、画像−タグ関連データ生成プログラム126に作成されるタグ分布テーブル547を格納している。タグ分布テーブル547は、補助記憶装置130にも格納されてもよい。   The memory 120 further stores a tag distribution table 547 created in the image-tag related data generation program 126. The tag distribution table 547 may also be stored in the auxiliary storage device 130.

プロセッサ110は、メモリ120に格納されているプログラムに従って、様々な処理を実行する。プロセッサ110がプログラムに従って動作することで、様々な機能部が実現される。例えば、プロセッサ110は、上記プログラムそれぞれに従って、マッチングモデル部、意味表現モデル部、学習部、運用部、データクローラ部、及び、訓練データ生成部として動作する。   The processor 110 executes various processes according to programs stored in the memory 120. Various functional units are realized by the processor 110 operating according to the program. For example, the processor 110 operates as a matching model unit, a semantic expression model unit, a learning unit, an operation unit, a data crawler unit, and a training data generation unit according to each of the above programs.

補助記憶装置130は、画像−テキスト関連データベース(DB)132、及び、画像−タグ関連データベース134を格納している。補助記憶装置130は、例えばハードディスクドライブやソリッドステートドライブなどの大容量の記憶装置から構成され、プログラムやデータを長期間保持するために利用される。   The auxiliary storage device 130 stores an image-text related database (DB) 132 and an image-tag related database 134. The auxiliary storage device 130 is composed of a large-capacity storage device such as a hard disk drive or a solid state drive, and is used for holding programs and data for a long period of time.

補助記憶装置130に格納されたプログラムが起動時又は必要時にメモリ120にロードされ、このプログラムをプロセッサ110が実行することにより、タグ推定装置 100の各種処理が実行される。したがって、以下においてプログラムにより実行される処理は、プロセッサ110又はタグ推定装置100による処理である。   A program stored in the auxiliary storage device 130 is loaded into the memory 120 at the time of start-up or when necessary, and the processor 110 executes the program, whereby various processes of the tag estimation device 100 are executed. Therefore, processing executed by the program below is processing by the processor 110 or the tag estimation device 100.

ネットワークインタフェース145は、ネットワークとの接続のためのインタフェースである。図1の例において、タグ推定装置100は、ネットワークインタフェース145を介して、インターネットに接続する。   The network interface 145 is an interface for connection with a network. In the example of FIG. 1, the tag estimation device 100 connects to the Internet via a network interface 145.

クライアント装置144は、ユーザが使用する装置であって、ネットワーク、図1の例においてインターネットを介して、タグ推定装置100にアクセスする。クライアント装置144は、例えば、一般的な計算機構成を有し、入力装置及び表示装置を含む。入力装置は、ユーザがタグ推定装置100に指示や情報などを入力するためのハードウェアデバイスである。表示装置は、入出力用の各種画像を表示するハードウェアデバイスである。入力デバイス及び表示デバイスは、ネットワークを介することなく、タグ推定装置100に接続されていてもよい。   The client device 144 is a device used by a user, and accesses the tag estimation device 100 via a network, the Internet in the example of FIG. The client device 144 has, for example, a general computer configuration, and includes an input device and a display device. The input device is a hardware device for the user to input instructions and information to the tag estimation device 100. The display device is a hardware device that displays various images for input and output. The input device and the display device may be connected to the tag estimation apparatus 100 without going through a network.

マッチングモデル121及び意味表現モデル122は、機械学習により訓練される(更新される)モデルである。タグ推定装置100は、マッチングモデル121のための、訓練モード(学習モード)とオペレーションモードを有する。また、意味表現モデル122のための、訓練モードとオペレーションモードを有する。   The matching model 121 and the semantic expression model 122 are models that are trained (updated) by machine learning. The tag estimation apparatus 100 has a training mode (learning mode) and an operation mode for the matching model 121. Moreover, it has a training mode and an operation mode for the semantic expression model 122.

マッチングモデル121及び意味表現モデル122は、それぞれ、訓練モードにおいて、訓練プログラム123により訓練される。マッチングモデル121及び意味表現モデル122の訓練のため、画像−タグ関連データベース134が使用される。   The matching model 121 and the semantic expression model 122 are each trained by the training program 123 in the training mode. For training the matching model 121 and the semantic representation model 122, the image-tag relation database 134 is used.

マッチングモデル121は、オペレーションモードにおいて、画像−タグ関連データ生成プログラム126によって使用される。マッチングモデル121は、オペレーションモードにおいて、画像−テキスト関連データベース132に格納されているデータから画像−タグ関連データベース134に格納するデータを生成するために使用される。   The matching model 121 is used by the image-tag related data generation program 126 in the operation mode. The matching model 121 is used to generate data to be stored in the image-tag related database 134 from data stored in the image-text related database 132 in the operation mode.

意味表現モデル122は、オペレーションモードにおいて、運用プログラム124によって使用される。意味表現モデル122は、オペレーションモードにおいて、ユーザに入力された画像に対応する1又は複数タグからなるタグセットを推定するために使用される。タグセットの推定のため、画像−タグ関連データベース134のデータが使用される。   The semantic expression model 122 is used by the operation program 124 in the operation mode. The semantic expression model 122 is used to estimate a tag set including one or a plurality of tags corresponding to an image input to the user in the operation mode. Data in the image-tag association database 134 is used for tag set estimation.

また、意味表現モデル122は、ユーザに入力されたタグセットに対応する1又は複数画像を推定するために使用される。画像推定のため、画像−テキスト関連データベース132のデータが使用される。画像推定は、意味表現モデル122及び画像−テキスト関連データベース132を使用することなく、画像−タグ関連データベース134のデータを使用してもよい。   The semantic expression model 122 is used to estimate one or more images corresponding to the tag set input by the user. Data of the image-text related database 132 is used for image estimation. Image estimation may use data in the image-tag association database 134 without using the semantic representation model 122 and the image-text association database 132.

データクローラ125は、インターネット上のWebページを定期的に巡回し、互いに関連付けられている画像とテキストからなる組を収集する。データクローラ125は、画像−テキスト関連データベース132に、収集した画像とテキストの組を格納する。   The data crawler 125 periodically circulates Web pages on the Internet and collects pairs of images and texts associated with each other. The data crawler 125 stores the collected image and text pairs in the image-text related database 132.

図2は、画像−テキスト関連データベース132の構成例を示す。画像−テキスト関連データベース132は、画像と、対応するテキストと関連付ける。画像カラム321及びテキストカラム322を有する。画像カラム321は、収集された画像を格納している。テキストカラム322は、画像それぞれに関連付けられているテキストを格納している。各テキストは複数の単語で構成されている。   FIG. 2 shows a configuration example of the image-text related database 132. The image-text association database 132 associates an image with a corresponding text. An image column 321 and a text column 322 are included. The image column 321 stores collected images. The text column 322 stores text associated with each image. Each text consists of multiple words.

上述のように、画像−テキスト関連データベース132は、画像−タグ関連データベース133の生成、及び、ユーザ入力タグセットに対応する画像の推定において、使用される。   As described above, the image-text related database 132 is used in generation of the image-tag related database 133 and estimation of images corresponding to user input tag sets.

図3は、画像−タグ関連データベース133の構成例を示す。画像−タグ関連データベース133は、画像と、対応するタグセットとを関連付ける。画像−タグ関連データベース133は、画像カラム331及びタグカラム332を有する。画像カラム321は、画像を格納している。タグカラム332は、画像それぞれに関連付けられているタグセットを格納している。各タグセットは1又は複数のタグ(単語)で構成されている。   FIG. 3 shows a configuration example of the image-tag related database 133. The image-tag relation database 133 associates an image with a corresponding tag set. The image-tag related database 133 includes an image column 331 and a tag column 332. The image column 321 stores images. The tag column 332 stores a tag set associated with each image. Each tag set is composed of one or a plurality of tags (words).

上述のように、画像−タグ関連データベース133は、マッチングモデル121及び意味表現モデル122のために使用され、また、ユーザ入力された画像を表す適切なタグセットを推定するために使用される。   As described above, the image-tag association database 133 is used for the matching model 121 and the semantic representation model 122 and is used to estimate an appropriate tag set representing the user-input image.

以下において、ユーザに入力されたタグセット対応する1又は複数の画像の推定、及び、ユーザに入力された画像に対応するタグセットの推定、を説明する。運用プログラム124は、意味表現モデル122を使用して、入力タグセットに対応する1又は複数の画像を推定し、また、入力画像に対応するタグセットを推定する。   In the following, estimation of one or a plurality of images corresponding to the tag set input to the user and estimation of the tag set corresponding to the image input to the user will be described. The operation program 124 uses the semantic expression model 122 to estimate one or a plurality of images corresponding to the input tag set, and also estimates a tag set corresponding to the input image.

図4Aは、ユーザが、入力画像に対応するタグセットを取得するための、GUI画像の例を示す。運用プログラム124は、クライアント装置144に、図4Aに示す画像データを送信する。ユーザは、クライアント装置144において、フィールド401に対象画像のパスを入力し、UPLOADボタン402を押す。   FIG. 4A shows an example of a GUI image for the user to acquire a tag set corresponding to the input image. The operation program 124 transmits the image data illustrated in FIG. 4A to the client device 144. In the client device 144, the user inputs the path of the target image in the field 401 and presses the UPLOAD button 402.

クライアント装置144は、フィールド401が示すパスから入力画像(データ)を取得し、タグ推定装置100に送信する。運用プログラム124は、クライアント装置144から対象画像を受信する。   The client device 144 acquires an input image (data) from the path indicated by the field 401 and transmits it to the tag estimation device 100. The operation program 124 receives the target image from the client device 144.

クライアント装置144は、ユーザによる入力装置を介した「推定」ボタン403の選択応じて、送信した画像を表すタグセットの要求をタグ推定装置100に送信する。運用プログラム124は、受信した要求に応じて、対象画像に関連するタグセットを推定し、クライアント装置144に送信する。クライアント装置144は、受信したタグセットを、「推奨タグ」セクション404に表示する。   The client device 144 transmits a tag set request representing the transmitted image to the tag estimation device 100 in response to the selection of the “estimate” button 403 by the user via the input device. In response to the received request, the operation program 124 estimates a tag set related to the target image and transmits the tag set to the client device 144. The client device 144 displays the received tag set in the “recommended tag” section 404.

図4Bは、ユーザが、入力タグセットに対応する画像を取得するための、GUI画像の例を示す。運用プログラム124は、クライアント装置144に、図4Bに示す画像データを送信する。ユーザは、クライアント装置144において、フィールド451に対象タグセットを入力する。クライアント装置144は、ユーザによる入力装置を介した「検索」ボタン452の選択応じて、対象タグセットと共に、対象タグセットに関連する画像の検索の要求をタグ推定装置100に送信する。   FIG. 4B shows an example of a GUI image for the user to acquire an image corresponding to the input tag set. The operation program 124 transmits the image data shown in FIG. 4B to the client device 144. The user inputs the target tag set in the field 451 on the client device 144. The client device 144 transmits a search request for an image related to the target tag set to the tag estimation device 100 together with the target tag set in response to the selection of the “search” button 452 by the user via the input device.

運用プログラム124は、受信した要求に応じて、対象タグセットに関連すると推定される1又は複数の画像を選択し、クライアント装置144に送信する。クライアント装置144は、受信した1又は複数の画像を、「関連画像」セクション454に表示する。   In response to the received request, the operation program 124 selects one or a plurality of images estimated to be related to the target tag set, and transmits them to the client device 144. The client device 144 displays the received image or images in the “Related Images” section 454.

図5は、運用プログラム124による、入力画像に対する推奨タグセットの決定の処理のフローチャートを示す。運用プログラム124は、ユーザに入力された画像を取得する(S101)。運用プログラム124は、取得した画像から、意味表現モデル122によって、意味表現ベクトルを生成する(S102)。意味表現モデル122は、入力された画像から、当該画像の意味表現ベクトルを生成する。意味表現モデル122の構成及び動作の詳細は後述する。   FIG. 5 shows a flowchart of processing for determining a recommended tag set for an input image by the operation program 124. The operation program 124 acquires an image input by the user (S101). The operation program 124 generates a semantic expression vector from the acquired image using the semantic expression model 122 (S102). The semantic expression model 122 generates a semantic expression vector of the image from the input image. Details of the configuration and operation of the semantic representation model 122 will be described later.

後述するように、意味表現ベクトルは、入力画像と関連づけるべきタグセットを表すベクトル、つまり、画像を表すタグセットを表すベクトルと見做すことができる。後述する例において、意味表現ベクトルは、word embedding技術を利用して生成されるベクトルに対応する。   As will be described later, the semantic expression vector can be regarded as a vector representing a tag set to be associated with the input image, that is, a vector representing a tag set representing the image. In the example described later, the semantic expression vector corresponds to a vector generated using a word embedding technique.

運用プログラム124は、画像−タグ関連データベース134から、タグを順次選択し、それらのベクトル(タグベクトル)を生成する(S103)。本例において、運用プログラム124は、word embedding技術により、各タグをタグベクトルに変換する。運用プログラム124は、事前に訓練されているword embeddingのモデルを含む。他の実装において、word embedding技術と異なる技術により、タグを含む語をベクトルに変換してもよい。   The operation program 124 sequentially selects tags from the image-tag related database 134 and generates their vectors (tag vectors) (S103). In this example, the operation program 124 converts each tag into a tag vector by using word embedding technology. The operational program 124 includes a pre-trained word embedding model. In other implementations, the word containing the tag may be converted to a vector by a technique different from the word embedding technique.

運用プログラム124は、生成したタグベクトルそれぞれと、意味表現ベクトルとを比較して、意味表現ベクトルとの類似度を計算する(S104)。類似度の計算は、例えば、ドット積又はコサイン類似度を使用することができる。   The operation program 124 compares each generated tag vector with the semantic expression vector, and calculates the similarity with the semantic expression vector (S104). The similarity calculation can use, for example, a dot product or a cosine similarity.

運用プログラム124は、類似度に基づいて、対象画像に対応する推奨タグセットに含めるタグを決定する(S105)。運用プログラム124は、例えば、類似度が閾値より高いタグにより、推奨タグセットを構成する。推奨タグセットを構成するタグの最大数が、予め設定されていてもよい。類似度が閾値を超えるタグの数が規定数を超える場合、運用プログラム124は、類似度の順において、最も類似度が高いタグから規定数のタグを選択してもよい。運用プログラム124は、類似度閾値を参照することなく、類似度の順において、最も類似度が高いタグから規定数のタグを選択してもよい。   The operation program 124 determines tags to be included in the recommended tag set corresponding to the target image based on the similarity (S105). The operation program 124 configures a recommended tag set with tags whose similarity is higher than a threshold, for example. The maximum number of tags constituting the recommended tag set may be set in advance. When the number of tags whose similarity exceeds the threshold exceeds the specified number, the operation program 124 may select the specified number of tags from the tags with the highest similarity in the order of similarity. The operation program 124 may select a prescribed number of tags from the tags with the highest similarity in the order of similarity without referring to the similarity threshold.

上述のように、意味表現モデル122を使用して高精度に入力画像に対応するタグセットを推定することができる。タグそれぞれのベクトルと意味表現ベクトルと比較することで、画像に関連付けるべきタグをより正確に推定することができる。   As described above, the tag set corresponding to the input image can be estimated with high accuracy using the semantic expression model 122. By comparing the vector of each tag and the semantic expression vector, the tag to be associated with the image can be estimated more accurately.

運用プログラム124は、複数タグからなるタグセットのベクトル、例えば、画像−タグ関連データベース134の各レコードのタグセットと、意味表現ベクトルとを比較してもよい。単一のタグは、単一タグからなるタグセットでもある。画像−タグ関連データベース134に代えて、タグのみを格納するデータベースが用意され、運用プログラム124は、そのデータベース内のタグのベクトルと意味表現ベクトルとを比較してもよい。   The operation program 124 may compare a tag set vector composed of a plurality of tags, for example, a tag set of each record in the image-tag relation database 134 with a semantic expression vector. A single tag is also a tag set consisting of a single tag. Instead of the image-tag related database 134, a database storing only tags may be prepared, and the operation program 124 may compare the tag vector and the semantic expression vector in the database.

図6は、運用プログラム124による、入力タグセットに関連する画像をする処理のフローチャートを示す。運用プログラム124は、ユーザに入力されたタグセットを取得する(S151)。   FIG. 6 shows a flowchart of a process for creating an image related to the input tag set by the operation program 124. The operation program 124 acquires the tag set input by the user (S151).

運用プログラム124は、取得したタグセットから、word embeddingモデルを使用して、ベクトル(タグセットベクトル)を生成する(S152)。運用プログラム124は、タグセットを構成するタグそれぞれのタグベクトルをword embeddingモデルにより生成し、それらを組み合わせることで、当該タグセットのタグセットベクトルを生成する。   The operation program 124 generates a vector (tag set vector) from the acquired tag set using a word embedding model (S152). The operation program 124 generates a tag vector of each tag constituting the tag set by using a word embedding model, and combines them to generate a tag set vector of the tag set.

例えば、運用プログラム124は、タグベクトルの単純平均値をタグセットベクトルと決定してもよく、タグベクトルの重みづけ平均をタグセットベクトルと決定してもよい。タグの重みは、例えば、画像−タグ関連データベース134におけるタグの出現頻度に応じて決定される。画像−タグ関連データベース134において関連付けられている画像の数が多いタグほど、大きい重みが与えられる。   For example, the operation program 124 may determine a simple average value of tag vectors as a tag set vector, and may determine a weighted average of tag vectors as a tag set vector. The weight of the tag is determined according to the appearance frequency of the tag in the image-tag relation database 134, for example. A tag having a larger number of images associated in the image-tag relation database 134 is given a higher weight.

次に、運用プログラム124は、画像−テキスト関連データベース132から画像を順次読み出し、意味表現モデル122によって、それらの意味表現ベクトルを生成する(S153)。運用プログラム124は、生成した意味表現ベクトルそれぞれと、ステップS152で生成したタグセットベクトルとの間の類似度を計算する(S154)。類似度の計算は、例えば、ドット積又はコサイン類似度を使用することができる。   Next, the operation program 124 sequentially reads out images from the image-text related database 132 and generates their semantic expression vectors by the semantic expression model 122 (S153). The operation program 124 calculates the similarity between each of the generated semantic expression vectors and the tag set vector generated in step S152 (S154). The similarity calculation can use, for example, a dot product or a cosine similarity.

運用プログラム124は、類似度に基づいて、対象タグセットに関連すると推定される画像を決定する(S155)。運用プログラム124は、例えば、類似度が閾値より高い画像を、タグセットに関連する画像として提示する画像と決定する。提示する画像の最大数が、予め設定されていてもよい。類似度が閾値を超える画像の数が規定数を超える場合、運用プログラム124は、類似度の順において、最も類似度が高い画像から規定数の画像を選択してもよい。運用プログラム124は、類似度閾値を参照することなく、類似度の順において、最も類似度が高い画像から規定数の画像を選択してもよい。   The operation program 124 determines an image estimated to be related to the target tag set based on the similarity (S155). For example, the operation program 124 determines an image having a similarity higher than a threshold as an image to be presented as an image related to the tag set. The maximum number of images to be presented may be set in advance. When the number of images whose similarity exceeds the threshold exceeds the specified number, the operation program 124 may select a specified number of images from images having the highest similarity in the order of similarity. The operation program 124 may select a prescribed number of images from images with the highest similarity in the order of similarity without referring to the similarity threshold.

上述のように、意味表現モデル122を使用して、入力されたタグセットに関連する画像を高精度に推定することができる。ステップS153において、運用プログラム124は、画像−テキスト関連データベース132に代えて、画像−タグ関連データベース134を参照してもよい。運用プログラム124は、画像−タグ関連データベース134におけるレコードそれぞれのタグセットのタグセットベクトル生成し、ステップS152で生成したタグセットベクトルとの間の類似度を計算する。   As described above, the semantic representation model 122 can be used to estimate an image related to the input tag set with high accuracy. In step S 153, the operation program 124 may refer to the image-tag related database 134 instead of the image-text related database 132. The operation program 124 generates a tag set vector of each tag set of the records in the image-tag relation database 134, and calculates a similarity between the tag set vector generated in step S152.

次に、画像−タグ関連データ生成プログラム126により、画像−テキスト関連データベース132のデータから、画像−タグ関連データベース134に格納するデータを生成する処理を説明する。図7は、画像−タグ関連データ生成プログラム126による処理のフローチャートを示す。画像−タグ関連データ生成プログラム126は、図7に示す処理を定期的に、例えば、1週間に1回実行する。   Next, processing for generating data to be stored in the image-tag related database 134 from the data in the image-text related database 132 by the image-tag related data generation program 126 will be described. FIG. 7 shows a flowchart of processing by the image-tag related data generation program 126. The image-tag related data generation program 126 executes the processing shown in FIG. 7 periodically, for example, once a week.

画像−タグ関連データ生成プログラム126は、画像−タグ関連データベース134におけるタグの出現頻度分布を分析し、タグ分布テーブル547を生成する(S201)。タグの出現頻度は、画像−タグ関連データベース134において、当該タグに関連付けられている画像の数に等しい。   The image-tag related data generation program 126 analyzes the tag appearance frequency distribution in the image-tag related database 134 and generates a tag distribution table 547 (S201). The appearance frequency of the tag is equal to the number of images associated with the tag in the image-tag relation database 134.

図8は、タグ分布テーブル547の構成例を示す。タグ分布テーブル547は、タグカラム471と画像の数カラム472とを含む。タグカラム471は、画像−タグ関連データベース134に格納されているタグを示す。画像の数カラム472は、タグそれぞれが画像−タグ関連データベース134において関連付けられている画像の数を示す。   FIG. 8 shows a configuration example of the tag distribution table 547. The tag distribution table 547 includes a tag column 471 and an image number column 472. A tag column 471 indicates a tag stored in the image-tag relation database 134. The number-of-images column 472 indicates the number of images each tag is associated with in the image-tag association database 134.

図7に戻って、画像−タグ関連データ生成プログラム126は、タグ分布テーブル547を参照し、出現頻度が低いタグを選択する(S202)。例えば、画像−タグ関連データ生成プログラム126は、出現頻度の順において、出現頻度が最も低いタグから規定数のタグを選択する。画像−タグ関連データ生成プログラム126は、出現頻度が規定値より小さい全てのタグを選択してもよい。   Returning to FIG. 7, the image-tag related data generation program 126 refers to the tag distribution table 547 and selects a tag with a low appearance frequency (S202). For example, the image-tag related data generation program 126 selects a specified number of tags from the tags with the lowest appearance frequency in the order of appearance frequencies. The image-tag related data generation program 126 may select all tags whose appearance frequency is smaller than a specified value.

画像−タグ関連データ生成プログラム126は、選択したいずれかのタグをテキスト内に含む、画像とテキストとの組(レコード)を、画像−テキスト関連データベース132から選択する(S203)。   The image-tag related data generation program 126 selects a set (record) of an image and text including one of the selected tags in the text from the image-text related database 132 (S203).

画像−タグ関連データ生成プログラム126は、画像とテキストとの選択した各組において、画像と関連づけられているテキスト内の各単語との間の類似度を、マッチングモデル121を使用して、計算する(S204)。   The image-tag related data generation program 126 uses the matching model 121 to calculate the similarity between each word in the text associated with the image in each selected set of images and text. (S204).

具体的には、画像−タグ関連データ生成プログラム126は、画像の特徴ベクトルと各単語のベクトルを生成する。画像の特徴ベクトルは、例えば、予め訓練されている深層学習モデル(深層ニューラルネットワーク)によって、生成することができる。単語ベクトルは、上述のように、予め訓練されているword embeddingモデルにより生成される。   Specifically, the image-tag related data generation program 126 generates an image feature vector and a vector of each word. The image feature vector can be generated by, for example, a deep learning model (deep neural network) trained in advance. The word vector is generated by a previously trained word embedding model as described above.

画像−タグ関連データ生成プログラム126は、生成した画像特徴ベクトルと一つの単語ベクトルをマッチングモデル121に入力する。マッチングモデル121は、入力された画像特徴ベクトルと単語ベクトルとの間の類似度を出力する。マッチングモデル121の処理の詳細は後述する。   The image-tag related data generation program 126 inputs the generated image feature vector and one word vector to the matching model 121. The matching model 121 outputs the similarity between the input image feature vector and the word vector. Details of the processing of the matching model 121 will be described later.

画像−タグ関連データ生成プログラム126は、画像とテキストの各組において、画像との類似度に基づいて、テキストの単語のうちタグとして登録する単語を選択する(S205)。画像−タグ関連データ生成プログラム126は、例えば、類似度が閾値より高い単語を、画像のタグとして選択する。このように、単語は、画像との類似度によりランク付けされる。   The image-tag related data generation program 126 selects a word to be registered as a tag from among the words of the text based on the similarity to the image in each set of the image and the text (S205). The image-tag related data generation program 126 selects, for example, a word having a similarity higher than a threshold as an image tag. In this way, words are ranked according to the degree of similarity with images.

選択できるタグの最大数は予め設定されていてもよい。画像−タグ関連データ生成プログラム126は、類似度が閾値より高い単語から、類似度の順で、最も類似度が高い単語から1又は複数単語を、規定最大数を限度に選択する。選択できるタグの数は予め設定されていてもよい。画像−タグ関連データ生成プログラム126は、類似度の順において、類似度が最も高い単語から規定数の単語を選択する。   The maximum number of tags that can be selected may be set in advance. The image-tag related data generation program 126 selects one or a plurality of words from the word having the highest similarity in the order of the similarity, starting from the word having the similarity higher than the threshold, up to the specified maximum number. The number of tags that can be selected may be set in advance. The image-tag related data generation program 126 selects a prescribed number of words from the words with the highest similarity in the order of similarity.

タグとして選択した1又は複数の単語が、画像を表す(画像に関連付けられる)タグセットを構成する。画像−タグ関連データ生成プログラム126は、画像と選択したタグセットとの組を、画像−タグ関連データベース134に追加する(S206)。   One or more words selected as tags constitute a tag set representing (associated with) the image. The image-tag related data generation program 126 adds a set of an image and the selected tag set to the image-tag related database 134 (S206).

上述のように、画像に実際に関連付けられているテキストからタグを選択することで、画像に関連するタグをより高精度に決定することができる。後述するように、画像−タグ関連データベース134は、意味表現モデル122の訓練に使用され、意味表現モデル122を適切に訓練することができる。また、訓練により改善されるマッチングモデル121を使用することで、画像−タグ関連データベース134に追加するより適切なデータを生成できる。   As described above, the tag associated with the image can be determined with higher accuracy by selecting the tag from the text actually associated with the image. As will be described later, the image-tag related database 134 is used to train the semantic representation model 122 so that the semantic representation model 122 can be appropriately trained. Further, by using the matching model 121 improved by training, more appropriate data to be added to the image-tag related database 134 can be generated.

タグ分布テーブル547に基づき画像−タグ関連データベース134に追加する画像を決定することで、画像−タグ関連データベース134内のタグの出現頻度分布がより均一に近づけることができる。関連付けられているテキストに低頻度のタグを含む画像を選択することで、低頻度タグが関連づけられる画像を選択する可能性を高めることができる。   By determining an image to be added to the image-tag related database 134 based on the tag distribution table 547, the appearance frequency distribution of tags in the image-tag related database 134 can be made more uniform. Selecting an image that includes a low frequency tag in the associated text can increase the likelihood of selecting an image that is associated with the low frequency tag.

これにより、関連タグセットが一般にレアな画像(レア画像)のデータを、画像−タグ関連データベース134に含め、レア画像についても正確にタグセットの推定をできるように意味表現モデル122を訓練できる。レア画像は、関連付けられるタグセットが出現頻度の低いタグを含む、又は、そのタグセットを構成するタグの組み合わせの出現頻度が低い、画像である。   As a result, it is possible to train the semantic expression model 122 so that the tag set can be accurately estimated even for rare images by including data of rare images (rare images) with related tag sets in the image-tag related database 134. A rare image is an image in which an associated tag set includes a tag having a low appearance frequency, or a combination of tags constituting the tag set has a low appearance frequency.

図9は、訓練プログラム123による、マッチングモデル121の訓練(学習)の方法を示すフローチャートである。図10は、訓練におけるマッチングモデル121の処理のフローチャートである。訓練プログラム123は、図9を参照して説明する処理を、画像−タグ関連データベース134内の異なる画像について繰り返す。   FIG. 9 is a flowchart showing a method of training (learning) the matching model 121 by the training program 123. FIG. 10 is a flowchart of processing of the matching model 121 in training. The training program 123 repeats the process described with reference to FIG. 9 for different images in the image-tag related database 134.

図9を参照して、訓練プログラム123は、画像−タグ関連データベース134から、画像を選択し、その画像の特徴ベクトルを生成する(S221)。上述のように、画像の特徴ベクトルは、例えば、予め訓練されている深層学習モデル(深層ニューラルネットワーク)によって、生成することができる。   Referring to FIG. 9, the training program 123 selects an image from the image-tag related database 134 and generates a feature vector of the image (S221). As described above, the image feature vector can be generated by, for example, a deep learning model (deep neural network) trained in advance.

次に、訓練プログラム123は、選択した画像に関連づけられているタグセットを画像−タグ関連データベース134から取得し、当該タグセットのベクトル(関連タグセットベクトル)を生成する(S222)。関連タグセットベクトルの生成は、図6を参照して説明したタグセットベクトルの生成(S152)と同様である。   Next, the training program 123 acquires a tag set associated with the selected image from the image-tag related database 134, and generates a vector (related tag set vector) of the tag set (S222). The generation of the related tag set vector is the same as the generation of the tag set vector (S152) described with reference to FIG.

次に、訓練プログラム123は、画像−タグ関連データベース134から、選択した画像に関連付けられていない複数のタグをサンプリングする(S223)。訓練プログラム123は、さらに、サンプリングしたタグそれぞれのベクトル(無関連タグベクトル)を生成する(S224)。無関連タグベクトルは、例えば、上述のように、word embeddingモデルを使用して生成される。   Next, the training program 123 samples a plurality of tags that are not associated with the selected image from the image-tag association database 134 (S223). The training program 123 further generates a vector (unrelated tag vector) for each sampled tag (S224). The unrelated tag vector is generated using, for example, a word embedding model as described above.

各タグのベクトルに代えて又は加えて、複数のタグからなるタグセットのベクトルを生成してもよい。例えば、画像−タグ関連データベース134の各レコードのタグセットのであって、選択した画像と関連付けられていない1以上のタグを含む、又は、選択した画像と関連付けられていないタグからなる、タグセットのベクトルを生成してもよい。無関連タグのベクトルは、一つのタグからなるタグセットのベクトルでもある。   Instead of or in addition to the vector of each tag, a tag set vector composed of a plurality of tags may be generated. For example, the tag set of each record in the image-tag relation database 134 that includes one or more tags that are not associated with the selected image or that includes tags that are not associated with the selected image. A vector may be generated. The unrelated tag vector is also a tag set vector composed of one tag.

訓練プログラム123は、マッチングモデル121に、上記生成した画像特徴ベクトル、関連タグセットベクトル、及び無関連タグベクトルを入力する(S225)。具体的には、訓練プログラム123は、画像特徴ベクトル及び関連タグセットベクトルのペア、並びに、画像特徴ベクトル及び無関連タグベクトルそれぞれのペアを、マッチングモデル121に順次入力する。   The training program 123 inputs the generated image feature vector, related tag set vector, and unrelated tag vector to the matching model 121 (S225). Specifically, the training program 123 sequentially inputs a pair of an image feature vector and a related tag set vector, and a pair of each of an image feature vector and an unrelated tag vector to the matching model 121.

マッチングモデル121は、入力された二つのベクトルの間の類似度を出力する。したがって、訓練プログラム123は、画像特徴ベクトルと関連タグセットベクトルの間の類似度、及び、画像特徴ベクトルと無関連タグベクトルそれぞれとの間の類似度、を取得する(S226)。   The matching model 121 outputs the similarity between the two input vectors. Therefore, the training program 123 acquires the similarity between the image feature vector and the related tag set vector and the similarity between the image feature vector and each of the unrelated tag vectors (S226).

マッチングモデル121は、取得した類似度に基づいて、マッチングモデル121を更新する(S227)。マッチングモデル121は、マッチングモデル121の出力の損失が小さくなるように、マッチングモデル121を更新(訓練)する。例えば、ヒンジ損失関数が使用される。   The matching model 121 updates the matching model 121 based on the acquired similarity (S227). The matching model 121 updates (trains) the matching model 121 so that the output loss of the matching model 121 is reduced. For example, a hinge loss function is used.

例えば、マッチングモデル121は、max(0、m+sim(x、y´)−sim(x、y))を最小化するように、マッチングモデル121を訓練する。ここで、simは、類似度を示し、mは、予め設定されているマージンである。xは、画像特徴ベクトル、yは関連タグセットベクトル、y´は、無関連タグベクトルである。   For example, the matching model 121 trains the matching model 121 to minimize max (0, m + sim (x, y ′) − sim (x, y)). Here, sim indicates the similarity and m is a preset margin. x is an image feature vector, y is a related tag set vector, and y ′ is an unrelated tag vector.

図10は、訓練におけるマッチングモデル121の処理のフローチャートである。マッチングモデル121は、入力データとして、画像特徴ベクトルを取得する(S251)。マッチングモデル121は、入力データとして、無関連タグベクトル又は関連タグセットベクトルを取得する(S252)。   FIG. 10 is a flowchart of processing of the matching model 121 in training. The matching model 121 acquires an image feature vector as input data (S251). The matching model 121 acquires an unrelated tag vector or a related tag set vector as input data (S252).

マッチングモデル121は、入力された画像特徴ベクトルを共通空間に写像する(S253)。マッチングモデル121は、さらに、入力された無関連タグベクトル又は関連タグセットベクトルを、その共通空間に写像する(S254)。画像特徴ベクトルとタグ又はタグセットベクトルの次元は異なりえる。共通空間への写像において、これらが一致される。入力されたベクトルの共通空間への写像は、深層学習モデル(深層ニューラルネットワーク)により実行され得る。深層学習モデルのパラメータは、訓練プログラム123による訓練により更新される。   The matching model 121 maps the input image feature vector to the common space (S253). The matching model 121 further maps the input unrelated tag vector or related tag set vector to the common space (S254). The dimensions of the image feature vector and the tag or tag set vector can be different. These are matched in the mapping to the common space. The mapping of the input vector to the common space can be executed by a deep learning model (deep neural network). The parameters of the deep learning model are updated by training by the training program 123.

マッチングモデル121は、共通空間内において、画像特徴ベクトルと無関連タグベクトル又は関連タグセットベクトルとの間の類似度を計算する(S255)。類似度は、例えば、ドット積又はコサイン類似度で定義される。なお、正準相関分析(CCA:Canonical Correlation Analysis)を、マッチングモデル121に適用することができる。   The matching model 121 calculates the similarity between the image feature vector and the unrelated tag vector or the related tag set vector in the common space (S255). The similarity is defined by, for example, a dot product or a cosine similarity. In addition, canonical correlation analysis (CCA) can be applied to the matching model 121.

図11は、意味表現モデル122に構成例を模式的に示す。意味表現モデル122は、オートエンコーダの構成を有する。意味表現モデル122は、深層学習モデル(深層ニューラルネットワーク)で構成できる。意味表現モデル122は、エンコーダ221及びデコーダ222を含む。   FIG. 11 schematically shows a configuration example in the semantic expression model 122. The semantic expression model 122 has a configuration of an auto encoder. The semantic expression model 122 can be constituted by a deep learning model (deep neural network). The semantic representation model 122 includes an encoder 221 and a decoder 222.

エンコーダ221とデコーダ222とは、例えば、それらの出力及び入力(意味表現ベクトル225)を中心として、対称の構造を有する。これにより、意味表現モデル122を効率的に訓練することができる。エンコーダ221とデコーダ222とは、例えば、複数層のCNN(Convolutional Neural Network)及び1又は複数層の全結合層を含む。   For example, the encoder 221 and the decoder 222 have a symmetric structure around their outputs and inputs (semantic expression vector 225). Thereby, the semantic expression model 122 can be efficiently trained. The encoder 221 and the decoder 222 include, for example, a plurality of layers of CNN (Convolutional Neural Network) and one or more layers of all coupling layers.

エンコーダ221は、入力された画像227を、意味表現ベクトル225にエンコードして、出力する。デコーダ222は、入力された意味表現ベクトル225を再構築画像228にデコードして、出力する。図5及び6を参照して説明したように、エンコーダ221から出力された意味表現ベクトル225は、運用プログラム124に利用される。後述するように、再構築画像228と入力画像227との差異が小さくなるように、意味表現モデル122は訓練される。   The encoder 221 encodes the input image 227 into a semantic expression vector 225 and outputs it. The decoder 222 decodes the input semantic expression vector 225 into a reconstructed image 228 and outputs it. As described with reference to FIGS. 5 and 6, the semantic expression vector 225 output from the encoder 221 is used for the operation program 124. As will be described later, the semantic representation model 122 is trained so that the difference between the reconstructed image 228 and the input image 227 is reduced.

図12A及び12Bを参照して、意味表現モデル122の訓練を説明する。図12Aは、意味表現モデル122の訓練における入力データ及び出力データを示す。画像−タグ関連データベース134から選択された画像227がエンコーダ221に入力される。デコーダ222は、エンコーダ221から出力された意味表現ベクトル225を入力として受け付けて、再構築画像228を出力する。   With reference to FIGS. 12A and 12B, training of the semantic representation model 122 will be described. FIG. 12A shows input data and output data in the training of the semantic expression model 122. The image 227 selected from the image-tag related database 134 is input to the encoder 221. The decoder 222 receives the semantic expression vector 225 output from the encoder 221 as an input, and outputs a reconstructed image 228.

意味表現モデル122の訓練は、エンコーダ221の出力である、意味表現ベクトル225に対して、制約を与える。制約の例は後述する。意味表現ベクトル225に対して制約を与えるために、画像−タグ関連データベース134において入力画像227に関連付けられているタグセットが参照される。   The training of the semantic expression model 122 gives a restriction to the semantic expression vector 225 that is an output of the encoder 221. Examples of constraints will be described later. To constrain the semantic representation vector 225, the tag set associated with the input image 227 is referenced in the image-tag association database 134.

エンコーダ221から出力された意味表現ベクトル225と、入力画像227に関連付けられている関連タグセットベクトルとの間の誤差が、意味表現モデル122の訓練において使用される。さらに、再構築画像228と入力画像227との間の誤差が、意味表現モデル122の訓練において使用される。   The error between the semantic representation vector 225 output from the encoder 221 and the associated tag set vector associated with the input image 227 is used in training the semantic representation model 122. Further, errors between the reconstructed image 228 and the input image 227 are used in training the semantic representation model 122.

意味表現ベクトル225の訓練において、自己復元性(再構築画像228と入力画像227との間の誤差)を考慮することで、入力画像227を再現するのに十分な情報量を確保しようとする方向に力が働く。これにより、意味表現モデル122の訓練における過度の縮退(汎化)が抑制され、出現頻度が小さいレアなタグ又はタグセットであっても、画像の特徴として重要なタグ又はタグセットが、ノイズとして切り捨てられることを防ぐことができる。   In the training of the semantic expression vector 225, a direction in which a sufficient amount of information for reproducing the input image 227 is obtained by taking into account self-restorability (error between the reconstructed image 228 and the input image 227). Power works. As a result, excessive degeneration (generalization) in training of the semantic expression model 122 is suppressed, and even a rare tag or tag set with a low appearance frequency has a tag or tag set that is important as an image feature as noise. It can be prevented from being truncated.

図12Bは、訓練プログラム123による、意味表現モデル122の訓練のフローチャートである。訓練プログラム123は、図12を参照して説明する処理を、画像−タグ関連データベース134内の異なる画像について繰り返す。   FIG. 12B is a flowchart of training of the semantic expression model 122 by the training program 123. The training program 123 repeats the process described with reference to FIG. 12 for different images in the image-tag related database 134.

訓練プログラム123は、画像−タグ関連データベース134から、画像を選択する(S301)。訓練プログラム123は、画像−タグ関連データベース134から、選択した画像に関連づけられているタグセットを取得し、そのベクトル(関連タグセットベクトル)を生成する(S302)。関連タグセットベクトルの生成は、図6を参照して説明したタグセットベクトルの生成(S152)と同様である。   The training program 123 selects an image from the image-tag related database 134 (S301). The training program 123 acquires a tag set associated with the selected image from the image-tag association database 134, and generates a vector (related tag set vector) (S302). The generation of the related tag set vector is the same as the generation of the tag set vector (S152) described with reference to FIG.

訓練プログラム123は、選択した画像(入力画像227)を意味表現モデル122のエンコーダ221に入力する(S303)。訓練プログラム123は、意味表現モデル122から、出力画像(再構築画像)228及び意味表現ベクトル225を取得する(S304)。   The training program 123 inputs the selected image (input image 227) to the encoder 221 of the semantic expression model 122 (S303). The training program 123 acquires an output image (reconstructed image) 228 and a semantic expression vector 225 from the semantic expression model 122 (S304).

訓練プログラム123は、入力画像と出力画像の誤差、及び、意味表現ベクトルと関連タグベクトルとの誤差に基づいて、意味表現モデル122を更新する。訓練プログラム123は、例えば、||x−x´||+¥lambda||s−w||が小さくなるように、意味表現モデル122のパラメータを更新する。意味表現ベクトル255に対する制約は、意味表現ベクトルと関連タグベクトルとの誤差を小さくすることである。   The training program 123 updates the semantic expression model 122 based on the error between the input image and the output image and the error between the semantic expression vector and the related tag vector. For example, the training program 123 updates the parameters of the semantic expression model 122 so that || x−x ′ || + ¥ lambda || s−w || The restriction on the semantic expression vector 255 is to reduce the error between the semantic expression vector and the related tag vector.

x及びx´は、それぞれ、入力画像及び出力画像(再構築画像)である。¥lambdaはバランシングパラメータであり、sは意味表現ベクトル、wは関連タグセットベクトルである。エンコーダ221をf、デコーダをf´と表わす。s=f(x)、x´=f´(f(x))である。   x and x ′ are an input image and an output image (reconstructed image), respectively. ¥ lamda is a balancing parameter, s is a semantic expression vector, and w is a related tag set vector. The encoder 221 is represented by f, and the decoder is represented by f ′. s = f (x), x ′ = f ′ (f (x)).

意味表現モデル122の訓練における、意味表現ベクトル225に対する制約の他の例を説明する。訓練プログラム123は、画像−タグ関連データベース134から、選択画像と関連付けられているタグセット、及び、選択画像と関連付けられていないタグを含む又は関連付けられていないタグからなるタグセットを選択し、そのタグセットを表すベクトル(関連タグセットベクトル)を生成する。   Another example of the constraint on the semantic expression vector 225 in the training of the semantic expression model 122 will be described. The training program 123 selects, from the image-tag association database 134, a tag set that includes a tag set that is associated with the selected image and a tag that includes or is not associated with the selected image. A vector representing the tag set (related tag set vector) is generated.

入力画像の意味表現ベクトルをz、入力画像の関連タグセットベクトルをy、入力画像に関連しない無関連タグセットベクトルをy´と表わす。関連タグセットベクトルyと無関連タグセットベクトルをy´との類似度は、関連タグセットベクトルyと関連タグセットベクトルy(同一ベクトル)との類似度より小さい。   The semantic representation vector of the input image is represented by z, the related tag set vector of the input image is represented by y, and the unrelated tag set vector not associated with the input image is represented by y ′. The similarity between the related tag set vector y and the unrelated tag set vector y ′ is smaller than the similarity between the related tag set vector y and the related tag set vector y (same vector).

意味表現モデル122の訓練における意味表現ベクトル225に対する制約の例は、L2(y、z)<L2(y´、z)である。L2は、ベクトル空間におけるユークリッド距離である。なお、複数の無関連タグセットベクトルを形成して、複数の不等号式を制約に含めてもよい。   An example of a constraint on the semantic expression vector 225 in the training of the semantic expression model 122 is L2 (y, z) <L2 (y ′, z). L2 is the Euclidean distance in the vector space. A plurality of unrelated tag set vectors may be formed, and a plurality of inequalities may be included in the constraint.

意味表現モデル122の訓練における、意味表現ベクトル225に対する制約の他の例を説明する。訓練プログラム123は、画像−タグ関連データベース134から、入力画像のタグセットとの類似度が異なるタグセットの画像を選択する。例えば、訓練プログラム123は、入力画像とタグセットが近似する画像(近似画像)として、例えば、一つのタグ以外のタグが入力画像に共通である画像を選択する。   Another example of the constraint on the semantic expression vector 225 in the training of the semantic expression model 122 will be described. The training program 123 selects, from the image-tag relation database 134, images of tag sets having different degrees of similarity with the tag set of the input image. For example, the training program 123 selects, for example, an image in which tags other than one tag are common to the input image as an image (approximate image) that approximates the input image and the tag set.

訓練プログラム123は、さらに、画像−タグ関連データベース134から、入力画像と、タグが完全に異なる画像(非類似画像)を選択する。入力画像に関連付けられているいずれのタグも、非類似画像に関連付けられていない。   The training program 123 further selects an image (a dissimilar image) whose tag is completely different from the input image from the image-tag related database 134. None of the tags associated with the input image is associated with the dissimilar image.

入力画像の意味表現ベクトルをz1、近似画像の意味表現ベクトルをz2、非類似画像の意味表現ベクトルをz3とする。意味表現モデル122の訓練における意味表現ベクトル225に対する制約の例は、L2(z1、z2)<L2(z1、z3)である。なお、複数の近似画像及び/又は複数の非類似画像を選択して、複数の不等号式を制約に含めてもよい。   The semantic representation vector of the input image is z1, the semantic representation vector of the approximate image is z2, and the semantic representation vector of the dissimilar image is z3. An example of a constraint on the semantic expression vector 225 in the training of the semantic expression model 122 is L2 (z1, z2) <L2 (z1, z3). A plurality of approximate images and / or a plurality of dissimilar images may be selected to include a plurality of inequalities in the constraint.

上述のような意味表現ベクトル225に対する制約により、意味表現モデル122が入力画像に関連すべきタグセットを表す意味表現ベクトルを生成するように適切に訓練することができる。   Due to the constraints on the semantic representation vector 225 as described above, the semantic representation model 122 can be appropriately trained to generate a semantic representation vector that represents a tag set to be associated with the input image.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成・機能・処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them, for example, with an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card or an SD card.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。   In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.

100 タグ推定装置 、110 プロセッサ、120 メモリ、121 マッチングモデル、122 意味表現モデル、123 訓練プログラム、124 運用プログラム、125 データクローラプログラム、126 、130 補助記憶装置、132 画像−テキスト関連データベース、134 画像−タグ関連データベース、144 クライアント装置、145 ネットワークインタフェース、221 エンコーダ、222 デコーダ、225 意味表現ベクトル、226 制約、227 入力画像、228 再構築画像、547 タグ分布テーブル 100 tag estimation device, 110 processor, 120 memory, 121 matching model, 122 semantic expression model, 123 training program, 124 operation program, 125 data crawler program, 126, 130 auxiliary storage device, 132 image-text related database, 134 image- Tag related database, 144 client device, 145 network interface, 221 encoder, 222 decoder, 225 semantic expression vector, 226 constraint, 227 input image, 228 reconstructed image, 547 tag distribution table

Claims (10)

入力画像から前記入力画像と関連付けるべきタグセットを表すベクトルを出力する第1モデルを訓練する、ことを含む、計算機に実行される方法であって、
前記計算機は、
記憶装置と、
前記記憶装置に格納されているプログラムに従って動作するプロセッサと、を含み、
前記第1モデルは、入力画像から前記入力画像に関連付けるべきタグセットを表すベクトルを出力するエンコーダと、前記エンコーダからの出力を入力されるデコーダとを含み、
前記方法は、前記プロセッサが、
前記エンコーダに第1訓練画像を入力し、
前記デコーダからの第1出力画像を取得し、
前記エンコーダからの第1出力ベクトルを取得し、
前記第1訓練画像と前記第1出力画像との間の誤差と、前記第1訓練画像に予め関連付けられている第1タグセットに基づき予め設定された、前記エンコーダからの前記第1出力ベクトルに対する制約と、に基づいて、前記第1モデルのパラメータを更新する、ことを含む方法。
Training a first model that outputs a vector representing a set of tags to be associated with the input image from an input image, comprising:
The calculator is
A storage device;
A processor that operates according to a program stored in the storage device,
The first model includes an encoder that outputs a vector representing a tag set to be associated with the input image from an input image, and a decoder that receives an output from the encoder,
In the method, the processor comprises:
Input a first training image to the encoder;
Obtaining a first output image from the decoder;
Obtaining a first output vector from the encoder;
With respect to the first output vector from the encoder preset based on an error between the first training image and the first output image and a first tag set associated in advance with the first training image. Updating parameters of the first model based on constraints.
請求項1に記載の方法であって、
前記制約は、前記エンコーダからの前記第1出力ベクトルと前記第1タグセットのベクトルとの誤差を小さくすることである、方法。
The method of claim 1, comprising:
The method is to reduce an error between the first output vector from the encoder and a vector of the first tag set.
請求項1に記載の方法であって、
前記プロセッサが、
前記第1モデルの訓練に使用する画像と前記画像それぞれに関連付けられているタグセットとを格納するデータベースにおける、タグの出現頻度分布を分析し、
前記出現頻度分布が均一な状態に近づくように、前記データベースに、互いに関連付けられている新規画像と新規タグセットとを追加する、ことをさらに含む方法。
The method of claim 1, comprising:
The processor is
Analyzing the frequency distribution of tags in a database storing images used for training of the first model and tag sets associated with each of the images;
A method further comprising adding a new image and a new tag set associated with each other to the database so that the appearance frequency distribution approaches a uniform state.
請求項3に記載の方法であって、
前記プロセッサが、
互いに関連付けられている前記新規画像及びテキストを取得し、
前記テキスト内の単語それぞれのベクトルと前記新規画像の特徴ベクトルとの類似度を決定し、
前記類似度に基づいて前記テキストから前記新規画像に関連付ける前記新規タグセットを選択する、ことをさらに含む方法。
The method of claim 3, comprising:
The processor is
Obtain the new image and text associated with each other;
Determining the similarity between the vector of each word in the text and the feature vector of the new image;
Selecting the new tag set to associate with the new image from the text based on the similarity.
請求項4に記載の方法であって、
前記プロセッサが、
前記テキスト内の単語それぞれのベクトルと前記画像の特徴ベクトルとの前記類似度を、第2モデルによって決定し、
前記第2モデルの訓練において、
前記第2モデルによって、第2訓練画像の特徴ベクトルと、前記第2訓練画像に予め関連付けられている関連タグセットのベクトルと、の第1類似度を決定し、
前記第2モデルによって、前記第2訓練画像の前記特徴ベクトルと、前記関連タグセットに含まれない単語を含む無関連タグセットのベクトルと、の第2類似度を決定し、
前記第1類似度及び前記第2類似度に基づいて、前記第2モデルを更新する、ことをさらに含む方法。
The method of claim 4, comprising:
The processor is
The similarity between the vector of each word in the text and the feature vector of the image is determined by a second model;
In training the second model,
Determining a first similarity between a feature vector of a second training image and a vector of a related tag set associated in advance with the second training image by the second model;
Determining a second similarity between the feature vector of the second training image and a vector of unrelated tag sets including words not included in the related tag set by the second model;
Updating the second model based on the first similarity and the second similarity.
請求項4に記載の方法であって、
前記プロセッサが、前記出現頻度分布に基づき、前記データベースにおいて出現頻度を増加させるべき第1タグを選択する、ことをさらに含み、
前記テキストは前記第1タグを含む、方法。
The method of claim 4, comprising:
The processor further comprising: selecting a first tag whose appearance frequency is to be increased in the database based on the appearance frequency distribution;
The method, wherein the text includes the first tag.
請求項1に記載の方法であって、
前記プロセッサが、
前記第1モデルに対して第1ユーザ画像を入力し
前記エンコーダからの前記第1ユーザ画像に対する第1ユーザ出力ベクトルを取得し、
前記第1ユーザ出力ベクトルと予め用意されているタグセットそれぞれのベクトルとの類似度を決定し、
前記類似度に基づいて、前記第1ユーザ画像に関連づけるタグセットを決定する、ことをさらに含む、方法。
The method of claim 1, comprising:
The processor is
A first user image is input to the first model to obtain a first user output vector for the first user image from the encoder;
Determining a similarity between the first user output vector and a vector of each tag set prepared in advance;
Determining a tag set associated with the first user image based on the similarity.
請求項7に記載の方法であって、
前記予め用意されているタグセットは、それぞれ、一つのタグで構成されている、方法。
The method of claim 7, comprising:
Each of the tag sets prepared in advance is composed of one tag.
請求項1に記載の方法であって、
前記プロセッサが、
第1ユーザタグセットを取得し、
予め用意されている画像を順次前記第1モデルに入力して、前記エンコーダから候補出力ベクトルを取得し、
前記候補出力ベクトルそれぞれと前記第1ユーザタグセットのベクトルとの類似度を決定し、
前記類似度に基づいて、前記第1ユーザタグセットに関連する画像を決定する、ことをさらに含む、方法。
The method of claim 1, comprising:
The processor is
Get the first user tag set,
Sequentially input images prepared in advance into the first model to obtain candidate output vectors from the encoder;
Determining a similarity between each of the candidate output vectors and the vector of the first user tag set;
And further comprising determining an image associated with the first user tag set based on the similarity.
計算機システムであって、
記憶装置と、
前記記憶装置に格納されているプログラムに従って動作するプロセッサと、を含み、
前記プロセッサは、
入力画像から前記入力画像に関連付けるべきタグセットを表すベクトルを出力するエンコーダと、前記エンコーダからの出力を入力されるデコーダとを含む、第1モデルを訓練し、
前記第1モデルの訓練において、
前記エンコーダに第1訓練画像を入力し、
前記デコーダからの第1出力画像を取得し、
前記エンコーダからの第1出力ベクトルを取得し、
前記第1訓練画像と前記第1出力画像との間の誤差と、前記第1訓練画像に予め関連付けられている第1タグセットに基づき予め設定された、前記エンコーダからの前記第1出力ベクトルに対する制約と、に基づいて、前記第1モデルのパラメータを更新する、計算機システム。
A computer system,
A storage device;
A processor that operates according to a program stored in the storage device,
The processor is
Training a first model, comprising: an encoder that outputs a vector representing a tag set to be associated with the input image from an input image; and a decoder that receives the output from the encoder;
In training the first model,
Input a first training image to the encoder;
Obtaining a first output image from the decoder;
Obtaining a first output vector from the encoder;
With respect to the first output vector from the encoder preset based on an error between the first training image and the first output image and a first tag set associated in advance with the first training image. A computer system that updates parameters of the first model based on constraints.
JP2018025847A 2018-02-16 2018-02-16 How to train a model that outputs a vector that represents the tag set that corresponds to the image Active JP6877374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018025847A JP6877374B2 (en) 2018-02-16 2018-02-16 How to train a model that outputs a vector that represents the tag set that corresponds to the image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018025847A JP6877374B2 (en) 2018-02-16 2018-02-16 How to train a model that outputs a vector that represents the tag set that corresponds to the image

Publications (2)

Publication Number Publication Date
JP2019144639A true JP2019144639A (en) 2019-08-29
JP6877374B2 JP6877374B2 (en) 2021-05-26

Family

ID=67771220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018025847A Active JP6877374B2 (en) 2018-02-16 2018-02-16 How to train a model that outputs a vector that represents the tag set that corresponds to the image

Country Status (1)

Country Link
JP (1) JP6877374B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766072A (en) * 2019-10-22 2020-02-07 探智立方(北京)科技有限公司 Automatic generation method of computational graph evolution AI model based on structural similarity
CN111582366A (en) * 2020-05-07 2020-08-25 清华大学 Image processing method, device and equipment
CN112132628A (en) * 2020-09-28 2020-12-25 科大讯飞股份有限公司 User intention prediction method, information recommendation method and related equipment
CN112836088A (en) * 2021-02-24 2021-05-25 腾讯科技(深圳)有限公司 Method, apparatus, and medium for generating tag corresponding to video
CN114691665A (en) * 2022-04-13 2022-07-01 辽源市讯展网络科技有限公司 Big data analysis-based acquisition noise point mining method and big data acquisition system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064148A (en) * 2007-09-05 2009-03-26 Seiko Epson Corp Information processor, and method and program for controlling information processor
JP2010079871A (en) * 2008-06-09 2010-04-08 Yahoo Japan Corp Device for retrieving vector data
US8983941B1 (en) * 2011-03-28 2015-03-17 Google Inc. Visual content retrieval
US20160117574A1 (en) * 2014-10-23 2016-04-28 Microsoft Corporation Tagging Personal Photos with Deep Networks
JP2017201535A (en) * 2017-06-07 2017-11-09 ヤフー株式会社 Determination device, learning device, determination method, and determination program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064148A (en) * 2007-09-05 2009-03-26 Seiko Epson Corp Information processor, and method and program for controlling information processor
JP2010079871A (en) * 2008-06-09 2010-04-08 Yahoo Japan Corp Device for retrieving vector data
US8983941B1 (en) * 2011-03-28 2015-03-17 Google Inc. Visual content retrieval
US20160117574A1 (en) * 2014-10-23 2016-04-28 Microsoft Corporation Tagging Personal Photos with Deep Networks
JP2017201535A (en) * 2017-06-07 2017-11-09 ヤフー株式会社 Determination device, learning device, determination method, and determination program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766072A (en) * 2019-10-22 2020-02-07 探智立方(北京)科技有限公司 Automatic generation method of computational graph evolution AI model based on structural similarity
CN111582366A (en) * 2020-05-07 2020-08-25 清华大学 Image processing method, device and equipment
CN111582366B (en) * 2020-05-07 2023-10-31 清华大学 Image processing method, device and equipment
CN112132628A (en) * 2020-09-28 2020-12-25 科大讯飞股份有限公司 User intention prediction method, information recommendation method and related equipment
CN112836088A (en) * 2021-02-24 2021-05-25 腾讯科技(深圳)有限公司 Method, apparatus, and medium for generating tag corresponding to video
CN112836088B (en) * 2021-02-24 2023-07-18 腾讯科技(深圳)有限公司 Method, apparatus, and medium for generating tags corresponding to video
CN114691665A (en) * 2022-04-13 2022-07-01 辽源市讯展网络科技有限公司 Big data analysis-based acquisition noise point mining method and big data acquisition system
CN114691665B (en) * 2022-04-13 2023-11-14 众坤(北京)航空设备有限公司 Big data analysis-based acquisition noise point mining method and big data acquisition system

Also Published As

Publication number Publication date
JP6877374B2 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
JP6877374B2 (en) How to train a model that outputs a vector that represents the tag set that corresponds to the image
JP6657124B2 (en) Session context modeling for conversation understanding system
US20180218080A1 (en) Conversational agent for search
US9606934B2 (en) Matrix ordering for cache efficiency in performing large sparse matrix operations
US11694109B2 (en) Data processing apparatus for accessing shared memory in processing structured data for modifying a parameter vector data structure
US8983888B2 (en) Efficient modeling system for user recommendation using matrix factorization
US9501503B2 (en) Inferring entity attribute values
US11443015B2 (en) Generating prediction models in accordance with any specific data sets
JP5440394B2 (en) Evaluation prediction apparatus, evaluation prediction method, and program
KR20180011221A (en) Select representative video frames for videos
JP2012058972A (en) Evaluation prediction device, evaluation prediction method, and program
CN109241243B (en) Candidate document sorting method and device
CN106447419B (en) Visitor identification based on feature selection
US10997373B2 (en) Document-based response generation system
US9754015B2 (en) Feature rich view of an entity subgraph
JP2021500692A (en) Genealogy entity resolution system and method
US10762902B2 (en) Method and apparatus for synthesizing adaptive data visualizations
KR20200046189A (en) Method and system for collaborative filtering based on generative adversarial networks
JP2018151578A (en) Determination device, determination method, and determination program
CN113557505A (en) System and method for interoperable communication between entities having different architectures
US11308146B2 (en) Content fragments aligned to content criteria
JP2007323315A (en) Cooperative filtering method, cooperative filtering device, cooperative filtering program and recording medium with the same program recorded thereon
CN116542720A (en) Time enhancement information sequence recommendation method and system based on graph convolution network
Hao et al. Causal discovery on high dimensional data
JP5408658B2 (en) Information consistency determination device, method and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6877374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150