JP2009294925A - Attribute estimation system and attribute estimation method - Google Patents

Attribute estimation system and attribute estimation method Download PDF

Info

Publication number
JP2009294925A
JP2009294925A JP2008148265A JP2008148265A JP2009294925A JP 2009294925 A JP2009294925 A JP 2009294925A JP 2008148265 A JP2008148265 A JP 2008148265A JP 2008148265 A JP2008148265 A JP 2008148265A JP 2009294925 A JP2009294925 A JP 2009294925A
Authority
JP
Japan
Prior art keywords
attribute
attribute estimation
unit
visual information
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008148265A
Other languages
Japanese (ja)
Inventor
寛幸 ▲高▼橋
Hiroyuki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008148265A priority Critical patent/JP2009294925A/en
Publication of JP2009294925A publication Critical patent/JP2009294925A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To estimate attributes of information represented by non-text such as images and videos. <P>SOLUTION: In an attribute estimation data creation apparatus 100, a learning part 120 learns correspondence relations between visual information of image data and attributes of the image data. In an attribute estimation apparatus 200, an input part 210 inputs visual information of image data included in a target webpage, and an attribute estimation part 250 estimates attributes of the target webpage from the visual information input by the input part 210 according to the correspondence relations learned by the learning part 120 of the attribute estimation data creation apparatus 100. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、画像データを含む情報の属性を推定する属性推定システムおよび属性推定方法に関し、特に、インターネット上のブログ等のCGM(Consumer Generated Media;個人生成メディア)の著者(製作者)の属性などを推定するための技術に関する。   The present invention relates to an attribute estimation system and attribute estimation method for estimating attributes of information including image data, and in particular, attributes of authors (producers) of CGM (Consumer Generated Media) such as blogs on the Internet. It is related with the technique for estimating.

近年、インターネット上のブログ等の著者の属性(性別や年代など)やブログの印象を把握することが、広告配信の効率化の点で大変重要視されている。広告配信の計画を適切に策定するためには、広告掲載先の属性傾向を調査することが不可欠である。たとえば、インターネット上の個人サイトには多くの広告が配信されており、広告配信の際には掲載するサイトのコンテンツの内容やキーワードと合致あるいは類似した広告が配信される。   In recent years, grasping the author's attributes (such as gender and age) of blogs on the Internet and the impression of blogs has become very important in terms of efficiency of advertisement distribution. In order to properly formulate an advertisement distribution plan, it is indispensable to investigate the attribute tendency of the advertising destination. For example, many advertisements are distributed to personal sites on the Internet, and advertisements that match or are similar to the content content and keywords of the sites to be posted are distributed.

しかしながら、コンテンツの内容やキーワードとのマッチングだけでは必ずしも効果的な広告配信が実現できるとは限らない。当該ページの著者が広告配信側へ自らの属性データを届け出る方法もあるが、個人情報保護法の流れを受け、ユーザの多くは個人情報の提供に強い抵抗感を有すると同時に、広告配信側においても個人情報を管理するリスクを避けたいという要求がある。   However, it is not always possible to realize effective advertisement distribution only by matching with the contents and keywords. There is also a method in which the author of the page submits his / her attribute data to the advertisement distribution side, but due to the flow of the Personal Information Protection Law, many users have a strong resistance to the provision of personal information and at the same time the advertisement distribution side There is also a demand to avoid the risk of managing personal information.

このような属性の把握に関する問題は、ブログ等のサイトの属性判断を機械化することによって緩和すると考えられる。属性判断の機械化には大きく二つのアプローチがある。一つはテキストマイニングによるものであり、もう一つはサイトの見た目(視覚情報)に基づいた統計処理によるものである。   It is considered that such problems related to grasping attributes can be alleviated by mechanizing attribute judgment of sites such as blogs. There are two main approaches to mechanization of attribute judgment. One is based on text mining, and the other is based on statistical processing based on the appearance (visual information) of the site.

まず、テキストマイニングによるアプローチでは、ブログサイト上の各エントリー(記事とも呼ばれる)に記載されている文章に対して形態素解析や言語統計学などのテキストマイニング処理を行うことにより、ある特定の単語やキーワードの出現頻度や出現パターンなどをもとに、たとえば著者の性別属性を推定するものである。   First, in the text mining approach, text mining such as morphological analysis and linguistic statistics is performed on the text described in each entry (also referred to as an article) on the blog site, so that a specific word or keyword For example, the gender attribute of the author is estimated based on the appearance frequency and the appearance pattern of.

かかるテキストマイニングによるアプローチとして、たとえば、非特許文献1では、インターネット上のサイトから著者の性別を推定する方法が提案されている。この非特許文献1では、テキストマイニングや自然言語処理の手法を用いて、サイトのコンテンツに含まれるテキスト情報を事前に作成した性別判定データと比較することにより、男性の著者あるいは女性の著者に特有の単語、言い回しなどから性別属性を推定している。また、たとえば、非特許文献2では、テキストマイニングや自然言語処理を用いて非特許文献1の適用範囲を汎用化させる方法が提案されている。   As an approach based on such text mining, for example, Non-Patent Document 1 proposes a method for estimating the gender of an author from a site on the Internet. In this non-patent document 1, by using text mining and natural language processing techniques, the text information contained in the site content is compared with the gender determination data created in advance. Gender attributes are estimated from the words and phrases of the words. Further, for example, Non-Patent Document 2 proposes a method for generalizing the application range of Non-Patent Document 1 using text mining and natural language processing.

一方、サイトの見た目(視覚情報)に基づいた統計処理によるアプローチは、ユーザ自身がサイトの見た目から「これは○○な著者によるものである」といった判断を日常的に行っていることを機械的に処理できるようにしたものである。つまり、この方法は、視覚的な情報から多くの判断や推論を行うことが可能であるという人間の利点を活用しようというものである。   On the other hand, an approach based on statistical processing based on the appearance of the site (visual information) is that the user himself / herself makes a judgment such as “this is due to the author” on a daily basis from the appearance of the site. Can be processed. In other words, this method is intended to utilize the human advantage that many judgments and inferences can be made from visual information.

このように視覚的な情報から属性を推定する方法として、防犯カメラによって撮像された画像中にある人物の性別や属性を判定する方法が提案されている。たとえば、特許文献1では、人間の顔画像に基づいて、その人間の性別や年代を推定する方法が提案されている。また、店内カメラなどを用いて店舗の利用者の顔を撮像して、その利用者の属性を推定する方法も提案されている。   As a method for estimating attributes from visual information in this way, a method for determining the gender and attributes of a person in an image captured by a security camera has been proposed. For example, Patent Document 1 proposes a method for estimating the sex and age of a person based on a human face image. There has also been proposed a method for capturing the face of a store user using an in-store camera or the like and estimating the attribute of the user.

池田、南野、奥村、「blog著者の性別推定」、言語処理学会 第12回年次大会、2006年、[平成20年5月26日検索]、インターネット<URL: http://www.lr.pi.titech.ac.jp/~ikeda/NLP2006-C2-3.pdf>Ikeda, Minamino, Okumura, “Blog author's gender estimation”, 12th Annual Conference of the Language Processing Society, 2006, [Search May 26, 2008], Internet <URL: http://www.lr. pi.titech.ac.jp/~ikeda/NLP2006-C2-3.pdf> 大倉、清水、中川、「スケーラブルで汎用的なブログ著者属性推定手法」、情報処理学会 研究報告 2007−NL−181、2007年Okura, Shimizu, Nakagawa, “Scalable and versatile blog author attribute estimation method”, Information Processing Society of Japan Research Report 2007-NL-181, 2007 特開2003−242486号公報JP 2003-242486 A

しかしながら、上述した従来の技術では、画像や動画などの非テキストによって表現されているブログ等のウェブページについては、著者や印象に関する属性を推定することができないという問題がある。   However, the above-described conventional technique has a problem that it is not possible to estimate an attribute relating to an author or an impression regarding a web page such as a blog expressed by non-text such as an image or a moving image.

たとえば、非特許文献1および2の方法は、主にテキストマイニングの手法を利用しているため、比較的精度よくブログ著者の性別属性を推定できるが、テキスト(文章)以外の表現手法に適応できない。   For example, since the methods of Non-Patent Documents 1 and 2 mainly use the text mining technique, the gender attribute of the blog author can be estimated relatively accurately, but cannot be applied to expression techniques other than text (sentence). .

また、特許文献1の方法は、防犯カメラや店内カメラのような形での利用形態を想定しており、ブログのようなインターネット上のメディアでの利用を前提としていない。そのため、人間の顔画像が含まれていない情報については属性を判定することができない。たとえ、ウェブページに顔画像が含まれていたとしても、その顔画像が当該ウェブページの著者のものでなければ、当該ウェブページの著者の属性を判定することはできない。   Further, the method of Patent Document 1 assumes a usage form such as a security camera or an in-store camera, and is not premised on use on a media such as a blog. Therefore, the attribute cannot be determined for information that does not include human face images. Even if a face image is included in the web page, the attribute of the author of the web page cannot be determined unless the face image belongs to the author of the web page.

この発明は、上述した従来技術の課題を解決するためになされたものであり、画像や動画などの非テキストによって表現されている情報の属性を推定することが可能な属性推定システムおよび属性推定方法を提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and is an attribute estimation system and attribute estimation method capable of estimating attributes of information represented by non-text such as images and moving images. The purpose is to provide.

上述した課題を解決し、目的を達成するため、本発明は、画像データを含む情報の属性を推定する属性推定システムであって、画像データの視覚情報と当該画像データの属性との対応関係を学習する学習手段と、属性推定の対象となる情報に含まれる画像データの視覚情報を入力する入力手段と、前記学習手段により学習された対応関係に基づいて、前記入力手段により入力された視覚情報から属性推定の対象となる情報の属性を推定する属性推定手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is an attribute estimation system for estimating attributes of information including image data, and the correspondence between visual information of image data and attributes of the image data is obtained. Learning means for learning, input means for inputting visual information of image data included in information to be attribute-estimated, and visual information input by the input means based on the correspondence learned by the learning means And an attribute estimation means for estimating the attribute of the information to be estimated from the attribute.

また、本発明は、画像データを含む情報の属性を推定する属性推定方法であって、画像データの視覚情報と当該画像データの属性との対応関係を学習する学習工程と、属性推定の対象となる情報に含まれる画像データの視覚情報を入力する入力工程と、前記学習工程により学習された対応関係に基づいて、前記入力工程により入力された視覚情報から属性推定の対象となる情報の属性を推定する属性推定工程と、を含んだことを特徴とする。   Further, the present invention is an attribute estimation method for estimating an attribute of information including image data, a learning step for learning a correspondence relationship between visual information of image data and the attribute of the image data, Based on the correspondence learned by the learning step and the input step of inputting the visual information of the image data included in the information, the attribute of the information to be subjected to attribute estimation from the visual information inputted by the input step And an attribute estimation step for estimation.

本発明によれば、画像や動画などの非テキストによって表現されている情報の属性を推定することが可能になるという効果を奏する。   According to the present invention, it is possible to estimate the attribute of information expressed by non-text such as an image or a moving image.

以下に添付図面を参照して、この発明に係る属性推定システムおよび属性推定方法の好適な実施の形態を詳細に説明する。ここで説明する属性推定システムは、インターネット上のブログ等のウェブページの属性を推定するものであって、画像データの視覚情報と当該画像データの属性との対応関係を学習するとともに、属性推定の対象となるウェブページに含まれる画像データの視覚情報を入力し、学習済みの対応関係に基づいて、入力した視覚情報から当該ウェブページの属性を推定する。   Exemplary embodiments of an attribute estimation system and an attribute estimation method according to the present invention will be described below in detail with reference to the accompanying drawings. The attribute estimation system described here estimates the attributes of web pages such as blogs on the Internet, learns the correspondence between visual information of image data and attributes of the image data, and performs attribute estimation. The visual information of the image data included in the target web page is input, and the attribute of the web page is estimated from the input visual information based on the learned correspondence.

ここで、「視覚情報」とは、位置や大きさ、色、明るさ、視覚的な特徴などの見た目に関する情報である。これら視覚情報には、属性や特徴を推定するに足る情報が含まれている場合が多い。たとえば、ある個人が作成したブログページを閲覧した場合、その見た目にはブログのタイトル部分やメニュー部分などにさまざまな色が使用されていることが多い。   Here, “visual information” is information relating to appearance such as position, size, color, brightness, and visual characteristics. Such visual information often includes information sufficient to estimate attributes and features. For example, when a blog page created by an individual is viewed, various colors are often used for the title part and menu part of the blog.

この「色」に着目すると、色の使われ方にはそのページを作成した人物の特徴があらわれていると考える。色彩心理学の分野の知見によれば、色の好みが性別や年代によって大きく異なることが知られている。たとえば、男性は寒色(青色、水色など)が好みであることが多く、女性は暖色(赤色やピンク色など)が好みであることが多い。   Focusing on this "color", we think that the characteristics of the person who created the page appear in how the color is used. According to knowledge in the field of color psychology, it is known that color preferences vary greatly depending on gender and age. For example, men often like cold colors (blue, light blue, etc.), and women often like warm colors (red, pink, etc.).

加えて、人間の色の好みには、長期的に変化しにくい色の好みと短期的に変化しやすい色の好みがあることが知られている。前者は純粋嗜好色(特定の商品などをあげずに漠然と「好きな色はなんですか?」と質問した場合に思い浮かぶ好みの色)と呼ばれ、後者は商品色(ファッションなどに適用される好みの色)と呼ばれる。   In addition, it is known that human color preferences include color preferences that are difficult to change in the long term and color preferences that are likely to change in the short term. The former is called a pure preference color (a favorite color that comes to mind when you ask vaguely “what is your favorite color” without giving a specific product), and the latter is a product color (applies to fashion, etc.) Called the preferred color).

このような色を含む視覚的な情報にまつわる知見を活用して、その背後に潜む属性を推定することにより、陽には記されていない、あるいは、表現されていない属性を推定することが可能になると考えられる。   It is possible to estimate attributes that are not explicitly described or expressed by using the knowledge about visual information including color and estimating the attributes behind it. It is considered to be.

そこで、以下に示す実施の形態では、視覚情報としてウェブページのキャプチャ画像を用い、そのキャプチャ画像に含まれる色に関する特徴量に基づいて、属性を推定する場合を中心に説明する。   Therefore, in the following embodiment, a case will be described in which a captured image of a web page is used as visual information, and attributes are estimated based on a feature amount related to a color included in the captured image.

まず、本実施の形態に係る属性推定システムの構成について説明する。図1は、本実施の形態に係る属性推定システムの構成を示す機能ブロック図である。同図に示すように、この属性推定システムは、属性推定データ作成装置100と、属性推定装置200とを備える。これら属性推定データ作成装置100および属性推定装置200は、図示していないネットワークを介して通信可能に接続されている。   First, the configuration of the attribute estimation system according to the present embodiment will be described. FIG. 1 is a functional block diagram showing the configuration of the attribute estimation system according to the present embodiment. As shown in the figure, this attribute estimation system includes an attribute estimation data creation device 100 and an attribute estimation device 200. The attribute estimation data creation device 100 and the attribute estimation device 200 are communicably connected via a network (not shown).

属性推定データ作成装置100は、画像データの視覚情報と当該画像データの属性との対応関係を学習する。この属性推定データ作成装置100は、特に、注目領域設定部110と、学習部120とを有する。   The attribute estimation data creation device 100 learns the correspondence between visual information of image data and attributes of the image data. The attribute estimation data creation device 100 particularly includes an attention area setting unit 110 and a learning unit 120.

注目領域設定部110は、属性推定に用いられる視覚情報に対して属性に応じた領域を設定する。具体的には、この注目領域設定部110は、抽出したい属性あるいは特徴にあわせて、視覚情報となるキャプチャ画像に対して特に注目する領域を設定する。図2は、図1に示した注目領域設定部110の構成を示す機能ブロック図である。同図に示すように、この注目領域設定部110は、特に、抽出属性決定部111と、領域設定部112と、領域設定保存部113とを有する。   The attention area setting unit 110 sets an area corresponding to the attribute for the visual information used for attribute estimation. Specifically, the attention area setting unit 110 sets an area of particular interest for a captured image that is visual information in accordance with an attribute or feature to be extracted. FIG. 2 is a functional block diagram illustrating a configuration of the attention area setting unit 110 illustrated in FIG. As shown in the figure, this attention area setting section 110 has an extraction attribute determination section 111, an area setting section 112, and an area setting storage section 113, in particular.

抽出属性決定部111は、システム利用者から推定したい属性を受け付ける。領域設定部112は、属性推定の対象となるウェブページのキャプチャ画像に対して、推定したい属性に応じた領域の設定をシステム利用者から受け付ける。領域設定保存部113は、抽出属性決定部111により受け付けられた属性と、領域設定部112により受け付けられた領域とを対応付けて記憶する。   The extracted attribute determination unit 111 receives an attribute to be estimated from the system user. The area setting unit 112 receives, from the system user, an area setting corresponding to an attribute to be estimated for a captured image of a web page that is a target of attribute estimation. The region setting storage unit 113 stores the attribute received by the extraction attribute determination unit 111 and the region received by the region setting unit 112 in association with each other.

図1にもどって、学習部120は、画像データの視覚情報と当該画像データの属性との対応関係を学習する。具体的には、この学習部120は、画像データに関する視覚情報を説明変数とし、当該画像データに含まれる属性を目的変数としたモデル関数を生成することによって、視覚情報と属性との対応関係を学習する。図3は、図1に示した学習部120の構成を示す機能ブロック図である。同図に示すように、この学習部120は、特に、読み取り部121と、学習処理部122とを有する。   Returning to FIG. 1, the learning unit 120 learns the correspondence between the visual information of the image data and the attribute of the image data. Specifically, the learning unit 120 uses the visual information related to the image data as an explanatory variable, and generates a model function using the attribute included in the image data as an objective variable, thereby determining the correspondence between the visual information and the attribute. learn. FIG. 3 is a functional block diagram showing the configuration of the learning unit 120 shown in FIG. As shown in the figure, the learning unit 120 particularly includes a reading unit 121 and a learning processing unit 122.

読み取り部121は、サンプルとなるキャプチャ画像から抽出された利用色データを入力する。ここで、「利用色データ」とは、色に関する特徴量を示す特徴量データであり、たとえば、色彩、色の出現度、色の利用場所などが含まれる。なお、読み取り部121は、注目領域設定部110により設定された領域ごとにキャプチャ画像から利用色データを入力する。   The reading unit 121 inputs use color data extracted from a sample captured image. Here, the “use color data” is feature amount data indicating a feature amount relating to a color, and includes, for example, a color, a color appearance degree, a color use place, and the like. The reading unit 121 inputs the use color data from the captured image for each region set by the attention region setting unit 110.

学習処理部122は、画像データに関する視覚情報を説明変数とし、当該画像データに含まれる属性を目的変数としたモデル関数を生成する。具体的には、この学習処理部122は、特に、関数設定部122aと、教師データ入力部122bと、関数生成部122cと、関数パラメータ保存部122dと、評価部122eとを有する。   The learning processing unit 122 generates a model function using visual information about the image data as explanatory variables and attributes included in the image data as objective variables. Specifically, the learning processing unit 122 includes a function setting unit 122a, a teacher data input unit 122b, a function generation unit 122c, a function parameter storage unit 122d, and an evaluation unit 122e.

関数設定部122aは、システム利用者からの指示に基づいて、モデル関数を生成するうえで必要な統計モデルを設定する。ここで、関数設定部122aによって設定される統計モデルとしては、たとえば、一般化線形モデル(GLM;Generalized Liner Model)や、One−Class SVM(Support Vector Machine)などが用いられる。   The function setting unit 122a sets a statistical model necessary for generating a model function based on an instruction from the system user. Here, as the statistical model set by the function setting unit 122a, for example, a generalized linear model (GLM), a One-Class SVM (Support Vector Machine), or the like is used.

教師データ入力部122bは、視覚情報を説明変数とし属性を目的変数としたモデル関数を生成するために必要な教師データを入力する。ここで、「教師データ」とは、説明変数となる視覚情報(ここでは、利用色データ)と属性との対応付けに関する正解を示すデータである。たとえば、性別を属性の一例としてあげた場合、「青色」に対応する性別は「男性」であり、「赤色」に対応する性別は「女性」であることを示す情報が教師データとなる。   The teacher data input unit 122b inputs teacher data necessary for generating a model function having visual information as explanatory variables and attributes as objective variables. Here, “teacher data” is data indicating a correct answer regarding the correspondence between visual information (here, used color data) serving as explanatory variables and attributes. For example, when gender is taken as an example of attribute, information indicating that the gender corresponding to “blue” is “male” and the gender corresponding to “red” is “female” is teacher data.

関数生成部122cは、関数設定部122aにより設定された統計モデルに基づいて、視覚情報を説明変数としたモデル関数を生成する。具体的には、この関数生成部122cは、利用色データとして入力される特徴量の集合を説明変数とし、性別や年代などの属性を目的変数としたモデル関数を生成する。ここで、関数生成部122cによって生成されるモデル関数fは、以下の式で表される。
属性=f(視覚情報,色彩分布,色の使用されていた場所など)
The function generation unit 122c generates a model function with visual information as an explanatory variable based on the statistical model set by the function setting unit 122a. Specifically, the function generation unit 122c generates a model function using a set of feature values input as use color data as explanatory variables and attributes such as sex and age as objective variables. Here, the model function f generated by the function generation unit 122c is represented by the following expression.
Attribute = f (visual information, color distribution, where the color was used, etc.)

関数パラメータ保存部122dは、関数生成部122cにより生成されたモデル関数と、当該関数において説明変数となるパラメータとを所定の記憶部に保存する。   The function parameter storage unit 122d stores, in a predetermined storage unit, the model function generated by the function generation unit 122c and parameters that are explanatory variables in the function.

評価部122eは、関数生成部122cにより生成されたモデル関数を評価する。具体的には、この評価部122eは、読み取り部121により入力された利用色データおよび教師データ入力部122bにより入力された教師データを用いて、関数パラメータ保存部122dに保存されている関数ごとに、目的変数として得られる属性の正解率を算出する。そして、評価部122eは、属性ごとに、最も正解率の高いモデル関数を選択し、選択したモデル関数以外の関数については、関数パラメータ保存部122dにより保存された関数から削除しておく。   The evaluation unit 122e evaluates the model function generated by the function generation unit 122c. Specifically, the evaluation unit 122e uses the usage color data input by the reading unit 121 and the teacher data input by the teacher data input unit 122b for each function stored in the function parameter storage unit 122d. The correct answer rate of the attribute obtained as the objective variable is calculated. Then, the evaluation unit 122e selects the model function having the highest accuracy rate for each attribute, and deletes functions other than the selected model function from the functions stored by the function parameter storage unit 122d.

図1にもどって、属性推定装置200は、属性推定の対象となるウェブページに含まれる画像データの視覚情報を入力し、入力した視覚情報から属性を推定する。この属性推定装置200は、特に、入力部210と、入力情報保存部220と、画像処理部230と、特徴量データ保存部240と、属性推定部250と、属性保存部260と、属性出力部270とを有する。   Returning to FIG. 1, the attribute estimation device 200 inputs visual information of image data included in a web page that is an attribute estimation target, and estimates an attribute from the input visual information. The attribute estimation device 200 includes, in particular, an input unit 210, an input information storage unit 220, an image processing unit 230, a feature amount data storage unit 240, an attribute estimation unit 250, an attribute storage unit 260, and an attribute output unit. 270.

入力部210は、属性推定の対象となるウェブページに含まれる画像データの視覚情報を入力する。具体的には、この入力部210は、インターネット閲覧用のウェブブラウザに表示されているウェブページを画面キャプチャして得られたキャプチャ画像を視覚情報として入力する。なお、入力部210は、ウェブブラウザ以外の画面キャプチャ手段によって得られた視覚情報も入力可能であり、ビットマップ形式やJPEG(Joint Photographic Experts Group)形式をはじめとする各種のファイルフォーマットのキャプチャ画像を入力可能である。   The input unit 210 inputs visual information of image data included in a web page that is a target of attribute estimation. Specifically, the input unit 210 inputs a captured image obtained by capturing a screen of a web page displayed on a web browser for browsing the Internet as visual information. The input unit 210 can also input visual information obtained by screen capture means other than a web browser, and can capture captured images of various file formats including bitmap format and JPEG (Joint Photographic Experts Group) format. It is possible to input.

入力情報保存部220は、入力部210により入力された視覚情報を保存する。具体的には、入力情報保存部220は、入力部210によって入力されたキャプチャ画像を所定の記憶部に保存する。   The input information storage unit 220 stores visual information input by the input unit 210. Specifically, the input information storage unit 220 stores the captured image input by the input unit 210 in a predetermined storage unit.

画像処理部230は、入力部210により入力された視覚情報に対して属性に応じた画像処理を施すことによって、当該視覚情報を正規化するとともに、正規化した視覚情報から利用色データを抽出する。図4は、図1に示した画像処理部230の構成を示す機能ブロック図である。同図に示すように、画像処理部230は、特に、読み取り部231と、正規化部232と、利用色抽出部233と、動作設定部234とを有する。   The image processing unit 230 performs image processing according to the attribute on the visual information input by the input unit 210, thereby normalizing the visual information and extracting use color data from the normalized visual information. . FIG. 4 is a functional block diagram showing the configuration of the image processing unit 230 shown in FIG. As shown in the figure, the image processing unit 230 particularly includes a reading unit 231, a normalization unit 232, a use color extraction unit 233, and an operation setting unit 234.

読み取り部231は、入力部210により入力された視覚情報を入力する。具体的には、この読み取り部231は、入力部210により入力されたキャプチャ画像を入力する。   The reading unit 231 inputs the visual information input by the input unit 210. Specifically, the reading unit 231 inputs the captured image input by the input unit 210.

正規化部232は、入力部210により入力された視覚情報に対して属性に応じた画像処理を施すことによって、当該視覚情報を正規化する。具体的には、この正規化部232は、読み取り部231によってキャプチャ画像が入力されると、動作設定部234によって行われる動作設定に基づいて、入力されたキャプチャ画像を後述する画像処理部(フォーマット変換部232a、サイズ変換部232b、解像度変換部232c、減色処理部232d、クロップ処理部232e)のいずれかに引き渡す。これにより、キャプチャ画像が利用色データの抽出に適した状態となるように正規化される。   The normalization unit 232 normalizes the visual information by performing image processing corresponding to the attribute on the visual information input by the input unit 210. Specifically, when the captured image is input by the reading unit 231, the normalization unit 232 converts the input captured image into an image processing unit (format (described later)) based on the operation setting performed by the operation setting unit 234. Conversion unit 232a, size conversion unit 232b, resolution conversion unit 232c, color reduction processing unit 232d, and crop processing unit 232e). Thereby, the captured image is normalized so as to be in a state suitable for extraction of the use color data.

フォーマット変換部232aは、キャプチャ画像の画像ファイルのフォーマットを利用色データの抽出に適したものに変換する。たとえば、フォーマット変換部232aは、画像劣化の少ないフォーマットや、利用可能色の多いフォーマットに変換する。具体的な例としては、JPEG形式からビットマップ形式への変換などがあげられる。   The format conversion unit 232a converts the image file format of the captured image into a format suitable for extraction of the used color data. For example, the format conversion unit 232a converts to a format with little image degradation or a format with many usable colors. A specific example is conversion from JPEG format to bitmap format.

サイズ変換部232bは、キャプチャ画像の画像ファイルのサイズを利用色データの抽出に適した大きさに変換する。具体的な例としては、サイズ変換部232bは、縦1280ピクセル×横1024ピクセルで作成されたキャプチャ画像の画像ファイルを縦640ピクセル×横480ピクセルのサイズに変換する。なお、かかるサイズ変換部232bによって行われるサイズ変換において、変換後の画像ファイルのサイズは、システム利用者によって任意に設定可能である。   The size converter 232b converts the size of the image file of the captured image into a size suitable for extracting the used color data. As a specific example, the size conversion unit 232b converts an image file of a captured image created with 1280 pixels vertically × 1024 pixels horizontally into a size of 640 pixels vertically × 480 pixels horizontally. In the size conversion performed by the size conversion unit 232b, the size of the converted image file can be arbitrarily set by the system user.

解像度変換部232cは、キャプチャ画像の画像ファイルの解像度を利用色データの抽出に適した解像度に変換する。具体的な例としては、解像度変換部232cは、解像度300dpiのキャプチャ画像の画像ファイルを解像度72dpiに変換する。なお、かかる解像度変換部232cによって行われる解像度変換において、変換後の解像度は、システム利用者によって任意に設定可能である。   The resolution conversion unit 232c converts the resolution of the image file of the captured image into a resolution suitable for extraction of the used color data. As a specific example, the resolution conversion unit 232c converts an image file of a captured image having a resolution of 300 dpi into a resolution of 72 dpi. In the resolution conversion performed by the resolution conversion unit 232c, the converted resolution can be arbitrarily set by the system user.

減色処理部232dは、キャプチャ画像の画像ファイルの利用可能色を利用色データの抽出に適した利用可能色に変換する。具体的な例としては、RGBの色空間(基本的には、各ピクセルの色を光の三原色である赤(R)・緑(G)・青(B)のそれぞれの強さ(明るさ)で表現する方法)において、RGBそれぞれの色の強さを24bitで表現した場合、利用可能色256色(=16,777,216色)をGIF形式のファイルで利用可能な256色へ減色したり、あるいは、特定のn色へ減色したりする。 The color reduction processing unit 232d converts the usable color of the image file of the captured image into a usable color suitable for extraction of the used color data. A specific example is an RGB color space (basically, the intensity (brightness) of each of the three primary colors of light, red (R), green (G), and blue (B). in in a method of expressing), if the strength of the respective RGB colors expressed in 24bit, subtractive color said available colors 256 three colors (= 16,777,216 colors) to 256 colors available on file in GIF format Or the color is reduced to a specific n color.

なお、減色処理部232dによる減色の方法としては、他にもいくつかの方法が用いられてよい。たとえば、単純な方法として、カラーパレットから色を選択することによって、ピクセルに設定するカラーパレットのインデックス値を決定する方法がある。また、キャプチャ画像に合わせて減色で使用される色を決定する方法としては、入力されたキャプチャ画像の画像ファイルの色のヒストグラムを求め、全体でn色になるまで近い色同士をまとめることによって、減色する方法がある。なお、他の減色の方法として、公知のアルゴリズムを適用したり、最適な減色結果を得るために公知の誤差拡散処理などを適用したりすることも可能である。   Several other methods may be used as the color reduction method by the color reduction processing unit 232d. For example, as a simple method, there is a method of determining an index value of a color palette to be set for a pixel by selecting a color from the color palette. In addition, as a method of determining the color to be used for color reduction in accordance with the captured image, a histogram of the colors of the image file of the input captured image is obtained, and the colors close to each other until n colors are combined, There is a way to reduce the color. As another color reduction method, a known algorithm can be applied, or a known error diffusion process or the like can be applied to obtain an optimum color reduction result.

クロップ処理部232eは、キャプチャ画像の画像ファイルから利用色データを抽出する領域を切り出す。ここで、クロップ処理部232eは、前述した注目領域設定部110によって設定された領域をキャプチャ画像の画像ファイルから切り出す。基本的には、説明変数に必要な色彩に関する情報だけがあれば属性を抽出することが可能であるので、キャプチャ画像の画像ファイルから必要な領域のみを切り出すことによって、当該キャプチャ画像を正規化することが可能である。   The crop processing unit 232e cuts out an area for extracting the used color data from the image file of the captured image. Here, the crop processing unit 232e cuts out the region set by the attention region setting unit 110 described above from the image file of the captured image. Basically, it is possible to extract attributes if there is only information about the necessary colors in the explanatory variables, so normalize the captured image by cutting out only the necessary area from the image file of the captured image It is possible.

なお、上記で説明した画像処理において、フォーマット変換部232a、サイズ変換部232b、解像度変換部232c、減色処理部232dが、注目領域設定部110によって設定された領域ごとに処理の条件を変えながら、視覚情報に対して画像処理を施すようにしてもよい。   In the image processing described above, the format conversion unit 232a, the size conversion unit 232b, the resolution conversion unit 232c, and the color reduction processing unit 232d change the processing conditions for each region set by the attention region setting unit 110, You may make it perform image processing with respect to visual information.

また、正規化部232によって行われる画像処理は、上記で説明したものに限られるわけではなく、視覚情報の正規化に適した他の各種の処理が用いられてよい。また、ここでは、キャプチャ画像に対して上記で説明した各画像処理部によるいずれかの画像処理を施す場合について説明するが、たとえば、キャプチャ画像に対して複数の画像処理を施すようにしてもよい。   In addition, the image processing performed by the normalization unit 232 is not limited to the one described above, and other various types of processing suitable for visual information normalization may be used. In addition, here, a case will be described in which any one of the image processing units described above is performed on the captured image. For example, a plurality of image processes may be performed on the captured image. .

利用色抽出部233は、正規化部232により正規化された視覚情報から利用色データを抽出する。具体的には、利用色抽出部233は、動作設定部234によって行われる動作設定に基づいて、正規化部232によって正規化されたキャプチャ画像から、使用されている色彩に関するヒストグラムや、使用されている色彩のキャプチャ画像中における位置など、色に関する特徴量を示す特徴量データを利用色データとして抽出する。なお、かかる利用色抽出部233によって抽出された利用色データは、後述する特徴量データ保存部240によって保存される。   The use color extraction unit 233 extracts use color data from the visual information normalized by the normalization unit 232. Specifically, the use color extraction unit 233 uses a histogram related to the colors used from the captured image normalized by the normalization unit 232 based on the operation setting performed by the operation setting unit 234. Feature amount data indicating a feature amount related to a color, such as a position in a captured image of a current color, is extracted as use color data. The used color data extracted by the used color extracting unit 233 is stored by a feature amount data storing unit 240 described later.

動作設定部234は、システム管理者からの指示に応じて、正規化部232によって行われる画像処理の選択に関する動作設定、および、利用色抽出部233によって行われる利用色データの抽出に関する動作設定を行う。これらの動作設定はシステム管理者によって任意に行われる。   The operation setting unit 234 performs operation settings related to selection of image processing performed by the normalization unit 232 and operation settings related to extraction of used color data performed by the used color extracting unit 233 in accordance with an instruction from the system administrator. Do. These operation settings are arbitrarily performed by the system administrator.

図1にもどって、特徴量データ保存部240は、画像処理部230により抽出された特徴量データを保存する。具体的には、この特徴量データ保存部240は、画像処理部230によって抽出された利用色データを所定の記憶部に保存する。   Returning to FIG. 1, the feature amount data storage unit 240 stores the feature amount data extracted by the image processing unit 230. Specifically, the feature amount data storage unit 240 stores the use color data extracted by the image processing unit 230 in a predetermined storage unit.

属性推定部250は、前述した学習部120によって学習された対応関係に基づいて、入力部210により入力された視覚情報から属性推定の対象となるウェブページの属性を推定する。図5は、図1に示した属性推定部250の構成を示す機能ブロック図である。同図に示すように、この属性推定部250は、特に、読み取り部251と、推定処理部252と、結果処理部253とを有する。   The attribute estimation unit 250 estimates the attribute of the web page that is the target of attribute estimation from the visual information input by the input unit 210 based on the correspondence relationship learned by the learning unit 120 described above. FIG. 5 is a functional block diagram showing the configuration of the attribute estimation unit 250 shown in FIG. As shown in the figure, the attribute estimation unit 250 particularly includes a reading unit 251, an estimation processing unit 252, and a result processing unit 253.

読み取り部251は、画像処理部230によって正規化済みのキャプチャ画像から抽出された利用色データを入力する。   The reading unit 251 inputs the use color data extracted from the normalized captured image by the image processing unit 230.

推定処理部252は、読み取り部251により入力された利用色データに基づいて、属性推定の対象となるウェブページの属性を推定する。具体的には、この推定処理部252は、特に、保存パラメータ呼び出し部252aと、関数処理部252bとを有する。   The estimation processing unit 252 estimates the attribute of the web page that is the target of attribute estimation based on the use color data input by the reading unit 251. Specifically, the estimation processing unit 252 particularly includes a storage parameter calling unit 252a and a function processing unit 252b.

保存パラメータ呼び出し部252aは、学習部120により生成されたモデル関数のパラメータを呼び出す。具体的には、この保存パラメータ呼び出し部252aは、システム利用者から指定された属性に対応するモデル関数のパラメータを、学習処理部122の関数パラメータ保存部122dによって保存されたパラメータの中から選択して呼び出す。   The saved parameter calling unit 252a calls the model function parameter generated by the learning unit 120. Specifically, the saved parameter calling unit 252a selects a parameter of the model function corresponding to the attribute designated by the system user from the parameters saved by the function parameter saving unit 122d of the learning processing unit 122. Call.

関数処理部252bは、学習部120により生成されたモデル関数を用いて、属性推定の対象となるウェブページの属性を推定する。具体的には、この関数処理部252bは、まず、システム利用者から指定された属性に対応するモデル関数を、学習処理部122の関数パラメータ保存部122dによって保存されたモデル関数の中から選択して呼び出す。   The function processing unit 252b uses the model function generated by the learning unit 120 to estimate the attribute of the web page that is the target of attribute estimation. Specifically, the function processing unit 252b first selects a model function corresponding to the attribute specified by the system user from the model functions stored by the function parameter storage unit 122d of the learning processing unit 122. Call.

続いて、関数処理部252bは、呼び出したモデル関数に、保存パラメータ呼び出し部252aによって呼び出されたパラメータを設定する。そして、関数処理部252bは、パラメータが設定されたモデル関数に対して、読み取り部251により入力された利用色データを説明変数として入力することによって、目的変数すなわち属性を得る。これにより、属性推定の対象となるウェブページの属性が推定される。   Subsequently, the function processing unit 252b sets the parameter called by the saved parameter calling unit 252a to the called model function. Then, the function processing unit 252b obtains an objective variable, that is, an attribute, by inputting the use color data input by the reading unit 251 as an explanatory variable for the model function for which the parameter is set. Thereby, the attribute of the web page used as the object of attribute estimation is estimated.

結果処理部253は、推定処理部252によって推定された属性を後述する属性保存部260および属性出力部270へ引き渡す。   The result processing unit 253 delivers the attribute estimated by the estimation processing unit 252 to the attribute storage unit 260 and the attribute output unit 270 described later.

図1にもどって、属性保存部260は、属性推定部250により推定された属性を所定の記憶部に保存する。   Returning to FIG. 1, the attribute storage unit 260 stores the attribute estimated by the attribute estimation unit 250 in a predetermined storage unit.

属性出力部270は、属性推定部250により推定された属性を他の装置に対して出力する。具体的には、この属性出力部270は、他のAPI(Application Programming Interface)や情報システム、ウェブサービスなどに対して、属性推定部250により推定された属性を出力または通知する。このとき、属性出力部270は、出力先または通知先の装置やソフトウェアに応じた形式、たとえば、XML(Extensible Markup Language)形式の情報として属性を出力する。   The attribute output unit 270 outputs the attribute estimated by the attribute estimation unit 250 to another device. Specifically, the attribute output unit 270 outputs or notifies the attribute estimated by the attribute estimation unit 250 to another API (Application Programming Interface), an information system, a web service, or the like. At this time, the attribute output unit 270 outputs the attribute as information in a format corresponding to the output destination or notification destination device or software, for example, XML (Extensible Markup Language) format information.

さらに、属性出力部270は、属性推定部250により推定された属性を、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイなどの表示部(図示せず)に表示してもよい。   Further, the attribute output unit 270 may display the attribute estimated by the attribute estimation unit 250 on a display unit (not shown) such as a liquid crystal display or a CRT (Cathode Ray Tube) display.

次に、本実施の形態に係る属性推定システムによる属性推定の処理手順について説明する。図6は、本実施の形態に係る属性推定システムによる属性推定の処理手順を示すフローチャートである。同図に示すように、属性推定システムでは、ウェブブラウザにURL(Uniform Resource Locator)が入力され(ステップS101,Yes)、さらに、入力されたURLが存在することがウェブブラウザによって確認されると(ステップS102,Yes)、ウェブブラウザに表示されているウェブページの画面がキャプチャされる(ステップS103)。   Next, an attribute estimation processing procedure by the attribute estimation system according to the present embodiment will be described. FIG. 6 is a flowchart showing a processing procedure of attribute estimation by the attribute estimation system according to the present embodiment. As shown in the figure, in the attribute estimation system, a URL (Uniform Resource Locator) is input to the web browser (step S101, Yes), and further, the web browser confirms that the input URL exists ( In step S102, Yes), the screen of the web page displayed on the web browser is captured (step S103).

続いて、属性推定装置200において、入力部210が、キャプチャ画像を入力する(ステップS104)。キャプチャ画像が入力されると、画像処理部230が、そのキャプチャ画像に対して属性に応じた画像処理を施すことによって、当該キャプチャ画像を正規化する(ステップS105)。さらに、画像処理部230は、正規化されたキャプチャ画像から利用色データを抽出する(ステップS106)。   Subsequently, in the attribute estimation apparatus 200, the input unit 210 inputs a capture image (step S104). When the captured image is input, the image processing unit 230 normalizes the captured image by performing image processing corresponding to the attribute on the captured image (step S105). Further, the image processing unit 230 extracts use color data from the normalized captured image (step S106).

続いて、属性推定装置200では、属性推定部250が、属性推定データ作成装置100の学習部120によって生成されたモデル関数およびパラメータを呼び出し(ステップS107)、画像処理部230によって抽出された利用色データおよびモデル関数を用いて属性を推定する(ステップS108)。   Subsequently, in the attribute estimation device 200, the attribute estimation unit 250 calls the model function and parameter generated by the learning unit 120 of the attribute estimation data creation device 100 (step S107), and the use color extracted by the image processing unit 230 An attribute is estimated using data and a model function (step S108).

そして、属性推定部250によって属性が推定されると、属性保存部260が、推定された属性を所定の記憶部に保存し(ステップS109)、属性出力部270が、推定された属性を他の装置に対して出力する(ステップS110)。   Then, when the attribute is estimated by the attribute estimation unit 250, the attribute storage unit 260 stores the estimated attribute in a predetermined storage unit (step S109), and the attribute output unit 270 stores the estimated attribute in another type. Output to the apparatus (step S110).

上述してきたように、本実施の形態に係る属性推定システムでは、属性推定データ作成装置100において、学習部120が、画像データの視覚情報と当該画像データの属性との対応関係を学習する。また、属性推定装置200において、入力部210が、属性推定の対象となるウェブページに含まれる画像データの視覚情報を入力し、属性推定部250が、属性推定データ作成装置100の学習部120により学習された対応関係に基づいて、入力部210により入力された視覚情報から属性推定の対象となるウェブページの属性を推定する。したがって、画像や動画などの非テキストによって表現されているウェブページの属性を推定することが可能になる。   As described above, in the attribute estimation system according to the present embodiment, in the attribute estimation data creation device 100, the learning unit 120 learns the correspondence between the visual information of the image data and the attributes of the image data. In the attribute estimation apparatus 200, the input unit 210 inputs visual information of image data included in the web page that is the target of attribute estimation, and the attribute estimation unit 250 is input by the learning unit 120 of the attribute estimation data creation apparatus 100. Based on the learned correspondence, the attribute of the web page that is the target of attribute estimation is estimated from the visual information input by the input unit 210. Therefore, it is possible to estimate the attribute of a web page expressed by non-text such as an image or a moving image.

また、本実施の形態に係る属性推定システムでは、属性推定データ作成装置100において、学習部120が、画像データに関する視覚情報を説明変数とし、当該画像データに含まれる属性を目的変数としたモデル関数を生成することによって、視覚情報と属性との対応関係を学習する。また、属性推定装置200において、属性推定部250が、学習部120により生成されたモデル関数を用いて属性を推定する。したがって、視覚情報から定式的に属性を推定することができるようになり、より効率よく属性を推定することが可能になる。   In the attribute estimation system according to the present embodiment, in the attribute estimation data generation apparatus 100, the learning unit 120 uses the visual information about the image data as explanatory variables, and the model function using the attributes included in the image data as the objective variables. By learning, the correspondence between visual information and attributes is learned. Further, in the attribute estimation device 200, the attribute estimation unit 250 estimates the attribute using the model function generated by the learning unit 120. Therefore, it becomes possible to estimate the attribute formally from the visual information, and it is possible to estimate the attribute more efficiently.

また、本実施の形態に係る属性推定システムでは、属性推定装置200において、画像処理部230が、入力部210により入力された視覚情報に対して属性に応じた画像処理を施すことによって、当該視覚情報を正規化し、属性推定部250が、画像処理部230により正規化された視覚情報から属性を推定する。したがって、視覚情報に基づく属性推定に関する処理が効率よく行われるようになり、処理時間を短縮するとともに属性推定の精度を向上させることが可能になる。   Further, in the attribute estimation system according to the present embodiment, in the attribute estimation apparatus 200, the image processing unit 230 performs image processing according to the attribute on the visual information input by the input unit 210, whereby the visual The information is normalized, and the attribute estimation unit 250 estimates the attribute from the visual information normalized by the image processing unit 230. Therefore, processing related to attribute estimation based on visual information can be performed efficiently, and the processing time can be shortened and the accuracy of attribute estimation can be improved.

また、本実施の形態に係る属性推定システムでは、属性推定データ作成装置100において、注目領域設定部110が、属性推定に用いられる視覚情報に対して属性に応じた領域を設定し、学習部120が、注目領域設定部110により設定された領域の視覚情報と属性との対応関係を学習する。また、属性推定装置200において、画像処理部230が、注目領域設定部110により設定された領域の視覚情報に対して画像処理を施す。したがって、ウェブページのタイトル部分やメニュー部分など、属性ごとに適した領域の視覚情報から属性を推定することができるようになり、属性推定の精度をより向上させることが可能になる。   In the attribute estimation system according to the present embodiment, in the attribute estimation data generation apparatus 100, the attention area setting unit 110 sets an area corresponding to the attribute for the visual information used for attribute estimation, and the learning unit 120 However, the correspondence relationship between the visual information and the attribute of the region set by the attention region setting unit 110 is learned. In the attribute estimation apparatus 200, the image processing unit 230 performs image processing on the visual information of the area set by the attention area setting unit 110. Therefore, it becomes possible to estimate an attribute from visual information of a region suitable for each attribute such as a title part or a menu part of a web page, and the accuracy of attribute estimation can be further improved.

また、本実施の形態に係る属性推定システムでは、属性推定装置200において、画像処理部230が、正規化した視覚情報から色に関する特徴量を示す特徴量データ(利用色データ)を抽出し、属性推定部250が、画像処理部230により抽出された特徴量データに基づいて属性を推定する。したがって、色に関する嗜好性に基づいて、ウェブページの著者の性別や年代などの属性を推定することが可能になる。   In the attribute estimation system according to the present embodiment, in the attribute estimation apparatus 200, the image processing unit 230 extracts feature quantity data (utilized color data) indicating a feature quantity related to color from the normalized visual information, The estimation unit 250 estimates an attribute based on the feature amount data extracted by the image processing unit 230. Therefore, it is possible to estimate attributes such as the gender and age of the author of the web page based on the preference for color.

また、本実施の形態に係る属性推定システムでは、属性推定装置200において、属性出力部270が、属性推定部250により推定された属性を他の装置に対して出力する。したがって、属性推定システムが推定した属性を他の装置で容易に利用することが可能になる。   In the attribute estimation system according to the present embodiment, in attribute estimation apparatus 200, attribute output unit 270 outputs the attribute estimated by attribute estimation unit 250 to another apparatus. Therefore, the attribute estimated by the attribute estimation system can be easily used by another device.

また、本実施の形態に係る属性推定システムでは、属性推定装置200において、属性保存部260が、属性推定部250により推定された属性を保存する。したがって、過去に行われた属性推定の結果を任意の時点で参照することができるようになり、広告配信の計画を効率よく策定することが可能になる。   In the attribute estimation system according to the present embodiment, in attribute estimation apparatus 200, attribute storage section 260 stores the attribute estimated by attribute estimation section 250. Accordingly, it is possible to refer to the result of attribute estimation performed in the past at an arbitrary time point, and it is possible to efficiently formulate an advertisement distribution plan.

また、本実施の形態に係る属性推定システムでは、属性推定装置200において、入力情報保存部220が、入力部210により入力された視覚情報(キャプチャ画像)を保存する。したがって、後にバッチ処理などによってウェブページの属性推定をまとめて行う場合などに、入力情報保存部220によって保存された視覚情報を利用することで、改めてキャプチャ画像を収集する手間を省くことができ、処理を効率化することが可能になる。   In the attribute estimation system according to the present embodiment, in the attribute estimation apparatus 200, the input information storage unit 220 stores visual information (captured image) input by the input unit 210. Therefore, when the attribute estimation of the web page is performed collectively by batch processing or the like later, it is possible to save the trouble of collecting the captured image again by using the visual information stored by the input information storage unit 220. The processing can be made efficient.

また、本実施の形態に係る属性推定システムでは、属性推定装置200において、特徴量データ保存部240が、属性推定装置200において、画像処理部230により抽出された特徴量データ(利用色データ)を保存する。したがって、後にバッチ処理などによって視覚情報と属性との対応関係をまとめて学習する場合などに、特徴量データ保存部240によって保存された特徴量データを利用することで、視覚情報の正規化や特徴量データの抽出にかかる時間を省くことができ、処理時間を短縮することが可能になる。   In the attribute estimation system according to the present embodiment, the feature amount data storage unit 240 in the attribute estimation device 200 uses the feature amount data (utilized color data) extracted by the image processing unit 230 in the attribute estimation device 200. save. Accordingly, when the correspondence relationship between visual information and attributes is learned collectively by batch processing or the like later, normalization of visual information or features can be performed by using the feature amount data stored by the feature amount data storage unit 240. The time required for extracting the quantity data can be saved, and the processing time can be shortened.

また、上記で図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   In addition, each component of each device illustrated above is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

たとえば、属性推定データ作成装置100が有する機能の一部を属性推定装置200が有することとしてもよいし、逆に、属性推定装置200が有する機能の一部を属性推定データ作成装置100が有することとしてもよい。または、属性推定データ作成装置100が有する機能および属性推定装置200が有する機能をすべて一つの装置が有することとしてもよい。   For example, the attribute estimation data creation apparatus 100 may have a part of the function of the attribute estimation data creation apparatus 100, and conversely the attribute estimation data creation apparatus 100 may have a part of the function of the attribute estimation apparatus 200. It is good. Or it is good also as one apparatus having all the function which the attribute estimation data creation apparatus 100 has, and the function which the attribute estimation apparatus 200 has.

さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。したがって、上記で説明した各装置は、コンピュータや携帯電話を用いて実現することも可能である。   Furthermore, all or a part of each processing function performed in each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic. Therefore, each device described above can also be realized using a computer or a mobile phone.

さて、これまで本発明に係る実施の形態について説明したが、本発明に係る属性推定システムおよび属性推定方法は、上記で説明した実施の形態に基づいて各種の実施例にて実施される。そこで、以下では、本発明に係る実施例について説明する。   Although the embodiments according to the present invention have been described so far, the attribute estimation system and the attribute estimation method according to the present invention are implemented in various examples based on the embodiments described above. Accordingly, examples according to the present invention will be described below.

最初に、実施例1として、ウェブページ(特に、ブログ等のCGM)における著者(製作者)の性別を推定する場合について説明する。図7〜10は、本実施例1に係る属性推定システムを説明するための説明図である。   First, as a first embodiment, a case where the gender of an author (producer) in a web page (in particular, a CGM such as a blog) is estimated will be described. 7 to 10 are explanatory diagrams for explaining the attribute estimation system according to the first embodiment.

たとえば、ウェブブラウザなどを用いてブログサイトにアクセスが行われたとする。具体的には、たとえば、「http://blog_example.com」というURLがウェブブラウザに入力され、その結果、たとえば、図7に示すブログサイトが表示され、当該ブログサイトのキャプチャ画像が得られたとする。この場合、まず、属性推定装置200において、入力部210が、得られたキャプチャ画像を入力し、入力情報保存部220が、当該キャプチャ画像を保存する。   For example, assume that a blog site is accessed using a web browser or the like. Specifically, for example, the URL “http://blog_example.com” is input to the web browser, and as a result, for example, the blog site shown in FIG. 7 is displayed and a captured image of the blog site is obtained. To do. In this case, first, in the attribute estimation apparatus 200, the input unit 210 inputs the obtained captured image, and the input information storage unit 220 stores the captured image.

続いて、画像処理部230が、入力されたキャプチャ画像に対して画像処理を施す。本実施例1では、画像処理部230が、性別を推定するために適した画像処理として、キャプチャ画像の画像ファイルから利用色データを抽出する領域の切り出しを行うこととする。その場合、正規化部232のクロップ処理部232eが、たとえば、図8に示すように、キャプチャ画像からタイトル部分を切り出す(同図に示す「切り出し部分」)。具体的には、クロップ処理部232eは、たとえば、キャプチャ画像の上部25%(すなわち、横1024ピクセル、縦192ピクセル)を切り出す。これにより、キャプチャ画像の残りの部分は削除される(同図に示す「削除部分」)。   Subsequently, the image processing unit 230 performs image processing on the input captured image. In the first embodiment, the image processing unit 230 cuts out a region for extracting use color data from an image file of a captured image as image processing suitable for estimating gender. In that case, the crop processing unit 232e of the normalization unit 232 cuts out the title portion from the captured image, for example, as shown in FIG. 8 (“cutout portion” shown in FIG. 8). Specifically, the crop processing unit 232e cuts out the upper 25% (that is, horizontal 1024 pixels and vertical 192 pixels) of the captured image, for example. As a result, the remaining part of the captured image is deleted ("deleted part" shown in the figure).

続いて、本実施例では、画像処理部230が、キャプチャ画像から切り出された画像データに対して、さらに減色処理を行うこととする。その場合、正規化部232の減色処理部232dが、たとえば、図9に示すように、切り出された画像データ(キャプチャ画像のタイトル部分)に対して減色処理を行う。具体的には、減色処理部232dは、たとえば、フルカラー(約1670万色)で取得されたキャプチャ画像を8色(black,blue,lime,cyan,red,magenta,yellow,white)に減色する処理を行う。   Subsequently, in this embodiment, the image processing unit 230 performs further color reduction processing on the image data cut out from the captured image. In this case, the color reduction processing unit 232d of the normalization unit 232 performs color reduction processing on the cut out image data (title portion of the captured image), for example, as illustrated in FIG. Specifically, the color reduction processing unit 232d, for example, performs processing to reduce the captured image acquired in full color (about 16.7 million colors) to 8 colors (black, blue, lime, cyan, red, magenta, yellow, white). I do.

なお、ここで減色処理を行う理由は、使用されている色の頻度(ヒストグラム)をフルカラーのままで得ようとすると往々にしてスパースな(まばらな)ヒストグラムになってしまうことから、その後の推定処理における計算の困難性を回避するためである。   Note that the reason for performing the color reduction processing here is that if the frequency (histogram) of the colors used is obtained in full color, a sparse histogram will often be obtained, and subsequent estimation is performed. This is to avoid the difficulty of calculation in the processing.

続いて、画像処理部230が、画像処理が施された画像データから利用色データを抽出する。本実施例1では、画像処理部230が、色彩に関するヒストグラムを画像データから抽出することとする。その場合、利用色抽出部233が、たとえば、8色のカラーパレットがどのように使われているかを示す色ごとの使用頻度(ヒストグラム)を画像データから取得する。以下に、この場合に取得されるヒストグラムの一例を以下の表に示す。

Figure 2009294925
Subsequently, the image processing unit 230 extracts the use color data from the image data that has been subjected to the image processing. In the first embodiment, the image processing unit 230 extracts a histogram relating to color from image data. In this case, the use color extraction unit 233 acquires, from the image data, a use frequency (histogram) for each color indicating how, for example, an eight color palette is used. An example of the histogram acquired in this case is shown in the following table.
Figure 2009294925

続いて、属性推定部250が、抽出されたヒストグラムを用いてブログサイトの著者の性別を推定する。ここで、あらかじめ属性推定データ作成装置100によって、教師データを利用して性別を得るためのモデル関数が生成されていたとする。このモデル関数は、たとえば、以下に示す式によって表される。
Prob.(male or female)
=f(black,blue,lime,cyan, red,magenta,yellow,white)+(補正項)
Subsequently, the attribute estimation unit 250 estimates the gender of the author of the blog site using the extracted histogram. Here, it is assumed that a model function for obtaining gender is generated by the attribute estimation data creation apparatus 100 in advance using teacher data. This model function is expressed by the following equation, for example.
Prob. (Male or female)
= F (black, blue, lime, cyan, red, magenta, yellow, white) + (correction term)

その場合、属性推定部250は、たとえば、画像処理部230によって得られたヒストグラムのデータを上記の式に入力することによって、性別(男性あるいは女性のどちらに近いか)を得る。   In that case, the attribute estimation unit 250 obtains the gender (which is closer to male or female), for example, by inputting the histogram data obtained by the image processing unit 230 into the above formula.

また、たとえば、属性推定データ作成装置100によって、ウェブページを閲覧した閲覧者が感じる印象を得るためのモデル関数が生成されていたとする。その場合には、属性推定部250は、画像データから抽出した利用色データ(色彩に関するヒストグラムなど)をそのモデル関数に入力することによって、たとえば、喜印象:60%,怒印象:0%,哀印象:0%,楽印象:40%などの印象属性を得ることができる。   In addition, for example, it is assumed that a model function for obtaining an impression felt by a viewer who browsed a web page has been generated by the attribute estimation data creation device 100. In that case, the attribute estimation unit 250 inputs the use color data (color histogram or the like) extracted from the image data to the model function, for example, happiness impression: 60%, anger impression: 0%, sorrow. Impression attributes such as impression: 0% and easy impression: 40% can be obtained.

なお、ここでは、画像処理部230が、キャプチャ画像からタイトル部分を切り出す場合について説明したが、たとえば、図10の左側に示すように、タイトルなど、長期的に変更されにくい静的部分(同図に示す「タイトル領域」)と、ブログの本文や画像など、日々更新される部分である動的部分(同図に示す「本文領域」)とにウェブページの領域を分割し、さらに、同図の右側に示すように、動的部分をn個の領域に分割して、いずれかの領域を切り出すようにしてもよい。   Here, the case where the image processing unit 230 cuts out the title portion from the captured image has been described. For example, as shown on the left side of FIG. The web page area is divided into a “title area” shown in FIG. 3) and a dynamic part (“text area” shown in FIG. 2) that is updated daily, such as a blog text or image. As shown on the right side, the dynamic part may be divided into n regions and any region may be cut out.

次に、実施例2として、質問紙的な利用方法に属性推定システムおよび属性推定方法を適用した場合について説明する。インターネットなどにおける質問紙や各種アカウント作成画面において、回答者や作成希望者の属性を入力させるページが存在する。それらの多くのページには、回答者の性別や年代などを入力させるものもあるが、回答者側からみると、そのような属性に関するデータを入力することに抵抗を感じる場合もある。また、企業などでは、個人情報保護法を鑑みて、利用者の属性を陽に収集することを避けている場合もある。   Next, as Example 2, a case where the attribute estimation system and the attribute estimation method are applied to a questionnaire-like usage method will be described. There are pages for inputting the attributes of respondents and applicants on the questionnaire and various account creation screens on the Internet. Many of these pages let you input the gender and age of the respondent, but from the perspective of the respondent, you may feel resistance to input data about such attributes. In addition, companies and the like may avoid collecting user attributes explicitly in view of the Personal Information Protection Law.

本発明に係る属性推定システムおよび属性推定方法を用いれば、陽に利用者の属性を入力させることなく、利用者の属性を陰に反映する項目(たとえば、色など)を利用者選択させることによって、利用者の属性を推定して収集することが可能である。   By using the attribute estimation system and attribute estimation method according to the present invention, it is possible to select an item (for example, color, etc.) that reflects the user's attribute in the shadow without allowing the user's attribute to be input explicitly. It is possible to estimate and collect user attributes.

この場合には、あらかじめ属性推定システムを用いて「質問項目+回答項目」と「属性」との対応関係を求めておき、その対応関係に基づいて、質問項目および回答項目を作成する。たとえば、「好きな色はなんですか?」という質問項目に対して回答項目が「青色」であった場合に、性別は「男性」であるという対応関係や、同じ質問項目に対して回答項目が「赤色」であった場合に、性別は「女性」であるという対応関係に基づいて、性別を得るための質問項目として「好きな色はなんですか?」を、回答項目として「青色」および「赤色」をそれぞれ作成する。   In this case, the correspondence between “question item + answer item” and “attribute” is obtained in advance using the attribute estimation system, and the question item and the answer item are created based on the correspondence. For example, if the answer item is “blue” for the question item “What is your favorite color?”, The response item is “male” for the gender and the answer item for the same question item If it is “red”, based on the correspondence that the gender is “female”, “What is your favorite color?” As a question item for obtaining gender, and “blue” and “ Create “red” respectively.

続いて、作成した質問項目および回答項目を含んだ質問紙のページを作成し、そのページを用いて利用者に回答させる。たとえば、利用者に、性別を得るための質問項目として「好きな色はなんですか?」に対する回答項目として、「青色」または「赤色」を選択させる。   Subsequently, a question paper page including the created question items and answer items is created, and the user is made to answer using the page. For example, the user is allowed to select “blue” or “red” as an answer item to “What is your favorite color?” As a question item for obtaining gender.

そして、得られた回答結果を再度属性推定システムに入力することによって、回答者の属性を得ることができる。これにより、たとえば、「青色」を入力した場合には、回答者の性別が「男性」であるという推定結果が得られ、「赤色」を入力した場合には、回答者の性別が「女性」であるという推定結果が得られる。   The attribute of the respondent can be obtained by inputting the obtained answer result again into the attribute estimation system. Thus, for example, if “blue” is entered, an estimate result that the respondent's gender is “male” is obtained, and if “red” is entered, the gender of the respondent is “female”. An estimation result is obtained.

次に、実施例3として、ウェブページ以外の一般画像から属性を推定する場合について説明する。これまでに説明した実施例では、インターネット上のウェブページ(たとえば、ブログ等のCGM)から属性を推定する場合について説明したが、ここでは、ウェブページではない一般画像から属性を推定する場合について説明する。   Next, as Example 3, a case where an attribute is estimated from a general image other than a web page will be described. In the embodiments described so far, the case of estimating an attribute from a web page on the Internet (for example, a CGM such as a blog) has been described, but here, the case of estimating an attribute from a general image that is not a web page is described. To do.

この場合には、あらかじめ属性推定データ作成装置100が、「属性抽出元となる一般画像」と「属性」との対応関係を学習しておく。続いて、属性推定装置200が、属性抽出元となる一般画像ファイルを入力し、入力した一般画像ファイルから抽出したい属性に対応する領域を切り出す。さらに、属性推定装置200は、切り出した一般画像ファイルに対して、必要に応じて減色処理などの画像処理を施したうえで、当該一般画像ファイルから利用色データを抽出する。その後、属性推定装置200は、抽出した利用色データから属性を推定して出力する。   In this case, the attribute estimation data creation apparatus 100 learns the correspondence between “general image as an attribute extraction source” and “attribute” in advance. Subsequently, the attribute estimation apparatus 200 inputs a general image file as an attribute extraction source, and cuts out an area corresponding to the attribute to be extracted from the input general image file. Furthermore, the attribute estimation apparatus 200 performs image processing such as color reduction processing on the cut out general image file as necessary, and then extracts use color data from the general image file. Thereafter, the attribute estimation apparatus 200 estimates the attribute from the extracted use color data and outputs it.

なお、本実施例3では、属性推定システムは一般画像から属性を推定するが、ここで行われる属性推定方法は、単純に色彩に基づいた情報から性別を推定するものであり、防犯カメラや店内カメラによって撮像された画像から人間の見た目の特徴(髪の長さや、目、鼻、口などのパーツの位置関係など)に基づいて性別を推定する従来の属性推定方法とは異なる。   In the third embodiment, the attribute estimation system estimates the attribute from the general image. However, the attribute estimation method performed here simply estimates the gender from the information based on the color. This is different from a conventional attribute estimation method that estimates gender based on human appearance characteristics (such as the length of hair or the positional relationship of parts such as eyes, nose, and mouth) from an image captured by a camera.

以上、説明したように、本実施の形態および実施例に係る属性推定システムおよび属性推定方法によれば、属性を見た目などの視覚的な情報から推定することにより、画像や動画などの非テキストによって表現されているブログ等のウェブページにおいても、当該ページの著者属性や印象属性を推定することができるようになる。   As described above, according to the attribute estimation system and attribute estimation method according to the present embodiment and examples, by estimating from the visual information such as the appearance of the attribute, non-text such as an image or a video Even in a web page such as a blog that is expressed, the author attribute and impression attribute of the page can be estimated.

従来のテキストマイニングの手法では、比較的精度よくブログ著者の性別属性を推定できるが、性別属性を推定するために必要な事前の学習時間が膨大であることや、テキスト(文章)以外の表現手法に適応できないこと、事前に学習した文章のスタイルから文章のスタイルが変化した場合の対応が困難であること、多言語化するためには言語体系ごとに辞書作成や学習が必要であることなどの問題があった。   The conventional text mining method can estimate the gender attribute of the blog author with relatively high accuracy, but the pre-learning time required to estimate the gender attribute is enormous, and expression methods other than text (sentence) Such as being unable to adapt to language, difficult to handle when the style of text changes from a previously learned text style, and creating a dictionary for each language system or learning to become multilingual There was a problem.

また、テキストマイニングの手法では、ブログページ中のテキストから性別属性を推定するが、新語や日本語以外の新規な言語に対応させるたびに、そのための知識獲得や辞書学習などを行う必要があるため、CGMのような変化の激しい分野においては再計算にかかるコストが膨大であった。さらには、テキスト以外の画像データなどで構成されるページでは機能しないという問題もあった。   In addition, the text mining method estimates gender attributes from the text in the blog page, but it is necessary to acquire knowledge and dictionary learning for each new language or new language other than Japanese. In the field of rapid change such as CGM, the cost for recalculation was enormous. Furthermore, there is a problem that it does not function on a page composed of image data other than text.

本実施の形態および実施例に係る属性推定システムおよび属性推定方法を用いることによって、属性を見た目などの視覚的な情報から推定することができるようになるので、上述したテキストマイニングの手法で生じていた問題を全て解消することが可能になる。   By using the attribute estimation system and attribute estimation method according to the present embodiment and examples, it is possible to estimate from visual information such as the appearance of the attribute, which is caused by the text mining technique described above. It becomes possible to solve all the problems.

以上のように、本発明に係る属性推定システムおよび属性推定方法は、画像データを含む情報の属性を推定する場合に有用であり、特に、インターネット上のブログ等のCGMの著者の属性などを推定する場合に適している。   As described above, the attribute estimation system and attribute estimation method according to the present invention are useful for estimating attributes of information including image data, and in particular, estimate attributes of CGM authors such as blogs on the Internet. Suitable for you.

本実施の形態に係る属性推定システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the attribute estimation system which concerns on this Embodiment. 図1に示した注目領域設定部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the attention area setting part shown in FIG. 図1に示した学習部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the learning part shown in FIG. 図1に示した画像処理部の構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a configuration of an image processing unit illustrated in FIG. 1. 図1に示した属性推定部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the attribute estimation part shown in FIG. 本実施の形態に係る属性推定システムによる属性推定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the attribute estimation by the attribute estimation system which concerns on this Embodiment. 本実施例1に係る属性推定システムを説明するための説明図(1)である。It is explanatory drawing (1) for demonstrating the attribute estimation system which concerns on the present Example 1. FIG. 本実施例1に係る属性推定システムを説明するための説明図(2)である。It is explanatory drawing (2) for demonstrating the attribute estimation system which concerns on the present Example 1. FIG. 本実施例1に係る属性推定システムを説明するための説明図(3)である。It is explanatory drawing (3) for demonstrating the attribute estimation system which concerns on the present Example 1. FIG. 本実施例1に係る属性推定システムを説明するための説明図(4)である。It is explanatory drawing (4) for demonstrating the attribute estimation system which concerns on the present Example 1. FIG.

符号の説明Explanation of symbols

100 属性推定データ作成装置
110 注目領域設定部
111 抽出属性決定部
112 領域設定部
113 領域設定保存部
120 学習部
121 読み取り部
122 学習処理部
122a 関数設定部
122b 教師データ入力部
122c 関数生成部
122d 関数パラメータ保存部
122e 評価部
200 属性推定装置
210 入力部
220 入力情報保存部
230 画像処理部
231 読み取り部
232 正規化部
232a フォーマット変換部
232b サイズ変換部
232c 解像度変換部
232d 減色処理部
232e クロップ処理部
233 利用色抽出部
234 動作設定部
240 特徴量データ保存部
250 属性推定部
251 読み取り部
252 推定処理部
252a 保存パラメータ呼び出し部
252b 関数処理部
253 結果処理部
260 属性保存部
270 属性出力部
100 attribute estimation data creation device 110 attention area setting section 111 extraction attribute determination section 112 area setting section 113 area setting storage section 120 learning section 121 reading section 122 learning processing section 122a function setting section 122b teacher data input section 122c function generation section 122d function Parameter storage unit 122e Evaluation unit 200 Attribute estimation device 210 Input unit 220 Input information storage unit 230 Image processing unit 231 Reading unit 232 Normalization unit 232a Format conversion unit 232b Size conversion unit 232c Resolution conversion unit 232d Color reduction processing unit 232e Crop processing unit 233 Use color extraction unit 234 Operation setting unit 240 Feature data storage unit 250 Attribute estimation unit 251 Reading unit 252 Estimation processing unit 252a Storage parameter calling unit 252b Function processing unit 253 Result processing unit 260 Attribute storage unit 27 0 attribute output section

Claims (10)

画像データを含む情報の属性を推定する属性推定システムであって、
画像データの視覚情報と当該画像データの属性との対応関係を学習する学習手段と、
属性推定の対象となる情報に含まれる画像データの視覚情報を入力する入力手段と、
前記学習手段により学習された対応関係に基づいて、前記入力手段により入力された視覚情報から属性推定の対象となる情報の属性を推定する属性推定手段と、
を備えたことを特徴とする属性推定システム。
An attribute estimation system for estimating attributes of information including image data,
Learning means for learning the correspondence between visual information of image data and attributes of the image data;
An input means for inputting visual information of image data included in information subject to attribute estimation;
Based on the correspondence learned by the learning means, attribute estimation means for estimating the attribute of information to be attributed from the visual information input by the input means;
An attribute estimation system characterized by comprising:
前記学習手段は、前記画像データに関する視覚情報を説明変数とし、当該画像データに含まれる属性を目的変数としたモデル関数を生成することによって、前記対応関係を学習し、
前記属性推定手段は、前記学習手段により生成されたモデル関数を用いて前記属性を推定することを特徴とする請求項1に記載の属性推定システム。
The learning means learns the correspondence relationship by generating a model function with visual information about the image data as an explanatory variable and an attribute included in the image data as an objective variable,
The attribute estimation system according to claim 1, wherein the attribute estimation unit estimates the attribute using a model function generated by the learning unit.
前記入力手段により入力された視覚情報に対して属性に応じた画像処理を施すことによって、当該視覚情報を正規化する画像処理手段をさらに備え、
前記属性推定手段は、前記画像処理手段により正規化された視覚情報から前記属性を推定することを特徴とする請求項1または2に記載の属性推定システム。
Image processing means for normalizing the visual information by performing image processing according to the attribute on the visual information input by the input means,
The attribute estimation system according to claim 1, wherein the attribute estimation unit estimates the attribute from visual information normalized by the image processing unit.
属性推定に用いられる視覚情報に対して属性に応じた領域を設定する注目領域設定手段をさらに備え、
前記学習手段は、前記注目領域設定手段により設定された領域の視覚情報と前記属性との対応関係を学習し、
前記画像処理手段は、前記注目領域設定手段により設定された領域の視覚情報に対して前記画像処理を施すことを特徴とする請求項3に記載の属性推定システム。
It further comprises attention area setting means for setting an area according to the attribute for visual information used for attribute estimation,
The learning means learns the correspondence between the visual information of the area set by the attention area setting means and the attribute,
The attribute estimation system according to claim 3, wherein the image processing unit performs the image processing on the visual information of the region set by the attention region setting unit.
前記画像処理手段は、正規化した視覚情報から色に関する特徴量を示す特徴量データを抽出し、
前記属性推定手段は、前記画像処理手段により抽出された特徴量データに基づいて、前記属性を推定することを特徴とする請求項2〜4のいずれか一つに記載の属性推定システム。
The image processing means extracts feature amount data indicating a feature amount related to color from the normalized visual information,
The attribute estimation system according to claim 2, wherein the attribute estimation unit estimates the attribute based on feature amount data extracted by the image processing unit.
前記属性推定手段により推定された属性を他の装置に対して出力する属性出力手段をさらに備えたことを特徴とする請求項1〜5のいずれか一つに記載の属性推定システム。   The attribute estimation system according to claim 1, further comprising attribute output means for outputting the attribute estimated by the attribute estimation means to another device. 前記属性推定手段により推定された属性を保存する属性保存手段をさらに備えたことを特徴とする請求項1〜6のいずれか一つに記載の属性推定システム。   The attribute estimation system according to any one of claims 1 to 6, further comprising attribute storage means for storing the attribute estimated by the attribute estimation means. 前記入力手段により入力された視覚情報を保存する入力情報保存手段をさらに備えたことを特徴とする請求項1〜7のいずれか一つに記載の属性推定システム。   The attribute estimation system according to claim 1, further comprising an input information storage unit that stores visual information input by the input unit. 前記画像処理手段により抽出された特徴量データを保存する特徴量データ保存手段をさらに備えたことを特徴とする請求項2〜8のいずれか一つに記載の属性推定システム。   The attribute estimation system according to claim 2, further comprising a feature amount data storage unit that stores the feature amount data extracted by the image processing unit. 画像データを含む情報の属性を推定する属性推定方法であって、
画像データの視覚情報と当該画像データの属性との対応関係を学習する学習工程と、
属性推定の対象となる情報に含まれる画像データの視覚情報を入力する入力工程と、
前記学習工程により学習された対応関係に基づいて、前記入力工程により入力された視覚情報から属性推定の対象となる情報の属性を推定する属性推定工程と、
を含んだことを特徴とする属性推定方法。
An attribute estimation method for estimating attributes of information including image data,
A learning step of learning a correspondence relationship between visual information of image data and attributes of the image data;
An input process for inputting visual information of image data included in information to be attribute-estimated;
Based on the correspondence learned by the learning step, an attribute estimation step for estimating an attribute of information to be attribute estimation from the visual information input by the input step;
Attribute estimation method characterized by including.
JP2008148265A 2008-06-05 2008-06-05 Attribute estimation system and attribute estimation method Pending JP2009294925A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008148265A JP2009294925A (en) 2008-06-05 2008-06-05 Attribute estimation system and attribute estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008148265A JP2009294925A (en) 2008-06-05 2008-06-05 Attribute estimation system and attribute estimation method

Publications (1)

Publication Number Publication Date
JP2009294925A true JP2009294925A (en) 2009-12-17

Family

ID=41543058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008148265A Pending JP2009294925A (en) 2008-06-05 2008-06-05 Attribute estimation system and attribute estimation method

Country Status (1)

Country Link
JP (1) JP2009294925A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5818050B1 (en) * 2015-01-28 2015-11-18 ビックリック株式会社 Status judgment system
JP2015212914A (en) * 2014-05-07 2015-11-26 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method for extracting color scheme of page written in markup language, electronic device for extracting color scheme, and program for electronic device
JP2018205978A (en) * 2017-06-01 2018-12-27 株式会社オブジェクト・オブ・ヌル Information extracting device and information extracting method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7012001982; YAN Xiang: 'Gender Classification of Weblog Authors' AAAI Spring Symposium Series Computational Approaches to Analyzing Weblogs , 200603, pp.228-230 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212914A (en) * 2014-05-07 2015-11-26 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method for extracting color scheme of page written in markup language, electronic device for extracting color scheme, and program for electronic device
US9639624B2 (en) 2014-05-07 2017-05-02 International Business Machines Corporation Extracting color schemes of pages written in a markup language
US10319112B2 (en) 2014-05-07 2019-06-11 International Business Machines Corporation Extracting color schemes of pages written in a markup language
US10600212B2 (en) 2014-05-07 2020-03-24 International Business Machines Corporation Extracting color schemes of pages written in a markup language
JP5818050B1 (en) * 2015-01-28 2015-11-18 ビックリック株式会社 Status judgment system
WO2016121288A1 (en) * 2015-01-28 2016-08-04 ビックリック株式会社 Status determination system
US9934593B2 (en) 2015-01-28 2018-04-03 Biclick Co., Ltd. Status determination system
JP2018205978A (en) * 2017-06-01 2018-12-27 株式会社オブジェクト・オブ・ヌル Information extracting device and information extracting method
JP7040745B2 (en) 2017-06-01 2022-03-23 株式会社オブジェクト・オブ・ヌル Information extraction device and information extraction method

Similar Documents

Publication Publication Date Title
US9411827B1 (en) Providing images of named resources in response to a search query
JP6543986B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
US20180268307A1 (en) Analysis device, analysis method, and computer readable storage medium
TWI552005B (en) Information processing devices, information processing methods and information processing products
US20140198127A1 (en) Overlaying Text In Images For Display To A User Of A Digital Magazine
JP6061729B2 (en) Product information providing system and product information providing program
US9449215B2 (en) Information processing apparatus, information processing method and information processing program
US11967177B2 (en) Method for managing item recommendation using degree of association between language unit and usage history
US20210019374A1 (en) Natural language text conversion and method therefor
CN107222795A (en) A kind of video abstraction generating method of multiple features fusion
US11361759B2 (en) Methods and systems for automatic generation and convergence of keywords and/or keyphrases from a media
US11651039B1 (en) System, method, and user interface for a search engine based on multi-document summarization
CN112133406B (en) Multi-mode emotion guidance method and system based on emotion maps and storage medium
JP6419969B2 (en) Method and apparatus for providing image presentation information
CN110096589A (en) A kind of examination question feedback and recommendation explanation method and system based on image recognition technology
Sirisha et al. Semantic interdisciplinary evaluation of image captioning models
JP2009294925A (en) Attribute estimation system and attribute estimation method
CN112115707A (en) Emotion dictionary construction method for bullet screen emotion analysis and based on expressions and tone
JP2020047013A (en) Information display program, information display method, information display device, and information processing system
KR20200125507A (en) Method for recommending item using degree of association between unit of language and using breakdown
JP2020009453A (en) Information processing device and program
US11768879B2 (en) Advice presentation system
CN112765447B (en) Data searching method and device and electronic equipment
JP2019023856A (en) Method and device for supplying information by using degree of association between reserved and attribute words
Liu et al. Mobile photo recommendation system of continuous shots based on aesthetic ranking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100723

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110520

A977 Report on retrieval

Effective date: 20111125

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121023