JP2007310454A - Image evaluation device, subject concentration ratio calculation device, image evaluation program, and subject concentration ratio calculation program - Google Patents

Image evaluation device, subject concentration ratio calculation device, image evaluation program, and subject concentration ratio calculation program Download PDF

Info

Publication number
JP2007310454A
JP2007310454A JP2006136301A JP2006136301A JP2007310454A JP 2007310454 A JP2007310454 A JP 2007310454A JP 2006136301 A JP2006136301 A JP 2006136301A JP 2006136301 A JP2006136301 A JP 2006136301A JP 2007310454 A JP2007310454 A JP 2007310454A
Authority
JP
Japan
Prior art keywords
image
line
probability density
density function
arbitrary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006136301A
Other languages
Japanese (ja)
Inventor
Yasuhito Sawahata
康仁 澤畠
Kazuaki Komine
一晃 小峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2006136301A priority Critical patent/JP2007310454A/en
Publication of JP2007310454A publication Critical patent/JP2007310454A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image evaluation device and its program for evaluating content based on a line of sight without preliminarily segmenting the content, and a subject concentration ratio calculation device and its program for accurately evaluating the change of interest without disturbing the concentration of a viewer. <P>SOLUTION: Based on line of sight data obtained by measuring the coordinates on an image of a target point of each of a plurality of viewers who has viewed a displayed moving image, an image evaluation device 1 calculates the probability density functions of the target point for each of the arbitrary regions of each of images included in the moving image, and calculates the entropy of each image as a reference for evaluating the moving image from the probability density functions across the whole region of each image. This image evaluation device 1 is provided with a line of sight data acquiring means 3, a hierarchical clustering means 7, a cluster quantity evaluating means 9, a probability density function calculating means 11 and an entropy calculating means 13. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、観視者が動画像を注視した注視点によって当該動画像の客観的な評価を行う画像評価装置および画像評価プログラム、並びに、被験者が動画像を注視した注視点によって当該動画像を集中して観ているか否かを評価する被験者集中度算出装置および被験者集中度算出プログラムに関する。   The present invention relates to an image evaluation apparatus and an image evaluation program for objectively evaluating a moving image based on a gazing point at which a viewer gazes at the moving image, and a moving image obtained by observing the moving image. The present invention relates to a subject concentration calculation device and a subject concentration calculation program for evaluating whether or not the user is watching in a concentrated manner.

従来、コンテンツを観ている観視者の視線に基づき、当該コンテンツの評価を行う評価方法では、評価対象となるコンテンツの任意の画像領域内における当該視線の停留率、停留回数、移動軌跡の形状等から、当該画像領域内のレイアウトや色等が観視者の注意を引いているか否かを評価していた。   Conventionally, in the evaluation method for evaluating the content based on the line of sight of the viewer who is watching the content, the rate of stop of the line of sight, the number of stops, and the shape of the movement locus in an arbitrary image area of the content to be evaluated From the above, it was evaluated whether the layout, color, etc. in the image area attracted the attention of the viewer.

また、コンテンツの評価を行う評価方法(例えば、特許文献1参照)として、コンテンツを観ている観視者がどれだけ集中しているか否かに基づいて行うものがあり、集中しているか否かを判定するために、観視後に、当該コンテンツに関する印象等についてアンケート調査を行って、このアンケート調査した結果に統計的な処理を施して評価値を算出することが一般的に行われていた。
特開2005−142975号公報
In addition, as an evaluation method for evaluating content (for example, see Patent Document 1), there is a method based on whether or not the viewer watching the content is concentrated. In general, after viewing, a questionnaire survey is performed on impressions related to the content, and an evaluation value is calculated by performing statistical processing on the result of the questionnaire survey.
JP 2005-142975 A

しかしながら、従来、コンテンツを観ている観視者の視線による評価方法では、評価前に予め画像内の各領域について、「意味のある領域に分割しておく」(セグメンテーションする)必要があった。例えば、テレビ番組のように当該番組を構成している各画像が時間的に大きく変化するような場合、この変化にあわせてフレームごとに最適なセグメンテーションを行う必要がある。   However, conventionally, in the evaluation method based on the line of sight of the viewer who is watching the content, each area in the image has to be “divided into meaningful areas” (segmentation) in advance before the evaluation. For example, when each image constituting the program changes greatly in time like a television program, it is necessary to perform optimum segmentation for each frame in accordance with this change.

この最適なセグメンテーションを行うためには、評価者(評価方法を複数の観視者に実践させて評価する者)が異なる認識精度(または認識感覚)を有している複数の観視者と、同じ認識精度を有する必要、つまり、異なる認識精度を何らかの方法で均一化した認識精度を有する必要があり、この均一化した認識精度を得るためにオブジェクト認識技術を用いる必要があるが、このようなイメージング技術は未だ十分には確立されていない。   In order to perform this optimal segmentation, a plurality of viewers who have different recognition accuracy (or recognition sensation) are evaluated by an evaluator (a person who evaluates a plurality of viewers by practicing the evaluation method) It is necessary to have the same recognition accuracy, that is, it is necessary to have different recognition accuracy made uniform in some way, and it is necessary to use object recognition technology to obtain this uniform recognition accuracy. Imaging technology is not yet well established.

また、このコンテンツを観ている観視者の視線による評価方法では、各観視者の視線を測定した測定データから個人差等のノイズ成分を除去するため、多くの観視者の測定データを用いて加算平均をとるなどしていたが、当該加算平均をとることは、複数の観視者の視線から当該コンテンツを評価することを目的とした場合、不適切な場合がある。   In addition, in the evaluation method based on the gaze of the viewer who is watching this content, in order to remove noise components such as individual differences from the measurement data obtained by measuring the gaze of each viewer, the measurement data of many viewers is used. However, it is sometimes inappropriate to take the average for the purpose of evaluating the content from the eyes of a plurality of viewers.

この不適切な場合とは、例えば、視線の集中する対象である注視対象が1つの画像内に2カ所以上存在している場合、各観視者の視線が画像上に注がれる点である注視点は当該注視対象の周りにそれぞれ分布することとなり、加算平均をとると2カ所以上の注視対象が存在していたという情報が無くなってしまう場合である。すなわち、当該評価方法において、加算平均をとって適切な場合とは、測定データから導き出せる事象が“1カ所の注視対象とこの注視対象からのズレ(誤差)”ということに限定されることになり、このような事象が成立する場合でなければ、複数の観視者の視線によってコンテンツを評価することは適切ではないことになる。   This inappropriate case is, for example, a point where the line of sight of each viewer is poured onto the image when there are two or more gaze targets in one image. The gaze points are distributed around the gaze target, and when the average is taken, there is no information that there are two or more gaze targets. In other words, in the evaluation method, the case where it is appropriate to take an arithmetic mean is limited to the fact that the event that can be derived from the measurement data is “one gaze target and a deviation (error) from this gaze target”. Unless such an event is established, it is not appropriate to evaluate the content based on the line of sight of a plurality of viewers.

さらに、従来のコンテンツの評価を行う評価方法として、アンケート調査を行う場合、一般的に、該当するコンテンツを観視した後に実施するため、当該コンテンツ全体の主観的な印象を評価することは可能であるが、例えば、当該コンテンツ中の特定のシーンやカットについて個別に評価を行うことやこれらを観視した時の興味の変化について評価を行うことは記憶の忘却等により困難である。   Furthermore, as a conventional evaluation method for evaluating content, when conducting a questionnaire survey, since it is generally performed after viewing the corresponding content, it is possible to evaluate the subjective impression of the content as a whole. However, for example, it is difficult to individually evaluate specific scenes and cuts in the content or to evaluate changes in interest when viewing these scenes due to forgetting of memory or the like.

なお、観視中の興味の変化をリアルタイムに観視者に主観評価させる方法もあるが、主観評価それ自体が観視者の集中の妨げとなり、正確に興味の変化について評価することは困難である。   Although there is a method that allows the viewer to subjectively evaluate changes in interest during viewing, it is difficult to accurately evaluate changes in interest because subjective assessment itself hinders the concentration of the viewer. is there.

そこで、本発明では、前記した問題を解決し、予めコンテンツのセグメンテーションを行うことなく、当該コンテンツを視線によって評価することができる画像評価装置および画像評価プログラム、並びに、コンテンツを観視する観視者の集中の妨げとなることなく、正確に興味の変化について評価することができる被験者集中度算出装置および被験者集中度算出プログラムを提供することを目的とする。   Therefore, in the present invention, an image evaluation apparatus and an image evaluation program that can solve the above-described problems and can evaluate the content by line of sight without performing content segmentation in advance, and a viewer who views the content It is an object of the present invention to provide a subject concentration calculation device and a subject concentration calculation program that can accurately evaluate changes in interest without hindering the concentration of subjects.

前記課題を解決するため、請求項1に記載の画像評価装置は、表示された動画像を観た複数の観視者について、当該観視者の注視点の画像上の座標をそれぞれ測定してデータ化した視線データに基づいて、当該動画像に含まれる各画像の任意領域それぞれについて、前記注視点の確率密度関数を求め、各画像の全領域に亘る前記確率密度関数から、前記動画像を評価する基準となる各画像のエントロピーを計算する画像評価装置であって、視線データ取得手段と、階層クラスタリング手段と、クラスタ数評価手段と、確率密度関数計算手段と、エントロピー計算手段と、を備える構成とした。   In order to solve the above problem, the image evaluation apparatus according to claim 1, for each of a plurality of viewers who viewed the displayed moving image, measures the coordinates on the image of the viewer's point of gaze. Based on the line-of-sight data converted into data, the probability density function of the gazing point is obtained for each arbitrary region of each image included in the moving image, and the moving image is obtained from the probability density function over the entire region of each image. An image evaluation apparatus that calculates entropy of each image that is a reference for evaluation, and includes line-of-sight data acquisition means, hierarchical clustering means, cluster number evaluation means, probability density function calculation means, and entropy calculation means The configuration.

かかる構成によれば、画像評価装置は、視線データ取得手段によって、動画像に付されたタイムコードと、注視点の画像上の座標とが同期した視線データを、観視者の人数分取得する。続いて、画像評価装置は、階層クラスタリング手段によって、視線データ取得手段で取得された視線データの示す注視点が任意個数含まれるように、各画像の全領域を任意領域それぞれにクラスタリングし、当該任意領域と、当該注視点の任意個数および座標とを対応付けた階層化データを出力する。   According to such a configuration, the image evaluation device acquires line-of-sight data in which the time code attached to the moving image and the coordinates on the image of the gazing point are synchronized by the line-of-sight data acquisition unit for the number of viewers. . Subsequently, the image evaluation apparatus clusters all regions of each image into each arbitrary region so that an arbitrary number of gazing points indicated by the line-of-sight data acquired by the line-of-sight data acquisition unit are included by the hierarchical clustering unit, Hierarchical data in which an area is associated with an arbitrary number and coordinates of the gaze point is output.

そして、画像評価装置は、クラスタ数評価手段によって、階層クラスタリング手段でクラスタリングされた任意領域の個数に対して、当該任意領域内に存在する注視点の任意個数が予め設定した設定数を満たすための最適クラスタ数を出力する。そして、画像評価装置は、確率密度関数計算手段によって、階層クラスタリング手段で出力された階層化データと、クラスタ数評価手段で出力された最適クラスタ数とに基づいて、確率密度関数を計算する。その後、画像評価装置は、エントロピー計算手段によって、確率密度関数計算手段で計算された確率密度関数に基づいて、各画像の前記エントロピーを計算する。   Then, the image evaluation apparatus is configured so that, for the number of arbitrary regions clustered by the hierarchical clustering unit by the cluster number evaluation unit, the arbitrary number of gazing points existing in the arbitrary region satisfies a preset number. Output the optimal number of clusters. Then, the image evaluation apparatus calculates a probability density function by the probability density function calculation means based on the hierarchized data output by the hierarchical clustering means and the optimum cluster number output by the cluster number evaluation means. Thereafter, the image evaluation device calculates the entropy of each image based on the probability density function calculated by the probability density function calculating unit by the entropy calculating unit.

請求項2に記載の画像評価装置は、請求項1に記載の画像評価装置において、作画手段を備えることを特徴とする。
かかる構成によれば、画像評価装置は、作画手段によって、確率密度関数計算手段で計算された確率密度関数を、各画像に対応させた等高線図として作画する。
An image evaluation apparatus according to a second aspect is the image evaluation apparatus according to the first aspect, further comprising a drawing unit.
According to such a configuration, the image evaluation apparatus draws the probability density function calculated by the probability density function calculating means as a contour map corresponding to each image by the drawing means.

請求項3に記載の被験者集中度算出装置は、表示された動画像を観た複数の観視者について、当該観視者の注視点の画像上の座標をそれぞれ測定してデータ化した視線データに基づいて、当該動画像に含まれる各画像の任意領域それぞれについて、前記注視点の確率密度関数を求めた動画像を、被験者に観視させ、当該被験者が当該動画像を集中して観視している度合いを数値化した集中度を算出する被験者集中度算出装置であって、視線データ取得手段と、集中度算出手段と、を備える構成とした。   The subject concentration calculation device according to claim 3, wherein, for a plurality of viewers who viewed the displayed moving image, the gaze data obtained by measuring the coordinates on the image of the gaze point of the viewer and converting it into data Based on the above, for each arbitrary region of each image included in the moving image, the subject is allowed to view the moving image for which the probability density function of the gazing point is obtained, and the subject concentrates on the moving image for viewing. This is a subject concentration calculation device for calculating a concentration level obtained by quantifying the degree of the image, and includes a line-of-sight data acquisition unit and a concentration level calculation unit.

かかる構成によれば、被験者集中度算出装置は、視線データ取得手段によって、動画像に付されたタイムコードと、注視点の画像上の座標とが同期した被験者の視線データを取得する。そして、被験者集中度算出装置は、集中度算出手段によって、視線データ取得手段で取得された被験者の視線データの示す注視点の座標を、確率密度関数に代入することで得られた確率を、集中度として算出する。   According to such a configuration, the subject concentration degree calculating device acquires gaze data of the subject in which the time code attached to the moving image and the coordinates on the image of the point of sight are synchronized by the gaze data acquisition unit. Then, the subject concentration degree calculating device concentrates the probability obtained by substituting the coordinates of the gazing point indicated by the eye gaze data of the subject acquired by the eye gaze data acquiring means into the probability density function by the concentration degree calculating means. Calculate as degrees.

請求項4に記載の画像評価プログラムは、表示された動画像を観た複数の観視者について、当該観視者の注視点の画像上の座標をそれぞれ測定してデータ化した視線データに基づいて、当該動画像に含まれる各画像の任意領域それぞれについて、前記注視点の確率密度関数を求め、各画像の全領域に亘る前記確率密度関数から、前記動画像を評価する基準となる各画像のエントロピーを計算するために、コンピュータを、視線データ取得手段、階層クラスタリング手段、クラスタ数評価手段、確率密度関数計算手段、エントロピー計算手段、として機能させる構成とした。   The image evaluation program according to claim 4 is based on line-of-sight data obtained by measuring and measuring coordinates on an image of a gaze point of the viewer for a plurality of viewers who viewed the displayed moving image. Then, for each arbitrary region of each image included in the moving image, the probability density function of the gazing point is obtained, and each image serving as a reference for evaluating the moving image from the probability density function over the entire region of each image In order to calculate the entropy, the computer is configured to function as line-of-sight data acquisition means, hierarchical clustering means, cluster number evaluation means, probability density function calculation means, and entropy calculation means.

かかる構成によれば、画像評価プログラムは、視線データ取得手段によって、動画像に付されたタイムコードと、注視点の画像上の座標とが同期した視線データを、観視者の人数分取得し、階層クラスタリング手段によって、視線データ取得手段で取得された視線データの示す注視点が任意個数含まれるように、各画像の全領域を任意領域それぞれにクラスタリングし、当該任意領域と、当該注視点の任意個数および座標とを対応付けた階層化データを出力する。   According to such a configuration, the image evaluation program acquires, by the line-of-sight data acquisition means, line-of-sight data in which the time code attached to the moving image and the coordinates on the image of the gazing point are synchronized for the number of viewers. The clustering unit clusters all regions of each image into arbitrary regions so that an arbitrary number of gazing points indicated by the line-of-sight data acquired by the line-of-sight data acquisition unit is included. Hierarchical data in which an arbitrary number and coordinates are associated is output.

そして、画像評価プログラムは、クラスタ数評価手段によって、階層クラスタリング手段でクラスタリングされた任意領域の個数に対して、当該任意領域内に存在する注視点の任意個数が予め設定した設定数を満たすための最適クラスタ数を出力し、確率密度関数計算手段によって、階層クラスタリング手段で出力された階層化データと、クラスタ数評価手段で出力された最適クラスタ数とに基づいて、確率密度関数を計算する。その後、画像評価プログラムは、エントロピー計算手段によって、確率密度関数計算手段で計算された確率密度関数に基づいて、各画像の前記エントロピーを計算する。   Then, the image evaluation program is configured so that the arbitrary number of gazing points existing in the arbitrary area satisfies a preset number for the number of arbitrary areas clustered by the hierarchical clustering means by the cluster number evaluating means. The optimal cluster number is output, and the probability density function calculating unit calculates the probability density function based on the hierarchical data output by the hierarchical clustering unit and the optimal cluster number output by the cluster number evaluating unit. Thereafter, the image evaluation program calculates the entropy of each image based on the probability density function calculated by the probability density function calculating unit by the entropy calculating unit.

請求項5に記載の被験者集中度算出プログラムは、表示された動画像を観た複数の観視者について、当該観視者の注視点の画像上の座標をそれぞれ測定してデータ化した視線データに基づいて、当該動画像に含まれる各画像の任意領域それぞれについて、前記注視点の確率密度関数を求めた動画像を、被験者に観視させ、当該被験者が当該動画像を集中して観視している度合いを数値化した集中度を算出するために、コンピュータを、視線データ取得手段、集中度算出手段、として機能させる構成とした。   The subject concentration calculation program according to claim 5, for a plurality of viewers who have viewed the displayed moving image, measures the coordinates on the image of the gazing point of the viewer, respectively, and converts it into data. Based on the above, for each arbitrary region of each image included in the moving image, the subject is allowed to view the moving image for which the probability density function of the gazing point is obtained, and the subject concentrates on the moving image for viewing. In order to calculate the degree of concentration obtained by quantifying the degree of being performed, the computer is configured to function as line-of-sight data acquisition means and concentration degree calculation means.

かかる構成によれば、被験者集中度算出プログラムは、視線データ取得手段によって、動画像に付されたタイムコードと、注視点の画像上の座標とが同期した被験者の視線データを取得し、集中度算出手段によって、視線データ取得手段で取得された被験者の視線データの示す注視点の座標を、確率密度関数に代入することで得られた確率を、集中度として算出する。   According to such a configuration, the subject concentration calculation program acquires the gaze data of the subject in which the time code attached to the moving image and the coordinates on the image of the gazing point are synchronized by the gaze data acquisition unit, and the concentration degree The calculation means calculates a probability obtained by substituting the coordinates of the gazing point indicated by the gaze data of the subject acquired by the gaze data acquisition means into the probability density function as the degree of concentration.

請求項1または請求項4に記載の発明によれば、視線データの示す注視点がコンテンツの画像上のどの位置に、どれだけ集まっているのかを確率として表している確率密度関数に基づいてエントロピーを計算しているので、このエントロピーに従って、当該コンテンツに含まれている画像を評価する基準とすることができ、予めコンテンツのセグメンテーションを行うことなく、当該コンテンツを視線データによって評価することができる。   According to the first or fourth aspect of the present invention, the entropy is based on a probability density function that expresses, as a probability, at which position on the content image the gaze point indicated by the line-of-sight data is gathered. Therefore, according to this entropy, it can be used as a reference for evaluating an image included in the content, and the content can be evaluated based on the line-of-sight data without segmenting the content in advance.

請求項2に記載の発明によれば、計算された確率密度関数を、各画像に対応させた等高線図として作画することで、画像上のどこに注視点が集中したのかを目視で確認することができる。   According to the second aspect of the present invention, by drawing the calculated probability density function as a contour map corresponding to each image, it is possible to visually confirm where the gazing points are concentrated on the image. it can.

請求項3または請求項5に記載の発明によれば、コンテンツに含まれている画像のどこを被験者が注視しているのかによって、当該被験者が集中して当該コンテンツを視認しているか否かが判定でき、正確に興味の変化について評価することができる。   According to the invention described in claim 3 or claim 5, whether or not the subject is concentrating and viewing the content depending on where the subject is gazing at the image included in the content. It is possible to judge and accurately evaluate changes in interest.

次に、本発明の実施形態について、適宜、図面を参照しながら詳細に説明する。
(画像評価装置の構成)
図1は、画像評価装置のブロック図である。図1に示すように画像評価装置1は、コンテンツを観視した複数の観視者の視線によって当該コンテンツを評価するもので、視線データ取得手段3と、視線データ蓄積手段5と、階層クラスタリング手段7と、クラスタ数評価手段9と、確率密度関数計算手段11と、エントロピー計算手段13と、作画手段15とを備えている。
Next, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
(Configuration of image evaluation device)
FIG. 1 is a block diagram of an image evaluation apparatus. As shown in FIG. 1, the image evaluation apparatus 1 evaluates the content based on the line of sight of a plurality of viewers viewing the content. The image evaluation apparatus 1 includes a line-of-sight data acquisition unit 3, a line-of-sight data storage unit 5, and a hierarchical clustering unit. 7, cluster number evaluation means 9, probability density function calculation means 11, entropy calculation means 13, and drawing means 15.

視線データ取得手段3は、コンテンツを観ている観視者が注視している当該コンテンツに含まれている画像上の座標(1フレームごとの座標)と、当該コンテンツに付されているタイムコードとが同期した視線データを、観視者数分取得するものである。この実施形態では、観視者の人数は20名から30名程度としている。また、画像上の座標は、コンテンツを観ている観視者の注視点を示すものであり、当該観視者の両眼部分を撮影する視線測定器(図示せず)によって求めたものを用いている。   The line-of-sight data acquisition means 3 includes coordinates on the image (coordinates for each frame) included in the content being watched by the viewer watching the content, and a time code attached to the content. Are obtained for the number of viewers. In this embodiment, the number of viewers is about 20 to 30. In addition, the coordinates on the image indicate the gaze point of the viewer who is watching the content, and are obtained by a line-of-sight measuring device (not shown) that captures the binocular portion of the viewer. ing.

なお、この視線測定器は従来のものでよく、例えば、視線測定器は、コンテンツを表示させる表示装置(図示せず)から所定距離離れた座席に着席した観視者の両眼部分を撮影する、位置を固定した撮影カメラ(図示せず)と、注視点を計算する計算手段(図示せず)とから構成されている。   Note that this line-of-sight measuring device may be a conventional one. For example, the line-of-sight measuring device captures both eyes of a viewer seated in a seat a predetermined distance away from a display device (not shown) that displays content. The camera is composed of a photographing camera (not shown) having a fixed position and a calculation means (not shown) for calculating a gazing point.

計算手段(図示せず)は、撮影カメラ(図示せず)で撮影した両眼部分により、コンテンツを観ている観視者の瞳孔の中心位置を求め、この中心位置と表示装置(図示せず)の表示面とを結ぶ視線から、注視点を求めるものである。   The calculation means (not shown) obtains the center position of the pupil of the viewer watching the content from the binocular portion photographed by the photographing camera (not shown), and this center position and a display device (not shown). ) Is determined from the line of sight connecting the display surface.

ここで、視線データの例を図2に示す。この図2は複数の観視者(sbj1〜sbjN)の視線データを示したものである。この図2に示したように、観視者sbj1は、タイムコード(TimeCode)10:00:00.00では画像上の座標(121,254)を、タイムコード(TimeCode)10:00:00.01では画像上の座標(243,234)を注視していることが読みとれる。図1に戻る。   Here, an example of the line-of-sight data is shown in FIG. FIG. 2 shows line-of-sight data of a plurality of viewers (sbj1 to sbjN). As shown in FIG. 2, the viewer sbj1 uses the time code (TimeCode) 10: 00: 00.00 to change the coordinates (121,254) on the image to the time code (TimeCode) 10: 00: 00: 00. In 01, it can be read that the user is watching the coordinates (243, 234) on the image. Returning to FIG.

視線データ蓄積手段5は、視線データ取得手段3で取得された複数の観視者の視線データを蓄積するもので、一般的なメモリ、ハードディスク等によって構成されている。この視線データ蓄積手段5に蓄積されている視線データは、当該装置1の操作者による操作に従って、階層クラスタリング手段7に出力される。   The line-of-sight data storage unit 5 stores the line-of-sight data of a plurality of viewers acquired by the line-of-sight data acquisition unit 3, and is configured by a general memory, a hard disk, and the like. The line-of-sight data stored in the line-of-sight data storage unit 5 is output to the hierarchical clustering unit 7 in accordance with an operation by the operator of the apparatus 1.

階層クラスタリング手段7は、視線データの示す注視点が任意個数含まれるように、各画像(それぞれのフレーム)の全領域を任意領域(クラスタ)それぞれにクラスタリングし、当該任意領域と、注視点の任意個数および座標とを対応付けた階層化データを出力するものである。   The hierarchical clustering means 7 clusters all regions of each image (each frame) into arbitrary regions (clusters) so that an arbitrary number of gazing points indicated by the line-of-sight data are included, and the arbitrary regions and arbitrary gazing points The hierarchized data in which the number and coordinates are associated is output.

この階層クラスタリング手段7による注視点のクラスタリング手法は、仮想のモデルに基づいた階層的クラスタリング法を用いている。仮想のモデルは、「複数の注視点は、ある注視点の存在する位置を中心に分布する」という仮定に基づいたものであり、ある注視点を中心とする同一半径の円形を任意領域とする。この円形の中心となる注視点をどれにするのかおよび円形の半径の長さをどのようにとるかによって、当該円形の位置および当該円形内に収まる注視点の個数が決定されることになる。   The gaze point clustering method by the hierarchical clustering means 7 uses a hierarchical clustering method based on a virtual model. The virtual model is based on the assumption that "a plurality of gazing points are distributed around the position where a certain gazing point exists", and a circle with the same radius centered on a certain gazing point is an arbitrary region. . The position of the circle and the number of points of interest that fall within the circle are determined depending on which point of interest is the center of the circle and how the radius of the circle is taken.

ここで、階層化データの例を図3に示す。この図3はクラスタリングするクラスタの個数と画像上の座標との関連を示したものである。この図3に示したように、例えば、クラスタ数1の場合、1つの画像上のすべての注視点が1つのクラスタに収まることとなり、クラスタ数4の場合、1つの画像上の注視点が4つのクラスタに収まることとなる。図1に戻る。   Here, an example of the hierarchical data is shown in FIG. FIG. 3 shows the relationship between the number of clusters to be clustered and the coordinates on the image. As shown in FIG. 3, for example, when the number of clusters is 1, all the gazing points on one image fit in one cluster. When the number of clusters is 4, the gazing point on one image is 4 Will fit in one cluster. Returning to FIG.

クラスタ数評価手段9は、階層クラスタリング手段7でクラスタリングされたクラスタの個数(クラスタ数)が最適となる最適クラスタ数を計算して、確率密度関数計算手段11に出力するものである。この最適クラスタ数は、BIC(Bayesian Information Criterion)値を計算し、このBIC値が最大値(予め設定した設定数)を示すようなクラスタ数である。   The cluster number evaluation means 9 calculates the optimum number of clusters for which the number of clusters clustered by the hierarchical clustering means 7 (the number of clusters) is optimal, and outputs the result to the probability density function calculation means 11. This optimal number of clusters is such a number of clusters that a BIC (Baysian Information Criterion) value is calculated and this BIC value shows a maximum value (a preset number of settings).

このBIC値の計算について説明する。まず、注視点データの分布が次に示す一般的な二次元混合正規分布式に従うとする。   The calculation of this BIC value will be described. First, it is assumed that the distribution of gazing point data follows the following general two-dimensional mixed normal distribution formula.

Figure 2007310454
Figure 2007310454

この数式(1)において、(x,y)は視線データの画像上の注視点、cはクラスタ数、a,ρ,μxi,μyi,σxi,σyiはパラメータΘであり、N人分の視線データ(x,・・・,x,y,・・・,y)があるとする。 In this equation (1), (x, y) is a gaze point on the line-of-sight data image, c is the number of clusters, a i , ρ i , μ xi , μ yi , σ xi , and σ yi are parameters Θ i . , It is assumed that there is line-of-sight data (x 1 ,..., X N , y 1 ,..., Y N ) for N persons.

そして、p(x,y)が視線データにとって、次の数式(2)に示す対数尤度L(Θ)が最大になるように、パラメータΘを決定する。 Then, the parameter Θ i is determined so that the log likelihood L (Θ) shown in the following equation (2) becomes the maximum for the line-of-sight data of p (x, y).

Figure 2007310454
Figure 2007310454

つまり、数式(2)において、L(Θ)が最大となるようにΘを決定する。実際の決定方法は、EMアルゴリズムを用いる。求めたパラメータをΘ(最尤推定値)とする。
このときのBIC値は、BIC=−2logL(Θ)+(6C−1)logNとなる。なお、この式において、(6C−1)は自由パラメータ数(階層クラスタリング手段7におけるクラスタリングした際のモデルの自由度)である。
That is, in Equation (2), Θ is determined so that L (Θ) is maximized. The actual determination method uses the EM algorithm. Let the obtained parameter be Θ * (maximum likelihood estimate).
The BIC value at this time is BIC = −2 logL (Θ * ) + (6C−1) logN. In this equation, (6C-1) is the number of free parameters (the degree of freedom of the model when clustering is performed in the hierarchical clustering means 7).

なお、階層クラスタリング手段7において、クラスタリングした際の仮想のモデルを円形・同一半径とした場合は、任意のiについて{ρ=0,σxi=σxj,σzi=σyi,σyi=σyj}(仮想のモデルの自由度は3C)となり、BIC=−2logL(Θ)+3ClogNとなる。 In the hierarchical clustering means 7, when the virtual model when clustering is circular and has the same radius, {ρ i = 0, σ xi = σ xj , σ zi = σ yi , σ yi = σ yj } (the degree of freedom of the virtual model is 3C), and BIC = −2 logL (Θ * ) + 3ClogN.

ここで、BIC値の例を図4に示す。この図4はクラスタ数(図4中、number of clusters)とBIC値(図4中、BIC)との関係を示したものである。この図4に示したように、概ねの傾向として、クラスタ数が2,4,6,8と増加するにつれBIC値は−610から−640に減少しているが、厳密に見るとクラスタ数2でBIC値が最大となっていると共に、クラスタ数5のときのBIC値よりもクラスタ数6のときのBIC値が大きくなっている。図1に戻る。   Here, an example of the BIC value is shown in FIG. FIG. 4 shows the relationship between the number of clusters (number of clusters in FIG. 4) and the BIC value (BIC in FIG. 4). As shown in FIG. 4, as a general tendency, the BIC value decreases from −610 to −640 as the number of clusters increases to 2, 4, 6, and 8, but strictly speaking, the number of clusters is 2 The BIC value is maximum, and the BIC value when the number of clusters is 6 is larger than the BIC value when the number of clusters is 5. Returning to FIG.

確率密度関数計算手段11は、階層クラスタリング手段7から出力された階層化データと、クラスタ数評価手段9から出力された最適クラスタ数とに基づいて、各クラスタ内の注視点について、当該注視点の分布が二次元正規分布に従うと仮定し、各クラスタ内の注視点の平均・分散・相関等を求め、これらを用いてクラスタごとの確率密度関数を計算するものである。   The probability density function calculation unit 11 determines the gaze point of each gazing point in each cluster based on the hierarchical data output from the hierarchical clustering unit 7 and the optimum number of clusters output from the cluster number evaluation unit 9. Assuming that the distribution follows a two-dimensional normal distribution, the mean, variance, correlation, etc. of the gazing point in each cluster are obtained, and the probability density function for each cluster is calculated using these.

ここで、各クラスタ内の注視点の平均・分散・相関の例を図5に示す。図5(a)はクラスタの概略を示したものであり、図5(b)は図5(a)に示した2個のクラスタ(クラスタA、クラスタB)について平均・分散・相関の具体的な値を示したものである。なお、図5(a)はある瞬間にクラスタ数が2個になったことを示している。また、図5(b)では、クラスタ数c、注視点数n、平均(x,y)、分散(σ,σ)、相関ρを示しており、これらのそれぞれに付されている添え字は、クラスタAでは“1”クラスタBでは“2”である。 Here, FIG. 5 shows an example of the mean / dispersion / correlation of the gazing point in each cluster. FIG. 5 (a) shows an outline of the cluster, and FIG. 5 (b) shows specific examples of the average, variance, and correlation for the two clusters (cluster A and cluster B) shown in FIG. 5 (a). This shows the correct value. FIG. 5A shows that the number of clusters becomes two at a certain moment. FIG. 5B shows the number of clusters c, the number of gazing points n, the average (x , y ), the variance (σ x , σ y ), and the correlation ρ, which are attached to each of these. The subscript is “1” for cluster A and “2” for cluster B.

これら図5(a)、図5(b)に示したように、コンテンツの経過時間を示しているTimeCode)に伴って、クラスタ数cが刻々と変化し、これにより、注視点数n、平均(x,y)、分散(σ,σ)、相関ρも刻々と変化している。図1に戻る。 As shown in FIGS. 5 (a) and 5 (b), the number of clusters c changes with time according to the time code indicating the elapsed time of the content. x , y ), variance (σ x , σ y ), and correlation ρ change every moment. Returning to FIG.

そして、確率密度関数計算手段11は、次に示す数式(3)により確率密度関数p(x,y)を計算している。   Then, the probability density function calculating means 11 calculates the probability density function p (x, y) by the following formula (3).

Figure 2007310454
Figure 2007310454

この数式(3)において、cはクラスタ数であり、nはクラスタiにおける注視点の数を、σxi,σyiはクラスタiにおける注視点の標準偏差(分散σ,σと同じ)を、x ,y はクラスタiにおける注視点の平均値を、ρはクラスタiにおける注視点の相関値を示している。 In this formula (3), c is the number of clusters, n i is the cluster number of the gazing point in the i, σ xi, σ yi is the standard deviation of the focus point in cluster i (variance sigma x, same as sigma y) the, x - i, y - i is the average value of the gazing point in the cluster i, [rho i denotes the correlation value of the gazing point in the cluster i.

なお、確率密度関数計算手段11は、クラスタ数評価手段9から出力された最適クラスタ数に対応する最尤推定値Θを用いて、数式(1)のパラメータに代入することで確率密度関数p(x,y)を求めることができる。 The probability density function calculating means 11 uses the maximum likelihood estimated value Θ * corresponding to the optimum number of clusters output from the cluster number evaluating means 9 and substitutes it into the parameter of the equation (1) to obtain the probability density function p (X, y) can be obtained.

エントロピー計算手段13は、確率密度関数計算手段11で計算された確率密度関数に基づいて各画像(フレームごと)のエントロピーを計算するものである。この実施形態では、次に示す数式(4)によりエントロピーH(X)を計算している。   The entropy calculating means 13 calculates the entropy of each image (for each frame) based on the probability density function calculated by the probability density function calculating means 11. In this embodiment, entropy H (X) is calculated by the following mathematical formula (4).

Figure 2007310454
Figure 2007310454

ここで、エントロピーの例を図6に示す。この図6はエントロピーの値を示すと共に、画像上の位置における確率密度関数による確率、つまり、注視点が画像上のどこの位置、どのように(1カ所に集中して、数カ所にそれぞれ集中して、1カ所にまばらに等)集まることが多かったか否かを示したものである。なお、図6において、水平方向(H)が画像上のx軸に、垂直方向(V)が画像上のy軸に該当している。   Here, an example of entropy is shown in FIG. FIG. 6 shows the entropy value and the probability based on the probability density function at the position on the image, that is, where and how the gazing point is focused on the image (concentrated at one location and concentrated at several locations). In other words, it indicates whether there were many gatherings in one place. In FIG. 6, the horizontal direction (H) corresponds to the x axis on the image, and the vertical direction (V) corresponds to the y axis on the image.

この図6に示したように、図6(a)では注視点が画像上の1カ所に集中しておりエントロピーHが9.11と最も低く、図6(b)では、注視点が画像上の4カ所にそれぞれ集中しておりエントロピーHが11.0と最も高く、図6(c)では注視点が画像上の1カ所にまばらに集まっておりエントロピーHが10.6と図6(a)および図6(b)の場合の間にエントロピーHの値が収まっている。   As shown in FIG. 6, in FIG. 6A, the gazing point is concentrated at one place on the image and the entropy H is the lowest at 9.11. In FIG. 6B, the gazing point is on the image. The entropy H is the highest at 11.0. In FIG. 6C, the gazing points are sparsely gathered at one place on the image, and the entropy H is 10.6. ) And the value of entropy H falls between the cases of FIG.

なお、図6(b)に示す状態は、画像内に観視する対象であるオブジェクトの数が多いときに生じやすく、図6(c)に示す状態は、コンテンツが風景等を撮像した動画像からなる場合に生じやすい。   Note that the state shown in FIG. 6B is likely to occur when the number of objects to be viewed in the image is large, and the state shown in FIG. 6C is a moving image in which the content is taken of a landscape or the like. It is likely to occur when it consists of.

それゆえ、図6(c)に示す状態が生じている場合であり、コンテンツが風景等を撮像した動画像でない場合には、当該画像の示す構造自体(いわゆる“絵作り”)に問題があることが考えられる。   Therefore, in the case where the state shown in FIG. 6C has occurred, and the content is not a moving image obtained by capturing a landscape or the like, there is a problem with the structure itself (so-called “picture making”) indicated by the image. It is possible.

また、図6(a)に示す状態の方が「被験者がコンテンツの内容を正しく把握している」といった基準を設けた場合、画像上の1カ所に注視点が集中し、エントロピーHの値の低いことが、コンテンツの制作の仕方として、優れているということが実験的に確認されている。すなわち、画像上の観視対象が被験者によらずに一定となるコンテンツは評価が高くなる。図1に戻る。   In the case of the state shown in FIG. 6A, when a criterion such as “the subject correctly understands the contents of the content” is set, the gazing point concentrates on one place on the image, and the value of the entropy H is It has been experimentally confirmed that low is an excellent way to create content. That is, the evaluation is high for content in which the object to be viewed on the image is constant regardless of the subject. Returning to FIG.

作画手段15は、確率密度関数計算手段11で計算された確率密度関数に基づいて、コンテテンツに含まれている画像に対応させて、当該画像のどこの位置に注視点がどのように集まっているのかを示した図(等高線図)を作画するものである。なお、この等高線図は、当該等高線図の底面を当該画像に投影した部分を含んで構成されている。   Based on the probability density function calculated by the probability density function calculating unit 11, the drawing unit 15 corresponds to the image included in the content and how the gazing point is gathered at which position of the image. The figure (contour map) showing whether or not is drawn. The contour map includes a portion obtained by projecting the bottom surface of the contour map onto the image.

ここで、この作画手段15で作画した図の例を図7に示す。この図7は画像と注視点とを対応させて示したものである。この図7に示したように、二人のキャスターの顔面付近それぞれに注視点が集中していることがわかる。図1に戻る。   Here, FIG. 7 shows an example of a drawing drawn by the drawing means 15. FIG. 7 shows an image and a gazing point in association with each other. As shown in FIG. 7, it can be seen that the gazing points are concentrated near the faces of the two casters. Returning to FIG.

この画像評価装置1によれば、エントロピー計算手段13によって、視線データの示す注視点がコンテンツの画像上のどの位置に、どれだけ集まっているのかを確率として表している確率密度関数に基づいてエントロピーを計算しているので、このエントロピーに従って、当該コンテンツに含まれている画像を評価する基準とすることができ、予めコンテンツのセグメンテーションを行うことなく、当該コンテンツを視線データによって評価することができる。   According to this image evaluation apparatus 1, the entropy calculation means 13 uses the entropy calculation unit 13 based on a probability density function that expresses as a probability at which position on the content image the gaze point indicated by the line-of-sight data is gathered. Therefore, according to this entropy, it can be used as a reference for evaluating an image included in the content, and the content can be evaluated based on the line-of-sight data without segmenting the content in advance.

また、この画像評価装置1によれば、作画手段15によって、計算された確率密度関数を、各画像に対応させた等高線図として作画することで、画像上のどこに注視点が集中したのかを目視で確認することができる。   Further, according to this image evaluation apparatus 1, the drawing means 15 draws the calculated probability density function as a contour map corresponding to each image, so that it is possible to see where the gazing point is concentrated on the image. Can be confirmed.

(画像評価装置の動作)
次に、図8に示すフローチャートを参照して、画像評価装置1の動作を説明する(適宜、図1参照)。
まず、画像評価装置1は、複数の観視者がそれぞれ評価対象となるコンテンツを観視した結果である注視点(画像上の座標)と当該コンテンツに付されているタイムコードとを同期させた視線データを、視線データ取得手段3によって観視者数分取得し、視線データ蓄積手段5に蓄積する(ステップS1)。
(Operation of image evaluation device)
Next, the operation of the image evaluation apparatus 1 will be described with reference to the flowchart shown in FIG. 8 (see FIG. 1 as appropriate).
First, the image evaluation device 1 synchronizes a gaze point (coordinates on an image) that is a result of viewing a content to be evaluated by a plurality of viewers and a time code attached to the content. The line-of-sight data is acquired by the number of viewers by the line-of-sight data acquisition means 3, and stored in the line-of-sight data storage means 5 (step S1).

続いて、画像評価装置1は、階層クラスタリング手段7によって、タイムコードで対応付けられる複数の視線データをクラスタリングした階層化データを確率密度関数計算手段11に出力する(ステップS2)。   Subsequently, the image evaluation apparatus 1 outputs the hierarchized data obtained by clustering a plurality of line-of-sight data associated with the time code by the hierarchical clustering unit 7 to the probability density function calculating unit 11 (step S2).

また、画像評価装置1は、クラスタ数評価手段9によって、クラスタ(任意領域)の個数を評価して最適となる最適クラスタ数を計算し、確率密度関数計算手段11に出力する(ステップS3)。   Further, the image evaluation apparatus 1 calculates the optimum number of clusters by evaluating the number of clusters (arbitrary regions) by the cluster number evaluation unit 9 and outputs it to the probability density function calculation unit 11 (step S3).

そして、画像評価装置1は、確率密度関数計算手段11によって、階層クラスタリング手段7から出力された階層化データと、クラスタ数評価手段9から出力された最適クラスタ数とに基づいて、確率密度関数を計算する(ステップS4)。
その後、画像評価装置1は、エントロピー計算手段13によって、確率密度関数計算手段11から出力された確率密度関数に基づいて、エントロピーを計算して出力する(ステップS5)。
Then, the image evaluation apparatus 1 calculates a probability density function based on the hierarchical data output from the hierarchical clustering means 7 and the optimum cluster number output from the cluster number evaluating means 9 by the probability density function calculating means 11. Calculate (step S4).
Thereafter, the image evaluation apparatus 1 calculates and outputs entropy by the entropy calculation unit 13 based on the probability density function output from the probability density function calculation unit 11 (step S5).

(被験者集中度算出装置の構成)
図9は、被験者集中度算出装置のブロック図である。この図9に示すように、被験者集中度算出装置21は、コンテンツを観視した被験者の集中度を算出するもので、視線データ取得手段3と、視線データ蓄積手段5と、集中度算出手段23とを備えている。なお、この被験者集中度算出装置21の構成の中で、画像評価装置1の構成と同様なものは同一の符号を付して説明を省略する。
(Configuration of subject concentration calculation device)
FIG. 9 is a block diagram of the subject concentration calculation device. As shown in FIG. 9, the subject concentration calculation device 21 calculates the concentration of the subject who viewed the content, and the line-of-sight data acquisition unit 3, the line-of-sight data storage unit 5, and the concentration degree calculation unit 23. And. In addition, in the structure of this test subject concentration calculation apparatus 21, the thing similar to the structure of the image evaluation apparatus 1 attaches | subjects the same code | symbol, and abbreviate | omits description.

また、この被験者集中度算出装置21では、観視対象となるコンテンツに関して、予め当該コンテンツに含まれている画像それぞれについて、注視点の確率密度関数が求められており、この確率密度関数が入力されている。この注視点の確率密度関数は、画像評価装置1の確率密度関数計算手段11(図1参照)から出力されたものを用いることができる。   Further, in the subject concentration calculation device 21, regarding the content to be viewed, a probability density function of a gazing point is obtained in advance for each image included in the content, and this probability density function is input. ing. As the probability density function of the gazing point, the one output from the probability density function calculating means 11 (see FIG. 1) of the image evaluation apparatus 1 can be used.

集中度算出手段23は、被験者の視線データの示す画像上の座標(注視点の座標)を、入力された確率密度関数に代入することで得られた確率(注視確率)を集中度として算出するものである。   The degree-of-concentration calculation means 23 calculates a probability (gaze probability) obtained by substituting coordinates on the image (gaze point coordinates) indicated by the subject's line-of-sight data into the input probability density function as the degree of concentration. Is.

ここで、注視確率の例を図10に示す。この図10(a)はタイムコードと注視点との対応関係を、図10(b)はタイムコードと注視点と注視確率との対応関係を示したものである。この図10に示したように、被験者がコンテンツを観視した際の画像それぞれについて注視確率が求められている。   Here, an example of the gaze probability is shown in FIG. FIG. 10A shows the correspondence between time code and gaze point, and FIG. 10B shows the correspondence between time code, gaze point and gaze probability. As shown in FIG. 10, the gaze probability is calculated for each image when the subject views the content.

また、コンテンツの経過時間に伴って注視確率(集中度)が変化した例を図11に示す。この図11は集中度を視聴集中度と表し、視聴集中度の時間変化を示したものである。この図11では、0秒から300秒強までの経過時間に伴う視聴集中度の変化を示している。ここでは、5シーン(5カット)について、1シーン(1カット)ごとの視聴集中度の平均値を算出しており、枠で囲んだ箇所を「シーン1」、「シーン2」としている。ただし、図11では「シーン1」、「シーン2」のみ平均値を表示している。   FIG. 11 shows an example in which the gaze probability (concentration) changes with the elapsed time of the content. In FIG. 11, the degree of concentration is expressed as a viewing concentration, and the time variation of the viewing concentration is shown. FIG. 11 shows a change in the viewing concentration with the lapse of time from 0 seconds to over 300 seconds. Here, for five scenes (5 cuts), the average value of the viewing concentration for each scene (1 cut) is calculated, and the portions surrounded by a frame are “scene 1” and “scene 2”. However, in FIG. 11, only the “scene 1” and “scene 2” average values are displayed.

図11に示したように、「シーン1」および「シーン2」の視聴集中度の平均値は、それぞれ「シーン1」の平均値=0.089、「シーン2」の平均値=0.533であり、「シーン2」における視聴集中度は、「シーン1」における視聴集中度よりも高いことがわかる。   As shown in FIG. 11, the average values of the viewing concentration levels of “Scene 1” and “Scene 2” are “Scene 1” average value = 0.089 and “Scene 2” average value = 0.533, respectively. It can be seen that the viewing concentration level in “Scene 2” is higher than the viewing concentration level in “Scene 1”.

(被験者集中度算出装置の動作)
次に、図12に示すフローチャートを参照して、被験者集中度算出装置21の動作を説明する(適宜、図9参照)。
まず、被験者集中度算出装置21は、被験者がコンテンツを観視した結果である注視点(画像上の座標)と当該コンテンツに付されているタイムコードとを同期させた視線データを、視線データ取得手段3によって取得し、視線データ蓄積手段5に蓄積する(ステップS11)。
(Operation of subject concentration calculation device)
Next, the operation of the subject concentration calculation device 21 will be described with reference to the flowchart shown in FIG. 12 (see FIG. 9 as appropriate).
First, the subject concentration calculation device 21 obtains line-of-sight data in which the gaze point (coordinates on the image), which is the result of the subject viewing the content, and the time code attached to the content is synchronized. Obtained by the means 3 and accumulated in the line-of-sight data accumulation means 5 (step S11).

そして、被験者集中度算出装置21は、集中度算出手段23によって、入力された確率密度関数(被験者が観視したコンテンツに含まれている各画像の確率密度関数)に、視線データ蓄積手段5に蓄積された視線データの示す注視点の座標を代入し、注視確率を算出し、この注視確率を当該被験者の集中度として出力する(ステップS12)。   Then, the subject concentration calculation device 21 adds the probability density function (the probability density function of each image included in the content viewed by the subject) input by the concentration calculation means 23 to the line-of-sight data storage means 5. The coordinates of the gaze point indicated by the accumulated gaze data are substituted, the gaze probability is calculated, and this gaze probability is output as the degree of concentration of the subject (step S12).

以上、本発明の実施形態について説明したが、本発明は前記実施形態には限定されない。例えば、本実施形態では、画像評価装置1、被験者集中度算出装置21として説明したが、当該装置1、当該装置21の各構成の処理を実行可能に汎用または特殊なコンピュータ言語によって記述した画像評価プログラム、被験者集中度算出プログラムとして構成することも可能である。これらの場合、画像評価装置1、被験者集中度算出装置21と同様の効果を奏する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. For example, in the present embodiment, the image evaluation device 1 and the subject concentration calculation device 21 have been described. However, the image evaluation described in a general-purpose or special computer language so that the processing of each component of the device 1 and the device 21 can be executed. It is also possible to configure as a program or a subject concentration degree calculation program. In these cases, the same effects as those of the image evaluation apparatus 1 and the subject concentration degree calculation apparatus 21 are obtained.

また、画像評価装置1、被験者集中度算出装置21では、観視対象をコンテンツに含まれる画像(動画像)としているが、当該コンテンツに音声等が含まれている場合、観視者および被験者の視線データは、当該音声による影響を受けることが予測される。それゆえ、タイムコードと共に、コンテンツに含まれている音声、効果音と画像上のオブジェクトとの位置関係や、当該音声、効果音の強弱等を示す音声情報を、視線データの一部として取得しておくことも有効である。   Further, in the image evaluation device 1 and the subject concentration calculation device 21, the object to be viewed is an image (moving image) included in the content, but when the content includes sound or the like, It is predicted that the line-of-sight data is affected by the sound. Therefore, along with the time code, the audio information indicating the positional relationship between the sound and sound effect included in the content and the object on the image, the sound and the strength of the sound effect, etc. are acquired as part of the line of sight data. It is also effective to keep it.

本発明の実施形態に係る画像評価装置のブロック図である。1 is a block diagram of an image evaluation apparatus according to an embodiment of the present invention. 複数の観視者の視線データを示した図である。It is the figure which showed the gaze data of several viewers. クラスタリングするクラスタの個数と画像上の座標との関連を示した図である。It is the figure which showed the relationship between the number of the clusters to cluster, and the coordinate on an image. クラスタ数とBIC値との関係を示した図である。It is the figure which showed the relationship between the number of clusters and a BIC value. (a)はクラスタの概略を示した図であり、(b)は(a)に示した2個のクラスタについて平均・分散・相関の具体的な値を示した図である。(A) is the figure which showed the outline of the cluster, (b) is the figure which showed the concrete value of average, dispersion | distribution, and correlation about two clusters shown to (a). エントロピーの値を示すと共に、画像上の位置における確率密度関数による確率を示した図である。It is the figure which showed the probability by the probability density function in the position on an image while showing the value of entropy. 画像と注視点とを対応させて示した図である。It is the figure which matched and showed the image and the gaze point. 図1に示した画像評価装置の動作を示したフローチャートである。3 is a flowchart showing the operation of the image evaluation apparatus shown in FIG. 本発明の実施形態に係る被験者集中度算出装置のブロック図である。It is a block diagram of a subject concentration calculation device according to an embodiment of the present invention. (a)はタイムコードと注視点との対応関係を示した図であり、(b)はタイムコードと注視点と注視確率との対応関係を示した図である。(A) is the figure which showed the correspondence of a time code and a gaze point, (b) is the figure which showed the correspondence of a time code, a gaze point, and a gaze probability. 集中度を視聴集中度と表し、視聴集中度の時間変化を示した図である。FIG. 6 is a diagram illustrating a change in viewing concentration over time, where the concentration is expressed as viewing concentration. 図9に示した被験者集中度算出装置の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the test subject concentration degree calculation apparatus shown in FIG.

符号の説明Explanation of symbols

1 画像評価装置
3 視線データ取得手段
5 視線データ蓄積手段
7 階層クラスタリング手段
9 クラスタ数評価手段
11 確率密度関数計算手段
13 エントロピー計算手段
15 作画手段
21 被験者集中度算出装置
23 集中度算出手段
DESCRIPTION OF SYMBOLS 1 Image evaluation apparatus 3 Gaze data acquisition means 5 Gaze data storage means 7 Hierarchical clustering means 9 Cluster number evaluation means 11 Probability density function calculation means 13 Entropy calculation means 15 Drawing means 21 Subject concentration degree calculation apparatus 23 Concentration degree calculation means

Claims (5)

表示された動画像を観た複数の観視者について、当該観視者の注視点の画像上の座標をそれぞれ測定してデータ化した視線データに基づいて、当該動画像に含まれる各画像の任意領域それぞれについて、前記注視点の確率密度関数を求め、各画像の全領域に亘る前記確率密度関数から、前記動画像を評価する基準となる各画像のエントロピーを計算する画像評価装置であって、
前記動画像に付されたタイムコードと、前記注視点の画像上の座標とが同期した視線データを、前記観視者の人数分取得する視線データ取得手段と、
この視線データ取得手段で取得された視線データの示す注視点が任意個数含まれるように、各画像の全領域を任意領域それぞれにクラスタリングし、当該任意領域と、当該注視点の任意個数および座標とを対応付けた階層化データを出力する階層クラスタリング手段と、
この階層クラスタリング手段でクラスタリングされた任意領域の個数に対して、当該任意領域内に存在する注視点の任意個数が予め設定した設定数を満たすための最適クラスタ数を出力するクラスタ数評価手段と、
前記階層クラスタリング手段で出力された階層化データと、前記クラスタ数評価手段で出力された最適クラスタ数とに基づいて、前記確率密度関数を計算する確率密度関数計算手段と、
この確率密度関数計算手段で計算された確率密度関数に基づいて、各画像の前記エントロピーを計算するエントロピー計算手段と、
を備えることを特徴とする画像評価装置。
For a plurality of viewers who viewed the displayed moving image, based on the line-of-sight data obtained by measuring the coordinates on the image of the gazing point of the viewer and converting it to data, An image evaluation device that calculates a probability density function of the gazing point for each arbitrary region and calculates entropy of each image serving as a reference for evaluating the moving image from the probability density function over the entire region of each image. ,
Line-of-sight data acquisition means for acquiring line-of-sight data in which the time code attached to the moving image and coordinates on the image of the gazing point are synchronized;
All regions of each image are clustered into arbitrary regions so that an arbitrary number of points of sight indicated by the line-of-sight data acquired by the line-of-sight data acquisition means are included, the arbitrary regions, an arbitrary number and coordinates of the points of interest, A hierarchical clustering means for outputting hierarchical data in which
For the number of arbitrary areas clustered by this hierarchical clustering means, the cluster number evaluation means for outputting the optimum number of clusters for the arbitrary number of gazing points existing in the arbitrary area to satisfy the preset number of sets,
A probability density function calculating means for calculating the probability density function based on the hierarchical data output by the hierarchical clustering means and the optimum number of clusters output by the cluster number evaluating means;
Entropy calculating means for calculating the entropy of each image based on the probability density function calculated by the probability density function calculating means;
An image evaluation apparatus comprising:
前記確率密度関数計算手段で計算された確率密度関数を、各画像に対応させた等高線図として作画する作画手段を備えることを特徴とする請求項1に記載の画像評価装置。   The image evaluation apparatus according to claim 1, further comprising a drawing unit that draws the probability density function calculated by the probability density function calculating unit as a contour map corresponding to each image. 表示された動画像を観た複数の観視者について、当該観視者の注視点の画像上の座標をそれぞれ測定してデータ化した視線データに基づいて、当該動画像に含まれる各画像の任意領域それぞれについて、前記注視点の確率密度関数を求めた動画像を、被験者に観視させ、当該被験者が当該動画像を集中して観視している度合いを数値化した集中度を算出する被験者集中度算出装置であって、
前記動画像に付されたタイムコードと、前記注視点の画像上の座標とが同期した被験者の視線データを取得する視線データ取得手段と、
この視線データ取得手段で取得された被験者の視線データの示す注視点の座標を、前記確率密度関数に代入することで得られた確率を、前記集中度として算出する集中度算出手段と、
を備えることを特徴とする被験者集中度算出装置。
For a plurality of viewers who viewed the displayed moving image, based on the line-of-sight data obtained by measuring the coordinates on the image of the gazing point of the viewer and converting it to data, For each arbitrary region, the subject views the moving image for which the probability density function of the gazing point is obtained, and calculates the degree of concentration by quantifying the degree of the subject concentrating on the moving image. A subject concentration calculation device,
Line-of-sight data acquisition means for acquiring line-of-sight data of the subject in which the time code attached to the moving image and the coordinates on the image of the gazing point are synchronized,
A degree-of-concentration calculating means for calculating, as the degree of concentration, a probability obtained by substituting the coordinates of the gazing point indicated by the line-of-sight data of the subject acquired by the line-of-sight data acquiring means into the probability density function;
A subject concentration calculation device comprising:
表示された動画像を観た複数の観視者について、当該観視者の注視点の画像上の座標をそれぞれ測定してデータ化した視線データに基づいて、当該動画像に含まれる各画像の任意領域それぞれについて、前記注視点の確率密度関数を求め、各画像の全領域に亘る前記確率密度関数から、前記動画像を評価する基準となる各画像のエントロピーを計算するために、コンピュータを、
前記動画像に付されたタイムコードと、前記注視点の画像上の座標とが同期した視線データを、前記観視者の人数分取得する視線データ取得手段、
この視線データ取得手段で取得された視線データの示す注視点が任意個数含まれるように、各画像の全領域を任意領域それぞれにクラスタリングし、当該任意領域と、当該注視点の任意個数および座標とを対応付けた階層化データを出力する階層クラスタリング手段、
この階層クラスタリング手段でクラスタリングされた任意領域の個数に対して、当該任意領域内に存在する注視点の任意個数が予め設定した設定数を満たすための最適クラスタ数を出力するクラスタ数評価手段、
前記階層クラスタリング手段で出力された階層化データと、前記クラスタ数評価手段で出力された最適クラスタ数とに基づいて、前記確率密度関数を計算する確率密度関数計算手段、
この確率密度関数計算手段で計算された確率密度関数に基づいて、各画像の前記エントロピーを計算するエントロピー計算手段、
として機能させることを特徴とする画像評価プログラム。
For a plurality of viewers who viewed the displayed moving image, based on the line-of-sight data obtained by measuring the coordinates on the image of the gazing point of the viewer and converting it to data, In order to calculate the entropy of each image serving as a reference for evaluating the moving image from the probability density function over the entire region of each image, for each arbitrary region, the probability density function of the gazing point is calculated.
Line-of-sight data acquisition means for acquiring line-of-sight data in which the time code attached to the moving image and the coordinates on the image of the gazing point are synchronized, for the number of viewers,
All regions of each image are clustered into arbitrary regions so that an arbitrary number of points of sight indicated by the line-of-sight data acquired by the line-of-sight data acquisition means are included, the arbitrary regions, an arbitrary number and coordinates of the points of interest, A hierarchical clustering means for outputting hierarchical data in which
Cluster number evaluation means for outputting the optimal number of clusters for the arbitrary number of gazing points existing in the arbitrary area to satisfy a preset number of sets, with respect to the number of arbitrary areas clustered by the hierarchical clustering means,
A probability density function calculating means for calculating the probability density function based on the hierarchical data output by the hierarchical clustering means and the optimum number of clusters output by the cluster number evaluating means;
Entropy calculating means for calculating the entropy of each image based on the probability density function calculated by the probability density function calculating means;
An image evaluation program characterized by functioning as
表示された動画像を観た複数の観視者について、当該観視者の注視点の画像上の座標をそれぞれ測定してデータ化した視線データに基づいて、当該動画像に含まれる各画像の任意領域それぞれについて、前記注視点の確率密度関数を求めた動画像を、被験者に観視させ、当該被験者が当該動画像を集中して観視している度合いを数値化した集中度を算出するために、コンピュータを、
前記動画像に付されたタイムコードと、前記注視点の画像上の座標とが同期した被験者の視線データを取得する視線データ取得手段、
この視線データ取得手段で取得された被験者の視線データの示す注視点の座標を、前記確率密度関数に代入することで得られた確率を、前記集中度として算出する集中度算出手段、
として機能させることを特徴とする被験者集中度算出プログラム。
For a plurality of viewers who viewed the displayed moving image, based on the line-of-sight data obtained by measuring the coordinates on the image of the gazing point of the viewer and converting it to data, For each arbitrary region, the subject views the moving image for which the probability density function of the gazing point is obtained, and calculates the degree of concentration by quantifying the degree of the subject concentrating on the moving image. For the computer,
Line-of-sight data acquisition means for acquiring line-of-sight data of a subject in which the time code attached to the moving image and the coordinates on the image of the gazing point are synchronized;
A degree-of-concentration calculating means for calculating, as the degree of concentration, a probability obtained by substituting the coordinates of the gazing point indicated by the line-of-sight data of the subject acquired by the line-of-sight data acquiring means into the probability density function;
It is made to function as a subject concentration degree calculation program characterized by the above-mentioned.
JP2006136301A 2006-05-16 2006-05-16 Image evaluation device, subject concentration ratio calculation device, image evaluation program, and subject concentration ratio calculation program Pending JP2007310454A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006136301A JP2007310454A (en) 2006-05-16 2006-05-16 Image evaluation device, subject concentration ratio calculation device, image evaluation program, and subject concentration ratio calculation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006136301A JP2007310454A (en) 2006-05-16 2006-05-16 Image evaluation device, subject concentration ratio calculation device, image evaluation program, and subject concentration ratio calculation program

Publications (1)

Publication Number Publication Date
JP2007310454A true JP2007310454A (en) 2007-11-29

Family

ID=38843274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006136301A Pending JP2007310454A (en) 2006-05-16 2006-05-16 Image evaluation device, subject concentration ratio calculation device, image evaluation program, and subject concentration ratio calculation program

Country Status (1)

Country Link
JP (1) JP2007310454A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290586A (en) * 2008-05-29 2009-12-10 Mitsubishi Electric Corp Video quality evaluation method and video quality evaluation apparatus
JP2012022353A (en) * 2010-07-12 2012-02-02 Nippon Hoso Kyokai <Nhk> Image evaluation device and image evaluation program
JP2012524458A (en) * 2009-04-19 2012-10-11 インナースコープ リサーチ, インコーポレイテッド Method and system for measuring user experience related to interactive activities
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US9514439B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for determining audience response to a sensory stimulus
US10987015B2 (en) 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US11049134B2 (en) 2007-05-16 2021-06-29 Nielsen Consumer Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
JP2021518026A (en) * 2018-03-12 2021-07-29 ヘッドスピン,インコーポレイテッド A system that determines performance based on the entropy value
US11170400B2 (en) 2009-10-29 2021-11-09 Nielsen Consumer Llc Analysis of controlled and automatic attention for introduction of stimulus material
US11200964B2 (en) 2010-04-19 2021-12-14 Nielsen Consumer Llc Short imagery task (SIT) research method
US11244345B2 (en) 2007-07-30 2022-02-08 Nielsen Consumer Llc Neuro-response stimulus and stimulus attribute resonance estimator
US11250465B2 (en) 2007-03-29 2022-02-15 Nielsen Consumer Llc Analysis of marketing and entertainment effectiveness using central nervous system, autonomic nervous sytem, and effector data
WO2022208720A1 (en) * 2021-03-31 2022-10-06 日本電気株式会社 Product-design generation support device, product-design generation support method, and program storage medium
US11481788B2 (en) 2009-10-29 2022-10-25 Nielsen Consumer Llc Generating ratings predictions using neuro-response data
US11488198B2 (en) 2007-08-28 2022-11-01 Nielsen Consumer Llc Stimulus placement system using subject neuro-response measurements
CN115825316A (en) * 2023-02-15 2023-03-21 武汉宏韧生物医药股份有限公司 Method and device for analyzing active ingredients of medicine based on supercritical chromatography
US11704681B2 (en) 2009-03-24 2023-07-18 Nielsen Consumer Llc Neurological profiles for market matching and stimulus presentation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001037733A (en) * 1999-07-29 2001-02-13 Kansai Research Institute Brain function measurement system
JP2003202850A (en) * 2001-10-04 2003-07-18 Eastman Kodak Co Method and system for displaying image
JP2004109105A (en) * 2002-07-23 2004-04-08 Jfe Steel Kk Flaw type classification boundary setting method in surface defect detection, and defect detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001037733A (en) * 1999-07-29 2001-02-13 Kansai Research Institute Brain function measurement system
JP2003202850A (en) * 2001-10-04 2003-07-18 Eastman Kodak Co Method and system for displaying image
JP2004109105A (en) * 2002-07-23 2004-04-08 Jfe Steel Kk Flaw type classification boundary setting method in surface defect detection, and defect detection method

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839350B2 (en) 2006-09-05 2020-11-17 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US9514439B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for determining audience response to a sensory stimulus
US10198713B2 (en) 2006-09-05 2019-02-05 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US11250465B2 (en) 2007-03-29 2022-02-15 Nielsen Consumer Llc Analysis of marketing and entertainment effectiveness using central nervous system, autonomic nervous sytem, and effector data
US11049134B2 (en) 2007-05-16 2021-06-29 Nielsen Consumer Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US11763340B2 (en) 2007-07-30 2023-09-19 Nielsen Consumer Llc Neuro-response stimulus and stimulus attribute resonance estimator
US11244345B2 (en) 2007-07-30 2022-02-08 Nielsen Consumer Llc Neuro-response stimulus and stimulus attribute resonance estimator
US11488198B2 (en) 2007-08-28 2022-11-01 Nielsen Consumer Llc Stimulus placement system using subject neuro-response measurements
JP2009290586A (en) * 2008-05-29 2009-12-10 Mitsubishi Electric Corp Video quality evaluation method and video quality evaluation apparatus
US11704681B2 (en) 2009-03-24 2023-07-18 Nielsen Consumer Llc Neurological profiles for market matching and stimulus presentation
JP2012524458A (en) * 2009-04-19 2012-10-11 インナースコープ リサーチ, インコーポレイテッド Method and system for measuring user experience related to interactive activities
US10987015B2 (en) 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US11170400B2 (en) 2009-10-29 2021-11-09 Nielsen Consumer Llc Analysis of controlled and automatic attention for introduction of stimulus material
US11481788B2 (en) 2009-10-29 2022-10-25 Nielsen Consumer Llc Generating ratings predictions using neuro-response data
US11669858B2 (en) 2009-10-29 2023-06-06 Nielsen Consumer Llc Analysis of controlled and automatic attention for introduction of stimulus material
US11200964B2 (en) 2010-04-19 2021-12-14 Nielsen Consumer Llc Short imagery task (SIT) research method
JP2012022353A (en) * 2010-07-12 2012-02-02 Nippon Hoso Kyokai <Nhk> Image evaluation device and image evaluation program
JP2021518026A (en) * 2018-03-12 2021-07-29 ヘッドスピン,インコーポレイテッド A system that determines performance based on the entropy value
WO2022208720A1 (en) * 2021-03-31 2022-10-06 日本電気株式会社 Product-design generation support device, product-design generation support method, and program storage medium
CN115825316A (en) * 2023-02-15 2023-03-21 武汉宏韧生物医药股份有限公司 Method and device for analyzing active ingredients of medicine based on supercritical chromatography

Similar Documents

Publication Publication Date Title
JP2007310454A (en) Image evaluation device, subject concentration ratio calculation device, image evaluation program, and subject concentration ratio calculation program
US8667519B2 (en) Automatic passive and anonymous feedback system
JP4934861B2 (en) Display system, display method, display effect measurement system, and display effect measurement method
US20120133754A1 (en) Gaze tracking system and method for controlling internet protocol tv at a distance
Oh et al. Stereoscopic 3D visual discomfort prediction: A dynamic accommodation and vergence interaction model
KR101766347B1 (en) Concentrativeness evaluating system
US20190304112A1 (en) Methods and systems for providing selective disparity refinement
JP6651536B2 (en) Viewer&#39;s emotion determination device and program for determining viewer&#39;s emotion
JP2005142819A (en) Stereoscopic video evaluation device and stereoscopic video tuner
KR101835578B1 (en) Concentrativeness evaluating system
JP2017522104A (en) Eye state determination system
KR20170136160A (en) Audience engagement evaluating system
JP5489197B2 (en) Electronic advertisement apparatus / method and program
Akamine et al. Video quality assessment using visual attention computational models
Alers et al. Studying the effect of optimizing image quality in salient regions at the expense of background content
JP5370380B2 (en) Video display method and video display device
JP6214334B2 (en) Electronic device, determination method and program
US20220189200A1 (en) Information processing system and information processing method
Egorova et al. Methodology of Researching Perception Identity of Regions of Users' Interests While Viewing Streaming Video Containing Various Content and Compression Artefacts
US9679505B2 (en) Method and device for calibrating a projector
JP5912706B2 (en) Image output apparatus, video output method, and program
Hough et al. Measurements of live actor motion in mixed reality interaction
JP7284401B2 (en) Line-of-sight information processing program, information processing device, and line-of-sight information processing method
JP2017029401A (en) Determination device for change in pupil diameter by light stimulus, determination method and program
JP7233631B1 (en) posture improvement system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110823