JP2015219892A - 視線分析システムおよび視線分析装置 - Google Patents
視線分析システムおよび視線分析装置 Download PDFInfo
- Publication number
- JP2015219892A JP2015219892A JP2014105648A JP2014105648A JP2015219892A JP 2015219892 A JP2015219892 A JP 2015219892A JP 2014105648 A JP2014105648 A JP 2014105648A JP 2014105648 A JP2014105648 A JP 2014105648A JP 2015219892 A JP2015219892 A JP 2015219892A
- Authority
- JP
- Japan
- Prior art keywords
- scene image
- scene
- point
- image
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
【課題】 対象物を閲覧者の視野と対比してどのように見えるかを確認するのに適したヒートマップを作成することが可能な視線分析システムおよび視線分析装置を提供する。
【解決手段】 対象物を撮像するカメラを備えた視線追跡装置から、シーン画像と注視点を取得し(S11)、シーン画像から複数のシーン画像特徴点を抽出し(S12)、基準画像における基準画像特徴点を複数取得し(S13)、シーン画像特徴点と基準画像特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を作成し(S14)、作成された座標変換行列を利用して、複数のシーン画像のそれぞれについて、シーン画像と対応付けられた注視点を座標変換し、基準画像上における対応点を算出し(S15)、基準画像上の対応点を、座標変換行列を用いて逆変換し、各シーン画像上における対応注視点を算出する(S16)。
【選択図】 図3
【解決手段】 対象物を撮像するカメラを備えた視線追跡装置から、シーン画像と注視点を取得し(S11)、シーン画像から複数のシーン画像特徴点を抽出し(S12)、基準画像における基準画像特徴点を複数取得し(S13)、シーン画像特徴点と基準画像特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を作成し(S14)、作成された座標変換行列を利用して、複数のシーン画像のそれぞれについて、シーン画像と対応付けられた注視点を座標変換し、基準画像上における対応点を算出し(S15)、基準画像上の対応点を、座標変換行列を用いて逆変換し、各シーン画像上における対応注視点を算出する(S16)。
【選択図】 図3
Description
本発明は、人物の視線を推定し、分析するための技術に関する。
従来、評価対象印刷物を見る人物の視線を推定・追跡して、掲載商品への視線を計測することで、注視度合いや関心度合いを解析し、生活者の購買動向を評価分析することが知られている。生活者に適切な購買情報を提供するためには、評価対象印刷物の掲載情報を、どのように見ているかを知ることが重要となる。
このような評価対象印刷物の掲載情報の注目度を分析評価するため、出願人は、簡単に、被験者に無用な視線の動きを生じさせずに高い精度で、被験者の視線を推定して追跡することができる技術を提案している(特許文献1参照)。この技術を利用して、印刷物等を正面から撮像した状態である基準画像に注視点を変換した後、基準画像上にヒートマップを作成することが可能となる。ヒートマップとは、クラスタリング等の結果による数値の大小を色の濃淡等で表現したグラフの一種である。ヒートマップにより、被験者が基準画像上のどの箇所を見ていたかを確認することができる。
DavidG.Lowe、"Distinctive image features from scaleinvariant keypoints"、Int.Journal of Computer Vision、Vol.60、No.2、PP.91‐110、2004.
H.Bay,T.Tuytelaars,andL.VanGool、"SURF:Speeded Up Robust.Features"、InECCV、pp.404‐417、2006.
橋本浩一、"ビジュアルサーボ−II−コンピュータビジョンの基礎"、日本バーチャルリアリティ学会論文誌、Vol.4、No.4、1999.
トビー・テクノロジー・ジャパン株式会社、Tobiiグラスアイトラッカー、[online][平成23年9月8日検索]、インターネット<URL:http://www.tobii.com/ja−JP/eye−tracking−research/japan/products/hardware/tobii−glasses−eye−tracker/>
OpenCV、SIFT/SURF、[online][平成23年9月8日検索]、インターネット<URL:http://opencv.jp/opencv−2.2/cpp/features2d_feature_detection_and_description.html>
V. Lepetit and P. Fua, "Keypoint Recognition using Randomized Trees", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.28, No.9, pp。1465−1479, 2006.
M.Ozuysal,P.Fua, V.Lepetit,−Fast Keypoint Recognition in Ten Lines of Code.,Proc. of Int.Conf. on Computer Vision and Pattern Recognition(2007)
上記特許文献1に記載の技術を利用して作成されたヒートマップを利用することにより、基準画像上のどの箇所をどの程度見ていたかを確認することはできる。しかしながら、基準画像は、印刷物等の対象物を正面から撮像した状態であるため、閲覧者の視野と対比してどのように見えるかを確認し難いという問題がある。
そこで、本発明は、対象物を閲覧者の視野と対比してどのように見えるかを確認するのに適したヒートマップを作成することが可能な視線分析システムおよび視線分析装置を提供することを課題とする。
上記課題を解決するため、本発明では、対象物を撮像するカメラを備え、被験者の注視点を取得する視線追跡装置と、当該視線追跡装置とデータ通信可能な視線分析装置を有するシステムであって、前記視線分析装置は、前記カメラにより撮像されたシーン画像と、前記シーン画像上における注視点を取得するシーン画像取得手段と、前記シーン画像から複数のシーン画像特徴点を抽出するシーン画像特徴点抽出手段と、基準画像における基準画像特徴点を複数取得する基準画像特徴点取得手段と、前記シーン画像特徴点と基準画像特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各シーン画像ごとに作成する変換行列作成手段と、前記作成された座標変換行列を利用して、複数の前記シーン画像のそれぞれについて、前記シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出する対応点算出手段と、前記基準画像上の対応点を、前記シーン画像ごとに作成された座標変換行列を用いて前記各シーン画像上の座標に逆変換し、対応注視点を算出する対応注視点算出手段と、を有することを特徴とする視線分析システムを提供する。
本発明に係る視線分析システムによれば、対象物を撮像するカメラを備え、被験者の注視点を取得する視線追跡装置を用い、カメラにより撮像されたシーン画像と、シーン画像上における注視点を取得し、シーン画像から複数のシーン画像特徴点を抽出し、基準画像における基準画像特徴点を複数取得し、シーン画像特徴点と基準画像特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各シーン画像ごとに作成し、作成された座標変換行列を利用して、複数のシーン画像のそれぞれについて、シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出し、基準画像上の対応点を、シーン画像ごとに作成された座標変換行列を用いて各シーン画像上の座標に逆変換し、対応注視点を算出するようにしたので、印刷物等を閲覧者の視野と対比してどのように見えるかを確認するのに適したヒートマップを作成することが可能となる。
また、本発明では、対象物を撮像するカメラを備え、当該カメラにより撮像されたシーン画像とシーン画像上の被験者の注視点を取得する視線追跡装置と、データ通信可能に接続された視線分析装置であって、前記カメラにより撮像されたシーン画像と、前記シーン画像上における注視点を取得するシーン画像取得手段と、前記シーン画像から複数のシーン画像特徴点を抽出するシーン画像特徴点抽出手段と、基準画像における基準画像特徴点を複数取得する基準画像特徴点取得手段と、前記シーン画像特徴点と基準画像特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各シーン画像ごとに作成する変換行列作成手段と、前記作成された座標変換行列を利用して、複数の前記シーン画像のそれぞれについて、前記シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出する対応点算出手段と、前記基準画像上の対応点を、前記シーン画像ごとに作成された座標変換行列を用いて前記各シーン画像上の座標に逆変換し、対応注視点を算出する対応注視点算出手段と、を有することを特徴とする視線分析装置を提供する。
本発明に係る視線分析装置によれば、視線追跡装置のカメラにより撮像されたシーン画像と、シーン画像上における注視点を取得し、シーン画像から複数のシーン画像特徴点を抽出し、基準画像における基準画像特徴点を複数取得し、シーン画像特徴点と基準画像特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各シーン画像ごとに作成し、作成された座標変換行列を利用して、複数のシーン画像のそれぞれについて、シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出し、基準画像上の対応点を、シーン画像ごとに作成された座標変換行列を用いて各シーン画像上の座標に逆変換し、対応注視点を算出するようにしたので、対象物を撮像するカメラを備え、カメラにより撮像されたシーン画像とシーン画像上の被験者の注視点を取得する視線追跡装置と組み合わせることにより、印刷物等を閲覧者の視野と対比してどのように見えるかを確認するのに適したヒートマップを作成することが可能となる。
また、本発明では、視線分析装置の対応注視点算出手段が、時系列情報と対応付けられた各シーン画像に、全てのシーン画像に対応して取得された注視点に対応する対応注視点を記録することを特徴とする。本発明によれば、時系列情報と対応付けられた各シーン画像に、全てのシーン画像に対応して取得された注視点に対応する対応注視点が記録されているので、全てのシーン画像において、全ての対応注視点を表示することにより、最初の視野から最後の視野まで、全ての注視点を総合したヒートマップを得ることが可能となる。
また、本発明では、視線分析装置の対応注視点算出手段が、時系列情報と対応付けられた各シーン画像に、当該シーン画像以前のシーン画像の注視点に対応する対応注視点のみを記録することを特徴とする。本発明によれば、時系列情報と対応付けられた各シーン画像に、当該シーン画像以前のシーン画像の注視点に対応する対応注視点のみが記録されているので、対応するシーン画像の時点までにおける対応注視点のみを表示することにより、時系列に即したヒートマップを得ることが可能となる。
本発明によれば、対象物を閲覧者の視野と対比してどのように見えるかを確認するのに適したヒートマップを作成することが可能となるという効果を有する。
<1.システム構成>
以下、本発明の好適な実施形態について図面を参照して詳細に説明する。図1は、本発明の一実施形態に係る視線分析システムの概要を示す外観図である。図1において、100は視線分析装置、200は視線追跡装置、300は対象物である。図1においては、対象物としてチラシ印刷物を用いた例を示している。
以下、本発明の好適な実施形態について図面を参照して詳細に説明する。図1は、本発明の一実施形態に係る視線分析システムの概要を示す外観図である。図1において、100は視線分析装置、200は視線追跡装置、300は対象物である。図1においては、対象物としてチラシ印刷物を用いた例を示している。
視線追跡装置200は、付属のカメラによりメガネ型の視線追跡装置200を掛けた人物の視点に近い位置から対象物300を撮像してシーン画像を取得する。撮像するタイミングと同期して、赤外線センサにより視点位置を取得し、シーン画像上における注視点を取得する。シーン画像と各シーン画像に対応する注視点は、送信その他の手段によりデータとして視線分析装置100に渡される。視線分析装置100は、対象物300の基準画像を記憶しておき、視線追跡装置200から取得した各シーン画像の特徴点と、基準画像の特徴点に基づいて、シーン画像と基準画像の座標変換行列を算出し、座標変換行列を用いて各シーン画像の注視点を基準画像上の対応点に変換した後、座標変換行列を用いて逆変換を行い、シーン画像上に対応点に対応する対応注視点を記録する。
図2(a)は、視線分析装置100のハードウェア構成図である。視線分析装置100は、汎用のコンピュータに専用のプログラムを組み込むことにより実現することができる。図2に示すように、視線分析装置100は、CPU(Central Processing Unit)10aと、メインメモリであるRAM(Random Access Memory)10bと、CPU10aが実行するプログラムやデータを記憶するためのハードディスク、フラッシュメモリ等の記憶装置10cと、キーボード、マウス等の指示入力部10dと、視線追跡装置200やデータ記憶媒体等の外部装置とデータ通信するためのデータ入出力I/F(インタフェース)10eと、液晶ディスプレイ等の表示デバイスである表示部10fを備え、互いにバスを介して接続されている。記憶装置10cには、基準画像と、上記特許文献1、非特許文献1〜7に記載の手法により基準画像から抽出された特徴点である基準画像特徴点が記憶されている。
図2(b)は、視線追跡装置200のハードウェア構成図である。赤外線光源201は、赤外線207を被験者の眼球301(角膜(瞳孔)や強膜(白目))に照射する。赤外線センサ202は、眼球301から反射された赤外線208(反射光)を受光する。シーンカメラ203は、二次元撮像素子である。シーンカメラ203は、被験者の視野ほぼ同等の光景(注視点を中心としたチラシを含む画像)をシーン画像として撮像する。図2(b)に示した視線追跡装置200は、特許文献1に示した公知のものを用いることができる。
処理部204は、演算処理回路と、記憶回路と、コネクターと、二次電池とを備える。処理部204は、たとえば、眼球301の角膜と強膜の反射率の違いを利用した強膜反射法(リンバスト・トラッキング法。特許文献2による)に基づいて、受光した反射光208を用いて視線を計測して、視線の方向を推定する。そして、特許文献1に示したように推定した視線の方向と三次元空間における印刷物の位置を利用して二次元平面であるシーン画像上における注視点座標を求める。また、処理部204は、求められた注視点と撮像したシーン画像とを、通信接続した視線分析装置100に送信する。なお、処理部204は、強膜反射法の代わりに、瞳孔−角膜反射法や、角膜反射法、ダブルプリキニエ法などを用いることも可能である。コネクターは、視線追跡装置200と視線分析装置100とに通信接続する。二次電池は、処理部自身の各回路と、赤外線光源201と赤外線センサ202とシーンカメラ203とに、電力を供給する。処理部204は、記憶回路に記憶されたプログラムに従って演算処理回路が上記各処理を実行する。
<2.処理動作>
次に、図3に示したフローチャートを用いて、図1、2に示した視線分析システムの処理動作を説明する。まず、シーン画像および注視点を取得する(ステップS11)。具体的には、まず、作業者は、メガネ型の視線追跡装置200を起動するとともに、視線追跡装置200をメガネのように掛けて、対象物300の閲覧を開始する。視線追跡装置200が起動されると、シーンカメラ203が撮像を開始し、赤外線光源201が発光を開始し、赤外線センサ202も受光を開始する。シーンカメラ203、赤外線光源201、赤外線センサ202は互いに同期しており、所定時間間隔で撮像画像および注視点を取得する。所定間隔としては適宜設定できるが、例えば、1秒間隔で設定することができる。また、撮影枚数も任意に設定することができる。本実施形態では、1秒間隔でシーン画像を10枚撮影したものとして説明する。視線追跡装置200の処理部204は、取得されたシーン画像と注視点を順次、図示しないデータ通信部を介して視線分析装置100に送信する。視線分析装置100では、データ入出力I/F10eを介してシーン画像と注視点を受信する。
次に、図3に示したフローチャートを用いて、図1、2に示した視線分析システムの処理動作を説明する。まず、シーン画像および注視点を取得する(ステップS11)。具体的には、まず、作業者は、メガネ型の視線追跡装置200を起動するとともに、視線追跡装置200をメガネのように掛けて、対象物300の閲覧を開始する。視線追跡装置200が起動されると、シーンカメラ203が撮像を開始し、赤外線光源201が発光を開始し、赤外線センサ202も受光を開始する。シーンカメラ203、赤外線光源201、赤外線センサ202は互いに同期しており、所定時間間隔で撮像画像および注視点を取得する。所定間隔としては適宜設定できるが、例えば、1秒間隔で設定することができる。また、撮影枚数も任意に設定することができる。本実施形態では、1秒間隔でシーン画像を10枚撮影したものとして説明する。視線追跡装置200の処理部204は、取得されたシーン画像と注視点を順次、図示しないデータ通信部を介して視線分析装置100に送信する。視線分析装置100では、データ入出力I/F10eを介してシーン画像と注視点を受信する。
図4は、シーン画像Cと注視点Eの関係を示す図である。上述のように、10枚のシーン画像が撮像された場合、視線分析装置100は10枚のシーン画像C1〜C10を受信する。そして、視線分析装置100は、各シーン画像C1〜C10について、それぞれ対応する注視点E1〜E10を抽出する。図4において、矩形状の枠で示したシーン画像C1〜C10内の“・(黒丸、ドット)”は、注視点E1〜E10の位置を示している。なお、図4の例では、シーン画像C1〜C10として矩形状の枠のみを示しているが、実際には、図5に示すように、対象物300の少なくとも一部(好ましくは全部)が撮像されて記録された状態となる。図5(a)は、1枚のシーン画像の一例を示しており、図5(b)はシーン画像上に注視点がマッピングされた状態を示している。
次に、視線分析装置100が、シーン画像特徴点の抽出を行う(ステップS12)。具体的には、シーン画像を解析し、シーン画像の特徴を表現した点となるシーン画像特徴点を抽出する。シーン画像からのシーン画像特徴点の抽出は、公知の様々な手法により行うことができる。例えば、非特許文献1に記載のSIFTアルゴリズム、非特許文献2に記載のSURF(SpeededUpRobustFeatures)アルゴリズム、非特許文献6に記載のRandomized Treeアルゴリズム、非特許文献7に記載のFernsアルゴリズムを採用することができる。すなわち、上記アルゴリズムを実現するプログラムをCPU10aが実行することによりシーン画像からシーン画像特徴点の抽出を行う。本実施形態では、非特許文献1に記載のSIFTアルゴリズムに対応するプログラムをCPU10aが実行することにより、シーン画像特徴点が、シーン画像C1〜C10からそれぞれ抽出されることになる。図5(c)は、シーン画像C上から抽出された1つの特徴点Qを示している。
次に、基準画像特徴点を取得する(ステップS13)。具体的には、基準画像から事前に抽出され、記憶されていた基準画像特徴点を記憶装置10cから取得する。続いて、座標変換行列の作成を行う(ステップS14)。具体的には、特許文献1等に記載の公知の手法を用い、基準画像と各シーン画像の対応する特徴点を所定数ずつ抽出して対応付けを行う。図6は、基準画像特徴点Pとシーン画像特徴点Qを対応付けた結果を示している。上記特許文献1に記載の手法を用いることにより、図6に示すように特徴点同士の対応付けが行われる。そして、基準画像特徴点(X,Y)、シーン画像特徴点(x,y)を図7(a)に示した所定の変換式に代入し、座標変換行列を求める。本実施形態では、座標変換行列として、3次元平面のある平面から他の平面へ投影するためのホモグラフィ行列Hを利用している。図7は、ホモグラフィ行列Hを利用した場合の、シーン画像の注視点から基準画像の対応点への変換式を示す図である。図7(b)に座標変換行列として示したホモグラフィ行列Hのうち、要素h33はスケールファクタであるため、h33=1として正規化すると、残りの8個の要素を求めることにより、座標変換行列が求まる。したがって、対応する基準画像特徴点(X,Y)、シーン画像特徴点(x,y)として、それぞれ4個以上代入することにより、要素h11、h12、h13、h21、h22、h23、h31、h32を求めることが可能となる。
次に、作成した座標変換行列を用いて、各シーン画像に対応する注視点の座標を基準画像上の座標に変換し、対応点を算出する(ステップS15)。具体的には、ステップS14において作成された座標変換行列を用いてシーン画像上の注視点を基準画像上の対応点に座標変換する。図8は、1枚のシーン画像Cの注視点Eを基準画像K上の対応点Tに座標変換する様子を示す図である。複数のシーン画像Cの各注視点を基準画像上に座標変換することにより、基準画像上に複数の対応点を求めることができる。
図9は、基準画像Kと対応点Tの関係を示す図である。上述のように、基準画像Kは、対象物300の正面からの状態を記録した画像であり、1枚のみである。視線分析装置100は、注視点E1〜E10を、それぞれ各シーン画像C1〜C10に対応する座標変換行列を用いて、座標変換し、変換された座標を対応点T1〜T10とする。図9において、矩形状の枠で示した基準画像K内の“・(黒丸、ドット)”は、対応点T1〜T10の位置を示している。なお、図9の例では、基準画像Kとして矩形状の枠のみを示しているが、実際には、対象物300の正面からの像が記録された状態となる。
図9の例では、1枚の基準画像上に、各シーン画像に対応する対応点Tが計10個得られる。なお、図9の例では、対応点が全て互いに異なる座標(画素)となる場合、すなわち1つの座標(画素)に複数の対応点が重ならない場合を示している。複数の対応点が同一の座標(画素)に重なる場合には、1つの座標(画素)に対応する対応点の数をカウントして記録する。
各シーン画像に対応する対応点が得られたら、上記座標変換行列を用いて逆変換を行うことにより、基準画像上の対応点を各シーン画像の対応注視点に変換し、シーン画像ヒートマップを作成する(ステップS16)。具体的には、基準画像K上の全ての対応点T1〜T10を、各シーン画像C1〜C10それぞれに対応する座標変換行列を用いて、対応注視点F1〜F10に変換する。
シーン画像ヒートマップの作成には、TypeAとTypeBの二通りあり、作成の際に選択可能となっている。TypeAは、各シーン画像に全ての対応注視点を記録したものである。図10は、TypeAの場合のシーン画像Cと対応注視点Fの関係を示す図である。図10において、矩形状の枠で示したシーン画像C1〜C10内の“・(黒丸、ドット)”は、対応注視点F1〜F10の位置を示している。シーン画像C1〜C10自体は、図4に示したシーン画像C1〜C10と同じものである。図10に示すように、各シーン画像に、10個の対応注視点F1〜F10が記録されることになる。
また、同じ数字の注視点と対応注視点は、同一座標となる。すなわち、シーン画像C1の対応注視点F1は、シーン画像C1の注視点E1と同一座標であり、シーン画像C2の対応注視点F2は、シーン画像C2の注視点E2と同一座標である。これは、例えば、シーン画像C1上の対応注視点F1の場合、シーン画像C1上の注視点E1を、シーン画像C1に対応する座標変換行列で座標変換して対応点T1を得て、シーン画像C1に対応する座標変換行列で座標逆変換して対応注視点F1を得るため当然である。
しかし、例えば、シーン画像C1上の対応注視点F2の場合、シーン画像C2上の注視点E2を、シーン画像C2に対応する座標変換行列で座標変換して、対応点T2を得て、シーン画像C1に対応する座標変換行列で座標逆変換して、対応注視点F2を得るため、シーン画像C1における対応注視点F2は、シーン画像C2における注視点E2とは異なる座標となる。
したがって、同じ数字であっても、異なるシーン画像上における対応注視点の座標は異なったものとなる。例えば、対応注視点F1は、シーン画像C1〜C10においてそれぞれ異なった座標値をもつ。
図10の例では、1枚のシーン画像C上に、10個の対応注視点F1〜F10が得られる。続いて、各シーン画像Cと対応注視点Fを利用してヒートマップを作成する。具体的には、各シーン画像Cの座標を所定の領域に分割したクラスタリングの実行や、ガウシアンフィルタ等を用いて対応注視点以外に着色領域等を広げる等の加工処理をすることにより、ヒートマップを作成する。対応注視点等の特定の点の座標(画素)を用いてヒートマップを作成する手法としては、公知の様々な手法を用いることができる。ここでは、シーン画像上に形成したヒートマップを特にシーン画像ヒートマップと呼ぶことにする。シーン画像ヒートマップを用いることにより、対象物300上のどの点が被験者により注視されていたかを、被験者の視野(厳密には、被験者の視野に近いカメラの撮像範囲)を基準として、把握することができる。TypeAの場合、全てのシーン画像において、全ての対応注視点を表示することにより、最初の視野から最後の視野まで、全ての注視点を総合したヒートマップを得ることが可能となる。
TypeBは、時系列に記録された対応注視点について、対応するシーン画像以前に記録された注視点に対応する対応注視点のみを記録したものである。図11は、TypeBの場合のシーン画像Cと対応注視点Fの関係を示す図である。図11において、矩形状の枠で示したシーン画像C1〜C10内の“・(黒丸、ドット)”は、対応注視点F1〜F10の位置を示している。シーン画像C1〜C10自体は、図4に示したシーン画像C1〜C10と同じものである。図11に示すように、シーン画像に応じて、最小1個の対応注視点から、最大10個の対応注視点が記録されている。例えば、シーン画像C1には、対応注視点F1の1個のみが記録されており、シーン画像C10には、対応注視点F1〜F10の10個が記録されている。また、図10に示したTypeAの場合と同様、同じ数字の注視点と対応注視点は、同一座標となる。
図11の例においても、図10に示した例と同様、各シーン画像Cの座標を所定の領域に分割したクラスタリングの実行や、ガウシアンフィルタ等を用いて対応注視点以外に着色領域等を広げる等の加工処理をすることにより、ヒートマップを作成する。TypeBのシーン画像ヒートマップを用いた場合も、TypeAの場合と同様、対象物300上のどの点が被験者により注視されていたかを、被験者の視野(厳密には、被験者の視野に近いカメラの撮像範囲)を基準として、把握することができる。TypeBの場合、対応するシーン画像の時点までにおける対応注視点のみを表示することにより、時系列に即したヒートマップを得ることが可能となる。
本実施形態に係る視線分析システムにより作成されたシーン画像ヒートマップの一例を図12に示す。図12に示したシーン画像ヒートマップは、複数のシーン画像のうち、ある一つのシーン画像に対応するものである。ある領域に対応注視点が多数含まれる場合は、熱を表現した赤系統の色になり、対応注視点が含まれる数が少なくなる程、黄色、緑色と変化していく。図12の例では、シーン画像中に撮像された対象であるチラシ上に熱(対応注視点の数)に対応する色が上書きされた状態となっている。
10a・・・CPU(Central Processing Unit)
10b・・・RAM(Random Access Memory)
10c・・・記憶装置
10d・・・指示入力部
10e・・・データ入出力I/F
10f・・・表示部
100・・・視線分析装置
200・・・視線追跡装置
201・・・赤外線光源
202・・・赤外線センサ
203・・・シーンカメラ
204・・・処理部
207・・・赤外線
208・・・赤外線(反射光)
300・・・対象物
10b・・・RAM(Random Access Memory)
10c・・・記憶装置
10d・・・指示入力部
10e・・・データ入出力I/F
10f・・・表示部
100・・・視線分析装置
200・・・視線追跡装置
201・・・赤外線光源
202・・・赤外線センサ
203・・・シーンカメラ
204・・・処理部
207・・・赤外線
208・・・赤外線(反射光)
300・・・対象物
Claims (5)
- 対象物を撮像するカメラを備え、被験者の注視点を取得する視線追跡装置と、当該視線追跡装置とデータ通信可能な視線分析装置を有するシステムであって、
前記視線分析装置は、
前記カメラにより撮像されたシーン画像と、前記シーン画像上における注視点を取得するシーン画像取得手段と、
前記シーン画像から複数のシーン画像特徴点を抽出するシーン画像特徴点抽出手段と、
基準画像における基準画像特徴点を複数取得する基準画像特徴点取得手段と、
前記シーン画像特徴点と基準画像特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各シーン画像ごとに作成する変換行列作成手段と、
前記作成された座標変換行列を利用して、複数の前記シーン画像のそれぞれについて、前記シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出する対応点算出手段と、
前記基準画像上の対応点を、前記シーン画像ごとに作成された座標変換行列を用いて前記各シーン画像上の座標に逆変換し、対応注視点を算出する対応注視点算出手段と、
を有することを特徴とする視線分析システム。 - 対象物を撮像するカメラを備え、当該カメラにより撮像されたシーン画像とシーン画像上の被験者の注視点を取得する視線追跡装置と、データ通信可能に接続された視線分析装置であって、
前記カメラにより撮像されたシーン画像と、前記シーン画像上における注視点を取得するシーン画像取得手段と、
前記シーン画像から複数のシーン画像特徴点を抽出するシーン画像特徴点抽出手段と、
基準画像における基準画像特徴点を複数取得する基準画像特徴点取得手段と、
前記シーン画像特徴点と基準画像特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各シーン画像ごとに作成する変換行列作成手段と、
前記作成された座標変換行列を利用して、複数の前記シーン画像のそれぞれについて、前記シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出する対応点算出手段と、
前記基準画像上の対応点を、前記シーン画像ごとに作成された座標変換行列を用いて前記各シーン画像上の座標に逆変換し、対応注視点を算出する対応注視点算出手段と、
を有することを特徴とする視線分析装置。 - 前記対応注視点算出手段は、時系列情報と対応付けられた各シーン画像に、全てのシーン画像に対応して取得された注視点に対応する対応注視点を記録することを特徴とする請求項2に記載の視線分析装置。
- 前記対応注視点算出手段は、時系列情報と対応付けられた各シーン画像に、当該シーン画像以前のシーン画像の注視点に対応する対応注視点のみを記録することを特徴とする請求項2に記載の視線分析装置。
- 請求項2から請求項4のいずれか一項に記載の視線分析装置として、コンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014105648A JP2015219892A (ja) | 2014-05-21 | 2014-05-21 | 視線分析システムおよび視線分析装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014105648A JP2015219892A (ja) | 2014-05-21 | 2014-05-21 | 視線分析システムおよび視線分析装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015219892A true JP2015219892A (ja) | 2015-12-07 |
Family
ID=54779166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014105648A Pending JP2015219892A (ja) | 2014-05-21 | 2014-05-21 | 視線分析システムおよび視線分析装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015219892A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102734A (zh) * | 2018-09-04 | 2018-12-28 | 北京精英智通科技股份有限公司 | 模拟驾驶训练***及方法 |
CN110532984A (zh) * | 2019-09-02 | 2019-12-03 | 北京旷视科技有限公司 | 关键点检测方法、手势识别方法、装置及*** |
CN110638471A (zh) * | 2019-08-30 | 2020-01-03 | 杭州海飘科技有限公司 | 一种基于眼动仪视觉感知的体感技术方法 |
JP2020121713A (ja) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョンStradvision,Inc. | 人の状態識別のためのイメージ分析により検出された乗客のポイントを利用して車両占有を検出する方法及び装置 |
CN112651270A (zh) * | 2019-10-12 | 2021-04-13 | 北京七鑫易维信息技术有限公司 | 一种注视信息确定方法、装置、终端设备及展示对象 |
US20220122290A1 (en) * | 2020-10-16 | 2022-04-21 | Hitachi, Ltd. | Visual Line Analysis Apparatus, Visual Line Analysis Method, and Visual Line Analysis System |
US11468657B2 (en) | 2019-09-12 | 2022-10-11 | Fujitsu Limited | Storage medium, information processing apparatus, and line-of-sight information processing method |
CN116052136A (zh) * | 2023-03-27 | 2023-05-02 | 中国科学技术大学 | 分心检测方法、车载控制器和计算机存储介质 |
CN112651270B (zh) * | 2019-10-12 | 2024-08-02 | 北京七鑫易维信息技术有限公司 | 一种注视信息确定方法、装置、终端设备及展示对象 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013081762A (ja) * | 2011-09-26 | 2013-05-09 | Dainippon Printing Co Ltd | 視線分析装置、視線計測システム、方法、プログラム、記録媒体 |
JP2014509535A (ja) * | 2011-03-18 | 2014-04-21 | ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング | 注視点マッピング方法および装置 |
JP2015528359A (ja) * | 2012-09-17 | 2015-09-28 | ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング | 三次元物体上の注視点決定方法及び装置 |
-
2014
- 2014-05-21 JP JP2014105648A patent/JP2015219892A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014509535A (ja) * | 2011-03-18 | 2014-04-21 | ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング | 注視点マッピング方法および装置 |
JP2013081762A (ja) * | 2011-09-26 | 2013-05-09 | Dainippon Printing Co Ltd | 視線分析装置、視線計測システム、方法、プログラム、記録媒体 |
JP2015528359A (ja) * | 2012-09-17 | 2015-09-28 | ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング | 三次元物体上の注視点決定方法及び装置 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102734A (zh) * | 2018-09-04 | 2018-12-28 | 北京精英智通科技股份有限公司 | 模拟驾驶训练***及方法 |
JP2020121713A (ja) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョンStradvision,Inc. | 人の状態識別のためのイメージ分析により検出された乗客のポイントを利用して車両占有を検出する方法及び装置 |
CN110638471A (zh) * | 2019-08-30 | 2020-01-03 | 杭州海飘科技有限公司 | 一种基于眼动仪视觉感知的体感技术方法 |
CN110532984A (zh) * | 2019-09-02 | 2019-12-03 | 北京旷视科技有限公司 | 关键点检测方法、手势识别方法、装置及*** |
CN110532984B (zh) * | 2019-09-02 | 2022-10-11 | 北京旷视科技有限公司 | 关键点检测方法、手势识别方法、装置及*** |
US11468657B2 (en) | 2019-09-12 | 2022-10-11 | Fujitsu Limited | Storage medium, information processing apparatus, and line-of-sight information processing method |
CN112651270A (zh) * | 2019-10-12 | 2021-04-13 | 北京七鑫易维信息技术有限公司 | 一种注视信息确定方法、装置、终端设备及展示对象 |
CN112651270B (zh) * | 2019-10-12 | 2024-08-02 | 北京七鑫易维信息技术有限公司 | 一种注视信息确定方法、装置、终端设备及展示对象 |
US20220122290A1 (en) * | 2020-10-16 | 2022-04-21 | Hitachi, Ltd. | Visual Line Analysis Apparatus, Visual Line Analysis Method, and Visual Line Analysis System |
JP7431714B2 (ja) | 2020-10-16 | 2024-02-15 | 株式会社日立製作所 | 視線分析装置と視線分析方法及び視線分析システム |
CN116052136A (zh) * | 2023-03-27 | 2023-05-02 | 中国科学技术大学 | 分心检测方法、车载控制器和计算机存储介质 |
CN116052136B (zh) * | 2023-03-27 | 2023-09-05 | 中国科学技术大学 | 分心检测方法、车载控制器和计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015219892A (ja) | 視線分析システムおよび視線分析装置 | |
Zhang et al. | Random Gabor based templates for facial expression recognition in images with facial occlusion | |
US20190392587A1 (en) | System for predicting articulated object feature location | |
JP6389888B2 (ja) | 鏡における仮想化の装置、システム、及び方法 | |
US9075453B2 (en) | Human eye controlled computer mouse interface | |
CN106372629B (zh) | 一种活体检测方法和装置 | |
JP6094106B2 (ja) | 視線分析装置、視線計測システム、方法、プログラム、記録媒体 | |
JP2013101633A5 (ja) | プログラム及びメイクアップシミュレーション装置 | |
US20130243332A1 (en) | Method and System for Estimating an Object of Interest | |
CN112101123B (zh) | 一种注意力检测方法及装置 | |
CN111488775B (zh) | 注视度判断装置及方法 | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
WO2017084319A1 (zh) | 手势识别方法及虚拟现实显示输出设备 | |
JP2021177399A (ja) | 情報処理装置、制御方法、及びプログラム | |
CN108388889B (zh) | 用于分析人脸图像的方法和装置 | |
US20160110909A1 (en) | Method and apparatus for creating texture map and method of creating database | |
Sengan et al. | Cost-effective and efficient 3D human model creation and re-identification application for human digital twins | |
US11106949B2 (en) | Action classification based on manipulated object movement | |
JP6311461B2 (ja) | 視線分析システムおよび視線分析装置 | |
Saxena et al. | Towards efficient calibration for webcam eye-tracking in online experiments | |
CN102783174B (zh) | 图像处理设备、内容传递***、图像处理方法和程序 | |
WO2015079054A1 (en) | Estimating gaze from un-calibrated eye measurement points | |
Ghorbel et al. | 3D real-time human action recognition using a spline interpolation approach | |
US9501710B2 (en) | Systems, methods, and media for identifying object characteristics based on fixation points | |
CN113450448A (zh) | 图像的处理方法、装置和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181009 |