JP2018183249A - Visual line detection device, visual line detection program, and visual line detection method - Google Patents

Visual line detection device, visual line detection program, and visual line detection method Download PDF

Info

Publication number
JP2018183249A
JP2018183249A JP2017085072A JP2017085072A JP2018183249A JP 2018183249 A JP2018183249 A JP 2018183249A JP 2017085072 A JP2017085072 A JP 2017085072A JP 2017085072 A JP2017085072 A JP 2017085072A JP 2018183249 A JP2018183249 A JP 2018183249A
Authority
JP
Japan
Prior art keywords
line
sight
setting
unit
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017085072A
Other languages
Japanese (ja)
Other versions
JP6908339B2 (en
Inventor
修平 林
Shuhei Hayashi
修平 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2017085072A priority Critical patent/JP6908339B2/en
Publication of JP2018183249A publication Critical patent/JP2018183249A/en
Application granted granted Critical
Publication of JP6908339B2 publication Critical patent/JP6908339B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a visual line detection device capable of accurately performing gaze determination for each user.SOLUTION: A vehicle-mounted device 100 includes: an object guiding part 160 for guiding an object to be gazed at such as a rear view mirror, side mirrors and a display part; and a visual line detection sensor 170 for detecting a visual line of a driver, etc. On the object guided by the object guiding part 160, the vehicle-mounted device 100 automatically sets a threshold to stipulate a range for performing gaze determination for the object based on a visual line direction detected by the visual line detection sensor 170, and performs gaze determination using the set threshold.SELECTED DRAWING: Figure 1

Description

本発明は、人物の視線検出に関し、特に、自動車等の移動体における搭乗者の視線検出に関する。   The present invention relates to human gaze detection, and more particularly to passenger gaze detection in a moving body such as an automobile.

今日、人物の視線を検知するための視線検知センサは広く利用されている。例えば、運転監視システムでは、視線検知センサにより運転者がどの方向を見ていたかを判定し、もし、脇見運転などしている場合には警報を発している。運転者が特定の対象物を見ていたか否かの注視判定は、仮想平面座標を構築し、その仮想平面上のどの位置に視線データが滞留したかを検知し、その検知された座標位置との関係からどの対象物を見ていたかを判定する。図11に、仮想平面座標を利用した視線検知方法の一例を示す。同図に示すように、(1)仮想平面10の法線ベクトルVsを求め、(2)仮想平面10の1点とユーザーUの瞳孔(3次元座標)を通る3次元ベクトルVcを求め、(3)3次元ベクトルVcと仮想平面10を結ぶベクトルの係数tを求め、(4)仮想平面10上の3次元座標Fを求め、3次元座標Fから対象物を特定する。   Today, gaze detection sensors for detecting the gaze of a person are widely used. For example, in a driving monitoring system, it is determined which direction the driver is looking at by a line-of-sight detection sensor, and an alarm is issued if the driver is looking aside. The gaze determination as to whether or not the driver was looking at a specific object is made by constructing a virtual plane coordinate, detecting at which position on the virtual plane the line-of-sight data stays, and detecting the detected coordinate position and It is determined which object was viewed from the relationship. FIG. 11 shows an example of a line-of-sight detection method using virtual plane coordinates. As shown in the figure, (1) a normal vector Vs of the virtual plane 10 is obtained, (2) a three-dimensional vector Vc passing through one point on the virtual plane 10 and the pupil (three-dimensional coordinates) of the user U is obtained, 3) A coefficient t of a vector connecting the three-dimensional vector Vc and the virtual plane 10 is obtained. (4) A three-dimensional coordinate F on the virtual plane 10 is obtained, and an object is specified from the three-dimensional coordinate F.

視線検知に関して、例えば、特許文献1には、車両内に備えられた装備品への視線方向を基準にキャリブレーションを行う技術が開示されている。特許文献2には、眼球からの反射光を利用して、注視点の計測を行う技術が開示されている。   With regard to line-of-sight detection, for example, Patent Document 1 discloses a technique for performing calibration based on the line-of-sight direction of equipment provided in a vehicle. Patent Document 2 discloses a technique for measuring a gazing point using reflected light from an eyeball.

特開2010−30361号公報JP 2010-30361 A 特開平7−35543号公報JP-A-7-35543

図12は、仮想平面を利用した視線検知の一例を説明する図である。運転者が、バックミラー20、サイドミラー22、CID(center Information Display)24の各対象物を注視したか否かの判定は、仮想平面上のどの位置に視線方向が滞留したかを検知することにより行われる。このため、仮想平面上には領域を規定する閾値が設定されるが、通常、この閾値は、開発者が手動で座席からミラー20、22やCID24までの距離を測定し、それに基づき一律に決定している。   FIG. 12 is a diagram illustrating an example of line-of-sight detection using a virtual plane. The determination as to whether or not the driver has watched each object of the rearview mirror 20, the side mirror 22, and the CID (center information display) 24 is to detect at which position on the virtual plane the line-of-sight direction stays. Is done. For this reason, a threshold value that defines the region is set on the virtual plane. Normally, this threshold value is determined uniformly by the developer by manually measuring the distance from the seat to the mirrors 20, 22 and CID24. doing.

しかしながら、閾値を一律に決定すると、ユーザーの顔の位置が少しでも変化してしまうと、閾値が不正確となり、対象物の注視判定を正確に行うことができなくなる。また、人によっても視線方向にはバラツキがある。図13は、被験者1から被験者4に画面の中心点を見たときの視線データであり、3つの白丸が各被験者の視線位置を表している。同図からも分かるように、同一点を注視していても、人によって視線方向にばらつきが発生してしまう。このような要因により、図12に示すように、ユーザーAにとっての最適な閾値(破線)Qaと、ユーザーBにとっての最適な閾値(点線)Qbとは必ずしも一致しない。さらに、視線検知センサの精度が悪いと、大きな誤差を含んだ視線データが取得されるため、閾値を正確に規定しても、結果的に正確な注視判定をすることが難しくなる。   However, if the threshold value is uniformly determined, if the position of the user's face changes even a little, the threshold value becomes inaccurate, and the gaze determination of the target cannot be performed accurately. In addition, there are variations in the line of sight depending on the person. FIG. 13 shows line-of-sight data when the subject 1 to the subject 4 see the center point of the screen, and three white circles represent the line-of-sight position of each subject. As can be seen from the figure, even if the same point is watched, variation in the line-of-sight direction occurs depending on the person. Due to such factors, as shown in FIG. 12, the optimum threshold value (dashed line) Qa for the user A and the optimum threshold value (dotted line) Qb for the user B do not always match. In addition, when the accuracy of the gaze detection sensor is poor, gaze data including a large error is acquired. Therefore, even if the threshold value is accurately defined, it is difficult to make an accurate gaze determination as a result.

本発明は、このような従来の課題を解決するものであり、ユーザー毎に注視判定を正確に行うことができる視線検知装置、視線検知プログラムおよび視線検知方法を提供することを目的とする。   The present invention solves such a conventional problem, and an object of the present invention is to provide a gaze detection device, a gaze detection program, and a gaze detection method capable of accurately performing gaze determination for each user.

本発明に係る視線検知装置は、注視の対象となる対象物を案内する案内手段と、人物の視線方向を検知する検知手段と、前記案内手段により案内された対象物に関し、前記検知手段により検知された視線方向に基づき対象物の注視判定を行うための範囲を規定する閾値を設定する設定手段と、前記検知手段により検知された視線方向と前記設定された閾値とを比較し、対象物が注視されているか否かを判定する判定手段とを含む。   The gaze detection device according to the present invention relates to a guide means for guiding an object to be watched, a detection means for detecting a gaze direction of a person, and an object guided by the guidance means. A setting unit that sets a threshold value that defines a range for performing gaze determination of the object based on the line-of-sight direction, and the line-of-sight direction detected by the detection unit is compared with the set threshold value, Determination means for determining whether or not the user is gazing.

好ましくは前記設定手段は、仮想平面上の座標領域を規定する閾値を設定する。好ましくは前記設定手段は、複数の視線方向に基づき仮想平面上のX方向の最大および最小の最外点、Y方向の最大および最小の最外点を抽出し、前記最外点に基づき閾値を設定する。好ましくは前記設定手段は、左右の視線方向を一対の視線方向とし、一対の視線方向の重心点に基づき閾値を設定する。好ましくは前記設定手段は、案内された対象物の外形に近似する外形の閾値を設定する。好ましくは前記設定手段は、前記案内手段により案内が行われたときから一定期間、または案内が行われている期間中に複数の視線方向を取得する。好ましくは前記案内手段は、対象物の取り付けられた発光素子を含み、発光素子を点灯または点滅させることで案内を行う。好ましくは前記発光素子は、対象物の外周に沿うように複数配置され、前記案内手段は、複数の発光素子を点灯または点滅させることで案内を行う。好ましくは前記案内手段は、複数の発光素子を一定方向に順次点灯させる。好ましくは対象物が表示手段であるとき、前記案内手段は、前記表示手段の外周が点灯されるかの如く前記表示手段に画像を表示させる。好ましくは前記案内手段は、対象物についての案内を音声により行う。好ましくは前記設定手段は、ユーザー入力に基づき閾値を設定または更新する。   Preferably, the setting means sets a threshold value that defines a coordinate area on a virtual plane. Preferably, the setting means extracts the maximum and minimum outermost points in the X direction and the maximum and minimum outermost points in the Y direction on the virtual plane based on a plurality of line-of-sight directions, and sets a threshold based on the outermost points. Set. Preferably, the setting unit sets the threshold value based on a barycentric point in the pair of line-of-sight directions, with the left and right line-of-sight directions as a pair of line-of-sight directions. Preferably, the setting means sets a threshold value of the outer shape that approximates the outer shape of the guided object. Preferably, the setting means acquires a plurality of line-of-sight directions for a certain period from when guidance is provided by the guidance means or during a period when guidance is being provided. Preferably, the guide means includes a light emitting element to which an object is attached, and performs guidance by turning on or blinking the light emitting element. Preferably, a plurality of the light emitting elements are arranged along the outer periphery of the object, and the guiding means performs guidance by turning on or blinking the plurality of light emitting elements. Preferably, the guide means sequentially turns on the plurality of light emitting elements in a certain direction. Preferably, when the object is a display means, the guide means causes the display means to display an image as if the outer periphery of the display means is lit. Preferably, the guidance means performs guidance for an object by voice. Preferably, the setting means sets or updates the threshold value based on a user input.

本発明に係る視線検知プログラムは、人物の視線方向を検知する検知手段を備えた視線検知装置が実行するものであって、注視の対象となる対象物を案内するステップと、前記案内された対象物に関し、前記検知手段により検知された視線方向に基づき対象物の注視判定を行うための範囲を規定する閾値を設定するステップと、前記検知手段により検知された視線方向と前記設定された閾値とを比較し、対象物が注視されているか否かを判定するステップとを含む。   A gaze detection program according to the present invention is executed by a gaze detection apparatus including a detection unit that detects a gaze direction of a person, the step of guiding a target object to be watched, and the guided target A step of setting a threshold value that defines a range for performing gaze determination of an object based on the line-of-sight direction detected by the detection unit, and the line-of-sight direction detected by the detection unit and the set threshold value And determining whether or not the object is being watched.

好ましくは前記設定するステップは、電源投入時に行われる。好ましくは前記設定するステップは、ユーザー入力に応答して行われる。好ましくは前記設定するステップは、複数の視線方向に基づき仮想平面上のX方向の最大および最小の最外点、Y方向の最大および最小の最外点を抽出し、前記最外点に基づき閾値を設定する。好ましくは前記設定するステップは、左右の視線方向を一対の視線方向とし、一対の視線方向の重心点に基づき閾値を設定する。   Preferably, the setting step is performed when power is turned on. Preferably, the setting step is performed in response to user input. Preferably, the setting step extracts the maximum and minimum outermost points in the X direction and the maximum and minimum outermost points in the Y direction on the virtual plane based on a plurality of line-of-sight directions, and sets a threshold based on the outermost points. Set. Preferably, in the setting step, the left and right line-of-sight directions are set as a pair of line-of-sight directions, and a threshold is set based on a center of gravity point in the pair of line-of-sight directions.

本発明に係る視線検知方法は、人物の視線方向を検知する検知手段を備えた視線検知装置におけるものであって、注視の対象となる対象物を案内するステップと、前記案内された対象物に関し、前記検知手段により検知された視線方向に基づき対象物の注視判定を行うための範囲を規定する閾値を設定するステップと、前記検知手段により検知された視線方向と前記設定された閾値とを比較し、対象物が注視されているか否かを判定するステップとを含む。   The line-of-sight detection method according to the present invention relates to a line-of-sight detection apparatus including detection means for detecting the direction of the line of sight of a person, the step of guiding an object to be watched, and the guided object The step of setting a threshold value that defines a range for performing gaze determination of an object based on the line-of-sight direction detected by the detection unit is compared with the line-of-sight direction detected by the detection unit and the set threshold value And determining whether or not the object is being watched.

本発明によれば、案内された対象物に関し、検知手段により検知された視線方向に基づき注視判定を行うための範囲を規定する閾値を設定するようにしたので、人物の顔の位置や視線方向のばらつき等の個人差があっても、個人に最適な閾値を自動で設定することができ、開発の効率化とともに注視判定の精度向上を図ることができる。また、視線検知センサの精度が悪くとも、誤差を含んだ形で仮想領域が生成されるため、視線検知センサの精度に依存することなく正確な注視判定を行うことができる。   According to the present invention, the threshold value that defines the range for performing gaze determination on the guided object based on the line-of-sight direction detected by the detection unit is set. Even if there are individual differences such as variations in the number of persons, it is possible to automatically set an optimum threshold value for the individual, and it is possible to improve the accuracy of gaze determination as well as development efficiency. In addition, even if the accuracy of the line-of-sight detection sensor is poor, the virtual region is generated in a form including an error, so that accurate gaze determination can be performed without depending on the accuracy of the line-of-sight detection sensor.

本発明の実施例に係る車載装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted apparatus which concerns on the Example of this invention. 本発明の実施例に係る対象物への発光素子の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the light emitting element to the target object which concerns on the Example of this invention. 視線検知センサの取付け例を示す図である。It is a figure which shows the example of attachment of a gaze detection sensor. 本発明の実施例に係る視線検知プログラムの機能的な構成を示す図である。It is a figure which shows the functional structure of the gaze detection program which concerns on the Example of this invention. 図5(A)は、案内された対象物について取得された視線データの例示であり、図5(B)は、取得された視線データに基づき設定された閾値の例示である。FIG. 5A is an example of the line-of-sight data acquired for the guided object, and FIG. 5B is an example of a threshold set based on the acquired line-of-sight data. 本発明の実施例に係る閾値設定部の第1の設定方法を説明する図である。It is a figure explaining the 1st setting method of the threshold value setting part which concerns on the Example of this invention. 本発明の実施例に係る閾値設定部の第2の設定方法を説明する図である。It is a figure explaining the 2nd setting method of the threshold value setting part which concerns on the Example of this invention. 本実施例に係る対象物とそれに対応して設定された閾値との関係を記憶する例である。It is an example which memorize | stores the relationship between the target object which concerns on a present Example, and the threshold value set corresponding to it. 本発明の実施例に係る視線検知動作を示すフローである。It is a flow which shows the gaze detection operation | movement which concerns on the Example of this invention. 本発明の第2の実施例に係る対象物の案内方法を説明する図である。It is a figure explaining the guide method of the target object concerning the 2nd example of the present invention. 仮想平面座標を利用した視線検知方法を説明する図である。It is a figure explaining the gaze detection method using a virtual plane coordinate. 仮想平面を利用した視線検知の一例を説明する図である。It is a figure explaining an example of the gaze detection using a virtual plane. 視線方向の個人差(バラツキ)の一例を示す図である。It is a figure which shows an example of the individual difference (variation) of a gaze direction.

次に、本発明の実施の形態について図面を参照して詳細に説明する。本発明に係る視線検知装置は、それ単独で存在するものであってもよいし、車載装置等の電子装置に包含されるものであってもよい。車載装置は、運転アシスト機能、ナビゲーション機能、オーディオ・ビデオデータを再生する機能、テレビ・ラジオ放送を受信する機能、アプリケーションソフトウエアを実行する機能などを備えたコンピュータ装置、タブレット型のコンピュータ装置であることができる。視線検知装置の検知結果は、車載装置の各機能に利用することができる。   Next, embodiments of the present invention will be described in detail with reference to the drawings. The line-of-sight detection device according to the present invention may exist alone, or may be included in an electronic device such as an in-vehicle device. The in-vehicle device is a computer device or a tablet computer device having a driving assist function, a navigation function, a function of reproducing audio / video data, a function of receiving TV / radio broadcast, a function of executing application software, and the like. be able to. The detection result of the line-of-sight detection device can be used for each function of the in-vehicle device.

図1は、本発明の実施例に係る車載装置の構成を示すブロック図であり、本実施例の車載装置100は、視線検知機能または視線検知部を包含する。同図に示すように、車載装置100は、入力部110、ナビゲーション部120、マルチメディア再生部130、表示部140、音声出力部150、対象物案内部160、視線検知センサ170、記憶部180、および制御部190を含んで構成される。但し、ここに示す構成は一例であり、車載装置100は、他の機能や構成を包含するものであってもよい。   FIG. 1 is a block diagram illustrating a configuration of an in-vehicle device according to an embodiment of the present invention, and the in-vehicle device 100 according to the present embodiment includes a line-of-sight detection function or a line-of-sight detection unit. As shown in the figure, the in-vehicle device 100 includes an input unit 110, a navigation unit 120, a multimedia playback unit 130, a display unit 140, an audio output unit 150, an object guide unit 160, a line-of-sight detection sensor 170, a storage unit 180, And a control unit 190. However, the configuration shown here is an example, and the in-vehicle device 100 may include other functions and configurations.

入力部110は、ユーザーからの指示を受け取り、これを制御部190へ提供する。ナビゲーション部120は、GPS衛星から送信されるGPS信号等に基づき自車位置を算出し、自車位置周辺の地図を案内する。マルチメディア再生部130は、CD、DVD、半導体メモリ等の記録媒体に記録された音声データや映像データを再生する。表示部140は、ナビゲーション部120により生成された地図画像やマルチメディア再生部130により再生された映像データを表示する。音声出力部150は、ナビゲーション部120やマルチメディア再生部130で生成された音声データを出力する。   The input unit 110 receives an instruction from the user and provides it to the control unit 190. The navigation unit 120 calculates the vehicle position based on a GPS signal transmitted from a GPS satellite and guides a map around the vehicle position. The multimedia playback unit 130 plays back audio data and video data recorded on a recording medium such as a CD, DVD, or semiconductor memory. The display unit 140 displays the map image generated by the navigation unit 120 and the video data reproduced by the multimedia reproduction unit 130. The audio output unit 150 outputs the audio data generated by the navigation unit 120 and the multimedia playback unit 130.

対象物案内部160は、ユーザーに注視させたい対象物の案内を行う。好ましい例では、対象物案内部160は、視覚または聴覚により案内を行う。聴覚による案内は、音声出力部150から、例えば、「表示部の外周または輪郭を目で追うように見てください」、「ミラーの外周または輪郭を目で追うように見てください」などの音声を出力させる。視覚による案内は、注視させたい対象物を点灯または点滅させる。好ましくは、対象物の外周に、発光ダイオード(LED)等の発光素子を1つまたは複数個取り付け、発光素子を点灯または点滅させることで、ユーザーに対象物を注視させる。より好ましくは、発光素子を一定方向に順次点灯させることで、ユーザーが発光素子の点灯を目で追えるようにする。対象物案内部160は、好ましくは一定期間、対象物の案内を行う。   The object guide unit 160 guides an object that the user wants to watch. In a preferred example, the object guide unit 160 guides visually or auditorily. For audio guidance, for example, “Please follow the outer periphery or contour of the display portion with your eyes” or “Please follow the outer periphery or contour of the mirror with your eyes”. Is output. Visual guidance turns on or blinks an object to be watched. Preferably, one or a plurality of light emitting elements such as light emitting diodes (LEDs) is attached to the outer periphery of the object, and the light emitting element is turned on or blinked to cause the user to watch the object. More preferably, the light emitting elements are sequentially turned on in a certain direction so that the user can follow the lighting of the light emitting elements. The object guide unit 160 preferably guides the object for a certain period.

図2(A)は、バックミラー20の外周に沿って複数のLED162が取り付けられた例、図2(B)は、サイドミラー22の外周に沿って複数のLED164が取り付けられた例、図2(C)は、CID24または表示部140の外周に沿って複数のLED166が取り付けられた例である。LED162、164、166の数、色、配置は任意である。また上記したように、LED162、164、166は、例えば、一定方向に順次点灯され、ユーザーは、案内された対象物の外形の発光点を目で追うことが自然に促される。   2A shows an example in which a plurality of LEDs 162 are attached along the outer periphery of the rearview mirror 20, FIG. 2B shows an example in which a plurality of LEDs 164 are attached along the outer periphery of the side mirror 22, FIG. (C) is an example in which a plurality of LEDs 166 are attached along the outer periphery of the CID 24 or the display unit 140. The number, color, and arrangement of the LEDs 162, 164, and 166 are arbitrary. Further, as described above, the LEDs 162, 164, and 166 are sequentially turned on in a certain direction, for example, and the user is naturally prompted to follow the light emission point of the outline of the guided object.

視線検知センサ170は、車内の搭乗者の視線を検知する。好ましくは、運転者の視線を検知する。視線検知センサ170は、例えば、図3に示すように、コラムカバー172上に取り付けられ、ステアリング174の合間を通して運転者176の顔を撮像する。好ましくは、視線検知センサ170は、運転者176の顔を照射する赤外線LEDと、その反射光を受光する赤外線カメラとを含み、赤外線カメラで撮像されたデータは制御部190へ提供される。   The line-of-sight detection sensor 170 detects the line of sight of a passenger in the vehicle. Preferably, the driver's line of sight is detected. For example, as shown in FIG. 3, the line-of-sight detection sensor 170 is attached on the column cover 172 and images the face of the driver 176 through the steering 174. Preferably, the line-of-sight detection sensor 170 includes an infrared LED that irradiates the face of the driver 176 and an infrared camera that receives the reflected light, and data captured by the infrared camera is provided to the control unit 190.

記憶部180は、ナビゲーション部120が必要とする地図データ、マルチメディア再生部130が再生するマルチメディアデータ、制御部190が実行するアプリケーションソフトウエアやプログラム等を格納することができる。制御部190は、車載装置100の各部を制御し、好ましい態様では、ROM、RAMなどを含むマイクロコントローラ等を含み、制御部190は、車載装置100の動作を制御するための種々のプログラムを実行する。本実施例では、制御部190は、視線検知センサ170からの出力に基づき視線検知を行う視線検知プログラムを実行する。   The storage unit 180 can store map data required by the navigation unit 120, multimedia data played back by the multimedia playback unit 130, application software and programs executed by the control unit 190, and the like. The control unit 190 controls each unit of the in-vehicle device 100. In a preferred embodiment, the control unit 190 includes a microcontroller including a ROM, a RAM, and the like. The control unit 190 executes various programs for controlling the operation of the in-vehicle device 100. To do. In the present embodiment, the control unit 190 executes a gaze detection program that performs gaze detection based on the output from the gaze detection sensor 170.

図4は、本実施例の視線検知プログラムの機能的な構成を示す。視線検知プログラム200は、対象物案内制御部210、視線データ処理部220、閾値設定部230、注視判定部240を含む。視線検知プログラム200は、車載装置100に含まれる他の機能と連動して実行され、例えば、ナビゲーション部120が起動されたことに応答して視線検知プログラム200が実行される。または、視線検知プログラムは、車載装置100に電源が投下されたとき、あるいはユーザーからの指示があったときに実行されるようにしてもよい。   FIG. 4 shows a functional configuration of the line-of-sight detection program of the present embodiment. The line-of-sight detection program 200 includes an object guidance control unit 210, a line-of-sight data processing unit 220, a threshold setting unit 230, and a gaze determination unit 240. The line-of-sight detection program 200 is executed in conjunction with other functions included in the in-vehicle device 100. For example, the line-of-sight detection program 200 is executed in response to activation of the navigation unit 120. Alternatively, the line-of-sight detection program may be executed when power is supplied to the in-vehicle device 100 or when an instruction is given from the user.

対象物案内制御部210は、注視判定のための閾値を設定するときに対象物案内部160を制御する。すなわち、対象物案内制御部210は、対象物案内部160を介して、図2に示すLED162、164、166を点灯させたり、あるいは音声出力部150から注視させたい対象物の音声案内をさせる。例えば、対象物案内制御部210は、対象物の周囲に取り付けられた複数のLEDを時計周り、または反時計周りに順次、点灯または点滅させ、これにより、運転者に注視対象を認識させ、かつ、一定方向に点滅するLEDの発光により運転者の視線方向を対象物の外周に向けさせる。また、対象物案内制御部210は、LEDの点灯を開始する前または点灯中に、「点灯中の光を追ってください」等の誘導案内を音声出力部150から出力させたり、あるいは表示部140に誘導案内のメッセージを表示させてもよい。   The object guide control unit 210 controls the object guide unit 160 when setting a threshold for gaze determination. That is, the object guidance control unit 210 turns on the LEDs 162, 164, and 166 shown in FIG. 2 via the object guidance unit 160, or causes the voice output unit 150 to perform voice guidance of the object to be watched. For example, the object guidance control unit 210 sequentially turns on or blinks a plurality of LEDs attached around the object clockwise or counterclockwise, thereby allowing the driver to recognize the gaze target, and The direction of the driver's line of sight is directed toward the outer periphery of the object by the light emission of the LED blinking in a certain direction. Further, the object guidance control unit 210 outputs a guidance guidance such as “follow the light during lighting” from the voice output unit 150 before starting the lighting of the LED or during lighting, or causes the display unit 140 to A guidance message may be displayed.

LEDの点灯態様は、特に限定されるものではなく、運転者の視線方向が対象物の1点に留まらず、複数の点あるいは対象物の外周に沿うように喚起されればよく、例えば、対象物のLEDの全てを同タイミングで点滅させ、「点灯中の光を視線でなぞってください」等の誘導案内を行ってもよい。また、LEDの点灯は、対象物の案内を行っている期間中、一定期間継続される。これにより、ユーザーは、LEDが点灯または点滅している期間、対象物を視認する必要性を理解する。さらに、対象物案内制御部210による案内制御は、必ずしも視覚による案内がなくてもよく、音声出力部150を介して、「サイドミラーの外周を見てください」、「サイドミラーの外周に沿うように視線を合わせてください」、「サイドミラーの注視判定のための閾値を設定しますので、サイドミラーの外周に沿うように視線を移動させてください」等の音声案内だけでもよい。   The lighting mode of the LED is not particularly limited, and the driver's line-of-sight direction is not limited to one point of the object, but may be aroused so as to follow a plurality of points or the outer periphery of the object. All the LEDs of the object may be blinked at the same timing, and guidance guidance such as “Please trace the lit light with your line of sight” may be performed. Further, the lighting of the LED is continued for a certain period during the period of guiding the object. Thereby, the user understands the necessity of visually recognizing an object during a period when the LED is lit or blinking. Further, the guidance control by the object guidance control unit 210 does not necessarily require visual guidance, and the voice output unit 150 may be used to “see the outer periphery of the side mirror” and “to follow the outer periphery of the side mirror”. "Please adjust your line of sight" or "Please move your line of sight along the outer periphery of the side mirror because a threshold for gaze determination of the side mirror is set."

対象物案内制御部210は、案内すべき対象物が複数あるときは、それらの案内を順次行う。また、対象物案内制御部210は、対象物の注視判定のための閾値を新たに設定するとき、または更新するときに実施される。例えば、運転者が変更になるとき、ユーザーは、入力部110を介して対象物案内制御部210の起動を指示したり、車載装置100の電源が投入されたときに対象物案内制御部210が起動される。   When there are a plurality of objects to be guided, the object guidance control unit 210 sequentially guides them. In addition, the object guidance control unit 210 is implemented when a threshold value for determining the gaze of the object is newly set or updated. For example, when the driver is changed, the user instructs activation of the object guidance control unit 210 via the input unit 110 or the object guidance control unit 210 is activated when the power of the in-vehicle device 100 is turned on. It is activated.

視線データ処理部220は、対象物案内制御部210によって案内された対象物に向けられた運転者の視線データを視線検知センサ170を介して取得する。好ましくは、対象物案内制御部210による案内制御が行われたときから一定期間、あるいは案内が行われている期間、視線データ処理部220は、案内された対象物についての複数の視線データをサンプリングする。   The line-of-sight data processing unit 220 acquires the driver's line-of-sight data directed to the object guided by the object guidance control unit 210 via the line-of-sight detection sensor 170. Preferably, the line-of-sight data processing unit 220 samples a plurality of line-of-sight data about the guided object during a certain period from when the guidance control by the object guidance control unit 210 is performed or during a period during which guidance is performed. To do.

視線データ処理部220は、例えば、赤外線カメラで撮像されたデータから、目の中の白い丸い形をしたものを角膜反射の候補として検出し、黒い丸の形をしたものを瞳孔の候補として検出し、それら角膜や瞳孔の位置関係や過去のデータ等から候補の絞り込みを行い、可能性の高いものを視線データとして選択する。   The line-of-sight data processing unit 220 detects, for example, a white round shape in the eye as a candidate for corneal reflection from data captured by an infrared camera, and detects a black round shape as a candidate for a pupil. Then, candidates are narrowed down based on the positional relationship between the cornea and the pupil, past data, and the like, and the most likely data is selected as the line-of-sight data.

図5(A)は、対象物案内制御部210によって表示部140が対象物として案内され、その間に表示部140に向けられた運転者の視線データが視線データ処理部220により取得される。視線データは、運転者の視線方向を表し、ここでは仮想平面上の座標データとして表されている。視線方向、すなわち視線データは、表示部140の外枠付近に不規則に複数検知されている。   In FIG. 5A, the display unit 140 is guided as an object by the object guide control unit 210, and the driver's line-of-sight data directed to the display unit 140 is acquired by the line-of-sight data processing unit 220 during that time. The line-of-sight data represents the driver's line-of-sight direction, and is represented here as coordinate data on a virtual plane. A plurality of gaze directions, that is, gaze data, are irregularly detected near the outer frame of the display unit 140.

閾値設定部230は、視線データ処理部220によって取得され、処理された視線データに基づき、対象物の注視判定を行うための範囲を規定する閾値を自動で設定する。図5(B)は、取得された視線データに基づき閾値設定部230が設定した閾値Thを示している。閾値の詳細な設定方法は、後述する。   The threshold value setting unit 230 automatically sets a threshold value that defines a range for performing gaze determination of an object based on the line-of-sight data acquired and processed by the line-of-sight data processing unit 220. FIG. 5B shows the threshold Th set by the threshold setting unit 230 based on the acquired line-of-sight data. A detailed method for setting the threshold will be described later.

注視判定部240は、閾値設定部230により設定された閾値に基づき運転者が対象物を注視しているか否かを判定する。この判定結果は、車載装置100やその他の装置において利用することができる。例えば、車載装置100が運転アシスト機能を備えている場合、走行中に運転者が何度も表示部140を注視すると警告を発したり、あるいは、停止中に、運転者が表示部140を注視するとナビゲーション画面をオーディオ画面に切り替えたり、バックミラーを注視すると表示部140にリアビューの画像を表示する、といった制御が可能である。   The gaze determination unit 240 determines whether the driver is gazing at the object based on the threshold set by the threshold setting unit 230. This determination result can be used in the in-vehicle device 100 and other devices. For example, when the in-vehicle device 100 has a driving assist function, a warning is issued if the driver gazes at the display unit 140 many times during traveling, or when the driver gazes at the display unit 140 while stopped. Control such as switching the navigation screen to an audio screen or displaying a rear-view image on the display unit 140 when the rearview mirror is watched is possible.

次に、閾値設定部230による第1の閾値の設定方法について図6を参照して説明する。図6(A)において、□は、LEDの発光位置、○は、左目の視線の座標データ、斜線の○は、右目の視線の座標データ、△は、任意秒内の平均の視線の座標データであり、これらのデータがXY平面に表されている。   Next, a method for setting the first threshold by the threshold setting unit 230 will be described with reference to FIG. In FIG. 6A, □ is the light emission position of the LED, ○ is the coordinate data of the left eye's line of sight, ○ is the oblique line ○ is the coordinate data of the right eye's line of sight, and Δ is the coordinate data of the average line of sight within an arbitrary second. These data are represented on the XY plane.

第1の設定方法は、取得された複数の視線の座標データから最も外にある点(最外点)をサンプリングし、これに基づき閾値を設定する。具体的には、XY平面におけるX方向の最大、最小の視線データと、Y方向の最大、最小の視線データが抽出される。図の例では、X方向の最大の視線データD、最小の視線データB、Y方向の最大の視線データA、最小の視線データCが抽出される。これら4つのA、B、C、D点は、最も外にある最外点である。ここでは、左右の視線データを区別することなく最外点が抽出される。   In the first setting method, the outermost point (outermost point) is sampled from the acquired coordinate data of a plurality of lines of sight, and a threshold is set based on this. Specifically, maximum and minimum line-of-sight data in the X direction on the XY plane and maximum and minimum line-of-sight data in the Y direction are extracted. In the example in the figure, the maximum line-of-sight data D in the X direction, the minimum line-of-sight data B, the maximum line-of-sight data A in the Y direction, and the minimum line-of-sight data C are extracted. These four points A, B, C, and D are the outermost points on the outermost side. Here, the outermost point is extracted without distinguishing the left and right line-of-sight data.

閾値設定部230は、これら4つの最外点を直線で連結することにより矩形状の2次元領域が閾値として設定される。矩形状の閾値Thは、図6(B)に示すように、コーナーを一定の曲率で丸めるようにしてもよい。この設定方法では、最外点に合わせて閾値を設定するため、仮に運転者が対象物を注視しているならば、その視線は、ほぼ閾値の範囲内に包含されるはずであり、それ故、正確に注視判定をすることができる。   The threshold value setting unit 230 sets a rectangular two-dimensional region as a threshold value by connecting these four outermost points with straight lines. As shown in FIG. 6B, the rectangular threshold value Th may round the corner with a constant curvature. In this setting method, since the threshold value is set in accordance with the outermost point, if the driver is gazing at the object, the line of sight should be included within the threshold value range. The gaze determination can be made accurately.

また、閾値は、必ずしも矩形状である必要はなく、対象物の外形または輪郭に応じた形状にすることもできる。この場合、閾値設定部230は、対象物の外形または輪郭の情報を予め取得していることが望ましい。例えば、閾値設定部230は、対象物の外形に応じて、4つの最外点を曲線によって連結することも可能である。また、閾値設定部230は、対象物が円形であるならば、4つの最外点から3つの最外点を選択し、選択された3つの最外点に外接する円または内接する円を判定閾値とすることができる。また、閾値設定部230は、対象物の外形に応じた数の最外点を抽出するようにしてもよく、例えば、対象物が三角形であれば、その三角形に応じた3つの最外点を抽出し、これに基づき閾値を設定するようにしてもよい。さらに上記の方法では、4つの最外点を抽出したが、これに限らず、サンプリングされた5つ以上の座標データまたは全ての座標データを連結することで閾値を設定したり、あるいは最小二乗法などを利用して座標データを包絡するような閾値を設定するようにしてもよい。   Further, the threshold value does not necessarily have to be a rectangular shape, and may be a shape corresponding to the outer shape or contour of the object. In this case, it is desirable that the threshold setting unit 230 obtains in advance information on the outer shape or contour of the object. For example, the threshold setting unit 230 can connect the four outermost points with a curve according to the outer shape of the object. Further, if the object is circular, the threshold setting unit 230 selects three outermost points from the four outermost points, and determines a circle circumscribing or inscribed in the selected three outermost points. It can be a threshold. Further, the threshold value setting unit 230 may extract the number of outermost points according to the outer shape of the object. For example, if the object is a triangle, three threshold points corresponding to the triangle are extracted. It is also possible to extract and set a threshold based on this. Further, in the above method, four outermost points are extracted. However, the present invention is not limited to this, and a threshold is set by connecting five or more sampled coordinate data or all coordinate data, or the least square method is used. A threshold value that envelops the coordinate data may be set using the above.

次に、第2の閾値の設定方法について図7を参照して説明する。第2の設定方法では、視線データ処理部220によって取得された右目と左目の座標データの重心点を複数算出し、算出された重心点を結んだ領域を閾値とする。重心点の算出方法は、任意秒内(例えば、0.5秒内)に取得された右目および左目の座標データの重心点を算出する方法を用いている。つまり、ほぼ同時刻に取得された左右の一対の視線の座標データの重心点が算出される。図7(B)の例で示せば、時刻t1で取得された一対の視線の座標データの重心点p1が算出され、時刻t2、時刻t3でそれぞれ取得された一対の視線の座標データの重心点p2、p3が算出される。閾値設定部230は、このようにして複数の重心点を算出し、算出された重心点を通る範囲を閾値Thに設定する。なお、閾値Thは、図7(B)に示すように、不規則な形状でも良いし、最小二乗法を用いて近似直線または近似曲線を求めても良い。さらには、図6に示したように、複数の重心点から最外点を抽出し、第1の設定方法と同じように閾値を設定してもよい。また、第1ないし第2の設定方法において、例えば図7に示すように、著しく外れた座標データZが存在する場合、これを異常な座標データZとして除外してもよい。著しく外れたとは、座標データZが最も隣接する座標データから一定距離以上離れたことを意味する。このような著しく外れた座標データZを取り除くことで、座標収束している地点が閾値に反映され、その結果、設定される閾値の精度を高めることができる。   Next, a method for setting the second threshold will be described with reference to FIG. In the second setting method, a plurality of centroid points of the coordinate data of the right eye and the left eye acquired by the line-of-sight data processing unit 220 are calculated, and an area connecting the calculated centroid points is set as a threshold value. As a method of calculating the center of gravity, a method of calculating the center of gravity of the coordinate data of the right eye and the left eye acquired within an arbitrary second (for example, within 0.5 seconds) is used. That is, the barycentric point of the coordinate data of the pair of left and right eyes obtained at approximately the same time is calculated. In the example of FIG. 7B, the barycentric point p1 of the coordinate data of the pair of line of sight acquired at time t1 is calculated, and the barycentric point of the coordinate data of the pair of line of sight acquired at time t2 and time t3, respectively. p2 and p3 are calculated. The threshold setting unit 230 calculates a plurality of barycentric points in this way, and sets a range passing through the calculated barycentric points as the threshold Th. Note that the threshold Th may be an irregular shape as shown in FIG. 7B, or an approximate straight line or an approximate curve may be obtained using a least square method. Furthermore, as shown in FIG. 6, the outermost point may be extracted from a plurality of barycentric points, and the threshold value may be set in the same manner as in the first setting method. Further, in the first and second setting methods, for example, as shown in FIG. 7, when coordinate data Z deviated significantly exists, it may be excluded as abnormal coordinate data Z. Significant deviation means that the coordinate data Z is more than a certain distance away from the closest coordinate data. By removing the coordinate data Z that deviates significantly, the point where the coordinates are converged is reflected in the threshold value, and as a result, the accuracy of the set threshold value can be increased.

閾値設定部230によって設定された閾値は、記憶部180に記憶される。例えば、図8に示すように、対象物とそれに対応する閾値とが記憶され、注視判定部240は、記憶された閾値を参照し、一定時間内に滞留した視線(すなわち、視線範囲)が閾値内にあれば、当該閾値の対象物が注視されたことが判定される。   The threshold set by the threshold setting unit 230 is stored in the storage unit 180. For example, as shown in FIG. 8, an object and a threshold value corresponding to the object are stored, and the gaze determination unit 240 refers to the stored threshold value, and the line of sight staying within a certain time (that is, the line-of-sight range) is the threshold value. If it is within the range, it is determined that the object having the threshold value has been watched.

図9は、本実施例に係る視線検知の動作のフローである。視線検知プログラム200は、対象物の注視判定を行うための閾値の設定が必要なときに実行される。例えば、車載装置100の電源が投下されたとき、対象物案内制御部210は、対象物案内部160を介して対象物をユーザーに視認させるような案内を開始する(S100)。この対象物の案内は、運転者からの複数の視線データをサンプリングできるように一定期間行われることが望ましい。   FIG. 9 is a flow of the gaze detection operation according to the present embodiment. The line-of-sight detection program 200 is executed when it is necessary to set a threshold value for performing gaze determination of an object. For example, when the power of the in-vehicle device 100 is turned off, the target object guidance control unit 210 starts guidance that causes the user to visually recognize the target object via the target object guide unit 160 (S100). The guidance of the object is desirably performed for a certain period so that a plurality of line-of-sight data from the driver can be sampled.

次に、視線データ処理部220は、案内期間中、対象物に関する運転者の視線データを取得する(S102)。次に、閾値設定部230は、取得された視線データに基づき対象物の注視判定を行うための仮想平面上の領域を規定する閾値を設定する(S104)。S100からS104の処理については、全ての対象物について実施され(S106)、全ての対象物に関する閾値が設定されると、その設定された閾値が図8に示すようなテーブルに記憶される。   Next, the line-of-sight data processing unit 220 acquires the driver's line-of-sight data related to the object during the guidance period (S102). Next, the threshold value setting unit 230 sets a threshold value that defines an area on a virtual plane for performing gaze determination of an object based on the acquired line-of-sight data (S104). The processing from S100 to S104 is performed for all the objects (S106), and when the threshold values for all the objects are set, the set threshold values are stored in a table as shown in FIG.

以後、注視判定部240は、設定された閾値に従い、視線データが取得されたとき、対象物の注視判定を行う(S108)。具体的には、視線の座標データと閾値とを比較し、閾値内に幾つかの座標データが滞留した場合には、対象物を注視していると判定し、そうでなければ、注視していないと判定する。注視判定部240の判定結果は、上記したように種々の機能に利用することができ、また、ユーザー入力インターフェースとしての視線入力または視線選択であることができる。視線検知動作は、車載装置100の電源がオフにされたり、ユーザーから指示があったり、その他、動作が不要とされたとき、終了する(S110)。再度、閾値を設定または更新する場合には、S100から処理が開始される。   Thereafter, the gaze determination unit 240 performs gaze determination of the object when the line-of-sight data is acquired according to the set threshold (S108). Specifically, the coordinate data of the line of sight is compared with a threshold value, and if some coordinate data stays within the threshold value, it is determined that the object is being watched. Judge that there is no. The determination result of the gaze determination unit 240 can be used for various functions as described above, and can also be gaze input or gaze selection as a user input interface. The line-of-sight detection operation ends when the power of the in-vehicle device 100 is turned off, an instruction is given from the user, or other operations are not required (S110). When the threshold value is set or updated again, the process starts from S100.

本実施例では、運転者等の生の視線データから注視判定のための範囲を規定する閾値を自動で設定するようにしたので、従来のように開発者が苦労して閾値をチューニングする必要がなくなり、開発の効率化を図ることができる。また、閾値の設定は、任意に行うことができるため、個々のユーザーに応じた閾値を適切なタイミングで設定することができ、ユーザー毎に正確な注視判定を行うことができる。さらに、視線検知センサ170の精度に依存することなく、正確な注視判定を行うことができる。   In this embodiment, since the threshold value for defining the range for gaze determination is automatically set from the raw line-of-sight data of the driver or the like, the developer needs to tune the threshold value with difficulty as in the past. Efficient development can be achieved. In addition, since the threshold value can be arbitrarily set, the threshold value corresponding to each user can be set at an appropriate timing, and accurate gaze determination can be performed for each user. Furthermore, accurate gaze determination can be performed without depending on the accuracy of the line-of-sight detection sensor 170.

次に、本実施例の第2の実施例について説明する。上記実施例では、対象物の外周に複数のLEDを配置させることで対象物の案内を行ったが、第2の実施例では、対象物が表示機能を有する場合には、その表示機能を利用して案内を行う。図10(A)は、第2の実施例による対象物の案内例を説明する図である。表示部140は、例えば、液晶ディスプレイあるいは有機ELディスプレイから構成され、対象物案内制御部210は、対象物案内部160を介して対象物の案内を行うとき、表示部140の画面の外周に沿ってあたかもLEDが順次点灯または点滅するような視標142の画像を表示させる。さらに、図10(B)に示すように、表示部140の中央部には、「表示部の外周の点滅を追うように見てください」等のメッセージ144の画像を表示させるようにしてもよい。   Next, a second embodiment of the present embodiment will be described. In the above embodiment, the object is guided by arranging a plurality of LEDs on the outer periphery of the object. However, in the second embodiment, when the object has a display function, the display function is used. And give guidance. FIG. 10A is a diagram for explaining a guide example of an object according to the second embodiment. The display unit 140 includes, for example, a liquid crystal display or an organic EL display, and the object guidance control unit 210 follows the outer periphery of the screen of the display unit 140 when guiding the object via the object guidance unit 160. An image of the target 142 is displayed as if the LEDs are sequentially lit or blinking. Further, as shown in FIG. 10 (B), an image of a message 144 such as “Please follow the flashing of the outer periphery of the display unit” may be displayed at the center of the display unit 140. .

以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。   The preferred embodiment of the present invention has been described in detail above. However, the present invention is not limited to the specific embodiment, and various modifications and variations are possible within the scope of the gist of the invention described in the claims. It can be changed.

100:車載装置 110:入力部
120:ナビゲーション部 130:マルチメディア再生部
140:表示部 150:音声出力部
160:対象物案内部 170:視線検知センサ
180:記憶部 190:制御部
DESCRIPTION OF SYMBOLS 100: In-vehicle apparatus 110: Input part 120: Navigation part 130: Multimedia reproduction part 140: Display part 150: Audio | voice output part 160: Object guide part 170: Eye-gaze sensor 180: Storage part 190: Control part

Claims (20)

注視の対象となる対象物を案内する案内手段と、
人物の視線方向を検知する検知手段と、
前記案内手段により案内された対象物に関し、前記検知手段により検知された視線方向に基づき対象物の注視判定を行うための範囲を規定する閾値を設定する設定手段と、
前記検知手段により検知された視線方向と前記設定された閾値とを比較し、対象物が注視されているか否かを判定する判定手段とを含む、視線検知装置。
Guidance means for guiding an object to be watched;
A detecting means for detecting a gaze direction of a person;
Setting means for setting a threshold for defining a range for performing gaze determination of the object based on the line-of-sight direction detected by the detection means with respect to the object guided by the guidance means;
A line-of-sight detection apparatus comprising: a determination unit that compares the line-of-sight direction detected by the detection unit with the set threshold value and determines whether or not the object is being watched.
前記設定手段は、仮想平面上の座標領域を規定する閾値を設定する、請求項1に記載の視線検知装置。 The line-of-sight detection device according to claim 1, wherein the setting means sets a threshold value that defines a coordinate area on a virtual plane. 前記設定手段は、複数の視線方向に基づき仮想平面上のX方向の最大および最小の最外点、Y方向の最大および最小の最外点を抽出し、前記最外点に基づき閾値を設定する、請求項2に記載の視線検知装置。 The setting means extracts the maximum and minimum outermost points in the X direction and the maximum and minimum outermost points in the Y direction on the virtual plane based on a plurality of line-of-sight directions, and sets a threshold based on the outermost points. The line-of-sight detection device according to claim 2. 前記設定手段は、左右の視線方向を一対の視線方向とし、一対の視線方向の重心点に基づき閾値を設定する、請求項2に記載の視線検知装置。 The line-of-sight detection device according to claim 2, wherein the setting means sets the left and right line-of-sight directions as a pair of line-of-sight directions, and sets a threshold based on a center of gravity in the pair of line-of-sight directions. 前記設定手段は、案内された対象物の外形に近似する外形の閾値を設定する、請求項1または2に記載の視線検知装置。 The line-of-sight detection device according to claim 1, wherein the setting unit sets a threshold of an outer shape that approximates the outer shape of the guided object. 前記設定手段は、前記案内手段により案内が行われたときから一定期間、または案内が行われている期間中に複数の視線方向を取得する、請求項1ないし5いずれか1つに記載の視線検知装置。 The line of sight according to any one of claims 1 to 5, wherein the setting means acquires a plurality of line-of-sight directions for a certain period from the time when the guidance is performed or during the period during which the guidance is performed. Detection device. 前記案内手段は、対象物の取り付けられた発光素子を含み、発光素子を点灯または点滅させることで案内を行う、請求項1ないし6いずれか1つに記載の視線検知装置。 The line-of-sight detection device according to claim 1, wherein the guide unit includes a light emitting element to which an object is attached, and performs guidance by turning on or blinking the light emitting element. 前記発光素子は、対象物の外周に沿うように複数配置され、前記案内手段は、複数の発光素子を点灯または点滅させることで案内を行う、請求項7に記載の視線検知装置。 The line-of-sight detection device according to claim 7, wherein a plurality of the light emitting elements are arranged along an outer periphery of the object, and the guide unit performs guidance by lighting or blinking the plurality of light emitting elements. 前記案内手段は、複数の発光素子を一定方向に順次点灯させる、請求項8に記載の視線検知装置。 The line-of-sight detection device according to claim 8, wherein the guide means sequentially turns on the plurality of light emitting elements in a certain direction. 対象物が表示手段であるとき、前記案内手段は、前記表示手段の外周が点灯されるかの如く前記表示手段に画像を表示させる、請求項1ないし6いずれか1つに記載の視線検知装置。 The line-of-sight detection device according to any one of claims 1 to 6, wherein when the object is a display means, the guide means causes the display means to display an image as if the outer periphery of the display means is lit. . 前記案内手段は、対象物についての案内を音声により行う、請求項1ないし10いずれか1つに記載の視線検知装置。 The line-of-sight detection device according to claim 1, wherein the guide means performs guidance for an object by voice. 前記設定手段は、ユーザー入力に基づき閾値を設定または更新する、請求項1に記載の視線検知装置。 The line-of-sight detection device according to claim 1, wherein the setting unit sets or updates a threshold value based on a user input. 人物の視線方向を検知する検知手段を備えた視線検知装置が実行する視線検知プログラムであって、
注視の対象となる対象物を案内するステップと、
前記案内された対象物に関し、前記検知手段により検知された視線方向に基づき対象物の注視判定を行うための範囲を規定する閾値を設定するステップと、
前記検知手段により検知された視線方向と前記設定された閾値とを比較し、対象物が注視されているか否かを判定するステップとを含む、視線検知プログラム。
A line-of-sight detection program executed by a line-of-sight detection device including a detection unit for detecting the direction of the line of sight of a person,
A step of guiding an object to be watched;
Regarding the guided object, setting a threshold value that defines a range for performing gaze determination of the object based on the line-of-sight direction detected by the detection unit;
A line-of-sight detection program, comprising: comparing a line-of-sight direction detected by the detection unit with the set threshold value and determining whether or not the object is being watched.
前記設定するステップは、電源投入時に行われる、請求項13に記載の視線検知ステップ。 The line-of-sight detection step according to claim 13, wherein the setting step is performed when power is turned on. 前記設定するステップは、ユーザー入力に応答して行われる、請求項13に記載の視線検知プログラム。 The visual line detection program according to claim 13, wherein the setting step is performed in response to a user input. 前記設定するステップは、複数の視線方向に基づき仮想平面上のX方向の最大および最小の最外点、Y方向の最大および最小の最外点を抽出し、前記最外点に基づき閾値を設定する、請求項13に記載の視線検知プログラム。 The setting step extracts a maximum and minimum outermost point in the X direction and a maximum and minimum outermost point in the Y direction on a virtual plane based on a plurality of line-of-sight directions, and sets a threshold based on the outermost point. The line-of-sight detection program according to claim 13. 前記設定するステップは、左右の視線方向を一対の視線方向とし、一対の視線方向の重心点に基づき閾値を設定する、請求項13に記載の視線検知プログラム。 The line-of-sight detection program according to claim 13, wherein the setting step sets the left and right line-of-sight directions as a pair of line-of-sight directions, and sets a threshold based on a barycentric point in the pair of line-of-sight directions. 人物の視線方向を検知する検知手段を備えた視線検知装置における視線検知方法であって、
注視の対象となる対象物を案内するステップと、
前記案内された対象物に関し、前記検知手段により検知された視線方向に基づき対象物の注視判定を行うための範囲を規定する閾値を設定するステップと、
前記検知手段により検知された視線方向と前記設定された閾値とを比較し、対象物が注視されているか否かを判定するステップとを含む、視線検知方法。
A line-of-sight detection method in a line-of-sight detection device comprising detection means for detecting the direction of the line of sight of a person,
A step of guiding an object to be watched;
Regarding the guided object, setting a threshold value that defines a range for performing gaze determination of the object based on the line-of-sight direction detected by the detection unit;
A line-of-sight detection method, comprising: comparing the line-of-sight direction detected by the detection unit with the set threshold value and determining whether or not the object is being watched.
前記設定するステップは、複数の視線方向に基づき仮想平面上のX方向の最大および最小の最外点、Y方向の最大および最小の最外点を抽出し、前記最外点に基づき閾値を設定する、請求項18に記載の視線検知方法。 The setting step extracts a maximum and minimum outermost point in the X direction and a maximum and minimum outermost point in the Y direction on a virtual plane based on a plurality of line-of-sight directions, and sets a threshold based on the outermost point. The line-of-sight detection method according to claim 18. 前記設定するステップは、左右の視線方向を一対の視線方向とし、一対の視線方向の重心点に基づき閾値を設定する、請求項18に記載の視線検知方法。
The line-of-sight detection method according to claim 18, wherein the setting step sets the left and right line-of-sight directions as a pair of line-of-sight directions, and sets a threshold based on a barycentric point in the pair of line-of-sight directions.
JP2017085072A 2017-04-24 2017-04-24 Line-of-sight detection device, line-of-sight detection program and line-of-sight detection method Active JP6908339B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017085072A JP6908339B2 (en) 2017-04-24 2017-04-24 Line-of-sight detection device, line-of-sight detection program and line-of-sight detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017085072A JP6908339B2 (en) 2017-04-24 2017-04-24 Line-of-sight detection device, line-of-sight detection program and line-of-sight detection method

Publications (2)

Publication Number Publication Date
JP2018183249A true JP2018183249A (en) 2018-11-22
JP6908339B2 JP6908339B2 (en) 2021-07-28

Family

ID=64357255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017085072A Active JP6908339B2 (en) 2017-04-24 2017-04-24 Line-of-sight detection device, line-of-sight detection program and line-of-sight detection method

Country Status (1)

Country Link
JP (1) JP6908339B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116778A (en) * 2019-01-21 2020-08-06 キヤノン株式会社 Image formation apparatus
JP2021047771A (en) * 2019-09-20 2021-03-25 キヤノン株式会社 Controller, imaging device, method for control, and program
WO2024076039A1 (en) * 2022-10-06 2024-04-11 재단법인 아산사회복지재단 Haptic feedback device and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002301030A (en) * 2001-04-09 2002-10-15 Canon Inc Equipment to detect sight line
JP2008212718A (en) * 2008-05-15 2008-09-18 Eyemetrics Japan Co Ltd Visual field detection system
JP2009183473A (en) * 2008-02-06 2009-08-20 Denso Corp Visual line direction detection device, and visual line direction detection method
JP2011090702A (en) * 2006-07-18 2011-05-06 Advanced Telecommunication Research Institute International Sight line direction estimating device, sight line direction estimating method, and program for executing the sight line direction estimating method by computer
JP2011116248A (en) * 2009-12-03 2011-06-16 Honda Motor Co Ltd Gaze determination device
JP2012187190A (en) * 2011-03-09 2012-10-04 Fujitsu Ltd Visual line detection device and visual line detection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002301030A (en) * 2001-04-09 2002-10-15 Canon Inc Equipment to detect sight line
JP2011090702A (en) * 2006-07-18 2011-05-06 Advanced Telecommunication Research Institute International Sight line direction estimating device, sight line direction estimating method, and program for executing the sight line direction estimating method by computer
JP2009183473A (en) * 2008-02-06 2009-08-20 Denso Corp Visual line direction detection device, and visual line direction detection method
JP2008212718A (en) * 2008-05-15 2008-09-18 Eyemetrics Japan Co Ltd Visual field detection system
JP2011116248A (en) * 2009-12-03 2011-06-16 Honda Motor Co Ltd Gaze determination device
JP2012187190A (en) * 2011-03-09 2012-10-04 Fujitsu Ltd Visual line detection device and visual line detection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116778A (en) * 2019-01-21 2020-08-06 キヤノン株式会社 Image formation apparatus
JP7277151B2 (en) 2019-01-21 2023-05-18 キヤノン株式会社 image forming device
JP2021047771A (en) * 2019-09-20 2021-03-25 キヤノン株式会社 Controller, imaging device, method for control, and program
WO2024076039A1 (en) * 2022-10-06 2024-04-11 재단법인 아산사회복지재단 Haptic feedback device and method

Also Published As

Publication number Publication date
JP6908339B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
US9383579B2 (en) Method of controlling a display component of an adaptive display system
KR101596751B1 (en) Method and apparatus for displaying blind spot customized by driver
EP3040809B1 (en) Method and system for controlling a human-machine interface having at least two displays
US9043042B2 (en) Method to map gaze position to information display in vehicle
US10466800B2 (en) Vehicle information processing device
US11524578B2 (en) Control method and control device for vehicle display device
US9696814B2 (en) Information processing device, gesture detection method, and gesture detection program
CN104765445A (en) Eye vergence detection on display
US9678343B2 (en) Method for operating virtual reality glasses and system with virtual reality glasses
JP4497305B2 (en) Driver status determination device
US20110249868A1 (en) Line-of-sight direction determination device and line-of-sight direction determination method
JP2012003764A (en) Reconfiguration of display part based on face tracking or eye tracking
JPWO2015125243A1 (en) Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system
US20160077651A1 (en) Head-mounted display controlled by tapping, method for controlling the same and computer program product for controlling the same
EP3654143B1 (en) Method, apparatus and system for determining line of sight, and wearable eye movement device
JP6558770B2 (en) Projection display device, projection display method, and projection display program
CN107010077B (en) Method for transmitting information to a driver of a motor vehicle and adaptive driver assistance system
JP2018183249A (en) Visual line detection device, visual line detection program, and visual line detection method
JP2008079737A (en) Concentration degree evaluating apparatus and display device for vehicle equipped with the same
JP2009183473A (en) Visual line direction detection device, and visual line direction detection method
KR20210113070A (en) Attention-based notifications
US20130187845A1 (en) Adaptive interface system
JP5644414B2 (en) Awakening level determination device, awakening level determination method, and program
JP6348191B2 (en) Electronics
US9798941B2 (en) Driver visual sensor behavior study device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210630

R150 Certificate of patent or registration of utility model

Ref document number: 6908339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150