JP5838894B2 - Diagnosis support apparatus and diagnosis support method - Google Patents
Diagnosis support apparatus and diagnosis support method Download PDFInfo
- Publication number
- JP5838894B2 JP5838894B2 JP2012088537A JP2012088537A JP5838894B2 JP 5838894 B2 JP5838894 B2 JP 5838894B2 JP 2012088537 A JP2012088537 A JP 2012088537A JP 2012088537 A JP2012088537 A JP 2012088537A JP 5838894 B2 JP5838894 B2 JP 5838894B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- area
- viewpoint
- subject
- diagnosis support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Description
本発明は、診断支援装置および診断支援方法に関する。 The present invention relates to a diagnosis support apparatus and a diagnosis support method.
最近、発達障害者が増加傾向にあると言われている。発達障害は、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客観的で効率的な発達障害の診断支援装置が求められている。 Recently, people with developmental disabilities are said to be on the rise. Developmental disorders are known to be detected early and start treatment to reduce symptoms and increase the effect of adapting to society. In Japan, we are aiming for early detection through interviews at the age of 1 and a half. However, there are problems such as shortage of psychiatrists and time-consuming interviews, and the effect is not sufficient. Therefore, there is a need for an objective and efficient diagnosis support device for developmental disorders.
発達障害早期発見のためには、例えば1歳半検診時に診断できることが理想的である。また、検診時の使用について配慮することが必要である。発達障害児の特徴として、対面する相手の目を見ない(視線をそらす)ことが挙げられる。カメラで人の顔を撮影して、角膜反射と瞳孔の位置を計算することにより注視点を検出する方法などを応用して、発達障害を診断支援する方法が提案されている。 For early detection of developmental disorders, it is ideal to be able to diagnose at the age of 1 and a half. In addition, it is necessary to consider the use at the time of screening. One characteristic of children with developmental disabilities is that they do not look at the eyes of their opponents. There has been proposed a method for diagnosing developmental disorders by applying a method of detecting a gazing point by photographing a human face with a camera and calculating a corneal reflection and a pupil position.
特許文献1では、目領域と、確実に観察対象者の口が含まれる口領域とを特定し、目領域に注視点座標が検出された動画像のフレーム数、口領域に注視点座標が検出された動画像のフレーム数、目領域の外に注視点座標が検出された動画像のフレーム数、および、計算対象の全フレーム数を算出する方法が提示されているが、さらに高精度の検出方法が求められていた。
In
本発明は、上記に鑑みてなされたものであって、診断の精度を向上できる診断支援装置および診断支援方法を提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide a diagnosis support apparatus and a diagnosis support method capable of improving the accuracy of diagnosis.
上述した課題を解決し、目的を達成するために、本発明は、被験者の視点を検出する視点検出部と、前記対象の動作する動作部分を含む動作領域と、前記対象の動作しない非動作部分を含む非動作領域と、を含む、被験者が観察する対象を分割した複数の分割領域間での前記視点の移動パターンを検出するパターン検出部と、前記移動パターンと、前記視点の予め定められた移動のパターンを表す基準パターンとを比較することにより、発達障害の程度を表す評価情報を算出する算出部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a viewpoint detection unit that detects a viewpoint of a subject, an operation region including an operation part in which the object operates, and a non-operation part in which the object does not operate. A pattern detecting unit that detects a movement pattern of the viewpoint among a plurality of divided areas obtained by dividing a subject to be observed by the subject, a movement pattern, and a predetermined point of the viewpoint. And a calculation unit that calculates evaluation information representing the degree of developmental disability by comparing with a reference pattern representing a movement pattern.
本発明にかかる診断支援装置および診断支援方法は、診断の精度を向上できるという効果を奏する。 The diagnosis support apparatus and diagnosis support method according to the present invention have an effect of improving the accuracy of diagnosis.
以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of a diagnosis support apparatus and a diagnosis support method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.
(第1の実施形態)
第1の実施形態は、被験者の観察する対象(観察対象)となる画像(対象画像)を表示部(モニタ)に表示して被験者の発達障害を診断する例である。図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、第1の実施形態では、表示部101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
(First embodiment)
The first embodiment is an example of diagnosing a developmental disorder of a subject by displaying an image (target image) that is an object (observation object) to be observed by the subject on a display unit (monitor). FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the first embodiment. As shown in FIG. 1, in the first embodiment, a set of
右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。
Infrared LED (Light Emitting Diode)
視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示部101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
When detecting the line of sight, the space is expressed by coordinates to identify the position. In the present embodiment, the center position of the screen of the
図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF部208と、制御部300と、表示部101と、表示部210と、を含む。
FIG. 2 is a diagram illustrating an outline of functions of the
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する。
The
駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
The drive /
表示部101は、対象画像を表示する。表示部210は、装置の操作や、診断支援結果を表示する。
The
図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部101と、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. As shown in FIG. 3, the
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
A
右カメラ202からはフレーム同期信号が出力される。フレーム同期信号は、左カメラ204とLED駆動制御部316とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(波長1−LED303、波長1−LED305)を発光させ、それに対応して左右カメラ(右カメラ202、左カメラ204)による画像を取り込み、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波長2−LED304、波長2−LED306)を発光させ、それに対応して左右カメラによる画像を取り込んでいる。
A frame synchronization signal is output from the
赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。
The infrared
波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。
Wavelength 1-
波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。
スピーカ駆動部322は、スピーカ105を駆動する。
The
制御部300は、診断支援装置100全体を制御して、結果を表示部210およびスピーカ105などに出力する。制御部300は、視点検出部351と、パターン検出部352と、算出部353と、表示制御部354と、を備えている。
The
視点検出部351は、被験者の視点を検出する。本実施形態では、視点検出部351は、例えば、被験者の母親の画像などを含む表示部101に表示された対象画像のうち、被験者が注視する点である視点を検出する。視点検出部351による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて被験者の視点を検出する場合を例に説明する。
The
この場合、まず視点検出部351は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視点検出部351は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視点検出部351は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視点検出部351は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置を算出する。また、視点検出部351は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視点検出部351は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。
In this case, the
視点検出部351は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって視点を計測してもよい。
The
なお、被験者の視点の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の視点を検出してもよい。 Note that the method for detecting the viewpoint of the subject is not limited to this. For example, you may detect a test subject's viewpoint by analyzing the image image | photographed using visible light instead of infrared rays.
図4は、被験者の瞳孔の位置を検出する方法を模式的に示す説明図である。右カメラ202で検出した瞳孔の位置と角膜反射の位置関係とから、右カメラ202から見た被験者201の視線の方向が求められる。また、左カメラ204で検出した瞳孔の位置と角膜反射の位置関係とから、左カメラ204から見た被験者201の視線の方向が求められる。求められた2つの視線の方向の交点から、図1の座標上の被験者201の注視点の位置が計算される。
FIG. 4 is an explanatory diagram schematically showing a method for detecting the position of the pupil of the subject. From the pupil position detected by the
図3に戻る。パターン検出部352は、観察対象を分割した複数のエリア(分割領域)間での、被験者の視点が移動するパターン(移動パターン)を検出する。パターン検出部352は、まず、観察対象を複数のエリアに分割する。本実施形態では、対象画像を表示して診断するため、対象画像が複数のエリアに分割される。
Returning to FIG. The
図5は、対象画像のエリア分割の一例を示す説明図である。パターン検出部352は、対象画像を、例えば、対象画像の動作する部分(動作部分)を含むエリア(動作領域)と、対象画像の動作しない部分(非動作部分)を含むエリア(非動作領域)とを含む、複数のエリアに分割する。動作部分は、例えば、対象画像に映される対象者の目および口である。なお、動作部分はこれに限られるものではない。例えば、顔の近くにある玩具などのように、対象者の顔の外側に存在する動作物体であってもよい。
FIG. 5 is an explanatory diagram illustrating an example of area division of the target image. The
以下では、対象画像が、目を含む目エリア(目領域)、口を含む口エリア(口領域)、目と口以外の顔を含む顔エリア(顔領域)、および、その他のエリアに分割される場合を例に説明する。 In the following, the target image is divided into an eye area including eyes (eye area), a mouth area including mouth (mouth area), a face area including faces other than eyes and mouth (face area), and other areas. An example will be described.
この場合、パターン検出部352は、まず対象画像における目の位置、および、口の位置を検出する。画像から目および口を検出する方法としては、特許文献4の方法など、従来から用いられているあらゆる方法を適用できる。これにより、パターン検出部352は、右目の中心座標P01、左目の中心座標P02、および、口の中心座標P03を求める。パターン検出部352は、P01に対して片側の幅L01、片側の高さL02の長方形を右目付近のエリアとする。左目についても同様にして左目付近のエリアが求められる。パターン検出部352は、右目付近のエリアと左目付近のエリアとを合わせて目エリア(エリアA1)とする。
In this case, the
口については、パターン検出部352は、P03に対して片側の幅L03、片側の高さL04の長方形を口エリア(エリアA2)とする。また、パターン検出部352は、P01よりL05右を顔エリアの右端、P02よりL05左を顔エリアの左端、P01よりL06上を顔エリアの上端、P03よりL07下を顔エリアの下端としている。パターン検出部352が、顔の輪郭を抽出して顔エリアを決めてもよい。
Regarding the mouth, the
これにより、目エリアであるエリアA1、口エリアであるエリアA2、エリアA1とエリアA2を除いた顔エリア(エリアA3)、その他のエリア(エリアA4)が確定する。 Thereby, the area A1 that is the eye area, the area A2 that is the mouth area, the face area excluding the areas A1 and A2 (area A3), and the other areas (area A4) are determined.
この方法は、動画で対象者を表示して、その動画に対して、順次エリアを計測して決めていく方法である。すなわち、例えば母親を撮像した画像をそのまま対象画像とする場合などにも対応可能である。しかし、所定の動画像を対象画像とする場合などは、フレームごとのエリアが事前にわかっているので、これを保存しておいて、そのデータを用いる方法でもよい。 In this method, the target person is displayed as a moving image, and the area is sequentially measured and determined for the moving image. That is, for example, it is possible to deal with a case where an image obtained by imaging a mother is used as a target image as it is. However, when a predetermined moving image is used as a target image, the area for each frame is known in advance, so that a method of storing this and using the data may be used.
パターン検出部352は、このようにして分割されたエリア間の被験者の視点の移動パターンを検出する。パターン検出部352は、例えば、分割された各エリアの図1の座標系での座標値と、視点検出部351により検出された視点の図1の座標系での座標値と、を比較することにより、視点の移動パターンを検出することができる。
The
図6は、視点の移動パターンの一例を示す図である。例えば、エリアA1→エリアA2の視点の移動パターンが移動パターンM1として付番される。他の移動パターンも同様に付番される。 FIG. 6 is a diagram illustrating an example of a viewpoint movement pattern. For example, the movement pattern of the viewpoint from area A1 to area A2 is numbered as the movement pattern M1. Other movement patterns are similarly numbered.
算出部353は、検出された移動パターンと基準パターンとを比較することにより、発達障害の程度に関連する値を表す評価情報を算出する。基準パターンは、視点の予め定められた移動のパターンを表す。例えば、目エリア以外のエリアから、目エリア(エリアA1)に移動するパターンを基準パターンとすることができる。図6の例では、移動パターンM4、M7、M10が、このような基準パターンに相当する。上述のように、発達障害者の特徴の1つとして、対面する相手の目を見ないことが挙げられる。従って、目エリア以外のエリアから目エリアに移動する基準パターンに適合する場合は、算出部353は、発達障害に関連する値の程度が低くなるように評価情報を算出する。
The
このように、例えば、検出された移動パターンと基準パターンとが一致する場合、算出部353は、当該基準パターンに応じて定められた数値を加算または減算した評価値を評価情報として算出する。評価値(評価情報)としては、値が大きいほど発達障害の程度が低いことを示す情報を用いてもよいし、逆に値が大きいほど発達障害の程度が高いことを示す情報を用いてもよい。
Thus, for example, when the detected movement pattern matches the reference pattern, the
また、基準パターンとしては、健常者の視点の移動を表すパターン、および、発達障害者の視点の移動を表すパターンのいずれを用いてもよい。移動パターンが前者の基準パターンに適合する場合は、算出部353は、発達障害の程度が低いことを示すように評価値を算出すればよい。逆に、移動パターンが後者の基準パターンに適合する場合は、算出部353は、発達障害の程度が高いことを示すように評価値を算出すればよい。
In addition, as the reference pattern, any one of a pattern representing movement of the viewpoint of the healthy person and a pattern representing movement of the viewpoint of the developmentally disabled person may be used. When the movement pattern matches the former reference pattern, the
また、基準パターンは、2つのエリア間の視点の移動のパターンに限られるものではない。3つ以上のエリア間の視点の移動のパターンを基準パターンとしてもよい。また、対象の動作部分が動作するパターン(動作パターン)に応じて定められる基準パターンを用いてもよい。 Further, the reference pattern is not limited to the movement pattern of the viewpoint between the two areas. A pattern of viewpoint movement between three or more areas may be used as a reference pattern. Further, a reference pattern determined according to a pattern (operation pattern) in which the target operation part operates may be used.
例えば、発達障害者は、対象者の目が動作した場合に、目を注視するが、目から視点を逸らして他の部分を注視する傾向がある。また、発達障害者は、口が動作した場合に、口を注視するが、再び目を注視することが少ないという傾向がある。従って、例えば、「口が動作する動作パターンの対象画像が表示されたときに、口エリアに視点が移動し、さらに移動後の所定時間以内に目エリアに視点が移動する」という基準パターンを用いてもよい。算出部353は、検出された移動パターンが、この基準パターンに適合する場合に、発達障害の程度が低いことを示す評価値を算出すればよい。
For example, people with developmental disabilities look at the eyes when the subject's eyes move, but tend to look away from the eyes and look at other parts. Further, people with developmental disabilities tend to gaze at the mouth when the mouth moves, but rarely gaze at the eyes again. Therefore, for example, a reference pattern of “the viewpoint moves to the mouth area when the target image of the motion pattern in which the mouth moves” is displayed and the viewpoint moves to the eye area within a predetermined time after the movement is used is used. May be. The
また、動作パターンに対する視点移動のタイミングも含めた基準パターンを用いてもよい。例えば、対象者の目が動作した後、所定時間経過までに視点が目エリアに移動した場合の評価値を、所定時間経過後に視点が目エリアに移動した場合より大きく(または小さく)するように構成してもよい。 Also, a reference pattern including the timing of viewpoint movement with respect to the operation pattern may be used. For example, the evaluation value when the viewpoint moves to the eye area before the elapse of a predetermined time after the eye of the subject moves is set to be larger (or smaller) than when the viewpoint moves to the eye area after the elapse of the predetermined time. It may be configured.
表示制御部354は、表示部101に対する各種情報の表示を制御する。例えば、表示制御部354は、対象画像を表示部101に表示する。
The
制御部300および制御部300内の各部の一部または全部は、ハードウェアにより実現してもよいし、CPUなどにより実行されるソフトウェア(プログラム)により実現してもよい。
Part or all of the
本実施形態の診断支援装置100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
A program executed by the
また、本実施形態の診断支援装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の診断支援装置100で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、本実施形態の診断支援装置100で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
Further, the program executed by the
本実施形態の診断支援装置100で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
The program executed by the
次に、このように構成された第1の実施形態にかかる診断支援装置100による診断支援処理について説明する。図7は、第1の実施形態における診断支援処理の一例を示すフローチャートである。
Next, diagnosis support processing by the
まず、制御部300は、診断のための予め定められた計測期間を設定して、計測期間を監視するためのタイマ1と、停留時間を計測するタイマ2をクリアする(ステップS101)。次に、パターン検出部352は、対象画像の目の位置を検出し、目エリア(エリアA1)を決定する(ステップS102)。次に、パターン検出部352は、対象画像の口の位置を検出し、口エリア(エリアA2)を決定する(ステップS103)。パターン検出部352は、対象画像の顔エリア(エリアA3)を決定する(ステップS104)。
First, the
次に、視点検出部351は、被験者の視点検出を行う(ステップS105)。
Next, the
次に、パターン検出部352は、ステップS105で検出された視点がいずれのエリアに存在するかを座標より決定する(ステップS106)。以下では、視点が存在するエリアを停留エリアともいう。
Next, the
次に、パターン検出部352は、RAM(Random Access Memory)などの記憶部(図示せず)に保存されていた前回の停留エリア(前回エリア)を読み出す(ステップS107)。初回の場合(前回エリアが保存されていない場合)は、今回視点が検出されたエリア(現エリア)を前回エリアとする。
Next, the
パターン検出部352は、現エリアと前回エリアとが一致するか否かを判断する(ステップS108)。一致する場合は(ステップS108:Yes)、ステップS116に移る。一致しない場合は(ステップS108:No)、パターン検出部352は、タイマ2のスタートからの経過時間を保存する(ステップS109)。フレーム数を時間とする場合は、パターン検出部352は、フレーム数を経過時間として保存する。
The
次に、パターン検出部352は、停留時間(経過時間)が、所定値(閾値)を超えているかを判断する(ステップS110)。所定値以下の場合、すなわち注視とは言えない時間の場合は(ステップS110:No)、停留エリアであると判断しないようにするため、ステップS115に進む。図5の例では、例えば、口エリアから、目エリアへの移動中に横切った顔エリアを停留エリアから除外するための処理である。
Next, the
所定値を超えた場合(ステップS110:Yes)、パターン検出部352は、前々回の停留エリア(前々回エリア)を読出す(ステップS111)。次に、パターン検出部352は、前々回エリア→前回エリアの移動パターンを、被験者の視点の移動パターンとして検出し、検出した移動パターンを保存する(ステップS112)。
When the predetermined value is exceeded (step S110: Yes), the
次に、パターン検出部352は、タイマ2の経過時間を、前回エリアの停留時間として保存する(ステップS113)。次に、パターン検出部352は、次回の判断のために、前回エリアを前々回エリアとして、また、現エリアを前回エリアとして保存する(ステップS114)。
Next, the
次に、制御部300は、停留時間を計測しているタイマ2をクリアする(ステップS115)。制御部300は、タイマ1と計測期間とを比較して、全体の計測が終了したか否かを判断する(ステップS116)。終了していない場合には(ステップS116:No)、ステップS102に戻る。
Next, the
計測が終了した場合(ステップS116:Yes)、算出部353は、動作パターン、移動パターン、および停留時間による評価値算出処理を実行する(ステップS117)。評価値算出処理の詳細は後述する。最後に、算出部353は、評価値を保存して診断支援処理を終了する(ステップS118)。
When the measurement is completed (step S116: Yes), the
図8は、第1の実施形態における診断支援処理の別の例を示すフローチャートである。図8の例は、図7と異なり、2フレームごとに各エリアの座標データ、視点の座標データ、経過時間、および、動作パターンを記憶部(図示せず)に保存しておいて、計測が終了してから、保存されていたデータを解析するものである。これにより、例えば処理能力の不足等で図7の処理(リアルタイムの処理)が実行できない場合であっても診断支援が可能となる。 FIG. 8 is a flowchart illustrating another example of the diagnosis support process in the first embodiment. The example of FIG. 8 differs from FIG. 7 in that the coordinate data of each area, the coordinate data of the viewpoint, the elapsed time, and the operation pattern are stored in a storage unit (not shown) every two frames. This is to analyze the saved data after the end. Accordingly, for example, even when the processing of FIG. 7 (real-time processing) cannot be executed due to lack of processing capability, diagnosis support is possible.
まず、制御部300は、診断のための計測期間を設定して、計測期間を監視するためのタイマ1をクリアする(ステップS201)。次に、パターン検出部352は、対象画像の目の位置を検出し、目エリア(エリアA1)を決定し、目エリアの座標データを保存する(ステップS202)。次に、パターン検出部352は、対象画像の口の位置を検出し、口エリア(エリアA2)を決定し、口エリアの座標データを保存する(ステップS203)。パターン検出部352は、対象画像の顔エリア(エリアA3)を決定し、顔エリアの座標データを保存する(ステップS204)。
First, the
次に、視点検出部351は、被験者の視点検出を行い、視点の座標データを保存する(ステップS205)。また、パターン検出部352は、タイマ1のスタートからの経過時間を保存する(ステップS206)。パターン検出部352は、2フレームの画像の比較等により、目エリアで目が動作したか否かを表す動作パターン、および、口エリアで口が動作したか否かを表す動作パターンを検出し、検出した動作パターンを保存する(ステップS207)。
Next, the
制御部300は、タイマ1と計測期間とを比較して、全体の計測が終了したか否かを判断する(ステップS208)。終了していない場合には(ステップS208:No)、ステップS202に戻る。終了した場合には(ステップS208:Yes)、ステップS209に進む。この時点で計測は終了する。
The
次に、制御部300は、データ読出し期間を設定する(ステップS209)。そして、パターン検出部352は、対象画像の目エリアの座標データを読出し(ステップS210)、口エリアの座標データを読出し(ステップS211)、顔エリアの座標データを読出し(ステップS212)、視点の座標データを読出す(ステップS213)。
Next, the
次に、パターン検出部352は、読み出した各座標データを用いて、視点が含まれるエリア(現エリア)を決定する(ステップS214)。そして、パターン検出部352は、前回エリアを読み出し(ステップS215)、現エリアと前回エリアとが一致するか否かを判断する(ステップS216)。一致する場合は(ステップS216:Yes)、ステップS222に進む。一致しない場合は(ステップS216:No)、パターン検出部352は、停留時間が所定値を超えているかを判断する(ステップS217)。停留時間は、例えば、前回エリアの最初のフレームから現エリアのフレームまでのフレーム数、または、このフレーム数に対応する時間として算出できる。
Next, the
所定値以下の場合(ステップS217:No)、ステップS222に進む。所定値を超えていた場合(ステップS217:Yes)、パターン検出部352は、前々回エリアを読出す(ステップS218)。この時点で、パターン検出部352は、前々回エリア→前回エリアの移動パターンを、被験者の視点の移動パターンとして決定し、決定した移動パターンを保存する(ステップS219)。
If it is equal to or smaller than the predetermined value (step S217: No), the process proceeds to step S222. If the predetermined value is exceeded (step S217: Yes), the
また、パターン検出部352は、前回エリアの停留時間を保存する(ステップS220)。パターン検出部352は、次回の判断のために、前回エリアを前々回エリアとして、また、現エリアを前回エリアとして保存する(ステップS221)。この時点で、データの保存が終わる。
In addition, the
次に、制御部300は、一連の処理が終わったか(データ読出し期間のデータの処理が完了したか)を判断し(ステップS222)、未終了の場合は(ステップS222:No)、ステップS210に戻る。終了した場合(ステップS222:Yes)、算出部353は、動作パターン、移動パターン、および停留時間による評価値算出処理を実行する(ステップS223)。算出部353は、評価値を保存して診断支援処理を終了する(ステップS224)。
Next, the
図9は、検出された視点と移動パターンとの関係の一例を示すタイムチャートである。図9を用いて、停留時間が所定値を超えないときには注視と判断しない例について説明する(図7のステップS110および図8のステップS217)。 FIG. 9 is a time chart showing an example of the relationship between the detected viewpoint and the movement pattern. With reference to FIG. 9, an example in which it is not determined to be gaze when the stop time does not exceed a predetermined value will be described (step S110 in FIG. 7 and step S217 in FIG. 8).
上のタイムチャートが、視点が検出されたエリアの動きを表す。横軸が時間を表す。視点が、その他→顔→口→顔・・・と移動している。ここで、時間軸の1メモリを、Δtとして、所定値(閾値)をΔtの2倍とする。この時、t01付近の視点の停留時間は、Δtとなっており、所定値を超えていない。この動きは、注視とは言えないので除外する。 The upper time chart represents the movement of the area where the viewpoint is detected. The horizontal axis represents time. The point of view is moving from Other → Face → Mouth → Face. Here, it is assumed that one memory on the time axis is Δt, and a predetermined value (threshold value) is two times Δt. At this time, the stopping time of the viewpoint near t01 is Δt and does not exceed the predetermined value. This movement is excluded because it is not a gaze.
図7および図8のフローチャートでは、連続してΔtの2倍以上の時間、同じエリアで視点が検出された時に、そのエリアを視点が停留した停留エリアとして確定させている。下のタイムチャートが、確定された停留エリアを表している。 In the flowcharts of FIGS. 7 and 8, when a viewpoint is detected in the same area continuously for a time longer than Δt, that area is determined as a stop area where the viewpoint has stopped. The time chart below shows the fixed stop area.
図10は、動作パターンと移動パターンとの関係の一例を示すタイムチャートである。図10を用いて、評価値算出処理について説明する。横軸は時間を表すが、図9より時間軸は圧縮されて表示されている。 FIG. 10 is a time chart illustrating an example of a relationship between an operation pattern and a movement pattern. The evaluation value calculation process will be described with reference to FIG. Although the horizontal axis represents time, the time axis is compressed and displayed from FIG.
上のタイムチャートは、動作パターンを表す。動作パターンは、対象画像における各部分の動きのパターンである。図10の動作パターンは、対象画像が動画である場合、または、観察対象が実物の母親などの場合のパターンである。 The upper time chart represents the operation pattern. The motion pattern is a motion pattern of each part in the target image. The operation pattern in FIG. 10 is a pattern when the target image is a moving image or when the observation target is a real mother or the like.
動作パターンC1は、目の部分が動くパターンである。例えば瞬きやウインクなどである。動作パターンC2は、口の部分が動くパターンである。例えば、話しかける動作や、口を任意に開けたり閉じたりする動作である。動作パターンC0は、いずれの部分も動いていない状態である。その他、背景に存在する物体(玩具など)の動作パターンを用いてもよい。 The motion pattern C1 is a pattern in which the eyes move. For example, blinking or winking. The motion pattern C2 is a pattern in which the mouth portion moves. For example, it is an operation of talking or an operation of opening or closing the mouth arbitrarily. The operation pattern C0 is a state in which no part moves. In addition, an operation pattern of an object (such as a toy) existing in the background may be used.
また、動作パターンは、既知の映像を使用する場合には経過時間ごとに決められるため、決められた動作パターンを使えばよい。任意の映像等の場合には、数フレームごとの差分画像などにより動作を検出してそれを使用してもよい。 In addition, since the operation pattern is determined for each elapsed time when a known video is used, the determined operation pattern may be used. In the case of an arbitrary video or the like, an operation may be detected from a difference image every several frames and used.
上のタイムチャートは、まず、変化なしの状態(動作パターンC0)から、目の変化が起きて(動作パターンC1)、また変化がなくなり(動作パターンC0)、その後口の変化が起こったこと(動作パターンC2)を示している。 In the upper time chart, first, from a state without change (operation pattern C0), a change in eyes occurred (operation pattern C1), no change occurred (operation pattern C0), and then a mouth change occurred ( An operation pattern C2) is shown.
中段および下段の2つのタイムチャートは、このような動作パターンを含む映像に対して、注視点がどのように移動したかを示している。中段のタイムチャートは、健常者の注視点の移動の一例を模式化したタイムチャートである。図10は、図9の下のタイムチャートのように、細かい動きを排除したタイムチャートとなっている。 The two time charts in the middle stage and the lower stage show how the gazing point has moved with respect to an image including such an operation pattern. The middle time chart is a time chart that schematically illustrates an example of movement of a gazing point of a healthy person. FIG. 10 is a time chart in which fine movements are excluded as in the time chart at the bottom of FIG.
図10では、上からエリアA1〜エリアA4が並んでいる。対象の目が変化した動作パターンが発生したとき、被験者は、目を注視して、目の動きが止まった後も、また目を注視することを示す視点の移動パターンが発生する。また、口が変化した動作パターンが発生したとき、被験者は、口を注視するが、再び目を注視することを示す視点の移動パターンが発生する。また、口が変化した動作パターンが発生したとき、被験者は、口の変化が止まった後、所定時間(t0)以内に目を注視することを示す視点の移動パターンが発生する。 In FIG. 10, area A1 to area A4 are arranged from the top. When a motion pattern in which the subject's eyes have changed occurs, the subject gazes at the eyes, and after the movement of the eyes stops, a movement pattern of the viewpoint indicating that the eyes are gazes is generated. In addition, when an action pattern with a changed mouth is generated, the subject gazes at the mouth, but a movement pattern of the viewpoint indicating that the eyes are watched again is generated. In addition, when an operation pattern with a changed mouth is generated, a movement pattern of a viewpoint indicating that the subject gazes within the predetermined time (t0) after the change of the mouth stops is generated.
本実施形態では、このような健常者の移動パターンが発生したときに、発達障害の程度が低いことを表す評価値が算出される。例えば、このような健常者の移動パターンを基準パターンとして定めておき、検出された移動パターンが基準パターンと一致したときに、発達障害の程度が低いことを表す評価値が算出される。 In this embodiment, when such a healthy person's movement pattern generate | occur | produces, the evaluation value showing that the grade of a developmental disorder is low is calculated. For example, such a healthy person's movement pattern is defined as a reference pattern, and when the detected movement pattern matches the reference pattern, an evaluation value indicating that the degree of developmental disorder is low is calculated.
下段のタイムチャートは、発達障害の傾向のある被験者の注視点の移動の一例を模式化したタイムチャートである。このような被験者の場合、対象の目が変化した動作パターンが発生したとき、目を注視するが、目から視点を逸らして他の部分を注視する傾向がある。また、口が変化した動作パターンが発生したとき、口を注視するが、再び目を注視することが少なくなる傾向がある。 The lower time chart is a time chart that schematically illustrates an example of movement of a gazing point of a subject who is prone to developmental disabilities. In the case of such a subject, when an operation pattern in which the subject's eyes have changed occurs, the eyes are watched, but there is a tendency to look away from the eyes and look at other parts. Also, when an operation pattern with a changing mouth occurs, the user looks at the mouth, but there is a tendency that the eyes are less likely to be watched again.
図11および図12は、評価結果の一例を示す図である。なお、図11および図12では、値が大きいほど発達障害の程度が低いことを示す評価値を用いる例が示される。 11 and 12 are diagrams illustrating examples of evaluation results. FIGS. 11 and 12 show examples using evaluation values indicating that the greater the value, the lower the degree of developmental disorder.
図11は、健常者の評価結果の例を示す。図11は、図10の中段の移動パターンに対応する評価結果の例を表している。図10の中段には、視点の移動パターン(M10、M2、M7、M2、M7・・・)が15個含まれる。図11は、移動パターンが検出された順番と、移動パターンと、停留時間と、動作パターンと、4つの評価値(評価1〜評価4)とを対応づけた評価結果を示している。停留時間は、各移動パターンに対して求められた停留時間である。図11では説明の便宜上、停留時間を整数で表しているが、停留時間の単位は任意である。動作パターンは、移動パターンが発生したときの動作パターンである。
FIG. 11 shows an example of an evaluation result of a healthy person. FIG. 11 shows an example of an evaluation result corresponding to the movement pattern in the middle stage of FIG. The middle part of FIG. 10 includes 15 viewpoint movement patterns (M10, M2, M7, M2, M7...). FIG. 11 shows an evaluation result in which the order in which the movement patterns are detected, the movement pattern, the retention time, the operation pattern, and the four evaluation values (
評価1は、移動パターンが、目エリア以外のエリアから目エリアに移動する基準パターンに適合する場合に1が設定され、それ以外の場合は0が設定される。すなわち、移動パターンがM4、M7、および、M10の場合に評価1=1が設定される。
評価2は、動作パターンで変化(動作)したことが示されるエリアと移動後の視点のエリアとが一致していない場合、評価1の値を2倍した値が設定される。すなわち、算出部353は、検出された移動パターンが、「動作部分が動作する動作パターンが発生したときに、当該動作部分を含まないエリアに視点が移動する」ことを示す基準パターンに適合する場合に、発達障害の程度が低いことを示す評価値を算出する。動いている部分に対して、その部分を見るのは、障害の影響を受け難い。逆に、発達障害者は、動いている部分を見ずに他の部分に視点を移動する可能性が低い。このため、変化した部分を含むエリアと視点の移動後のエリアとが一致しない場合の評価を2倍としている。
The
評価3は、目以外(口)が変化したあと、所定時間(t0)以内に目エリアに視点が移動した場合に、値3が設定される。
The
評価4は、評価2+評価3に停留時間を加算した値である。目に対して注視する時間(停留時間)が長いほど、障害が少ないと考えられるためである。
図12は、発達障害の可能性がある被験者の評価結果の例を示す。図12は、図10の下段の移動パターンに対応する評価結果の例を表している。健常者に対して、下記の差が生じている。
評価1:7→2
評価2:12→3
評価3:6→0
評価4:45→7
FIG. 12 shows an example of an evaluation result of a subject who has a possibility of developmental disorder. FIG. 12 shows an example of an evaluation result corresponding to the lower movement pattern of FIG. The following differences occur with respect to healthy individuals.
Evaluation 1: 7 → 2
Evaluation 2: 12 → 3
Evaluation 3: 6 → 0
Evaluation 4: 45 → 7
評価値の間に、閾値を設け、評価値が閾値を超えたか否かにより、診断支援を行うことが可能になる。なお、評価値ごとに閾値を設けてもよいし、合計値に相当する評価4のみに対して閾値を設けてもよい。
A threshold is provided between the evaluation values, and diagnosis support can be performed depending on whether or not the evaluation value exceeds the threshold. Note that a threshold value may be provided for each evaluation value, or a threshold value may be provided only for the
(第2の実施形態)
第1の実施形態では、観察対象の画像(対象画像)を表示部に表示して被験者の発達障害を診断する例を説明した。第2の実施形態では、表示部に表示される対象画像ではなく、直接観察対象(対象者)の目を見るか否かにより診断支援する例を説明する。この方法でも、対象者を撮影した映像と、被験者の視点より、エリア設定および視点の移動などの判断が可能である。
(Second Embodiment)
In the first embodiment, an example has been described in which an image to be observed (target image) is displayed on the display unit to diagnose a developmental disorder of the subject. In the second embodiment, an example will be described in which diagnosis is supported based on whether or not the eyes of a direct observation target (subject) are viewed, not the target image displayed on the display unit. Even in this method, it is possible to determine the area setting, the movement of the viewpoint, and the like from the video of the subject and the viewpoint of the subject.
図13は、第2の実施形態の診断支援装置の外観構成の一例を示す斜視図である。図13に示すように、第2の実施形態の診断支援装置100−2は、筐体131と、ステレオカメラ102a、102bと、較正用LED104a〜104cと、スピーカ105と、ボタン106と、赤外線通信部107と、コネクタ108と、を備えている。
FIG. 13 is a perspective view illustrating an example of an external configuration of the diagnosis support apparatus according to the second embodiment. As illustrated in FIG. 13, the diagnosis support apparatus 100-2 of the second embodiment includes a
ステレオカメラ102a、102bは、赤外線によるステレオ撮影が可能な撮像部である。ステレオカメラ102a、102bは、それぞれ第1の実施形態のステレオカメラ102と同様の構成を備える。2組のステレオカメラ102a、102bは、互いに撮像面が反対方向となるように設置される。これにより、ステレオカメラ102a、102bが、それぞれ対面する被験者(例えば幼児)と対象者(例えば母親)の顔を撮影できるようになっている。以下、区別する必要がない場合は、ステレオカメラ102a、102bを単にステレオカメラ102という場合がある。
The
較正用LED104a〜104cは、較正用の注視点となるLEDである。なお、このLEDを用いる較正処理は、個人ごとの目の特性に応じて視線検出のための計算パラメータを修正するための較正処理(視線検出用較正)であり、ステレオカメラ102の内部パラメータおよび外部パラメータの較正処理(カメラ較正)とは異なる。視線検出用較正時に被験者に注視させる必要があるため、較正用LED104a〜104cは、可視光を発光するLED光源である。
The
スピーカ105は、視線検出用較正時に被験者に注意を促すための音声、および、測定結果を示す音声などを出力する。ボタン106は、例えば診断支援装置100−2の操作者が、測定開始を指示するためのボタンである。なお、ボタン106は操作のためのインタフェースの一例であり、操作インタフェースとしては他のあらゆるインタフェースを適用できる。例えば、複数のボタンを備えるように構成してもよい。また、タッチパネル、キーボード、およびマウスなどのインタフェースを適用してもよい。
The
赤外線通信部107は、外部装置との間で赤外線通信を行うためのインタフェースである。赤外線通信部107は、例えば、較正装置を用いてステレオカメラ102を較正(カメラ較正)するときに、較正装置との間でデータを送受信するときに利用される。なお、通信は赤外線通信に限られるものではなく、他の無線通信方式、および、有線通信方式などを用いてもよい。
The
コネクタ108は、測定結果の数値および画像などを表示するモニタ(表示部210)を接続する場合のコネクタである。
The
図14は、診断支援装置100−2の詳細な機能の一例を示すブロック図である。図14に示すように、制御部300−2には、表示部210と駆動・IF部208−2が接続される。駆動・IF部208−2は、カメラIF314、315、317、318と、LED駆動制御部316−2と、LED駆動部320a〜320cと、スピーカ駆動部322と、を含む。図14に示すように、第2の実施形態では、対象画像を表示する表示部101を備える必要がない。
FIG. 14 is a block diagram illustrating an example of detailed functions of the diagnosis support apparatus 100-2. As shown in FIG. 14, the
LED駆動制御部316−2は、赤外LED光源203a、205a、203b、205bを駆動する。赤外LED光源203a、205a、203b、205bは、それぞれ波長が異なるLEDを含んでいる。
The LED drive control unit 316-2 drives the infrared
赤外LED光源203aは、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205aは、波長1−LED305と、波長2−LED306と、を備えている。赤外LED光源203bは、波長1−LED307と、波長2−LED308と、を備えている。赤外LED光源205bは、波長1−LED309と、波長2−LED310と、を備えている。
The infrared
波長1−LED303、305、307、309は、波長1の赤外線を照射する。波長2−LED304、306、308、310は、波長2の赤外線を照射する。
Wavelength 1-
LED駆動部320a〜320cは、それぞれ較正用LED104a〜104cを駆動する。スピーカ駆動部322は、スピーカ105を駆動する。
The
駆動・IF部208−2には、カメラIF314、315、317、318を介して、それぞれ、右カメラ202a、左カメラ204a、右カメラ202b、左カメラ204bが接続される。駆動・IF部208−2がこれらのカメラを駆動することにより、被験者や対象者を撮像する。
The
右カメラ202aからはフレーム同期信号が出力される。フレーム同期信号は、左カメラ204aと、LED駆動制御部316−2とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(波長1−LED303、波長1−LED305)を発光させ、それに対応して左右カメラ(右カメラ202a、左カメラ204a)による画像を取り込み、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波長2−LED304、波長2−LED306)を発光させ、それに対応して左右カメラ(右カメラ202a、左カメラ204a)による画像を取り込むように制御できる。
A frame synchronization signal is output from the
例えば、右カメラ202a、左カメラ204a、赤外LED光源203a、赤外LED光源205aが、被験者用のモジュールであり、右カメラ202b、左カメラ204b、赤外LED光源203b、赤外LED光源205bが、対象者用のモジュールである。
For example, the
対象者用のモジュールでは、発光および撮像は、第3フレームおよび第4フレームで実施する。このように、4フレームをサイクルとして撮像を行っていく。また、1フレーム内において、カメラの高速シャッター機能と赤外線短時間発光を組み合わせて、2種類の波長それぞれが干渉しないようにして撮像することも可能である。 In the module for the subject, light emission and imaging are performed in the third frame and the fourth frame. In this way, imaging is performed with four frames as a cycle. In addition, in one frame, it is possible to combine the high-speed shutter function of the camera and short-time infrared light emission so that the two types of wavelengths do not interfere with each other to capture an image.
制御部300−2は、第1の実施形態と同様の視点検出部351、パターン検出部352、および、算出部353に加えて、位置検出部354と、変換部355と、較正部356と、を備えている。
The control unit 300-2 includes a
位置検出部354は、対象者用のモジュール(ステレオカメラ102b)で撮影された画像から、対象者の目の位置を検出する。対象者の目の位置は、例えば、視点検出部351が瞳孔の位置を算出する方法と同様の方法により検出できる。
The
なお、対象者の目の位置の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、対象者の目の位置を検出してもよい。 Note that the method for detecting the eye position of the subject person is not limited to this. For example, the eye position of the subject may be detected by analyzing an image captured using visible light instead of infrared light.
変換部355は、2組のステレオカメラ102a、102bそれぞれが用いる座標系間の変換を行う。被験者の視線方向および対象者の目の位置は、それぞれ座標系が異なるステレオカメラ(ステレオカメラ102a、ステレオカメラ102b)で撮影された画像から検出され、異なる座標系の座標値で表される。このため、変換部355が、両座標系間の座標値の変換を行う。
The
較正部356は、視線方向を検出するために用いる計算パラメータを較正(視線検出用較正)する。一般に個人ごとに目の光軸と視線方向とが異なる。このため、光軸と視線方向が一致するように補正する必要があるためである。視線検出用較正処理では、所定の座標系上で既知である所定の位置(例えば較正用LED104a〜104c)を被験者に注視させて、その時の瞳孔の中心(瞳孔の位置)と角膜反射位置とを測定する。そして、較正部356は、測定された瞳孔の位置と角膜反射位置とから求められる視線方向が、所定の位置に向くように、視線検出のための計算パラメータを修正する。
The
所定の位置は、例えば1点、2点、および3点のいずれかが設定される。本実施形態の例では、例えば較正用LED104aのみ(1点)、較正用LED104aおよび104b(2点)、および、較正用LED104a〜104c(3点)などが設定される。点数が少ないほど、較正時間が短く、点数が多いほど高精度となる傾向がある。
For example, one point, two points, or three points are set as the predetermined position. In the example of the present embodiment, for example, only the
なお、対象者については、目の位置検出だけでよいので視線検出用較正は不要である。また、較正部356は、ステレオカメラ102の内部パラメータおよび外部パラメータの較正処理(カメラ較正)を行う。
For the subject, it is only necessary to detect the position of the eyes, so that calibration for detecting the line of sight is unnecessary. Further, the
図15は、対象者の目の位置と被験者の視点検出を説明するための図である。上述のように、視点検出部351は、被験者の瞳孔位置および角膜反射位置から、被験者の視線方向を検出する。位置検出部354は、対象者の目の位置(瞳孔位置)を検出する。瞳孔位置は、ステレオカメラ102aおよび102bが共通に用いる座標系(共通座標系)で表現される。また、被験者の目の位置(瞳孔位置)および視線方向(視線ベクトルなど)も、共通座標系で表現される。このため、パターン検出部352は、各エリアの共通座標系での座標値と、視点検出部351により検出された視点の共通座標系での座標値と、を比較することにより、視点の移動パターンを検出することができる。なお、本実施形態では、パターン検出部352が、対象者を撮像した画像を対象画像とし、この対象画像を複数のエリアに分割するように構成すればよい。
FIG. 15 is a diagram for explaining the eye position of the subject and the viewpoint detection of the subject. As described above, the
このように、第2の実施形態では、対象者用のモジュール(ステレオカメラ102b)で撮像された画像を、第1の実施形態の対象画像として用いて、第1の実施形態と同様の方法で診断支援処理を実行することができる。
Thus, in the second embodiment, an image captured by the module for the target person (
以上のように、第1および第2の実施形態によれば、例えば以下のような効果が得られる。
(1)視点の位置だけでなく、視点の移動も判断することにより高精度の発達障害診断を実現することができる。
(2)目の動作、および、目以外の部分の動作に対応した視点の移動も判断することにより高精度の発達障害診断を実現することができる。
(3)注視と解釈すべきでない細かい視点の動きを排除できる。
As described above, according to the first and second embodiments, for example, the following effects can be obtained.
(1) A highly accurate developmental disorder diagnosis can be realized by judging not only the position of the viewpoint but also the movement of the viewpoint.
(2) A highly accurate developmental disorder diagnosis can be realized by determining the movement of the viewpoint corresponding to the movement of the eye and the movement of the part other than the eye.
(3) The movement of a fine viewpoint that should not be interpreted as gaze can be eliminated.
100 診断支援装置
101 表示部
102 ステレオカメラ
105 スピーカ
106 ボタン
107 赤外線通信部
108 コネクタ
131 筐体
202 右カメラ
203、205 赤外LED光源
204 左カメラ
208 駆動・IF部
210 表示部
300 制御部
351 視点検出部
352 パターン検出部
353 算出部
DESCRIPTION OF
Claims (11)
被験者が観察する対象を分割した複数の分割領域間での前記視点の移動パターンを検出するパターン検出部と、
前記移動パターンと、前記視点の予め定められた移動のパターンを表す基準パターンとを比較することにより、発達障害の程度を表す評価情報を算出する算出部と、
を備えることを特徴とする診断支援装置。 A viewpoint detector for detecting the viewpoint of the subject;
A pattern detection unit for detecting a movement pattern of the viewpoint between a plurality of divided areas obtained by dividing a subject to be observed by the subject;
A calculation unit that calculates evaluation information indicating the degree of developmental disability by comparing the movement pattern with a reference pattern that represents a predetermined pattern of movement of the viewpoint;
A diagnostic support apparatus comprising:
ことを特徴とする請求項1に記載の診断支援装置。 The region divided into a plurality of regions is a region including an operation region including an operation portion of a subject that is observed by the subject and a non-operation region including a non-operation portion of the object that is not operated. The diagnosis support apparatus according to claim 1.
前記算出部は、前記基準パターンと一致する前記移動パターンが多いほど、発達障害の程度が小さいことを表す前記評価情報を算出する、
ことを特徴とする請求項2に記載の診断支援装置。 The reference pattern represents a pattern in which the viewpoint moves from the non-operation area to the operation area,
The calculation unit calculates the evaluation information indicating that the greater the movement pattern that matches the reference pattern, the smaller the degree of developmental disability.
The diagnosis support apparatus according to claim 2, wherein:
ことを特徴とする請求項2に記載の診断支援装置。 The calculation unit calculates the evaluation information by comparing the movement pattern and the reference pattern determined according to the operation pattern of the operation part;
The diagnosis support apparatus according to claim 2, wherein:
前記算出部は、前記基準パターンと一致する前記移動パターンが多いほど、発達障害の程度が小さいことを表す前記評価情報を算出する、
ことを特徴とする請求項4に記載の診断支援装置。 The reference pattern is a pattern in which the viewpoint moves from the non-operation area to the operation area when the reference pattern changes from an operation pattern indicating that the operation part does not operate to an operation pattern indicating that the operation part operates. Represent,
The calculation unit calculates the evaluation information indicating that the greater the movement pattern that matches the reference pattern, the smaller the degree of developmental disability.
The diagnosis support apparatus according to claim 4, wherein:
ことを特徴とする請求項2に記載の診断支援装置。 The operating part is at least one of a person's eyes and the person's mouth;
The diagnosis support apparatus according to claim 2, wherein:
前記動作領域は、前記人物の目を含む目領域と、前記人物の口を含む口領域とを含み、
前記基準パターンは、前記口が動作したことを表す動作パターンが発生したときに、前記口領域から前記目領域に前記視点が移動するパターンを表し、
前記算出部は、前記基準パターンと一致する前記移動パターンが多いほど、発達障害の程度が小さいことを表す前記評価情報を算出する、
ことを特徴とする請求項2に記載の診断支援装置。 The operation portion is the eyes and mouth of the person of the human material,
The operation area includes an eye area including the eyes of the person and a mouth area including the mouth of the person,
The reference pattern represents a pattern in which the viewpoint moves from the mouth area to the eye area when an operation pattern indicating that the mouth has moved occurs.
The calculation unit calculates the evaluation information indicating that the greater the movement pattern that matches the reference pattern, the smaller the degree of developmental disability.
The diagnosis support apparatus according to claim 2, wherein:
ことを特徴とする請求項1に記載の診断支援装置。 When the elapsed time after the viewpoint has moved from a first area of the divided areas to a second area of the divided areas exceeds a predetermined threshold, the pattern detection unit starts from the first area. Detecting that the viewpoint has moved to the second region;
The diagnosis support apparatus according to claim 1.
ことを特徴とする請求項8に記載の診断支援装置。 The calculation unit calculates the evaluation information indicating that the degree of developmental disorder is small as the elapsed time is large.
The diagnosis support apparatus according to claim 8.
被験者が観察する対象を分割した複数の分割領域間での前記視点の移動パターンを検出するステップと、
前記移動パターンと、前記視点の予め定められた移動のパターンを表す基準パターンとを比較することにより、発達障害の程度を表す評価情報を算出するステップと、
を含むことを特徴とする診断支援方法。 Detecting a subject's viewpoint;
Detecting a movement pattern of the viewpoint between a plurality of divided areas obtained by dividing a subject to be observed by the subject;
Calculating evaluation information representing the degree of developmental disability by comparing the movement pattern with a reference pattern representing a predetermined movement pattern of the viewpoint;
A diagnostic support method comprising:
ことを特徴とする請求項10に記載の診断支援方法。 The region divided into a plurality of regions is a region including an operation region including an operation portion of a subject that is observed by the subject and a non-operation region including a non-operation portion of the object that is not operated. The diagnosis support method according to claim 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012088537A JP5838894B2 (en) | 2012-04-09 | 2012-04-09 | Diagnosis support apparatus and diagnosis support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012088537A JP5838894B2 (en) | 2012-04-09 | 2012-04-09 | Diagnosis support apparatus and diagnosis support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013215396A JP2013215396A (en) | 2013-10-24 |
JP5838894B2 true JP5838894B2 (en) | 2016-01-06 |
Family
ID=49588278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012088537A Active JP5838894B2 (en) | 2012-04-09 | 2012-04-09 | Diagnosis support apparatus and diagnosis support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5838894B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6003277B2 (en) * | 2012-06-19 | 2016-10-05 | 株式会社Jvcケンウッド | Diagnosis support apparatus and diagnosis support method |
JP6593133B2 (en) * | 2015-11-30 | 2019-10-23 | 株式会社Jvcケンウッド | Diagnosis support apparatus and diagnosis support method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007289656A (en) * | 2006-03-28 | 2007-11-08 | Fujifilm Corp | Image recording apparatus, image recording method and image recording program |
US8371693B2 (en) * | 2010-03-30 | 2013-02-12 | National University Corporation Shizuoka University | Autism diagnosis support apparatus |
-
2012
- 2012-04-09 JP JP2012088537A patent/JP5838894B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013215396A (en) | 2013-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10722113B2 (en) | Gaze detection apparatus and gaze detection method | |
EP2965689B1 (en) | Diagnosis support apparatus and diagnosis support method | |
EP3123943B1 (en) | Detection device and detection method | |
JP5983131B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6201956B2 (en) | Gaze detection device and gaze detection method | |
JP6638354B2 (en) | Eye gaze detection device and eye gaze detection method | |
JP6245093B2 (en) | Diagnosis support apparatus and diagnosis support method | |
WO2002003853A1 (en) | Pupil measuring device | |
JP5983135B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6142822B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP2020038734A (en) | Visual line detection device and visual line detection method | |
JP2016028669A (en) | Pupil detection device and pupil detection method | |
JP6380178B2 (en) | Diagnosis support apparatus and diagnosis support method | |
EP3028644B1 (en) | Diagnosis assistance device and diagnosis assistance method | |
JP6593133B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP5838894B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP2015144635A (en) | detection device and detection method | |
JP6019684B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6003277B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP2016150048A (en) | Gaze point detection device and gaze point detection method | |
JP6187347B2 (en) | Detection apparatus and detection method | |
JP6909391B2 (en) | Line-of-sight detection device and line-of-sight detection method | |
JP2015043966A (en) | Diagnosis assistance device and diagnosis assistance method | |
JP2015181797A (en) | Detection apparatus and detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150428 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5838894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |