JP2017091327A - ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム - Google Patents

ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム Download PDF

Info

Publication number
JP2017091327A
JP2017091327A JP2015222518A JP2015222518A JP2017091327A JP 2017091327 A JP2017091327 A JP 2017091327A JP 2015222518 A JP2015222518 A JP 2015222518A JP 2015222518 A JP2015222518 A JP 2015222518A JP 2017091327 A JP2017091327 A JP 2017091327A
Authority
JP
Japan
Prior art keywords
display control
pointer
control unit
line
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015222518A
Other languages
English (en)
Inventor
中山 寛
Hiroshi Nakayama
寛 中山
小田切 淳一
Junichi Odagiri
淳一 小田切
哲 中島
Satoru Nakajima
哲 中島
村瀬 健太郎
Kentaro Murase
健太郎 村瀬
田中 正清
Masakiyo Tanaka
正清 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015222518A priority Critical patent/JP2017091327A/ja
Priority to US15/331,983 priority patent/US10241570B2/en
Priority to CN201610949734.3A priority patent/CN107015635A/zh
Publication of JP2017091327A publication Critical patent/JP2017091327A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】視線入力により適切にポインティングを実行するポインティング支援装置、方法及びプログラムを提供する。【解決手段】ポインティング支援装置100は、視線位置検出部150aと、表示制御部150bとを有する。視線位置検出部150aは、画面上の利用者の視線位置を検出する。表示制御部150bは、視線位置をポインタの初期位置として設定する。表示制御部150bは、ポインタを移動させる経路および経路の移動パターンを定義した経路定義情報を基にして、初期位置を起点とした経路を画面上に表示し、ポインタを経路に沿って移動させる。【選択図】図1

Description

本発明は、ポインティング支援装置等に関する。
近年、GUI(Graphical User Interface)を備えるPC(Personal computer)、タブレット端末、スマートフォン等の情報機器が普及している。利用者は、GUIの任意の位置にあるアイコン、ボタン、コマンドタブ等のターゲットをポインティングすることで、情報機器を操作する。
情報機器に対するポインティングは、利用者の上肢によるマウス操作や、タッチパッド、タッチパネル上の手指による操作で行われる。このため、上肢や手指がうまく機能しない肢体不自由者や高齢者等は、GUIを備えた情報機器を操作することができなかった。
この問題について、上肢や手指による直接的な操作を行わなくても、利用者の画面上の視線位置を検出して、ポインティングを行うことを可能とする視線入力の技術がある。例えば、視線入力によりポインティングを行う技術の一例として、従来技術1がある。
従来技術1は、視線位置と、ポインタ位置との距離に応じてポインタの移動速度を制御して、視線位置にポインタを近づけ、視線位置とポインタ位置との距離が一定の範囲内となった場合に、ポインタ位置を固定する技術が開示されている。
しかし、従来技術1のものは、利用者の視線位置を高精度に検出することが前提となっている。一般的に、視線位置を検出する精度は、実際の視線位置を中心として20mm前後の誤差があるため、利用者の意図した位置にポインタを移動させることが難しい。なお、視線位置を高精度に検出可能な装置は、高価であり、各情報機器に標準的に搭載することが難しい。
これに対して、視線位置の誤差を抑える従来技術2が存在する。従来技術2は、視線位置と選択されるべき対象物との位置ずれを、入力された補正情報に基づき視線位置を補正するものである。補正情報は、利用者自身が入力装置を操作して装置に入力する。
特開2004−287823号公報 特開2000−89905号公報
しかしながら、上述した従来技術では、視線入力により適切にポインティングを実行することができないという問題がある。
例えば、従来技術2では、補正情報に基づき、視線位置を補正することで、視線位置の誤差を少なくすることができるものの、利用者自身が入力装置を操作して、補正情報を入力するため、肢体不自由者や高齢者等が取り扱うことが難しい。
1つの側面では、本発明は、視線入力により適切にポインティングを実行することができるポインティング支援装置、ポインティング支援方法およびポインティング支援プログラムを提供することを目的とする。
第1の案では、ポインティング支援装置は、視線位置検出部と、表示制御部とを有する。視線位置検出部は、画面上の利用者の視線位置を検出する。表示制御部は、視線位置をポインタの初期位置として設定する。表示制御部は、ポインタを移動させる経路および経路の移動パターンを定義した経路定義情報を基にして、初期位置を起点とした経路を画面上に表示し、ポインタを経路に沿って移動させる。
視線入力により適切にポインティングを実行することができる。
図1は、本実施例1に係るポインティング支援装置の構成を示す機能ブロック図である。 図2は、経路定義テーブルのデータ構造の一例を示す図である。 図3は、第1経路定義を説明するための図である。 図4は、第2経路定義を説明するための図である。 図5は、第3経路定義を説明するための図である。 図6は、本実施例1に係る表示制御部の処理を説明するための図である。 図7は、本実施例1に係るポインティング支援装置の処理手順を示すフローチャートである。 図8は、本実施例2に係るポインティング支援装置の構成を示す機能ブロック図である。 図9は、本実施例2に係る表示制御部の処理を説明するための図である。 図10は、本実施例2に係るポインティング支援装置の処理手順を示すフローチャート(1)である。 図11は、本実施例2に係るポインティング支援装置の処理手順を示すフローチャート(2)である。 図12は、ポインティング支援装置のその他の処理(1)を説明するための図である。 図13は、ポインティング支援装置のその他の処理(2)を説明するための図である。 図14は、ポインティング支援装置のその他の処理(3)を説明するための図である。 図15は、表示制御部がジェスチャによる入力を受け付ける処理の処理手順を示すフローチャートである。 図16は、ポインティング支援プログラムを実行するコンピュータの一例を示す図である。
以下に、本願の開示するポインティング支援装置、ポインティング支援方法およびポインティング支援プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例1に係るポインティング支援装置の構成について説明する。図1は、本実施例1に係るポインティング支援装置の構成を示す機能ブロック図である。図1に示すように、このポインティング支援装置100は、視線入力部110と、スイッチ120と、表示部130と、記憶部140と、制御部150とを有する。
視線入力部110は、利用者の視線を入力するための装置である。例えば、視線入力部110は、カメラに対応する。視線入力部110は、利用者の顔画像を撮影し、撮影した顔画像のデータを、制御部150に出力する。
スイッチ120は、利用者によって押下可能なボタンを有するスイッチである。スイッチは、ボタンが押下されているか否かの信号を、制御部150に出力する。スイッチ120は、受付部の一例である。
表示部130は、制御部150から出力される各種の情報を表示する表示装置である。表示部130は、液晶ディスプレイやタッチパネル等に対応する。
記憶部140は、経路定義テーブル140aを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
経路定義テーブル140aは、ポインタを移動させる経路および経路の移動パターンを定義した経路定義情報を保持するテーブルである。図2は、経路定義テーブルのデータ構造の一例を示す図である。図2に示すように、この経路定義テーブル140aは、経路定義識別情報と、複数の手順とを対応付ける。経路定義識別情報は、経路定義を一意に識別する情報である。手順は、経路を移動させる手順または経路に沿ってポインタを移動させる手順を示すものである。経路定義には様々なものがあるが、ここでは一例として、第1経路定義、第2経路定義、第3経路定義について説明する。
図3は、第1経路定義を説明するための図である。第1経路定義は、手順1と、手順2とを有する。第1経路定義の手順1は、現在のポインタ位置10から、直進移動バー11を表示し、ポインタ位置10を中心にして、直進移動バー11を回転移動させる手順である。
第1経路定義の手順2は、第1経路定義の手順1で方向が確定した直進移動バー11を、直進移動バー11が示す方向に直進移動させる手順である。ポインタ位置10aは、直進移動バー11の移動に合わせて移動する。第1経路定義では、経路は、直進移動バー11となる。
図4は、第2経路定義を説明するための図である。第2経路定義は、手順1と、手順2とを有する。第2経路定義の手順1は、現在のポインタ位置10を中心とする円12を同心円状に拡大する手順である。
第2経路定義の手順2は、第2経路定義の手順1で確定した円12上の任意の位置から円12に沿ってポインタ位置12aを移動させる手順である。第2経路定義では、経路は、円12となる。
図5は、第3経路定義を説明するための図である。第3経路定義は、手順1と、手順2と、手順3と、手順4とを有する。第3経路定義の手順1は、現在のポインタ位置10aからポインタを垂直ガイド13a付きで水平右方向に移動させる手順である。
第3経路定義の手順2は、手順1の移動で決定したポインタ位置10bからポインタを垂直ガイド13a付きで水平左方向に移動させる手順である。
第3経路定義の手順3は、手順2の移動で決定したポインタ位置10cからポインタを水平ガイド13b付きで垂直上方向に移動させる手順である。
第3経路定義の手順4は、手順3の移動で決定したポインタ位置10dからポインタを水平ガイド13b付きで垂直下方向に移動させる手順である。
なお、上記で説明した第3経路定義は一例であり、第3経路定義の手順1〜手順4から、手順2、手順4を省略してもよいし、手順1、手順3を省略しても良い。
図1の説明に戻る。制御部150は、視線位置検出部150aと、表示制御部150bとを有する。制御部150は、制御部150は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。
視線位置検出部150aは、表示部130の画面上の利用者の視線位置を検出する処理部である。視線位置検出部150aは、視線位置の情報を、表示制御部150bに出力する。
視線位置検出部153は、どのような従来技術を用いて、人物の視線位置を検出しても良い。例えば、視線位置検出部153は、視線入力部110から顔画像データを取得する度に、顔画像データを画像解析し、利用者の目の基準点と、動点とを特定する。視線検出部153は、基準点と動点との関係から、利用者の視線位置を検出する。基準点と動点との組は、利用者の目に関する目頭と虹彩、または、利用者の目に関する角膜反射と瞳孔となる。視線位置検出部153は、特開2012−187190号公報に記載された技術を用いて、視線位置を検出しても良い。
表示制御部150bは、視線位置をポインタの初期位置として設定し、経路定義テーブル140aを基にして、初期位置を起点とした経路を表示部130の画面上に表示し、ポインタを経路に沿って移動させる処理部である。
図6は、本実施例1に係る表示制御部の処理を説明するための図である。図6では一例として、表示制御部150bが、経路定義テーブル140aの第1経路定義に基づいて、処理を実行する場合について説明する。
ステップS10について説明する。表示部130の画面130aに、ポインティングのターゲット30と、視線位置20とが存在する。表示制御部150bは、視線位置検出部150aから取得する視線位置の情報を基にして、視線位置20の位置を特定する。表示制御部150bは、スイッチ120のボタンが押されるまでは、視線位置検出部150aから視線位置20の情報を取得する度に、視線位置20を更新する。
ステップS11について説明する。表示制御部150bは、利用者によってスイッチ120のボタンが押下され、スイッチ120から信号を受け付けると、視線位置20をポインタの初期位置とする。例えば、表示制御部150bは、スイッチ120のボタンが押下されている間、直進移動バー21を表示させ、初期ポインタの位置20を中心として、直進移動バー21を回転させる。
表示制御部150bは、直進移動バー21を回転される場合に、スイッチ120のボタンの押下の強さに応じて、回転速度を調整しても良い。表示制御部150bは、スイッチ120から、ボタンの押下の強さの情報を取得するものとする。表示制御部150bは、ボタンの押下の強さが閾値以上である場合には、第1回転速度で、直進移動バー21を回転させる。表示制御部150bは、ボタンの押下の強さが閾値未満である場合には、第2回転速度で、直進移動バー21を回転させる。第1回転速度は、第2回転速度よりも大きいものとする。
ステップS12について説明する。利用者は画面130aを参照し、直進移動バー21が、ターゲット30と重なったタイミングで、スイッチ120のボタンをはなす。表示制御部150bは、スイッチ120のボタンが押下されなくなったことを検出すると、直進移動バー21の回転を停止する。続いて、表示制御部150bは、直進移動バー21が示す方向に直進移動バー21を直進移動させる。
ステップS13について説明する。利用者は画面130aを参照し、直進移動バー21の起点(ポインタ位置20)が、ターゲット30と重なった時点で、スイッチ120のボタンを押下する。表示制御部150bは、直進移動バー21の起点(ポインタ位置20)が、ターゲット30と重なった時点で、スイッチ120のボタンが押下されたことを検出すると、ターゲット30が選択されたと判定する。表示制御部150bは、ターゲット30が選択されたことによる所定の処理を実行する。
図6のステップS10〜ステップS13に示した処理を表示制御部150bが実行することで、視線入力により適切にポインティングを実行することができる。例えば、スイッチ120のボタンが押下される度に、ポインタの初期位置の設定、直進移動バー21の回転、直進移動という手順により、ターゲット30を選択可能としている。これにより、視線位置の精度が悪くても、適切に、ターゲット30を選択することができる。また、スイッチ120のボタンを押下する操作は単純であるため、肢体不自由者や高齢者等でも取り扱うことができる。
なお、ステップS10〜S13に示す例では、スイッチ120のボタンを押下するタイミングと、押下されなくなったタイミングとを処理切り替えのタイミングとして説明したが、これに限定されるものではない。例えば、表示制御部150bは、スイッチ120のボタンが押下されたタイミングで処理の切り替えを行い、ボタンが押下されなくなったことは切り替えのタイミングとして考慮しなくてもよい。
次に、本実施例1に係るポインティング支援装置100の処理手順について説明する。図7は、本実施例1に係るポインティング支援装置の処理手順を示すフローチャートである。図7に示すように、ポインティング支援装置100の視線位置検出部150aは、画面上の視線位置を検出する(ステップS101)。ポインティング支援装置100の表示制御部150bは、スイッチ120のボタンが押下されていない場合には(ステップS102,No)、ステップS101に移行する。
一方、表示制御部150bは、スイッチ120のボタンが押下された場合には(ステップS102,Yes)、視線位置をポインタの初期位置に設定する(ステップS103)。表示制御部150bは、経路定義テーブル140aを参照し、経路定義の最初の手順を現在の手順に設定する(ステップS104)。
表示制御部150bは、現在の手順に従い経路を画面に表示し、経路またはポインタ位置を移動させる(ステップS105)。表示制御部150bは、スイッチ120のボタンが押下されていない場合には(ステップS106,No)、再度ステップS105に移行する。
一方、表示制御部150bは、スイッチ120のボタンが押下された場合には(ステップS106,Yes)、次の手順が存在するか否かを判定する(ステップS107)。表示制御部150bは、次の手順が存在する場合には(ステップS107,Yes)、経路定義の次の手順を、現在の手順に設定し(ステップS108)、ステップS105に移行する。
一方、表示制御部150bは、次の手順が存在しない場合には(ステップS107,No)、移動したポインタ位置を、最終的なポインタ位置として決定する(ステップS109)。
次に、本実施例1に係るポインティング支援装置100の効果について説明する。ポインティング支援装置100は、視線位置をポインタの初期位置として設定し、経路定義テーブル140aを基にして、初期位置を起点とした経路を画面上に表示し、ポインタを経路に沿って移動させる。このため、視線位置の精度が悪くても、経路定義に従って、ポインタ位置を初期位置からターゲットに移動させることができ、適切に、ポインティングすることができる。
表示制御部150bは、スイッチ120のボタンが押下されたことを示す信号を受け付けた場合に、信号を受け付けたタイミングの視線位置をポインタの初期位置として設定する。表示制御部150bは、初期位置を起点として、経路を画面上に表示し、ポインタを前記経路に沿って移動させる。スイッチ120のボタンを押下する操作は単純であるため、肢体不自由者や高齢者等でも取り扱うことができる。
表示制御部150bは、スイッチ120のボタンが押下されているか否かを示す信号を受信し、ボタンが押下されている間は、経路またはポインタを移動させ、ボタンが押下された後押下されなくなったタイミングで、経路またはポインタの移動を停止する。この処理により、利用者は、押下したボタンを放すだけで、次の処理に移行させることができ、効率的に、ポインティングの操作を行うことができる。
表示制御部150bは、ボタンの押下の強さに応じて、経路またはポインタの移動速度を制御する。このため、利用者は、経路またはポインタの移動速度を、自身の好みに合わせて調整することができる。
次に、本実施例2に係るポインティング支援装置の構成について説明する。図8は、本実施例2に係るポインティング支援装置の構成を示す機能ブロック図である。図8に示すように、このポインティング支援装置200は、視線入力部210と、スイッチ220と、表示部230と、記憶部240と、制御部250とを有する。
視線入力部210、表示部230に関する説明は、実施例1に示した視線入力部110、表示部130に関する説明と同様であるため、説明を省略する。
スイッチ220は、利用者によって押下可能なボタンを有するスイッチである。例えば、利用者は、スイッチ220を操作してボタンをシングルクリックまたはダブルクリックする。シングルクリックは、利用者がスイッチ220のボタンを1回押下する操作である。ダブルクリックは、利用者がスイッチ220のボタンを1回押下した後、一定時間以内に再度押下する操作である。スイッチ220は、シングルクリックを受け付けた場合には、シングルクリックを受け付けた旨の信号を、制御部250に出力する。スイッチ220は、ダブルクリックを受け付けた場合には、ダブルクリックを受け付けた旨の信号を、制御部250に出力する。
記憶部240は、経路定義テーブル240aを有する。記憶部240は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
経路定義テーブル240aは、ポインタを移動させる経路および経路の移動パターンを定義した経路定義情報を保持するテーブルである。経路定義テーブル240aのデータ構造は、図2に示した経路定義テーブル140aと同様であるため、説明を省略する。
制御部250は、視線位置検出部250aと、表示制御部250bとを有する。制御部250は、ASICや、FPGAなどの集積装置に対応する。また、制御部250は、例えば、CPUやMPU等の電子回路に対応する。
視線位置検出部250aは、表示部230の画面上の利用者の視線位置を検出する処理部である。視線位置検出部250aは、視線位置の情報を、表示制御部250bに出力する。視線位置検出部250aに関するその他の説明は、実施例1で説明した視線位置検出部150aと同様である。
表示制御部250bは、視線位置をポインタの初期位置として設定し、経路定義テーブル240aを基にして、初期位置を起点とした経路を表示部230の画面上に表示し、ポインタを経路に沿って移動させる処理部である。また、表示制御部250bは、ポインタを経路に沿って移動させている間に、スイッチ220から信号を取得した場合に、信号を取得した時点のポインタの位置を起点とした経路を画面上に表示して移動させ、ポインタを経路に沿って移動させる。
図9は、本実施例2に係る表示制御部の処理を説明するための図である。図9では一例として、表示制御部250bが、経路定義テーブル240aの第1経路定義に基づいて、処理を実行する場合について説明する。
ステップS20について説明する。表示部230の画面230aに、ポインティングのターゲット30と、視線位置20とが存在する。表示制御部250bは、視線位置検出部250aから取得する視線位置の情報を基にして、視線位置20の位置を特定する。表示制御部250bは、スイッチ220がシングルクリックされるまでは、視線位置検出部250aから視線位置20の情報を取得する度に、画面230a上の視線位置20を更新する。
ステップS21について説明する。表示制御部250bは、利用者によってスイッチ120のボタンがシングルクリックされ、スイッチ220から信号を受け付けると、視線位置20を初期ポインタの位置とする。例えば、表示制御部250bは、スイッチ220のボタンが押下されている間、直進移動バー21を表示させ、初期ポインタの位置20を中心として、直進移動バー21を回転させる。
ステップS22について説明する。利用者は画面230aを参照し、あるタイミングで、スイッチ220のボタンをはなす。表示制御部250bは、スイッチ220のボタンが押下されなくなったことを検出すると、直進移動バー21の回転を停止する。続いて、表示制御部250bは、直進移動バー21が示す方向に直進移動バー21を直進移動させる。
ステップS23について説明する。表示制御部250bは、直進移動バー21を直進移動させている間に、利用者によってスイッチ220のボタンがシングルクリックされると、図6のステップ13と同様にして、シングルクリックされた時点の直進移動バー21の起点(ポインタ位置20)が選択されたと判定し、処理を終了する。
これに対して、表示制御部250bは、直進移動バー21を直進移動させている間に、利用者によってスイッチ220のボタンがダブルクリックされると、現在のポインタ位置20を、初期ポインタの位置として設定する。
ステップS24について説明する。表示制御部250bは、スイッチ220のボタンが押下されている間、直進移動バー21を表示させ、初期ポインタの位置20を中心として、直進移動バー21を回転させる。例えば、利用者は、ダブルクリックを行う場合に、2回目のボタン押下を継続することで、ボタン押下を継続させる。
表示制御部250bは、ステップS21において、直進移動バー21を回転させる速度よりも、ステップS24において、直進移動バー21を回転させる速度を遅くしても良い。1回目のポインタ位置よりも2回目のポインタ位置の方が、ポインタ位置とターゲット30との距離が短くなっている。このため、2回目以降のポインタ位置を起点とする直進移動バー21の回転速度を遅くすることで、直進移動バー21の方向を、ターゲット30に合わせやすくすることができる。
ステップS25について説明する。利用者は画面230aを参照し、あるタイミングで、スイッチ220のボタンをはなす。表示制御部250bは、スイッチ220のボタンが押下されなくなったことを検出すると、直進移動バー21の回転を停止する。続いて、表示制御部250bは、直進移動バー21が示す方向に直進移動バー21を直進移動させる。表示制御部250bは、直進移動バー21を直進移動させている間に、利用者によってスイッチ220のボタンがシングルクリックされると、図6のステップ13と同様にして、シングルクリックされた時点の直進移動バー21の起点(ポインタ位置20)に位置するターゲット30が選択されたと判定する。
ところで、表示制御部250bは、ステップS23において、スイッチ220のボタンがダブルクリックされた場合に、再度、第1経路定義に従って、ステップS24、S25の処理を行ったがこれに限定されるものではない。例えば、表示制御部250bは、ダブルクリックされる度に、経路を、第2経路定義、第3経路定義に切り替えて、その後の処理を行っても良い。手順を他の経路定義に切り替えるか否かは、利用者がポインティング支援装置200に予め設定しておくものとする。
次に、本実施例2に係るポインティング支援装置200の処理手順について説明する。図10、図11は、本実施例2に係るポインティング支援装置の処理手順を示すフローチャートである。図10に示すように、ポインティング支援装置200の視線位置検出部250aは、画面上の視線位置を検出する(ステップS201)。ポインティング支援装置200の表示制御部250bは、スイッチ220のボタンがシングルクリックされていない場合には(ステップS202,No)、ステップS201に移行する。
一方、表示制御部250bは、スイッチ220のボタンがシングルクリックされた場合には(ステップS202,Yes)、視線位置をポインタの初期位置に設定する(ステップS203)。表示制御部250bは、経路定義テーブル240aから最初の経路定義を読み出し、現在の経路定義に設定する(ステップS204)。
表示制御部250bは、現在の経路定義の最初の手順を現在の手順に設定し(ステップS205)、図11のステップS206に移行する。
図11の説明に移行する。表示制御部250bは、現在の手順に従い経路を画面に表示し、経路またはポインタ位置を移動させる(ステップS206)。表示制御部250bは、シングルクリックされた場合には(ステップS207,Yes)、ステップS208に移行する。表示制御部250bは、シングルクリックされていない場合には(ステップS207,No)、ステップS211に移行する。
表示制御部250bは、次の手順があるか否かを判定する(ステップS208)。表示制御部250bは、次の手順がない場合には(ステップS208,No)、移動したポインタ位置を、最終的なポインタ位置として決定する(ステップS209)。
ステップS208以降の処理について説明する。表示制御部250bは、次の手順がある場合には(ステップS208,Yes)、次の手順を現在の手順として設定し(ステップS210)、ステップS206に移行する。
ステップS211以降の処理について説明する。表示制御部250bは、ダブルクリックされたか否かを判定する(ステップS211)。表示制御部250bは、ダブルクリックされていない場合には(ステップS211,No)、ステップS206に移行する。
表示制御部250bは、ダブルクリックされた場合には(ステップS211,Yes)、次の経路定義があるか否かを判定する(ステップS212)。表示制御部250bは、次の経路定義がない場合には(ステップS212,No)、ステップS214に移行する。
表示制御部250bは、次の経路定義がある場合には(ステップS212,Yes)、次の経路定義を読み出し、現在の経路定義に設定する(ステップS213)。表示制御部250bは、現在のポインタ位置を初期ポインタ位置に設定する(ステップS214)。
表示制御部250bは、現在の経路定義の最初の手順を現在の手順に設定する(ステップS215)。表示制御部250bは、現在の経路定義の移動速度を減少させ(ステップS216)、ステップS206に移行する。
次に、本実施例2に係るポインティング支援装置200の効果について説明する。ポインティング支援装置200は、視線位置をポインタの初期位置として設定し、経路定義テーブル240aを基にして、初期位置を起点とした経路を画面上に表示し、ポインタを経路に沿って移動させる。また、ポインティング支援装置200は、ポインタを経路に沿って移動させている間に、ダブルクリックされると、ダブルクリックされた時点のポインタの位置を起点とした経路を画面上に表示して移動させ、ポインタを経路に沿って移動させる。このため、視線位置の精度が悪くても、経路定義に従って、ポインタ位置を初期位置からターゲットに移動させることができ、適切に、ポインティングすることができる。
また、表示制御部250bは、ダブルクリックを受け付け、経路の起点を、ダブルクリックを受け付けた時点のポインタの位置に切り替えて、経路を移動させる場合に、前回の移動速度よりも移動速度を小さくする。これによって、ターゲットの位置が、現在のポインタに近い場合であっても、ターゲットに対して、経路の位置を精度良く合わせることができる。
ところで、上述した実施例1、2に示したポインティング支援装置100,200の処理は一例であり、その他の処理を実行することができる。以下において、ポインティング支援装置100,200が実行するその他の処理(1)〜(5)について説明する。ここでは、説明の便宜上、ポインティング支援装置200を用いて、その他の処理を説明する。
ポインティング支援装置200のその他の処理(1)について説明する。ポインティング支援装置200の表示制御部250bは、ターゲットのポインティング精度をより高めるために、画面を拡大して表示しても良い。図12は、ポインティング支援装置のその他の処理(1)を説明するための図である。
ステップS30について説明する。表示部230の画面230aに、ポインティングのターゲット30と、視線位置20とが存在する。表示制御部250bは、視線位置検出部250aから取得する視線位置の情報を基にして、視線位置20の位置を特定する。例えば、画面230aの解像度を1920×1080とする。
ステップS31について説明する。表示制御部250bは、シングルクリックを受け付けると、視線位置20をポインタの初期位置に設定する。表示制御部250bは、初期位置20を中心とする矩形領域枠35を中心から拡大しながら表示する。例えば、表示制御部250bは、矩形領域枠35の拡大を開始してから、再度シングルクリックを受け付けるまで、矩形領域枠35を拡大すればよい。
ステップS32について説明する。ここでは、矩形領域枠35が、画面230aと同じ大きさまで拡大された場合を示す。例えば、矩形領域枠35が、画面230aと同じ大きさまで拡大されると、1ピクセルのターゲット30は、5×5ピクセルのターゲット30となる。
ステップS32について説明する。表示制御部250bは、矩形領域枠35を拡大した後に、改めて視線位置の情報を、視線位置検出部250aから取得し、取得した視線位置20を、画面230aに表示させる。画面が拡大すると、ターゲット30の位置と、ポインタの初期位置との距離が離れてしまうため、表示制御部250bは、再度、ポインタの初期位置を更新する。例えば、表示制御部250bは、ステップS32において、再度、シングルクリックを受け付けた場合に、シングルクリックを受け付けたタイミングの視線位置を、ポインタの初期位置として設定する。
ステップS30〜S32で説明したように、ターゲット30の大きさが拡大前のターゲット30と比較して大きくなるので、利用者は精度よくポインタを移動させることができる。
ポインティング支援装置200のその他の処理(2)について説明する。図13は、ポインティング支援装置のその他の処理(2)を説明するための図である。表示制御部250bは、視線位置が画面230aをはみ出している場合には、画面230a内に視線位置があるように、視線位置を補正する。
表示制御部250bは、視線位置が、水平方向で画面230aの領域外に出ている場合には、水平方向にDHピクセル内側に入っているように、視線位置を補正する。表示制御部250bは、視線位置が、垂直方向で画面230aの領域外に出ている場合には、垂直方向にDVピクセル内側に入っているように、視線位置を補正する。
図13に示すように、表示制御部250bは、視線位置が、視線位置41aである場合には、視線位置41aを、視線位置42aに補正する。表示制御部250bは、視線位置が、視線位置41bである場合には、視線位置41bを、視線位置42bに補正する。表示制御部250bは、視線位置が、視線位置41cである場合には、視線位置41cを、視線位置42cに補正する。
上記のように、表示制御部250bは、視線位置が、画面外に位置する場合に、視線位置が画面内に位置するように補正することで、視線位置を、常に画面内に位置させることができる。
ポインティング支援装置200のその他の処理(3)について説明する。図14は、ポインティング支援装置のその他の処理(3)を説明するための図である。表示制御部250bは、ポインタ位置を直進移動させる手順において、直進移動先が画面230a、あるいはアクティブなウインドウの外に出た場合には、移動先の画面が見えるように、スクロールを実行する。
ステップS40について説明する。例えば、表示制御部250bは、第1経路定義の手順1において、直進移動バー21の位置および方向を決定し、手順2において、直進移動バー21を、直進移動バー21の方向に移動させる。移動前の直進移動バー21を、直進移動バー21aとし、移動後の直進移動バー21を、直進移動バー21bとする。この場合には、表示制御部250bは、直線移動の停止が指示される、または、画面230aの右スクロール限界に到達するまで、画面230aの画像を右にスクロールする。右スクロール方法はこれに限らず、部分領域単位の右スクロールでも良い。
ステップS41について説明する。表示制御部250bは、第1経路定義の手順1において、直進移動バー21の位置および方向を決定し、手順2において、直進移動バー21を、直進移動バー21の方向に移動させる。移動前の直進移動バー21を、直進移動バー21aとし、移動後の直進移動バー21を、直進移動バー21bとする。この場合には、表示制御部250bは、直線移動の停止が指示される、または、画面230aの左スクロール限界に到達するまで、画面230aの画像を左にスクロールする。左スクロール方法はこれに限らず、部分領域単位の左スクロールでもよい。
ステップS42について説明する。表示制御部250bは、第1経路定義の手順1において、直進移動バー21の位置および方向を決定し、手順2において、直進移動バー21を、直進移動バー21の方向に移動させる。移動前の直進移動バー21を、直進移動バー21aとし、移動後の直進移動バー21を、直進移動バー21bとする。この場合には、表示制御部250bは、直線移動の停止が指示される、または、画面230aの上スクロール限界に到達するまで、画面230aの画像を上にスクロールする。上スクロール方法はこれに限らず、部分領域単位の上スクロールでもよい。
ステップS43について説明する。表示制御部250bは、第1経路定義の手順1において、直進移動バー21の位置および方向を決定し、手順2において、直進移動バー21を、直進移動バー21の方向に移動させる。移動前の直進移動バー21を、直進移動バー21aとし、移動後の直進移動バー21を、直進移動バー21bとする。この場合には、表示制御部250bは、直線移動の停止が指示される、または、画面230aの下スクロール限界に到達するまで、画面230aの画像を下にスクロールする。下スクロール方法はこれに限らず、部分領域単位の下スクロールでもよい。
表示制御部250bが、移動する経路またはポインタ位置が画面の領域またはアクティブウインドウの領域を超えた場合には、画面またはアクティブウインドウの領域をスクロールする。このため、利用者は容易に、所望する方向に画面をスクロールさせることができる。
ポインティング支援装置200のその他の処理(4)について説明する。表示制御部250bは、スイッチ220のボタンがクリックされたか否かを基にして、選択がなされたか否かを判定していたが、これに限定されるものではなく、ジェスチャによる入力を受け付けて、選択がなされたか否かを判定しても良い。
表示制御部250bは、例えば、利用者が一定時間、瞼を閉じたことを検出した場合に、選択がなされたと判定する。例えば、表示制御部250bは、図示しないカメラに接続され、テンプレートマッチング等を実行することにより、利用者が瞼を閉じたか否かを判定する。
図15は、表示制御部がジェスチャによる入力を受け付ける処理の処理手順を示すフローチャートである。図15に示すように、表示制御部250bは、利用者が瞼を閉じたか否かを判定する(ステップS301)。表示制御部250bは、利用者が瞼を閉じていない場合には(ステップS301,No)、再度ステップS301に移行する。
表示制御部250bは、利用者が瞼を閉じた場合には(ステップS301,Yes)、ポインタの移動を停止する(ステップS302)。ステップS302におけるポインタの移動とは、例えば、図3の手順2で説明したように、直進移動バー21の移動にともなって、ポインタ位置が移動することである。表示制御部250bは、計測時間カウンタをリセットし、時間の計測を開始する(ステップS303)。
表示制御部250bは、計測時間が閾値を超えた場合には(ステップS304,Yes)、ポインタと重なるターゲットが、選択されたと判定する(ステップS305)。
一方、表示制御部250bは、計測時間が閾値を超えていない場合には(ステップS304,No)、利用者が瞼を開けたか否かを判定する(ステップS306)。表示制御部250bは、利用者が瞼を開けていない場合には(ステップS306,No)、ステップS304に移行する。
表示制御部250bは、利用者が瞼を開けた場合には(ステップS306,Yes)、ポインタの移動を再開し(ステップS307)、ステップS301に移行する。
上記のように、表示制御部250bは、利用者のジェスチャに基づいて、選択を受け付けるので、利用者はスイッチ220のボタンを押下することなく、ターゲットを選択することができる。
ポインティング支援装置200のその他の処理(5)について説明する。表示制御部250bは、スイッチ220またはジェスチャによって、各種の選択を受け付けたが、音声入力に基づいて、選択を受け付けても良い。例えば、ポインティング支援装置200は、図示しないマイクと、マイクに接続される音声認識部とを有し、音声認識部は、所定の音声入力を受け付けた場合に、信号を表示制御部250bに出力する。
例えば、音声認識部は、利用者から「スタート」、「ストップ」、「決定」等の音声入力を受け付けた場合に、信号を、表示制御部250bに出力する。表示制御部250bは、音声認識部から信号を受け付けると、選択を受け付けた場合の処理と同様の処理を実行する。
上記のように、表示制御部250bは、音声入力に基づく信号により、選択を受け付けるので、利用者はスイッチ220のボタンを押下することなく、ターゲットを選択することができる。
更に、表示制御部250bは、図5で説明した第3経路定義に従って、経路を移動させる場合に、音声入力に基づいて、手順1〜手順4のうち、いずれかの手順を省略しても良い。例えば、表示制御部250bは、音声入力により、「右」、「下」と指定された場合には、手順1に従って、垂直ガイド13aを右に移動させた後に、手順4に従って、水平ガイド13bを下に移動させる。
次に、上記実施例に示したポインティング支援装置100,200と同様の機能を実現するポインティング支援プログラムを実行するコンピュータの一例について説明する。図16は、ポインティング支援プログラムを実行するコンピュータの一例を示す図である。
図16に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305と、カメラ306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。そして、各装置301〜308は、バス309に接続される。
ハードディスク装置308は、視線位置検出プログラム308a、表示制御プログラム308bを有する。CPU201は、視線位置検出プログラム308a、表示制御プログラム308bを読み出してRAM307に展開する。
視線位置検出プログラム308aは、視線位置検出プロセス307aとして機能する。表示制御プログラム308bは、表示制御プロセス307bとして機能する。
視線位置検出プロセス307aの処理は、視線位置検出部150a,250aの処理に対応する。表示制御プロセス307bの処理は、表示制御部150b,250bの処理に対応する。
なお、視線位置検出プログラム308a、表示制御プログラム308bについては、必ずしも最初からハードディスク装置308に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a,308bを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)画面上の利用者の視線位置を検出する視線位置検出部と、
前記視線位置をポインタの初期位置として設定し、前記ポインタを移動させる経路および前記経路の移動パターンを定義した経路定義情報を基にして、前記初期位置を起点とした前記経路を前記画面上に表示し、前記ポインタを前記経路に沿って移動させる表示制御部と
を有することを特徴とするポインティング支援装置。
(付記2)前記利用者から所定の命令を受け付けた場合に信号を前記表示制御部に出力する受付部を更に有し、前記表示制御部は、前記受付部から信号を取得したタイミングにおける前記視線位置を、前記初期位置として設定することを特徴とする付記1に記載のポインティング支援装置。
(付記3)前記表示制御部は、前記ポインタを前記経路に沿って移動させている間に、前記受付部から信号を取得した場合に、前記信号を取得した時点のポインタの位置を起点とした経路を前記画面上に表示して移動させ、前記ポインタを前記経路に沿って移動させることを特徴とする付記2に記載のポインティング支援装置。
(付記4)前記表示制御部は、前記信号の取得により、前記経路の起点を切り替える度に、前記経路または前記経路上のポインタの移動速度を前回の移動速度よりも遅くすることを特徴とする付記3に記載のポインティング支援装置。
(付記5)前記受付部は押下可能なボタンを有するスイッチであり、前記受付部は前記ボタンが押下されているか否かを示す信号を前記表示制御部に出力することを特徴とする付記3または4に記載のポインティング支援装置。
(付記6)前記表示制御部は、前記ボタンが押下されている間は、前記経路またはポインタを移動させ、前記ボタンが押下された後押下されなくなったタイミングで、前記経路またはポインタの移動を停止することを特徴とする付記5に記載のポインティング支援装置。
(付記7)前記受付部は、ボタンに対する押下の強度の情報を前記表示制御部に更に出力し、前記表示制御部は、ボタンに対する押下の強度を基にして、前記経路またはポインタの移動速度を制御することを特徴とする付記5に記載のポインティング支援装置。
(付記8)前記表示制御部は、前記初期位置または前記経路の起点となる位置周辺の画像領域を拡大することを特徴とする付記3〜7のいずれか一つに記載のポインティング支援装置。
(付記9)前記視線位置検出部は、拡大された前記画像領域上の利用者の視線位置を検出することを特徴とする付記8に記載のポインティング支援装置。
(付記10)前記表示制御部は、利用者の視線位置が前記画面外である場合には、前記画面外の視線位置を、画面内の位置に補正することを特徴とする付記1〜9のいずれか一つに記載のポインティング支援装置。
(付記11)前記表示制御部は、前記経路上を移動するポインタが画面の領域またはアクティブウインドウの領域を超えた場合には、前記画面または前記アクティブウインドウの領域をスクロールすることを特徴とする付記1〜10のいずれか一つに記載のポインティング支援装置。
(付記12)前記表示制御部は、前記視線位置を表示するか否かの情報を基にして、前記視線位置を前記画面上に表示または非表示とすることを特徴とする付記1〜11のいずれか一つに記載のポインティング支援装置。
(付記13)前記表示制御部は、音声入力を受け付けたタイミングにおける前記視線位置を、前記初期位置として設定し、音声入力に基づいて、前記経路またはポインタの移動を制御することを特徴とする付記1に記載のポインティング支援装置。
(付記14)前記表示制御部は、所定のジェスチャを検出したタイミングにおける前記視線位置を、前記初期位置として設定し、所定のジェスチャに基づいて、前記経路またはポインタの移動を制御することを特徴とする付記1に記載のポインティング支援装置。
(付記15)コンピュータが実行するポインティング支援方法であって、
画面上の利用者の視線位置を検出し、
前記視線位置をポインタの初期位置として設定し、
前記ポインタを移動させる経路および前記経路の移動パターンを定義した経路定義情報を基にして、前記初期位置を起点とした前記経路を前記画面上に表示し、前記ポインタを前記経路に沿って移動させる
処理を実行することを特徴とするポインティング支援方法。
(付記16)前記初期位置を設定する処理は、前記利用者から所定の命令を受け付けたことを示す信号を取得した場合に、信号を取得したタイミングにおける前記視線位置を、前記初期位置として設定することを特徴とする付記15に記載のポインティング支援方法。
(付記17)前記経路または前記ポインタを移動させる処理は、前記ポインタを前記経路に沿って移動させている間に、前記信号を取得した場合に、前記信号を取得した時点のポインタの位置を起点とした経路を前記画面上に表示して移動させ、前記ポインタを前記経路に沿って移動させることを特徴とする付記16に記載のポインティング支援方法。
(付記18)前記経路または前記ポインタを移動させる処理は、前記信号の取得により、前記経路の起点を切り替える度に、前記経路または前記経路上のポインタの移動速度を前回の移動速度よりも遅くすることを特徴とする付記17に記載のポインティング支援方法。
(付記19)前記コンピュータは、押下可能なボタンを有するスイッチに接続され、前記ボタンが押下されているか否かを示す信号を取得することを特徴とする付記17または18に記載のポインティング支援方法。
(付記20)前記経路または前記ポインタを移動させる処理は、前記ボタンが押下されている間は、前記経路またはポインタを移動させ、前記ボタンが押下された後押下されなくなったタイミングで、前記経路またはポインタの移動を停止することを特徴とする付記19に記載のポインティング支援方法。
(付記21)前記スイッチは、ボタンに対する押下の強度の情報を前記コンピュータに更に出力し、前記経路または前記ポインタを移動させる処理は、ボタンに対する押下の強度を基にして、前記経路またはポインタの移動速度を制御することを特徴とする付記20に記載のポインティング支援方法。
(付記22)前記コンピュータは、前記初期位置または前記経路の起点となる位置周辺の画像領域を拡大する処理を更に実行することを特徴とする付記15〜21のいずれか一つに記載のポインティング支援方法。
(付記23)前記視線位置を検出する処理は、拡大された前記画像領域上の利用者の視線位置を検出することを特徴とする付記22に記載のポインティング支援方法。
(付記24)前記コンピュータは、利用者の視線位置が前記画面外である場合には、前記画面外の視線位置を、画面内の位置に補正する処理を更に実行することを特徴とする付記15〜23のいずれか一つに記載のポインティング支援方法。
(付記25)前記コンピュータは、前記経路上を移動するポインタが画面の領域またはアクティブウインドウの領域を超えた場合には、前記画面または前記アクティブウインドウの領域をスクロールする処理を更に実行することを特徴とする付記15〜24のいずれか一つに記載のポインティング支援方法。
(付記26)前記経路または前記ポインタを移動させる処理は、前記視線位置を表示するか否かの情報を基にして、前記視線位置を前記画面上に表示または非表示とすることを特徴とする付記15〜25のいずれか一つに記載のポインティング支援方法。
(付記27)前記経路または前記ポインタを移動させる処理は、音声入力を受け付けたタイミングにおける前記視線位置を、前記初期位置として設定し、音声入力に基づいて、前記経路またはポインタの移動を制御することを特徴とする付記15に記載のポインティング支援方法。
(付記28)前記経路または前記ポインタを移動させる処理は、所定のジェスチャを検出したタイミングにおける前記視線位置を、前記初期位置として設定し、所定のジェスチャに基づいて、前記経路またはポインタの移動を制御することを特徴とする付記15に記載のポインティング支援方法。
(付記29)コンピュータに、
画面上の利用者の視線位置を検出し、
前記視線位置をポインタの初期位置として設定し、
前記ポインタを移動させる経路および前記経路の移動パターンを定義した経路定義情報を基にして、前記初期位置を起点とした前記経路を前記画面上に表示し、前記ポインタを前記経路に沿って移動させる
処理を実行させることを特徴とするポインティング支援プログラム。
(付記30)前記初期位置を設定する処理は、前記利用者から所定の命令を受け付けたことを示す信号を取得した場合に、信号を取得したタイミングにおける前記視線位置を、前記初期位置として設定することを特徴とする付記29に記載のポインティング支援プログラム。
(付記31)前記経路または前記ポインタを移動させる処理は、前記ポインタを前記経路に沿って移動させている間に、前記信号を取得した場合に、前記信号を取得した時点のポインタの位置を起点とした経路を前記画面上に表示して移動させ、前記ポインタを前記経路に沿って移動させることを特徴とする付記30に記載のポインティング支援プログラム。
(付記32)前記経路または前記ポインタを移動させる処理は、前記信号の取得により、前記経路の起点を切り替える度に、前記経路または前記経路上のポインタの移動速度を前回の移動速度よりも遅くすることを特徴とする付記31に記載のポインティング支援プログラム。
(付記33)前記コンピュータは、押下可能なボタンを有するスイッチに接続され、前記ボタンが押下されているか否かを示す信号を取得することを特徴とする付記31または32に記載のポインティング支援プログラム。
(付記34)前記経路または前記ポインタを移動させる処理は、前記ボタンが押下されている間は、前記経路またはポインタを移動させ、前記ボタンが押下された後押下されなくなったタイミングで、前記経路またはポインタの移動を停止することを特徴とする付記33に記載のポインティング支援プログラム。
(付記35)前記スイッチは、ボタンに対する押下の強度の情報を前記コンピュータに更に出力し、前記経路または前記ポインタを移動させる処理は、ボタンに対する押下の強度を基にして、前記経路またはポインタの移動速度を制御することを特徴とする付記34に記載のポインティング支援プログラム。
(付記36)前記コンピュータに、前記初期位置または前記経路の起点となる位置周辺の画像領域を拡大する処理を更に実行させることを特徴とする付記29〜35のいずれか一つに記載のポインティング支援プログラム。
(付記37)前記視線位置を検出する処理は、拡大された前記画像領域上の利用者の視線位置を検出することを特徴とする付記36に記載のポインティング支援プログラム。
(付記38)前記コンピュータに、利用者の視線位置が前記画面外である場合には、前記画面外の視線位置を、画面内の位置に補正する処理を更に実行させることを特徴とする付記29〜37のいずれか一つに記載のポインティング支援プログラム。
(付記39)前記コンピュータに、前記経路上を移動するポインタが画面の領域またはアクティブウインドウの領域を超えた場合には、前記画面または前記アクティブウインドウの領域をスクロールする処理を更に実行させることを特徴とする付記29〜38のいずれか一つに記載のポインティング支援プログラム。
(付記40)前記経路または前記ポインタを移動させる処理は、前記視線位置を表示するか否かの情報を基にして、前記視線位置を前記画面上に表示または非表示とすることを特徴とする付記29〜39のいずれか一つに記載のポインティング支援プログラム。
(付記41)前記経路または前記ポインタを移動させる処理は、音声入力を受け付けたタイミングにおける前記視線位置を、前記初期位置として設定し、音声入力に基づいて、前記経路またはポインタの移動を制御することを特徴とする付記29に記載のポインティング支援プログラム。
(付記42)前記経路または前記ポインタを移動させる処理は、所定のジェスチャを検出したタイミングにおける前記視線位置を、前記初期位置として設定し、所定のジェスチャに基づいて、前記経路またはポインタの移動を制御することを特徴とする付記29に記載のポインティング支援プログラム。
100,200 ポインティング支援装置
110,210 視線入力部
120,220 スイッチ
130,230 表示部
140,240 記憶部
140a,240a 経路定義テーブル
150,250 制御部
150a,250a 視線位置検出部
150b,250b 表示制御部

Claims (16)

  1. 画面上の利用者の視線位置を検出する視線位置検出部と、
    前記視線位置をポインタの初期位置として設定し、前記ポインタを移動させる経路および前記経路の移動パターンを定義した経路定義情報を基にして、前記初期位置を起点とした前記経路を前記画面上に表示し、前記ポインタを前記経路に沿って移動させる表示制御部と
    を有することを特徴とするポインティング支援装置。
  2. 前記利用者から所定の命令を受け付けた場合に信号を前記表示制御部に出力する受付部を更に有し、前記表示制御部は、前記受付部から信号を取得したタイミングにおける前記視線位置を、前記初期位置として設定することを特徴とする請求項1に記載のポインティング支援装置。
  3. 前記表示制御部は、前記ポインタを前記経路に沿って移動させている間に、前記受付部から信号を取得した場合に、前記信号を取得した時点のポインタの位置を起点とした経路を前記画面上に表示して移動させ、前記ポインタを前記経路に沿って移動させることを特徴とする請求項2に記載のポインティング支援装置。
  4. 前記表示制御部は、前記信号の取得により、前記経路の起点を切り替える度に、前記経路または前記経路上のポインタの移動速度を前回の移動速度よりも遅くすることを特徴とする請求項3に記載のポインティング支援装置。
  5. 前記受付部は押下可能なボタンを有するスイッチであり、前記受付部は前記ボタンが押下されているか否かを示す信号を前記表示制御部に出力することを特徴とする請求項3または4に記載のポインティング支援装置。
  6. 前記表示制御部は、前記ボタンが押下されている間は、前記経路またはポインタを移動させ、前記ボタンが押下された後押下されなくなったタイミングで、前記経路またはポインタの移動を停止することを特徴とする請求項5に記載のポインティング支援装置。
  7. 前記受付部は、ボタンに対する押下の強度の情報を前記表示制御部に更に出力し、前記表示制御部は、ボタンに対する押下の強度を基にして、前記経路またはポインタの移動速度を制御することを特徴とする請求項5に記載のポインティング支援装置。
  8. 前記表示制御部は、前記初期位置または前記経路の起点となる位置周辺の画像領域を拡大することを特徴とする請求項3〜7のいずれか一つに記載のポインティング支援装置。
  9. 前記視線位置検出部は、拡大された前記画像領域上の利用者の視線位置を検出することを特徴とする請求項8に記載のポインティング支援装置。
  10. 前記表示制御部は、利用者の視線位置が前記画面外である場合には、前記画面外の視線位置を、画面内の位置に補正することを特徴とする請求項1〜9のいずれか一つに記載のポインティング支援装置。
  11. 前記表示制御部は、前記経路上を移動するポインタが画面の領域またはアクティブウインドウの領域を超えた場合には、前記画面または前記アクティブウインドウの領域をスクロールすることを特徴とする請求項1〜10のいずれか一つに記載のポインティング支援装置。
  12. 前記表示制御部は、前記視線位置を表示するか否かの情報を基にして、前記視線位置を前記画面上に表示または非表示とすることを特徴とする請求項1〜11のいずれか一つに記載のポインティング支援装置。
  13. 前記表示制御部は、音声入力を受け付けたタイミングにおける前記視線位置を、前記初期位置として設定し、音声入力に基づいて、前記経路またはポインタの移動を制御することを特徴とする請求項1に記載のポインティング支援装置。
  14. 前記表示制御部は、所定のジェスチャを検出したタイミングにおける前記視線位置を、前記初期位置として設定し、所定のジェスチャに基づいて、前記経路またはポインタの移動を制御することを特徴とする請求項1に記載のポインティング支援装置。
  15. コンピュータが実行するポインティング支援方法であって、
    画面上の利用者の視線位置を検出し、
    前記視線位置をポインタの初期位置として設定し、
    前記ポインタを移動させる経路および前記経路の移動パターンを定義した経路定義情報を基にして、前記初期位置を起点とした前記経路を前記画面上に表示し、前記ポインタを前記経路に沿って移動させる
    処理を実行することを特徴とするポインティング支援方法。
  16. コンピュータに、
    画面上の利用者の視線位置を検出し、
    前記視線位置をポインタの初期位置として設定し、
    前記ポインタを移動させる経路および前記経路の移動パターンを定義した経路定義情報を基にして、前記初期位置を起点とした前記経路を前記画面上に表示し、前記ポインタを前記経路に沿って移動させる
    処理を実行させることを特徴とするポインティング支援プログラム。
JP2015222518A 2015-11-12 2015-11-12 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム Pending JP2017091327A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015222518A JP2017091327A (ja) 2015-11-12 2015-11-12 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
US15/331,983 US10241570B2 (en) 2015-11-12 2016-10-24 Pointing support device, pointing support method, and non-transitory computer-readable recording medium
CN201610949734.3A CN107015635A (zh) 2015-11-12 2016-10-26 指向支持装置和指向支持方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015222518A JP2017091327A (ja) 2015-11-12 2015-11-12 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム

Publications (1)

Publication Number Publication Date
JP2017091327A true JP2017091327A (ja) 2017-05-25

Family

ID=58691018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015222518A Pending JP2017091327A (ja) 2015-11-12 2015-11-12 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム

Country Status (3)

Country Link
US (1) US10241570B2 (ja)
JP (1) JP2017091327A (ja)
CN (1) CN107015635A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235408A1 (ja) * 2018-06-07 2019-12-12 株式会社オリィ研究所 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP1617939S (ja) 2017-10-17 2018-11-12
JP1617699S (ja) 2017-10-17 2018-11-12
USD852221S1 (en) * 2017-11-07 2019-06-25 Microsoft Corporation Display screen with animated graphical user interface
USD852841S1 (en) * 2017-11-07 2019-07-02 Microsoft Corporation Display screen with animated graphical user interface
US10871874B2 (en) * 2018-05-09 2020-12-22 Mirametrix Inc. System and methods for device interaction using a pointing device and attention sensing device
CN111782111A (zh) * 2019-04-04 2020-10-16 广州高新兴机器人有限公司 在触摸屏上绘制多边形的方法
USD919656S1 (en) * 2019-10-04 2021-05-18 Butterfly Network, Inc. Display panel or portion thereof with graphical user interface
US20230185368A1 (en) * 2021-12-14 2023-06-15 Lenovo (United States) Inc. Gazed based cursor adjustment

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0361997A (ja) * 1989-07-31 1991-03-18 Hitachi Ltd 画面スクロール方法及び装置
JP2001005612A (ja) * 1999-06-04 2001-01-12 Internatl Business Mach Corp <Ibm> ポインタ操作の補助方法
JP2001100903A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 視線検出機能搭載装置
JP2003005915A (ja) * 2001-06-22 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> マウスポインタの誘導方法、マウスポインタの誘導プログラム、および同プログラムを記録した記録媒体
JP2007249970A (ja) * 2006-03-15 2007-09-27 Internatl Business Mach Corp <Ibm> カーソルを有するディスプレイ上の位置を選択するための技術
JP2007257650A (ja) * 2007-04-16 2007-10-04 Hitachi Ltd ポインティングデバイスを用いた端末装置
JP2012027874A (ja) * 2010-07-28 2012-02-09 Panasonic Corp 入力装置、入力方法および入力プログラム
JP2013097763A (ja) * 2011-11-07 2013-05-20 Fujitsu Ltd 情報処理装置およびその入力制御プログラム
JP2015118531A (ja) * 2013-12-18 2015-06-25 株式会社デンソー 表示制御装置およびプログラム
WO2015104884A1 (ja) * 2014-01-08 2015-07-16 ソニー株式会社 情報処理システム、情報処理方法およびプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4847605A (en) * 1987-04-27 1989-07-11 International Business Machines Corporation Picking in a graphics system
JP2666538B2 (ja) * 1990-08-10 1997-10-22 富士通株式会社 パニング制御システム
US5196838A (en) * 1990-12-28 1993-03-23 Apple Computer, Inc. Intelligent scrolling
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5670955A (en) * 1995-01-31 1997-09-23 Microsoft Corporation Method and apparatus for generating directional and force vector in an input device
US7401299B2 (en) * 2001-09-05 2008-07-15 Autodesk, Inc. Method and apparatus for providing a presumptive drafting solution
US5670655A (en) * 1995-09-15 1997-09-23 Merck & Co. Inc. Method for analyzing isomers of enalapril and enalaprilat
US5774111A (en) * 1996-02-12 1998-06-30 Dassault Systemes Method and apparatus for providing a dynamically oriented compass cursor on computer displays
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
TW420931B (en) * 1996-08-22 2001-02-01 Hitachi Ltd Television receiver and receiving method thereof
US5870079A (en) * 1996-11-12 1999-02-09 Legaltech, Inc. Computer input device and controller therefor
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
JP2000089905A (ja) 1998-09-14 2000-03-31 Sony Corp ポインティングデバイス
US6717600B2 (en) * 2000-12-15 2004-04-06 International Business Machines Corporation Proximity selection of selectable item in a graphical user interface
JP2003044204A (ja) * 2001-07-31 2003-02-14 Matsushita Electric Ind Co Ltd 携帯情報端末
JP2004287823A (ja) 2003-03-20 2004-10-14 Seiko Epson Corp ポインティング操作支援システム
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US7365738B2 (en) * 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
US8245156B2 (en) * 2008-06-28 2012-08-14 Apple Inc. Radial menu selection
CN101943982B (zh) * 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
US8743053B2 (en) * 2009-08-31 2014-06-03 Adobe Systems Incorporation Restricting cursor movement to track an existing path
TW201117064A (en) * 2009-11-05 2011-05-16 Wistron Corp Method of testing a cursor of a pointing device shown on a display device
JP5387557B2 (ja) * 2010-12-27 2014-01-15 カシオ計算機株式会社 情報処理装置及び方法、並びにプログラム
KR20130011167A (ko) * 2011-07-20 2013-01-30 삼성전자주식회사 디스플레이 장치 및 방법
US9910490B2 (en) * 2011-12-29 2018-03-06 Eyeguide, Inc. System and method of cursor position control based on the vestibulo-ocular reflex
US9658733B2 (en) * 2012-08-03 2017-05-23 Stickshift, LLC User interface with selection patterns
GB201417208D0 (en) * 2014-09-30 2014-11-12 Ibvision Ltd Method Software And Apparatus For Testing A Patiants Visual Field

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0361997A (ja) * 1989-07-31 1991-03-18 Hitachi Ltd 画面スクロール方法及び装置
JP2001005612A (ja) * 1999-06-04 2001-01-12 Internatl Business Mach Corp <Ibm> ポインタ操作の補助方法
JP2001100903A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 視線検出機能搭載装置
JP2003005915A (ja) * 2001-06-22 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> マウスポインタの誘導方法、マウスポインタの誘導プログラム、および同プログラムを記録した記録媒体
JP2007249970A (ja) * 2006-03-15 2007-09-27 Internatl Business Mach Corp <Ibm> カーソルを有するディスプレイ上の位置を選択するための技術
JP2007257650A (ja) * 2007-04-16 2007-10-04 Hitachi Ltd ポインティングデバイスを用いた端末装置
JP2012027874A (ja) * 2010-07-28 2012-02-09 Panasonic Corp 入力装置、入力方法および入力プログラム
JP2013097763A (ja) * 2011-11-07 2013-05-20 Fujitsu Ltd 情報処理装置およびその入力制御プログラム
JP2015118531A (ja) * 2013-12-18 2015-06-25 株式会社デンソー 表示制御装置およびプログラム
WO2015104884A1 (ja) * 2014-01-08 2015-07-16 ソニー株式会社 情報処理システム、情報処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235408A1 (ja) * 2018-06-07 2019-12-12 株式会社オリィ研究所 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム

Also Published As

Publication number Publication date
US10241570B2 (en) 2019-03-26
CN107015635A (zh) 2017-08-04
US20170139477A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP2017091327A (ja) ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
JP6131540B2 (ja) タブレット端末、操作受付方法および操作受付プログラム
EP2996020A1 (en) Input device and input program
EP3147819A1 (en) Method and device for fingerprint image alignment
EP3143477A1 (en) System and method for providing haptic feedback to assist in capturing images
KR20140089183A (ko) 전자 장치에서 헤드 트래킹 기술을 이용하여 제어 서비스를 제공하기 위한 장치 및 방법
US10732808B2 (en) Information processing device, information processing method, and program
KR101242531B1 (ko) 시선 인식을 이용한 화면 처리 방법 및 휴대단말
US20240077948A1 (en) Gesture-based display interface control method and apparatus, device and storage medium
TW200935320A (en) Method of switching operation modes of fingerprint sensor, electronic apparatus using the method and fingerprint sensor thereof
CN109964202B (zh) 显示控制装置、显示控制方法和计算机可读存储介质
EP3293605B1 (en) Widget displaying method and apparatus for use in flexible display device, computer program and recording medium
JPWO2015104884A1 (ja) 情報処理システム、情報処理方法およびプログラム
US9148537B1 (en) Facial cues as commands
US10599326B2 (en) Eye motion and touchscreen gestures
US10241671B2 (en) Gesture response method and device
EP3379451A1 (en) Information processing device
JP6680120B2 (ja) ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
JP6597397B2 (ja) ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
JP2013254406A (ja) 表示装置、表示方法及びプログラム。
US20190095093A1 (en) Information processing apparatus, information processing method, and computer readable medium
JP6823988B2 (ja) 画面操作方法及び画面操作装置
JP6079418B2 (ja) 入力装置および入力プログラム
JP2019012485A (ja) ユーザインターフェース
US20230359338A1 (en) Screen content magnification method and device, and computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191008