JP5511085B2 - 視覚障害者による客体操作が可能なタッチスクリーン装置及びその装置における客体操作方法 - Google Patents

視覚障害者による客体操作が可能なタッチスクリーン装置及びその装置における客体操作方法 Download PDF

Info

Publication number
JP5511085B2
JP5511085B2 JP2011029924A JP2011029924A JP5511085B2 JP 5511085 B2 JP5511085 B2 JP 5511085B2 JP 2011029924 A JP2011029924 A JP 2011029924A JP 2011029924 A JP2011029924 A JP 2011029924A JP 5511085 B2 JP5511085 B2 JP 5511085B2
Authority
JP
Japan
Prior art keywords
touch
application software
key value
virtual keyboard
reference mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011029924A
Other languages
English (en)
Other versions
JP2012104092A (ja
Inventor
クン パク
ヨンスク パク
Original Assignee
エイティーラブ シーオー エルティーディー
エスアンドアイ ソーラー シーオー エルティーディ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エイティーラブ シーオー エルティーディー, エスアンドアイ ソーラー シーオー エルティーディ filed Critical エイティーラブ シーオー エルティーディー
Publication of JP2012104092A publication Critical patent/JP2012104092A/ja
Application granted granted Critical
Publication of JP5511085B2 publication Critical patent/JP5511085B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は視覚障害者による客体操作が可能なタッチスクリーン装置及びその装置における客体操作方法に係り、さらに詳しくは、起動中のアプリケーションソフトウェアの制御のための仮想キーボードが活性化された状態で、前記仮想キーボードのタッチが感知された場合、前記タッチされた仮想キーボードのタッチポジションに対する位置、タッチ回数及びタッチ時間の情報に基づくキー値を生成して前記起動中のアプリケーションソフトウェアに転送すれば、前記アプリケーションソフトウェアが前記転送されたキー値に基づき動作して前記アプリケーションソフトウェアに含まれている全体客体のうち任意の客体がフォーカスされれば、フッキングメカニズムを用いて前記フォーカスされた客体のテキスト情報を読み込み、前記読み込まれた客体のテキスト情報をテキスト音声変換(TTS:Text to Speech)エンジンを用いて音声データに変換して出力する視覚障害者による客体操作が可能なタッチスクリーン装置及びその装置における客体操作方法に関する。
通常、タッチスクリーン装置は、画面上にディスプレイされるアイコンを指やポインターなどを用いてタッチすることにより、ユーザーが指令や情報を入力することができるインタフェースである。前記タッチスクリーン装置は一種の入力装置であり、携帯電話、スマートフォン、現金自動預け払い機、パームサイズPC、個人用の携帯情報端末(PDA:Personal Digital Assistants)など様々な端末に適用されている。
前記タッチスクリーン装置を用いた文字入力及び客体選択方法は、手書体操作方法とソフトキーボード操作方法とに大別される。前記手書体操作方法は、いつもの通りに紙にペンで文字を書くように画面にスタイラスペンで文字を書き、画面から客体を選択することにより操作する。前記ソフトキーボード操作方法は、画面に一般キーボード型のユーザーインタフェースを有するキーボードを表示して、ペンクリックにより文字を入力し且つ画面客体を選択する。
しかしながら、視覚障害者がフルタッチ方式により接近可能なものとして、iPhone(アイフォーン(登録商標))の「VOICE OVER」がある。この種のフルタッチ方式のタッチスクリーン装置は、スクリーンに表示された客体を指でフォーカスしたときに音声として出力するものであり、客体の位置及び方向を予測することができない視覚障害者に対してランダムな操作による偶然の動作を求める。
ところが、視覚障害者はタッチスクリーンの画面を見ることができず、タッチすべき客体の位置および方向を知ることができないため、タッチスクリーン装置においてタッチ方式により文字を入力したり、画面の客体を選択及び操作したりすることができないという問題がある。
本発明は上記事情に鑑みてなされたものであり、その目的は、視覚障害者がタッチスクリーン装置を使用するに際して、タッチスクリーンに表示された客体の情報および事前に規格化された仮想キーボードに基づいて客体を自由に選択及び起動することができる、視覚障害者による客体操作が可能なタッチスクリーン装置及びその装置における客体操作方法を提供するところにある。
上記の目的を達成するために、本発明によれば、起動中のアプリケーションソフトウェアの制御のための仮想キーボードが活性化された状態で、前記仮想キーボードのタッチが感知された場合、前記タッチされた仮想キーボードのタッチポジションに対する位置、タッチ回数及びタッチ時間の情報に基づくキー値を生成して前記起動中のアプリケーションソフトウェアに転送するタッチ感知部と、前記アプリケーションソフトウェアが前記タッチ感知部から転送されたキー値に基づき動作して前記アプリケーションソフトウェアに含まれている全体客体のうち任意の客体がフォーカスされれば、フッキングメカニズムを用いて前記フォーカスされた客体のテキスト情報を読み込む客体判断部と、前記客体判断部において読み込まれた客体のテキスト情報をテキスト音声変換(TTS:Text to Speech)エンジンを用いて音声データに変換して出力する音声合成処理部と、を備える、視覚障害者による客体操作が可能なタッチスクリーン装置が提供される。
前記仮想キーボードは、所定数のタッチポジションが配列された構造のものであり、画面に視覚的に表示されずにバックグラウンドにおいて動作する。
前記客体は、前記アプリケーションソフトウェアの構成要素であり、前記客体の情報は、前記客体をテキストとして表示した名前、種別および状態を含む。
前記タッチ感知部は、ユーザーにより基準モードのためのキー値が割り当てられたタッチポジションのタッチが感知された場合、基準モードという音声メッセージを出力するように前記音声合成処理部に音声出力を要請しつつ基準モード状態を維持し、前記基準モード状態で他のタッチポジションのタッチが感知された場合、前記タッチされた他のタッチポジションのキー値を生成して前記アプリケーションソフトウェアに転送する。
本発明の他の側面によれば、タッチスクリーン装置が視覚障害者のタッチを用いて客体を操作する方法において、(a)起動中のアプリケーションソフトウェアの制御のための仮想キーボードが活性化された状態で、前記仮想キーボードのタッチが感知された場合、前記タッチされた仮想キーボードのタッチポジションに対する位置、タッチ回数及びタッチ時間の情報に基づくキー値を生成して前記起動中のアプリケーションソフトウェアに転送するステップと、(b)前記アプリケーションソフトウェアが前記転送されたキー値に基づき動作して前記アプリケーションソフトウェアに含まれている全体客体のうち任意の客体がフォーカスされれば、フッキングメカニズムを用いて前記フォーカスされた客体のテキスト情報を読み込むステップと、(c)前記読み込まれた客体のテキスト情報をテキスト音声変換(TTS:Text to Speech)エンジンを用いて音声データに変換して出力するステップと、を含む、タッチスクリーン装置における視覚障害者による客体操作方法が提供される。
前記ステップ(a)は、前記ユーザーにより基準モードのための特定のタッチポジションのタッチが感知された場合、基準モードという音声メッセージを出力しつつ基準モード状態を維持するステップと、前記基準モード状態で他のタッチポジションのタッチが感知された場合、前記タッチされた他のタッチポジションのキー値を生成して前記起動中のアプリケーションソフトウェアに転送するステップと、をさらに含む。
本発明によれば、視覚障害者がタッチスクリーン装置を使用するに際して、タッチスクリーンに表示された客体の情報および事前に規格化された仮想キーボードに基づいて客体の位置および方向とは無関係に操作することができるので、客体を自由に選択及び起動することができる。
本発明の実施の形態に係る、視覚障害者による客体操作が可能なタッチスクリーン装置の構成を概略的に示すブロック図である。 本発明の実施の形態に係る、視覚障害者がタッチスクリーン装置を用いて客体を操作する方法を示すフローチャートである。 本発明に係る仮想キーボードの例示図である。
本発明の上述した目的と技術的構成及びそれによる作用効果に関する詳細事項は、本発明の明細書に添付された図面に基づく後述の説明により一層明らかになる。
図1は、本発明の実施の形態に係る、視覚障害者による客体操作が可能なタッチスクリーン装置の構成を概略的に示すブロック図であり、図3は、本発明に係る仮想キーボードの例示図である。
図1を参照すれば、視覚障害者による客体操作が可能なタッチスクリーン装置100は、タッチ感知部102と、客体判断部104と、音声合成処理部106と、を備える。
前記タッチ感知部102は、起動中のアプリケーションソフトウェアの制御のための仮想キーボードが活性化された状態で、前記仮想キーボードのタッチが感知された場合、前記タッチされた仮想キーボードのタッチポジションに対する位置、タッチ回数及びタッチ時間の情報に基づくキー値を生成して前記起動中のアプリケーションソフトウェアに転送する。
ここで、前記起動中のアプリケーションソフトウェアとは、現在画面上に視覚的に表示された既存のアプリケーションソフトウェアのことをいい、これは、windows、アンドロイド、MACOS、Linuxなど通常のOSシステムにおいて動作するものであれば、必ずエンター値、方向キー値、文字キー値などを転送されるアーキテクチャとして設計されている。
すなわち、前記アプリケーションソフトウェアとは、従来より汎用されているソフトウェアのことをいうものであり、通常、キー値を転送されるアーキテクチャとして設計されている。
また、前記アプリケーションソフトウェアは、その制御に当たって、仮想キーボードと事前に相互作用のためにキー値を授受する以外は、いかなるメカニズムも使用しない。
前記仮想キーボードは、所定数のタッチポジションが配列された構造のものであり、画面上に視覚的に表示されずにOSレベルのバックグラウンドにおいて動作する。
前記仮想キーボードに対して「3×4」のタッチポジションが配列された場合を例に取って説明する。この場合、仮想キーボードは3×4の画面区画に分割され、これは、碁盤状のような区画を意味し、規模は横3縦4の升目を意味する。前記分割された画面区画は単にタッチ範囲を意味するだけであり、実際に画面に格子形状が表示されるわけではない。
すなわち、これは、3×4のタッチ区画で合計12個のタッチポジションが存在し、タッチ境界に無効領域がなくて、12個の有効タッチのみが作用することを意味する。そして、各タッチポジションは、配列順に、例えば、「TP1」、「TP2」、「TP3」、「TP4」、「TP6」、「TP7」、「TP8」、「TP9」、「TP10」、「TP11」、「TP12」などの識別番号が付与される。
さらに、前記仮想キーボードは、「AREA KEYPAD」、「FUNCTION KEYPAD」、「韓国語KEYPAD」、「英文KEYPAD」、「数字KEYPAD」、「記号KEYPAD」、「HOT英文KEYPAD」、「HOT数字KEYPAD」などが基本的に設けられており、類似の用途別に分類されているため、状況に応じて所望のキーパッドを選択することができる。
加えて、前記仮想キーボードのタッチ方式としては、当該タッチポジションの1回タッチ、連続2回タッチ、連続3回タッチがあり、長く0秒以上、1秒以上、2秒以上、3秒以上押下などがある。なお、タッチポジションの位置とは無関係に、「指で左右にフリック(軽くはらう操作)」、「上下にフリック」、「3本指が同時にタッチ」が追加機能と連携されている。
前記客体判断部104は、前記アプリケーションソフトウェアが前記タッチ感知部102から転送されたキー値に基づき動作して前記アプリケーションソフトウェアに含まれている全体客体のうち任意の客体がフォーカスされれば、フッキングメカニズムを用いて前記フォーカスされた客体のテキスト情報を読み込む。
すなわち、前記アプリケーションソフトウェアは、前記タッチ感知部102から転送されたキー値に基づき動作し、その動作の結果、前記アプリケーションソフトウェアに含まれている全体客体のうち任意の客体が活性化またはフォーカスされれば、前記客体判断部104は、フッキングメカニズムを用いて前記活性化またはフォーカスされた客体のテキスト情報を読み込む。
ここで、前記客体は前記アプリケーションソフトウェアの構成要素であり、自体的に生成したものではなく、既存の前記アプリケーションソフトウェアに含まれているものである。例えば、客体とは、ボタン、ファイル一覧、エディットウィンドウ、コンボボックスなどのことをいう。
前記客体の情報とは、当該客体をテキストとして表示した名前、種別および状態などをいう。
また、前記フッキングメカニズムは、windows(登録商標) ce、xp、2000、LINUX(登録商標)などOSにおいてAPIを通じて支援しており、フッキング要素は、現在起動中のアプリケーションソフトウェアの画面に表示された客体の名前、客体の種別、客体に表示されたテキスト文字などを含む。
さらに、活性化されたアプリケーションソフトウェアのフォーカスされた画面表示上の「客体名」と「客体種別」及び「プロセッサー名」により仮想キーボードのキーパッドの種別を自動的に切り替えることができるが、これは、予め収録されたデータベースに基づくものであり、例えば、フォーカスされた客体が「ファイル一覧」である場合、仮想キーボードのキーパッドの種別が「AREA KEYPAD」に切り替わってタッチポジションのキーが方向キー値として転送され、フォーカスされた客体が「エディットウィンドウ」である場合、仮想キーボードのキーパッドの種別が「韓国語/英語KEYPAD」に切り替わってタッチポジションのキーが文字キー値として転送され、電話機や計算機ソフトウェアにおいては「数字キーパッド」に切り替わってタッチするキーに相当する数字値のみ転送される。
加えて、前記タッチ感知部102は、ユーザーにより基準モードのためのキー値が割り当てられたタッチポジションのタッチが感知された場合、基準モードという音声メッセージを出力するように前記音声合成処理部106に音声出力を要請しつつ基準モード状態を維持し、前記基準モード状態で他のタッチポジションのタッチが感知された場合、前記タッチされた他のタッチポジションのキー値を生成して起動中のアプリケーションソフトウェアに転送される
例えば、図3に示す如き3×4のタッチポジションが存在する仮想キーボードについて説明する。
図3を参照すれば、合計12個のタッチポジションは、位置ごとに、配列順に、TP1、TP2...TP12という識別名が付与されている。
ユーザーが中央部に配置されたタッチポジションTP5をタッチしたままで所定時間維持する場合、前記タッチ感知部は「基準モード」であると判断する。
このとき、ユーザーが仮想キーボードのタッチポジションをタッチした状態で移動していく過程で「TP5」を通るときに「正常信号音」または「軽い振動」または「正しい位置です」というメッセージを音声として出力する。
前記TP5にポインターをタッチしたままで所定時間が経過したり、タッチした状態を維持し続けると、「基準モード」に切り替わる。ここで、前記ポインターとは、仮想キーボードがタッチ可能な指などをいう。
さらに、「基準モード」とは、第1ポインターが「TP5」に触れた状態を維持し続けることを許容し、第2ポインターのタッチに妨げ(作用)を引き起こさないことを意味する一連の機能である。上記の基準モードを維持した状態で、ユーザーが他のタッチポジションをタッチすれば、前記タッチ感知部102は当該キー値を生成し、既に起動中のアプリケーションソフトウェアに転送する。
すなわち、基準モード状態で、第2ポインターを用いて、「TP1」、「TP2」、「TP3」、「TP4」、「TP6」、「TP7」、「TP8」、「TP9」、「TP10」、「TP11」、「TP12」をタッチすれば、当該「キー値」が転送される。なお、「基準モード」であるとき、「TP5」および「TP6」をタッチすることが容易ではないが、この場合には、既に支持している指を離して基準モードを解放し、直ちに「TP5」及び「TP6」を触った後に所定時間内に離すような方式によりタッチをする。
これが可能なのは、片手の指が中央部の「TP5」を支持して身動き上の基準が一緒に作用しているためであるが、視覚障害者は物事の位置を認知することができないだけであって、方向(主として8方向)は認知することができ、方向の基準点を1本指で支えているため一層容易である。
また、各仮想キーボードは種別ごとに各タッチポジションのキー値が予め設定されている。例えば、仮想キーボードが「文字キーパッド」として活性化された場合、TP1=「a」(TP1がタッチされれば、クワーティキーボード「a」を押下したのと同様。)、TP1、TP1=「b」(限られた時間内にTP1およびTP1を連続して入力すれば、クワーティキーボード「b」を押下したのと同様。)、TP1、TP2=「c」(限られた時間内にTP1およびTP2を連続して入力すれば、クワーティキーボード「c」を押下したのと同様。)、TP8=「{DOWN}」(TP8をタッチすれば、クワーティキーボード「下方向キー」を押下したのと同様。)などのように各タッチポジションのキーが文字要素のキー値に設定されている。
前記音声合成処理部106は、前記客体判断部104において読み込みた客体の情報を文字音声変換(TTS:Text to Speech)エンジンを用いて音声データに変換して出力する。
図2は、本発明の実施の形態に係る、視覚障害者がタッチスクリーン装置を用いて客体を操作する方法を示すフローチャートである。
図2を参照すれば、タッチスクリーン装置は、起動中のアプリケーションソフトウェアにキー値を転送するための仮想キーボードが活性化された状態で(S200)、前記仮想キーボードのタッチが感知された場合(S202)、前記タッチされた仮想キーボードのタッチポジションに対する位置、タッチ回数及びタッチ時間の情報に基づくキー値を生成して(S204)、前記起動中のアプリケーションソフトウェアに転送する(S206)。
このとき、前記タッチスクリーン装置は、ユーザーにより基準モードのためのキー値が割り当てられたタッチポジションのタッチが感知された場合、基準モードという音声メッセージを出力しつつ基準モード状態を維持し、前記基準モード状態で他のタッチポジションのタッチが感知された場合、前記タッチされた他のタッチポジションのキー値を生成して前記起動中のアプリケーションソフトウェアに転送する。
前記S206を行った後、前記アプリケーションソフトウェアが前記転送されたキー値に基づき動作して前記アプリケーションソフトウェアに含まれている全体客体のうち任意の客体がフォーカスされれば(S208)、前記タッチスクリーン装置は、フッキングメカニズムを用いて、前記フォーカスされた客体のテキスト情報を読み込む(S210)。このとき、前記タッチスクリーン装置は、フッキングメカニズムを用いて、現在起動中のアプリケーションソフトウェアの画面表示上の「客体名」と、フォーカスされた客体の種別およびフォーカスされた客体に表示されたテキスト文字などを読み込む。
前記S210を行った後、前記タッチスクリーン装置は、前記読み込まれた客体のテキスト情報をテキスト音声変換(TTS:Text to Speech)エンジンを用いて音声データに変換して出力する(S212)。
このように本発明が属する技術分野における当業者であれば、本発明がその技術的思想や必須的特徴を変更することなく他の具体的な形態として実施可能であるということを理解できる筈である。よって、上述した実施の形態はあらゆる面で例示的なものであり、限定的なものでないと理解さるべきである。本発明の範囲は前記詳細な説明の欄よりは特許請求の範囲によって開示され、特許請求の範囲の意味、範囲及びその等価概念から導き出されるあらゆる変更または変形された形態が本発明の範囲に含まれるものであると解釈さるべきである。
100:タッチスクリーン装置、
102:タッチ感知部、
104:客体判断部、
106:音声合成処理部、

Claims (5)

  1. 起動中のアプリケーションソフトウェアの制御のための仮想キーボードが活性化された状態で、前記仮想キーボードのタッチが感知された場合、前記タッチされた仮想キーボードのタッチポジションに対する位置、タッチ回数及びタッチ時間の情報に基づくキー値を生成して前記起動中のアプリケーションソフトウェアに転送するタッチ感知部と、
    前記アプリケーションソフトウェアが前記タッチ感知部から転送されたキー値に基づき動作して前記アプリケーションソフトウェアに含まれている全体客体のうち任意の客体がフォーカスされれば、フッキングメカニズムを用いて前記フォーカスされた客体のテキスト情報を読み込む客体判断部と、
    前記客体判断部において読み込まれた客体のテキスト情報をテキスト音声変換(TTS:Text to Speech)エンジンを用いて音声データに変換して出力する音声合成処理部と、
    を備え、
    前記タッチ感知部は、ユーザーにより基準モードのためのキー値が割り当てられたタッチポジションのタッチが感知された場合、基準モードという音声メッセージを出力するように前記音声合成処理部に音声出力を要請しつつ基準モード状態を維持し、
    前記基準モード状態で他のタッチポジションのタッチが感知された場合、前記タッチされた他のタッチポジションのキー値を生成して前記アプリケーションソフトウェアに転送する
    ことを特徴とする視覚障害者による客体操作が可能なタッチスクリーン装置。
  2. 前記仮想キーボードは、所定数のタッチポジションが配列された構造のものであり、画面に視覚的に表示されずにバックグラウンドにおいて動作することを特徴とする、請求項1に記載の視覚障害者による客体操作が可能なタッチスクリーン装置。
  3. 前記客体は、前記アプリケーションソフトウェアの構成要素であることを特徴とする、請求項1に記載の視覚障害者による客体操作が可能なタッチスクリーン装置。
  4. 前記客体の情報は、前記客体をテキストとして表示した名前、種別および状態を含むことを特徴とする、請求項1に記載の視覚障害者による客体操作が可能なタッチスクリーン装置。
  5. タッチスクリーン装置が視覚障害者のタッチを用いて客体を操作する方法において、
    (a)起動中のアプリケーションソフトウェアの制御のための仮想キーボードが活性化された状態で、前記仮想キーボードのタッチが感知された場合、前記タッチされた仮想キーボードのタッチポジションに対する位置、タッチ回数及びタッチ時間の情報に基づくキー値を生成して前記起動中のアプリケーションソフトウェアに転送するステップと、
    (b)前記アプリケーションソフトウェアが前記転送されたキー値に基づき動作して前記アプリケーションソフトウェアに含まれている全体客体のうち任意の客体がフォーカスされれば、フッキングメカニズムを用いて前記フォーカスされた客体のテキスト情報を読み込むステップと、
    (c)前記読み込まれた客体のテキスト情報をテキスト音声変換(TTS:Text to Speech)エンジンを用いて音声データに変換して出力するステップと、
    を含
    前記ステップ(a)は、
    前記ユーザーにより基準モードのための特定のタッチポジションのタッチが感知された場合、基準モードという音声メッセージを出力しつつ基準モード状態を維持するステップと、
    前記基準モード状態で他のタッチポジションのタッチが感知された場合、前記タッチされた他のタッチポジションのキー値を生成して前記起動中のアプリケーションソフトウェアに転送するステップと、をさらに含む
    ことを特徴とするタッチスクリーン装置における視覚障害者による客体操作方法。
JP2011029924A 2010-11-11 2011-02-15 視覚障害者による客体操作が可能なタッチスクリーン装置及びその装置における客体操作方法 Expired - Fee Related JP5511085B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100111844A KR101314262B1 (ko) 2010-11-11 2010-11-11 시각 장애인에 의한 객체 조작이 가능한 터치스크린 장치 및 그 장치에서의 객체 조작 방법
KR10-2010-0111844 2010-11-11

Publications (2)

Publication Number Publication Date
JP2012104092A JP2012104092A (ja) 2012-05-31
JP5511085B2 true JP5511085B2 (ja) 2014-06-04

Family

ID=46048602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011029924A Expired - Fee Related JP5511085B2 (ja) 2010-11-11 2011-02-15 視覚障害者による客体操作が可能なタッチスクリーン装置及びその装置における客体操作方法

Country Status (4)

Country Link
US (1) US20120123781A1 (ja)
JP (1) JP5511085B2 (ja)
KR (1) KR101314262B1 (ja)
WO (1) WO2012064034A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088969A (ja) * 2010-10-20 2012-05-10 Sharp Corp 入力表示装置、入力表示方法、コンピュータプログラム及び記録媒体
CN109582180A (zh) 2011-10-18 2019-04-05 卡内基梅隆大学 用于分类触敏表面上的触摸事件的方法和设备
KR20140026027A (ko) * 2012-08-24 2014-03-05 삼성전자주식회사 어플리케이션 실행 방법 및 휴대 단말
KR102007651B1 (ko) * 2012-12-21 2019-08-07 삼성전자주식회사 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체
JP6205568B2 (ja) * 2013-01-16 2017-10-04 株式会社日本デジタル研究所 リモートアクセス制御システム、方法、およびプログラム
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
KR101509013B1 (ko) * 2013-10-17 2015-04-07 원성준 애플리케이션 처리 단말 장치, 방법 및 기록매체
TWI514238B (zh) * 2013-11-28 2015-12-21 Inventec Corp 閱讀提示訊息的系統及其方法
CN105247461B (zh) * 2014-02-12 2019-05-31 齐科斯欧公司 为触摸屏交互确定俯仰和偏航
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
WO2016108780A1 (en) 2014-12-30 2016-07-07 Turkcell Teknoloji̇ Araştirma Ve Geli̇sti̇rme Anoni̇m Si̇rketi̇ A mobile device for enabling visually-impaired users to make text entry
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
CN107656933B (zh) * 2016-07-25 2022-02-08 中兴通讯股份有限公司 一种语音播报方法及装置
WO2019006589A1 (zh) * 2017-07-03 2019-01-10 深圳市汇顶科技股份有限公司 计算机存储介质、控制终端、电子压力触摸屏的控制方法和装置
CN109992177A (zh) * 2017-12-29 2019-07-09 北京京东尚科信息技术有限公司 电子设备的用户交互方法、***、电子设备及计算机介质
CN108269460B (zh) * 2018-01-04 2020-05-08 高大山 一种电子屏幕的阅读方法、***及终端设备
CN108777808B (zh) * 2018-06-04 2021-01-12 深圳Tcl数字技术有限公司 基于显示终端的文本转语音方法、显示终端及存储介质
CN110795175A (zh) * 2018-08-02 2020-02-14 Tcl集团股份有限公司 模拟控制智能终端的方法、装置及智能终端
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
KR102487810B1 (ko) * 2020-07-08 2023-01-11 숙명여자대학교산학협력단 저시력자를 위한 웹문서 제공방법 및 그 사용자 단말
KR102435206B1 (ko) 2022-03-10 2022-08-31 주식회사 에이티랩 시각장애인을 위한 키오스크 장치 간편 조작 시스템 및 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0432918A (ja) * 1990-05-22 1992-02-04 Nec Eng Ltd タッチ式入力装置制御方式
JP2654543B2 (ja) * 1994-09-06 1997-09-17 日本電気株式会社 音響ディスプレイ装置
JPH09146708A (ja) * 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
KR20020014636A (ko) * 2000-08-18 2002-02-25 전성희 웹콘텐츠 음성변환정보 서비스 방법
JP2002351600A (ja) * 2001-05-28 2002-12-06 Allied Brains Inc 入力操作支援プログラム
JP3630153B2 (ja) * 2002-07-19 2005-03-16 ソニー株式会社 情報表示入力装置及び情報表示入力方法、並びに情報処理装置
US7187394B2 (en) * 2002-10-04 2007-03-06 International Business Machines Corporation User friendly selection apparatus based on touch screens for visually impaired people
JP3747915B2 (ja) * 2003-03-06 2006-02-22 日本電気株式会社 タッチパネル装置
JP4094002B2 (ja) * 2004-11-10 2008-06-04 京セラミタ株式会社 操作入力装置
KR100606406B1 (ko) * 2005-03-11 2006-07-28 골든키정보통신 주식회사 시각 장애인용 컴퓨터
JP4826184B2 (ja) * 2005-09-20 2011-11-30 富士ゼロックス株式会社 ユーザインタフェース装置
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US8239201B2 (en) * 2008-09-13 2012-08-07 At&T Intellectual Property I, L.P. System and method for audibly presenting selected text
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface

Also Published As

Publication number Publication date
KR20120050549A (ko) 2012-05-21
JP2012104092A (ja) 2012-05-31
WO2012064034A1 (ko) 2012-05-18
KR101314262B1 (ko) 2013-10-14
US20120123781A1 (en) 2012-05-17

Similar Documents

Publication Publication Date Title
JP5511085B2 (ja) 視覚障害者による客体操作が可能なタッチスクリーン装置及びその装置における客体操作方法
JP5486089B2 (ja) モバイル装置用の感圧ユーザインターフェイス
US9176668B2 (en) User interface for text input and virtual keyboard manipulation
JP6495376B2 (ja) 画面用の手書きキーボード
US9678659B2 (en) Text entry for a touch screen
JP4981066B2 (ja) 携帯用電子機器のためのキーボード
JP2019220237A (ja) 文字入力インターフェース提供方法及び装置
CN102224483B (zh) 具有绝对及相对输入模式的触敏显示屏幕
TWI438646B (zh) 能夠接受文字輸入之無線手持裝置及用於在無線手持裝置上輸入文字之方法
EP3521993B1 (en) Gestures for quick character input
US20130212515A1 (en) User interface for text input
JP2011248888A (ja) デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス
JP5305545B2 (ja) 手書き文字入力装置および携帯端末
KR20110103265A (ko) 휴대 단말기의 문자 입력 방법 및 이를 지원하는 휴대 단말기
KR101017108B1 (ko) 시각 장애인을 위한 터치스크린 장치 및 그 장치에서 사용자 인터페이스 구현 방법
KR20160097414A (ko) 시각 장애인을 위한 터치 디바이스 입력 시스템 및 입력 방법
JP2012507764A (ja) マルチレベル仮想キーボードを含む通信装置
JP2004038407A (ja) 文字入力装置およびその方法
CN113795819A (zh) 用于删除键手势以及在触敏键盘处提供连续路径手势的***和方法
JP6086035B2 (ja) 携帯電子機器及び文字入力支援プログラム
JP2014140236A (ja) 文字データ入力装置
JP5288206B2 (ja) 携帯端末装置、文字入力方法、及び文字入力プログラム
TW475143B (en) Apparatus and method for performing scroll function of pointing device in computer system
JP2013033553A (ja) 文字データ入力装置
KR101269633B1 (ko) 터치 입력 방식을 이용하여 한글을 입력하기 위한 장치 및 그 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130617

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5511085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees