JP2018106434A - ユーザーインターフェイス装置及び電子機器 - Google Patents

ユーザーインターフェイス装置及び電子機器 Download PDF

Info

Publication number
JP2018106434A
JP2018106434A JP2016252318A JP2016252318A JP2018106434A JP 2018106434 A JP2018106434 A JP 2018106434A JP 2016252318 A JP2016252318 A JP 2016252318A JP 2016252318 A JP2016252318 A JP 2016252318A JP 2018106434 A JP2018106434 A JP 2018106434A
Authority
JP
Japan
Prior art keywords
control unit
touch panel
user interface
display
pressure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016252318A
Other languages
English (en)
Inventor
佐藤 克則
Katsunori Sato
克則 佐藤
兼平 浩紀
Hironori Kanehira
浩紀 兼平
赤間 博
Hiroshi Akama
博 赤間
優子 千田
Yuko Senda
優子 千田
森田 修身
Osami Morita
修身 森田
佳 共
Kei KYO
佳 共
光春 菅原
Mitsuharu Sugawara
光春 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dexerials Corp
Original Assignee
Dexerials Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dexerials Corp filed Critical Dexerials Corp
Priority to JP2016252318A priority Critical patent/JP2018106434A/ja
Priority to PCT/JP2017/041151 priority patent/WO2018123320A1/ja
Publication of JP2018106434A publication Critical patent/JP2018106434A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M11/00Coding in connection with keyboards or like devices, i.e. coding of the position of operated keys
    • H03M11/02Details
    • H03M11/04Coding of multifunction keys

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】従来のタッチ位置のXY座標を検知する機能しかないタッチパネル操作では、ユーザーが要求する結果を取得するまで手間がかかっていた。
【解決手段】ユーザーインターフェイス装置が備える制御部は、指示媒体によりタッチ操作が行われたタッチパネルのタッチ位置の座標を座標検知部が検知して出力した座標検知情報に基づいてタッチ操作を判定する。また、制御部は、指示媒体によりタッチパネルに印加される押圧力に応じて変化するセンサー値に基づいて、押込み操作が行われたことを感圧検知部が検知して出力した感圧検知情報に基づいて押込み操作を判定する。そして、制御部は、タッチ操作及び押込み操作を組み合わせたジェスチャー操作に基づいて、オブジェクトの表示形態を変更するための制御情報を表示制御部に出力する。
【選択図】図2

Description

本発明は、ユーザーインターフェイス装置及び電子機器に関する。
近年、指等で容易かつ感覚的に操作できるタッチパネルが広く普及しており、タッチパネルの小型化、薄型化、軽量化、省電力化及び低コスト化等に関する多様な研究及び開発が行われている。指等の指示媒体がタッチパネルにタッチした位置(「タッチ位置」と呼ぶ)を検知する方式としては、電気抵抗の変化を検知する抵抗膜式、超音波等を利用する表面弾性波方式、静電容量の変化を検知する静電容量方式等が知られている。中でも、複数のタッチ位置を検知できる点等において、静電容量方式のタッチパネルが注目されている。
静電容量方式のタッチパネルは、静電容量を発生させる透明電極と、静電容量の変化を検知する外部回路とを備えている。近年では、スタイラスペン、指等によりタッチパネルが押圧されたときの押圧力を検知可能な感圧センサーを備えたタッチパネルが提供されつつある。
例えば、特許文献1には、トッププレート及びタッチパネルが押圧方向に移動することにより変位した感圧センサーの上部電極と下部電極の静電容量の変化に基づいて、入力操作面への押圧による入力決定操作がなされたことを判定する技術が開示されている。
また、特許文献2には、弾性部材を用いない感圧センサーを備えるセンサー装置が開示されている。
特開2011−134000号公報 特開2011−100364号公報
タッチパネルは様々な電子機器に用いられている。タッチパネルが用いられる電子機器として、例えば、自動車に搭載され、現在の自車の位置から目的地までの地図及び道順等を表示パネルに表示するナビゲーション装置がある。ナビゲーション装置では、簡易な操作が求められる。しかし、従来のナビゲーション装置に取り付けられるタッチパネルには、タッチ位置のXY座標を検知する機能しかなく、ユーザーが目的とする結果を得るまでに複雑な操作を行わなくてはならず、不便であった。
また、特許文献1及び2に開示された感圧センサーを備えるタッチパネルでは、タッチパネルに指等がタッチしたことを確実に検知するために、感圧センサーが補助的に用いられるに過ぎない。このため、特許文献1及び2に開示された技術を適用したタッチパネルであっても、操作自体は従来の感圧機能を有さないタッチパネルと同様であり、操作の不便さは解消していなかった。また、感圧センサーを備えないタッチパネルでは、外部の入力装置等を用いた操作が要求されるため、ユーザーが操作に習熟するまで時間がかかっていた。
本発明はこのような状況に鑑みて成されたものであり、ユーザーが要求する結果を容易に取得できるようにすることを目的とする。
本発明に係るユーザーインターフェイス装置は、オブジェクトを表示する表示パネルと、制御情報に従って表示パネルにオブジェクトを表示させる制御を行う表示制御部と、指示媒体によりタッチ操作が行われるタッチパネルと、タッチ操作が行われたタッチパネルのタッチ位置の座標を検知して座標検知情報を出力する座標検知部と、指示媒体によりタッチパネルに印加される押圧力に応じて変化するセンサー値を出力する感圧センサーと、センサー値に基づいて、指示媒体によりタッチパネルが押込まれる押込み操作が行われたことを検知して感圧検知情報を出力する感圧検知部と、座標検知情報に基づいて判定したタッチ操作、及び感圧検知情報に基づいて判定した押込み操作を組み合わせたジェスチャー操作に基づいて、オブジェクトの表示形態を変更するための制御情報を表示制御部に出力する制御部と、を備える。
また、本発明に係る電子機器は、上述したユーザーインターフェイス装置と、電子機器本体と、を備える。電子機器本体は、制御部から入力するタッチ操作又はジェスチャー操作により指示された内容に基づいて所定の処理を行い、所定の処理を行ったオブジェクトをユーザーインターフェイス装置の制御部に出力する。
本発明によれば、ユーザーは、タッチ操作及び押込み操作を組み合わせた直感的なジェスチャー操作を行うことで、ユーザーが要求した結果を容易に取得できる。
上記した以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。
本発明の第1の実施の形態に係るナビゲーション装置が搭載されている車両の運転席及び助手席を進行方向の後方から前方に向かって眺めたときの状態を示す説明図である。 本発明の第1の実施の形態に係るユーザーインターフェイス装置の内部構成例を示すブロック図である。 本発明の第1の実施の形態に係るユーザーインターフェイス装置の概略構成図である。 本発明の第1の実施の形態に係る感圧センサーの動作原理の説明図である。 従来の拡大又は縮小操作の例を示すフローチャートである。 本発明の第1の実施の形態に係る拡大又は縮小操作の例を示すフローチャートである。 本発明の第2の実施の形態に係る拡大又は縮小操作の例を示すフローチャートである。 本発明の第3の実施の形態に係る拡大又は縮小操作の例を示すフローチャートである。 従来の文字種の切替操作の例を示すフローチャートである。 本発明の第4の実施の形態に係る文字種の切替操作の例を示すフローチャートである。 従来のメニュー選択操作の例を示すフローチャートである。 本発明の第5の実施の形態に係るメニュー選択操作の例を示すフローチャートである。 従来の取消操作の例を示すフローチャートである。 本発明の第6の実施の形態に係る取消操作の例を示すフローチャートである。 従来のユーザーインターフェイス装置の設置例を示す説明図である。 従来のナビゲーション装置の操作例を示すフローチャートである。 本発明の第7の実施の形態に係るナビゲーション装置の構成例を示す説明図である。 本発明の第7の実施の形態に係るナビゲーション装置の操作例を示すフローチャートである。
以下、本発明を実施するための形態について、添付図面を参照して説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
[第1の実施の形態]
図1は、ナビゲーション装置1が搭載されている車両の運転席及び助手席を進行方向の後方から前方に向かって眺めたときの状態を示す説明図である。
ナビゲーション装置1(電子機器の一例)は、ダッシュボード5とメーターパネル6とに挟まれた位置であって、ステアリングホイール7を握るユーザーが視認可能な位置に設置されている。ナビゲーション装置1の下には、シフトレバー8が設けられている。
このナビゲーション装置1は、ナビゲーションに必要な処理を行うナビゲーション装置本体2と、ユーザーインターフェイス装置3とを備える。ナビゲーション装置本体2はダッシュボード5に形成された凹部に嵌め込まれておりユーザーが直接視認することはできない。ユーザーインターフェイス装置3は、ユーザーが視認可能な位置に配置されており、ユーザーから入力された指示をナビゲーション装置本体2に出力したり、ナビゲーション装置本体2による処理結果をユーザーに示したりする。
ユーザーインターフェイス装置3は、ダッシュボード5及びメーターパネル6並びにシフトレバー8からフロントガラス4の基部にかけての内装の形状と一体感を持つように構成されている。ユーザーインターフェイス装置3には、ナビゲーション装置本体2から出力されたナビゲーション処理等に必要な情報(地図、各種アイコン等)が表示されている。ユーザーは、ユーザーの指、スタイラスペン等の指示媒体をタッチパネル20にタッチして、ユーザーインターフェイス装置3に表示されたアイコンを動かしたり、地図等を拡大又は縮小させたりするジェスチャー操作を行うことが可能である。
以下の説明では、タッチパネル20にタッチする指示媒体を、ユーザーの指であるとする。また、ユーザーがタッチパネル20にタッチしたまま指を移動して行う操作を「タッチ操作」と呼び、ユーザーがタッチパネル20を指で押し込む操作を「押込み操作」と呼ぶ。そして、タッチ操作と押込み操作を組み合わせて行われる操作を「ジェスチャー操作」と呼ぶ。なお、従来のジェスチャー操作は、タッチ操作だけで行われる。
図2は、ユーザーインターフェイス装置3の内部構成例を示すブロック図である。
ユーザーインターフェイス装置3の内部構成を説明する前に、ナビゲーション装置本体2の動作を説明する。ナビゲーション装置本体2(電子機器本体の一例)は、ユーザーインターフェイス装置3の制御部10から入力されるタッチ操作又はジェスチャー操作により、指示された内容に基づいて所定の処理を行う。そして、ナビゲーション装置本体2は、指示に基づいて所定の処理を行った後のオブジェクトをユーザーインターフェイス装置3の制御部10に出力する。また、制御部10は、オブジェクトに行われたタッチ操作(指の移動方向、タッチ位置等)を判定する。
ナビゲーション装置本体2からユーザーインターフェイス装置3に出力されるオブジェクトには、例えば、地図、文字列、アイコン、画像等が含まれる。ナビゲーション装置本体2は、ユーザーインターフェイス装置3になされたジェスチャー操作に基づくナビゲーション処理を行っており、ユーザーインターフェイス装置3が表示するための地図を出力したり、ユーザーインターフェイス装置3から入力された文字列を編集したりする。
ユーザーインターフェイス装置3は、バスBで接続された、制御部10、記憶媒体制御部14、記憶媒体15、通信制御部16、座標検知部17、感圧検知部18、表示制御部19を備える。また、ユーザーインターフェイス装置3は、座標検知部17に接続されたタッチパネル20、感圧検知部18に接続された感圧センサー30、表示制御部19に接続された表示パネル40を備える。
制御部10は、ユーザーインターフェイス装置3内の各部の動作を制御する。この制御部10は、座標検知部17から入力する座標検知情報に基づいてタッチ操作が行われたことを判定すると共に、タッチ位置から入力された情報をナビゲーション装置本体2に出力する。また、制御部10は、感圧検知部18から入力する感圧検知情報に基づいてタッチパネル20が指で押込まれた押込み操作が行われたことを判定する。また、制御部10は、ナビゲーション装置本体2がユーザーインターフェイス装置3に出力したオブジェクトを表示パネル40に表示させる制御情報を表示制御部19に出力する。そして、制御部10は、タッチ操作及び押込み操作を組み合わせたジェスチャー操作に基づいて、表示パネル40に表示するオブジェクトの表示形態を変更するための制御情報を表示制御部19に出力する。第1〜第3の実施の形態においてオブジェクトの表示形態を変更するとは、例えば、地図を拡大又は縮小して表示することである。
制御部10は、CPU11,RAM12,ROM13により構成され、CPU11,RAM12,ROM13が連動して制御部10の機能を実現する。
CPU(Central Processing Unit)11は、ユーザーインターフェイス装置3内の各部の動作を制御するコンピューターの一例である。CPU11は、例えば、ROM13から読出したプログラムを実行し、本実施の形態に係るジェスチャー操作に関わる処理を行う。
RAM(Random Access Memory)12は、CPU11によって実行されるプログラム等の一時データを記憶する。
ROM(Read Only Memory)13は、CPU11によって読出されるプログラム等を記憶する。ROM13は、CPU11によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記録媒体の一例として用いられる。このため、ROM13には、このプログラムが永続的に格納される。なお、CPU11によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記録媒体としては、他にもCD−ROM、DVD−ROM等の記録媒体であってもよい。
記憶媒体制御部14は、記憶媒体15に対する制御を行う。例えば、記憶媒体制御部14は、制御部10から入力するデータを記憶媒体15に書き込んだり、制御部10からの指示により記憶媒体15に記憶されたデータを読出して制御部10に出力したりする。
記憶媒体15は、例えば、ユーザーインターフェイス装置3に設けられるスロット等に差し込まれ、記憶媒体制御部14により書き込まれたデータを記憶し、又は記憶媒体制御部14によりデータが読出される。例えば、記憶媒体15には、ナビゲーション装置本体2で動作するナビゲーションプログラム、文字編集プログラムのバージョンアップデータ等が記憶される。
通信制御部16は、ナビゲーション装置本体2とユーザーインターフェイス装置3との間でネットワークNを通じて行われるデータの通信処理を制御する。
座標検知部17は、タッチ操作が行われたタッチパネル20のタッチ位置の座標を検知する。タッチパネル20は、平面矩形状に形成されており、互いに交差するX電極とY電極の交差する点の位置が座標情報となり、この位置の静電容量の変化に応じた値が座標検知部17に出力される。座標検知部17は、タッチパネル20から入力された座標情報が変化した箇所の座標を、指のタッチ位置であると検知して、タッチ位置の座標を含む座標検知情報を制御部10に出力する。
感圧検知部18は、タッチパネル20が指で押され、感圧センサー30が感圧したことを検知する。感圧センサー30は、タッチパネル20の裏面に設けられており、指によりタッチパネル20に印加される押圧力に応じて変化するセンサー値を感圧検知部18に出力する。感圧検知部18は、感圧センサー30から入力されるセンサー値に基づいて、指によりタッチパネル20が押込まれる押込み操作が行われたことを検知して感圧検知情報を制御部10に出力する。
表示制御部19は、制御部10から入力される制御情報に従って、平面矩形状に形成された表示パネル40に対して、例えば、ナビゲーションに必要なアイコン、地図等のオブジェクトを表示させる制御を行う。
図3は、ユーザーインターフェイス装置3の概略構成図である。
図3の上には、上面視したタッチパネル20に設置される感圧センサー30の位置と、筐体55の額縁の位置とが破線で示されている。タッチパネル20を内包するユーザーインターフェイス装置3の筐体55の額縁上のタッチパネル20の裏面には、6個の感圧センサー30が設けられている。このため、ユーザーが感圧センサー30を直接見ることはない。感圧センサー30が設置される数は、図3に示すように通常は複数個設けられるが、必ずしも複数設ける必要はなく、1個でもよい。
図3の下には、タッチパネル20及び感圧センサー30の断面図が示される。
トッププレート50は、タッチパネル20の表面を保護する。トッププレート50には透明のガラス基板やフィルム等が用いられる。トッププレート50の表面は、ユーザーがタッチ操作を行うために指を接触させる入力操作面51である。
タッチパネル20は、例えば、透明なX電極基板21、接着層22、Y電極基板23を順に積層して構成されたものである。トッププレート50とX電極基板21は、接着層52により接着固定されている。X電極基板21及びY電極基板23はそれぞれ矩形状を有する。X電極基板21及びY電極基板23は、接着層22にて接着される。X電極基板21に形成されるX方向検知電極(不図示)と、Y電極基板23に形成されるY方向検知電極(不図示)が互いに平面的に重なる領域が、XY平面の座標検知領域となる。感圧センサー30は、タッチパネル20のXY平面の座標検知領域外の周縁領域(額縁)に配置される。
感圧センサー30は、タッチパネル20と筐体55との間に配置された誘電材料からなる弾性体33と、弾性体33を挟むように配置され、コンデンサを形成する上部電極31及び下部電極35とを備える。感圧センサー30はさらに、弾性体33と上部電極31とを接着固定する接着層32と、弾性体33と下部電極35とを接着固定する接着層34とを備える。本実施の形態においては、6個の各感圧センサー30を構成する弾性体が連結して1つの枠状の弾性体33を構成し、6個の感圧センサー30で1つの弾性体33を共有している。弾性体33を環状に設けることにより、タッチパネル20と筐体55との間、つまりタッチパネル20と表示パネル40との間の空隙41に外部からのゴミ等が侵入することを防止できる。また、6個の感圧センサー30を構成する下部電極35が連結して1つの枠状の下部電極35を構成し、6個の感圧センサー30で1つの下部電極35を共有している。尚、上部電極31も下部電極35と同様に枠状に形成されてもよい。
弾性体33には、例えば、残留ひずみが少なく、復元率(復元速度)が高い材料が用いられる。弾性体33に用いられる材料としては、例えばシリコーンゴム、ウレタン系ゴムがある。弾性体33は、例えば、元の弾性体33の高さに対して最大で10%程度変位すればよい。例えば、感圧センサー30に用いられる厚み0.5mmの弾性体33であれば、10μm程度変位すればよい。
入力操作面51と垂直な押圧方向(z軸方向)に入力操作面51を、指で押圧すると、感圧センサー30の弾性体33が縮小するように歪み、この感圧センサー30が接着固定されているトッププレート50及びタッチパネル20が押圧方向に移動する。このように、感圧センサー30は、押圧されると押圧方向にその厚みが変位する。そして感圧センサー30の変位分だけ、タッチパネル20の裏面が、表示パネル40の表面に近づくので、タッチパネル20と表示パネル40との間には、タッチパネル20の移動分を考慮した空隙41が設けられている。ただし、タッチパネル20と表示パネル40が接着される場合には、空隙41が設けられない。そして、感圧センサー30は、上部電極31及び下部電極35により形成されるコンデンサの静電容量に応じたセンサー値を感圧検知部18に出力する。
図4は、感圧センサー30の動作原理を説明するための図である。ここでは、タッチパネル20の記載を省略している。
図4の左上には、指で押圧されていない感圧センサー30の例を示し、図4の右上には、指で押圧された感圧センサー30の例を示している。
上述したようにタッチパネル20が指で押され、感圧センサー30に押圧力が加わると、弾性体33は厚みが減少するように歪む。そして、押圧されていない感圧センサー30の厚みに対して、押圧された感圧センサー30の厚みが変わることで、感圧センサー30の静電容量が変化する。例えば、感圧センサー30が指で押圧されて弾性体33の厚みが変位dだけ減少すると、上部電極31と下部電極35との間の静電容量が変化する。このため、感圧検知部18は、弾性体33の変位dによる上部電極31と下部電極35間の静電容量変化率を利用して、タッチパネル20が押圧され、感圧センサー30が感圧したことを検知している(以下、「感圧を検知」と呼ぶ)。なお、静電容量変化率は、感圧検知部18が上部電極31と下部電極35から出力されるセンサー値に基づいて求められる。ここでセンサー値とは、上部電極31と下部電極35間の静電容量によって決定される電圧である。すなわち、静電容量変化率は、押圧されていない感圧センサー30の上部電極31と下部電極35間の静電容量に対する、押圧された感圧センサー30の上部電極31と下部電極35間の静電容量の割合で求められる。
図4の下のグラフは、感圧センサー30の静電容量変化率と、感圧センサー30に加わる押圧力との関係を示すグラフである。このグラフから、感圧センサー30の静電容量変化率は、感圧センサー30に加わる押圧力にほぼ比例するリニアな特性を有することが分かる。本実施の形態に係る感圧検知部18は、感圧センサー30から入力するセンサー値により、上部電極31と下部電極35間の静電容量が変化したこと、すなわち静電容量変化率を求めることが可能である。
感圧検知部18は、図4の下の押圧力と静電容量変化率の関係を示すグラフに基づいて、タッチパネル20の裏面に配置された各感圧センサー30で検知されたセンサー値を、タッチパネル20が押込まれたときの押圧力に変換する。そして、感圧検知部18は、この押圧力が押圧閾値を越えたときに、タッチパネル20に対してユーザーが意識的に押圧を加えたと判定し、感圧検知情報を制御部10に出力する。
なお、感圧検知部18は、各感圧センサー30により検出されるそれぞれの静電容量変化率の合算値に基づいて、押圧力を求めてもよい。これにより、入力操作面51へのタッチ位置だけに依存しない高精度な押圧力検知が可能となる。なお、感圧検知部18は、例えば、静電容量変化率の合算値を感圧センサー30の数で除算して得られる平均値から押圧力を求めてもよい。
また、感圧検知部18は、押圧力の大きさにより異なる感圧検知情報を制御部10に出力してもよい。例えば、図4の下のグラフにおいて、静電容量変化率が2.0%となる押圧力を閾値th1(第1押圧閾値の一例)とし、静電容量変化率が6.0%となる押圧力を閾値th2(第2押圧閾値の一例)とする。押圧力が閾値th1未満であれば、筐体55を通じてユーザーインターフェイス装置3に加わる振動等により静電容量が変化したに過ぎないと考える。つまり、ユーザーが意図して指をタッチパネル20に押込んだものではないとする。この場合、感圧検知部18は、ユーザーが指をタッチパネル20に押込んだと判定しないので、感圧検知情報を出力しない。しかし、押圧力が閾値th1以上であれば、感圧検知部18は、ユーザーが指をタッチパネル20に押込んだと判定し、第1感圧検知情報を出力する。さらに、押圧力が閾値th2以上であれば、感圧検知部18は、ユーザーが指をタッチパネル20に強く押込んだと判定し、第2感圧検知情報を出力する。
このように感圧検知部18は、ユーザーが指をタッチパネル20に押込む押込み量に応じて変わる静電容量変化率から求めた押圧力に基づいて、第1感圧検知情報又は第2感圧検知情報を制御部10に出力することができる。この結果、制御部10は、感圧検知部18から入力される第1感圧検知情報又は第2感圧検知情報に応じて異なる処理を行うことが可能となる。なお、感圧検知情報を第1感圧検知情報又は第2感圧検知情報のいずれか1つだけとしてもよい。第1感圧検知情報又は第2感圧検知情報を区別しない場合、「感圧検知情報」と呼ぶ。
制御部10は、感圧検知部18から感圧検知情報が入力したことにより、タッチパネル20に指が押込まれ、ユーザーによる決定操作がなされたことを判定する。このとき、制御部10は、ユーザーに押圧状態であることを知らせるために、筐体55を振動させたり、表示パネル40にメッセージを表示したりする。また、不図示のスピーカーから音声ガイドを放音するようにしてもよい。あるいは、制御部10は、押込まれているタッチ位置に丸、四角等のアイコンを表示することもできる。この場合、アイコンを点滅させてもよいし、アイコンの表示色を変えてもよい。また、筐体55は、タッチパネル20が押込まれた時に、クリック音を発生させたり、指の感触を変化させたりすることもできる。
以下、図5及び図6を参照して、従来のユーザーインターフェイス装置100を用いた操作例と、第1の実施の形態に係るユーザーインターフェイス装置3を用いた操作例とを比較して説明する。
図5に示す従来のフローチャートと、図6に示す本発明の第1の実施の形態に係るフローチャートの各ステップには、ジェスチャー操作の具体的な内容を説明するために、ユーザーインターフェイス装置3,100の表示パネルに表示された画面の表示例が示されている。この表示例には、タッチパネルにおけるユーザーの指の位置が付加されている。
図5及び図6のステップに付加した画面には、矩形状の破線の範囲内に、ある瞬間におけるユーザーインターフェイス装置3,100の地図の画面及び指の正面図、下面図、左側面図が同時に表示されている。また、画面内の細い白抜き矢印は指の移動方向を表す。
<従来の拡大又は縮小操作の課題>
図5に示すような、タッチ位置のXY座標を検知することしかできない従来のタッチパネルを用いて、ユーザーが表示パネルに表示される地図の拡大又は縮小を行う場合、一般的にピンチアウト、ピンチインと呼ばれる2つのタッチ位置の座標間の距離を広げたり、狭めたりする動作を行っていた。このように2つのタッチ位置の座標間の距離を広げたり、狭めたりする動作を行う必要性から、ユーザーが2本の指を使用しなければならない。なお、ユーザーが1本の指をダブルタップ等することにより地図の拡大又は縮小操作を行う方法もあるが、この操作では予め設定された倍率に変更できるだけであって、任意の倍率に変更することができなかった。その他にもダブルタップした後、指を離さずパン(ドラッグ)するといった方法で、指一本で拡大又は縮小を実現している例もある。しかし、このようなタッチ操作は、「ダブルタップ」と「ドラッグ」という二つのジェスチャーの組合せからなっており、タッチ操作が煩雑となるばかりか、ユーザーが直感的に操作することが難しいという問題があった。
<従来のジェスチャー操作>
図6に示す本発明の第1の実施形態を説明する前に、図5により従来の拡大又は縮小操作の例を説明する。
図5は、従来の拡大又は縮小操作の例を示すフローチャートである。
始めに、従来のユーザーインターフェイス装置100が備える不図示の制御部は、ユーザーインターフェイス装置100が備えるタッチパネルに指がタッチしたことを検知する(S1)。以下、従来のユーザーインターフェイス装置100の制御部を、符号無しで単に「制御部」と呼ぶ。次に、ユーザーは、タッチパネルに対して、指の本数で変わる動作を選択する(S2)。ここでは、1本の指で行う動作(スワイプ)、又は2本の指で行う動作(ピンチイン、ピンチアウト)が選択される。
制御部は、タッチパネルにタッチした指のタッチ数を検知する(S3)。指のタッチ数が1本である場合(S3の1本)、制御部は、タッチパネルにタッチした指がタッチパネルを移動する方向に合わせて地図を移動して表示させる制御情報を不図示の表示制御部に出力する(S4)。以下、従来のユーザーインターフェイス装置100の表示制御部を、符号無しで単に「表示制御部」と呼ぶ。ステップS4に付加された画面には、ユーザーが1本の指で画面をタッチしたまま、画面の左下から右上に移動させ、1本の指の移動方向に合わせて地図が移動して表示される様子が示されている。
一方、指のタッチ数が2本である場合(S3の2本)、制御部は、2箇所のタッチ位置間の距離が拡大又は縮小のいずれであるかを判定する(S5)。ステップS5に付加された画面には、ユーザーが画面の中央付近を2本の指でタッチした様子が示されている。
タッチ位置間の距離が拡大するピンチアウトが行われた場合(S5の拡大)、制御部は、地図を拡大する制御情報を表示制御部に出力する(S6)。ステップS6に付加された画面には、ユーザーが画面に2本の指をタッチしたまま、2本の指の間隔を広げて(ピンチアウト)、地図を拡大表示させる様子が示されている。
一方、ステップS5でタッチ位置間の距離が縮小するピンチインが行われた場合(S5の縮小)、制御部は、地図を縮小する制御情報を表示制御部に出力する(S7)。ステップS7に付加された画面には、ユーザーが画面に2本の指をタッチしたまま、2本の指の間隔を狭めて(ピンチイン)、地図を縮小表示させる様子が示されている。ステップS4,S6,S7のいずれかの後、表示制御部は制御部から入力した制御情報に従って、ユーザーが要求した画面を表示パネルに表示し(S8)、本処理を終了する。
このように従来は、「タッチパネルのタッチ検知」と「XY座標の移動検知」を利用して地図の拡大又は縮小が行われていた。そして、地図の拡大又は縮小を行うためには、ユーザーが2本の指を使用してピンチアウト、ピンチインを行うか、2つの異なるジェスチャーを組合せて行うか、又は表示倍率変更ボタンを押す方法しかなかった。
<第1の実施の形態のジェスチャー操作>
図6は、第1の実施の形態に係る拡大又は縮小操作の例を示すフローチャートである。この第1の実施の形態においては、1本の指を用いた簡易な操作により地図の拡大又は縮小を行うようにしている。すなわち、第1の実施の形態に係る制御部10は、タッチパネル20が指により押込まれた状態で指が移動する方向に応じて、地図を拡大し、又は縮小する制御情報を表示制御部19に出力することが可能である。第1の実施の形態においてジェスチャー操作とは、例えば、ユーザーがタッチパネル20に押込んだ指を上又は下方向に移動させる操作である。
始めに、ユーザーインターフェイス装置3が備えるタッチパネル20にユーザーの指が触れたことにより、座標検知部17は、タッチされたことを検知し(S11)、タッチ位置の座標を検知する。ステップS11に付加された画面には、ユーザーが画面の左下を1本の指でタッチした様子が示されている。
次に、ユーザーが指をタッチパネル20に押し込む動作を選択する(S12)。ステップS12に付加された画面には、ユーザーが画面の左上を1本の指でタッチし、さらにタッチパネル20を押込む様子が示されている。タッチパネル20が指で押込まれていることは、タッチパネル20に対して下向き矢印で表された指の移動方向により示される。
次に、感圧検知部18は、感圧センサー30から出力されるセンサー値に基づいて、感圧センサー30が感圧を検知したか否かを判定する(S13)。感圧検知部18が、センサー値により感圧を検知していないと判定した場合(S13のNO)、制御部10は、タッチパネル20にタッチした指が移動する方向に合わせて地図を移動して表示させる制御情報を表示制御部19に出力する(S14)。ステップS14に付加された画面には、従来通りユーザーが画面に1本の指をタッチしたまま、画面の左下から右上に移動させた1本の指の移動方向に合わせて地図が移動して表示される様子が示されている。
一方、感圧検知部18が、センサー値により感圧を検知したと判定した場合(S13のYES)、指が押し込まれた状態でタッチ操作が行われる。このため、制御部10は、指が押し込まれた状態で移動する指の移動方向がタッチパネル20に対して上下のいずれであるかを、座標検知部17より入力する座標検知情報に基づいて判定する(S15)。
制御部10は、タッチパネル20が指により押込まれた状態で移動する方向が上(第1方向の一例)である場合(S15の上)に、表示パネル40に表示される地図を拡大する制御情報を表示制御部19に出力する(S16)この地図は、タッチパネル20に押込まれた地図の移動距離が長くなるにつれて、連続して拡大する。ステップS16に付加された画面には、ユーザーが指をタッチパネル20に押込んだまま指を上に移動させたことにより、地図が拡大した様子が示されている。
一方、制御部10は、タッチパネル20が指により押込まれた状態で移動する方向が下(第2方向の一例)である場合(S15の下)に、表示パネル40に表示される地図を縮小する制御情報を表示制御部19に出力する(S17)。この地図は、タッチパネル20に押込まれた地図の移動距離が長くなるにつれて、連続して縮小する。ステップS17に付加された画面には、ユーザーが指をタッチパネル20に押込んだまま指を下に移動させたことにより、地図が縮小した様子が示されている。
ステップS14,S16,S17のいずれかの後、表示制御部19は制御部10から入力された制御情報に従って、ユーザーが要求した画面を表示パネル40に表示し(S18)、本処理を終了する。
以上説明した第1の実施の形態に係るユーザーインターフェイス装置3では、1本の指を用いたシンプルなジェスチャー操作により任意の倍率で表示パネル40に表示される地図の拡大又は縮小を行うことが可能となる。このため、従来は、2本の指、または複数のジェスチャーを組合せて実現していた操作方法を簡易化することができる。
例えば、ナビゲーション装置1にて地図を表示パネル40に表示する際、この地図の座標変更を伴う場所探索モード(1つの座標を指示した後、指をXY方向に移動させる操作)から、ユーザーが自車の詳細な位置を確認するための倍率変更モード(地図を拡大させる操作)に変更する場合がある。この際、ユーザーは、タッチパネル20にタッチしていた指を押込んで倍率変更モードに移行させた後は、タッチパネル20に押込んだままの指を上又は下に移動するだけで、地図を拡大又は縮小することが可能となる。このため、ユーザーは、指1本だけで意図した機能を実現することが可能となる。また、ユーザーは、1本の指で、地図や写真等の地図を移動して表示させる操作と、地図の表示倍率を変更する操作とを連続して行えるため、従来よりも感覚的かつ直感的な操作を実現することができる。
また、ユーザーがユーザーインターフェイス装置3に指をタッチしている間は、走行中の車両が揺れていたとしても指がタッチ位置から移動しにくい。このため、従来の近接式のタッチパネルを用いたユーザーインターフェイス装置に比べて正確に操作することができる。なお、ナビゲーション装置本体2は、車両が走行している間はユーザーインターフェイス装置3を用いてユーザーが操作できないようにする制御情報をユーザーインターフェイス装置3に出力してもよい。逆に、車両が停車している間はユーザーインターフェイス装置3を用いてユーザーが操作できるようにする制御情報をユーザーインターフェイス装置3に出力してもよい。
また、ユーザーが押込んだ指の移動方向が上であるときに地図を縮小し、指の移動方向が下であるときに地図を拡大するように設定してもよい。また、例えば、ユーザーが押込んだ指の移動方向が右であるときに地図を拡大し、左であるときに地図を縮小してもよいし、逆に、指の移動方向が左であるときに地図を拡大し、右であるときに地図を縮小してもよい。
また、一旦拡大し、又は縮小した地図を元の倍率に戻して表示する場合、例えば、ユーザーがタッチパネル20に押込んだ指をすぐに離す操作や、何らかのマーク(丸、四角等)をタッチパネル20に指で描く操作をリセット操作として行ってもよい。
また、画像編集ソフトウェア、画像閲覧ソフトウェア等においても、第1の実施の形態に係るユーザーインターフェイス装置3を用いて画像の拡大又は縮小を実現してもよい。
[第2の実施の形態]
次に、図7を参照して、本発明の第2の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。第2の実施の形態に係るジェスチャー操作も、地図を拡大又は縮小するために行われるジェスチャー操作である。
<従来の拡大又は縮小操作の課題>
従来のタッチ位置のXY座標だけを検知可能なタッチパネルを備えたユーザーインターフェイス装置では、上述したようにピンチアウト、ピンチインと呼ばれる動作により地図の拡大又は縮小を行っていた。ピンチアウト、ピンチインは画面にタッチした2本の指の間隔を広げたり、狭めたりするジェスチャー操作を必須とする。また、従来は、拡大又は縮小を指示する表示倍率変更ボタンが画面内の所定位置に表示される場合もあった。しかし、ユーザーは、地図を拡大又は縮小するために、表示倍率変更ボタンが表示される位置を常に確認しなければならなかった。
<第2の実施の形態のジェスチャー操作>
図7は、第2の実施の形態に係る拡大又は縮小操作の例を示すフローチャートである。図7に示す第2の実施の形態においては、1本の指を用いた簡易な操作により地図の拡大だけでなく、地図の縮小を行うことが可能である。すなわち、第2の実施の形態に係る制御部10は、タッチパネル20が指により押込まれた状態が継続する時間に応じて、地図を拡大し、又は縮小する制御情報を表示制御部19に出力する。第2の実施の形態においてジェスチャー操作とは、例えば、ユーザーが1本の指でタッチパネル20を押込む操作である。
始めに、ユーザーインターフェイス装置3が備えるタッチパネル20にユーザーの指が触れたことにより、座標検知部17は、タッチされたことを検知し(S21)、タッチ位置の座標を検知する。ステップS21に付加された画面には、ユーザーが画面の左下を1本の指でタッチした後、画面の左下から右上に移動させた1本の指の移動方向に合わせて地図が移動して表示される様子が示されている。
次に、ユーザーが指をタッチパネル20に押し込む動作を選択する(S22)。ステップS22に付加された画面には、ユーザーが画面の左を1本の指でタッチし、さらにタッチパネル20を押込む様子が示されている。
次に、感圧検知部18は、感圧センサー30から出力されるセンサー値に基づいて、感圧センサー30が感圧を検知したか否かを判定する(S23)。感圧検知部18が、センサー値により感圧を検知したと判定した場合(S23のYES)、指が押し込まれた状態でタッチ操作が行われる。
そして、制御部10は、感圧状態が維持しているか否かを判定する(S24)。以下の説明では、タッチパネル20が指で押込まれたことにより、感圧検知部18が制御部10に感圧検知情報を出力し続けている状態を「感圧状態が維持している」と表現する。制御部10は、例えば、感圧検知部18が出力する感圧検知情報が続く時間に基づいて、感圧状態が維持されているか否かを判定している。このとき、制御部10は、タッチパネル20が指により押込まれた状態が継続する時間が所定時間(例えば、1秒)以上であるか否かを判定している
そして、制御部10は、タッチパネル20が指により押込まれた状態が継続する時間が所定時間以上であれば、感圧状態が維持されていると判定する(S24のYES)。さらに、制御部10は、感圧状態が維持されたまま判定時間(例えば、2秒)を経過したか否かを判定する(S25)。ステップS25の判定は、制御部10により判定時間毎に行われる。
感圧状態が維持されたまま判定時間を経過していれば(S25のYES)、制御部10は、表示パネル40に表示される地図を拡大する制御情報を表示制御部19に出力する(S26)。ステップS26に付加された画面には、ユーザーがタッチパネル20に指を押込んだ時間が長くなるにつれて、表示倍率が大きくなったことにより、地図が拡大表示される様子が示されている。ステップS26の後、表示制御部19は制御部10から入力した制御情報に従って、ユーザーが要求した画面を表示パネル40に表示する(S27)。ステップS27の後、制御部10は、ステップS25に戻って処理を続ける。このようにユーザーがタッチパネル20に指を押込み続けている間、ステップS25〜S27の処理が繰り返されるため、判定時間(例えば、2秒)毎に地図が徐々に拡大して表示される。
一方、ステップS25にて感圧状態が維持されたまま判定時間を経過していなければ(S25のNO)、制御部10は、本処理を終了する。このため、制御部10が、ステップS26,S27を経た場合、地図が拡大された状態で表示される。
ステップS24にて制御部10は、タッチパネル20が指により押込まれた状態が継続する時間が所定時間未満であれば、感圧状態が維持されていないと判定し(S24のNO)、表示パネル40に表示される地図を縮小する制御情報を表示制御部19に出力する(S28)。ステップS28に付加された画面には、小さくなった表示倍率で地図が縮小表示される様子が示されている。
また、ステップS23にて、感圧検知部18が、センサー値により感圧を検知していないと判定した場合(S23のNO)、制御部10は、タッチパネル20にタッチした指が移動する方向に合わせて地図を移動して表示させる制御情報を表示制御部19に出力する(S29)。ステップS28,S29のいずれかの後、表示制御部19は制御部10から入力した制御情報に従って、ユーザーが要求した画面を表示パネル40に表示し(S30)、本処理を終了する。
以上説明した第2の実施の形態に係るユーザーインターフェイス装置3では、タッチパネル20が指で押込まれたときに地図を拡大して表示し、タッチパネル20に押込まれた指がすぐにタッチパネル20から離れたときに地図を縮小して表示する。例えば、表示パネル40に表示される地図を詳細表示または広域表示するためには、画面内の一点を長押しすれば、2秒毎に所定の倍率で地図を段階的に拡大して表示し、画面内の一点を押込んですぐに離すことで所定の倍率で地図を縮小して表示する。このジェスチャー操作は、1本の指で行われるため、従来のような2本の指を用いたジェスチャー操作が不要となる。
また、タッチパネル20のどの位置であっても、タッチパネル20が押込まれたことを感圧検知部18が検知可能である。このため、ユーザーは、従来の倍率変更ボタンを探す必要がなく、地図の拡大又は縮小を簡単に行えるようになる。
なお、タッチパネル20が指で押込まれ、感圧状態が維持されたときに地図を縮小して表示してもよく、タッチパネル20が押込まれたすぐ後にタッチパネル20から指が離れたときには地図を拡大して表示してもよい。
また、ユーザーがタッチパネル20に押込んだ状態の指を同一方向に移動させた場合には、地図を拡大又は縮小しながら指の移動方向に合わせて地図を移動して表示してもよい。
また、例えば、画像編集ソフトウェアの処理において、感圧状態が維持され、タッチパネル20が2秒以上押込まれたときに複数のレイヤーを切替えて表示してもよい。
[第3の実施の形態]
次に、図8を参照して、本発明の第3の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。第3の実施の形態に係るジェスチャー操作は、指を押込んだ状態でタッチ操作を行う指の本数に応じて地図を拡大又は縮小するために行われる。
<従来の拡大又は縮小操作の課題>
従来のユーザーインターフェイス装置では、一般的にピンチアウト、ピンチインと呼ばれる、画面にタッチした2本の指の間隔を広げたり、狭めたりするジェスチャー操作により地図の拡大又は縮小を行わなければならなかった。一方、第3の実施の形態においては、2本の指によるピンチアウト、ピンチインの操作を行うことなく、地図の拡大又は縮小を行うようにしている。
<第3の実施の形態のジェスチャー操作>
図8は、第3の実施の形態に係る拡大又は縮小操作の例を示すフローチャートである。図8に示す第3の実施の形態では、1本又は2本の指を用いた簡易な操作により地図を拡大し、又は縮小することが可能である。すなわち、第3の実施の形態に係る制御部10は、タッチパネル20を押込む指の数に応じて、地図を拡大し、又は縮小する制御情報を表示制御部19に出力する。第3の実施の形態においてジェスチャー操作とは、例えば、ユーザーが1本又は2本の指でタッチパネル20を押込む操作である。
なお、図8のステップS31〜S34の処理は、上述した第2の実施の形態における図7のステップS21〜S23,S29の処理と同様であるため、詳細な説明を省略する。
ステップS33にて感圧検知部18が、感圧センサー30が出力したセンサー値により感圧を検知したと判定した場合(S33のYES)、制御部10は、座標検知部17から入力する座標検知情報に基づいて、タッチパネル20にタッチしている指のタッチ数を検知する(S35)。制御部10は、タッチパネル20を押込む指のタッチ数が1本(第1個数の一例)であると判定された場合(S35の1本)、表示パネル40に表示される地図を拡大する制御情報を表示制御部19に出力する(S36)。ステップS36に付加された画面には、ユーザーがタッチパネル20を1本の指で押込んだことにより、地図が拡大した様子が示されている。
一方、ステップS35で、タッチパネル20を押込む指のタッチ数が2本(第2個数の一例)であると判定された場合(S35の2本)、制御部10は、表示パネル40に表示される地図を縮小する制御情報を表示制御部19に出力する(S37)。ステップS37に付加された画面には、ユーザーがタッチパネル20を2本の指で押込んだことにより、地図が拡大した様子が示されている。
ステップS34,S36,S37のいずれかの後、表示制御部19は制御部10から入力した制御情報に従って、ユーザーが要求した画面を表示パネル40に表示し(S38)、本処理を終了する。
以上説明した第3の実施の形態におけるユーザーインターフェイス装置3では、タッチパネル20を押込んだ指の本数によって地図の拡大又は縮小を行うことが可能となり、従来よりも感覚的かつ直感的な操作を実現することができる。このため、従来行っていたような、「タッチパネルのタッチ検知」と「XY座標の移動検知」を利用して、2本の指を広げたり、狭めたりするジェスチャー操作が不要となる。
なお、タッチパネル20を押込んだ指のタッチ数が1本のときに地図を縮小し、指のタッチ数が2本のときに地図を拡大してもよい。また、タッチした指の本数が3本以上である場合においても、タッチした指の本数に応じて様々な、動作を選択可能としてもよい。このため、例えば、第1個数を2本の指のタッチ数、第2個数を1本又は3本の指のタッチ数としてもよい。また、ユーザーがタッチパネル20に押込んだ状態の指を同一方向に移動させた場合には、地図を拡大又は縮小しながら指の移動方向に合わせて地図を移動して表示してもよい。
また、タッチパネル20を押込んだ指のタッチ数が1本のときにスピーカーの音量を大きくし、指のタッチ数が2本のときにスピーカーの音量を小さくしてもよい。逆に、指のタッチ数が1本のときにスピーカーの音量を小さくし、指のタッチ数が2本のときにスピーカーの音量を大きくしてもよい。また、第3の実施の形態におけるジェスチャー操作により、画面のコントラストを高くしたり低くしたりしてもよい。また、カーナビゲーション時に表示される自車アイコンのヘッドアップ(進行方向を上に表示する)又はノースアップ(北を上に表示する)を切替えてもよい。
[第4の実施の形態]
次に、図10を参照して、本発明の第4の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。この第4の実施の形態に係るジェスチャー操作は、文字種を切替えるために行われる。
<従来の文字種切替操作の課題>
図9で後述するように、ユーザーは、従来のタッチパネルを用いて、表示パネルに表示されたソフトウェアキーボードから文字入力を行うことができた。ここで従来のタッチパネルは、タッチ位置のXY座標だけを検知可能なタッチパネルである。しかし、従来のタッチパネルでは、ユーザーが小文字から大文字に変えて文字を入力する場合には、ソフトウェアキーボードに表示されるシフトキーや文字種の切り替えキーを押して、文字種を切替えた後に文字を入力する必要があった。このため、時には文字種の切替を頻繁に行う必要が生じ、シフトキーや文字種切り替えキーを何度も押さなければならず、操作性が悪いという問題があった。
<従来のジェスチャー操作>
図10に示す本発明の第4の実施形態を説明する前に、図9により従来の文字種切替操作の例を説明する。
図9は、従来の文字種の切替操作の例を示したフローチャートである。ここでは、ユーザーが従来の表示パネルに表示されたソフトウェアキーボードを使って、小文字又は大文字のアルファベットを入力する例について説明する。
始めに、ユーザーは、従来のユーザーインターフェイス装置100が備える表示パネルに表示されたソフトウェアキーボードの文字種を選択する(S41)。このソフトウェアキーボードが備える文字入力キー(以下、「キー」と略記する)の入力モードは小文字入力モードであるため、キーには、小文字が表示されている。したがって、この状態で、ユーザーは、表示されたキーをタッチすることにより、小文字を入力することが可能である。次に、ユーザーは、大文字又は小文字の文字種のいずれかを選択する(S42)。
ユーザーが選択した文字種が大文字でない場合には(S42の小文字)、特に文字種の切替を行うことなく、ユーザーが入力しようとする文字のキーをタッチすると(S43)、キーの小文字が入力される。そして、ユーザーがタッチパネルから指を離すと、タッチ位置の小文字が確定される(S44)。そして、表示パネルに確定された小文字が表示され、本処理が終了する。
一方、ステップS42でユーザーが選択した文字種が大文字である場合には(S42の大文字)、ユーザーは、ソフトウェアキーボードのシフトキーをタッチする(S45)。ステップS45に付加された画面には、ユーザーがソフトウェアキーボードの左下にあるシフトキー(上向き矢印で表されるキー)をタッチした様子が示されている。
そして、ユーザーは、指をシフトキーから離して、大文字入力モードを確定する(S46)。ステップS46に付加された画面には、ユーザーがソフトウェアキーボードのシフトキーから指を離した様子が示されている。このとき、キーの入力モードは、小文字入力モードから大文字入力モードに変更される。そして、キーには、大文字が表示され、ユーザーは大文字を入力することが可能となる。
そして、ユーザーは、ユーザーが入力しようとする文字のキーをタッチすると(S47)、キーの大文字が入力される。ステップS47に付加された画面には、ユーザーがソフトウェアキーボードにあるキーをタッチした様子が示されている。
ユーザーがキーから指を離すと、タッチ位置の大文字が確定される(S48)。ステップS48に付加された画面には、ユーザーがソフトウェアキーボードから指を離した様子が示されている。そして、表示パネルには、この確定された大文字が表示され、本処理が終了する。
このように従来の文字入力においては、ユーザーが、ソフトウェアキーボードに表示されたシフトキーや文字種切り替えキーを押さなければ、文字種が変わらず、したがってキーの入力モードが変更できなかった。このため、例えば、文頭に大文字を入力しなければならない英文を入力する際には、頻繁にシフトキーや文字種切り替えキーを押さなければならず、不便であった。
<第4の実施の形態のジェスチャー操作>
図10は、第4の実施の形態に係る文字種の切替操作の例を示すフローチャートである。図10に示す第4の実施の形態では、1本の指を用いた簡易な操作により文字種を切替えることが可能である。
すなわち、第4の実施の形態に係る制御部10は、表示パネル40に表示されたソフトウェアキーボードのキー(オブジェクトの一例)が表示される位置でタッチパネル20が押込まれた場合に、キーから入力される文字の文字種を規定する入力モードを変更する制御情報を表示制御部19に出力する。第4の実施の形態においてジェスチャー操作とは、ユーザーがタッチパネル20に指を押込んでキーの入力モードを切替え、指を離して文字を確定する操作であり、オブジェクトの表示形態を変更するとは、例えば、入力モードを変更したキーを表示することである。
始めに、ユーザーは、ユーザーインターフェイス装置3が備える表示パネル40に表示されたソフトウェアキーボードの文字種を選択する(S51)。このとき、キーの入力モードは、キーの文字を小文字(第1文字種の一例)で入力可能な小文字入力モードであり、ソフトウェアキーボードのキーには、小文字が表示される。そして、ユーザーは、キーをタッチする(S52)。ステップS52に付加された画面には、ユーザーがソフトウェアキーボードにあるキーをタッチした様子が示されている。
次に、感圧検知部18は、感圧センサー30から入力するセンサー値に基づいて感圧を検知する(S53)。感圧検知部18が感圧を検知しない場合(S53のNO)、制御部10に感圧検知情報が出力されない。このため、ユーザーがキーから指を離すと、ユーザーがタッチしていたキーの小文字が確定して表示パネル40に表示され(S54)、本処理が終了する。
一方、感圧検知部18が感圧を検知した場合(S53のYES)、制御部10に感圧検知情報が出力される。このとき、制御部10は、キーが表示される位置でタッチパネル20が押込まれた場合に、キーの文字を小文字で入力可能な入力モードから大文字で入力可能な入力モードに変更する(S55)。この結果、キーの入力モードは、キーの文字を大文字(第2文字種の一例)で入力可能な大文字入力モードに変わり、ソフトウェアキーボードのキーには、大文字が表示される。ステップS55に付加された画面には、キーが大文字入力モードに切替えて表示されたソフトウェアキーボードにある大文字のキーをタッチした様子が示されている。
そして、ユーザーがキーから指を離すと、ユーザーがタッチしていたキーの大文字が確定して表示パネル40に表示され(S56)、本処理が終了する。ステップS56に付加された画面には、ユーザーがソフトウェアキーボードから指を離すと、大文字が確定して表示される様子が示されている。その後、制御部10は、キーの入力モードを、大文字入力モードから小文字入力モードに戻す。
以上説明した第4の実施の形態に係るユーザーインターフェイス装置3では、ソフトウェアキーボードで文字を入力する際に、タッチパネル20に指を押込むだけで入力する文字の文字種を容易に切替えることができる。このため、従来は、シフトキーまで指を移動してシフトキーをタッチして文字種を切替える操作が必要であったが、第4の実施の形態におけるジェスチャー操作では、ユーザーが入力したいキーの位置に指をタッチしたまま文字種を小文字から大文字に変更することができる。このため、ユーザーは直感的なジェスチャー操作で文字種の切替を容易に行うことが可能となる。
なお、始めに、キーの入力モードを大文字入力モードとしておき、感圧検知部18が感圧を検知した場合には、小文字入力モードに一時的に切替え、小文字が確定して入力された後、大文字入力モードに戻してもよい。
また、始めに、キーの入力モードを平仮名入力モードとしておき、感圧検知部18が感圧を検知した場合には、片仮名入力モードに一時的に切替え、片仮名の文字が確定して入力された後、平仮名入力モードに戻してもよい。また、始めの入力モードを片仮名入力モードとし、感圧検知時に切替える入力モードを平仮名入力モードとしてもよい。また、キーの入力モードを、全角入力モードから半角入力モードに切替えたり、半角入力モードから全角入力モードに切替えたりできるようにしてもよい。また、制御部10は、切替えた入力モードを次の文字入力においても維持しておき、ユーザーが再びタッチパネル20に指を押込んだときに元の入力モードに戻してもよい。
また、キーの入力モードを平仮名入力モード又は片仮名入力モードであるときに、感圧検知部18が感圧を検知した場合には、ユーザーが指でタッチした位置の文字に応じた濁音(が,ぎ,ぐ等)、半濁音(ぱ,ぴ,ぷ等)、促音(っ)、小書き文字(ゃ,ゅ,ょ,ぁ,ぃ,ぅ等)、記号(+,−,×,÷等)、ウムラウト等を入力可能にしてもよい。
[第5の実施の形態]
次に、図12を参照して、本発明の第5の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。第5の実施の形態に係るジェスチャー操作は、ある操作を行った位置で編集項目(メニュー項目の一例)を選択するために行われる。
<従来のメニュー選択操作の課題>
従来、ユーザーが文書編集ソフトウェアを用いて文書を作成、編集する場合、主にマウス、キーボードが用いられていた。マウスを用いると、ある領域(例えば、文字列)を選択した状態で右クリックすることで、例えば、コピー、ペースト、切り取りといった編集項目の一覧を表示し、任意の編集項目を選択することが可能であった。しかし、従来のタッチパネルだけを用いて、右クリックで編集項目の一覧を表示する機能を実現できなかった。
<従来のジェスチャー操作>
図12に示す本発明の第5の実施形態を説明する前に、図11により従来のメニュー選択操作の例を説明する。
図11は、従来のメニュー選択操作の例を示すフローチャートである。
始めに、従来のユーザーインターフェイス装置100が備える制御部は、マウス等の操作によって、黒矢印の指示アイコンが示す位置を検知する(S61)。ステップS61に付加された画面には、画面内の文字列を指示アイコンが指示する様子が示されている。ユーザーが指示アイコンを操作して画面内の文字列から任意の文字列を選択すると、選択された文字列が太字で強調表示される。
次に、ユーザーは、指示アイコンを動かしてメニューを選択する(S62)。ユーザーがメニューを選択しない場合(S62のNO)、ユーザーが動かすマウスの軌跡に従って、指示アイコンが移動し(S63)、本処理を終了する。
ステップS62で、ユーザーがメニューを選択した場合(S62のYES)、例えば、編集メニューの編集項目が表示される(S64)。その後、ユーザーが画面上部のメニューバーから編集メニューを選択すると、この編集メニューに含まれる編集項目(コピー、ペースト、切り取り等)が一覧表示される。ステップ64に付加された画面には、ユーザーによって選択された文字列が破線の楕円で示されると共に、画面上側のメニューバーに編集メニュー及び編集項目の一覧が示されている。
次に、ユーザーは、編集項目を選択し(S65)、本処理を終了する。これにより選択した文字列に対する編集を行うことが可能となる。なお、図11では、ユーザーがメニューバーの編集メニューをクリックする例が示されたが、ユーザーが任意の文字列を選択した状態で、例えば、外部入力装置としてのマウスを右クリックした場合にも、編集メニューと同様の編集項目が一覧表示され、編集項目を選択することが可能である。
このように従来は、ユーザーが選択した文字列に対する編集操作を行うためには、指示アイコンをメニューバーまで移動するか、マウスを右クリックして編集項目を一覧表示し、編集項目を選択しなければならない。しかし、従来のユーザーインターフェイス装置100にマウスが接続されていなければ、これらの操作を行うことは難しかった。一方、第5の実施の形態においては、押込み操作を行うことにより編集メニューを表示し、編集項目を選択することが可能である。
<第5の実施の形態のジェスチャー操作>
図12は、第5の実施の形態に係るメニュー選択操作の例を示すフローチャートである。
図12に示す第5の実施の形態では、1本の指を用いた簡易な操作により文字列を編集することが可能である。すなわち、第5の実施の形態に係る制御部10は、所定領域のオブジェクトが選択された状態でタッチパネル20が押込まれた場合に、オブジェクトに関連するメニュー項目をタッチパネル20が押込まれた位置で表示するための制御情報を表示制御部19に出力する。第5の実施の形態においてジェスチャー操作とは、ユーザーがタッチパネル20に指を押込んで表示される編集メニューから編集項目を選択する操作であり、オブジェクトの表示形態を変更するとは、例えば、編集メニューの編集項目を通じて編集された文字列を表示することである。
始めに、ユーザーインターフェイス装置3が備えるタッチパネル20にユーザーの指が触れたことにより、座標検知部17は、タッチされたことを検知し(S71)、タッチ位置の座標を検知する。
次に、ユーザーは、タッチ操作で所定領域の文字列(オブジェクトの一例)を選択し、指をタッチパネル20に押し込む動作を選択する(S72)。次に、感圧検知部18は、感圧センサー30から出力されるセンサー値に基づいて、感圧センサー30が感圧を検知したか否かを判定する(S73)。感圧検知部18が、センサー値により感圧を検知していないと判定した場合(S73のNO)、制御部10は、タッチパネル20にタッチした指が移動する方向に合わせて指示アイコンを移動して表示し(S74)、本処理を終了する。
一方、ステップS73で、感圧検知部18が、センサー値により感圧を検知したと判定した場合(S73のYES)、所定領域のオブジェクトが選択された状態でタッチパネル20が押込まれている。このとき、制御部10は、編集メニューの編集項目をタッチパネル20が押込まれた位置で表示するための制御情報を表示制御部19に出力する。編集メニューの編集項目とは、オブジェクトが文字列である場合に、この文字列に関連するメニュー項目の一例である。
そして、表示制御部19は、表示パネル40に編集メニューの編集項目を表示する(S75)。ステップS75に付加された画面には、ユーザーによって選択された領域(例えば、文字列)が破線の楕円で示されると共に、編集項目の一覧が示されている。そして、ユーザーは、表示された編集項目から任意の編集項目を選択し(S76)、本処理を終了する。
以上説明した第5の実施の形態に係るユーザーインターフェイス装置3では、タッチパネル20が押込まれたときに、タッチパネル20を通じて選択した領域に対する編集メニューの編集項目を表示する。このようにユーザーは、所定の領域を選択したまま、従来のマウスにおける右クリックの動作と同様に編集項目が表示されるため、指を大きく移動させずに編集項目を選択することができる。
なお、メニューバーには、編集メニュー以外にも、ファイルメニュー、表示メニュー、ヘルプメニュー等がある。このため、タッチパネル20が押込まれたときに表示されるメニューを、編集メニュー以外のメニューとしてもよい。また、タッチパネル20の押込み量に応じて、メニューを切替えて表示してもよい。例えば、押込み量が少なければ(押圧力が閾値th1以上、閾値th2未満)、編集メニューの編集項目を表示し、押込み量が多ければ(押圧力が閾値th2以上)、表示メニューの項目を表示してもよい。
また、感圧検知部18が感圧を検知している時間に応じて、例えば、2秒毎にメニューを切替えて表示してもよい。これにより、ユーザーは、編集メニュー以外のメニューから項目を選択することが可能となる。
[第6の実施の形態]
次に、図14を参照して、本発明の第6の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。第6の実施の形態に係るジェスチャー操作は、直前に行った操作を取消す取消操作のために行われる。
<従来の取消操作の課題>
タッチ位置のXY座標だけを検知可能な従来のタッチパネルを備えたユーザーインターフェイス装置を用いて、直前に行った操作を取り消すためには、表示パネルに表示されたキャンセルアイコンをクリックする必要があった。また、キャンセルアイコンが表示されていなければ、ユーザーインターフェイス装置に接続したキーボード等の外部入力装置を用いて取消操作を行わなければならなかった。しかし、車両の設置スペースは限られており、タッチパネル及び表示パネルを大きくすることは難しく、外部入力装置を設置するスペースもない。また、ナビゲーション装置が備える表示パネルに表示可能な領域が小さいため、キャンセルアイコンを表示するスペースがない。このため、従来のユーザーインターフェイス装置を用いて、直前の操作に戻す操作や、入力を取り消す操作を直観的かつ簡易的に行うことができなかった。
<従来のジェスチャー操作>
図14に示す本発明の第6の実施形態を説明する前に、図13により従来の取消操作の例を説明する。
図13は、従来の取消操作の例を示すフローチャートである。
従来のユーザーインターフェイス装置100が備える制御部は、ユーザーインターフェイス装置100が備えるタッチパネルに指がタッチしたことを検知する(S81)。ステップS81に付加された画面には、ユーザーが画面の左下を1本の指でタッチした様子が示されている。
そして、ユーザーは、不図示のソフトウェアキーボードにより文字列を入力する。次に、ユーザーは、入力した文字列が正確であるか否かを判定する(S82)。ステップS82に付加された画面には、ユーザーが入力した文字列が表示される様子が示されている。
ステップS82にて、ユーザーが、文字入力が正確であると判定すると(S82のYES)、本処理を終了する。一方、文字入力が不正確であると判定すると(S82のNO)、ユーザーは文字入力の取消操作を行う。この取消操作は、外部入力装置を通じて行われる入力操作(S83)、又は、画面右下に表示されるキャンセルアイコンに対するタッチ操作(S84)のいずれかにより行われる。ここでは、ステップS83,S84の操作をいずれも取消操作と呼ぶ。そして、ユーザーは、取消操作を行った後、ステップS82に戻って、再び文字入力を行い、文字入力が正確か否かを判定する。
このように従来は、外部入力装置を使ったり、キャンセルアイコンにタッチしたりすることで取消操作を実現していたため、設置スペースが限られる用途では取消操作を行うことが難しかった。一方、第6の実施の形態においては、押込み操作により、直前の操作を取り消すことを可能としている。
<第6の実施の形態のジェスチャー操作>
図14は、第6の実施の形態に係る取消操作の例を示すフローチャートである。図14に示す第6の実施の形態では、1本の指を用いた簡易な操作により取消操作を行うことが可能である。すなわち、第6の実施の形態に係る制御部10は、タッチパネル20が指により押込まれた状態で指が移動する方向に応じて、直前に行われた操作に対する編集操作を行うための制御情報を表示制御部19に出力する。第6の実施の形態においてジェスチャー操作とは、ユーザーがタッチパネル20に指を押込んだ状態で、文字列を入力した方向とは逆の方向に指を移動させる操作であり、オブジェクトの表示形態を変更するとは、例えば、編集した文字列を表示することである。
始めに、ユーザーインターフェイス装置3が備えるタッチパネル20にユーザーの指が触れたことにより、座標検知部17は、タッチされたことを検知し(S91)、タッチ位置の座標を検知する。ステップS91に付加された画面には、ユーザーが画面の左下を1本の指でタッチした様子が示されている。
そして、ユーザーは、不図示のソフトウェアキーボードにより文字列を入力する。次に、ユーザーは、入力した文字列が正確であるか否かを判定する(S92)。ステップS92に付加された画面には、ユーザーが入力した文字列が表示される様子が示されている。
ステップS92にて、ユーザーが、文字入力が正確であると判定すると(S92のYES)、本処理を終了する。一方、文字入力が不正確であると判定すると(S92のNO)、ユーザーは文字入力の取消操作を行う。この取消操作では、始めに、ユーザーが指をタッチパネル20に押込む操作が行われる(S93)。ステップS93に付加された画面には、ユーザーがタッチパネル20を押込む様子が示されている。
次に、ユーザーが指をタッチパネル20に押込んだまま、指を左方向に移動させる操作を行う(S94)。このとき、制御部10は、タッチパネル20が指により押込まれた状態で指が移動する方向(例えば、左方向)に応じて、直前に行われた操作を取消し、又はやり直す編集操作を行うための制御情報を表示制御部19に出力する。これにより指が移動した分だけ直前の操作が取り消され、入力した文字列が削除される。ステップS94に付加された画面には、直前に入力された文字列の入力操作が全て取り消される様子が示されている。ここでは、ステップS93,S94の順に行う一連の操作を取消操作と呼ぶ。そして、ユーザーは、取消操作を行った後、ステップS92に戻って、再び文字入力を行い、文字入力が正確か否かを判定し、正確であると判定すると本処理を終了する。
以上説明した第6の実施の形態に係るユーザーインターフェイス装置3では、押込み操作と、一方向に指を移動するタッチ操作を組み合わせて、直前の操作を取り消すことができるため、ユーザーは、取消操作を直観的かつ簡易的に実施することができる。このため、従来は、取消操作を行うために表示パネルにアイコンを表示し、又は外部入力装置を設けていたのに対し、本実施の形態例では、設置スペースや対応アプリケーション等の制約を受けない。このようにユーザーは、ユーザーインターフェイス装置3を用いることで取消操作を簡単に行うことができるため、ナビゲーション装置1に限らず、様々な用途の装置に適用することが可能である。
なお、文字入力の場合には、タッチパネル20に押込まれた指が押圧方向に移動するときの押込み量に応じて複数の操作をまとめて取り消してもよい。また、ユーザーがタッチパネル20に押込んだ指を移動させて取消操作を行う際の、指の移動方向は左方向に限らず、他の方向としてもよい。
また、ユーザーがタッチパネル20に押込んだ指を移動させて取消操作を行った後に、指を右に移動した場合、操作のやり直しとして、文字列を再表示してもよい。あるいは、指の移動方向が上の場合に、操作の繰り返しとしてもよい。また、その他の操作を、ユーザーインターフェイス装置3を用いて行われるジェスチャー操作に割当ててもよい。
また、ナビゲーション装置1では、ユーザーがある場所を特定して行先入力をした後、別の場所を特定して行先入力をした際、ユーザーが指をタッチパネル20に押込んで左に移動させた場合には、前に行先入力が行われた場所を表示するようにしてもよい。
また、画像編集ソフトウェアにおいて、画像に対する操作の取消し又はやり直しを行うために、第6の実施の形態に係るユーザーインターフェイス装置3を用いてもよい。また、ユーザーは、押込んだ指の移動方向を途中で変えることで、複数の取消操作を行うようにしてもよい。例えば、指の移動方向を左、上の順で変えた場合には、直前に行われた連続する2つの入力操作を取り消す操作であるとしてもよい。
[第7の実施の形態]
次に、図17、図18を参照して、本発明の第7の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例について説明する。本実施の形態に係るジェスチャー操作は、ナビゲーション装置から離れた場所に配置したユーザーインターフェイス装置3を用いて行われる。
<従来のナビゲーション装置の課題>
まず、図17、図18により本発明の第7の実施の形態に係るユーザーインターフェイス装置3のジェスチャー操作の例を説明する前に、図15、図16を参照して、従来のジェスチャー操作について説明する
図15は、従来のユーザーインターフェイス装置110の設置例を示す説明図である。
近年、車両に搭載されるナビゲーション装置には、ユーザーが手元でナビゲーション装置を操作可能とするために、タッチパネルを有さないユーザーインターフェイス装置110が用いられることがあった。このナビゲーション装置は、ナビゲーション装置本体と、ナビゲーション画面だけを表示可能なユーザーインターフェイス装置110を備えている。このユーザーインターフェイス装置110が備える表示パネル111(第2表示パネルの一例)にはタッチパネルが設けられていない。このため、ユーザーは、ユーザーインターフェイス装置110を通じてタッチ操作をすることはできない。
ナビゲーション装置に対してユーザーが操作を可能とするために、外部入力装置が車内に設置される。外部入力装置としては、例えば、車両内のセンターコンソールに設置され、ナビゲーション装置に接続されたボタン101、ジョイスティック102がある。また、ジョイスティック102の代わりにツマミ型コントローラーが設置されることもある。
しかし、外部入力装置を用いてナビゲーション装置を操作する場合、選択操作はジョイスティック102を用いて行われ、決定操作はボタン101を用いて行う必要がある。このため、ナビゲーション装置の操作自体が極めて煩雑になり、操作に慣れるためには、長期間の熟練が必要であった。また、センターコンソールには、外部入力装置を設置可能なスペースが限られているばかりか、外部入力装置の用途は選択操作と決定操作に限定されてしまう。このため、ユーザーが使用したい機能を開くためには、外部入力装置を使って選択と決定を繰り返さなければならず、手間や時間が掛かっていた。
<従来のジェスチャー操作>
図16は、従来のナビゲーション装置の操作例を示すフローチャートである。ここでは、外部入力装置として、ジョイスティック102とボタン101を用いてナビゲーション操作を行う例について説明する。
始めに、ナビゲーション装置の制御部(不図示)は、ジョイスティック102の動作を検知する(S101)。ステップS101に付加された画面には、ユーザーインターフェイス装置110の表示パネル111に指示アイコンが表示される様子が示されている。
次に、ユーザーは、ジョイスティック102を操作して所定の情報を入力する(S102)。ステップS102に付加された画面には、ユーザーがジョイスティック102を動かしたことにより、指示アイコンが移動する様子が示されている。なお、移動先の指示アイコンは、白抜き矢印で表されている。
次に、ユーザーは、指示アイコンをボタンアイコンの上に移動し、ボタンアイコンを押すことで入力した情報を決定する(S103)。ステップS103に付加された画面には、ユーザーがボタン101を押したことにより、ユーザーが入力した情報が決定される様子が示されている。
このように従来は、ジョイスティック102により選択操作を行い、ボタン101により決定操作を行わなければならなかった。しかし、ジョイスティック102とボタン101は異なる位置に配置されるため、誤操作する場合もある。また、ジョイスティック102とボタン101に選択操作と決定操作以外の操作機能を割当てることができなかった。
<第7の実施の形態のナビゲーション装置の構成及び動作>
図17は、第7の実施の形態に係るナビゲーション装置1Aの構成例を示す説明図である。この図17に示す第7の実施の形態においては、押込み操作を併用して入力した情報を決定することが可能となる。
すなわち、ナビゲーション装置1Aは、上述した図2に示すようなナビゲーション装置本体2、ユーザーインターフェイス装置3に加えて、もう一つのユーザーインターフェイス装置110を備える。
ユーザーインターフェイス装置110は、従来型のユーザーインターフェイス装置であり、タッチパネル20を備えていない。ナビゲーションに用いるオブジェクトだけが表示パネル111に表示可能となっている。この表示パネル111には、制御部10から入力するジェスチャー操作により指示された内容に基づいてナビゲーション装置本体2が所定の処理を行い、所定の処理を行って表示形態を変更したオブジェクトが表示される。
ナビゲーション装置本体2とユーザーインターフェイス装置3は、無線又は有線により相互に通信可能である。また、ナビゲーション装置本体2から出力されるオブジェクトがユーザーインターフェイス装置110の表示パネル111に表示される。以下の説明では、ユーザーインターフェイス装置3を「感圧コントローラー」と呼んで、従来のユーザーインターフェイス装置110と区別する。
例えば、図17の(1)には、車両のインストゥルメンタルパネルにユーザーインターフェイス装置110を含むナビゲーション装置本体2が設置され、車両のセンターコンソールに感圧コントローラーが設置された様子が示されている。ユーザーインターフェイス装置110には地図が表示され、感圧コントローラーの表示パネル40(第1表示パネルの一例)には3種類のコマンドアイコン(例えば、現在地、AV(Audio Visual)、メニュー)のオブジェクトが表示される。このため、ユーザーは、感圧コントローラーを通じてコマンドアイコンを押して、必要なコマンドを直感的に選択することができる。なお、表示パネル40の所定領域に表示される不図示の切替えボタンを押すことにより、コマンドアイコン(例えば、設定、調整)を切替えて表示することができる。このため、ユーザーは、多数のコマンドアイコンから、切り替えようとするコマンドアイコンを直感的かつ容易に選択することが可能である。
図17の(2)に示すように、ユーザーが感圧コントローラーのタッチパネル20を指で押込むと、ユーザーインターフェイス装置110には指示アイコンが表示される。そして、図17の(3)に示すように、ユーザーが指を移動させると、指の移動方向に合わせて指示アイコンが移動して表示される。ユーザーが指を移動させる間は、指をタッチパネル20に押込まなくてよい。
そして、図17の(4)に示すように、ユーザーは、感圧コントローラーのタッチパネル20を操作して、ユーザーインターフェイス装置110に表示される拡大アイコンを指示アイコンで選択する。その後、ユーザーが感圧コントローラーのタッチパネル20を指で押込むと、拡大アイコンの選択が決定される。このため、ユーザーインターフェイス装置110には地図が拡大して表示される。
<第7の実施の形態のジェスチャー操作>
図18は、第7の実施の形態に係るナビゲーション装置1の操作例を示すフローチャートである。図18に示す第7の実施の形態では、1本の指を用いた簡易な操作によりユーザーインターフェイス装置110に所望のオブジェクトを表示することが可能である。すなわち、第7の実施の形態に係る制御部10は、タッチパネル20が指により押込まれた場合に、ユーザーインターフェイス装置110の表示パネル111に表示されたメニューアイコンの選択を指示するための指示アイコンをユーザーインターフェイス装置110に表示させる制御情報をナビゲーション装置本体2に出力する。そして、制御部10は、指示アイコンがメニューアイコンに重畳して表示された状態でタッチパネル20が指により再び押込まれた場合に、指示アイコンの選択を決定する制御情報を表示制御部19及びナビゲーション装置本体2に出力する。ナビゲーション装置本体2は、制御部10から入力するタッチ操作又はジェスチャー操作により指示された内容に基づいて所定の処理を行い、所定の処理を行ったオブジェクトの表示形態を変更して、表示パネル111にオブジェクトを表示する。
第7の実施の形態においてジェスチャー操作とは、例えば、ユーザーが指をタッチパネル20に押込んでユーザーインターフェイス装置110に指示アイコンを表示させ、指を移動する方向に合わせて指示アイコンを移動させ、再びユーザーが指をタッチパネル20に押込んでユーザーインターフェイス装置110に表示された選択アイコンを決定する操作である。また、第7の実施の形態においてオブジェクトの表示形態を変更するとは、例えば、地図を拡大又は縮小して表示することである。
始めに、制御部10は、感圧コントローラーのタッチパネル20にユーザーの指がタッチしたことを検知する(S111)。ステップS111に付加された画面には、感圧コントローラーのタッチパネル20にユーザーの指がタッチする様子と、ユーザーインターフェイス装置110の表示パネル111に地図が表示される様子が示されている。
次に、ユーザーは、タッチパネル20を指で押込む(S112)。このとき、制御部10は、感圧検知部18が、センサー値により感圧を検知して出力する感圧検知情報に基づいて、タッチパネル20が指で押込まれたと判定する。そして、制御部10は、タッチパネル20が指により押込まれた場合に、ユーザーインターフェイス装置110の表示パネル111に表示されたメニューアイコンを選択するための指示アイコンを表示させる制御情報をナビゲーション装置本体2を通じてユーザーインターフェイス装置110の表示制御部に出力する。これによりユーザーインターフェイス装置110の表示パネル111に指示アイコンが表示される。ステップS112に付加された画面には、ユーザーがタッチパネル20を指で押込んだことで、表示パネル40に選択アイコンが表示されると共に、ユーザーインターフェイス装置110に指示アイコンが表示される様子が示されている。
次に、ユーザーは、タッチパネル20にタッチした指を移動させ、情報を入力する(S113)。このとき、制御部10は、タッチパネル20にタッチした指が移動する方向に合わせて、ユーザーインターフェイス装置110の表示パネル111に表示した指示アイコンを移動して表示させる制御情報をナビゲーション装置本体2を通じてユーザーインターフェイス装置110に出力する。そして、ユーザーインターフェイス装置110の表示制御部が、表示パネル111に表示される指示アイコンを、感圧コントローラーの操作に応じて移動して表示する。ステップS113に付加された画面には、ユーザーが指をタッチパネル20で移動させて情報を入力する様子と、ユーザーの指の移動に合わせてユーザーインターフェイス装置110に表示された指示アイコンが移動する様子が示されている。移動中の指示アイコンは、白抜き矢印で表す。
次に、ユーザーは、感圧コントローラーの表示パネル40に表示された選択アイコンを選択し、この選択アイコンを押込んで、選択アイコンを決定する(S114)。このとき、ユーザーインターフェイス装置110の表示パネル111に表示された指示アイコンがメニューアイコンに重畳して表示されている。この状態で、感圧コントローラーのタッチパネル20が指により再び押込まれると、感圧検知部18が、センサー値により感圧を検知すると感圧検知情報を出力する。そして、制御部10は、感圧検知部18から入力した感圧検知情報に基づいて、タッチパネル20が指で押込まれたと判定し、指示アイコンが選択したメニューアイコンを決定することができる。ステップS114に付加された画面には、ユーザーがタッチパネル20を指で押込んだ様子が示されている。
そして、制御部10は、ユーザーインターフェイス装置110の表示パネル111に表示される地図を、指示アイコンで決定された情報に基づいて変更して表示するための制御情報を、ナビゲーション装置本体2を通じて、ユーザーインターフェイス装置110の表示制御部に出力する。これによりユーザーが感圧コントローラーを通じて行った操作の操作結果である地図がユーザーインターフェイス装置110の表示パネル111に表示される。
以上説明した第7の実施の形態に係るユーザーインターフェイス装置3は、ユーザーが手元でナビゲーション操作が可能な感圧コントローラーとして使用される。そして、ユーザーは、選択操作と決定操作を1本の指で行うことができ、かつ、指示アイコンに対する決定操作を、指示アイコンを選択した位置で行うことができる。このため、指の移動を最小限にすることができ、簡易的かつ直感的に操作することが可能となる。また、感圧コントローラーは、ナビゲーション装置本体2と離れた位置に配置されるため、ユーザーは手元で操作しやすい。
また、感圧コントローラーの表示パネル40には、様々なコマンドアイコン(例えば、音量ボタン)を表示することができ、表示倍率も任意に変更可能である。このため、従来はジョイスティック102等を用いて、煩雑で手間がかかる選択操作や決定操作を行っていたのに対し、第7の実施の形態に係る感圧コントローラーではユーザーが感圧コントローラーを操作して、素早くメニューを選択し、決定することができる。また、1画面に表示可能なコマンドアイコンの数は制限があっても、画面を切替え表示することで、多くのコマンドアイコンを表示し、選択することが可能である。また、コマンドアイコンは、例えば、ユーザーインターフェイス装置3の表示パネル40を縦2列、横2列に4分割したセルに分けて表示してもよい。これによりユーザーの押し間違いを防ぐことができる。
なお、ユーザーが所持している携帯端末等を感圧コントローラーとして用いてもよい。そして、従来のユーザーインターフェイス装置110にタッチ位置の座標を検出する機能がなくても、ユーザーインターフェイス装置110が、感圧コントローラーとアドホック通信を行うことで、ユーザーは、携帯端末を感圧コントローラーとしてユーザーインターフェイス装置110を操作することができる。
また、感圧コントローラーと、パーソナルコンピューター装置とを無線又は有線により接続してもよい。パーソナルコンピューター装置から離れた場所で感圧コントローラーを操作して、パーソナルコンピューター装置に所定の機能を実行させることもできる。
[変形例]
上述した各実施の形態に係るユーザーインターフェイス装置3をナビゲーション装置以外の装置に適用してもよい。例えば、携帯端末、タブレット端末等のタッチパネル部分に、ユーザーインターフェイス装置3を適用することで操作性を高めることができる。このようにタッチパネルを必要とする様々な電子機器に本実施の形態例に係るユーザーインターフェイス装置3を組み合わせることが可能である。
図2に示したブロック図では、ユーザーインターフェイス装置3が制御部10を備える構成としたが、ナビゲーション装置本体2が制御部10を備える構成としてもよい。
また、タッチパネル20には、静電容量方式以外の方式によりタッチ操作を検知可能な構成としてもよい。また、感圧センサー30は、タッチパネル20の下に設けた押圧スイッチ等によりタッチパネル20が押込まれたことを検知してもよい。
また、ユーザーインターフェイス装置3における感圧機能を組み合わせた操作を、カーナビゲーション以外にも、例えば、人、自転車のナビゲーションに用いてもよい。また、ユーザーインターフェイス装置3を、上述したように画像編集ソフトウェアの操作に用いてもよいし、他のアプリケーションソフトウェアの操作に用いてもよい。
また、上述した各実施の形態においては、ナビゲーション装置本体2とユーザーインターフェイス装置3とを組み合わせていた。しかし、ユーザーインターフェイス装置3自体がナビゲーション機能を有することにより、ユーザーインターフェイス装置3だけをナビゲーション装置として用いてもよい。
また、感圧センサー30は、弾性体33を備えない構成としてもよい。例えば、感圧センサー30から弾性体33を取り除いたとしても、上部電極31と下部電極35間が一定の距離を保って離れている状態で感圧センサー30に押圧力が加わると、上部電極31と下部電極35が近づき、上部電極31と下部電極35との間の静電容量が減少する。このため感圧検知部18は、上部電極31と下部電極35から出力されるセンサー値に基づいて静電容量変化率を求めることができる。
本発明は上述した実施の形態に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
例えば、上述した実施の形態は本発明を分かりやすく説明するためにナビゲーション装置1の構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施の形態の構成の一部を他の実施の形態の構成に置き換えることは可能であり、さらにはある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1…ナビゲーション装置、2…ナビゲーション装置本体、3…ユーザーインターフェイス装置、10…制御部、17…座標検知部、18…感圧検知部、19…表示制御部、20…タッチパネル、30…感圧センサー、40…表示パネル

Claims (16)

  1. オブジェクトを表示する表示パネルと、
    制御情報に従って前記表示パネルに前記オブジェクトを表示させる制御を行う表示制御部と、
    指示媒体によりタッチ操作が行われるタッチパネルと、
    前記タッチ操作が行われた前記タッチパネルのタッチ位置の座標を検知して座標検知情報を出力する座標検知部と、
    前記指示媒体により前記タッチパネルに印加される押圧力に応じて変化するセンサー値を出力する感圧センサーと、
    前記センサー値に基づいて、前記指示媒体により前記タッチパネルが押込まれる押込み操作が行われたことを検知して感圧検知情報を出力する感圧検知部と、
    前記座標検知情報に基づいて判定した前記タッチ操作、及び前記感圧検知情報に基づいて判定した前記押込み操作を組み合わせたジェスチャー操作に基づいて、前記オブジェクトの表示形態を変更するための前記制御情報を前記表示制御部に出力する制御部と、を備える
    ユーザーインターフェイス装置。
  2. 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた状態で前記指示媒体が移動する方向に応じて、前記オブジェクトを拡大し、又は縮小する前記制御情報を前記表示制御部に出力する
    請求項1に記載のユーザーインターフェイス装置。
  3. 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた状態で移動する方向が第1方向である場合に前記オブジェクトを拡大し、前記タッチパネルが前記指示媒体により押込まれた状態で移動する方向が第2方向である場合に前記オブジェクトを縮小する前記制御情報を前記表示制御部に出力する
    請求項2に記載のユーザーインターフェイス装置。
  4. 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた状態が継続する時間に応じて、前記オブジェクトを拡大し、又は縮小する前記制御情報を前記表示制御部に出力する
    請求項1〜3のいずれか一項に記載のユーザーインターフェイス装置。
  5. 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた状態が継続する時間が、所定時間以上である場合に前記オブジェクトを拡大し、前記タッチパネルが前記指示媒体により押込まれた状態が継続する時間が、前記所定時間未満である場合に前記オブジェクトを縮小する前記制御情報を前記表示制御部に出力する
    請求項4に記載のユーザーインターフェイス装置。
  6. 前記制御部は、前記タッチパネルを押込む前記指示媒体のタッチ数に応じて、前記オブジェクトを拡大し、又は縮小する前記制御情報を前記表示制御部に出力する
    請求項1〜5のいずれか一項に記載のユーザーインターフェイス装置。
  7. 前記制御部は、前記タッチパネルを押込む前記指示媒体のタッチ数が第1個数である場合に前記オブジェクトを拡大し、前記タッチパネルを押込む前記指示媒体のタッチ数が第2個数である場合に前記オブジェクトを縮小する前記制御情報を前記表示制御部に出力する
    請求項6に記載のユーザーインターフェイス装置。
  8. 前記制御部は、前記表示パネルに表示されたソフトウェアキーボードのキーが表示される位置で前記タッチパネルが押込まれた場合に、前記キーから入力される文字の文字種を規定する入力モードを変更する前記制御情報を前記表示制御部に出力する
    請求項1に記載のユーザーインターフェイス装置。
  9. 前記制御部は、前記キーの文字を第1文字種で入力可能な前記入力モードであって、前記キーが表示される位置で前記タッチパネルが押込まれた場合に、前記キーの文字を第2文字種で入力可能な前記入力モードに変更する
    請求項8に記載のユーザーインターフェイス装置。
  10. 前記制御部は、所定領域の前記オブジェクトが選択された状態で前記タッチパネルが押込まれた場合に、前記オブジェクトに関連するメニュー項目を前記タッチパネルが押込まれた位置で表示するための前記制御情報を前記表示制御部に出力する
    請求項1,8,9のいずれか一項に記載のユーザーインターフェイス装置。
  11. 前記制御部は、前記オブジェクトが文字列である場合に、前記文字列を編集するための編集項目を前記メニュー項目として表示する前記制御情報を前記表示制御部に出力する
    請求項10に記載のユーザーインターフェイス装置。
  12. 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた状態で前記指示媒体が移動する方向に応じて、直前に行われた操作に対する編集操作を行うための前記制御情報を前記表示制御部に出力する
    請求項1,8〜10のいずれか一項に記載のユーザーインターフェイス装置。
  13. 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた状態で前記指示媒体が移動する方向に応じて、直前に行われた前記操作を取消し、又はやり直す前記編集操作を行うための前記制御情報を前記表示制御部に出力する
    請求項12に記載のユーザーインターフェイス装置。
  14. ユーザーインターフェイス装置と、電子機器本体と、を備え、
    前記ユーザーインターフェイス装置は、
    オブジェクトを表示する表示パネルと、
    制御情報に従って前記表示パネルに前記オブジェクトを表示させる制御を行う表示制御部と、
    指示媒体によりタッチ操作が行われるタッチパネルと、
    前記タッチ操作が行われた前記タッチパネルのタッチ位置の座標を検知して座標検知情報を出力する座標検知部と、
    前記指示媒体により前記タッチパネルに印加される押圧力に応じて変化するセンサー値を出力する感圧センサーと、
    前記センサー値に基づいて、前記指示媒体により前記タッチパネルが押込まれる押込み操作が行われたことを検知して感圧検知情報を出力する感圧検知部と、を備え、
    前記座標検知情報に基づいて判定した前記タッチ操作、及び前記感圧検知情報に基づいて判定した前記押込み操作を組み合わせたジェスチャー操作に基づいて、前記オブジェクトの表示形態を変更するための前記制御情報を前記表示制御部に出力する制御部を備え、
    前記電子機器本体は、
    前記制御部から入力する前記タッチ操作又は前記ジェスチャー操作により指示された内容に基づいて所定の処理を行い、前記所定の処理を行った前記オブジェクトを前記制御部に出力する
    電子機器。
  15. ユーザーインターフェイス装置と、電子機器本体と、を備え、
    前記ユーザーインターフェイス装置は、
    オブジェクトを表示する第1表示パネルと、
    制御情報に従って前記第1表示パネルに前記オブジェクトを表示させる制御を行う表示制御部と、
    指示媒体によりタッチ操作が行われるタッチパネルと、
    前記タッチ操作が行われた前記タッチパネルのタッチ位置の座標を検知する座標検知部と、
    前記指示媒体により前記タッチパネルに印加される押圧力に応じて変化するセンサー値を出力する感圧センサーと、
    前記センサー値に基づいて、前記指示媒体により前記タッチパネルが押込まれる押込み操作が行われたことを検知する感圧検知部と、
    前記タッチ操作及び前記押込み操作を組み合わせたジェスチャー操作に基づいて、前記オブジェクトの表示形態を変更するための前記制御情報を前記表示制御部及び前記電子機器本体に出力する制御部と、を備え、
    前記電子機器本体は、
    前記ユーザーインターフェイス装置の前記制御部から入力する前記制御情報に基づいて前記表示形態が変更された前記オブジェクトを表示する第2表示パネルを備え、
    前記制御部から入力する前記タッチ操作又は前記ジェスチャー操作により指示された内容に基づいて所定の処理を行い、前記所定の処理を行った前記オブジェクトの前記表示形態を変更して前記第2表示パネルに表示する
    電子機器。
  16. 前記制御部は、前記タッチパネルが前記指示媒体により押込まれた場合に、前記表示パネルに表示されたメニューアイコンの選択を指示するための指示アイコンを表示させる前記制御情報を前記電子機器本体に出力し、前記指示アイコンが前記メニューアイコンに重畳して表示された状態で前記タッチパネルが前記指示媒体により再び押込まれた場合に、前記指示アイコンの選択を決定する前記制御情報を前記電子機器本体に出力する
    請求項15に記載の電子機器。
JP2016252318A 2016-12-27 2016-12-27 ユーザーインターフェイス装置及び電子機器 Pending JP2018106434A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016252318A JP2018106434A (ja) 2016-12-27 2016-12-27 ユーザーインターフェイス装置及び電子機器
PCT/JP2017/041151 WO2018123320A1 (ja) 2016-12-27 2017-11-15 ユーザーインターフェイス装置及び電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016252318A JP2018106434A (ja) 2016-12-27 2016-12-27 ユーザーインターフェイス装置及び電子機器

Publications (1)

Publication Number Publication Date
JP2018106434A true JP2018106434A (ja) 2018-07-05

Family

ID=62707252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016252318A Pending JP2018106434A (ja) 2016-12-27 2016-12-27 ユーザーインターフェイス装置及び電子機器

Country Status (2)

Country Link
JP (1) JP2018106434A (ja)
WO (1) WO2018123320A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019021151A (ja) * 2017-07-20 2019-02-07 ヤフー株式会社 情報表示プログラム、情報表示方法、情報表示装置、及び配信装置
JP2020042417A (ja) * 2018-09-07 2020-03-19 アイシン精機株式会社 表示制御装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8294047B2 (en) * 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
KR101857564B1 (ko) * 2009-05-15 2018-05-15 삼성전자 주식회사 휴대 단말기의 이미지 처리 방법
JP2011022851A (ja) * 2009-07-16 2011-02-03 Docomo Technology Inc ディスプレイ端末、画像処理システム、及び画像処理方法
JP5681000B2 (ja) * 2011-03-07 2015-03-04 京セラ株式会社 電子機器、電子機器の制御方法及びプログラム
JP5520918B2 (ja) * 2011-11-16 2014-06-11 富士ソフト株式会社 タッチパネル操作方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019021151A (ja) * 2017-07-20 2019-02-07 ヤフー株式会社 情報表示プログラム、情報表示方法、情報表示装置、及び配信装置
JP2020042417A (ja) * 2018-09-07 2020-03-19 アイシン精機株式会社 表示制御装置

Also Published As

Publication number Publication date
WO2018123320A1 (ja) 2018-07-05

Similar Documents

Publication Publication Date Title
US20220100368A1 (en) User interfaces for improving single-handed operation of devices
CN108509115B (zh) 页操作方法及其电子装置
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
EP2075683B1 (en) Information processing apparatus
CN106687905B (zh) 触感控制***及触感控制方法
KR20140098904A (ko) 멀티태스킹 운용 방법 및 이를 지원하는 단말기
KR20140038568A (ko) 터치스크린 장치의 사용자로부터 수신된 입력 및 제스쳐에 응답하여 동작을 수행하는 컴퓨터로 구현된 방법 및 컴퓨터 판독가능 매체
JP2009151718A (ja) 情報処理装置および表示制御方法
KR20100018883A (ko) 전자기기의 사용자 인터페이스 방법 및 장치
CN114690889A (zh) 一种虚拟键盘的处理方法以及相关设备
CN114764304A (zh) 一种屏幕显示方法
CN114690887A (zh) 一种反馈方法以及相关设备
JP2008257629A (ja) タッチ式入力装置
WO2011010411A1 (ja) 入力制御装置
WO2018123320A1 (ja) ユーザーインターフェイス装置及び電子機器
KR102323440B1 (ko) 페이지 운용 방법 및 그 전자 장치
JP2012252652A (ja) タッチパネル入力装置
JP5461030B2 (ja) 入力装置
KR101678213B1 (ko) 터치 영역 증감 검출에 의한 사용자 인터페이스 장치 및 그 제어 방법
WO2017149677A1 (ja) ウェアラブル情報端末
JP2014006748A (ja) 電子機器、機器及び方法
WO2018123355A1 (ja) ユーザーインターフェイス装置及び電子機器
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
JP5165624B2 (ja) 情報入力装置、オブジェクト表示方法、およびコンピュータが実行可能なプログラム