JP2014203177A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2014203177A JP2014203177A JP2013077249A JP2013077249A JP2014203177A JP 2014203177 A JP2014203177 A JP 2014203177A JP 2013077249 A JP2013077249 A JP 2013077249A JP 2013077249 A JP2013077249 A JP 2013077249A JP 2014203177 A JP2014203177 A JP 2014203177A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- image
- state
- proximity
- operation surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3664—Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0446—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、操作者の指操作によって表示部における情報表示のための入力を行う入力装置に関するものである。 The present invention relates to an input device that performs input for displaying information on a display unit by an operator's finger operation.
従来の入力装置として、例えば特許文献1に示されるものが知られている。特許文献1の入力装置(操作用ユーザーインターフェイス装置)では、ユーザーがタッチ操作を行うための遠隔タッチパッド部と、遠隔タッチパッド部から受信された3次元信号に応じてマルチメディアシステムの各種モードを表示するディスプレイ部と、遠隔タッチパッド部の3次元信号に応じて、マルチメディアシステムが作動するように制御する制御部とを備えている。
As a conventional input device, for example, the one disclosed in
特許文献1の入力装置では、ユーザーの指の位置が、遠隔タッチパッド部の表面から第1高さの範囲にあるときに、ディスプレイ部に指の位置(ポインタ)を表示し、ポインタの移動、およびメニューの移動による微細操作が可能となっている。
In the input device of
また、ユーザーの指の位置が、第1高さから第2高さの範囲にあるときに、ワイプパスジェスチャーによる第1モードおよび第2モードの切替え、更には、ホーム、メイン、サブ画面の移動が可能となっている。 Also, when the position of the user's finger is in the range from the first height to the second height, switching between the first mode and the second mode by the wipe pass gesture, and further moving the home, main and sub screens Is possible.
更に、ユーザーの指の位置が、第2高さから第3高さの範囲にあるときに、ラジオメイン画面において、操作待機画面に切替えられるようになっている。 Furthermore, when the position of the user's finger is in the range from the second height to the third height, the operation standby screen is switched on the radio main screen.
しかしながら、上記特許文献1では、現在の指の高さ位置と、これに対応可能な操作内容とが直感的には分かりづらく、ユーザーは、指の操作中において、現在、指がどの高さ位置にあり、どの画面に対してどのような操作が可能であるのかわからずに困る場合がある。
However, in the above-mentioned
本発明は、上記問題点に鑑みてなされたものであって、操作面に対する指の位置を直感的に把握でき、画像に対する操作要領が容易に判別可能となる入力装置を提供することにある。 The present invention has been made in view of the above-described problems, and it is an object of the present invention to provide an input device that can intuitively grasp the position of a finger with respect to an operation surface and can easily determine an operation procedure for an image.
本発明は上記目的を達成するために、以下の技術的手段を採用する。 In order to achieve the above object, the present invention employs the following technical means.
本発明では、車両に搭載されて、複数の階層に分かれた画像(60)を切替え可能に表示する表示部(52)に対して別体で形成されており、操作面(32)に対する使用者の指操作によって、画像(60)を操作するための入力が行われる入力装置であって、
指操作時の操作面(32)に対する指の操作状態を検出する検出手段(31、33)と、
検出手段(31、33)によって検出された操作状態に対する判定が、操作面(32)に接触する接触状態に対して、操作面(32)に近接した近接状態にあると、表示部(52)における平面的な画像(60)を立体的に表示する制御部(33)とを備えることを特徴としている。
In the present invention, it is formed separately from the display unit (52) that is mounted on the vehicle and displays the images (60) divided into a plurality of levels in a switchable manner, and the user for the operation surface (32). An input device for performing input for operating the image (60) by the finger operation of
Detection means (31, 33) for detecting the operation state of the finger with respect to the operation surface (32) during finger operation;
When the determination on the operation state detected by the detection means (31, 33) is in a proximity state close to the operation surface (32) with respect to the contact state in contact with the operation surface (32), the display unit (52) And a control unit (33) for stereoscopically displaying the planar image (60).
この発明によれば、画像(60)を操作するにあたって、使用者の指が近接状態にあるときは、制御部(33)によって、本来の平面的な画像(60)が立体的に表示される。よって、使用者は、指はまだ操作面(32)に至っておらず、操作面(32)をタッチして操作できる状態にはない、ということを直感的に把握することができる。また、指が近接状態に対して接触状態となると、画像(60)は、指操作をするにあたって支障のない本来の平面的な表示となる。よって、使用者は、画像(60)が立体的か平面的かによって操作面(32)に対する指の近接状態、あるは接触状態を容易に把握することができるので、画像(60)に対する操作要領が容易に判別可能となり、操作に迷うことがなくなる。 According to the present invention, when operating the image (60), when the user's finger is in the proximity state, the control unit (33) displays the original planar image (60) in three dimensions. . Therefore, the user can intuitively understand that the finger has not yet reached the operation surface (32) and is not in a state where the operation surface (32) can be touched. Further, when the finger is in contact with the proximity state, the image (60) is an original flat display that does not hinder the finger operation. Therefore, the user can easily grasp the proximity state or contact state of the finger to the operation surface (32) depending on whether the image (60) is three-dimensional or planar. Can be easily discriminated and the user is not lost.
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。 In addition, the code | symbol in the bracket | parenthesis of each said means shows a corresponding relationship with the specific means of embodiment description mentioned later.
以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。 Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings. In addition, the overlapping description may be abbreviate | omitted by attaching | subjecting the same code | symbol to the corresponding component in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other part of the configuration. In addition, not only combinations of configurations explicitly described in the description of each embodiment, but also the configurations of a plurality of embodiments can be partially combined even if they are not explicitly specified unless there is a problem with the combination. .
(第1実施形態)
第1実施形態(図1〜図7)は、本発明の入力装置を、ナビゲーション装置50を操作するための遠隔操作デバイス100に適用したものである。遠隔操作デバイス100は、車両に搭載され、ナビゲーション装置50等と共に表示システム10を構成している。
(First embodiment)
1st Embodiment (FIGS. 1-7) applies the input device of this invention to the
図1、図2に示すように、遠隔操作デバイス100は、車両のセンターコンソールにてパームレスト39と隣接する位置に設置され、操作者(使用者でありここでは運転者とする)の手の届き易い範囲に操作面32を露出させている。遠隔操作デバイス100は、タッチセンサ31を有しており、タッチセンサ31の表面が、操作者の指操作が行われる上記の操作面32として形成されている。尚、図1中の「F」は操作者の指を示している。
As shown in FIGS. 1 and 2, the
また、ナビゲーション装置50は、操作者から目視されるよう液晶ディスプレイ52の表示画面53を露出させ且つ表示画面53を運転席および助手席側に向けた姿勢にて、車両のインストルメントパネルの左右方向(車両の幅方向)の中央に設置されている。表示システム10(液晶ディスプレイ52)は、種々の表示画像60を表示画面53に切替えて表示する。上記の遠隔操作デバイス100は、ナビゲーション装置50に対して別体で形成されており、ナビゲーション装置50から離れた位置に設定されている。
In addition, the
以下、遠隔操作デバイス100、およびナビゲーション装置50の各構成について、図3を加えて詳しく説明する。
Hereinafter, each configuration of the
遠隔操作デバイス100は、Controller Area Networkバス(以下、CANバス)90、および外部のバッテリ91等と接続されている。CANバス90は、車両に搭載された複数の車載装置を相互に接続してなる車内通信ネットワークにおいて、各車載装置間でのデータの伝送に用いられる伝送路である。遠隔操作デバイス100は、CANバス90を通じて、離れて位置するナビゲーション装置50と通信可能となっている。
The
遠隔操作デバイス100は、電源インターフェース21、22、通信制御部23、通信インターフェース24、タッチセンサ31、操作面32、および操作制御部33等によって構成されている。各電源インターフェース21、22は、バッテリ91から供給される電力を安定化して、操作制御部33に供給する。一方の電源インターフェース21には、バッテリ91から常に電力が供給されている。他方の電源インターフェース22には、車両のアクセサリ(ACC)電源がオン状態とされたことに基づいてスイッチ92が通電状態となることにより、バッテリ91から電力が供給されるようになっている。
The
通信制御部23および通信インターフェース24は、操作制御部33によって処理された情報をCANバス90に出力すると共に、他の車載装置からCANバス90に出力された情報を取得するための構成である。通信制御部23および通信インターフェース24は、送信用の信号線TXおよび受信用の信号線RXによって互いに接続されている。
The
タッチセンサ31は、静電容量式の検出手段であって、矩形の平板状に形成されており、センサ表面に対する指による操作状態を検出する。タッチセンサ31は、x軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、操作制御部33と接続されている。各電極は、センサ表面に近接する指の位置(図2のx、y、z座標位置)に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が操作制御部33に出力されるようになっている。センサ表面は、絶縁材よりなる絶縁シートによって覆われている。
The
操作面32は、操作者が指操作を行う平面部であり、例えば、センサ表面の絶縁シート全体にわたって指の滑りを良くする素材等が設けられることで形成されている。操作面32上におけるx軸方向、y軸方向、あるいはz軸方向の操作者の指操作により、表示画面53に表示される表示画像60(図7参照)に対する操作のための入力ができるように設定されている。
The
操作制御部33は、本発明の制御部であり、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、および演算処理に用いられるプログラム等が格納されたフラッシュメモリ等によって構成されている。加えて、操作制御部33は、各電源インターフェース21、22、通信制御部23、およびタッチセンサ31等と接続されている。
The
操作制御部33は、所定のプログラムを実行することによってタッチセンサ31の各電極の静電容量の信号を計測することにより、タッチセンサ31の計測値としての感度値(Hth)を取得する。操作者の指が操作面32(センサ表面)に近接すると、電極と指との間に電荷が蓄えられる。操作制御部33は、操作面32の面の拡がる方向における指の相対的な操作位置(以下、「相対位置」という)を示すx座標およびy座標、更には、操作面32から指までの距離(以下、「操作距離」という)に相当するz座標を、感度値に基づく算出処理によって算出するようになっている。
The
具体的には、図4に示すように、例えば、x軸方向に並ぶ電極に対して、ある任意の電極部の位置に対応する操作面32上で指を接触させると感度値は大きく得られ、接触位置から離れた位置になるほど、指の接触状態がなくなっていくことから、感度値は小さくなっていく。y軸方向に並ぶ電極に対しても同様である。よって、操作制御部33は、x軸およびy軸における電極の中で、最も大きな感度値が得られる部位(x座標位置、y座標位置)を、現在の指の相対位置として算出するようになっている。
Specifically, as shown in FIG. 4, for example, when a finger is brought into contact with the electrode arranged in the x-axis direction on the
z軸方向については、指が操作面32に近づくほど、感度値は大きくなり、逆に指が操作面32から遠ざかるほど、感度値は小さくなる。よって、操作制御部33は、得られる感度値の大小によって、現在の指のz座標位置、即ち、操作距離を算出するようになっている。
Regarding the z-axis direction, the sensitivity value increases as the finger approaches the
また、操作制御部33は、図4、図5に示すように、得られる感度値に対して、指の操作状態(z軸方向における指の操作距離)、および後述する表示画像60への操作処置を関連付けするようになっている。操作制御部33は、操作状態を判定するための、複数の感度閾値Hth1〜5を予め備えており、その感度閾値に応じて、指の操作状態を判定するようにしている。操作状態としては、指が操作面32に接触する、あるいは実際には接触していないがほとんど接触に近い「接触状態」と、指が操作面32に対して近接している「近接状態」と、指が「近接状態」よりも操作面32から更に遠ざかっている「非接触状態」とに区分けされている。尚、「接触状態」については、指が操作面32に実質的に接触する場合のみの操作状態とするようにしても良い。
Further, as shown in FIGS. 4 and 5, the
例えば、操作制御部33は、感度閾値として、Hht1=count200、Hht2=count175、Hht3=count150、Hht4=count125、Hht5=count100を備えている。そして、感度値がHth1(200)以上であると指は操作面32に対して「接触状態」であると判定する。また、感度値がHth1〜Hth5(200〜101)の間にあると指は操作面32に対して「近接状態」であると判定する。また、感度値がHth5(100)以下であると指は操作面32に対して「非接触状態」であると判定する。以下、「接触状態」を「接触中」、「近接状態」を「近接中」、「非接触状態」を「非接触」と呼ぶことにする。
For example, the
また、操作制御部33は、「近接状態」については、感度値がHth2(175)以上で「近接1」、感度値がHth3(150)以上で「近接2」、感度値がHth4(125)以上で「近接3」として、「近接状態」を更に複数の「近接1〜3の状態」に分割して判定するようにしている。
In addition, regarding the “proximity state”, the
尚、各感度閾値Hth1〜Hth5近傍で指が微妙に上下移動すると、操作制御部33による操作状態の判定結果に反転繰返し(ハンチング)が発生してしまう。よって、各感度閾値Hth1〜Hth5の上側(操作面32に近い側)には、所定距離だけ離れた位置に対応する上側閾値Hth1U〜Hth5Uがそれぞれ設定されている。また、各感度閾値Hth1〜Hth5の下側(操作面32に遠い側)には、所定距離だけ離れた位置に対応する下側閾値Hth1D〜Hth5Dがそれぞれ設定されている。指が各感度閾値Hth1〜Hth5の下側(遠い側)から上側(近い側)に向けて移動される際には、各上側閾値Hth1U〜Hth5Uが、操作状態を判定する際の感度閾値となる。逆に、指が各感度閾値Hth1〜Hth5の上側(近い側)から下側(遠い側)に向けて移動される際には、各下側閾値Hth1D〜Hth5Dが、操作状態を判定する際の感度閾値となる。
Note that if the finger slightly moves up and down in the vicinity of each of the sensitivity thresholds Hth1 to Hth5, the
更に、操作制御部33は、操作者が操作面32を指で軽く押さえたときの押圧操作(タッチ操作)を検知する。そして操作制御部33は、指のスライド操作に伴う指の位置を示すx、y、z座標、および押圧操作の有無を、通信制御部23および通信インターフェース24を通じて、CANバス90に出力する。
Further, the
ナビゲーション装置50は、地図上における現在の位置表示や目的地案内等を行うナビゲーション機能に加えて、車両用空調装置に対する空調作動設定機能、車両用オーディオに対するオーディオ作動設定機能、およびインターネットによる各種情報検索閲覧機能等を備えている。ナビゲーション装置50は、遠隔操作デバイス100等と通信可能なようにCANバス90と接続されており、表示制御部51および液晶ディスプレイ52を有している。
In addition to the navigation function for displaying the current position on the map and destination guidance, the
ナビゲーション装置50における上記の各種機能については、後述する液晶ディスプレイ52の表示画像60中のメニュー項目61において、「Climate(エアコン操作)」、「Map(地図表示)」、「Destination(目的地設定)」、「Media(オーディオ操作)」、「Network(インターネット操作)」等のように表示されるようになっている(図7)。
Regarding the various functions described above in the
表示制御部51は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、画像の描画処理を行うグラフィックプロセッサ、描画処理の作業領域として機能するグラフィックRAM等によって構成されている。加えて表示制御部51は、演算処理および描画処理に用いられるデータを格納するフラッシュメモリ、CANバス90と接続される通信インターフェース、および描画した画像データを液晶ディスプレイ52に出力する映像出力インターフェースを有している。表示制御部51は、CANバス90から取得する情報に基づいて、表示画面53に表示する表示画像60を描画する。そして表示制御部51は、描画した表示画像60の画像データを、映像出力インターフェースを通じて液晶ディスプレイ52に逐次出力する。
The
液晶ディスプレイ52は、表示画面53に配列された複数の画素を制御することにより、カラー表示を実現するドットマトリクス方式の表示部である。液晶ディスプレイ52は、表示制御部51から逐次取得する画像データを表示画面53に連続的に形成することにより、映像を表示する。
The
表示画面53に表示される表示画像60は、本発明の画像に対応するものであり、複数の階層に分かれた画像から構成されている。例えば、複数の階層の画像のうち、第1階層(所定階層)の画像は、ナビゲーション装置50の各種機能(ナビゲーション、エアコン、オーディオ、インターネット等)を使用するための複数のメイン画像となっている。例えば、図7では、1つのメイン画像として、エアコン用のメイン画像を示している。
A
表示画像60の上側には、複数のメイン画像の種類(名称)をメニュー項目として、これらメニュー項目が左右方向に並ぶように形成されたメニュー61が設けられている。メニュー61は、表示画像60がどの階層の画像に切替えられても、常に同一の形で表示されるようになっている。操作者は、所望するメニュー61のうちの1つを操作面32上で指操作により選択すると、表示画面53には、選択されたメイン画像が表示されるようになっている。あるいは、操作者は、任意のメイン画像が表示されているときに、メニュー61を操作することなく、操作面32上で指をスライド操作することで、メイン画像を順次スクロールすることができ、所望のメイン画像にすることができるようになっている。
On the upper side of the
各メイン画像には、画像を操作するための複数のアイコン62が設けられている。図7の例では、エアコン操作における風量設定アイコン、温度設定アイコン、デュアル設定アイコン、吹出しモード設定アイコン等を示している。操作者は、操作面32上で指をスライド操作することによって所望のアイコン62を選択すると、そのアイコン62が選択されたことを示す枠状のフォーカス63が表示されるようになっている。更に、選択されたアイコン62の位置に対応するように操作面32上で指を軽く押さえてやると(タッチ操作すると)、そのアイコン62が決定状態となり、第2階層の画像、つまり決定されたアイコンに対応する操作用の画像に移行し、順次、各種機能が使用できるようになっている。
Each main image is provided with a plurality of
次に、操作制御部33によるタッチセンサ31からの入力処理の詳細を図6、図7に基づいて説明する。
Next, details of input processing from the
図6において、まず、ステップS100では、タッチセンサ31の各電極にて検出される感度値を取得する取得処理を実施し、ステップS110に進む。ステップS110では、ステップS100にて取得される感度値から、操作面32に対する指の相対位置を示すx座標、y座標、および操作距離を示すz座標の計算処理を実施する。そして、操作距離を示すz座標の計算値から、指の操作状態が、接触中、近接中、あるいは非接触のいずれにあるかを算出する。
In FIG. 6, first, in step S100, an acquisition process for acquiring the sensitivity value detected by each electrode of the
具体的には、タッチセンサ31によって検出される感度値がHth1(Hth1U)よりも大きいときは接触中、また、感度値がHth5(Hth5U)〜Hth1(Hth1D)の間にあるときは近接中、更に、感度値がHth5(Hth5D)よりも小さいときは非接触と算出する。
Specifically, when the sensitivity value detected by the
そして、ステップS120で、算出された指の操作状態は接触中ではなく、且つ感度値がHth1以上(実際には上側閾値Hth1U以上)あるか否かを判定する。ここで肯定判定すると、操作者の指は非接触あるいは近接中の状態から操作面32に近づき、操作面32に対して接触した状態にあることになり、ステップS130で、指の操作状態を接触中に更新する。
In step S120, it is determined whether the calculated finger operation state is not in contact and the sensitivity value is Hth1 or more (actually, the upper threshold value Hth1U or more). If an affirmative determination is made here, the operator's finger approaches the
そして、ステップS140で、表示画面53を接触中画面に更新する。接触中画面とは、図7(右側の枠内)に示すように、表示画像60が表示画面53上で本来の平面的な(傾きのない)画像として表示される画面である。フォーカス63は、表示されるメイン画像に対応する機器の現時点での作動状態(作動設定状態)を示す。
In step S140, the
接触中画面においては、操作者は、指操作(スライド、タッチ操作等)によって、本来の画面操作、つまり各メニュー61、および各種アイコン62の選択、および決定等が可能となる。このとき、操作者は、表示画像60が本来の平面的な画像であることから、指の操作状態が接触中にあり、各メニュー61、および各種アイコン62に対する指操作が可能であることを直感的に知ることができる。
On the contact screen, the operator can perform original screen operations, that is, selection and determination of each
次に、ステップS120で、否と判定すると、ステップS150で、1つ目の条件として操作状態は非接触であり、且つ感度値がHth5以上(実際には上側閾値Hth5U以上)あるか、または2つ目の条件として操作状態は接触中であり、且つ感度値がHth1以下(実際には下側閾値Hth1D以下)であるか、のいずれかであるか否かを判定する。ここで肯定判定すると、操作者の指は非接触から操作面32に近づく、あるいは接触中から操作面32に対して多少離れる状態にあることになり、ステップS160で、指の操作状態を近接中に更新する。
Next, if it is determined NO in step S120, in step S150, the first condition is that the operation state is non-contact and the sensitivity value is Hth5 or higher (actually the upper threshold Hth5U or higher), or 2 As a first condition, it is determined whether or not the operation state is in contact and the sensitivity value is Hth1 or less (actually, the lower threshold value Hth1D or less). If an affirmative determination is made here, the operator's finger approaches the
そして、ステップS170で、感度値がHth2以上(実際には下側閾値Hth2D以上)あるかを判定する。ここで肯定判定すると、指の操作状態は、近接中にあって操作面32に対してより近い状態(近接1)にあり、ステップS180で、表示画面53を近接1画面に更新する。近接1画面とは、図7(真ん中の枠内の右側)に示すように、表示画像60が、接触中における本来の平面的な画像に対して、立体的な画像として表示される画面である。立体的な画像は、例えば、本来の画像の部分が浮いた状態となって、浮いている画像の下側に影に相当する部分が形成された画像となっている。更に、近接1画面においては、車両の幅方向のほぼ中央に位置する液晶ディスプレイと、操作者(この場合は右側の運転者)との位置関係から、表示画像60は表示画面53に対して操作者側に向くようにある程度、右側に傾いた形となって表示されるようになっている。尚、近接1画面においては、表示画像60中のフォーカス63は表示されない。
In step S170, it is determined whether the sensitivity value is equal to or higher than Hth2 (actually, lower threshold value Hth2D). If an affirmative determination is made here, the operation state of the finger is in proximity and closer to the operation surface 32 (proximity 1), and the
また、上記ステップS170で、否定判定すると、ステップS190で、感度値がHth3以上(実際には下側閾値Hth3D以上)あるかを判定する。ここで肯定判定すると、指の操作状態は、近接中にあって操作面32に対して多少離れた状態(近接2)にあり、ステップS200で、表示画面53を近接2画面に更新する。近接2画面とは、表示画像60が、接触中における本来の平面的な画像に対して、上記の近接1画面で説明したように、立体的な画像として表示される画面である。更に、近接2画面においては、表示画像60の操作者側に向く傾きが、近接1画面における画像よりも更に、右側に傾いた形となって表示されるようになっている。尚、近接2画面においては、近接1画面と同様に、表示画像60中のフォーカス63は表示されない。
If a negative determination is made in step S170, it is determined in step S190 whether the sensitivity value is equal to or higher than Hth3 (actually, lower threshold Hth3D). If an affirmative determination is made here, the operation state of the finger is in the state of being close and slightly away from the operation surface 32 (proximity 2), and the
また、上記ステップS190で、否定判定すると、ステップS210で、感度値がHth4以上(実際には下側閾値Hth4D以上)あるかを判定する。ここで肯定判定すると、指の操作状態は、近接中にあって操作面32からかなり離れた状態(近接3)にあり、ステップS220で、表示画面53を近接3画面に更新する。近接3画面とは、図7(真ん中の枠内の左側)に示すように、表示画像60が、接触中における本来の平面的な画像に対して、上記の近接1画面で説明したように、立体的な画像として表示される画面である。更に、近接3画面においては、表示画像60の操作者側に向く傾きが、近接2画面における画像よりも更に、右側に傾いた形となって表示されるようになっている。尚、近接3画面においては、近接1画面と同様に、表示画像60中のフォーカス63は表示されない。また、ステップS210で否と判定すると、このフローを終了する。
If a negative determination is made in step S190, it is determined in step S210 whether the sensitivity value is Hth4 or higher (actually, the lower threshold value Hth4D or higher). If an affirmative determination is made here, the operation state of the finger is in a state of being in proximity and far away from the operation surface 32 (proximity 3), and the
上記の近接1画面、近接2画面、および近接3画面においては、操作者は、近接中における指操作(フリック等のジェスチャ)によって、メニュー61によるメイン画像の切替えが可能となる。このとき、操作者は、立体的に表示された表示画像60から指の位置が近接中(近接1〜近接3)にあることを直感的に知ることができる。併せて、操作者は、表示画像60の傾きがより小さいほど、指は操作面32に近い位置(近接1側)にあり、逆に傾きがより大きいほど、指は操作面32から離れた位置(近接3側)にあることを直感的に知ることができる。
In the above-mentioned
次に、ステップS150で、否と判定すると、ステップS230で、操作状態は非接触ではなく、且つ感度値がHth5以下(実際には下側閾値Hth5D以下)であるか否かを判定する。ここで肯定判定すると、操作者の指は接触中あるいは近接中の状態から操作面32に対して大きく離れる状態にあることになり、ステップS240で、指の操作状態を非接触に更新する。尚、ステップS230で否と判定すると、このフローを終了する。
Next, when it is determined NO in step S150, it is determined in step S230 whether the operation state is not non-contact and the sensitivity value is Hth5 or less (actually, the lower threshold value Hth5D or less). If an affirmative determination is made here, the operator's finger is in a state of being greatly separated from the operating
そして、ステップS250で、表示画面53を非接触画面に更新する。非接触画面とは、図7(左側の枠内)に示すように、接触中画面と同様に、表示画像60が本来の平面的な(傾きのない)画像として表示される画面である。非接触画面には、メニュー61、各種アイコン62、およびフォーカス63が表示される。非接触画面は、表示されるメイン画像に対応する機器の現時点での作動状態(作動設定状態)を示す。
In step S250, the
非接触画面においては、操作者の指は操作面32から明らかに離れた状態にあり、操作者には表示画像60を操作する意志は無く、操作者は表示画像60を、単純に現在の機器の作動状態を確認するための確認用画面として見ることができる。
In the non-contact screen, the operator's finger is clearly separated from the
以上のように、本実施形態では、表示画像60を操作するにあたって、操作者の指が近接状態にあるときは、操作制御部33によって、本来の平面的な表示画像60が立体的に表示される。よって、操作者は、指はまだ操作面32に至っておらず、操作面32をタッチして操作できる状態にはない、ということを直感的に把握することができる。また、指が近接状態に対して接触状態となると、表示画像60は、指操作をするにあたって支障のない本来の平面的な表示となる。よって、操作者は、表示画像60が立体的か平面的かによって操作面32に対する指の近接状態、あるは接触状態を容易に把握することができるので、表示画像60に対する操作要領が容易に判別可能となり、操作に迷うことがなくなる。
As described above, in the present embodiment, when the operator's finger is in the proximity state when operating the
また、操作制御部33は、近接状態において立体的となる表示画像60が、操作者(運転者)側を向くように傾けて表示すると共に、操作面32から指が遠ざかるほど、表示画像60の傾きが大きくなるように表示するようにしている。これにより、操作者は、近接状態にある指の位置について、表示画像60の傾きによって、操作面32からの指の距離が大きいのか小さいのかを、より明確に把握することが可能となる。
In addition, the
また、操作制御部33は、検出される操作状態が、操作面32に対して近接状態よりも遠ざかる非接触状態にあると、液晶ディスプレイ52に表示される表示画像60を接触状態のときと同一の平面的な画像にするようにしている。操作状態が非接触状態にあるということは、操作者が実質的に指操作を行っていない場合であり、このようなときは、表示画像60が本来の平面的な画像にされることで、操作者は何ら支障なく表示画像60を見ることができる。
Further, when the detected operation state is in a non-contact state that is further away from the proximity state than the
(第2実施形態)
第2実施形態の遠隔操作デバイス100Aを図8〜図11に示す。第2実施形態は、操作者として、運転席における運転者、および助手席における助手席者を対象とした表示画像60の入力処理を行うものとなっている。
(Second Embodiment)
A
図8、図9に示すように、遠隔操作デバイス100Aには、近接センサ34a、34bが設けられている。近接センサ34aは、例えば、操作面32の右側に配置されて、運転者の指が操作面32に対して右側から近接することを検知するセンサであり、検知した信号を操作制御部33に出力するようになっている。また、近接センサ34bは、例えば、操作面32の左側に配置されて、助手席者の指が操作面32に対して左側から近接することを検知するセンサであり、検知した信号を操作制御部33に出力するようになっている。よって、操作制御部33は、近接センサ34a、あるいは近接センサ34bからの信号に基づいて、操作面32の操作者が運転者か、助手席者かを判定できるようになっている。
As shown in FIGS. 8 and 9, the
操作制御部33が行う入力処理のフローチャートは、図10に示すように、上記第1実施形態で説明したフローチャート(図6)に対して、操作者が運転者か助手席者かのいずれかを判定して、判定結果に応じた画面表示の設定を行うためのステップS50、S51、S52が追加されたものとなっている。
As shown in FIG. 10, the flowchart of the input process performed by the
操作制御部33は、ステップS50で、近接センサ34a、34bの出力信号から、操作者は、運転者か助手席者かを判定する。尚、図10中の「D席」は運転席(Driver seat)を意味し、また、「P席」は助手席(Passenger seat)を意味している。
In step S50, the
そして、ステップS50で、操作者は、運転者であると判定すると、操作制御部33は、ステップS51で、運転者用の画面表示設定を行う。運転者用の画面表示設定とは、まず、表示画像60として、各メニュー61、および各種アイコン62を備える基本形態とする設定となっている。そして、運転者の指の操作状態が近接中であると、図11(右側の枠内)に示すように、ステップS180、S200、S220において、立体的に表示される表示画像60が、実際に指操作している運手者に向けて傾く画像とする設定となっている。尚、上記第1実施形態で説明したように、近接中において運転者の指が操作面32に近いほど立体的画像の傾きは小さく、指が操作面32から遠ざかるほど立体的画像の傾きが大きく表示される。運転者は、近接中においては、指操作(フリック等のジェスチャ)によって、表示画像60中のメニュー61によるメイン画像の切替えが可能となる。
If the operator is determined to be a driver in step S50, the
このとき、運転者は、立体的に表示された表示画像60の傾き方向が自身を向く方向となることから、現在の表示画像60が運転者自身の入力に基づくものであることを直感的に知ることができる。併せて、第1実施形態と同様に、立体的に表示された表示画像60の傾きがより小さいほど、指は操作面32に近い位置(近接1側)にあり、逆に傾きがより大きいほど、指は操作面32から離れた位置(近接3側)にあることを直感的に知ることができる。
At this time, the driver intuitively knows that the
尚、運転者の指の操作状態が接触中であると、操作制御部33は、ステップS140において、表示画像60としては、本来の平面的な(傾きのない)画像とする。接触中においては、運転者は、指をスライド、あるいはタッチすることで、本来の画面操作、つまり各メニュー61、および各種アイコン62の選択および決定等が可能となる。
If the operation state of the driver's finger is in contact, the
一方、ステップS50で、操作者は、助手席者であると判定すると、操作制御部33は、ステップS52で、助手席者用の画面表示設定を行う。助手席者用の画面表示設定とは、まず、表示画像60として、上記の運転者用の基本画像に対して、助手席者のダイレクト操作が可能となる専用のコンテンツ64が設けられた画像とする設定となっている。そして、助手席者の指の操作状態が近接中であると、図11(左側の枠内)に示すように、ステップS180、S200、S220において、立体的に表示される表示画像60が、実際に指操作している助手席者に向けて傾く画像とする設定となっている。尚、助手席者の指が操作面32に近いほど立体的画像の傾きは小さく、指が操作面32から遠ざかるほど立体的画像の傾きが大きく表示される。助手席者は、近接中においては、指操作(フリック等のジェスチャ)によって、表示画像60中のメニュー61によるメイン画像の切替えが可能となる。
On the other hand, if it is determined in step S50 that the operator is a passenger seat, the
上記の助手席者用の専用のコンテンツ64は、本発明の操作画像部に対応するものであり、例えば、エアコン用のメイン画像において、助手席側の温度を単独で設定可能とする助手席側温度設定用のアイコンとなっている。コンテンツ64には、例えば、現状の設定温度値に対する上側温度の設定部、温度上昇設定部、最大温度設定部、現状の設定温度に対する下側温度の設定部、温度低下設定部、最小温度設定部等の操作部が設けられたものとなっている。
The passenger seat
このとき、助手席者は、立体的に表示された表示画像60の傾き方向が自身を向く方向となることから、現在の表示画像60が助手席者自身の入力に基づくものであることを直感的に知ることができる。併せて、第1実施形態と同様に、立体的に表示された表示画像60の傾きがより小さいほど、指は操作面32に近い位置(近接1側)にあり、逆に傾きがより大きいほど、指は操作面32から離れた位置(近接3側)にあることを直感的に知ることができる。
At this time, the passenger's seat intuitively knows that the
尚、助手席者の指の操作状態が接触中であると、操作制御部33は、ステップS140において、表示画像60としては、本来の平面的な(傾きのない)画像とする。接触中においては、助手席者は、指をスライド、あるいはタッチすることで、本来の画面操作、つまり各メニュー61、各種アイコン62、更にはコンテンツ64の選択および決定等が可能となる。
If the operation state of the passenger's finger is in contact, the
以上のように、本実施形態においては、操作者の対象を運転者と助手席者としており、操作面32に対する指操作が行われ、このときの操作状態が近接中であると、立体的となる表示画像60が実際に指操作を行った操作者に向けて傾いて表示されるようにしている。よって、操作者は、現在の表示画像60が、操作者自身の入力に基づくものであることが直感的に分かり、運転者あるいは助手席者のいずれの操作者が操作しているのか迷うことがなく、操作性を向上させることができる。
As described above, in the present embodiment, the operator's target is the driver and the passenger seat, and the finger operation on the
また、助手席者が指操作した場合には、表示画像60中に助手席者によるダイレクト操作が可能となる専用のコンテンツ64を表示するようにしている。これにより、助手席者の操作性を向上させることができる。
In addition, when the passenger seat is operated with a finger, a
(その他の実施形態)
上記の各実施形態では、指の操作状態として、近接状態において、近接1、近接2、近接3という、3つの区分を設けたが、これに限定されることなく、1つの近接、あるいは2つの近接、あるいは4つ以上の近接等、適宜設定するようにしても良い。
(Other embodiments)
In each of the above-described embodiments, as the operation state of the finger, in the proximity state, three sections of
また、上記第1実施形態では、指の操作状態が近接中のときに、表示画像60を立体的に表示するにあたって、操作者側を向くように傾けて表示するようにしたが、これに限らず、傾きを持たすことなく本来の矩形形状のままの画像としても良い。
Further, in the first embodiment, when the operation state of the finger is in proximity, when the
この場合、近接1、近接2、および近接3に対する区分けとしては、例えば、立体的な表示画像60の本来の画像部分と影となる部分との距離を変えることで対応可能である。つまり、近接1のときは、本来の画像部分と影となる部分との距離を小さくし(所定値とし)、近接2、近接3に移行するにしたがって、この距離をより大きくするようにすれば良い。
In this case, as the division for the
また、上記第2実施形態では、助手席者用の専用の操作画像部として、エアコンにおける温度設定用のコンテンツ64としたが、これに限らず、その他にも、シートヒータの温度設定用のコンテンツとする、あるいは、シートポジションの位置設定用のコンテンツとする等の対応が可能である。
In the second embodiment, the
また、検出手段として静電容量式のタッチセンサ31を用いたが、これに限定されるものではなく、他の感圧式のタッチセンサ等としても良い。
Further, although the
また、遠隔操作デバイス100、100Aにプッシュスイッチを設けて、指操作によって選択した内容(アイコン等)を決定する際に、このプッシュスイッチを押込むことで、決定するようにしても良い。
Further, a push switch may be provided in the
100、100A 遠隔操作デバイス(入力装置)
31 タッチセンサ(検出手段)
32 操作面
33 操作制御部(制御部)
52 液晶ディスプレイ(表示部)
60 表示画像(画像)
64 コンテンツ(操作画像部)
100, 100A Remote operation device (input device)
31 Touch sensor (detection means)
32
52 Liquid crystal display (display unit)
60 Display image (image)
64 contents (operation image part)
Claims (5)
前記指操作時の前記操作面(32)に対する指の操作状態を検出する検出手段(31)と、
前記検出手段(31)によって検出された前記操作状態に対する判定が、前記操作面(32)に接触する接触状態に対して、前記操作面(32)に近接した近接状態にあると、前記表示部(52)における平面的な前記画像(60)を立体的に表示する制御部(33)とを備えることを特徴とする入力装置。 It is formed separately from the display unit (52) that is mounted on the vehicle and displays the images (60) divided into a plurality of layers in a switchable manner, and is operated by a user's finger operation on the operation surface (32). , An input device for performing input for operating the image (60),
Detection means (31) for detecting the operation state of the finger on the operation surface (32) during the finger operation;
When the determination on the operation state detected by the detection means (31) is in a proximity state close to the operation surface (32) with respect to a contact state in contact with the operation surface (32), the display unit An input device comprising: a control unit (33) for stereoscopically displaying the planar image (60) in (52).
前記制御部(33)は、前記近接状態において前記立体的となる前記画像(60)が、前記使用者側を向くように傾けて表示することを特徴とする請求項1に記載の入力装置。 The display unit (52) is disposed in the center of the vehicle in the width direction on the front side of the user,
The input device according to claim 1, wherein the control unit (33) displays the three-dimensional image (60) tilted so as to face the user side in the proximity state.
制御部(33)は、前記操作面(32)に対する前記指操作が前記運転者によるものか前記助手席者によるものかを判定すると共に、
前記指操作が前記助手席者による場合は、前記画像(60)中に助手席者によるダイレクト操作が可能となる専用の操作画像部(64)を表示することを特徴とする請求項1〜請求項3のいずれか1つに記載の入力装置。 The user includes a driver and a passenger seat of the vehicle,
The control unit (33) determines whether the finger operation on the operation surface (32) is performed by the driver or the passenger seat,
When the finger operation is performed by the passenger seat, a dedicated operation image section (64) capable of direct operation by the passenger seat is displayed in the image (60). Item 4. The input device according to any one of Items 3 to 3.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013077249A JP2014203177A (en) | 2013-04-02 | 2013-04-02 | Input device |
PCT/JP2014/001776 WO2014162698A1 (en) | 2013-04-02 | 2014-03-27 | Input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013077249A JP2014203177A (en) | 2013-04-02 | 2013-04-02 | Input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014203177A true JP2014203177A (en) | 2014-10-27 |
Family
ID=51658012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013077249A Pending JP2014203177A (en) | 2013-04-02 | 2013-04-02 | Input device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2014203177A (en) |
WO (1) | WO2014162698A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5858059B2 (en) | 2013-04-02 | 2016-02-10 | 株式会社デンソー | Input device |
JP5928397B2 (en) | 2013-04-03 | 2016-06-01 | 株式会社デンソー | Input device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013022986A (en) * | 2011-07-17 | 2013-02-04 | Denso Corp | Operation input device for vehicle and control system |
WO2013029773A1 (en) * | 2011-09-03 | 2013-03-07 | Volkswagen Aktiengesellschaft | Method and device for making available a user interface, in particular in a vehicle |
-
2013
- 2013-04-02 JP JP2013077249A patent/JP2014203177A/en active Pending
-
2014
- 2014-03-27 WO PCT/JP2014/001776 patent/WO2014162698A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013022986A (en) * | 2011-07-17 | 2013-02-04 | Denso Corp | Operation input device for vehicle and control system |
WO2013029773A1 (en) * | 2011-09-03 | 2013-03-07 | Volkswagen Aktiengesellschaft | Method and device for making available a user interface, in particular in a vehicle |
US20140215403A1 (en) * | 2011-09-03 | 2014-07-31 | Volkswagen Ag | Method and device for making available a user interface, in particular in a vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2014162698A1 (en) | 2014-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5928397B2 (en) | Input device | |
JP5858059B2 (en) | Input device | |
US9489500B2 (en) | Manipulation apparatus | |
JP5413448B2 (en) | Display system, display device, and operation device | |
JP6310787B2 (en) | Vehicle input device and vehicle cockpit module | |
JP6119679B2 (en) | Vehicle input device | |
JP2010211500A (en) | Operation device | |
JP2012003404A (en) | Information display device | |
JP2013222214A (en) | Display operation device and display system | |
JP5751233B2 (en) | Operation device | |
WO2013153750A1 (en) | Display system, display device, and operation device | |
JP5954145B2 (en) | Input device | |
JP5754483B2 (en) | Operation device | |
WO2014162698A1 (en) | Input device | |
JP5849597B2 (en) | Vehicle control device | |
JP2014109941A (en) | Operation device and operation teaching method for operation device | |
US20170255326A1 (en) | Vehicular touch pad and vehicular input interface | |
JP6001463B2 (en) | Touch input device | |
WO2015170440A1 (en) | Display operating system | |
EP3352067B1 (en) | Vehicular input device and method of controlling vehicular input device | |
JP2018122827A (en) | On-vehicle information input device and on-vehicle information input system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161004 |