JP2014203177A - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP2014203177A
JP2014203177A JP2013077249A JP2013077249A JP2014203177A JP 2014203177 A JP2014203177 A JP 2014203177A JP 2013077249 A JP2013077249 A JP 2013077249A JP 2013077249 A JP2013077249 A JP 2013077249A JP 2014203177 A JP2014203177 A JP 2014203177A
Authority
JP
Japan
Prior art keywords
finger
image
state
proximity
operation surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013077249A
Other languages
English (en)
Inventor
剛志 鈴木
Tsuyoshi Suzuki
剛志 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013077249A priority Critical patent/JP2014203177A/ja
Priority to PCT/JP2014/001776 priority patent/WO2014162698A1/ja
Publication of JP2014203177A publication Critical patent/JP2014203177A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作面に対する指の位置を直感的に把握でき、画像に対する操作要領が容易に判別可能となる入力装置を提供する。【解決手段】車両に搭載されて、複数の階層に分かれた画像60を切替え可能に表示する表示部52に対して別体で形成されており、操作面32に対する使用者の指操作によって、画像60を操作するための入力が行われる入力装置において、指操作時の操作面32に対する指の操作状態を検出する検出手段31と、検出手段31によって検出された操作状態に対する判定が、操作面32に接触する接触状態に対して、操作面32に近接した近接状態にあると、表示部52における平面的な画像60を立体的に表示する制御部33とを設ける。【選択図】図7

Description

本発明は、操作者の指操作によって表示部における情報表示のための入力を行う入力装置に関するものである。
従来の入力装置として、例えば特許文献1に示されるものが知られている。特許文献1の入力装置(操作用ユーザーインターフェイス装置)では、ユーザーがタッチ操作を行うための遠隔タッチパッド部と、遠隔タッチパッド部から受信された3次元信号に応じてマルチメディアシステムの各種モードを表示するディスプレイ部と、遠隔タッチパッド部の3次元信号に応じて、マルチメディアシステムが作動するように制御する制御部とを備えている。
特許文献1の入力装置では、ユーザーの指の位置が、遠隔タッチパッド部の表面から第1高さの範囲にあるときに、ディスプレイ部に指の位置(ポインタ)を表示し、ポインタの移動、およびメニューの移動による微細操作が可能となっている。
また、ユーザーの指の位置が、第1高さから第2高さの範囲にあるときに、ワイプパスジェスチャーによる第1モードおよび第2モードの切替え、更には、ホーム、メイン、サブ画面の移動が可能となっている。
更に、ユーザーの指の位置が、第2高さから第3高さの範囲にあるときに、ラジオメイン画面において、操作待機画面に切替えられるようになっている。
特開2011―118857号公報
しかしながら、上記特許文献1では、現在の指の高さ位置と、これに対応可能な操作内容とが直感的には分かりづらく、ユーザーは、指の操作中において、現在、指がどの高さ位置にあり、どの画面に対してどのような操作が可能であるのかわからずに困る場合がある。
本発明は、上記問題点に鑑みてなされたものであって、操作面に対する指の位置を直感的に把握でき、画像に対する操作要領が容易に判別可能となる入力装置を提供することにある。
本発明は上記目的を達成するために、以下の技術的手段を採用する。
本発明では、車両に搭載されて、複数の階層に分かれた画像(60)を切替え可能に表示する表示部(52)に対して別体で形成されており、操作面(32)に対する使用者の指操作によって、画像(60)を操作するための入力が行われる入力装置であって、
指操作時の操作面(32)に対する指の操作状態を検出する検出手段(31、33)と、
検出手段(31、33)によって検出された操作状態に対する判定が、操作面(32)に接触する接触状態に対して、操作面(32)に近接した近接状態にあると、表示部(52)における平面的な画像(60)を立体的に表示する制御部(33)とを備えることを特徴としている。
この発明によれば、画像(60)を操作するにあたって、使用者の指が近接状態にあるときは、制御部(33)によって、本来の平面的な画像(60)が立体的に表示される。よって、使用者は、指はまだ操作面(32)に至っておらず、操作面(32)をタッチして操作できる状態にはない、ということを直感的に把握することができる。また、指が近接状態に対して接触状態となると、画像(60)は、指操作をするにあたって支障のない本来の平面的な表示となる。よって、使用者は、画像(60)が立体的か平面的かによって操作面(32)に対する指の近接状態、あるは接触状態を容易に把握することができるので、画像(60)に対する操作要領が容易に判別可能となり、操作に迷うことがなくなる。
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。
第1実施形態のナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。 第1実施形態の遠隔操作デバイスを示す斜視図である。 第1実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。 第1実施形態の遠隔操作デバイスにおいて、タッチセンサにより検出される感度値と、操作制御部により判定される操作状態との関係を説明するための図である。 第1実施形態の操作制御部に記憶されている各感度閾値、操作状態、および画面表示の関係を示すテーブルである。 第1実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。 第1実施形態の遠隔操作デバイスにおいて、タッチセンサから指までの操作距離により、指の移動と関連付けられる画像部の切替えと入力操作とを説明するための図である。 第2実施形態のナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。 第2実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。 第2実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。 第2実施形態の遠隔操作デバイスにおいて、タッチセンサから指までの操作距離により、指の移動と関連付けられる画像部の切替えと入力操作とを説明するための図である。
以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。
(第1実施形態)
第1実施形態(図1〜図7)は、本発明の入力装置を、ナビゲーション装置50を操作するための遠隔操作デバイス100に適用したものである。遠隔操作デバイス100は、車両に搭載され、ナビゲーション装置50等と共に表示システム10を構成している。
図1、図2に示すように、遠隔操作デバイス100は、車両のセンターコンソールにてパームレスト39と隣接する位置に設置され、操作者(使用者でありここでは運転者とする)の手の届き易い範囲に操作面32を露出させている。遠隔操作デバイス100は、タッチセンサ31を有しており、タッチセンサ31の表面が、操作者の指操作が行われる上記の操作面32として形成されている。尚、図1中の「F」は操作者の指を示している。
また、ナビゲーション装置50は、操作者から目視されるよう液晶ディスプレイ52の表示画面53を露出させ且つ表示画面53を運転席および助手席側に向けた姿勢にて、車両のインストルメントパネルの左右方向(車両の幅方向)の中央に設置されている。表示システム10(液晶ディスプレイ52)は、種々の表示画像60を表示画面53に切替えて表示する。上記の遠隔操作デバイス100は、ナビゲーション装置50に対して別体で形成されており、ナビゲーション装置50から離れた位置に設定されている。
以下、遠隔操作デバイス100、およびナビゲーション装置50の各構成について、図3を加えて詳しく説明する。
遠隔操作デバイス100は、Controller Area Networkバス(以下、CANバス)90、および外部のバッテリ91等と接続されている。CANバス90は、車両に搭載された複数の車載装置を相互に接続してなる車内通信ネットワークにおいて、各車載装置間でのデータの伝送に用いられる伝送路である。遠隔操作デバイス100は、CANバス90を通じて、離れて位置するナビゲーション装置50と通信可能となっている。
遠隔操作デバイス100は、電源インターフェース21、22、通信制御部23、通信インターフェース24、タッチセンサ31、操作面32、および操作制御部33等によって構成されている。各電源インターフェース21、22は、バッテリ91から供給される電力を安定化して、操作制御部33に供給する。一方の電源インターフェース21には、バッテリ91から常に電力が供給されている。他方の電源インターフェース22には、車両のアクセサリ(ACC)電源がオン状態とされたことに基づいてスイッチ92が通電状態となることにより、バッテリ91から電力が供給されるようになっている。
通信制御部23および通信インターフェース24は、操作制御部33によって処理された情報をCANバス90に出力すると共に、他の車載装置からCANバス90に出力された情報を取得するための構成である。通信制御部23および通信インターフェース24は、送信用の信号線TXおよび受信用の信号線RXによって互いに接続されている。
タッチセンサ31は、静電容量式の検出手段であって、矩形の平板状に形成されており、センサ表面に対する指による操作状態を検出する。タッチセンサ31は、x軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、操作制御部33と接続されている。各電極は、センサ表面に近接する指の位置(図2のx、y、z座標位置)に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が操作制御部33に出力されるようになっている。センサ表面は、絶縁材よりなる絶縁シートによって覆われている。
操作面32は、操作者が指操作を行う平面部であり、例えば、センサ表面の絶縁シート全体にわたって指の滑りを良くする素材等が設けられることで形成されている。操作面32上におけるx軸方向、y軸方向、あるいはz軸方向の操作者の指操作により、表示画面53に表示される表示画像60(図7参照)に対する操作のための入力ができるように設定されている。
操作制御部33は、本発明の制御部であり、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、および演算処理に用いられるプログラム等が格納されたフラッシュメモリ等によって構成されている。加えて、操作制御部33は、各電源インターフェース21、22、通信制御部23、およびタッチセンサ31等と接続されている。
操作制御部33は、所定のプログラムを実行することによってタッチセンサ31の各電極の静電容量の信号を計測することにより、タッチセンサ31の計測値としての感度値(Hth)を取得する。操作者の指が操作面32(センサ表面)に近接すると、電極と指との間に電荷が蓄えられる。操作制御部33は、操作面32の面の拡がる方向における指の相対的な操作位置(以下、「相対位置」という)を示すx座標およびy座標、更には、操作面32から指までの距離(以下、「操作距離」という)に相当するz座標を、感度値に基づく算出処理によって算出するようになっている。
具体的には、図4に示すように、例えば、x軸方向に並ぶ電極に対して、ある任意の電極部の位置に対応する操作面32上で指を接触させると感度値は大きく得られ、接触位置から離れた位置になるほど、指の接触状態がなくなっていくことから、感度値は小さくなっていく。y軸方向に並ぶ電極に対しても同様である。よって、操作制御部33は、x軸およびy軸における電極の中で、最も大きな感度値が得られる部位(x座標位置、y座標位置)を、現在の指の相対位置として算出するようになっている。
z軸方向については、指が操作面32に近づくほど、感度値は大きくなり、逆に指が操作面32から遠ざかるほど、感度値は小さくなる。よって、操作制御部33は、得られる感度値の大小によって、現在の指のz座標位置、即ち、操作距離を算出するようになっている。
また、操作制御部33は、図4、図5に示すように、得られる感度値に対して、指の操作状態(z軸方向における指の操作距離)、および後述する表示画像60への操作処置を関連付けするようになっている。操作制御部33は、操作状態を判定するための、複数の感度閾値Hth1〜5を予め備えており、その感度閾値に応じて、指の操作状態を判定するようにしている。操作状態としては、指が操作面32に接触する、あるいは実際には接触していないがほとんど接触に近い「接触状態」と、指が操作面32に対して近接している「近接状態」と、指が「近接状態」よりも操作面32から更に遠ざかっている「非接触状態」とに区分けされている。尚、「接触状態」については、指が操作面32に実質的に接触する場合のみの操作状態とするようにしても良い。
例えば、操作制御部33は、感度閾値として、Hht1=count200、Hht2=count175、Hht3=count150、Hht4=count125、Hht5=count100を備えている。そして、感度値がHth1(200)以上であると指は操作面32に対して「接触状態」であると判定する。また、感度値がHth1〜Hth5(200〜101)の間にあると指は操作面32に対して「近接状態」であると判定する。また、感度値がHth5(100)以下であると指は操作面32に対して「非接触状態」であると判定する。以下、「接触状態」を「接触中」、「近接状態」を「近接中」、「非接触状態」を「非接触」と呼ぶことにする。
また、操作制御部33は、「近接状態」については、感度値がHth2(175)以上で「近接1」、感度値がHth3(150)以上で「近接2」、感度値がHth4(125)以上で「近接3」として、「近接状態」を更に複数の「近接1〜3の状態」に分割して判定するようにしている。
尚、各感度閾値Hth1〜Hth5近傍で指が微妙に上下移動すると、操作制御部33による操作状態の判定結果に反転繰返し(ハンチング)が発生してしまう。よって、各感度閾値Hth1〜Hth5の上側(操作面32に近い側)には、所定距離だけ離れた位置に対応する上側閾値Hth1U〜Hth5Uがそれぞれ設定されている。また、各感度閾値Hth1〜Hth5の下側(操作面32に遠い側)には、所定距離だけ離れた位置に対応する下側閾値Hth1D〜Hth5Dがそれぞれ設定されている。指が各感度閾値Hth1〜Hth5の下側(遠い側)から上側(近い側)に向けて移動される際には、各上側閾値Hth1U〜Hth5Uが、操作状態を判定する際の感度閾値となる。逆に、指が各感度閾値Hth1〜Hth5の上側(近い側)から下側(遠い側)に向けて移動される際には、各下側閾値Hth1D〜Hth5Dが、操作状態を判定する際の感度閾値となる。
更に、操作制御部33は、操作者が操作面32を指で軽く押さえたときの押圧操作(タッチ操作)を検知する。そして操作制御部33は、指のスライド操作に伴う指の位置を示すx、y、z座標、および押圧操作の有無を、通信制御部23および通信インターフェース24を通じて、CANバス90に出力する。
ナビゲーション装置50は、地図上における現在の位置表示や目的地案内等を行うナビゲーション機能に加えて、車両用空調装置に対する空調作動設定機能、車両用オーディオに対するオーディオ作動設定機能、およびインターネットによる各種情報検索閲覧機能等を備えている。ナビゲーション装置50は、遠隔操作デバイス100等と通信可能なようにCANバス90と接続されており、表示制御部51および液晶ディスプレイ52を有している。
ナビゲーション装置50における上記の各種機能については、後述する液晶ディスプレイ52の表示画像60中のメニュー項目61において、「Climate(エアコン操作)」、「Map(地図表示)」、「Destination(目的地設定)」、「Media(オーディオ操作)」、「Network(インターネット操作)」等のように表示されるようになっている(図7)。
表示制御部51は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、画像の描画処理を行うグラフィックプロセッサ、描画処理の作業領域として機能するグラフィックRAM等によって構成されている。加えて表示制御部51は、演算処理および描画処理に用いられるデータを格納するフラッシュメモリ、CANバス90と接続される通信インターフェース、および描画した画像データを液晶ディスプレイ52に出力する映像出力インターフェースを有している。表示制御部51は、CANバス90から取得する情報に基づいて、表示画面53に表示する表示画像60を描画する。そして表示制御部51は、描画した表示画像60の画像データを、映像出力インターフェースを通じて液晶ディスプレイ52に逐次出力する。
液晶ディスプレイ52は、表示画面53に配列された複数の画素を制御することにより、カラー表示を実現するドットマトリクス方式の表示部である。液晶ディスプレイ52は、表示制御部51から逐次取得する画像データを表示画面53に連続的に形成することにより、映像を表示する。
表示画面53に表示される表示画像60は、本発明の画像に対応するものであり、複数の階層に分かれた画像から構成されている。例えば、複数の階層の画像のうち、第1階層(所定階層)の画像は、ナビゲーション装置50の各種機能(ナビゲーション、エアコン、オーディオ、インターネット等)を使用するための複数のメイン画像となっている。例えば、図7では、1つのメイン画像として、エアコン用のメイン画像を示している。
表示画像60の上側には、複数のメイン画像の種類(名称)をメニュー項目として、これらメニュー項目が左右方向に並ぶように形成されたメニュー61が設けられている。メニュー61は、表示画像60がどの階層の画像に切替えられても、常に同一の形で表示されるようになっている。操作者は、所望するメニュー61のうちの1つを操作面32上で指操作により選択すると、表示画面53には、選択されたメイン画像が表示されるようになっている。あるいは、操作者は、任意のメイン画像が表示されているときに、メニュー61を操作することなく、操作面32上で指をスライド操作することで、メイン画像を順次スクロールすることができ、所望のメイン画像にすることができるようになっている。
各メイン画像には、画像を操作するための複数のアイコン62が設けられている。図7の例では、エアコン操作における風量設定アイコン、温度設定アイコン、デュアル設定アイコン、吹出しモード設定アイコン等を示している。操作者は、操作面32上で指をスライド操作することによって所望のアイコン62を選択すると、そのアイコン62が選択されたことを示す枠状のフォーカス63が表示されるようになっている。更に、選択されたアイコン62の位置に対応するように操作面32上で指を軽く押さえてやると(タッチ操作すると)、そのアイコン62が決定状態となり、第2階層の画像、つまり決定されたアイコンに対応する操作用の画像に移行し、順次、各種機能が使用できるようになっている。
次に、操作制御部33によるタッチセンサ31からの入力処理の詳細を図6、図7に基づいて説明する。
図6において、まず、ステップS100では、タッチセンサ31の各電極にて検出される感度値を取得する取得処理を実施し、ステップS110に進む。ステップS110では、ステップS100にて取得される感度値から、操作面32に対する指の相対位置を示すx座標、y座標、および操作距離を示すz座標の計算処理を実施する。そして、操作距離を示すz座標の計算値から、指の操作状態が、接触中、近接中、あるいは非接触のいずれにあるかを算出する。
具体的には、タッチセンサ31によって検出される感度値がHth1(Hth1U)よりも大きいときは接触中、また、感度値がHth5(Hth5U)〜Hth1(Hth1D)の間にあるときは近接中、更に、感度値がHth5(Hth5D)よりも小さいときは非接触と算出する。
そして、ステップS120で、算出された指の操作状態は接触中ではなく、且つ感度値がHth1以上(実際には上側閾値Hth1U以上)あるか否かを判定する。ここで肯定判定すると、操作者の指は非接触あるいは近接中の状態から操作面32に近づき、操作面32に対して接触した状態にあることになり、ステップS130で、指の操作状態を接触中に更新する。
そして、ステップS140で、表示画面53を接触中画面に更新する。接触中画面とは、図7(右側の枠内)に示すように、表示画像60が表示画面53上で本来の平面的な(傾きのない)画像として表示される画面である。フォーカス63は、表示されるメイン画像に対応する機器の現時点での作動状態(作動設定状態)を示す。
接触中画面においては、操作者は、指操作(スライド、タッチ操作等)によって、本来の画面操作、つまり各メニュー61、および各種アイコン62の選択、および決定等が可能となる。このとき、操作者は、表示画像60が本来の平面的な画像であることから、指の操作状態が接触中にあり、各メニュー61、および各種アイコン62に対する指操作が可能であることを直感的に知ることができる。
次に、ステップS120で、否と判定すると、ステップS150で、1つ目の条件として操作状態は非接触であり、且つ感度値がHth5以上(実際には上側閾値Hth5U以上)あるか、または2つ目の条件として操作状態は接触中であり、且つ感度値がHth1以下(実際には下側閾値Hth1D以下)であるか、のいずれかであるか否かを判定する。ここで肯定判定すると、操作者の指は非接触から操作面32に近づく、あるいは接触中から操作面32に対して多少離れる状態にあることになり、ステップS160で、指の操作状態を近接中に更新する。
そして、ステップS170で、感度値がHth2以上(実際には下側閾値Hth2D以上)あるかを判定する。ここで肯定判定すると、指の操作状態は、近接中にあって操作面32に対してより近い状態(近接1)にあり、ステップS180で、表示画面53を近接1画面に更新する。近接1画面とは、図7(真ん中の枠内の右側)に示すように、表示画像60が、接触中における本来の平面的な画像に対して、立体的な画像として表示される画面である。立体的な画像は、例えば、本来の画像の部分が浮いた状態となって、浮いている画像の下側に影に相当する部分が形成された画像となっている。更に、近接1画面においては、車両の幅方向のほぼ中央に位置する液晶ディスプレイと、操作者(この場合は右側の運転者)との位置関係から、表示画像60は表示画面53に対して操作者側に向くようにある程度、右側に傾いた形となって表示されるようになっている。尚、近接1画面においては、表示画像60中のフォーカス63は表示されない。
また、上記ステップS170で、否定判定すると、ステップS190で、感度値がHth3以上(実際には下側閾値Hth3D以上)あるかを判定する。ここで肯定判定すると、指の操作状態は、近接中にあって操作面32に対して多少離れた状態(近接2)にあり、ステップS200で、表示画面53を近接2画面に更新する。近接2画面とは、表示画像60が、接触中における本来の平面的な画像に対して、上記の近接1画面で説明したように、立体的な画像として表示される画面である。更に、近接2画面においては、表示画像60の操作者側に向く傾きが、近接1画面における画像よりも更に、右側に傾いた形となって表示されるようになっている。尚、近接2画面においては、近接1画面と同様に、表示画像60中のフォーカス63は表示されない。
また、上記ステップS190で、否定判定すると、ステップS210で、感度値がHth4以上(実際には下側閾値Hth4D以上)あるかを判定する。ここで肯定判定すると、指の操作状態は、近接中にあって操作面32からかなり離れた状態(近接3)にあり、ステップS220で、表示画面53を近接3画面に更新する。近接3画面とは、図7(真ん中の枠内の左側)に示すように、表示画像60が、接触中における本来の平面的な画像に対して、上記の近接1画面で説明したように、立体的な画像として表示される画面である。更に、近接3画面においては、表示画像60の操作者側に向く傾きが、近接2画面における画像よりも更に、右側に傾いた形となって表示されるようになっている。尚、近接3画面においては、近接1画面と同様に、表示画像60中のフォーカス63は表示されない。また、ステップS210で否と判定すると、このフローを終了する。
上記の近接1画面、近接2画面、および近接3画面においては、操作者は、近接中における指操作(フリック等のジェスチャ)によって、メニュー61によるメイン画像の切替えが可能となる。このとき、操作者は、立体的に表示された表示画像60から指の位置が近接中(近接1〜近接3)にあることを直感的に知ることができる。併せて、操作者は、表示画像60の傾きがより小さいほど、指は操作面32に近い位置(近接1側)にあり、逆に傾きがより大きいほど、指は操作面32から離れた位置(近接3側)にあることを直感的に知ることができる。
次に、ステップS150で、否と判定すると、ステップS230で、操作状態は非接触ではなく、且つ感度値がHth5以下(実際には下側閾値Hth5D以下)であるか否かを判定する。ここで肯定判定すると、操作者の指は接触中あるいは近接中の状態から操作面32に対して大きく離れる状態にあることになり、ステップS240で、指の操作状態を非接触に更新する。尚、ステップS230で否と判定すると、このフローを終了する。
そして、ステップS250で、表示画面53を非接触画面に更新する。非接触画面とは、図7(左側の枠内)に示すように、接触中画面と同様に、表示画像60が本来の平面的な(傾きのない)画像として表示される画面である。非接触画面には、メニュー61、各種アイコン62、およびフォーカス63が表示される。非接触画面は、表示されるメイン画像に対応する機器の現時点での作動状態(作動設定状態)を示す。
非接触画面においては、操作者の指は操作面32から明らかに離れた状態にあり、操作者には表示画像60を操作する意志は無く、操作者は表示画像60を、単純に現在の機器の作動状態を確認するための確認用画面として見ることができる。
以上のように、本実施形態では、表示画像60を操作するにあたって、操作者の指が近接状態にあるときは、操作制御部33によって、本来の平面的な表示画像60が立体的に表示される。よって、操作者は、指はまだ操作面32に至っておらず、操作面32をタッチして操作できる状態にはない、ということを直感的に把握することができる。また、指が近接状態に対して接触状態となると、表示画像60は、指操作をするにあたって支障のない本来の平面的な表示となる。よって、操作者は、表示画像60が立体的か平面的かによって操作面32に対する指の近接状態、あるは接触状態を容易に把握することができるので、表示画像60に対する操作要領が容易に判別可能となり、操作に迷うことがなくなる。
また、操作制御部33は、近接状態において立体的となる表示画像60が、操作者(運転者)側を向くように傾けて表示すると共に、操作面32から指が遠ざかるほど、表示画像60の傾きが大きくなるように表示するようにしている。これにより、操作者は、近接状態にある指の位置について、表示画像60の傾きによって、操作面32からの指の距離が大きいのか小さいのかを、より明確に把握することが可能となる。
また、操作制御部33は、検出される操作状態が、操作面32に対して近接状態よりも遠ざかる非接触状態にあると、液晶ディスプレイ52に表示される表示画像60を接触状態のときと同一の平面的な画像にするようにしている。操作状態が非接触状態にあるということは、操作者が実質的に指操作を行っていない場合であり、このようなときは、表示画像60が本来の平面的な画像にされることで、操作者は何ら支障なく表示画像60を見ることができる。
(第2実施形態)
第2実施形態の遠隔操作デバイス100Aを図8〜図11に示す。第2実施形態は、操作者として、運転席における運転者、および助手席における助手席者を対象とした表示画像60の入力処理を行うものとなっている。
図8、図9に示すように、遠隔操作デバイス100Aには、近接センサ34a、34bが設けられている。近接センサ34aは、例えば、操作面32の右側に配置されて、運転者の指が操作面32に対して右側から近接することを検知するセンサであり、検知した信号を操作制御部33に出力するようになっている。また、近接センサ34bは、例えば、操作面32の左側に配置されて、助手席者の指が操作面32に対して左側から近接することを検知するセンサであり、検知した信号を操作制御部33に出力するようになっている。よって、操作制御部33は、近接センサ34a、あるいは近接センサ34bからの信号に基づいて、操作面32の操作者が運転者か、助手席者かを判定できるようになっている。
操作制御部33が行う入力処理のフローチャートは、図10に示すように、上記第1実施形態で説明したフローチャート(図6)に対して、操作者が運転者か助手席者かのいずれかを判定して、判定結果に応じた画面表示の設定を行うためのステップS50、S51、S52が追加されたものとなっている。
操作制御部33は、ステップS50で、近接センサ34a、34bの出力信号から、操作者は、運転者か助手席者かを判定する。尚、図10中の「D席」は運転席(Driver seat)を意味し、また、「P席」は助手席(Passenger seat)を意味している。
そして、ステップS50で、操作者は、運転者であると判定すると、操作制御部33は、ステップS51で、運転者用の画面表示設定を行う。運転者用の画面表示設定とは、まず、表示画像60として、各メニュー61、および各種アイコン62を備える基本形態とする設定となっている。そして、運転者の指の操作状態が近接中であると、図11(右側の枠内)に示すように、ステップS180、S200、S220において、立体的に表示される表示画像60が、実際に指操作している運手者に向けて傾く画像とする設定となっている。尚、上記第1実施形態で説明したように、近接中において運転者の指が操作面32に近いほど立体的画像の傾きは小さく、指が操作面32から遠ざかるほど立体的画像の傾きが大きく表示される。運転者は、近接中においては、指操作(フリック等のジェスチャ)によって、表示画像60中のメニュー61によるメイン画像の切替えが可能となる。
このとき、運転者は、立体的に表示された表示画像60の傾き方向が自身を向く方向となることから、現在の表示画像60が運転者自身の入力に基づくものであることを直感的に知ることができる。併せて、第1実施形態と同様に、立体的に表示された表示画像60の傾きがより小さいほど、指は操作面32に近い位置(近接1側)にあり、逆に傾きがより大きいほど、指は操作面32から離れた位置(近接3側)にあることを直感的に知ることができる。
尚、運転者の指の操作状態が接触中であると、操作制御部33は、ステップS140において、表示画像60としては、本来の平面的な(傾きのない)画像とする。接触中においては、運転者は、指をスライド、あるいはタッチすることで、本来の画面操作、つまり各メニュー61、および各種アイコン62の選択および決定等が可能となる。
一方、ステップS50で、操作者は、助手席者であると判定すると、操作制御部33は、ステップS52で、助手席者用の画面表示設定を行う。助手席者用の画面表示設定とは、まず、表示画像60として、上記の運転者用の基本画像に対して、助手席者のダイレクト操作が可能となる専用のコンテンツ64が設けられた画像とする設定となっている。そして、助手席者の指の操作状態が近接中であると、図11(左側の枠内)に示すように、ステップS180、S200、S220において、立体的に表示される表示画像60が、実際に指操作している助手席者に向けて傾く画像とする設定となっている。尚、助手席者の指が操作面32に近いほど立体的画像の傾きは小さく、指が操作面32から遠ざかるほど立体的画像の傾きが大きく表示される。助手席者は、近接中においては、指操作(フリック等のジェスチャ)によって、表示画像60中のメニュー61によるメイン画像の切替えが可能となる。
上記の助手席者用の専用のコンテンツ64は、本発明の操作画像部に対応するものであり、例えば、エアコン用のメイン画像において、助手席側の温度を単独で設定可能とする助手席側温度設定用のアイコンとなっている。コンテンツ64には、例えば、現状の設定温度値に対する上側温度の設定部、温度上昇設定部、最大温度設定部、現状の設定温度に対する下側温度の設定部、温度低下設定部、最小温度設定部等の操作部が設けられたものとなっている。
このとき、助手席者は、立体的に表示された表示画像60の傾き方向が自身を向く方向となることから、現在の表示画像60が助手席者自身の入力に基づくものであることを直感的に知ることができる。併せて、第1実施形態と同様に、立体的に表示された表示画像60の傾きがより小さいほど、指は操作面32に近い位置(近接1側)にあり、逆に傾きがより大きいほど、指は操作面32から離れた位置(近接3側)にあることを直感的に知ることができる。
尚、助手席者の指の操作状態が接触中であると、操作制御部33は、ステップS140において、表示画像60としては、本来の平面的な(傾きのない)画像とする。接触中においては、助手席者は、指をスライド、あるいはタッチすることで、本来の画面操作、つまり各メニュー61、各種アイコン62、更にはコンテンツ64の選択および決定等が可能となる。
以上のように、本実施形態においては、操作者の対象を運転者と助手席者としており、操作面32に対する指操作が行われ、このときの操作状態が近接中であると、立体的となる表示画像60が実際に指操作を行った操作者に向けて傾いて表示されるようにしている。よって、操作者は、現在の表示画像60が、操作者自身の入力に基づくものであることが直感的に分かり、運転者あるいは助手席者のいずれの操作者が操作しているのか迷うことがなく、操作性を向上させることができる。
また、助手席者が指操作した場合には、表示画像60中に助手席者によるダイレクト操作が可能となる専用のコンテンツ64を表示するようにしている。これにより、助手席者の操作性を向上させることができる。
(その他の実施形態)
上記の各実施形態では、指の操作状態として、近接状態において、近接1、近接2、近接3という、3つの区分を設けたが、これに限定されることなく、1つの近接、あるいは2つの近接、あるいは4つ以上の近接等、適宜設定するようにしても良い。
また、上記第1実施形態では、指の操作状態が近接中のときに、表示画像60を立体的に表示するにあたって、操作者側を向くように傾けて表示するようにしたが、これに限らず、傾きを持たすことなく本来の矩形形状のままの画像としても良い。
この場合、近接1、近接2、および近接3に対する区分けとしては、例えば、立体的な表示画像60の本来の画像部分と影となる部分との距離を変えることで対応可能である。つまり、近接1のときは、本来の画像部分と影となる部分との距離を小さくし(所定値とし)、近接2、近接3に移行するにしたがって、この距離をより大きくするようにすれば良い。
また、上記第2実施形態では、助手席者用の専用の操作画像部として、エアコンにおける温度設定用のコンテンツ64としたが、これに限らず、その他にも、シートヒータの温度設定用のコンテンツとする、あるいは、シートポジションの位置設定用のコンテンツとする等の対応が可能である。
また、検出手段として静電容量式のタッチセンサ31を用いたが、これに限定されるものではなく、他の感圧式のタッチセンサ等としても良い。
また、遠隔操作デバイス100、100Aにプッシュスイッチを設けて、指操作によって選択した内容(アイコン等)を決定する際に、このプッシュスイッチを押込むことで、決定するようにしても良い。
100、100A 遠隔操作デバイス(入力装置)
31 タッチセンサ(検出手段)
32 操作面
33 操作制御部(制御部)
52 液晶ディスプレイ(表示部)
60 表示画像(画像)
64 コンテンツ(操作画像部)

Claims (5)

  1. 車両に搭載されて、複数の階層に分かれた画像(60)を切替え可能に表示する表示部(52)に対して別体で形成されており、操作面(32)に対する使用者の指操作によって、前記画像(60)を操作するための入力が行われる入力装置であって、
    前記指操作時の前記操作面(32)に対する指の操作状態を検出する検出手段(31)と、
    前記検出手段(31)によって検出された前記操作状態に対する判定が、前記操作面(32)に接触する接触状態に対して、前記操作面(32)に近接した近接状態にあると、前記表示部(52)における平面的な前記画像(60)を立体的に表示する制御部(33)とを備えることを特徴とする入力装置。
  2. 前記表示部(52)は前記使用者の前側で前記車両の幅方向の中央部に配置されており、
    前記制御部(33)は、前記近接状態において前記立体的となる前記画像(60)が、前記使用者側を向くように傾けて表示することを特徴とする請求項1に記載の入力装置。
  3. 前記制御部(33)は、前記近接状態において前記操作面(32)から前記指が遠ざかるほど、前記画像(60)の傾きが大きくなるように表示することを特徴とする請求項2に記載の入力装置。
  4. 前記使用者は、前記車両の運転者および助手席者を含み、
    制御部(33)は、前記操作面(32)に対する前記指操作が前記運転者によるものか前記助手席者によるものかを判定すると共に、
    前記指操作が前記助手席者による場合は、前記画像(60)中に助手席者によるダイレクト操作が可能となる専用の操作画像部(64)を表示することを特徴とする請求項1〜請求項3のいずれか1つに記載の入力装置。
  5. 前記制御部(33)は、前記検出手段(31)によって検出された前記操作状態に対する判定が、前記操作面(32)に対して前記近接状態よりも遠ざかる非接触状態にあると、前記表示部(52)における前記画像(60)を前記接触状態のときと同一の平面的な前記画像(60)とすることを特徴とする請求項1〜請求項4のいずれか1つに記載の入力装置。
JP2013077249A 2013-04-02 2013-04-02 入力装置 Pending JP2014203177A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013077249A JP2014203177A (ja) 2013-04-02 2013-04-02 入力装置
PCT/JP2014/001776 WO2014162698A1 (ja) 2013-04-02 2014-03-27 入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013077249A JP2014203177A (ja) 2013-04-02 2013-04-02 入力装置

Publications (1)

Publication Number Publication Date
JP2014203177A true JP2014203177A (ja) 2014-10-27

Family

ID=51658012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013077249A Pending JP2014203177A (ja) 2013-04-02 2013-04-02 入力装置

Country Status (2)

Country Link
JP (1) JP2014203177A (ja)
WO (1) WO2014162698A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5858059B2 (ja) 2013-04-02 2016-02-10 株式会社デンソー 入力装置
JP5928397B2 (ja) 2013-04-03 2016-06-01 株式会社デンソー 入力装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013022986A (ja) * 2011-07-17 2013-02-04 Denso Corp 車両用の操作入力装置及び制御システム
WO2013029773A1 (de) * 2011-09-03 2013-03-07 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum bereitstellen einer nutzerschnittstelle, insbesondere in einem fahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013022986A (ja) * 2011-07-17 2013-02-04 Denso Corp 車両用の操作入力装置及び制御システム
WO2013029773A1 (de) * 2011-09-03 2013-03-07 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum bereitstellen einer nutzerschnittstelle, insbesondere in einem fahrzeug
US20140215403A1 (en) * 2011-09-03 2014-07-31 Volkswagen Ag Method and device for making available a user interface, in particular in a vehicle

Also Published As

Publication number Publication date
WO2014162698A1 (ja) 2014-10-09

Similar Documents

Publication Publication Date Title
JP5928397B2 (ja) 入力装置
JP5858059B2 (ja) 入力装置
US9489500B2 (en) Manipulation apparatus
JP5413448B2 (ja) 表示システム、表示装置、及び操作装置
JP6310787B2 (ja) 車両用入力装置および車両用コックピットモジュール
JP6119679B2 (ja) 車両用入力装置
JP2010211500A (ja) 操作装置
JP2012003404A (ja) 情報表示装置
JP2013222214A (ja) 表示操作装置および表示システム
JP5751233B2 (ja) 操作デバイス
WO2013153750A1 (ja) 表示システム、表示装置、及び操作装置
JP5954145B2 (ja) 入力装置
JP5754483B2 (ja) 操作デバイス
WO2014162698A1 (ja) 入力装置
JP5849597B2 (ja) 車両用操作装置
JP2014109941A (ja) 操作デバイス、及び操作デバイスの操作教示方法
US20170255326A1 (en) Vehicular touch pad and vehicular input interface
JP6001463B2 (ja) タッチ式入力装置
WO2015170440A1 (ja) 表示操作システム
EP3352067B1 (en) Vehicular input device and method of controlling vehicular input device
JP2018122827A (ja) 車載用情報入力装置および車載用情報入力システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161004