JP6144501B2 - 表示装置、および、表示方法 - Google Patents
表示装置、および、表示方法 Download PDFInfo
- Publication number
- JP6144501B2 JP6144501B2 JP2013024255A JP2013024255A JP6144501B2 JP 6144501 B2 JP6144501 B2 JP 6144501B2 JP 2013024255 A JP2013024255 A JP 2013024255A JP 2013024255 A JP2013024255 A JP 2013024255A JP 6144501 B2 JP6144501 B2 JP 6144501B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- proximity
- display
- light source
- touch panel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000001514 detection method Methods 0.000 claims description 58
- 238000013459 approach Methods 0.000 claims description 40
- 230000006870 function Effects 0.000 description 64
- 230000008859 change Effects 0.000 description 43
- 238000010586 diagram Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
さらに、請求項8の発明は、請求項1に記載の表示装置において、前記近接に続く操作の検出結果に応じた命令を受け付ける受付手段をさらに備え、前記制御手段は、前記受付手段により近接に続く操作の検出結果に応じた命令を受け付けると、前記報知手段による報知を停止すること、を特徴とする。
<1−1.構成>
図1は、本実施の形態の表示装置1の外観を示す図である。この表示装置1は、例えば、自動車などの車両内において使用されるものであり、車室内のドライバなどのユーザに対して表示装置1が有する機能の実行により各種の情報を表示する。表示装置1が有する主な機能として、地図画像を表示して目的地までのルートを案内するナビゲーション機能、および、車室内に音を出力するオーディオ機能などがある。また、表示装置1は、文字入力装置としても機能し、例えば、ナビゲーション機能における目的地設定や、オーディオ機能における音声データのタイトルの変更等においてユーザが文字を入力できるようになっている。
次に、表示装置1に対するユーザ6の近接操作とその操作の中での光源の発光について具体的に説明する。
<1−2−1.複数点による近接操作>
図3〜図5を用いてユーザ6の複数点による近接操作について説明する。図3は、ユーザ6による複数点でのタッチパネル3の操作面への近接を示す図である。図3では表示装置1のナビゲーション機能の実行に伴い地図画像mp1がディスプレイ2に表示されており、この地図画像mp1に重畳してコマンドボタン15が表示されている。そして、ユーザ6がユーザ6の同じ手の隣接する2本の指をタッチパネル3の操作面に近接させることで、近接検出部10bはユーザ6の複数点によるタッチパネル3の操作面への近接による静電容量の変化を検出する。次に、図3の表示装置1の切断面を図4に示して説明する。
<1−2−2.一点による近接操作>
次に、図7〜図9を用いてユーザ6の一点による近接操作について説明する。図7は、ユーザ6の一点での操作部領域teへの近接を示す図である。図7では図3と同様にナビゲーション機能の実行に伴い地図画像mp1がディスプレイ2に表示されており、この地図画像mp1に重畳してコマンドボタン15が表示されている。そして、ユーザ6が1本の指を操作部4に近接させることで、近接検出部10bはユーザ6の一点での操作部4への近接による静電容量の変化を検出する。次に、図7の表示装置1の切断面を図8に示して説明する。
図11は、ユーザ6の操作に対する表示装置1の処理の流れを示す図である。以下、図11を参照して、表示装置1の処理の流れを説明する。
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
3 タッチパネル
6 ユーザ
10a 接触検出部
10b 近接検出部
11a プログラム
20a 表示制御部
20b 取得部
20c 発光部
20d 受付部
Claims (8)
- 画像をディスプレイに表示する表示装置において、
前記ディスプレイに対する物体の近接と、ディスプレイに非接触で行われるその近接に続く操作を検出する検出手段と、
前記物体の近接において前記検出手段は少なくとも2種類の物体の近接を識別可能であり、
前記検出手段により物体の近接を検出すると、前記近接に続く操作が実行される前の段階で、前記近接に続く操作が検出可能な状態であることをユーザに報知するために、報知手段によって前記検出手段の近接の識別結果に応じて異なる報知を行うよう制御する制御手段と、
を備えることを特徴とする表示装置。 - 画像をディスプレイの表示面に表示する表示装置において、
前記表示面へのユーザの近接と、表示面に非接触で行われるその近接に続く操作を検出する検出手段と、
光源と、
前記検出手段によりユーザの近接を検出すると、前記ユーザが前記表示面に一点および複数点のいずれで近接したかに応じて、前記近接に続く操作が実行される前の段階で、前記近接に続く操作が検出可能な状態であることをユーザに報知するために前記光源を異なる状態で発光させる制御手段と、
を備えることを特徴とする表示装置。 - 請求項2に記載の表示装置において、
前記制御手段は、前記ユーザが前記表示面に複数点で近接した場合に、前記光源を第1の表示色で発光させ、前記ユーザが前記表示面に一点で近接した場合に、前記光源を第2の表示色で発光させること、
を特徴とする表示装置。 - 請求項2または3に記載の表示装置において、
前記光源は前記表示面の周辺に設けられていること、
を特徴とする表示装置。 - 画像をディスプレイの表示面に表示する表示方法において、
前記表示面へのユーザの近接と、表示面に非接触で行われるその近接に続く操作を検出する工程と、
前記ユーザの近接を検出すると、前記近接に続く操作が実行される前の段階で、前記ユーザが前記表示面に一点および複数点のいずれで近接したかに応じて、前記近接に続く操作が検出可能な状態であることをユーザに報知するために光源を異なる状態で発光させる工程と、
を備えることを特徴とする表示方法。 - 画像をディスプレイの表示面に表示する表示装置において、
前記表示面および表示面周辺の操作部領域のいずれかへのユーザの近接と、ディスプレイに非接触で行われるその近接に続く操作を検出する検出手段と、
光源と、
前記検出手段によりユーザの近接を検出すると、前記近接に続く操作が実行される前の段階で、前記ユーザが前記表示面および前記操作部領域のいずれかに一点および複数点のいずれで近接したかに応じて、前記近接に続く操作が検出可能な状態であることをユーザに報知するために前記光源を異なる状態で発光させる制御手段と、
を備えることを特徴とする表示装置。 - 画像をディスプレイの表示面に表示する表示方法において、
前記表示面および表示面周辺の操作部領域のいずれかへのユーザの近接と、ディスプレイに非接触で行われるその近接に続く操作を検出する工程と、
前記ユーザの近接を検出すると、前記近接に続く操作が実行される前の段階で、前記ユーザが前記表示面および前記操作部領域のいずれかに一点および複数点のいずれで近接したかに応じて、前記近接に続く操作が検出可能な状態であることをユーザに報知するために光源を異なる状態で発光させる工程と、
を備えることを特徴とする表示方法。 - 請求項1に記載の表示装置において、
前記近接に続く操作の検出結果に応じた命令を受け付ける受付手段をさらに備え、
前記制御手段は、前記受付手段により近接に続く操作の検出結果に応じた命令を受け付けると、前記報知手段による報知を停止すること、
を特徴とする表示装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013024255A JP6144501B2 (ja) | 2013-02-12 | 2013-02-12 | 表示装置、および、表示方法 |
US14/022,811 US20140225860A1 (en) | 2013-02-12 | 2013-09-10 | Display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013024255A JP6144501B2 (ja) | 2013-02-12 | 2013-02-12 | 表示装置、および、表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014153986A JP2014153986A (ja) | 2014-08-25 |
JP6144501B2 true JP6144501B2 (ja) | 2017-06-07 |
Family
ID=51297148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013024255A Active JP6144501B2 (ja) | 2013-02-12 | 2013-02-12 | 表示装置、および、表示方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20140225860A1 (ja) |
JP (1) | JP6144501B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6154148B2 (ja) * | 2013-01-31 | 2017-06-28 | 富士通テン株式会社 | 入力操作装置、表示装置、および、コマンド選択方法 |
CN105653163A (zh) * | 2014-11-14 | 2016-06-08 | 富泰华工业(深圳)有限公司 | 携式电子装置的字符输入***及方法 |
DE102015200011A1 (de) * | 2015-01-02 | 2016-07-07 | Volkswagen Ag | Anwenderschnittstelle und Verfahren zur Ausgabe einer Rückmeldung über eine mittels einer Fingerleiste gemachten Anwendereingabe |
EP3237250B1 (de) * | 2014-12-22 | 2020-04-22 | Volkswagen AG | Fingerleiste und anwendung der fingerleiste |
JP6433811B2 (ja) * | 2015-02-25 | 2018-12-05 | 京セラ株式会社 | 電子機器 |
DE102016211495A1 (de) | 2016-06-27 | 2017-12-28 | Ford Global Technologies, Llc | Steuerungseinrichtung für ein Kraftfahrzeug |
DE102016211494B4 (de) | 2016-06-27 | 2020-10-01 | Ford Global Technologies, Llc | Steuerungseinrichtung für ein Kraftfahrzeug |
EP3748476B1 (en) * | 2018-02-22 | 2024-05-08 | Kyocera Corporation | Electronic device, control method, and program |
EP4273668A1 (en) * | 2022-05-05 | 2023-11-08 | Nokia Technologies Oy | Tactile feedback |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677893B2 (ja) * | 2005-12-16 | 2011-04-27 | トヨタ自動車株式会社 | 車載遠隔操作装置 |
JP2008009759A (ja) * | 2006-06-29 | 2008-01-17 | Toyota Motor Corp | タッチパネル装置 |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
JP2010204945A (ja) * | 2009-03-03 | 2010-09-16 | Sharp Corp | 入力装置、及び入力方法 |
US9323398B2 (en) * | 2009-07-10 | 2016-04-26 | Apple Inc. | Touch and hover sensing |
US8622742B2 (en) * | 2009-11-16 | 2014-01-07 | Microsoft Corporation | Teaching gestures with offset contact silhouettes |
JP5532300B2 (ja) * | 2009-12-24 | 2014-06-25 | ソニー株式会社 | タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体 |
JP2012234387A (ja) * | 2011-05-02 | 2012-11-29 | Nec Casio Mobile Communications Ltd | 電子機器、表示方法およびプログラム |
JP2012247960A (ja) * | 2011-05-27 | 2012-12-13 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
US20130083074A1 (en) * | 2011-10-03 | 2013-04-04 | Nokia Corporation | Methods, apparatuses and computer program products utilizing hovering, in part, to determine user interface orientation |
US20130120467A1 (en) * | 2011-11-15 | 2013-05-16 | Shenzhen China Star Optoelectronics Technology Co., Ltd. | Color sequential liquid crystal display device |
US20130191741A1 (en) * | 2012-01-24 | 2013-07-25 | Motorola Mobility, Inc. | Methods and Apparatus for Providing Feedback from an Electronic Device |
US8994661B2 (en) * | 2012-06-29 | 2015-03-31 | Google Technology Holdings LLC | User interface device having capacitive trackball assembly |
US9176528B2 (en) * | 2012-12-28 | 2015-11-03 | Intel Corporation | Display device having multi-mode virtual bezel |
-
2013
- 2013-02-12 JP JP2013024255A patent/JP6144501B2/ja active Active
- 2013-09-10 US US14/022,811 patent/US20140225860A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20140225860A1 (en) | 2014-08-14 |
JP2014153986A (ja) | 2014-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6144501B2 (ja) | 表示装置、および、表示方法 | |
US9858702B2 (en) | Device and method for signalling a successful gesture input | |
US11132119B2 (en) | User interface and method for adapting a view of a display unit | |
JP5640486B2 (ja) | 情報表示装置 | |
KR101803222B1 (ko) | 제스처 감지 중에 입력 수단의 3d 위치를 시그널링하기 위한 사용자 인터페이스 및 방법 | |
KR102049649B1 (ko) | 손가락 기반 컨트롤 바 및 상기 컨트롤 바의 사용 | |
EP2544078A1 (en) | Display device | |
US9355805B2 (en) | Input device | |
JP6077285B2 (ja) | 文字入力装置、文字入力方法及びプログラム | |
KR102344353B1 (ko) | 불투명 커버를 통해 작동되는 디바이스 및 시스템 | |
US20200050348A1 (en) | Touch-type input device and operation detection method | |
JP6154148B2 (ja) | 入力操作装置、表示装置、および、コマンド選択方法 | |
WO2012111227A1 (ja) | タッチ式入力装置、電子機器および入力方法 | |
KR20160055704A (ko) | 사용자 인터페이스 제공 방법 및 시스템 | |
JPWO2019021418A1 (ja) | 表示制御装置および表示制御方法 | |
JP2012059085A (ja) | 車載用情報装置 | |
EP3421300A1 (en) | Control unit for vehicle | |
US10768793B2 (en) | User interface and method for changing between screen views of a user interface | |
JP6315443B2 (ja) | 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム | |
US20180292924A1 (en) | Input processing apparatus | |
US11061511B2 (en) | Operating device and method for detecting a user selection of at least one operating function of the operating device | |
US20200150812A1 (en) | Information-processing device and information-processing program | |
EP2835721A1 (en) | Input device | |
US20230249552A1 (en) | Control apparatus | |
US11442581B2 (en) | Method for displaying at least one additional item of display content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6144501 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |