CN107077281A - 触感控制***及触感控制方法 - Google Patents

触感控制***及触感控制方法 Download PDF

Info

Publication number
CN107077281A
CN107077281A CN201480081806.6A CN201480081806A CN107077281A CN 107077281 A CN107077281 A CN 107077281A CN 201480081806 A CN201480081806 A CN 201480081806A CN 107077281 A CN107077281 A CN 107077281A
Authority
CN
China
Prior art keywords
sense
touch
touch control
region
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480081806.6A
Other languages
English (en)
Inventor
下谷光生
有田英
有田英一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN107077281A publication Critical patent/CN107077281A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明的目的在于提供一种可使用户在操作时不用将视线集中在显示画面上的情况下进行使用方便的操作的触感控制***及触感控制方法。本发明的触感控制***控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其包括:操作检测部,该操作检测部检测用户对操作面的操作;及触感控制部,该触感控制部控制操作面的触感,使得接受由操作检测部检测出的用户的操作后的区域的触感或跟踪用户的操作的动作的区域的触感随着时间的经过而变化。

Description

触感控制***及触感控制方法
技术领域
本发明涉及控制对触摸屏或触摸板的操作面进行操作时的用户的触感的触感控制***及触感控制方法。
背景技术
以往,存在在用户对包括触摸屏的显示装置的显示画面进行操作时向用户提供与操作相对应的触感的技术。
例如,公开有通过向手指照射超声波来向手指提供触感的技术(例如参照专利文献1、2)。此外,公开有通过利用超声波振动使触摸屏的任意区域振动来向用户提供触感的技术(例如参照非专利文献1)。此外,公开有通过使触摸屏的任意区域动态(物理上)起伏来提供触感的技术(例如参照专利文献3)。
现有技术文献
专利文献
专利文献1:日本专利特开2003-29898号公报
专利文献2:国际公开第2012/102026号
专利文献3:日本专利特表2005-512241号公报
非专利文献
非专利文献1:“试制装载有获得触感的触摸屏的平板”、[online]、平成26年2月24日、富士通株式会社、[平成26年5月12日]、互联网〈URL:http://pr.fujitsu.com/jp/news/2014/02/24.html?nw=pr〉
发明内容
发明所要解决的技术问题
用户若使用专利文献1~3及非专利文献1的技术,则会认为在进行操作时可不用将视线集中在显示画面上而依赖触感来进行操作。然而,在专利文献1~3及非专利文献1中,对于具体使用没有任何揭示,不能说提供了使用方便的用户界面。
本发明是为了解决这种问题而完成的,其目的在于提供一种可使用户在操作时不用将视线集中在显示画面上的情况下进行使用方便的操作的触感控制***及触感控制方法。
解决技术问题的技术方案
为了解决上述问题,本发明的触感控制***控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其包括:操作检测部,该操作检测部检测用户对操作面的操作;及触感控制部,该触感控制部控制操作面的触感,使得接受由操作检测部检测出的用户的操作后的区域的触感或跟踪用户的操作的动作的区域的触感随着时间的经过而变化。
此外,本发明的触感控制方法控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其检测用户对操作面的操作,控制操作面的触感,使得接受检测出的用户的操作后的区域的触感或跟踪用户的操作的动作的区域的触感随着时间的经过而变化。
发明效果
根据本发明,触感控制***控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其包括:操作检测部,该操作检测部检测用户对操作面的操作;及触感控制部,该触感控制部控制操作面的触感,使得接受由操作检测部检测出的用户的操作后的区域的触感或跟踪用户的操作的动作的区域的触感随着时间的经过而变化,因此,可使用户在操作时不用将视线集中在显示画面上的情况下进行使用方便的操作。
此外,触感控制方法控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其检测用户对操作面的操作,控制操作面的触感,使得接受检测出的用户的操作后的区域的触感或跟踪用户的操作的动作的区域的触感随着时间的经过而变化,因此,可使用户在操作时不用将视线集中在显示画面上的情况下进行使用方便的操作。
本发明的目的、特征、形态以及优点通过以下详细的说明和附图会变得更为明了。
附图说明
图1是表示本发明实施方式1所涉及的触感控制装置的结构的一个示例的框图。
图2是用于说明本发明实施方式1所涉及的触感的图。
图3是用于说明本发明实施方式1所涉及的触感的图。
图4是用于说明本发明实施方式1所涉及的触感的图。
图5是用于说明本发明实施方式1所涉及的触感的图。
图6是用于说明本发明实施方式1所涉及的触感的图。
图7是表示本发明实施方式1所涉及的触感控制装置的结构的另一个示例的框图。
图8是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的流程图。
图9是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图10是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图11是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图12是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图13是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图14是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图15是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图16是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图17是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图18是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图19是表示本发明实施方式2所涉及的触感控制装置的结构的一个示例的框图。
图20是表示本发明实施方式2所涉及的触感控制装置的动作的一个示例的流程图。
图21是表示本发明实施方式2所涉及的触感控制装置的动作的一个示例的图。
图22是表示本发明实施方式2所涉及的触感控制装置的动作的一个示例的图。
图23是表示本发明实施方式3所涉及的触感控制装置的动作的一个示例的图。
图24是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的图。
图25是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的图。
图26是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图27是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图28是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图29是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图30是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图31是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图32是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图33是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图34是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图35是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的图。
图36是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的图。
图37是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的图。
图38是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的图。
图39是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图40是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图41是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图42是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图43是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图44是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图45是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图46是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图47是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图48是表示本发明实施方式7所涉及的触感控制装置的动作的一个示例的图。
图49是表示本发明实施方式所涉及的触感控制***的结构的一个示例的框图。
图50是表示本发明实施方式所涉及的触感控制***的结构的另一个示例的框图。
具体实施方式
下面,基于附图,说明本发明的实施方式。
<实施方式1>
首先,对本发明实施方式1所涉及的触感控制***的结构进行说明。另外,在本实施方式及以下的各实施方式中,对利用触感控制装置单体实现了触感控制***的情况进行说明。
图1是表示本实施方式1所涉及的触感控制装置1的结构的一个示例的框图。另外,在图1中,示出了构成触感控制装置1的所需要的最小限度的结构要素。
如图1所示,触感控制装置1至少包括操作检测部2及触感控制部3。
操作检测部2检测用户对触摸屏或触摸板的操作面进行的操作。
触感控制部3控制操作面的触感,使得接受由操作检测部2检测出的用户的操作后的区域的触感或跟踪用户的操作的动作的区域的触感随着时间的经过而变化。
这里,利用图2~6说明触感控制部3所控制的触感。
图2是表示“光滑”、“半粗糙”及“粗糙”这三种触感的一个示例的图。
图2中,横轴表示触感的强度,最左侧的一列表示“光滑”,中央的两列表示“半粗糙”,最右侧的一列表示“粗糙”。此外,通过例如利用超声波振动使各四方形内所示的黑色所呈现的点、线的图案部分振动,从而呈现四方形内整体的触感。即,在例如各四方形内的振动的强度相同的情况下,与图2的左侧相比,右侧的“粗糙”的触感要变强。具体而言,图2的第1行表示点的孔越大,粗糙触感越强,第2行表示格子的间隔越窄,粗糙触感越强,第3行表示随着从虚线变成实线、且线***,粗糙触感变强。另外,粗糙触感的图案并不限于图2,存在无数组合。
图2的示例示出了即使振动强度相同,通过改变图案也可获得不同的粗糙触感的方法,但即使是同一图案,若改变振动强度,也可获得不同的粗糙触感。
“光滑”的触感例如可通过不进行超声波振动来呈现。
“粗糙”的触感例如可通过以预定的阈值以上的强度进行超声波振动来呈现。
“半粗糙”的触感例如可通过进行小于上述阈值的超声波振动来呈现。
此外,通过将振动强度与图2所示的粗糙触感的图案这双方进行组合,可呈现粗糙触感的强弱。
图2中,对粗糙触感的图案及振动强度不变化的静态粗糙触感的产生进行了说明,但也可通过使振动强弱随时间进行变化,或使粗糙触感的图案随时间变化(即通过使振动强弱或粗糙触感的图案动态变化),从而呈现动态粗糙触感。此处,将触感的图案在同一区域内变化的情况称为固定型触感变化。
图3~5是表示通过使振动强度随时间变化来产生“动态粗糙”的触感的一个示例的图。图3~5中,横轴表示时间,纵轴表示触感的强度。
图3示出使触感的强度固定、且该触感以固定周期产生的情况。此外,图4示出使触感的强度变化、且该触感以固定周期产生的情况。此外,图5示出使触感的强度固定、且该触感的产生周期变化的情况。
通过如图3~5所示那样使触感变化,从而用户可获得例如“粗糙”的区域在移动这样的触感(即,“动态粗糙”的触感)。另外,图3~5中,交替切换“粗糙”的触感和“光滑”的触感,但也可交替切换“粗糙”的触感和“半粗糙”的触感,也可使“粗糙”的触感连续切换而非离散切换,也可将连续变化和离散变化自由组合。
图6是表示通过使粗糙触感的图案随时间变化来产生“动态粗糙”的触感的另一个示例的图。图6中,纵轴表示时间。此外,区域a及区域b具有例如“粗糙”的触感。
如图6所示,区域a及区域b随着时间的经过,其位置进行移动。由此,通过使具有触感的区域a及区域b移动,从而用户可获得例如“粗糙”的区域在移动这样的触感(即,“动态粗糙”的触感)。另外,区域a及区域b各自也可具有图3~5中任一方所示的触感。此处,将产生触感的位置随着时间的经过而变化的情况称为移动型触感变化。
另外,图6中,使“粗糙”的触感的区域和“光滑”的触感的区域随时间移动,但也可构成“粗糙”的触感的区域和“半粗糙”的触感的区域并使其随时间移动,也可构成“粗糙”的触感离散变化或连续变化的区域,并使该区域随时间移动。图3~6中,在采用连续变化的“粗糙”的触感的情况下,可获得流畅的“动态粗糙”的触感。
接下来,对包含图1的操作检测部2及触感控制部3的触感控制装置1的其它结构进行说明。
图7是表示触感控制装置4的结构的一个示例的框图。
如图7所示,触感控制装置4包括操作检测部2、触感控制部3、控制部5及显示信息生成输出部6。此外,显示信息生成输出部6与显示器7相连接,操作检测部2及触感控制部3连接到触感触摸屏8。
控制部5对触感控制装置4进行整体控制。在图7所示的示例中,控制部5对触感控制部3及显示信息生成输出部6进行控制。
显示信息生成输出部6根据控制部5的指示来生成显示信息。此外,显示信息生成输出部6将所生成的显示信息转换成视频信号并输出到显示器7。
触感控制部3将触感控制信息输出到触感触摸屏8,该触感控制信息用于控制操作面的触感,使得接受由操作检测部2检测出的用户的操作后的区域的触感或跟踪用户的操作的动作的区域的触感随着时间的经过而变化。
操作检测部2从触感触摸屏8获取用户对该触感触摸屏8的操作的相关信息以作为操作信息(即,检测用户对触感触摸屏8的操作)。
显示器7将从显示信息生成输出部6输入的显示信息显示于显示画面。
触感触摸屏8将用户的触摸操作的相关信息(有无触摸、触摸的位置、操作内容等信息)作为操作信息输出到操作检测部2。此外,触感触摸屏8基于从触感控制部3输入的触感控制信息,使触摸屏的任意位置的触感(“光滑”、“半粗糙”、“粗糙”、“动态粗糙”)变化。
另外,触感触摸屏8设置于显示器7的显示画面上,用户能以对显示画面直接进行操作的感觉来使用。即,显示器7的显示画面区域和触感触摸屏8的产生触感的区域可完全一致。此外,也可使显示器7的显示画面区域和触感触摸屏8的产生触感的区域中的任一方为比另一方要宽的区域。例如,可设置触感触摸屏8,使得触感触摸屏8的产生触感的区域超出显示器7的显示画面区域,该超出区域中不进行显示,但作为能输入触摸操作的区域进行活用。
接着,利用图8和图9来说明触感控制装置4的动作。
图8是表示触感控制装置4的动作的一个示例的流程图。图9是表示触感控制装置4的动作的一个示例的图,在显示器7上显示有操作图标9。此处,操作图标9是用于用户对显示器7的显示画面上显示的信息进行任意的利用触摸输入的操作(图标操作)的图标。
步骤S11中,显示信息生成输出部6按照控制部5的指示来生成显示信息,将所生成的显示信息转换成视频信号并输出到显示器7。在显示器7上显示图9所示那样的画面。
步骤S12中,触感控制部3按照控制部5的指示,将操作图标9的区域的触感控制信息设定为“粗糙”。
步骤S13中,触感控制部3将由步骤S12设定后的触感控制信息输出到触感触摸屏8。触感触摸屏8中,基于从触感控制部3输入的触感控制信息,控制成使得操作图标9的区域的触感成为“粗糙”。
在步骤S14中,控制部5基于操作检测部2的检测结果判断用户是否触摸了触感触摸屏8(有操作输入吗)。在用户操作触感触摸屏8之前进行待机,在用户触摸了触感触摸屏8的情况下,转移至步骤S15。
在步骤S15中,触感控制部3控制成改变操作图标9的区域的触感。
根据上述内容,操作图标9的区域的触感在用户触摸操作图标9的期间内变化。另外,关于本实施方式1中的利用触摸输入的图标操作,设为也包含如下操作方法:即,在用户轻轻触摸触感触摸屏8的操作面的情况下,能感觉到触感,以作为图标操作的预备操作,在用户用力按下操作面的情况下,接受图标操作。以下,对操作图标9的区域的触感的变化的具体示例进行说明。
例如,可使操作图标9的区域的触感随着时间的经过以“粗糙”、“光滑”的2阶段进行变化,也可使操作图标9的区域的触感随着时间的经过以“粗糙”、“动态粗糙”、“粗糙”的3阶段进行变化。此外,也可将各触感进行组合,以多阶段进行变化。
此外,如图10所示,操作图标9的区域的触感的强度也可随着时间的经过阶段性(不连续地)变大。另外,触感的强度也可连续地变大,触感的图案也可不连续地或连续地变化。如图11所示,也可使操作图标9的区域的触感的强度固定,且该触感的产生周期随着时间的经过而变短。即,操作图标9的区域的触感也可随着周期的变化而(或者也可为周期性)变化。如图12所示,也可使操作图标9的区域的触感的强度仅在上侧的(也可为下侧、右侧或左侧)区域变化。即,对于操作图标9内的多个区域,也可使各个区域的触感的变化不同。如图6所示,也可设操作图标9的区域的触感为“动态粗糙”。通过进行这种动作,用户可容易地掌握操作了操作图标9这一情况。特别在图12中,使操作图标9的区域中的一部分的触感变化,因此,可有利于节能。另外,图12中,触感的强度不仅可进行2阶段的触感的变化,也可以多阶段、或以正弦波的方式连续变化。由此,触感控制部3基于预定的触感变化规则,控制触感,以产生固定型触感变化或移动型触感变化,上述固定型触感变化是触感的强度、触感的图案在同一区域内变化的触感变化,上述移动型触感变化是产生触感的位置随着时间的经过而变化的触感变化。
此外,如图13所示,也可使操作图标9的区域的触感的强度固定,且使操作图标9的区域中赋予触感的区域的形状随着时间的经过而变化。如图14所示,也可使操作图标9的区域的触感变化,且使操作图标9的区域中赋予触感的区域的形状随着时间的经过而变化。如图15所示,也可使操作图标9的区域的触感变化,且使操作图标9的区域中赋予触感的区域的形状随着时间的经过而旋转。通过进行这种动作,用户可容易地掌握操作了操作图标9这一情况。另外,图13~15中,也可与操作图标9的区域中赋予触感的区域的形状的变化相配合地使显示器7上所显示的操作图标9的形状变化。此外,可利用上述任意方法使操作图标9的区域的触感变化。
此外,在操作图标9为接受模式的切换操作的图标的情况下,也可根据模式来改变操作图标9的区域的触感。例如,在切换模式A和模式B的情况下,使从模式A切换到模式B时的操作图标9的区域的触感的变化、与从模式B切换到模式A时的操作图标9的区域的触感的变化不同。由此,用户可容易地掌握切换到了哪种模式。另外,作为接受模式的切换操作的图标,可举出用于在例如显示器7显示地图的情况下,切换北方朝上地图显示和前方朝上地图显示的图标。此外,可利用上述任意方法使操作图标9的区域的触感变化。此外,模式的切换并不限于显示内容或显示方法的切换,还包含接受的操作的类别变更、或与包含触感控制装置4的***相连接的设备的动作模式的变更等。
此外,如图16所示,也可使操作图标9的区域的触感变化,并使显示于显示器7的操作图标9的显示形态变化。此处,显示图标9的显示形态包含操作图标9的形状及颜色。例如,在以拨动开关的形状显示操作图标9的情况下,可以以明白拨动开关的操作的方式使操作图标9的形状变化,并使操作图标9的区域的触感变化。此时,可利用上述任意方法使操作图标9的区域的触感变化。由此,用户可容易地掌握操作了操作图标9这一情况。
接下来,说明判断用户对触感触摸屏8进行了操作的方法。
例如,如图17所示,在使操作图标9的区域的触感的强度随着时间的经过而阶段性(或也可为连续性)变大的情况下,在触感的大小超过预定的阈值时(时间t=T1时),可以判断为用户对触感触摸屏8进行了操作(操作有效)。由此,能防止误操作,并可靠地接受用户所希望的操作。
此外,如图18所示,在使操作图标9的区域的触感的强度固定、且使该触感的产生周期随着时间的经过而变短的情况下,在周期比预定的阈值短时(时间t=T2时),可以判断为用户对触感触摸屏8进行了操作(操作有效)。由此,能防止误操作,并可靠地接受用户所希望的操作。
此外,在仅对操作图标9轻轻(未达到预定的按压)触摸(作为预定的第1操作的图标预备操作)时,不判断为进行了操作,在以按压操作图标9的方式(预定的按压以上)进行触摸(作为预定的第2操作的图标操作)时,判断为进行了操作。此时,可使操作图标9的区域的触感在以按压的方式进行触摸时变化(使第2触感变化),也可使操作图标9的区域的触感在从轻轻触摸时至以按压的方式进行触摸时为止的期间内变化(使第1触感变化),或者也可采用这些方式的组合。另外,可利用上述任意方法使操作图标9的区域的触感变化。由此,能防止误操作,并可靠地接受用户所希望的操作。
综上,根据本实施方式1,根据用户的操作的接受来使触感变化,因此,用户在操作时无需将视线集中在显示画面上。即,对用户而言,可进行使用方便的操作。
另外,也可在智能手机中实现实施方式1中说明的上述功能。此时,在智能手机的情况下,假设用户一边走路一边进行操作,因此,获得防止此时对周围的注意力下降的效果。
<实施方式2>
首先,对本发明实施方式2所涉及的触感控制装置的结构进行说明。
图19是表示本实施方式2所涉及的触感控制装置10的结构的一个示例的框图。
如图19所示,触感控制装置10包括外部设备信息获取控制部11、车辆信息获取部12、地图信息获取部13。此外,外部设备信息获取控制部11分别与音响14及空调15连接,地图信息获取部13与地图DB(database:数据库)16连接。由于其它结构与实施方式1(参照图7)相同,因此这里省略说明。
外部设备信息获取控制部11获取作为用户的操作对象的外部设备(音响14、空调15)的相关信息以作为外部设备信息(操作对象设备信息)。即,外部设备信息获取控制部11具有作为操作对象设备信息获取部的功能。此外,外部设备信息获取控制部11对外部设备(音响14、空调15)进行控制。
车辆信息获取部12经由车内LAN(Local Area Network:局域网)获取由设置于车辆内的各种传感器检测出的传感器信息(车速脉冲信息等)、车辆的控制信息、或GPS(Global Positioning System:全球定位***)信息等,以作为车辆信息。
地图信息获取部13从地图DB16获取地图信息。
地图DB16存储有地图信息。另外,地图DB16可设置于车辆,也可设置于外部。
接着,对触感控制装置10的动作进行说明。
图20是表示触感控制装置10的动作的一个示例的流程图。另外,图20的步骤S22、步骤S24~步骤S26与图8的步骤S11、步骤S13~步骤S15对应,因此这里省略说明。
步骤S21中,外部设备信息获取控制部11从外部设备(音响14、空调15)获取外部设备信息。获取到的外部设备信息被输出到控制部5。
步骤S23中,触感控制部3按照控制部5的指示,设定操作图标9的区域的触感控制信息。具体而言,触感控制部3基于由外部设备信息获取控制部11获取到的外部设备信息,设定触感控制信息,以使得每一外部设备或该外部设备的每一功能具有不同的触感。
接着,利用图21来说明触感控制装置10的具体动作例。
图21中,在显示器7的显示画面上显示有导航操作图标17及空调操作图标18。此外,触感触摸屏8中,导航操作图标17的区域的触感为“粗糙”,空调操作图标18的区域的触感为“半粗糙”,导航操作图标17及空调操作图标18以外的区域的触感为“光滑”。
在用户进行与导航相关的操作(例如用于进行从当前位置到目的地为止的路径搜索等的操作)的情况下,通过触摸导航操作图标17来进行操作。例如,若用户触摸导航操作图标17,则控制部5基于由车辆信息获取部12获取到的车辆信息、和由地图信息获取部13获取到的地图信息,进行路径搜索等与导航相关的处理。另外,设控制部5具有导航功能。
此外,在用户进行与空调15相关的操作(例如温度调整的操作)的情况下,通过触摸空调操作图标18来进行操作。例如,若用户触摸空调操作图标18,则控制部5向外部设备信息获取控制部11发出指示,以控制空调15。外部设备信息获取控制部11按照控制部5的指示来控制空调15。
根据上述内容,导航操作图标17和空调操作图标18的触感不同。在此状态下,若用户触摸导航操作图标17或空调操作图标18,则导航操作图标17或空调操作图标18的区域的触感发生变化而分别不同。例如,若触摸导航操作图标17,则触感按照“粗糙”、“动态粗糙”、“粗糙”的顺序变化,若触摸空调操作图标18,则触感按照“半粗糙”、“粗糙”、“半粗糙”的顺序变化。此时,也可对每一外部设备改变各触感变化所需的时间。由此,通过按照外部设备的每一类别使图标的触感的变化不同,从而用户可容易地掌握正在进行哪个设备的操作。
另外,图21中,对按照外部设备的每一类别使图标的触感的变化不同的情况进行了说明,但并不限于此,也可按照外部设备的每一功能使触感的变化不同。例如,在图21显示AV(Audio Visual:视听)画面,且显示有音量调整图标及换台图标的情况下,也可在音量调整图标的区域和选台图标的区域使触感的变化不同。由此,用户可容易地掌握正在进行哪种功能的操作。
此外,在显示器7的显示画面上所显示的图标的形状按照每一功能不同的情况下,也可按照每一该图标使触感的变化不同。例如,如图22所示,在显示器7的显示画面上显示AV画面,且显示有选台图标19及音量调整图标20的情况下,也可在选台图标19的区域和音量调整图标20的区域使触感的变化不同。此处,选台图标19为将按压按钮图像化后的形状,音量调整图标20为将表盘图像化后的形状。由此,用户可容易地掌握正在操作哪个种类的图标。
此外,触摸操作所引起的图标的触感的变化可如图13那样使大小改变,表盘等进行旋转操作的图标或进行旋转动作的图标的触感的变化可进行图15那样的旋转变化。通过这样改变触感,能以触感来呈现物理性的按压开关、点动开关或旋转开关等,因此,可进行使用方便的操作。
综上,根据本实施方式2,按照每一外部设备(作为操作对象的设备类别)、或外部设备的每一功能(作为操作对象的设备的功能类别)使图标的区域的触感不同,因此,用户可选择操作想要的图标。即,对用户而言,可进行使用方便的操作。
<实施方式3>
本发明实施方式3中,对触感触摸屏8延伸设置到显示器7的显示画面(显示区域)以外的区域(非显示区域)的情况(即,触感触摸屏8的操作面平面地设置成包含有显示信息的显示区域和该显示区域以外的非显示区域的情况)进行说明。本实施方式3所涉及的触感控制装置的结构与实施方式2所涉及的触感控制装置10(参照图19)相同,因此这里省略说明。
图23是表示本实施方式3所涉及的触感控制装置的动作的一个示例的图。
图23中,显示器7的显示画面对应于显示区域,触感触摸屏8的区域对应于将显示区域和非显示区域组合后的区域。显示器7的显示画面上显示有地图上的本车位置、用于进行各种操作的操作图标21(“CD重放”、“CD停止”、“周边检索”、“路径变更”)。此外,触感触摸屏8中,显示于显示区域的操作图标21的区域的触感为“半粗糙”,非显示区域中的操作图标22的区域的触感为“粗糙”。此外,在用户操作时,触感的变化在操作图标21的区域和操作图标22的区域不同。此时,操作图标21的区域及操作图标22的区域中各自的触感可利用实施方式1中说明的任意方法来改变。
另外,作为操作图标22,例如可列举出用于操作空调15的功能的按钮、用于操作AV的功能的按钮、用于操作导航的功能的按钮等。此外,操作图标22也可为在物理上凸起的形状。
综上,根据本实施方式3,在触感触摸屏8的操作面中的与显示区域对应的区域、和与非显示区域对应的区域使触感的变化不同,因此,用户可选择操作想要的图标。即,对用户而言,可进行使用方便的操作。
<实施方式4>
本发明实施方式4中,其特征在于,触感控制部3在用户进行了误操作的情况下赋予预定的触感。本实施方式4所涉及的触感控制装置的结构与实施方式2所涉及的触感控制装置10(参照图19)相同,因此这里省略说明。
图24是表示本实施方式4所涉及的触感控制装置的动作的一个示例的图。另外,图24示出车辆行驶中的显示及触感。
在显示器7的显示画面上显示有行驶操作限制图标23及行驶操作非限制图标24。此外,触感触摸屏8中,行驶操作限制图标23的区域的触感为“光滑”,行驶操作非限制图标24的区域的触感为“粗糙”,行驶操作限制图标23及行驶操作非限制图标24以外的区域的触感为“光滑”。
具体而言,在车辆处于行驶中的情况下,行驶操作限制图标23的操作处于无效状态,因此,其触感变成“光滑”。另一方面,行驶操作非限制图标24的操作始终处于有效状态,而与车辆的行驶状态无关,因此,其触感变成“粗糙”。另外,行驶操作限制图标23也可在车辆处于行驶中的情况下,操作处于无效状态,而在车辆处于停车中的情况下,操作处于有效状态。此处,作为行驶操作限制图标23,可举出导航画面中的各种操作图标等。在此情况下,设控制部5具有导航功能。此外,作为行驶操作非限制图标24,可举出音响14的音量调整图标、空调15的温度调整图标等。
在图24的左图的状态下,若用户触摸以操作行驶操作限制图标23(图中上侧的行驶操作限制图标23),则如图24的右图所示,触摸了的行驶操作限制图标23的区域的触感变成“动态粗糙”。即,若用户触摸不接受操作的区域,则该触摸了的区域的触感改变。
图25是表示本实施方式4所涉及的触感控制装置的动作的另一个示例的图。另外,图25示出车辆行驶中的显示及触感。
在显示器7的显示画面上显示有操作图标25。此外,触感触摸屏8中,操作图标25的区域的触感为“粗糙”,操作图标25以外的区域的触感为“半粗糙”。另外,图25的左图中由所示的虚线所包围的区域表示手势输入区域26。此处,手势输入区域是指显示器7的显示画面内用户可通过手势操作进行输入的区域。此外,操作图标25也可与图24的行驶操作非限制图标24相同。
具体而言,在车辆处于行驶中的情况下,手势输入区域26的操作处于无效状态,因此,其触感变成“半粗糙”。另一方面,操作图标25的操作始终处于有效状态,而与车辆的行驶状态无关,因此,其触感变成“粗糙”。另外,手势输入区域26也可在车辆处于行驶中的情况下,操作处于无效状态,而在车辆处于停车中的情况下,操作处于有效状态。
在图25的左图的状态下,若用户触摸以对手势输入区域26进行手势操作,则如图25的右图所示,触摸了的手势输入区域26的触感变成“动态粗糙”。即,若用户进行被限制的操作,则该操作了的区域的触感改变。
综上,在触摸了不接受操作的图标或区域(对于不接受操作的区域的操作、或由预定条件限制的操作)时,改变该触摸了的区域的触感,从而用户可掌握进行了误操作这一情况。
另外,在上述内容中,也可与车辆处于行驶中或停车中无关,在用户触摸了不接受操作的区域时,改变该触摸了的区域的触感。此外,在改变触感时,也可使赋予了触感的区域的形状变形(例如参照图13~15)。
综上,根据本实施方式4,在进行了误操作的情况下改变触感,因此,用户可容易地掌握进行了误操作这一情况。即,对用户而言,可进行使用方便的操作。
<实施方式5>
本发明实施方式5中,其特征在于,触感控制部3控制成使得触感的位置跟踪用户的手势操作的动作而变化。本实施方式5的所涉及触感控制装置的结构与实施方式1所涉及的触感控制装置4(参照图7)或实施方式2所涉及的触感控制装置10(参照图19)相同,因此这里省略说明。
图26是表示本实施方式5所涉及的触感控制装置的动作的一个示例的图。
在显示器7的显示画面上显示有任意项目27,在画面右端显示有滚动操作图标28。此外,触感触摸屏8中,滚动操作图标28的区域的触感为“粗糙”。
图26中,用户通过沿画面上下方向对滚动操作图标28进行滑动操作,从而可选择各项目27中的一个项目27。此处,滑动操作是指用户在触摸触感触摸屏8的操作面的状态下滑动的操作,是包含于手势操作的概念。
例如,图26的上图表示用户触摸以对滚动操作图标28进行滑动操作的状态。此时,选择画面的最上方的项目27,滚动操作图标28的区域的触感为“粗糙”。接下来,如图26的下图所示,若用户将滚动操作图标28向画面下侧进行滑动操作,则跟踪该滑动操作,从画面的上方选择第三个项目27。此外,跟踪滑动操作,滚动操作图标28的区域的触感的位置变化(移动)。
图27~31是表示本实施方式5所涉及的触感控制装置的动作的另一个示例的图。另外,图29~31所示的虚线圆形标记表示用户最初触摸的位置。
如图27所示,用户触摸触感触摸屏8的操作面之前,在触感触摸屏8的操作面中,触感为“光滑”。如图28所示,若用户进行触摸,则触摸位置的区域的触感为“粗糙”。接着,如图29所示,若用户进行手势操作,则跟踪该手势操作的动作,触感的位置变化(移动)。此时的触感为“动态粗糙”。接着,如图30所示,若用户停止手势操作,则触感为“粗糙”。接着,如图31所示,若用户停止触摸,则触感为“光滑”(此时,用户不会获得“光滑”的触感)。另外,图27~31中,触感控制部3也可控制成使得触感根据手势操作的动作的速度来变化。由此,触感控制部3控制成使得手势操作开始时或结束时的触感、与手势操作中的触感不同。因此,用户能容易地识别出正在正确地进行手势操作这一情况。
上述的图27~31所示的动作例如可适用于显示器7的显示画面上所显示的操作图标(显示物)的配置变更时。
图32~34是表示本实施方式5所涉及的触感控制装置的动作的另一个示例的图。另外,将按照图32、33、34的顺序进行的手势操作特别称为捏合放大(pinching-out)操作,将按照图34、33、32的顺序进行的手势操作特别称为捏合缩小(pinching-in)操作。下面,作为一个示例,说明捏合放大操作。
如图32所示,若用户触摸操作面的2点,则该2点包含于端部的预定区域(此处为圆形的区域)的触感为“粗糙”。接下来,如图33、34所示,若用户朝2点的距离分开的方向对该2点分别进行滑动操作,则跟踪该滑动操作,图32所示的区域扩大。此时的触感为“粗糙”。
如图32~34所示,用户在进行捏合放大操作或捏合缩小操作的情况下,操作中的触感为“粗糙”。另一方面,在进行如图27~31所示的操作(例如拖动操作)的情况下,操作中的触感为“动态粗糙”。即,触感控制部3控制成根据手势操作的类别使手势操作中的触感不同。由此,用户可容易地识别正在接受哪种手势操作。
另外,图26~34中,也可将各触感(“光滑”、“半粗糙”、“粗糙”、“动态粗糙”)适当组合使用。此外,在图32~34的捏合放大操作或捏合缩小操作中,也可使捏合的边界线的区域的触感变化。
综上,根据本实施方式5,使触感的位置跟踪手势操作的动作而变化(移动),因此,用户可容易地识别出正在正确地进行手势操作这一情况。此外,根据手势操作的类别使手势操作中的触感不同,因此,用户可容易地识别出正在接受哪种手势操作。
<实施方式6>
本发明实施方式6中,其特征在于,触感控制部3控制成使得操作面中的至少进行手势操作的区域的触感与手势操作的动作对应地变化。本实施方式6所涉及的触感控制装置的结构与实施方式1所涉及的触感控制装置4(参照图7)或实施方式2所涉及的触感控制装置10(参照图19)相同,因此这里省略说明。
图35~38是表示本实施方式6所涉及的触感控制装置的动作的一个示例的图。另外,图35~38所示的虚线圆形标记表示用户触摸的位置。
如图35、36所示,沿用户进行手势操作(例如滚动操作)的方向,将“粗糙”的触感和“光滑”的触感以交替的方式赋予触感触摸屏8的整个操作面。这样赋予整个操作面的“粗糙”的触感的区域和“光滑”的触感的区域在用户进行手势操作时,朝与该手势操作的方向相反的方向移动。另外,此处,虽然使“粗糙”的触感的位置和“光滑”的触感的位置移动,但也可使其不移动。这是因为,由于手指拖动移动,因此可交替获得“粗糙”的触感和“光滑”的触感。
如图37、38所示,沿用户进行手势操作(例如滚动操作)的方向,将“粗糙”的触感和“光滑”的触感以交替的方式赋予触感触摸屏8的操作面的一部分。这样赋予整个操作面的“粗糙”的触感的区域和“光滑”的触感的区域在用户进行手势操作时,朝与该手势操作的方向相反的方向移动。
图35~38中,在用户停止手势操作时(此时,处于用户触摸后的状态),也可使赋予操作面的各触感的区域暂时移动。由此,用户在手势操作结束时可感受到该手势操作的惯性。
图35~38中,赋予操作面的各触感的区域在手势操作时也可不移动。此外,赋予操作面的各触感的区域移动的方向也可为与手势操作的方向相同的方向。在此情况下,优选为赋予操作面的各触感的区域的动作的速度快于手势操作的动作的速度。
另外,图35~38中,也可将各触感(“光滑”、“半粗糙”、“粗糙”、“动态粗糙”)适当组合使用。
上述内容中,以利用“光滑”及“粗糙”的触感的情况为一个示例进行了说明,但并不限于此。例如,也可将“半粗糙”或“动态粗糙”适当组合使用。
综上,根据本实施方式6,使操作面中的至少进行手势操作的区域的触感与手势操作的动作对应地变化,因此,用户可容易地识别出正在正确地进行手势操作这一情况。
<实施方式7>
本发明实施方式7中,其特征在于,触感控制部3控制成使得触感的区域跟踪用户的手势操作的动作而变化。本实施方式7所涉及的触感控制装置的结构与实施方式1所涉及的触感控制装置4(参照图7)或实施方式2所涉及的触感控制装置10(参照图19)相同,因此这里省略说明。
图39~43是表示本实施方式7所涉及的触感控制装置的动作的一个示例的图。
在显示器7的显示画面上显示有显示区域29及显示区域30。此外,触感触摸屏8中,显示区域29的触感为“半粗糙”,显示区域30的触感为“光滑”。
如图39~42所示,若用户触摸显示区域29并朝着附图的右边方向进行滑动操作,则显示区域29跟踪该滑动操作的动作而变宽,显示区域30变窄。此时,显示区域29中的触感的区域也与显示区域29一体而变宽,显示区域30中的触感的区域也与显示区域30一体而变窄。接着,如图43所示,若用户停止触摸,则显示区域29及显示区域30各自的大小确定。
图44~48是表示本实施方式7所涉及的触感控制装置的动作的另一个示例的图。
在显示器的显示面上显示有显示区域31。此外,触感触摸屏8中,显示区域31的触感为“粗糙”。
如图44~47所示,若用户为了扩大显示区域31而进行捏合放大操作,则显示区域31跟踪该捏合放大操作的动作而变宽。此时,显示区域31中的触感的区域也与显示区域31一体而变宽。接着,如图48所示,若用户停止触摸,则显示区域31的大小确定。
另外,图39~48中,也可将各触感(“光滑”、“半粗糙”、“粗糙”、“动态粗糙”)适当组合使用。
综上,根据本实施方式7,使触感的区域跟踪手势操作的动作而变化,因此,用户可容易地识别出正在正确地进行手势操作这一情况。
如上所说明的触感控制装置不仅能够适用于车载用导航装置、即车载导航装置,也能适用于将能搭载于车辆的PND(Portable Navigation Device:便携式导航装置)、移动通信终端(例如移动电话、智能手机以及平板电脑终端等)、以及服务器等适当组合而构成为***的导航装置或导航装置以外的装置中。在此情况下,触感控制装置的各功能或各结构要素分散配置于构成上述***的各功能。
具体而言,作为一个示例,可将触感控制装置的功能配置于服务器。例如,如图49所示,可在用户侧包括显示装置33及触感触摸屏34,在服务器32至少包括操作检测部2及触感控制部3,从而构建触感控制***。另外,操作检测部2及触感控制部3的功能与图1的操作检测部2及触感控制部3的功能相同。此外,服务器32根据需要,也可包括图7、19所示的各结构要素。此时,服务器32所包括的各结构要素也可适当地分散配置于服务器32及显示装置33。
此外,作为另一个示例,可将触感控制装置的功能配置于服务器及移动通信终端。例如,如图50所示,可在用户侧包括显示装置33及触感触摸屏34,在服务器35至少包括操作检测部2,在移动通信终端36至少包括触感控制部3,从而构建触感控制***。另外,操作检测部2及触感控制部3的功能与图1的操作检测部2及触感控制部3的功能相同。此外,服务器35及移动通信终端36根据需要,也可包括图7、19所示的各结构要素。此时,服务器35及移动通信终端36所包括的各结构要素也可适当地分散配置于显示装置33、服务器35及移动通信终端36。
即使在采用上述结构的情况下,也可获得与上述实施方式相同的效果。
此外,也可将执行上述实施方式中的动作的软件(触感控制方法)嵌入到例如服务器、移动通信终端。
具体而言,作为一个示例,上述触感控制方法控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其检测用户对操作面的操作,控制操作面的触感,以使得接受了检测到的用户的操作的区域的触感或跟踪用户的操作的动作的区域的触感随着时间的经过而变化。
根据上述内容,通过将执行上述实施方式中的动作的软件嵌入到服务器、移动通信终端来进行动作,从而可获得与上述实施方式相同的效果。
另外,在图1、7、19、49、50中,操作检测部2、触感控制部3、控制部5、显示信息生成输出部6、外部设备信息获取控制部11、车辆信息获取部12及地图信息获取部13各自通过执行基于软件的利用了CPU(Central Processing Unit:中央处理器)的程序处理来实现。另外,若可能,操作检测部2、触感控制部3、控制部5、显示信息生成输出部6、外部设备信息获取控制部11、车辆信息获取部12及地图信息获取部13各自也可作为硬件来构成(例如,构成为对电信号进行特定运算或处理的运算/处理电路等)。此外,也可将上述两者混合。
实施方式1~7中,对显示器7和触感触摸屏8为一体的情况(在显示器7的显示画面上设置有触感触摸屏8的情况)进行了说明,但并不限于此。例如,也可采用将显示器7设置于车辆的仪表板部的仪表板,并将触感触摸屏8设置于与仪表板不同的部位的触感触摸板。即使采用这种结构,用户也可在不察看触感触摸板的情况下对设置于仪表板的显示器7上所显示的图标等进行操作。即,对用户而言,可进行使用方便的操作。另外,设置于仪表板的显示器7可将仪表板的部分区域或全部区域作为显示器7的显示区域。此外,触感触摸板中的产生触感的区域的大小和显示器7中的显示区域的大小可以相同,也可为相似关系,也可没有相似关系。
此外,本发明可以在该发明的范围内对各实施方式自由地进行组合,或对各实施方式进行适当的变形、省略。
虽然对本发明进行了详细的说明,但上述的说明在所有的方式中均为例示,本发明并不限于此。应该认为在不脱离本发明范围的情况下未例示出的无数个变形例是能想到的。
标号说明
1 触感控制装置、2 操作检测部、3 触感控制部、4 触感控制装置、5 控制部、6 显示信息生成输出部、7 显示器、8 触感触摸屏、9操作图标、10 触感控制装置、11 外部设备信息获取控制部、12 车辆信息获取部、13 地图信息获取部、14 音响、15 空调、16 地图DB、17 导航操作图标、18 空调操作图标、19 选台图标、20 音量调整图标、21,22 操作图标、23行驶操作限制图标、24 行驶操作非限制图标、25 操作图标、26 手势输入区域、27 项目、28滚动操作图标、29,30,31 显示区域、32 服务器、33 显示装置、34 触感触摸屏、35 服务器、36 移动通信终端。

Claims (20)

1.一种触感控制***,其控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其特征在于,包括:
操作检测部,该操作检测部检测所述用户对所述操作面的操作;及
触感控制部,该触感控制部控制所述操作面的所述触感,使得接受由所述操作检测部检测出的所述用户的操作后的区域的触感或跟踪所述用户的操作的动作的区域的触感随着时间的经过而变化。
2.如权利要求1所述的触感控制***,其特征在于,
所述触感控制部基于预定的触感变化规则,控制所述触感,以产生固定型触感变化或移动型触感变化,所述固定型触感变化是所述触感的强度、所述触感的图案在同一区域内变化的触感变化,所述移动型触感变化是产生所述触感的位置随着时间的经过而变化的触感变化。
3.如权利要求2所述的触感控制***,其特征在于,
所述触感控制部控制成使得所述触感的强度或所述触感的图案不连续或连续地变化。
4.如权利要求1所述的触感控制***,其特征在于,
在接受所述操作的操作图标在所述操作面上对应显示的情况下,
所述触感控制部进行控制,使得所述触感的变化根据与所述操作图标的操作对应的功能类别或作为操作对象的设备类别而不同。
5.如权利要求4所述的触感控制***,其特征在于,
所述触感控制部控制成使得对于所述操作图标内的多个区域,每一区域的所述触感的变化不同。
6.如权利要求4所述的触感控制***,其特征在于,
所述触感控制部控制成使得赋予所述触感的区域的形状随着时间的经过而变化。
7.如权利要求4所述的触感控制***,其特征在于,
所述操作图标根据利用所述触感控制部产生的与所述操作图标对应的区域的触感的变化,使显示形态变化。
8.如权利要求1所述的触感控制***,其特征在于,
在接受所述操作的操作图标在所述操作面上对应显示的情况下,
所述触感控制部控制所述触感,以使得在所述操作检测部检测出作为预定的第1操作的图标预备操作的情况下,产生第1触感,在所述操作检测部检测出作为预定的第2操作的图标操作的情况下,产生第2触感,
在所述触感检测部检测出所述第2操作的情况下,判断为所述操作有效。
9.如权利要求8所述的触感控制***,其特征在于,
所述第1操作为所述用户以未达到预定的按压的方式触摸所述操作面的操作,
所述第2操作为所述用户以预定的按压以上的方式触摸所述操作面的操作、或开始所述第1操作之后经过了预定的时间时的操作。
10.如权利要求9所述的触感控制***,其特征在于,
所述触感控制部控制成使得在进行所述第1操作的期间,所述第1触感随着时间的经过而变化。
11.如权利要求1所述的触感控制***,其特征在于,
所述操作为手势操作,
所述触感控制部进行控制,使得所述手势操作开始时或结束时的所述触感与所述手势操作中的所述触感不同。
12.如权利要求1所述的触感控制***,其特征在于,
所述操作为手势操作,
所述触感控制部进行控制,使得所述手势操作中的所述触感根据所述手势操作的类别或所述手势操作的动作的速度而不同。
13.如权利要求1所述的触感控制***,其特征在于,
所述操作为手势操作,
所述触感控制部进行控制,使得所述操作面中至少进行所述手势操作的区域的所述触感根据所述手势操作的动作而变化。
14.如权利要求13所述的触感控制***,其特征在于,
所述触感控制部进行控制,使得在所述手势操作结束时,进行所述手势操作的区域的所述触感的位置移动。
15.如权利要求1所述的触感控制***,其特征在于,
所述操作为手势操作,
所述触感控制部进行控制,使得所述触感的位置跟踪所述手势操作的动作而变化。
16.如权利要求1所述的触感控制***,其特征在于,
所述操作为手势操作,
所述触感控制部进行控制,使得所述触感的区域跟踪所述手势操作的动作而变化。
17.如权利要求1所述的触感控制***,其特征在于,
所述触感控制部在所述用户错误进行了所述操作的情况下,控制成具有预定的所述触感。
18.如权利要求17所述的触感控制***,其特征在于,
所述操作的错误为对不接受操作的区域进行所述操作、或进行由预定的条件限制的操作。
19.如权利要求1所述的触感控制***,其特征在于,
所述触摸屏的所述操作面平面地设置成包含有显示信息的显示区域、和该显示区域以外的非显示区域,
所述触感控制部进行控制,使得所述触感的变化在所述操作面中的与所述显示区域对应的区域、和与所述非显示区域对应的区域不同。
20.一种触感控制方法,其控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其特征在于,
检测所述用户对所述操作面的操作,
控制所述操作面的所述触感,使得接受检测出的所述用户的所述操作后的区域的触感或跟踪所述用户的操作的动作的区域的触感随着时间的经过而变化。
CN201480081806.6A 2014-09-09 2014-09-09 触感控制***及触感控制方法 Pending CN107077281A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/073770 WO2016038677A1 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法

Publications (1)

Publication Number Publication Date
CN107077281A true CN107077281A (zh) 2017-08-18

Family

ID=55458470

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480081806.6A Pending CN107077281A (zh) 2014-09-09 2014-09-09 触感控制***及触感控制方法

Country Status (5)

Country Link
US (1) US20170115734A1 (zh)
JP (1) JP6258513B2 (zh)
CN (1) CN107077281A (zh)
DE (1) DE112014006935T5 (zh)
WO (1) WO2016038677A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110244845A (zh) * 2019-06-11 2019-09-17 Oppo广东移动通信有限公司 触觉反馈方法、装置、电子设备及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK201670728A1 (en) * 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
KR102591807B1 (ko) * 2016-11-21 2023-10-23 한국전자통신연구원 촉감자극을 생성하는 방법 및 장치
CN111444494B (zh) 2020-03-26 2022-07-08 维沃移动通信有限公司 一种验证方法、电子设备和计算机可读存储介质
WO2022054382A1 (ja) * 2020-09-11 2022-03-17 菱洋エレクトロ株式会社 電子機器及び電子機器の制御方法
USD1029259S1 (en) 2021-08-31 2024-05-28 New Wave Endo-Surgical Corp. Portion of a medical device
USD1002009S1 (en) 2021-08-31 2023-10-17 New Wave Endo-Surgical Corp. Medical device

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113969A (ja) * 1996-10-09 1998-05-06 Nissei Plastics Ind Co 射出成形機の入力装置
CN1228194A (zh) * 1996-08-23 1999-09-08 艾利森电话股份有限公司 触感屏幕
CN1602498A (zh) * 2001-12-12 2005-03-30 皇家飞利浦电子股份有限公司 具有触觉导引的显示***
US20110080369A1 (en) * 2009-10-05 2011-04-07 Wistron Corp. Touch panel electrical device and method for operating thereof
US20120075221A1 (en) * 2010-09-27 2012-03-29 Stanley Electric Co., Ltd. Touchscreen panel input device manufacturing method, piezoelectric element and touchscreen panel input device
US20120113008A1 (en) * 2010-11-08 2012-05-10 Ville Makinen On-screen keyboard with haptic effects
CN102541177A (zh) * 2010-11-19 2012-07-04 捷讯研究有限公司 包括柔性显示器的便携式电子设备
CN102741789A (zh) * 2010-01-27 2012-10-17 京瓷株式会社 触感提供装置和用于提供触感的方法
CN102763057A (zh) * 2010-03-15 2012-10-31 日本电气株式会社 输入设备、方法和程序
CN103777743A (zh) * 2012-10-23 2014-05-07 联想(北京)有限公司 一种信息处理的方法及电子设备
JP2014512619A (ja) * 2011-04-22 2014-05-22 イマージョン コーポレーション 電気振動型タクタイル・ディスプレイ
US20140139450A1 (en) * 2012-11-20 2014-05-22 Immersion Corporation System and Method for Simulated Physical Interactions With Haptic Effects
CN103902200A (zh) * 2012-12-24 2014-07-02 联想(北京)有限公司 一种信息处理方法及电子设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3987182B2 (ja) * 1998-01-26 2007-10-03 Idec株式会社 情報表示装置および操作入力装置
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
JP2005258666A (ja) * 2004-03-10 2005-09-22 Sony Corp 入力装置および電子機器並びに電子機器の感触フィードバック入力方法
JP4896932B2 (ja) * 2008-06-26 2012-03-14 京セラ株式会社 入力装置
CN103999028B (zh) * 2011-05-23 2018-05-15 微软技术许可有限责任公司 不可见控件
WO2013183191A1 (ja) * 2012-06-05 2013-12-12 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置
WO2014002405A1 (ja) * 2012-06-29 2014-01-03 パナソニック株式会社 触感提示機能つきタッチパネル装置
JP6061528B2 (ja) * 2012-07-23 2017-01-18 キヤノン株式会社 操作装置、その制御方法及びプログラム並びに記録媒体
US9196134B2 (en) * 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
EP4006700A1 (en) * 2013-01-08 2022-06-01 BlackBerry Limited On-demand user control
US10359857B2 (en) * 2013-07-18 2019-07-23 Immersion Corporation Usable hidden controls with haptic feedback
JP5427331B1 (ja) * 2013-09-05 2014-02-26 株式会社ポケモン タイピング訓練システム、タイピング訓練方法、及びタイピング訓練プログラム
US9639158B2 (en) * 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1228194A (zh) * 1996-08-23 1999-09-08 艾利森电话股份有限公司 触感屏幕
JPH10113969A (ja) * 1996-10-09 1998-05-06 Nissei Plastics Ind Co 射出成形機の入力装置
CN1602498A (zh) * 2001-12-12 2005-03-30 皇家飞利浦电子股份有限公司 具有触觉导引的显示***
US20110080369A1 (en) * 2009-10-05 2011-04-07 Wistron Corp. Touch panel electrical device and method for operating thereof
CN102741789A (zh) * 2010-01-27 2012-10-17 京瓷株式会社 触感提供装置和用于提供触感的方法
CN102763057A (zh) * 2010-03-15 2012-10-31 日本电气株式会社 输入设备、方法和程序
US20120075221A1 (en) * 2010-09-27 2012-03-29 Stanley Electric Co., Ltd. Touchscreen panel input device manufacturing method, piezoelectric element and touchscreen panel input device
US20120113008A1 (en) * 2010-11-08 2012-05-10 Ville Makinen On-screen keyboard with haptic effects
CN102541177A (zh) * 2010-11-19 2012-07-04 捷讯研究有限公司 包括柔性显示器的便携式电子设备
JP2014512619A (ja) * 2011-04-22 2014-05-22 イマージョン コーポレーション 電気振動型タクタイル・ディスプレイ
CN103777743A (zh) * 2012-10-23 2014-05-07 联想(北京)有限公司 一种信息处理的方法及电子设备
US20140139450A1 (en) * 2012-11-20 2014-05-22 Immersion Corporation System and Method for Simulated Physical Interactions With Haptic Effects
CN103902200A (zh) * 2012-12-24 2014-07-02 联想(北京)有限公司 一种信息处理方法及电子设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110244845A (zh) * 2019-06-11 2019-09-17 Oppo广东移动通信有限公司 触觉反馈方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2016038677A1 (ja) 2016-03-17
JPWO2016038677A1 (ja) 2017-04-27
US20170115734A1 (en) 2017-04-27
DE112014006935T5 (de) 2017-06-22
JP6258513B2 (ja) 2018-01-10

Similar Documents

Publication Publication Date Title
CN107077281A (zh) 触感控制***及触感控制方法
CN106687905B (zh) 触感控制***及触感控制方法
CN106062514B (zh) 便携式装置与车辆头端单元之间的交互
US20140168110A1 (en) Tactile input and output device
US11132119B2 (en) User interface and method for adapting a view of a display unit
CN106233720A (zh) 图像处理装置、图像处理装置的控制方法、程序、显示装置
US20180081443A1 (en) Display control apparatus, display control system, and display control method
JP2018018205A (ja) 表示手段の画面上の位置を決定する入力システム、検知装置、制御装置、プログラム及び方法
JP2014170390A (ja) タッチパネル操作装置及びタッチパネル操作装置における操作イベント判定方法
US20190187797A1 (en) Display manipulation apparatus
US20200050348A1 (en) Touch-type input device and operation detection method
JP2015058918A (ja) タッチスイッチモジュール
US20140210739A1 (en) Operation receiver
JP6463457B2 (ja) 地図表示制御装置および地図スクロールの操作感触制御方法
JP2010061348A (ja) ボタン表示方法及びそれを用いたポータブル装置
US9898106B2 (en) Information processing system, information processing apparatus, and information processing method
JP2006221390A (ja) 画面スクロール制御装置およびナビゲーション装置
WO2015151154A1 (ja) 表示装置、表示方法および表示プログラム
JP6483379B2 (ja) 触感制御システムおよび触感制御方法
CN106687906A (zh) 触感控制***及触感控制方法
JP2015018523A (ja) 入力装置
US20230004285A1 (en) Control Value Setting Device and Control Value Setting Program
JP2019016285A (ja) 入力装置
JP2019036325A (ja) 表示装置、表示方法および表示プログラム
JP2022111235A (ja) 表示装置、表示方法および表示プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination