CN102365610A - 显示输入装置 - Google Patents

显示输入装置 Download PDF

Info

Publication number
CN102365610A
CN102365610A CN2010800157154A CN201080015715A CN102365610A CN 102365610 A CN102365610 A CN 102365610A CN 2010800157154 A CN2010800157154 A CN 2010800157154A CN 201080015715 A CN201080015715 A CN 201080015715A CN 102365610 A CN102365610 A CN 102365610A
Authority
CN
China
Prior art keywords
touch
screen
control part
input device
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010800157154A
Other languages
English (en)
Other versions
CN102365610B (zh
Inventor
下谷光生
松原勉
贞广崇
太田正子
冈野祐一
泉福刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN102365610A publication Critical patent/CN102365610A/zh
Application granted granted Critical
Publication of CN102365610B publication Critical patent/CN102365610B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

显示输入装置包括:进行图像的显示和输入的触摸屏(1);以非接触的方式检测出手指向所述触摸屏(1)的接近的接近传感器(12);以及控制部,该控制部当在所述触摸屏上预先确定点O、在所述触摸屏(1)的外部预先确定点C、设直线OC相对于所述触摸屏表面的仰角为φ、在所述触摸屏上张开的xy坐标平面上所述直线OC朝垂直方向投影的直线与所述xy坐标平面上的x轴所形成的偏差角为θ时,根据所述仰角φ、所述偏差角θ、及所述检测对象相对于所述触摸屏表面在垂直方向的距离z,对由所述接近传感器(12)获取的、所述检测对象在所述xy坐标平面上的水平方向的接近坐标进行修正。

Description

显示输入装置
技术领域
本发明特别涉及一种适用于导航***等车载信息设备的显示输入装置。
背景技术
触摸屏是由像液晶面板这样的显示装置、和像触控板这样的坐标位置输入装置组合而成的电子元器件,是仅通过用手指触摸液晶面板上显示的图标等图像区域,就能感知所触摸的图像的位置信息从而对设备进行操作的显示输入装置,多安装于车载导航***等主要需要直观地进行操作的设备。
为了提高包含上述触摸屏的人机装置的操作性和使用性,一直以来提出过很多技术方案的申请。
例如,已知有在手指靠近时将位于手指附近的按键开关进行放大显示从而使选择操作变得容易的显示输入装置(例如,参照专利文献1)、检测垂直方向的距离并在与该距离相对应的放大率下显示信息的CRT装置(例如,参照专利文献2)、以及检测触摸压力并以较轻的触摸来实现放大显示、以较重的触摸来实现规定的按键操作的输入装置(例如,参照专利文献3)等。
专利文献1:日本专利特开2006-31499号公报
专利文献2:日本专利特开平04-128877号公报
专利文献3:日本专利特开平10-171600号公报
发明内容
根据上述专利文献1所揭示的技术,由于在手指靠近时将手指位置附近的图标放大显示,因此,能防止误操作,易于进行选择操作。在图9中示出利用该技术进行地名检索的情况下的触摸屏上的显示画面的一个示例。此处,显示有50音设施检索用的软键盘,作为手指位置附近的图标,将“い”、“き”、“し”、“う”、“く”、“す”、“え”、“け”、“せ”的各软按键放大显示。
顺便说下,在触摸屏设置成相对于用户眼睛的位置位于正面且水平的情况下,若将手指靠近放大后的一定范围的显示区域按键(图标),则可观察到的图标位置和手指的位置一致,使用性好。
然而,在因设计的关系而将触摸屏倾斜设置的情况下,从触摸屏观察到的正上方(触摸屏的垂直方向)、与从用户观察到的图标的正上方(连接用户眼睛的位置和图标的方向)的位置不一致,因此,例如,如图9所示,用户想要触摸“せ”,实际上指尖却处于“く”的位置,从而产生使用性变差的问题。
此外,例如,像从驾驶座或副驾驶座对设置于中央控制台的中心的车载导航的触摸屏进行操作等情况那样,相对于触摸屏的正面方向从左右进行操作的情况也会产生相同的问题。
像专利文献1所揭示的那样,在将一定范围的显示区域的图像放大显示于手指的位置附近、或在手指位置附近显示光标而绘制时也会产生相同的问题,检测手指接近的距离越远,则坐标的偏差越大。此外,在上述专利文献2、专利文献3所揭示的技术中,也没有消除该问题。
本发明是为了解决上述问题而完成的,其目的在于,提供一种力图提高使用性而不依赖于触摸屏的操作环境的显示输入装置。
为了解决上述问题,本发明的显示输入装置包括:触摸屏,该触摸屏进行图像的显示和输入;接近传感器,该接近传感器以非接触的方式检测出检测对象向所述触摸屏的接近;以及控制部,该控制部当在所述触摸屏上预先确定点O、在所述触摸屏的外部预先确定点C、设直线OC相对于所述触摸屏表面的仰角为φ、在所述触摸屏上张开的xy坐标平面上所述直线OC朝垂直方向投影的直线与所述xy坐标平面上的x轴所形成的偏差角为θ时,根据所述仰角φ、所述偏差角θ、及所述检测对象相对于所述触摸屏表面在垂直方向的距离z,对由所述接近传感器获取的、所述检测对象在所述xy坐标平面上的水平方向的接近坐标进行修正。
根据本发明,能提供力图提高使用性而不依赖于触摸屏的操作环境的显示输入装置。
附图说明
图1是表示本发明的实施方式1所涉及的显示输入装置的内部结构的框图。
图2是将本发明的实施方式1所涉及的显示输入装置所具有的导航CPU的程序结构进行功能展开来表示的框图。
图3是表示本发明的实施方式1所涉及的显示输入装置所具有的绘制电路的内部结构的框图。
图4是表示本发明的实施方式1所涉及的显示输入装置的动作的流程图。
图5是表示本发明的实施方式1所涉及的显示输入装置的坐标位置修正的原理的示意图。
图6是表示由本发明的实施方式1所涉及的输入装置所显示的画面结构的一个示例的图。
图7是将本发明的实施方式3所涉及的显示输入装置所具有的导航CPU的程序结构进行功能展开来表示的框图。
图8是表示本发明的实施方式3所涉及的显示输入装置的动作的流程图。
图9是表示由以往的显示输入装置显示的画面结构的一个示例的图。
具体实施方式
下面,为了更详细地对本发明进行说明,根据附图,对用于实施本发明的方式进行说明。
实施方式1.
图1是表示本发明的实施方式1所涉及的显示输入装置的结构的框图。如图1所示,本发明的实施方式1所涉及的显示输入装置包括触摸屏式显示装置(以下简称为触摸屏)1、外部传感器2、控制部3、及车内监视照相机4。
由于触摸屏1是进行信息显示和输入的装置,因此,例如由在进行信息显示的LCD面板10上层叠进行信息输入的触摸传感器11而构成,而且,沿触摸传感器11的外周以单元为单位安装有多个接近传感器12,该接近传感器12以二维且非接触的方式对与触摸屏1相对的手指或笔等检测对象的动作进行检测。
接近传感器12是如下传感器:作为检测单元,例如在使用红外线的情况下,将红外线发光LED(Light Emitted Diode:发光二极管)、以及光敏晶体管呈格子状地相对配置于触摸传感器11的外周,利用因检测对象靠近而产生的遮挡或反射光,对该检测对象的接近进行检测,并对其坐标位置进行检测。
接近传感器12的检测单元并不限于上述红外线,也可以用电容型接近传感器来代替,该电容型接近传感器利用例如产生于检测对象与像电容器那样平行配置的两块平板之间的电容的变化,对该检测对象的接近进行检测。在此情况下,平板形成为,一侧是朝向检测对象的接地面,另一侧是传感器检测面,利用在这两极之间形成的电容的变化,能对检测对象的接近进行检测,并对其坐标位置进行检测。
另一方面,外部传感器2可以安装于车辆的任何位置,且至少包括GPS(Global Positioning System:全球定位***)传感器21、车速传感器22、以及加速度传感器23。
GPS传感器21接收来自GPS卫星的电波,生成用于控制部3对经度、纬度进行测度的信号,并将其输出至控制部3。车速传感器22对用于判断车辆是否正在行驶的车速脉冲进行测量,并将其输出至控制部3。加速度传感器23例如是对安装在弹簧上的重物的位移量进行测量、并对重物的加速度进行推测的传感器,对于三轴加速度传感器的情况,例如,随着从0(只有重力加速度)到数百Hz的加速度变动,根据X、Y方向的加速度矢量的总和来测定相对于地面的朝向(姿势),并将其输出至控制部3。
控制部3除了具有用于执行路径检索和目的地引导等导航功能的基本处理功能之外,还具有如下功能:根据触摸屏1与面对屏幕表面的手指在垂直方向的距离,对由接近传感器12获取的、手指在触摸屏1上的水平方向的接近坐标进行修正,将在触摸屏1上显示的一定范围的显示区域中的图像进行放大处理并显示于手指位置附近。
因此,控制部3包括以导航处理为主并对触摸屏1进行控制的CPU(以下称为导航CPU30)、绘制电路31、存储器32、以及地图DB(Data Base:数据库)33。
由用户来选择在触摸屏1上显示的路径检索等导航菜单,从而导航CPU30根据该菜单来进行导航处理。在进行导航处理时,导航CPU30参照地图DB33所存储的地图信息,基于从外部传感器2获取的各种传感器信号,进行路径检索、或目的地引导等导航。
此外,导航CPU30根据存储器32所存储的程序,生成图像信息并对绘制电路31进行控制,从而实现如下功能:根据触摸屏1与面对屏幕表面的手指在垂直方向的距离,对由接近传感器12获取的、手指在触摸屏1上的水平方向的接近坐标进行修正,将在触摸屏1上显示的一定范围的显示区域中的图像进行放大处理并显示于手指位置附近。在图2中表示这种情况下的导航CPU30所执行的程序的结构,其详细情况将在后面阐述。
如图3所示,绘制电路31以一定的速度将由导航CPU30所生成的图像信息在内置或外置的位图存储部313上展开,利用同样内置的显示控制部314,与触摸屏1(LCD面板10)的显示定时同步地读出在位图存储部313上展开的图像信息,并将其显示于触摸屏1。上述位图存储部313和显示控制部314的详细情况将在后面阐述。
另外,在存储器32中,除了对上述程序进行存储的程序区域321以外,还在工作区域中分配图像信息存储区域322等来进行存储。此外,在地图DB33中,存放有路径检索、引导等导航所需要的地图和设施信息等。
车内监视照相机4例如是安装于室内镜的广角CCD(Charge CoupledDevice:电荷耦合器件)照相机,此处,特别是监视车内的驾驶座乘客及副驾驶座乘客的动向,此处拍摄生成的视频信号输出到控制部3的导航CPU30。
图2是将本发明的实施方式1所涉及的显示输入装置的控制部3所具有的导航CPU30的执行程序的结构进行功能展开来表示的框图。如图2所示,导航CPU30包括主控制部300、接近坐标位置计算部301、触摸坐标位置计算部302、坐标位置修正部303、图像信息生成部304、图像信息传输部305、以及操作信息处理部306。
接近坐标位置计算部301具有如下功能:当由接近传感器12检测到手指向触摸屏1接近时,对该手指的XY坐标位置进行计算,并将其提交至坐标位置修正部303。对于由接近坐标位置计算部301计算出的XY坐标,例如在0.05秒内以0.01秒的间隔连续输入接近传感器的坐标位置,对5点取平均值,并将其输出到修正部303。
触摸坐标位置计算部302具有如下功能:在通过触摸屏1的触摸传感器11检测出手指接触(触摸)了触摸屏1的情况下,对其XY坐标位置进行计算,将其提交至主控制部300,并启动操作信息处理部306。
坐标位置修正部303具有如下功能:根据触摸屏1与面对屏幕表面的手指在垂直方向的距离,对由接近坐标位置计算部301计算出的、手指在触摸屏1上的水平方向的接近坐标进行修正,并在主控制部300的控制下对图像信息生成部304进行控制。修正的方法等将在后面阐述。
图像信息生成部304具有如下功能:在主控制部300的控制下生成显示于触摸屏1的LCD面板10的图像信息,并将其输出至图像信息传输部305。此外,图像信息生成部304为了将显示于触摸屏1的例如软按键图标(softwarekey icon)等一定范围的显示区域的图像进行放大处理并进行显示,以一定的比例读出已生成好的软按键图标的图像(像素)并对其进行插值,从而作为新的图像以覆盖原有图像。例如,在放大两倍的情况下,将原来的图像的一个像素沿纵横方向以2×2进行重叠绘制,相反地,在缩小的情况下,以一定的比例使原来的位图的像素拉开距离而对图像进行更新,并将更新后的图像传输至绘制电路31。此处,用位图图像的放大/缩小的方法进行了说明,但在不是位图图像而是矢量图像的情况下,可以利用规定的缩放计算处理来对图像进行更好的缩放。
图像信息传输部305具有如下功能:基于主控制部300的定时控制,将由图像信息生成部304所生成的图像信息传输至绘制电路31。
操作信息处理部306具有如下功能:在主控制部300的控制下,基于由触摸坐标位置计算部302计算出的触摸坐标位置的、一定显示区域的信息所定义的操作信息例如若为软键盘,则进行基于各软按键图标的信息输入,若为按钮图标,则执行该按钮图标所定义的目的地检索等导航处理。
另外,在存储器32中,除了对上述程序进行存储的程序区域321以外,还分配有规定大小的工作区域,在该工作区域中,包含图像信息存储区域322,该图像信息存储区域322临时存储由图像信息生成部304所生成的图像信息。
图3是表示图1所示的绘制电路31的内部结构的框图。如图3所示,绘制电路31包括绘制控制部310、图像缓冲部311、绘制部312、位图存储部313、以及显示控制部314,它们都经由包括多根地址线、数据线、以及控制线的局域总线315进行公共连接。
在上述结构中,从图2所示的导航CPU30(图像信息传输部305)传输来的图像信息在绘制控制部310的控制下保持于图像缓冲部311,绘制控制部310将直线绘制、矩形绘制等命令进行解码,或对直线斜率等的绘制进行前期处理。然后,由绘制控制部310启动的绘制部312将由绘制控制部310进行了解码的图像信息快速绘制到位图存储部313,显示控制部314与触摸屏1的LCD面板10的显示定时同步地读出保持于位图存储部313中的图像信息,并对其进行显示。
图4是表示本发明的实施方式1所涉及的显示输入装置的动作的流程图。此外,图5是示意性表示坐标位置修正的原理的图,图6是表示在触摸屏1上显示的软键盘图像的一个示例的图。
下面,参照图4~图6,对图1~图3所示的本发明的实施方式1所涉及的显示输入装置的动作进行详细说明。
在图4中,在触摸屏1的LCD面板10上,例如显示有图6(a)的在进行设施检索时所使用的软键盘图像(步骤ST41)。首先,若用户将手指靠近触摸屏1,则接近传感器12检测出该手指的接近(步骤ST42为“是”),导航CPU30的接近坐标位置计算部301进行动作,计算手指坐标(x1,y1),并将其输入至坐标位置修正部303(步骤ST43)。
若接收到该手指坐标,则坐标位置修正部303根据触摸屏1与面对屏幕表面的手指在垂直方向的距离,对由接近传感器12获取的、在触摸屏1上的手指坐标(x1,y1)进行修正,得到(x2,y2)。
即,设由接近坐标位置计算部301计算出的水平方向的手指坐标为(x1,y1),修正后的水平方向的手指坐标为(x2,y2),上述触摸屏上的中心点为O,预先决定从点0到眼睛的位置C的方向,设直线OC相对于上述触摸屏表面的仰角为φ,在上述触摸屏上张开的xy坐标平面上上述直线OC朝垂直方向投影的直线与上述xy坐标平面上的X轴所形成的偏差角为θ,触摸屏1与面对屏幕表面的手指在垂直方向的距离为z,在此情况下,坐标位置修正部303利用运算公式x2=x1-f(z)·cotφ·cosθ、y2=y1-g(z)·cotφ·sinθ来获得修正后的手指的水平方向的接近坐标(x2,y2)(步骤ST44)。其中,f(z)=g(z)=z/2=1。
以下,参照图5所示的示意图,对上述坐标位置修正部303的坐标位置修正的原理进行说明。
在图5中,以三维的方式来呈现在操作触摸屏1时的用户手指的位置和图标的观察方式。在图5中,点A是在手指靠近触摸屏1时由接近坐标位置计算部301计算并输出的手指位置,其坐标为(x1,y1,z)(想要触摸点B所示的图标而靠近点A时的位置的检测坐标),点B是图标在触摸屏1的LCD面板10表面上的显示位置,若引用图9所示的软按键图标,则是“せ”的显示位置,其坐标为(x2,y2,0)。φ是表示从原点O观察到的眼睛的位置C的方向的仰角,θ是在xy坐标平面上直线OC朝垂直方向投影的直线与上述xy坐标平面上的X轴所形成的偏差角。
根据图5,所修正的手指的水平方向的接近坐标(x2,y2)可分别通过执行以下的运算公式(1)(2)来计算。
(1)x2=x1-z·cotφ·cosθ
(2)y2=y1-z·cotφ·sinθ
此处,假定从驾驶座和副驾驶座对设置于中央控制台的中心的车载导航的触摸屏1进行操作的情况,设在手指接近至2cm左右时能计算水平方向的手指坐标(其中,Z轴方向的距离作为固定值Zref=2cm来进行测定),θ、φ设定了在***结构上假定的眼睛的方向。此处,设θ为30度,φ为75度。此处,为了便于说明,设Zref=2cm,θ=30度,φ=75度,但并不拘泥于此,可根据***结构来变更设定。
在以上的说明中,设触摸屏距离眼睛的位置(点C)足够远,B、A、C相对于屏幕表面的偏差角和O-C相对于屏幕表面的偏差角θ之间仅有可忽视的差异而视为相同,B、A、C相对于屏幕表面的仰角和O-C相对于屏幕表面的仰角φ之间仅有可忽视的差异而视为相同,在此情况下进行了说明,但也可以除点C的方向之外,还预先决定三维的位置,通过几何学计算来求出B、A、C相对于屏幕表面的正确的偏差角和仰角,并用此来进行位置修正。在此情况下,眼睛的位置C越靠近触摸屏,修正效果越好,能提供使用性好的装置。
在此情况下,φ是对于连接点C和点A的直线与触摸屏相交于点B、从触摸屏表面观察到的直线BC的仰角,θ是在xy坐标平面上直线BC朝垂直方向投影的直线与上述xy坐标平面上的X轴所形成的偏差角。
此外,为了便于说明,采用了极坐标系,但并不限定于此,也可以采用直角坐标系。
此外,由于用户根据触摸屏1的LCD面板10的玻璃厚度等,会在一定程度上认识到可观察到的坐标位置x2实际是x1,因此,此处设为不需要进行几何学上的正确修正。
因此,设从接近坐标位置计算部301获取的手指的水平方向的坐标为(x1,y1),修正后的手指的水平方向的坐标为(x2,y2),上述触摸屏上的中心点为O,预先决定眼睛的位置即点C,设直线OC相对于上述触摸屏表面的仰角为φ,在上述触摸屏上张开的xy坐标平面上上述直线OC朝垂直方向投影的直线与上述xy坐标平面上的x轴所形成的偏角为θ,触摸屏1与面对屏幕表面的手指在垂直方向的距离为z,在此情况下,坐标位置修正部303通过执行以下运算公式(3)(4)来计算要输出的修正后的手指的水平方向的接近坐标(x2,y2)。
(3)x2=x1-f(z)·cotφ·cosθ
(4)y2=y1-g(z)·cotφ·sinθ
此处,若设f(z)=g(z)=z,则修正过多,用户可能会感到不协调,因此,将修正放宽为f(z)=g(z)=z/2。此处,由于设检测出的距离为固定值Zref(2cm),因此成为f(z)=g(z)=z/2=1。
将说明返回至图4的流程图。坐标位置修正部303将通过上述方法进行修正后得到的坐标值(x2,y2)输出到主控制部300及图像信息生成部304。图像信息生成部304在主控制部300的控制下,基于通过上述方法获得的坐标值,对一定范围的显示区域的图像进行放大处理,并生成用于将图像显示于手指位置附近的图像信息。图像信息生成部304通过进一步将所生成的图像信息经由图像信息传输部305传输到绘制电路31,能在触摸屏1的LCD面板10上获得所希望的显示(步骤ST45)。
即,图像信息生成部304为了将显示于触摸屏1的一定范围的显示区域的图像进行放大处理,例如,如图6(a)所示,以一定的比例从存储器32的图像信息存储区域322读出已生成好的软键盘图像的部分区域(图中为圆内)的图像信息并进行插值,与周围的图像信息(未放大)进行合成,以作为利用新的图像信息的软键盘图像来进行更新。
此处,将更新后的图像信息存储于存储器32的图像信息存储区域322,并将其输出至图像信息传输部305。图像信息传输部305接收该图像信息,并将更新后的图像信息传输到绘制电路31,绘制电路31将从绘制控制部310传输来的图像信息展开,绘制部312将其快速地绘制到位图存储部313。最后,显示控制部314读出在位图存储部313中绘制的图像,并将其放大显示于触摸屏1的LCD面板10(步骤ST45)。在图6(b)中,示出将一定范围的显示区域的图像(“つ”“て”“と”“す”“せ”“そ”“く”“け”“こ”的各按键图标)放大并显示于手指位置附近的软键盘图像的一个示例。
另外,当触摸屏1的触摸传感器11检测出手指触摸了图标时(步骤ST46为“是”),触摸坐标位置计算部302计算其触摸坐标位置,并在主控制部300的控制下启动操作信息处理部306。
由此,操作信息处理部306基于由触摸坐标位置计算部302计算出的触摸坐标所对应的按键,执行操作处理(步骤ST47)。
如上所述,根据本发明的实施方式1所涉及的显示输入装置,由于控制部3根据触摸屏1与面对屏幕表面的手指在垂直方向的距离,对由接近传感器12获取的、手指在触摸屏1上的水平方向的接近坐标进行修正,将在触摸屏1上显示的一定范围的显示区域中的图像进行放大处理并显示于手指位置附近,从而显示输入装置将手指位置自动修正为触摸屏1的可观察到的位置,因此,用户能不用在意地进行输入操作,提高了使用性。在本实施例中,虽然示出了放大显示的应用例,但图像控制的方式并不拘泥于此,也可以适用于检测手指的接近状态并用气泡对话窗口来显示帮助等详细说明的情况、以及修正并显示光标位置的情况。在此情况下,图像的形状也可以不变形。
另外,导航CPU30(坐标位置修正部303)也可以根据要显示的图标的种类和手指位置来变更修正的强度。例如,在显示伴随有运动的光标的情况下,在运算公式(3)中,设f(z)=g(z)=1/2,在显示不伴随有运动的按键图标的情况下,在运算公式(3)中,设f(z)=g(z)=2/3,使修正的强度比显示伴随有运动的光标时要高,从而,能进行使速度、显示的任一项优先的显示,用户能根据利用场合来选择它们,因此,增加了便利性。
此外,例如,也可以在触摸屏1中内置倾斜传感器,通过检测出从触摸屏1的中心轴观察到的倾斜,来使修正的强度可变。设修正的强度的变更方法与上述根据图标种类的变更相同。
此外,在确定眼睛的方向时,或在修正眼睛的方向时,例如,可以利用车内监视照相机4来进行图像处理,从而检测出目测位置,此外,作为替代,也可以利用传感器来检测座位的倾倒情况等,从而推测目测位置。
实施方式2.
在上述实施方式1中,设仅检测手指是否接近、手指在Z轴的位置检测距离为固定值Zref而进行了说明,但进一步考虑如下情况:若能检测出手指在Z轴方向的接近距离,则根据Z轴方向的距离,来变更修正的强度。在此情况下,优选进行如下控制:Z轴方向的距离越远,修正越弱,Z轴方向的距离越近,则修正越强。
即,这是考虑到:由于用户理解到Z轴方向的距离越远,坐标位置越不正确,因此,要消除在距离较远的情况下的显著修正中的不协调。下面,对实施方式2所涉及的显示输入装置的坐标位置修正的动作进行说明。
在以下说明的实施方式2中,将本发明的显示输入装置应用于还能对触摸屏1的屏幕表面与手指之间在Z方向的距离进行测定的三维触摸屏。因而,将图1所示的仅能检测手指在XY方向的接近的触摸屏1更换成还能测定在Z方向的距离的三维触摸屏,来进行说明。
因此,接近坐标位置计算部301由于可计算手指位置的三维坐标位置,因此,与实施方式1相比,进行了功能扩展。其他结构与实施方式1相同。另外,在上述专利文献2中揭示了对接近的手指的三维位置进行测量的技术,此处,作为应用该技术的显示输入装置来进行说明。
从通常的检索显示到接近传感器12检测出手指的接近、接近坐标位置计算部301计算手指坐标并输入到坐标位置修正部303为止的处理与图4所示的实施方式1相同。
此处,设坐标位置修正部303通过计算以下运算公式,来对从接近坐标位置计算部301获取的手指坐标进行修正。即,在z<2cm的情况下,设x2=x1-z·cotφ·cosθ,y2=y1-z·cotφ·sinθ,在2cm≤z<5cm的情况下,设x2=x1-(1/2)z·cotφ·cosθ-(3/2)·cotφ·cosθ,y2=y1-(1/2)z·cotφ·sinθ-(3/2)·cotφ·sinθ。此外,在z≤5cm的情况下,判定为手指未接近,暂不进行修正。
接下来,图像信息生成部304在主控制部300的控制下,基于所获取的坐标值(x2,y2),对一定范围的显示区域的图像进行放大处理,并生成用于将图像显示于手指位置附近的图像信息,经由图像信息传输部305将所生成的图像信息传输到绘制电路31,以在触摸屏1上得到所希望的显示。
如上所述,根据本发明的实施方式2所涉及的显示输入装置,控制部3的导航CPU30根据触摸屏1与面对屏幕表面的手指在垂直方向的距离,来使修正的强度可变,从而例如,能控制成使Z轴方向的距离越远,修正越弱,Z轴方向的距离越近,修正越强,能消除在距离较远的情况下的显著修正中的不协调。
此外,根据本发明的实施方式2所涉及的显示输入装置,能实现精度比实施方式1要高的坐标位置修正,且与实施方式1相同,显示输入装置将手指位置自动修正为触摸屏1的可观察到的位置,因此,用户能不用在意地进行输入操作,提高了使用性。
另外,导航CPU30(坐标位置修正部303)在使修正的强度发生变化时,例如,也可以根据Z轴的距离使修正值进行曲线变化,而不限于上述对Z轴的每一距离定义的运算公式。
此外,在确定眼睛的方向时,或在修正眼睛的方向时,例如,可以利用车内监视照相机4来进行图像处理,从而检测出目测位置,此外,作为替代,也可以利用传感器来检测座位的倾倒情况等,从而推测目测位置。
此外,在操作触摸屏以用于FA(工厂自动化:Factory Automation)等时、操作者能自由变更相对于触摸屏的位置等情况下,通过利用图像处理来测定操作者的眼睛的方向或位置,从而能动态变更θ、φ的值。
实施方式3.
在上述本发明的实施方式1、实施方式2所涉及的显示输入装置中,在一定程度上假定操作者的眼睛的位置而进行了坐标位置修正,但在以下说明的实施方式3中,对如下情况进行说明:假定因存在多个操作者而操作者的眼睛的位置是变化的,例如,假定从驾驶座或副驾驶座对设置于中央控制台的中心的车载触摸屏进行操作的情况,而进行坐标位置修正。
此处,对如下显示输入装置进行说明:利用图像处理检测出是驾驶座乘客操作了触摸屏1还是副驾驶座乘客操作了触摸屏1,并据此变更修正的强度。
当然,检测是从驾驶员进行了操作还是从副驾驶座进行了操作并不仅限于利用图像处理的方法,存在使用操作者与触摸屏之间的电容的变化来进行等各种方法。
图7是将本发明的实施方式3所涉及的显示输入装置的控制部3(导航CPU30)的程序结构进行功能展开来表示的框图。
在本发明的实施方式3所涉及的显示输入装置中,与实施方式1、实施方式2的控制部3(导航CPU30)的结构差异在于:对实施方式1所具有的程序结构,还附加了照相机图像输入部307、图像处理部308、及UI(用户界面:User Interface)提供部309。
照相机图像输入部307具有获取由车内监视照相机4输出的信号并将其提交给主控制部300的功能。其中,从车内监视照相机4获取的视频信号也提供到图像处理部308。
图像处理部308具有如下功能:对从车内监视照相机4获取的视频信号进行图像处理,识别出是左右哪个用户进行了操作,或者,检测出是从左右哪个方向进行了手指接近触摸屏1的输入操作,并对坐标位置修正部303所进行的修正的方向及强度进行控制。
UI提供部309具有如下功能:在进行环境设定时或者基于用户要求在触摸屏1的LCD面板10上动态显示对修正的强度进行定义的设定画面,并根据通过触摸屏1输入的用户设定,来使上述运算公式可变。
图8是表示本发明的实施方式3所涉及的显示输入装置的动作的流程图。
下面,参照图8的流程图,对于图7所示的本发明的实施方式3所涉及的显示输入装置的动作,着眼于与实施方式1的差异来进行说明。
在图8的流程图中,从通常的检索显示到接近传感器12检测出手指的接近、接近坐标位置计算部301计算手指坐标并输入到坐标位置修正部303为止的处理(步骤ST81~ST83)与图4所示的实施方式1的步骤ST41~ST43的各步骤中的处理相同。
在以下说明的实施方式3中,在从接近坐标位置计算部301获取手指坐标之后,坐标位置修正部303在主控制部300的控制下判定是否是驾驶座乘客将手指靠近(步骤ST84)。图像处理部308对由照相机图像输入部307获取的来自车内监视照相机4的视频信号进行图像处理,坐标位置修正部303获取该图像处理的结果,从而能判定手指是从哪个方向接近的。
在步骤ST84中,在判定为驾驶员所进行的操作、即手指从右方朝触摸屏1接近的情况下(步骤ST84为“是”),坐标位置修正部303利用x1、y1、θ1、φ1、z来求出(x2,y2),进行(θ1,φ1)的修正(步骤ST85)。此外,在判定为是副驾驶座乘客所进行的操作、即手指从左方朝触摸屏1接近的情况下(步骤ST84为“否”),坐标位置修正部303利用x1、y1、θ2、φ2、z来求出(x2,y2),进行(θ2,φ2)的修正(步骤ST86)。在实施例1中,虽然设θ=30度,φ=75度,但此处,设θ1=30度,φ1=75度,θ2=150度,φ2=75度。
接下来,图像信息生成部304在主控制部300的控制下,基于所获取的坐标值(x2,y2),对一定范围的显示区域的图像进行放大处理,并生成用于将图像显示于手指位置附近的图像信息,经由图像信息传输部305将所生成的图像信息传输到绘制电路31,以在触摸屏1上得到所希望的显示(步骤ST87)。
之后,若触摸屏1的触摸传感器11检测出手指触摸了图标(步骤ST88为“是”),则触摸坐标位置计算部302计算该触摸坐标位置,并在主控制部300的控制下启动操作信息处理部306,操作信息处理部306基于由触摸坐标位置计算部302计算出的触摸坐标所对应的按键,执行操作处理(步骤ST89)。由此,能根据利用场合来变更修正方向及强度。
另外,虽然在图8的流程图中省略了图示,但在进行环境设定时或基于用户的要求,UI提供部309也可以动态地进行动作,UI提供部309在触摸屏1上显示设定画面,读入与位置修正的方向及强度有关的用户的设定输入,并经由主控制部300反映到坐标位置修正部303所进行的坐标位置修正。
如上所述,根据本发明的实施方式3所涉及的显示输入装置,控制部3测定用户相对于触摸屏1的目测位置,基于所测定的结果,来检测出从触摸屏1的中心轴观察、手指是从左右哪个方向接近,并根据所检测出的方向来使修正的强度可变,从而,能进行如下弹性控制:例如,对驾驶座乘客所进行的操作和副驾驶座乘客所进行的操作赋予差异,由于副驾驶员乘客在车辆行驶时也能自由行动,因此,进行较弱的修正,由于驾驶员乘客的行动被限制,因此,进行较强的修正等等。
此外,根据本发明的实施方式3所涉及的显示输入装置,通过提供对修正的强度进行设定的用户界面,因此,可进行与利用场合相对应的修正,能对用户提供便利性。
如上所述,根据本发明的实施方式1~实施方式3所涉及的显示输入装置,显示输入装置包括:触摸屏1,该触摸屏1进行图像的显示和输入;接近传感器12,该接近传感器12以非接触的方式检测手指向触摸屏1的接近;以及控制部3,该控制部3根据触摸屏1与面对屏幕表面的手指在垂直方向的距离,对由接近传感器12获取的、手指在触摸屏1上的水平方向的接近坐标进行修正,将在触摸屏1上显示的一定范围的显示区域中的图像进行放大处理并显示于手指位置附近,从而能力图提高使用性而不依赖于触摸屏1的操作环境。
另外,根据上述本发明的实施方式1~实施方式3所涉及的显示输入装置,作为一定范围的显示区域的图像,仅举出构成软键盘的各按键图标为例进行了说明,但也可以是光标、或为了进行导航而进行输入操作的图标等的特定图像。此外,作为检测对象,仅举出手指为例,但代替手指的笔等检测物也可获得相同的效果。
此外,根据本发明的实施方式1~实施方式3所涉及的显示输入装置,仅对将显示输入装置应用于导航***等的车载信息设备的情况进行了说明,但除了车载信息设备以外,也可以适用于个人计算机或FA(FactoryAutomation:工厂自动化)计算机的输入输出单元、或公共组织和活动会场等的引导***。在上述实施例中,虽然在导航CPU侧进行了修正,但即使在显示装置上配置CPU来进行修正,也可产生相同的效果。
另外,对于图2、图7所示的控制部3(导航CPU30)所具有的功能,既可以全部用硬件来实现,或者也可以用软件来实现其至少一部分。
例如,控制部3根据触摸屏1与面对屏幕表面的手指在垂直方向的距离,对由接近传感器12获取的、手指在触摸屏1上的水平方向的接近坐标进行修正,将在触摸屏1上显示的一定范围的显示区域中的图像进行放大处理并显示于手指位置附近,对于如上数据处理,既可以利用1个或多个程序在计算机上实现,也可以用硬件来实现其至少一部分。
工业上的实用性
由于本发明所涉及的显示输入装置能提高使用性而不依赖于触摸屏的操作环境,因此,适用于导航***等的车载信息设备等。

Claims (18)

1.一种显示输入装置,其特征在于,包括:
触摸屏,该触摸屏进行图像的显示和输入;
接近传感器,该接近传感器以非接触的方式检测出检测对象向所述触摸屏的接近;以及
控制部,该控制部当在所述触摸屏上预先确定点O、在所述触摸屏的外部预先确定点C、设直线OC相对于所述触摸屏表面的仰角为φ、在所述触摸屏上张开的xy坐标平面上所述直线OC朝垂直方向投影的直线与所述xy坐标平面上的x轴所形成的偏差角为θ时,根据所述仰角φ、所述偏差角θ、及所述检测对象相对于所述触摸屏表面在垂直方向的距离z,对由所述接近传感器获取的、所述检测对象在所述xy坐标平面上的水平方向的接近坐标进行修正。
2.一种显示输入装置,其特征在于,包括:
触摸屏,该触摸屏进行图像的显示和输入;
接近传感器,该接近传感器以非接触的方式检测出检测对象向所述触摸屏的接近;以及
控制部,该控制部当利用直线L来连接作为所述检测对象的位置的点A和在所述触摸屏的外部预先确定的点C、设所述直线L相对于该直线L与所述触摸屏表面的交点B的仰角为φ、利用直线M来连接检测对象在所述触摸屏上张开的xy坐标平面上朝垂直方向投影的投影点和所述交点B,设所述直线M与所述xy坐标平面上的x轴所形成的偏差角为θ、面对所述触摸屏表面的所述检测对象在垂直方向的距离为z时,利用所述φ、所述θ、及所述z,对由所述接近传感器获取的、检测对象在所述触摸屏上的水平方向的接近坐标进行修正。
3.如权利要求1所述的显示输入装置,其特征在于,
所述控制部使在所述触摸屏上显示的一定范围的显示区域中的显示形态发生变化,并显示于检测对象的修正后的接近坐标位置附近。
4.如权利要求2所述的显示输入装置,其特征在于,
所述控制部使在所述触摸屏上显示的一定范围的显示区域中的显示形态发生变化,并显示于检测对象的修正后的接近坐标位置附近。
5.如权利要求1所述的显示输入装置,其特征在于,
所述控制部将在所述触摸屏上显示的一定范围的显示区域中的图像进行放大或缩小处理,并显示于检测对象的修正后的接近坐标位置附近。
6.如权利要求2所述的显示输入装置,其特征在于,
所述控制部将在所述触摸屏上显示的一定范围的显示区域中的图像进行放大或缩小处理,并显示于检测对象的修正后的接近坐标位置附近。
7.如权利要求1所述的显示输入装置,其特征在于,
当设在所述触摸屏上张开的xy坐标平面上朝垂直方向投影的检测对象的水平方向的坐标为(x1,y1)、修正后的检测对象的水平方向的接近坐标为(x2,y2)时,所述控制部利用运算公式x2=x1-f(z)·cotφ·cosθ、y2=y1-g(z)·cotφ·sinθ,来计算出所述修正后的检测对象的水平方向的接近坐标(x2,y2)。
8.如权利要求2所述的显示输入装置,其特征在于,
当设在所述触摸屏上张开的xy坐标平面上朝垂直方向投影的检测对象的水平方向的坐标为(x1,y1)、修正后的检测对象的水平方向的接近坐标为(x2,y2)时,所述控制部利用运算公式x2=x1-f(z)·cotφ·cosθ、y2=y1-g(z)·cotφ·sinθ,来计算出所述修正后的检测对象的水平方向的接近坐标(x2,y2)。
9.如权利要求1所述的显示输入装置,其特征在于,
所述控制部根据所述触摸屏与面对屏幕表面的检测对象在垂直方向的距离,来使所述修正量发生变化。
10.如权利要求2所述的显示输入装置,其特征在于,
所述控制部根据所述触摸屏与面对屏幕表面的检测对象在垂直方向的距离,来使所述修正量发生变化。
11.如权利要求1所述的显示输入装置,其特征在于,
所述控制部测定用户相对于所述触摸屏的目测位置,并对预先确定的点C的位置进行修正。
12.如权利要求1所述的显示输入装置,其特征在于,
所述控制部检测出从所述触摸屏的中心轴观察、检测对象是从左右哪个方向接近所述触摸屏,并根据所述检测出的方向来使所述修正的方向或强度可变。
13.如权利要求2所述的显示输入装置,其特征在于,
所述控制部测定用户相对于所述触摸屏的目测位置,并对预先确定的点C的位置进行修正。
14.如权利要求2所述的显示输入装置,其特征在于,
所述控制部检测出从所述触摸屏的中心轴观察、检测对象是从左右哪个方向接近所述触摸屏,并根据所述检测出的方向来使所述修正的方向或强度可变。
15.如权利要求1所述的显示输入装置,其特征在于,
所述控制部检测出从所述触摸屏的中心轴观察到的倾斜,并根据所述检测出的倾斜来使所述修正的眼睛推测方向或强度可变。
16.如权利要求2所述的显示输入装置,其特征在于,
所述控制部检测出从所述触摸屏的中心轴观察到的倾斜,并根据所述检测出的倾斜来使所述修正的眼睛推测方向或强度可变。
17.如权利要求1所述的显示输入装置,其特征在于,
所述控制部根据通过所述触摸屏输入的用户设定,来使所述修正的眼睛推测方向或强度可变。
18.如权利要求2所述的显示输入装置,其特征在于,
所述控制部根据通过所述触摸屏输入的用户设定,来使所述修正的眼睛推测方向或强度可变。
CN201080015715.4A 2009-03-31 2010-03-16 显示输入装置及车载信息设备 Active CN102365610B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009086375 2009-03-31
JP2009-086375 2009-03-31
PCT/JP2010/001868 WO2010113397A1 (ja) 2009-03-31 2010-03-16 表示入力装置

Publications (2)

Publication Number Publication Date
CN102365610A true CN102365610A (zh) 2012-02-29
CN102365610B CN102365610B (zh) 2015-06-24

Family

ID=42827716

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080015715.4A Active CN102365610B (zh) 2009-03-31 2010-03-16 显示输入装置及车载信息设备

Country Status (5)

Country Link
US (1) US8890819B2 (zh)
JP (1) JP5355683B2 (zh)
CN (1) CN102365610B (zh)
DE (1) DE112010001445T5 (zh)
WO (1) WO2010113397A1 (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102890607A (zh) * 2012-03-12 2013-01-23 中兴通讯股份有限公司 终端屏幕显示控制方法及终端
CN104049860A (zh) * 2013-03-15 2014-09-17 联想(新加坡)私人有限公司 用于放大触摸屏部分的设备和方法
CN104407798A (zh) * 2014-10-30 2015-03-11 广东欧珀移动通信有限公司 一种虚拟按键的控制方法、装置及终端
CN104423884A (zh) * 2013-09-05 2015-03-18 罗伯特·博世有限公司 数据和/或通信设备及其控制方法
WO2015081863A1 (zh) * 2013-12-03 2015-06-11 华为终端有限公司 信息输入方法、装置及终端
WO2015085919A1 (zh) * 2013-12-10 2015-06-18 华为技术有限公司 一种基于悬浮触控的点击对象放大方法及装置
CN105247444A (zh) * 2013-05-24 2016-01-13 维马股份公司 用于控制电装置的控制单元
CN105700733A (zh) * 2014-12-09 2016-06-22 辛纳普蒂克斯公司 低延迟着墨
CN107229367A (zh) * 2016-03-24 2017-10-03 通用汽车环球科技运作有限责任公司 显示器组件中触摸敏感区域的动态调整
CN109643195A (zh) * 2018-09-07 2019-04-16 深圳柔显***技术有限公司 一种确定触控感应距离的方法、电子装置及终端设备
CN111258443A (zh) * 2018-12-03 2020-06-09 瑞萨电子株式会社 信息输入装置

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100913962B1 (ko) * 2007-05-14 2009-08-26 삼성전자주식회사 이동통신 단말기의 문자 입력 방법 및 장치
US10180746B1 (en) 2009-02-26 2019-01-15 Amazon Technologies, Inc. Hardware enabled interpolating sensor and display
US9740341B1 (en) 2009-02-26 2017-08-22 Amazon Technologies, Inc. Capacitive sensing with interpolating force-sensitive resistor array
US9740340B1 (en) 2009-07-31 2017-08-22 Amazon Technologies, Inc. Visually consistent arrays including conductive mesh
US9785272B1 (en) 2009-07-31 2017-10-10 Amazon Technologies, Inc. Touch distinction
JP5407950B2 (ja) * 2010-03-11 2014-02-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP2423796B1 (en) * 2010-08-24 2019-10-02 LG Electronics Inc. Mobile terminal and displaying method thereof
JP5561092B2 (ja) * 2010-10-15 2014-07-30 ソニー株式会社 入力装置、入力制御システム、情報処理方法及びプログラム
US8405627B2 (en) * 2010-12-07 2013-03-26 Sony Mobile Communications Ab Touch input disambiguation
JP5617603B2 (ja) * 2010-12-21 2014-11-05 ソニー株式会社 表示制御装置、表示制御方法、及び、プログラム
JP2012150636A (ja) * 2011-01-19 2012-08-09 Seiko Epson Corp 投写型表示装置及び情報処理システム
JP5865597B2 (ja) * 2011-03-29 2016-02-17 京セラ株式会社 携帯電子機器
JP5926008B2 (ja) * 2011-06-28 2016-05-25 京セラ株式会社 電子機器、制御方法および制御プログラム
US20120287065A1 (en) * 2011-05-10 2012-11-15 Kyocera Corporation Electronic device
JP5801604B2 (ja) * 2011-05-13 2015-10-28 株式会社Nttドコモ 表示制御装置及び表示制御方法
DE102011089195A1 (de) * 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen
US10684768B2 (en) * 2011-10-14 2020-06-16 Autodesk, Inc. Enhanced target selection for a touch-based input enabled user interface
WO2013101067A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Systems and methods for enhanced display images
US20150074614A1 (en) * 2012-01-25 2015-03-12 Thomson Licensing Directional control using a touch sensitive device
JP5477400B2 (ja) * 2012-01-31 2014-04-23 株式会社デンソー 入力装置
WO2013125103A1 (ja) * 2012-02-20 2013-08-29 Necカシオモバイルコミュニケーションズ株式会社 タッチパネル入力装置及びその制御方法
JP5754410B2 (ja) 2012-04-13 2015-07-29 トヨタ自動車株式会社 表示装置
US9633186B2 (en) * 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
WO2013177761A1 (zh) * 2012-05-30 2013-12-05 华为技术有限公司 显示控制方法和装置
US20130342468A1 (en) * 2012-06-20 2013-12-26 Chimei Innolux Corporation Method for determining touch location on a touch panel and touch panel module
EP2713244A1 (en) * 2012-10-01 2014-04-02 Alcatel Lucent Touchscreen device with parallax error compensation
DE102012219736A1 (de) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE102012219958A1 (de) * 2012-10-31 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Bestimmung einer Eingabeposition auf einem Touch-Screen
JP6070211B2 (ja) * 2013-01-22 2017-02-01 株式会社リコー 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
JP5889230B2 (ja) * 2013-03-04 2016-03-22 三菱電機株式会社 情報表示制御装置、情報表示装置および情報表示制御方法
JP5933468B2 (ja) * 2013-03-04 2016-06-08 三菱電機株式会社 情報表示制御装置、情報表示装置および情報表示制御方法
JP5984718B2 (ja) * 2013-03-04 2016-09-06 三菱電機株式会社 車載情報表示制御装置、車載情報表示装置および車載表示装置の情報表示制御方法
JP5950851B2 (ja) * 2013-03-04 2016-07-13 三菱電機株式会社 情報表示制御装置、情報表示装置および情報表示制御方法
KR102118084B1 (ko) * 2013-03-22 2020-06-02 삼성전자주식회사 터치스크린을 구비한 디바이스에서 화면 표시 방법 및 장치
US9007321B2 (en) * 2013-03-25 2015-04-14 Sony Corporation Method and apparatus for enlarging a display area
KR102056316B1 (ko) 2013-05-03 2020-01-22 삼성전자주식회사 터치 스크린 동작 방법 및 그 전자 장치
US20140368442A1 (en) * 2013-06-13 2014-12-18 Nokia Corporation Apparatus and associated methods for touch user input
JP6349911B2 (ja) * 2013-07-01 2018-07-04 株式会社三洋物産 遊技機
TWI496048B (zh) * 2013-07-03 2015-08-11 Wistron Corp 外掛式光學觸控裝置及其校正方法
DE102013114794A1 (de) * 2013-10-10 2015-04-16 Elmos Semiconductor Aktiengesellschaft Gekrümmter Bildschirm
US9400553B2 (en) 2013-10-11 2016-07-26 Microsoft Technology Licensing, Llc User interface programmatic scaling
FR3011950B1 (fr) * 2013-10-15 2017-01-20 Thales Sa Amelioration de l'ergonomie d'un designateur
KR102159789B1 (ko) * 2013-10-28 2020-09-25 삼성전자주식회사 전자 장치 및 이의 사용자 제스처 인식방법
CN104808836B (zh) 2014-01-23 2017-12-01 京瓷办公信息***株式会社 电子设备及操作支援方法
JP6046064B2 (ja) * 2014-01-29 2016-12-14 京セラ株式会社 携帯機器、タッチ位置補正方法およびプログラム
US9690478B2 (en) * 2014-03-04 2017-06-27 Texas Instruments Incorporated Method and system for processing gestures to cause computation of measurement of an angle or a segment using a touch system
KR20150111164A (ko) * 2014-03-25 2015-10-05 엘지전자 주식회사 터치 보정을 제공하는 디지털 디바이스 및 그 제어 방법
JP2016045952A (ja) * 2014-08-21 2016-04-04 株式会社コト 実座標取得方法、入力デバイスの検出方法、及びプログラム
CN105630365A (zh) * 2014-10-29 2016-06-01 深圳富泰宏精密工业有限公司 网页调整方法及***
US9983695B2 (en) * 2015-03-19 2018-05-29 Lenovo (Singapore)Pte. Ltd. Apparatus, method, and program product for setting a cursor position
US20170102829A1 (en) * 2015-10-08 2017-04-13 Funai Electric Co., Ltd. Input device
DE102016001314B4 (de) * 2016-02-05 2017-10-12 Audi Ag Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
EP3572917B1 (en) * 2017-01-17 2022-08-17 Alps Alpine Co., Ltd. Coordinate input apparatus
KR102469754B1 (ko) * 2018-02-13 2022-11-22 삼성전자주식회사 전자 장치 및 그 동작 방법
US10864826B2 (en) * 2019-01-30 2020-12-15 Ford Global Technologies, Llc Seat including infrared-indicator material in a pattern
JP7442940B2 (ja) 2020-07-07 2024-03-05 アルプスアルパイン株式会社 近接検知装置
FR3124872A1 (fr) * 2021-07-02 2023-01-06 Faurecia Interieur Industrie Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés
US20230343110A1 (en) * 2022-04-20 2023-10-26 Blackberry Limited Method and system for data object identification in vehicles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366628A (ja) * 1986-09-08 1988-03-25 Toshiba Corp タツチスクリ−ンの視差補正方法
US5754169A (en) * 1994-03-07 1998-05-19 Fujitsu Limited Pen input device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0740318B2 (ja) 1988-01-14 1995-05-01 株式会社東芝 プラント監視制御装置
JP2835167B2 (ja) 1990-09-20 1998-12-14 株式会社東芝 Crt表示装置
JPH0736568A (ja) 1993-07-23 1995-02-07 Sharp Corp 情報処理装置
JPH10171600A (ja) 1996-12-06 1998-06-26 Brother Ind Ltd 入力装置
WO2005124526A2 (en) 2004-06-17 2005-12-29 Koninklijke Philips Electronics N.V. Use of a two finger input on touch screens
JP2006031499A (ja) 2004-07-20 2006-02-02 Denso Corp 情報入力表示装置
JP2006302029A (ja) 2005-04-21 2006-11-02 Fuji Xerox Co Ltd 表示装置制御プログラム、表示装置制御方法、表示装置
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
JP2007302223A (ja) 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
JP4935481B2 (ja) 2007-04-19 2012-05-23 セイコーエプソン株式会社 検出装置、および、その制御方法
JP4966778B2 (ja) * 2007-07-26 2012-07-04 シャープ株式会社 表示装置
JP4609557B2 (ja) * 2008-08-29 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6366628A (ja) * 1986-09-08 1988-03-25 Toshiba Corp タツチスクリ−ンの視差補正方法
US5754169A (en) * 1994-03-07 1998-05-19 Fujitsu Limited Pen input device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102890607A (zh) * 2012-03-12 2013-01-23 中兴通讯股份有限公司 终端屏幕显示控制方法及终端
CN104049860A (zh) * 2013-03-15 2014-09-17 联想(新加坡)私人有限公司 用于放大触摸屏部分的设备和方法
CN105247444B (zh) * 2013-05-24 2019-05-03 维马股份公司 用于控制电装置的控制单元
CN105247444A (zh) * 2013-05-24 2016-01-13 维马股份公司 用于控制电装置的控制单元
CN104423884A (zh) * 2013-09-05 2015-03-18 罗伯特·博世有限公司 数据和/或通信设备及其控制方法
WO2015081863A1 (zh) * 2013-12-03 2015-06-11 华为终端有限公司 信息输入方法、装置及终端
WO2015085919A1 (zh) * 2013-12-10 2015-06-18 华为技术有限公司 一种基于悬浮触控的点击对象放大方法及装置
CN104407798A (zh) * 2014-10-30 2015-03-11 广东欧珀移动通信有限公司 一种虚拟按键的控制方法、装置及终端
CN105700733A (zh) * 2014-12-09 2016-06-22 辛纳普蒂克斯公司 低延迟着墨
CN105700733B (zh) * 2014-12-09 2020-08-07 株式会社和冠 低延迟着墨
CN107229367A (zh) * 2016-03-24 2017-10-03 通用汽车环球科技运作有限责任公司 显示器组件中触摸敏感区域的动态调整
CN107229367B (zh) * 2016-03-24 2020-07-17 通用汽车环球科技运作有限责任公司 显示器组件中触摸敏感区域的动态调整
WO2020047869A1 (zh) * 2018-09-07 2020-03-12 深圳柔显***技术有限公司 一种确定触控感应距离的方法、电子装置及终端设备
CN109643195A (zh) * 2018-09-07 2019-04-16 深圳柔显***技术有限公司 一种确定触控感应距离的方法、电子装置及终端设备
CN111258443A (zh) * 2018-12-03 2020-06-09 瑞萨电子株式会社 信息输入装置
CN111258443B (zh) * 2018-12-03 2024-06-07 瑞萨电子株式会社 信息输入装置

Also Published As

Publication number Publication date
JP5355683B2 (ja) 2013-11-27
US20110285657A1 (en) 2011-11-24
US8890819B2 (en) 2014-11-18
CN102365610B (zh) 2015-06-24
JPWO2010113397A1 (ja) 2012-10-04
DE112010001445T5 (de) 2012-10-25
WO2010113397A1 (ja) 2010-10-07

Similar Documents

Publication Publication Date Title
CN102365610B (zh) 显示输入装置及车载信息设备
JP5430782B2 (ja) 表示入力装置および車載情報機器
JP5312655B2 (ja) 表示入力装置および車載情報装置
US8963849B2 (en) Display input device
JP5052677B2 (ja) 表示入力装置
CN101944304A (zh) 地图信息显示装置、地图信息显示方法和程序
US20120092332A1 (en) Input device, input control system, method of processing information, and program
JP5933468B2 (ja) 情報表示制御装置、情報表示装置および情報表示制御方法
JP6041708B2 (ja) 車載用情報表示制御装置、車載用情報表示装置および情報表示制御方法
JP2014052817A (ja) 画像表示方法および画像表示装置
JP5889230B2 (ja) 情報表示制御装置、情報表示装置および情報表示制御方法
JP5950851B2 (ja) 情報表示制御装置、情報表示装置および情報表示制御方法
JPH1139099A (ja) 座標入力装置
JP5984718B2 (ja) 車載情報表示制御装置、車載情報表示装置および車載表示装置の情報表示制御方法
US20170010798A1 (en) Manipulation system
JP2013178785A (ja) 地図情報処理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant