CN104423732B - Avn***的远程控制装置及方法 - Google Patents

Avn***的远程控制装置及方法 Download PDF

Info

Publication number
CN104423732B
CN104423732B CN201310581299.XA CN201310581299A CN104423732B CN 104423732 B CN104423732 B CN 104423732B CN 201310581299 A CN201310581299 A CN 201310581299A CN 104423732 B CN104423732 B CN 104423732B
Authority
CN
China
Prior art keywords
stylus
screen
touch
avn
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310581299.XA
Other languages
English (en)
Other versions
CN104423732A (zh
Inventor
申昇熙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Mobis Co Ltd
Original Assignee
Hyundai Mobis Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Mobis Co Ltd filed Critical Hyundai Mobis Co Ltd
Publication of CN104423732A publication Critical patent/CN104423732A/zh
Application granted granted Critical
Publication of CN104423732B publication Critical patent/CN104423732B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Selective Calling Equipment (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明作为涉及AVN***的远程控制装置及方法,根据本发明AVN***的远程控制装置的特征在于,利用安装在AVN***的传感器与触控笔,可以远程触摸控制AVN***的动作。根据本发明,通过在车辆内部形成的假想触摸屏,可远程控制AVN***,具有使便利性提高的效果。

Description

AVN***的远程控制装置及方法
技术领域
本发明作为涉及AVN***的远程控制装置及方法,更详细的说是可以远程控制AVN***的装置及方法。
背景技术
如图1所示,传统的AVN控制装置包括遥控应用程序110、控制部120、近距离通信模块130、表示部140及操作部150。作为具备如同蓝牙通信的近距离无线通信功能的智能手机,以蓝牙通信控制AVN200。
遥控应用程序110为了表示画面及动作状态,从AVN200下载遥控画面数据传达至表示部140,将此以数据库形态构成并保存。这时,下载只在AVN控制装置100保有的遥控画面数据,只在与AVN200保有的遥控画面数据的版本不同的情况下进行。
另外,遥控应用程序110接收从控制部120传达的触摸屏坐标值与按钮代码值,构成为了传送至AVN200的遥控控制信息。
在这里,遥控画面数据的数据库,由遥控画面识别者(ID)与分别对应识别者的AVN菜单模样的图片文件(如同JPG的压缩文件)的遥控画面构成。
控制部120,在表示部140表示遥控画面的状态下,若根据使用者操作包括在操作部150的触摸屏或按钮,将触摸屏坐标值或按钮值信息传达至遥控应用程序110,使AVN200与遥控应用程序110之间能蓝牙通信,控制近距离通信模块130。
近距离通信模块130,根据控制部120的控制,将在遥控应用程序110构成的遥控控制信息,以蓝牙通信传送至AVN200。
AVN(Audio Video Navigation,音频视频导航)200包括UI(User Interface,用户界面)应用程序210、控制部220、近距离通信模块230及表示部240。
UI应用程序210,保有要传送至AVN控制装置100的遥控画面数据及该数据的版本,每次变更表示部240的画面时,传送应由AVN控制装置100表示的遥控画面识别者(ID)。
另外,UI应用程序210分析从AVN控制装置100接收的遥控控制信息与现在的遥控画面,导出AVN控制命令。
控制部220,根据在UI应用程序210导出的AVN控制命令,进行控制使AVN200执行相关动作。
近距离通信模块230,从AVN控制装置100以蓝牙通信接收遥控控制信息。
传统发明主要特征说明如下。
传统的AVN控制装置100,通过遥控应用程序110控制AVN200,通过近距离通信模块130以蓝牙通信收发为了控制AVN200的信息/命令。
遥控应用程序110,保存从AVN200下载相当于各种菜单的遥控画面数据。
在这里,遥控画面数据的下载,在驱动遥控应用程序110时进行,并且只有在遥控应用程序110与AVN200保有的相应数据的版本不同时进行。
另外,根据使用者的操作信息是由触摸屏输入(按压)坐标值构成,并且对于如同增加/减少、取消、终止的按钮,不仅是触摸屏输入坐标,也可由该按钮的代码值构成,在AVN200表示导航目的地搜索/输入、音频文件搜索/输入等的情况,在与此相同的画面使用者的操作信息可由键盘代码值构成。
触摸屏输入坐标值及按钮代码值传送至AVN200,与AVN200保有的遥控画面数据一起被分析后,变换为AVN控制命令。
如上所述,传统的AVN控制装置100为,从AVN200下载遥控应用程序,在车辆内控制AVN200。
发明内容
(要解决的技术问题)
本发明与如上所述的传统的技术不同,提供AVN***的远程控制装置及方法的目的在于,通过利用安装在AVN***的传感器与触控笔形成的假想触摸屏,远程控制AVN***的动作。
(解决问题的手段)
为达成上述的目的,根据本发明一方面的AVN***的远程控制装置,包括:触控笔;及中央处理部,根据使用者操作的所述触控笔,设定对于所述AVN***的远程控制功能的情况,识别所述触控笔的位置设定为所述触控笔的开始点,从设定的开始点根据所述触控笔的位置移动获取的信息为基础,设定中心点、帮助点,并且以设定的中心点及帮助点为基础,形成要在远程控制使用的假想触摸屏,并且根据通过形成的所述假想触摸屏的所述使用者的输入,远程控制所述AVN***。
根据本发明其他面的AVN***的远程控制方法,若根据使用者操作的触控笔,操作为远程控制所述AVN***,通过安装在所述AVN***的超声波接收部,接收从所述触控笔发射的超声波信号,以接收的超声波信号为基础,识别所述触控笔的位置设定为开始点的阶段;从设定的所述开始点,根据所述触控笔的位置移动获取的信息为基础,计算所述触控笔的移动位置,设定中心点、帮助点的阶段;以设定的中心点及帮助点为基础,形成要在远程控制使用的假想触摸屏的阶段;及根据通过形成的所述假想触摸屏的使用者的输入,远程控制所述AVN***的阶段。
(发明效果)
根据本发明,通过在车辆内部形成假想触摸屏,可远程控制AVN***,具有可提高使用者便利性的效果。
附图说明
图1是为了说明传统技术的图面。
图2是为了说明根据本发明一实施例的AVN***的远程控制装置的框图。
图3是为了说明触控笔的位置识别原理的图面。
图4是为了说明形成假想触摸屏的图面。
图5是为了说明根据本发明一实施例的AVN***的远程控制方法的流程图。
(附图标记说明)
100:AVN*** 110:通信模块
120:中央处理部 130:超声波接收部
200:触控笔 210:加速度计
220:陀螺仪传感器 230:BT/WiFi通信部
240:超声波传感器 250:按钮
具体实施方式
与附图一起参照详细后述的实施例,可明确本发明的优点及特征,还有为达成此的方法。但是,本发明别非限定在以下公开的实施例,而是可以相互不同的多样的形态实现,并且本实施例只是使本发明的公开更加完整,并且使在本发明所属技术领域具有通常知识的技术人员更加容易理解本发明的范围所提供,且本发明是根据权利要求的记载被定义。另一方面,在本说明书使用的用语是为了说明实施例,并不是要限制本发明。在本说明书中,单数型在句子中没有特别谈及时,也包括复数形。在说明书使用的“包括(comprises)”或“包括的(comprising)”为,不排除谈及的构成要素、阶段、动作及/或元件以外的一个以上的其他构成要素、阶段、动作及/或元件的存在或追加。
以下参照图2至图4,说明根据本发明一实施例的AVN***的远程控制装置。图2是为了说明根据本发明一实施例的AVN***的远程控制装置的框图。图3是为了说明触控笔的位置识别原理的图面。图4是为了说明形成假想触摸屏的图面。
如图2所示,本发明AVN***的远程控制装置,包括AVN***100及触控笔200。根据通过触控笔200及形成的假想触摸屏的使用者的输入,远程控制AVN***100,或根据通过触摸屏140的使用者的触摸输入,控制AVN***100。
AVN***100包括通信模块110、中央处理部120、超声波接收部130及触摸屏140。
超声波接收部130包括多个的感应超声波传感器,分别的感应超声波传感器相互分离间隔,安装在AVN***100的特定位置。
中央处理部120,根据使用者的按钮250操作,若从触控笔200接收远程控制请求信号,将触控笔200的设定开始点请求信息,表示在AVN***100画面上。
例如,AVN***100与触控笔200,在能蓝牙(BT)/无线(WiFi)通信、超声波通信的状态,若根据使用者以使用远程控制功能操作按钮250,中央处理部110为了识别触控笔200的位置,使触控笔200位于能收发超声波的距离,通过AVN***100的画面向使用者进行请求。
设定开始点请求信息表示在画面上后,根据使用者操作触控笔200位于能收发超声波的距离上,若根据超声波发射部240发射超声波信号,中央处理部120通过多个的感应超声波传感器接收超声波信号,以接收的超声波信号为基础,计算触控笔200的位置,识别触控笔200的位置,若完成触控笔200的位置识别后,将假想触摸屏的设定中心点请求信息表示在AVN***100的画面上。
例如在图3所示,中央处理部120至少通过3个的感应超声波传感器131、132、133接收超声波信号,以分别接收的超声波信号为基础,计算触控笔200分别的感应超声波传感器131、132、133之间的距离,并且以分别的感应超声波传感器131、132、133的位置为中心值,以分别计算的距离值为半径形成园,将分别形成的园重叠的一点识别为触控笔200的位置(开始点)。
根据表示的设定中心点请求信息,根据使用者若触控笔200在识别的位置(开始点)移动至特定位置,BT/WiF230根据触控笔200的位置移动,输出从加速度计210与陀螺仪传感器220输出的信号。
中央处理部120,以通过通信模块110接收的加速度计210与陀螺仪传感器220的输出信号为基础,计算触控笔200的移动位置,将计算的移动位置识别为假想触摸屏的中心点,若完成假想触摸屏的中心点识别,将假想触摸屏的设定帮助点请求信息,表示在AVN***100画面上。
根据表示的设定帮助点请求信息,根据使用者若触控笔200在识别的中心点从新移动至特定位置,BT/WiF230根据触控笔200的位置移动,输出从加速度计210与陀螺仪传感器220输出的信号。
中央处理部120,以通过通信模块110接收的加速度计210与陀螺仪传感器220的输出信号为基础,计算触控笔200的移动位置,将计算的移动位置识别为假想触摸屏的帮助点。
如图4所示,中央处理部120连接识别的中心点及帮助点,形成假想触摸屏的横方向轴,以识别的中心点的水平轴为基准,测量水平轴与形成的横方向轴之间的角度(θ),并且以识别的中心点与测量的角度(θ)为基础,形成大小在对应物理性触摸屏140大小的假想触摸屏。
中央处理部110,根据利用形成的假想触摸屏与触控笔200的使用者操作,控制AVN***100。
另一方面,大小在对应物理性触摸屏140大小,形成的假想触摸屏无法被使用者用肉眼识别,因此中央处理部110通过形成的假想触摸屏的触控笔200的假想触摸输入,在AVN***100的画面上表示为箭头或周期性波浪波形等。
例如,中央处理部120,在形成的假想触摸屏大小范围内,将触控笔200的假想触摸输入,在AVN***100的画面上表示为箭头或周期性的波浪波形等,触控笔200在超出假想触摸屏的大小范围的情况,没有表示箭头或周期性的波浪波形,让使用者识别在空间上形成的假想触摸屏,在识别的假想触摸屏的大小范围内,以触控笔200的假想触摸输入可使AVN***100操作,并且根据触控笔200的假想触摸输入控制AVN***100的动作。
如上所述,根据本发明通过在车辆内部形成的假想触摸屏,可远程控制AVN***,因此可使使用者的便利性提高。
在这里,说明了开始点与中心点为不同位置,但是并非限定于此,开始点与中心点可构成为相同位置。
另外,在这里说明了假想触摸屏形成为2维平面(横、竖),使其以2维动作进行了说明,但是并非现定于此,就算以形成的2维假想触摸屏为基准,触控笔以高度(竖)方向(+、—),定位至特定长度的范围,也识别为在2维假想触摸屏的位置移动,在AVN***的画面上,使其位置表示为箭头或周期性的波浪波形等构成。另外,将形成的假想触摸屏扩张为3维直六面体,当然以触控笔的(+、—)高度方向的(3维)位置移动构成,使其表示在画面上。
以上,参照图2至图4,说明了根据本发明一实施例的AVN***的远程控制装置,以下参照图5说明根据本发明一实施例的AVN***的远程控制方法。图5是为了说明根据本发明一实施例的AVN***的远程控制方法的流程图。
如图5所示,若操作附着在触控笔200的按钮250,根据此判断是否使用远程控制功能。(S500)
判断结果,设定为使用远程控制功能的情况,设定1号点。(S501)
设定1号点(point)的阶段,作为中央处理部120识别触控笔200位置的阶段,中央处理部120通过超声波接收部130,感应根据触控笔200发生的信号,以感应的信号为基础计算触控笔200的位置,识别触控笔200的位置,确定触控笔200的开始点。
所述开始点确定阶段,以通过感应超声波传感器或图像传感器等获取的信号为基础,测量触控笔200的位置,确定为假想触摸屏的开始点。设定在以下后述的2号、3号点(point)为,利用安装在触控笔200的陀螺仪传感器220与加速度计210,掌握触控笔200的位置,以掌握的位置为基础设定假想触摸屏的中心点、帮助点。
确认是否完成设定1号点(S502),确认结果,完成设定1号点的情况,设定2号点(S503),并且设定3号点(S504)。
2号点为假想触摸屏的中心点,并且3号点为假想触摸屏的帮助点,假想触摸屏的(横竖)大小对应物理性触摸屏140的大小。
为了提高对AVN***100的远程控制的准确性,使大小对应触摸屏140的大小,形成假想触摸屏。
连接识别的中心点与帮助点,形成假想触摸屏的横方向轴,以识别的中心点的水平轴为基准,测量水平轴与形成的横方向轴之间的角度(θ),并且以识别的中心点与测量的角度(θ)为基础,形成大小在对应物理性触摸屏140大小的假想触摸屏(S505)。
形成假想触摸屏后,通过AVN***100的画面,也可以询问使用者是否将假想触摸屏扩张为3维。
询问结果,根据使用者操作物理性触摸屏140或按钮250扩张为3维,为了将以2维平面(横x、竖y)形成的假想触摸屏扩张为3维,在2维平面的假想触摸屏反应高度(+z、-z),形成3维直六面体(横x、竖y、高z)的假想触摸屏。
在这里,考虑车辆的内部空间大小,可已设定高的长度(+z+|-z|),以2维平面形成的假想触摸屏的横x的长度比竖y的长度大的情况,使其预设定具有在横x的长度与竖y的长度之间的值。
但是,询问结果,根据使用者若没有操作扩张物理性触摸屏140或按钮250,不执行3维扩张过程。
根据利用形成的假想触摸屏与触控笔200的使用者的操作,控制AVN***100。(S506)
例如,大小在对应物理性触摸屏140的大小,形成的假想触摸屏是无法被使用者用肉眼识别,因此若触控笔200位于形成的假想触摸屏的大小(横竖)范围内,将触控笔200的位置以箭头或周期性波浪波形等表示在AVN***100的画面上。
即,在AVN***100的画面上,表示箭头或周期性波浪波形等,使使用者可识别在空间上形成的假想触摸屏,在识别的假想触摸屏的大小内,如同无线鼠标等使触控笔200操作,并且根据通过识别的假想触摸屏的使用者的操作,控制AVN***100的动作。
另外,若触控笔200位于超出形成的假想触摸屏的大小(横竖)的范围,不将触控笔200的位置表示在AVN***100的画面上。
即,触控笔200的位置超出假想触摸屏的大小范围的情况,不在AVN***100的画面上表示箭头或周期性的波浪波形等,进而可使使用者识别触控笔200位于超出假想触摸屏的大小范围的位置,使触控笔200从新位于假想触摸屏的大小范围内。
另一方面,根据使用者设定为不使用触控笔200,或不使用远程控制功能的情况,根据通过触摸屏140的使用者的触摸输入,控制AVN***100。
参照以上优选实施例与附图,详细说明了关于本发明的构成,但是这只不过是事例,在不超过本发明技术思想的范畴内,当然可进行多种多样的变形。因此奔放的范围不能局限在说明的实施例,不仅根据后续的权利要求的范围,也根据与此权利要求的范围均等被决定。

Claims (11)

1.一种AVN***的远程控制装置,其特征在于,包括:
触控笔;及
AVN***,
所述AVN***包括:
触摸屏,用于接收使用者的触摸输入;
超声波接收部,接收从所述触控笔发生的超声波;及
通信模块,通过近距离通信接收从所述触控笔传送的信息;
中央处理部,根据使用者操作的所述触控笔,设定对所述AVN***的远程控制功能的情况,识别所述触控笔的位置,设定为所述触控笔的开始点,从设定的开始点根据所述触控笔的位置移动获取的信息为基础,设定中心点、帮助点,并且以设定的中心点及帮助点为基础,形成要在远程控制中使用的假想触摸屏,根据通过形成的所述假想触摸屏的所述使用者的输入,远程控制所述AVN***。
2.根据权利要求1所述的AVN***的远程控制装置,其特征在于,还包括:
所述中央处理部,以通过所述超声波接收部接收的超声波信号为基础,识别所述触控笔的位置设定所述开始点,根据识别位置的所述触控笔到特定位置的移动,以通过所述通信模块接收的信息为基础计算所述触控笔的移动位置并设定为所述中心点,根据所述触控笔从所述中心点到特定位置的移动,以通过所述通信模块接收的信息为基础计算所述触控笔的移动位置并设定为所述帮助点,并且以设定的所述中心点及帮助点为基础,形成所述假想触摸屏。
3.根据权利要求2所述的AVN***的远程控制装置,其特征在于,
所述超声波接收部,至少包括3个的感应超声波传感器,
所述中央处理部,通过所述至少3个的感应超声波传感器接收超声波信号,以分别接收的超声波信号为基础,计算所述触控笔与分别的感应超声波传感器之间的距离,并且以所述分别的感应超声波传感器的位置为中心值,以分别计算的距离值为半径形成圆,将各形成的圆重叠的一点识别为所述触控笔的位置。
4.根据权利要求3所述的AVN***的远程控制装置,其特征在于,
所述中央处理部,
根据所述使用者的操作,若从所述触控笔接收远程控制请求信号,将所述触控笔的设定开始点请求信息,表示在所述AVN***的画面上,
根据表示的设定开始点请求信息,若根据所述使用者所述触控笔位于能收发超声波的距离上,若通过所述超声波接收部,接收从所述触控笔的超声波信号,以通过所述至少3个的感应超声波传感器接收的超声波信号为基础,计算所述触控笔的位置,识别所述触控笔的位置后,将所述假想触摸屏的设定中心点请求信息表示在所述AVN***画面上,
根据表示的设定中心点请求信息,若根据所述使用者所述触控笔的在识别位置移动至特定位置,根据所述触控笔的位置移动,以从所述触控笔的加速度计与陀螺仪传感器通过所述通信模块接收的信号为基础,计算所述触控笔的移动位置,并识别为假想触摸屏的中心点后,将假想触摸屏的设定帮助点请求信息,表示在所述AVN***画面上,
根据表示的设定帮助点请求信息,若根据所述使用者所述触控笔在识别的中心点位置从新移动至特定位置,根据所述触控笔的位置移动,以通过通信模块接收的信号为基础,计算所述触控笔的位置移动,识别为假想触摸屏的帮助点,
以识别的所述中心点及帮助点为基础,形成所述假想触摸屏。
5.根据权利要求1所述的AVN***的远程控制装置,其特征在于,
所述中央处理部,
连接设定的所述中心点及帮助点,形成假想触摸屏的横方向轴,以设定的所述中心点的水平轴为基准,测量所述水平轴与形成的横方向轴之间的角度(θ),并且以设定的所述中心点与测量的所述角度(θ)为基础,形成大小在对应所述AVN***的物理性触摸屏大小的假想触摸屏,根据利用形成的假想触摸屏与所述触控笔的所述使用者的操作,控制所述AVN***。
6.根据权利要求1所述的AVN***的远程控制装置,其特征在于,
所述中央处理部,
若所述触控笔为,大小在对应所述AVN***的物理性触摸屏大小,位于形成的假想触摸屏的大小范围内,将所述触控笔的假想触摸输入以箭头或周期性波浪波形表示在所述AVN***画面上,若所述触控笔位于超出形成的假想触摸屏的大小范围,不表示对应所述触控笔位置的箭头或周期性的波浪波形。
7.一种AVN***的远程控制方法,其特征在于,
根据AVN***的远程控制方法,包括:
根据使用者操作的触控笔,若操作为远程控制所述AVN***,通过安装在所述AVN***的超声波接收部,接收从所述触控笔发射的超声波信号,以接收的超声波信号为基础,识别所述触控笔的位置设定为开始点的阶段;
从设定的所述开始点,以根据所述触控笔的位置移动获取的信息为基础,计算所述触控笔的移动位置,设定中心点、帮助点的阶段;
以设定的中心点及帮助点为基础,形成在远程控制使用的假想触摸屏的阶段;及
根据通过形成的所述假想触摸屏的使用者的输入,远程控制所述AVN***的阶段。
8.根据权利要求7所述的AVN***的远程控制方法,其特征在于,
所述超声波接收部,至少包括3个的感应超声波传感器,
设定为所述开始点的阶段,包括:
通过所述至少3个的感应超声波传感器,接收超声波信号的阶段;
以分别接收的超声波信号为基础,计算所述触控笔与分别的感应超声波传感器之间的距离的阶段;
以所述分别的超声波传感器的位置为中心值,将分别计算的距离值为半径形成圆,重叠各形成圆的一点识别为所述触控笔的位置的阶段。
9.根据权利要求7所述的AVN***的远程控制方法,其特征在于,
形成所述假想触摸屏的阶段,
根据所述使用者的操作,若从所述触控笔接收远程控制请求信号,将所述触控笔的设定开始点请求信息,表示在所述AVN***画面上的阶段;
设定开始点请求信息在画面上表示后,若完成所述触控笔的位置识别,将所述假想触摸屏的设定中心点请求信息,表示在所述AVN***的画面上的阶段;及
表示设定中心点请求信息后,若完成假想触摸屏的中心点设定,将假想触摸屏的设定帮助点请求信息,表示在所述AVN***画面上的阶段。
10.根据权利要求7所述的AVN***的远程控制方法,其特征在于,
形成所述假想触摸屏的阶段,包括:
连接设定的中心点与帮助点,形成假想触摸屏的横方向轴的阶段;
以设定的中心点的水平轴为基准,测量水平轴与形成的横方向轴之间角度(θ)的阶段;及
以设定的中心点与测量的角度(θ)为基础,形成大小在对应所述AVN***的物理性触摸屏大小的假想触摸屏的阶段。
11.根据权利要求7所述的AVN***的远程控制方法,其特征在于,
还包括:
假想触摸屏形成后,询问使用者是否将假想触摸屏扩张为3维的阶段;
询问结果,若根据使用者选择3维扩张,为了使以2维平面形成的假想触摸屏扩张为3维,在所述2维平面的假想触摸屏反映已设定长度的高,形成3维直六面体的假想触摸屏的阶段。
CN201310581299.XA 2013-09-05 2013-11-19 Avn***的远程控制装置及方法 Active CN104423732B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130106645A KR102089469B1 (ko) 2013-09-05 2013-09-05 Avn 시스템의 원격 제어 장치 및 방법
KR10-2013-0106645 2013-09-05

Publications (2)

Publication Number Publication Date
CN104423732A CN104423732A (zh) 2015-03-18
CN104423732B true CN104423732B (zh) 2017-07-07

Family

ID=52582491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310581299.XA Active CN104423732B (zh) 2013-09-05 2013-11-19 Avn***的远程控制装置及方法

Country Status (3)

Country Link
US (1) US9256305B2 (zh)
KR (1) KR102089469B1 (zh)
CN (1) CN104423732B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102627518B1 (ko) * 2016-09-02 2024-01-23 엘지전자 주식회사 싱크 디바이스 및 그 제어 방법
US10528159B2 (en) 2017-01-19 2020-01-07 Hewlett-Packard Development Company, L.P. Input pen gesture-based display control

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101943983A (zh) * 2009-07-09 2011-01-12 纬创资通股份有限公司 计算机***的控制方法及相关计算机***
KR20110118325A (ko) * 2010-04-23 2011-10-31 (주)나노티에스 3차원 터치 위치 검출 장치 및 방법과, 이를 갖는 3차원 터치 스크린 시스템
CN103076918A (zh) * 2012-12-28 2013-05-01 深圳Tcl新技术有限公司 基于触摸终端的远程控制方法及***

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6335723B1 (en) * 1998-10-02 2002-01-01 Tidenet, Inc. Transmitter pen location system
KR100326756B1 (ko) * 1999-04-29 2002-03-12 이호균 초음파를 이용한 위치 및 제어신호 입력 시스템
KR20000006747A (ko) * 1999-10-29 2000-02-07 이주혁 휴대용 예취기 바퀴
US20030132950A1 (en) * 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US20050110778A1 (en) 2000-12-06 2005-05-26 Mourad Ben Ayed Wireless handwriting input device using grafitis and bluetooth
JP2002236546A (ja) * 2001-02-08 2002-08-23 Canon Inc 座標入力装置及びその制御方法、コンピュータ可読メモリ
US7489308B2 (en) * 2003-02-14 2009-02-10 Microsoft Corporation Determining the location of the tip of an electronic stylus
US7961173B2 (en) * 2006-09-05 2011-06-14 Navisense Method and apparatus for touchless calibration
KR20110011832A (ko) * 2009-07-29 2011-02-09 주식회사 하이닉스반도체 센스앰프 장치 및 그 구동방법
NO332170B1 (no) * 2009-10-14 2012-07-16 Cisco Systems Int Sarl Anordning og fremgangsmate for kamerakontroll
US8593402B2 (en) * 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
CN103443746B (zh) * 2010-12-22 2017-04-19 Z空间股份有限公司 用户控制装置的在空间中的三维跟踪
US20130293683A1 (en) * 2012-05-03 2013-11-07 Harman International (Shanghai) Management Co., Ltd. System and method of interactively controlling a virtual camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101943983A (zh) * 2009-07-09 2011-01-12 纬创资通股份有限公司 计算机***的控制方法及相关计算机***
KR20110118325A (ko) * 2010-04-23 2011-10-31 (주)나노티에스 3차원 터치 위치 검출 장치 및 방법과, 이를 갖는 3차원 터치 스크린 시스템
CN103076918A (zh) * 2012-12-28 2013-05-01 深圳Tcl新技术有限公司 基于触摸终端的远程控制方法及***

Also Published As

Publication number Publication date
CN104423732A (zh) 2015-03-18
KR102089469B1 (ko) 2020-03-16
US9256305B2 (en) 2016-02-09
US20150062011A1 (en) 2015-03-05
KR20150028041A (ko) 2015-03-13

Similar Documents

Publication Publication Date Title
US20220374092A1 (en) Multi-function stylus with sensor controller
KR101253451B1 (ko) 음원의 위치를 감지할 수 있는 모바일 디바이스 및 그 제어 방법
JP5784003B2 (ja) マルチテレポインタ、仮想客体表示装置、及び仮想客体制御方法
CN104049737B (zh) 用户设备的对象控制方法和装置
CN106104434B (zh) 使用触摸屏设备确定用户利手和定向
EP3039563B1 (en) Multi display method, storage medium, and electronic device
US20190204941A1 (en) Input method and electronic device using pen input device
CN105934729B (zh) 用于将用户输入提供到装置的技术
JP5879738B2 (ja) 通信装置、通信制御方法およびプログラム
TWI569176B (zh) 手寫軌跡識別方法與系統
CN109074217A (zh) 用于多点触摸输入检测的应用
US20160085296A1 (en) Wearable input device
US10956030B2 (en) Multi-touch based drawing input method and apparatus
WO2014067421A1 (zh) 选择文件的方法和终端
CN105260112A (zh) 终端间屏幕控制的方法和装置
JP2016071836A (ja) ホログラム表示を実現する対話型表示方法、制御方法及びシステム
CN107193403A (zh) 触摸板增强空鼠遥控设备及其遥控方法
CN104423732B (zh) Avn***的远程控制装置及方法
CN106598422A (zh) 基于指向型的操控、混合操控方法及操控***和电子设备
CN104238939A (zh) 便携式设备的控制***、触控装置
CN103984407A (zh) 使用运动传感器融合来进行运动识别的方法及装置
CN104345905A (zh) 触控式空中鼠标的控制方法
CN103869959B (zh) 电子装置控制方法以及电子装置
JP2009181261A (ja) 双方向通信システム
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant