JPH0950235A - On-vehicle information device - Google Patents

On-vehicle information device

Info

Publication number
JPH0950235A
JPH0950235A JP7204647A JP20464795A JPH0950235A JP H0950235 A JPH0950235 A JP H0950235A JP 7204647 A JP7204647 A JP 7204647A JP 20464795 A JP20464795 A JP 20464795A JP H0950235 A JPH0950235 A JP H0950235A
Authority
JP
Japan
Prior art keywords
touch
display
vehicle information
operator
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7204647A
Other languages
Japanese (ja)
Inventor
Hiroyuki Kohida
啓之 小比田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Xanavi Informatics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xanavi Informatics Corp filed Critical Xanavi Informatics Corp
Priority to JP7204647A priority Critical patent/JPH0950235A/en
Publication of JPH0950235A publication Critical patent/JPH0950235A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle information device enabling an operator to rapidly and easily perform more accurate instructing operation without recognizing an exact instructing position on a screen. SOLUTION: This on-vehicle information device is mounted on a vehicle, and the operator can obtain information through the display screen of a display device in the information device. It is provided with a touch panel 22 arranged in the front of the display screen of the display device 21, and at least the operator gives instruction for operation concerning the display of the display device based on the locus (gesture) of touch by the operator on the touch panel. Therefore, since the operator need not confirm and touch the specified position on the screen, the number of times when he (she) turns his (her) eyes away from the frontward in the midst of traveling, is reduced and safety is improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、車載情報装置に係り、
特に、表示画面上をなぞる動作によって使用頻度の高い
操作指示入力を行えるようにした車載情報装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an in-vehicle information device,
In particular, the present invention relates to an in-vehicle information device capable of inputting frequently used operation instructions by tracing an operation on a display screen.

【0002】[0002]

【従来の技術】近年、地図情報を表示装置の画面上に表
示して、車両の現在位置の確認および目的地への誘導等
を行うことができるナビゲーションシステムのごとき車
載用の情報処理装置が急速に普及してきている。このよ
うな情報処理装置では、表示画面上にボタン状のスイッ
チを表示し、車両の運転者等がこのボタン領域にタッチ
することにより、そのボタンに割り当てられた操作を実
行できるようになっている。
2. Description of the Related Art In recent years, in-vehicle information processing devices such as navigation systems that can display map information on the screen of a display device to confirm the current position of the vehicle and guide the driver to the destination have been rapidly developed. Is becoming popular. In such an information processing device, a button-shaped switch is displayed on the display screen, and a driver of the vehicle or the like can perform an operation assigned to the button by touching the button area. .

【0003】このような車載情報装置は、特開平6−6
8383号公報および特開平6−66583号公報など
に開示されている。
Such an on-vehicle information device is disclosed in Japanese Patent Laid-Open No. 6-6.
It is disclosed in Japanese Patent No. 8383 and Japanese Patent Laid-Open No. 6-65883.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
画面上に表示されたボタン状のスイッチを運転者が操作
する際には、ボタン表示領域内を適切にタッチする必要
があるが、車両を運転しながらの場合、正確にタッチす
ることは容易ではなく、誤操作の可能性があった。その
ため、操作者は画面上の指示対象位置を正確に認識して
注意深く操作する必要があり、迅速な操作が行えず、ま
た、これが疲労の原因ともなった。
However, when the driver operates the button-shaped switch displayed on the conventional screen, it is necessary to appropriately touch the inside of the button display area. While doing so, it was not easy to touch accurately and there was a possibility of erroneous operation. Therefore, the operator needs to accurately recognize the position to be pointed on the screen and operate it carefully, which makes quick operation impossible, which is also a cause of fatigue.

【0005】本発明は、このような事情に鑑み、操作者
が画面上の正確な指示位置を認識する必要なく、迅速か
つ容易に所望の操作指示が行える車載用情報装置を提供
することを目的とする。
In view of such circumstances, it is an object of the present invention to provide an in-vehicle information device which can promptly and easily give a desired operation instruction without the operator having to recognize an accurate instruction position on the screen. And

【0006】[0006]

【課題を解決するための手段】本発明による車載情報装
置は、車両に搭載され、表示装置の表示画面を介して操
作者が情報を得ることができる車載情報装置において、
表示装置の表示画面の前面に配置されたタッチパネルを
有し、該タッチパネルに対する操作者のタッチの軌跡に
基づいて、少なくとも前記表示装置の表示に関する操作
指示を行うようにしたものである。
An on-vehicle information device according to the present invention is mounted on a vehicle and allows an operator to obtain information through a display screen of a display device.
A touch panel is provided on the front surface of the display screen of the display device, and at least an operation instruction regarding the display of the display device is performed based on the trajectory of the touch of the operator on the touch panel.

【0007】この車載情報装置は、例えば、車両用ナビ
ゲーションシステムであり、前記表示に関する操作指示
は、表示画面上に表示された道路地図のスクロール、拡
大、縮小、回転の少なくとも1つを含む。
The on-vehicle information device is, for example, a vehicle navigation system, and the operation instruction regarding the display includes at least one of scrolling, enlarging, reducing, and rotating the road map displayed on the display screen.

【0008】好ましくは、前記タッチパネル上のタッチ
の座標および時刻を逐次検出して、タッチパネル上をな
ぞる動作の速さおよび方向を求める手段を有する。
[0008] Preferably, there is provided means for sequentially detecting the coordinates and time of the touch on the touch panel to obtain the speed and direction of the operation of tracing on the touch panel.

【0009】前記なぞる動作の速さに応じて、前記操作
指示による操作の量を変化させるようにしてもよい。
The amount of operation according to the operation instruction may be changed according to the speed of the tracing operation.

【0010】複数種類の操作指示に対して予め定めた異
なる軌跡の情報を登録しておき、前記タッチの軌跡を前
記登録された異なる軌跡の情報と比較することにより、
操作者による操作指示を認識することことができる。
Information of predetermined different loci is registered for a plurality of types of operation instructions, and the locus of the touch is compared with the registered information of different loci,
The operator's operation instruction can be recognized.

【0011】操作者に対して逐次複数種類の操作指示を
行うことを促す学習用画面を表示し、該学習用画面に対
して操作者により行われた各種類の操作指示の軌跡に基
づいて前記登録された軌跡の情報を修正し、または、登
録すべき軌跡の情報を作成するようにしてもよい。
A learning screen that prompts the operator to sequentially issue a plurality of types of operation instructions is displayed, and the learning screen is displayed based on the trajectory of each type of operation instruction made by the operator. The registered locus information may be modified or the registered locus information may be created.

【0012】本発明による車載情報装置は、また、車両
に搭載され、表示装置の表示画面上に道路地図を表示す
る車載情報装置において、前記表示画面の前面に配置さ
れたタッチパネルを有し、該タッチパネルに対して道路
地図上の1点を予め定めた時間以上連続してタッチし続
けたとき、前記道路地図上の1点を中心として当該道路
地図を拡大表示することを特徴とする。
The on-vehicle information device according to the present invention is also mounted on a vehicle and displays a road map on the display screen of the display device, which has a touch panel arranged in front of the display screen. When one point on the road map is continuously touched on the touch panel for a predetermined time or more, the road map is enlarged and displayed centering on the one point on the road map.

【0013】[0013]

【作用】本発明では、画面前面に配置されたタッチパネ
ルをなぞるタッチの軌跡(ジェスチャ)から操作指示
(コマンド)を解釈するため、その操作指示のための特
定の位置をタッチする必要がなく、前方から視線をずら
さずに操作指示(特に使用頻度の高い操作指示)を行う
ことができる。但し、道路地図の拡大指示の場合であっ
て、そのタッチ位置を中心として拡大する場合には、そ
の目的の位置をタッチする必要がある。しかし、拡大指
示のための表示領域というようなものは存在しないの
で、特に厳密な位置のタッチは必要ない。
In the present invention, since the operation instruction (command) is interpreted from the trajectory (gesture) of the touch traced on the touch panel arranged on the front surface of the screen, it is not necessary to touch a specific position for the operation instruction, and It is possible to give an operation instruction (especially an operation instruction that is frequently used) without shifting the line of sight. However, in the case of an instruction to enlarge the road map and when enlarging the touch position as the center, it is necessary to touch the target position. However, since there is no such thing as a display area for instructing enlargement, it is not necessary to touch the exact position.

【0014】各操作指示に割り当てられたジェスチャ
は、個々の操作者に応じて、その癖を装置が学習するこ
とにより、認識の精度が向上する。
The gesture assigned to each operation instruction is recognized by the device according to the individual operator, so that the recognition accuracy is improved.

【0015】さらに、使用頻度の高いコマンドをタッチ
スイッチで操作できるため、パネルのスイッチ数を減少
させることができる。あるいは、目的地設定のような複
数の操作から呼び出されていた機能を、直接、空いたス
イッチに割り付けることができる。
Further, since a frequently used command can be operated by the touch switch, the number of switches on the panel can be reduced. Alternatively, the function called from a plurality of operations such as destination setting can be directly assigned to the vacant switch.

【0016】[0016]

【実施例】以下、本発明の好適な実施例について、図面
により詳細に説明する。
Preferred embodiments of the present invention will be described in detail below with reference to the drawings.

【0017】まず、図2に本発明による車載情報装置の
外観構成を示す。この装置全体は、地図等を表示する液
晶ディスプレイ21と、これに被覆されるタッチスイッ
チおよび押しボタン等からなるスイッチユニット22
と、CDに格納された地図情報を読み出すCD−ROM
ユニット23と、ナビゲーションシステムにおける現在
位置を演算するGPS(Global Positioning System)受
信器24と、スイッチユニット22からの操作に応じて
CD−ROMユニット23から地図データを読み出し、
GPS受信器24から得られた位置情報と合わせてディ
スプレイユニットに地図表示し、同時にスイッチユニッ
ト22からのタッチスイッチをなぞる速さと方向を計算
するナビゲーションユニット25とにより構成されてい
る。
First, FIG. 2 shows an external configuration of an on-vehicle information device according to the present invention. The entire apparatus includes a liquid crystal display 21 for displaying a map and the like, and a switch unit 22 including a touch switch and a push button covered with the liquid crystal display 21.
And a CD-ROM that reads the map information stored on the CD
The unit 23, the GPS (Global Positioning System) receiver 24 for calculating the current position in the navigation system, and the map data read from the CD-ROM unit 23 according to the operation from the switch unit 22,
The navigation unit 25 is configured to display a map on the display unit together with the position information obtained from the GPS receiver 24, and at the same time calculate the speed and direction of tracing the touch switch from the switch unit 22.

【0018】図1に、図2のシステムに対応する機能ブ
ロック図を示す。この装置は、押し釦入力手段111お
よびタッチスイッチ入力手段112からなる入力設定手
段11と、タイマ手段12と、タッチ位置移動速度検出
手段13と、現在位置演算手段14と、情報処理手段1
5と、地図情報記憶手段16と、表示手段17とにより
構成される。入力設定手段11は、図2のスイッチユニ
ット22に対応し、地図情報記憶手段16はCD−RO
Mユニット23に対応し、表示手段17は液晶ディスプ
レイ21に対応している。また、タッチ位置移動速度検
出手段13、現在位置演算手段14、および情報処理手
段15は、ナビゲーションユニット25に対応してい
る。情報処理手段15は、典型的には、マイクロプロセ
ッサと、プログラムおよびデータを記憶するROM,R
AM等のメモリにより構成される。タッチ位置速度検出
手段13および現在位置演算手段14は、いずれもマイ
クロプロセッサによるプログラム制御により実現できる
ので、図1においては、情報処理手段15内に含めるこ
とができるが、機能明示のために別ブロックとして示し
てある。
FIG. 1 shows a functional block diagram corresponding to the system of FIG. This apparatus includes an input setting means 11 including a push button input means 111 and a touch switch input means 112, a timer means 12, a touch position moving speed detecting means 13, a current position calculating means 14, and an information processing means 1.
5, a map information storage means 16 and a display means 17. The input setting means 11 corresponds to the switch unit 22 of FIG. 2, and the map information storage means 16 is a CD-RO.
The display means 17 corresponds to the M unit 23 and the liquid crystal display 21. The touch position movement speed detection means 13, the current position calculation means 14, and the information processing means 15 correspond to the navigation unit 25. The information processing means 15 is typically a microprocessor and ROM, R for storing programs and data.
It is composed of a memory such as AM. Since the touch position / speed detecting means 13 and the current position calculating means 14 can both be realized by program control by a microprocessor, they can be included in the information processing means 15 in FIG. It is shown as.

【0019】図3(a)に示すように、スイッチユニッ
ト22は、液晶ディスプレイ21の前面に位置し、画面
上に表示されるスイッチのような特定の部分をタッチす
る指の位置(座標)を検出する。本実施例におけるスイ
ッチユニット22のタッチスイッチは、液晶ディスプレ
イ21の液晶パネル211の表示を透過して見ることが
できるタッチパネル221の周囲に配置された発光ダイ
オード(LED)とフォトダイオード(フォトディテク
タ:PD)の光学系を指で遮断することにより、タッチ
位置を検出するようになっている。図3(b)に示すよ
うに、発光ダイオードのアレイおよびフォトダイオード
のアレイは、水平方向および垂直方向の両方向におい
て、タッチパネル221に対応する、スイッチユニット
基板222の方形開口の内部に向けて対向配置されてい
る。
As shown in FIG. 3A, the switch unit 22 is located on the front surface of the liquid crystal display 21, and indicates the position (coordinates) of a finger touching a specific portion such as a switch displayed on the screen. To detect. The touch switch of the switch unit 22 in the present embodiment is a light emitting diode (LED) and a photodiode (photodetector: PD) arranged around the touch panel 221 through which the display of the liquid crystal panel 211 of the liquid crystal display 21 can be seen. The touch position is detected by blocking the optical system of the above with a finger. As shown in FIG. 3B, the array of light emitting diodes and the array of photodiodes are arranged facing each other in both the horizontal direction and the vertical direction toward the inside of the rectangular opening of the switch unit substrate 222 corresponding to the touch panel 221. Has been done.

【0020】なお、このような光学式のタッチスイッチ
に代えて、静電容量を利用するものや、抵抗値の変化を
利用するものであっても、タッチしている位置を連続し
て検出できるものであれば、その種類は問わない。
It should be noted that, instead of such an optical touch switch, it is possible to continuously detect the touched position, even if it uses capacitance or changes in resistance value. The type does not matter as long as it is one.

【0021】図4に、本実施例におけるタッチパネルを
なぞる操作(以下、ジェスチャという)と、これに対す
る装置の表示上の応答を示す。装置に対するすべての操
作指示をジェスチャで行うことも可能であるが、そのた
めには覚えなければならないジェスチャの種類が増加し
たり、高分解能のタッチスイッチが必要となったりする
ことから、本実施例では、走行中の操作指示に必要なコ
マンドについてのみジェスチャを割り当てている。
FIG. 4 shows an operation (hereinafter, referred to as a gesture) of tracing the touch panel in this embodiment, and a response on the display of the apparatus to the operation. Although it is possible to perform all operation instructions to the device by gestures, the number of gestures that must be remembered for this purpose increases, and a touch switch with high resolution is required. , Gestures are assigned only to commands necessary for operating instructions during running.

【0022】図4の例は、表示画面上の地図表示に関す
る操作一覧を示している。地図画像をいずれかの方向に
スクロールしたいときには、タッチパネルに指をふれた
まま、ふれている位置をその方向へ移動させる。すなわ
ち、直線状になぞるジェスチャを行う。スクロール方向
は、上下左右および斜め方向を含めた8方向である。こ
れにより、指示された方向に画像がスクロールする。そ
のスクロール量は、指の移動速度に応じて変わる。この
例では、ある速さより速いときには3/4画面分、遅い
ときには1/2画面分を1回のタッチ指示でスクロール
する。このように設定したのは、スクロールにより現在
地が画面外に移動すると見たい位置と現在地との関係が
分かりにくくなるので、なるべく現在地が画面上に残る
ようにするためである。同方向への2回目以降のスクロ
ールでは、現在地が表示できなくなるが、ユーザが繰り
返しを希望していると判断して、指示通りのスクロール
を行う。
The example of FIG. 4 shows a list of operations relating to map display on the display screen. If you want to scroll the map image in either direction, move the touched position in that direction while touching the touch panel with your finger. That is, a linear tracing gesture is performed. The scroll direction is eight directions including up, down, left, right, and diagonal directions. As a result, the image scrolls in the designated direction. The scroll amount changes according to the moving speed of the finger. In this example, when the speed is faster than a certain speed, 3/4 screens are scrolled, and when the speed is slower, 1/2 screens are scrolled by one touch instruction. The setting is made in this way so that if the current position moves out of the screen due to scrolling, it becomes difficult to understand the relationship between the desired position and the current position, so that the current position remains on the screen as much as possible. Although the current position cannot be displayed in the second and subsequent scrolls in the same direction, the user determines that the user wants to repeat the current position, and scrolls as instructed.

【0023】現在表示されている地図の一部を拡大表示
したいときには、拡大したい地点を予め定めた時間以上
タッチし続ける。これにより、その地点の詳細表示のた
めの地図データが存在する限り、タッチしている地点を
変えずに拡大した地図を表示する。拡大限界に達した場
合には、装置は警告音を発生する。この拡大表示操作の
操作前と操作後の表示例を図5(a),(b)に示す。
When it is desired to enlarge and display a part of the currently displayed map, the point to be enlarged is kept touched for a predetermined time or longer. As a result, as long as the map data for the detailed display of the point exists, the enlarged map is displayed without changing the touched point. If the expansion limit is reached, the device emits a warning sound. Display examples before and after the enlarged display operation are shown in FIGS. 5A and 5B.

【0024】現在表示されている地図を縮小表示したい
場合には、タッチパネル上でバツ(×)マークを書くよ
うにタッチする。これにより、車両の現在位置を中心に
1段階広域の表示を行う。この×マークのジェスチャ
は、スクロールを右下方向と左下方向とに行うことと似
ているが、通常、スクロールを繰り返す場合には同じ方
向にタッチすることを繰り返すため、両者を区別するこ
とができる。さらに、具体的な区別方法については後述
する。
When it is desired to reduce the size of the currently displayed map, the user touches the cross mark (x) on the touch panel. As a result, a one-step wide area display is performed centering on the current position of the vehicle. This X mark gesture is similar to performing scrolling in the lower right direction and the lower left direction, but normally when repeatedly scrolling, touching in the same direction is repeated, so it is possible to distinguish between the two. . Further, a specific distinguishing method will be described later.

【0025】本実施例の車載情報装置には、地図の画面
上における表示方向として、車両進行方向が画面の上に
なるように表示する進行方向上モードと、北が画面の上
になるように表示する北方向上モードの二つの表示回転
モードを有しており、このモード切り替え変更のため
に、タッチパネル上でマルを書くようにするジェスチャ
を用意している。これに応答して、表示回転モードが交
互に切り替わる。
In the on-vehicle information device of this embodiment, as the display direction of the map on the screen, the traveling direction upper mode in which the vehicle traveling direction is displayed on the screen and the north on the screen are displayed. It has two display rotation modes, which are the north direction upper mode to display, and a gesture to write a circle on the touch panel is prepared for changing the mode switching. In response to this, the display rotation mode is alternately switched.

【0026】図6に、ユーザのタッチ操作がどのジェス
チャに該当するかを判断するための処理のフローチャー
トを示す。この処理は、タッチパネル上へ指がタッチし
た瞬間に起動され、前述したマイクロプロセッサによる
プログラム制御により実行される。図中、二重枠で囲っ
た処理が図4の各ジェスチャの操作に対応するが、この
部分を変更することにより、別の操作をジェスチャで行
うこともできる。この処理の実行に先立ち、予め各操作
指示に対応するジェスチャの速度ベクトルをメモリに登
録しておく。
FIG. 6 shows a flowchart of processing for determining which gesture the user's touch operation corresponds to. This process is started at the moment when the finger touches the touch panel, and is executed by the program control by the microprocessor described above. In the figure, the process surrounded by the double frame corresponds to the operation of each gesture in FIG. 4, but another operation can be performed by the gesture by changing this part. Prior to the execution of this processing, the velocity vector of the gesture corresponding to each operation instruction is registered in the memory in advance.

【0027】図6の処理では、まず、ToタイマとTz
タイマをセットする(601)。Toタイマは、タッチ
された後の経過時間が所定のタイムオーバー時間Toに
達したか否かを判定するためのタイマである。Tzタイ
マは、タッチされた後の経過時間が「拡大」表示操作を
意味する拡大表示時間Tz(To>Tz)に達したか否
かを判定するためのタイマである。次にタッチされた座
標とその時刻を情報処理手段15内のメモリに記憶する
(602)。図示しないが、本装置は、プロセッサが時
刻を認識できる内蔵時計を有する。
In the processing of FIG. 6, first, the To timer and Tz
A timer is set (601). The To timer is a timer for determining whether or not the elapsed time after being touched reaches a predetermined time-over time To. The Tz timer is a timer for determining whether or not the elapsed time after being touched has reached the enlarged display time Tz (To> Tz) which means an “enlarged” display operation. Next, the touched coordinates and the time are stored in the memory in the information processing means 15 (602). Although not shown, the device has a built-in clock that allows the processor to recognize the time.

【0028】そこで、Toタイマにより時間Toが経過
しているか否かを調べる(603)。経過していれば、
タイムアウト処理を行う(608)。すなわち、操作指
示に時間がかかりすぎたり、ジェスチャが不明瞭であっ
りした場合に、ジェスチャとして認識できなかったとし
て、To,Tzタイマをストップして(623)、本処
理を終了する。
Then, it is checked by the To timer whether the time To has passed (603). If it has passed,
Timeout processing is performed (608). That is, when the operation instruction takes too much time or the gesture is unclear, it is determined that the gesture cannot be recognized, the To and Tz timers are stopped (623), and the processing is ended.

【0029】ステップ603で、時間Toが経過してい
なければ、Tzタイマにより拡大表示時間Tzが経過し
たか否かを調べる(604)。時間Tとは後述するよう
に、操作者に合わせて学習することができる。経過して
いれば、拡大地図表示の操作指示があったと判断して、
拡大地図表示処理を行う(609)。この拡大指示に対
して、用意された最大の拡大地図を表示した場合には
(610でyes)、これ以上詳細な地図を表示できな
い旨を報知する警告音を発する(611)。その後、T
oタイマおよびTzタイマをストップして(623)、
この処理を終了する。最大の拡大地図ではない場合には
(610でNo)、Tzタイマをクリアして(60
7)、ステップ602へ戻る。
If the time To has not elapsed in step 603, the Tz timer checks whether or not the enlarged display time Tz has elapsed (604). The time T can be learned according to the operator, as described later. If it has passed, it is determined that there is an operation instruction for displaying the enlarged map,
Enlarged map display processing is performed (609). When the prepared maximum magnified map is displayed in response to this magnifying instruction (Yes in 610), a warning sound is issued to notify that a more detailed map cannot be displayed (611). Then T
Stop the o timer and the Tz timer (623),
This process ends. If it is not the largest enlarged map (No in 610), clear the Tz timer (60
7) and returns to step 602.

【0030】ステップ604で拡大表示時間Tzに達し
ていなかった場合には、次にタッチが離れたか否かを調
べ(605)、離れていなければ、さらに別の光ビーム
を指が遮断したか否かを調べる(606)。同じ光ビー
ムの遮断状態が続いていれば、ステップ602に戻る。
別の光ビームを遮断した場合には、指が移動したと判断
してTzタイマをクリア(初期化)する(607)。但
し、車の振動等によるタッチ位置のずれを考慮して、許
容範囲内のずれについてはステップ606で同じ光ビー
ムを遮断していると判定する。この許容範囲は後述する
学習により操作者に合わせて可変とすることができる。
If the enlarged display time Tz has not been reached in step 604, it is next checked whether or not the touch is released (605). If not, whether or not the finger intercepts another light beam. It is checked (606). If the same light beam blocking state continues, the process returns to step 602.
If another light beam is blocked, it is determined that the finger has moved and the Tz timer is cleared (initialized) (607). However, in consideration of the displacement of the touch position due to the vibration of the vehicle or the like, it is determined in step 606 that the same light beam is blocked for the displacement within the allowable range. This permissible range can be made variable according to the operator by learning described later.

【0031】ステップ605でタッチが離れたと判定さ
れた場合、再タッチ許容時間Tr(例えば0.5秒であ
るが、後述する学習処理で個々の操作者に応じて学習さ
れる)が経過したか否かを判定する(612)。この時
点で、1個以上の座標列がメモリに記憶されている。再
タッチ許容時間Trが経過した場合には、記憶されてい
る座標列に基づいて得られる入力速度ベクトルが、学習
速度ベクトルと一致しているか否かを判定する(61
3)。この場合の学習速度ベクトルは、スクロールの8
方向に緩急の2種類のタッチ速度を考慮した16種類の
速度ベクトルと、回転モード変更の円を描く速度ベクト
ルの1種類の計17種の速度ベクトルを含む。座標列か
ら速度ベクトルを求める方法については後述する。入力
速度ベクトルと一致した学習速度ベクトルが存在した場
合には、その操作指示に対応する表示処理を行う(61
5)。その後、ステップ623を経由して、本処理を終
了する。一致する学習速度ベクトルが存在しなかった場
合には、タッチが認識できなかった旨の警告音を発する
(614)。
When it is determined in step 605 that the touch has been released, whether the retouch allowable time Tr (for example, 0.5 seconds, which is learned according to each operator in the learning process described later) has elapsed. It is determined whether or not (612). At this point, one or more coordinate sequences are stored in memory. When the retouch allowable time Tr has elapsed, it is determined whether or not the input speed vector obtained based on the stored coordinate sequence matches the learning speed vector (61).
3). The learning speed vector in this case is 8 scrolls.
It includes 16 kinds of speed vectors in consideration of two kinds of touch speeds that are gentle in the direction and one kind of speed vector that draws a circle for changing the rotation mode, that is, 17 kinds of speed vectors in total. The method of obtaining the velocity vector from the coordinate sequence will be described later. If there is a learning speed vector that matches the input speed vector, display processing corresponding to the operation instruction is performed (61).
5). After that, this processing is ended via step 623. If the matching learning speed vector does not exist, a warning sound indicating that the touch cannot be recognized is emitted (614).

【0032】ステップ612で再タッチ許容時間Trが
経過していなかった場合には、再タッチされたか否かを
調べる(616)。これは、本実施例における「縮小」
指示のジェスチャが2本のベクトルからなり、これを別
個の2つの「スクロール」指示と区別するためのもので
ある。「縮小」指示のベクトルの場合には、2本のベク
トルの間の非タッチ時間が比較的短時間と考えられ、こ
の最大許容時間を再タッチ許容時間Trとして設定して
いる。この時間Trの間に再タッチされない間はステッ
プ612へ戻り、再タッチの有無の監視を継続する。再
タッチ許容時間Tr内に再タッチされた場合には、「縮
小」指示の可能性があり、以下のステップを実行する。
まず、再タッチされた座標およびその時刻をメモリに記
憶する(617)。次に、最初のタッチからTo時間経
過したかを調べる(618)。経過していれば、前述し
たタイムアウト処理を行い(622)、ステップ623
を経由して本処理を終了する。経過していなければ、再
タッチが離れたか否かを調べる(619)。離れていな
ければ、ステップ617に戻り、再タッチの座標列を蓄
積する。タッチが離れた時点で、再タッチの蓄積された
座標列のベクトルを学習時の速度ベクトル(この場合、
「縮小」指示の×印タッチの速度ベクトル)と比較し
(620)、一致している場合には、縮小地図表示処理
を実行する(621)。その後、ステップ623を経由
して本処理を終了する。一致していない場合には、前述
したステップ614へ進み、タッチが認識できなかった
旨の警告音を発する。
If the retouch allowable time Tr has not elapsed in step 612, it is checked whether or not retouching has been performed (616). This is the "reduction" in this embodiment.
The instruction gesture consists of two vectors to distinguish it from two separate "scroll" instructions. In the case of the vector of the “reduction” instruction, the non-touch time between the two vectors is considered to be relatively short, and this maximum allowable time is set as the retouch allowable time Tr. If no retouch is made during this time Tr, the process returns to step 612 to continue monitoring the presence or absence of retouch. If the touch is performed again within the retouch allowable time Tr, there is a possibility of giving a “reduction” instruction, and the following steps are executed.
First, the retouched coordinates and the time are stored in the memory (617). Next, it is checked whether To time has elapsed from the first touch (618). If it has elapsed, the above-mentioned timeout processing is performed (622), and step 623 is executed.
This process is terminated via. If not, it is checked whether or not the retouch is released (619). If not, the process returns to step 617 to accumulate the retouching coordinate sequence. When the touch is released, the vector of the accumulated coordinate sequence of the re-touch is learned as the velocity vector (in this case,
It is compared with the speed vector of touching the X mark indicating the “reduction” instruction (620), and if they match, the reduced map display processing is executed (621). After that, this processing is ended via step 623. If they do not match, the process proceeds to step 614 described above, and a warning sound indicating that the touch cannot be recognized is issued.

【0033】図6に示した処理では、幾つかのステップ
で警告音を発するようにした。この警告音には、予め定
めた音声を用いることも可能であるが、本実施例ではビ
ープ音を用いる。ただし、その意味が画面を見なくても
分かるように、警告音を発生する場面でその発生態様を
変化させる。例えば、タイムアウトの警告の場合、タイ
ムアウトをイメージできるように「ピー」という長音を
用いる。タッチが認識できなかった場合の警告音と、拡
大限界の警告音とは、ともに「ピッ」という短音の警告
音ながら、「ピッピッ」、「ピッピッピッピッ」という
ように発生回数を変える。勿論、これらはあくまで例示
であり、本発明はこの例に限定されるものではない。
In the process shown in FIG. 6, a warning sound is emitted at some steps. Although it is possible to use a predetermined sound as the warning sound, a beep sound is used in this embodiment. However, in order to understand the meaning without looking at the screen, the generation mode is changed in the scene where the warning sound is generated. For example, in the case of a time-out warning, a long sound of “pee” is used so that the user can imagine the time-out. The warning sound when the touch is not recognized and the warning sound of the expansion limit are both short beeping sounds, but the number of occurrences is changed such as “pipping” and “pipping”. Of course, these are merely examples, and the present invention is not limited to this example.

【0034】図7により、認識された座標から速度ベク
トルを求める方法を説明する。タッチパネルにおいて
は、タッチしている指が隣接する光軸間に位置して検出
不能となることのないように、光軸は平均的な指の太さ
よりも狭い間隔で配置されている。したがって、タッチ
している位置は、最低でもX方向およびY方向の光軸の
ピッチPx,Pyで表される面積に特定されるので、こ
の矩形面積の重心をタッチしている位置と判定する。図
7に示すように、光軸Xn+1,Xn+2およびYnを
指が遮っている場合、右下がりのハッチングを施した面
積の重心である位置1をタッチしていると判定される。
その後、タッチしている位置をずらし、光軸Xn,Xn
+1およびYn,Yn+1を指が遮ったとすると、左下
がりのハッチングを施した面積の重心である位置2にタ
ッチしている判定される。図6の処理で説明したよう
に、指が光学系を遮る状況が変わる毎にその時刻を計測
しているので、次式に示すように、2点のタッチ位置の
差と、その時間差に基づいて、タッチ位置が変わる速度
を、X,Y方向別の速さ成分からなる速度ベクトルvと
して求めることができる。
A method of obtaining the velocity vector from the recognized coordinates will be described with reference to FIG. In the touch panel, the optical axes are arranged at intervals narrower than the average thickness of the finger so that the touching finger does not become undetectable between the adjacent optical axes. Therefore, since the touched position is specified as the area represented by the pitches Px and Py of the optical axes in the X direction and the Y direction at least, it is determined that the center of gravity of this rectangular area is touched. As shown in FIG. 7, when the fingers shield the optical axes Xn + 1, Xn + 2, and Yn, it is determined that the position 1 which is the center of gravity of the area hatched to the lower right is touched.
After that, the touched position is shifted and the optical axes Xn, Xn
If the finger intercepts +1 and Yn, Yn + 1, it is determined that the position 2 which is the center of gravity of the area hatched to the left is touched. As described in the process of FIG. 6, since the time is measured every time when the finger blocks the optical system, the time is measured based on the difference between the touch positions of two points and the time difference between them as shown in the following equation. Thus, the speed at which the touch position changes can be obtained as a speed vector v composed of speed components in the X and Y directions.

【0035】 v={Px,(1/2)Py}/(t2−t1) ={Px/(t2−t1),(1/2)Py/(t2−t1)} ={vx,Vy} …(1) ここで、t1は位置1をタッチした時刻、t2は位置2
をタッチした時刻である。さらに、タッチパネルから指
が離されるまでの速度を連続して計測することにより、
ジェスチャを解釈することができる。
V = {Px, (1/2) Py} / (t2-t1) = {Px / (t2-t1), (1/2) Py / (t2-t1)} = {vx, Vy} (1) Here, t1 is the time when position 1 is touched, and t2 is position 2
Is the time you touched. Furthermore, by continuously measuring the speed until the finger is released from the touch panel,
Can interpret gestures.

【0036】ところで、本装置は運転中に操作されるこ
とがあるため、必ずしも図7に示したように理想的な形
でタッチされるとは限らない。例えば、図8に示すよう
に、左下方向に地図画面をスクロールしたくてその方向
にタッチパネルをなぞる場合を考える。この場合、理想
的には経路Aのようになぞることが望ましいが、操作者
は前方に注意を集中している運転中には、タッチパネル
側に注意が集中できず、また、他の運転操作や車体の揺
れ等によって、必ずしも意図したように指示操作が行え
ないことが予想される。この例では、例えば、経路Bに
示すように、Yn+1の光軸を遮る前にXnの光軸を遮
るような場合が考えられ、この場合にはタッチされてい
る領域はa,b,cと変化することになる。経路Bの位
置1から位置2に達する時間は、経路Aの場合とほぼ同
じであるため、このときの速度を求めると、図9に示す
ように、経路Aの場合の2倍近くなる。また、装置は、
すばやく横方向になぞった後に、下方向になぞったもの
と解釈してしまう。
By the way, since this device may be operated during driving, it is not always touched in an ideal form as shown in FIG. For example, as shown in FIG. 8, consider a case where the user wants to scroll the map screen in the lower left direction and traces the touch panel in that direction. In this case, it is ideally preferable to trace along the route A, but the operator cannot concentrate his / her attention on the touch panel side during driving while focusing his / her attention on the front side. It is expected that the instruction operation cannot always be performed as intended due to the shaking of the vehicle body or the like. In this example, for example, as shown in the route B, it is conceivable that the optical axis of Xn is blocked before the optical axis of Yn + 1 is blocked. In this case, the touched areas are a, b, and c. It will change. The time required to reach the position 2 from the position 1 on the route B is almost the same as that in the case of the route A. Therefore, when the speed at this time is obtained, as shown in FIG. Also, the device is
After quickly tracing in the horizontal direction, it is interpreted as tracing in the downward direction.

【0037】そこで、本実施例では、図9に示すように
速度va-bが一定値(例えば20cm/秒)以上で、か
つ、その後の速度vb-cとなす角度θが一定値(例えば
90゜)以上である場合、領域aをタッチした時刻と領
域cをタッチした時刻、および領域a、cの重心から速
度を求めるようにしている。この処理を本実施例ではス
ムージング処理と呼ぶ。このスムージング処理は図6の
ステップ613(および620)で実行することができ
る。
Therefore, in this embodiment, as shown in FIG. 9, the velocity va-b is equal to or greater than a constant value (for example, 20 cm / sec), and the angle θ with the subsequent velocity vb-c is a constant value (for example, 90 cm). If the angle is equal to or more than deg.), The speed is obtained from the time when the area a is touched, the time when the area c is touched, and the center of gravity of the areas a and c. This process is called a smoothing process in this embodiment. This smoothing process can be executed in step 613 (and 620) of FIG.

【0038】ところで、ジェスチャの速さや方向は、運
転姿勢から画面までの視差や個人差によって異なる。そ
こで、図6で簡単に言及したように、本実施例では、装
置が操作者個人の癖を学習するようにした。
By the way, the speed and direction of the gesture differ depending on the parallax from the driving posture to the screen and the individual difference. Therefore, as briefly referred to in FIG. 6, in the present embodiment, the device learns the habit of each operator.

【0039】そのための学習画面の例を図12に示す。
学習時には、まず、図12(a)のような画面が表示さ
れる。画面上の「学習開始」を選択すると、例えば
(b)に示すようなスクロール操作学習画面、(c)に
示すような縮小操作学習画面、等が順次表示され、その
指示にしたがって画面上を指でなぞる操作を操作者に促
す。また、そのタッチ操作によって画面表示がどのよう
に変わるのかを説明する文あるいは図も表示される。学
習のためのタッチは、それぞれ3回程度行い、その平均
値を操作者の癖として学習する。この学習に際しては、
各操作指示について予め定めた標準的な速度ベクトルを
学習結果によって修正してもよく、あるいは、学習結果
に基づいて新たに速度ベクトルを作成してもよい。
An example of a learning screen for that purpose is shown in FIG.
At the time of learning, first, a screen as shown in FIG. 12 (a) is displayed. When "learning start" on the screen is selected, for example, a scroll operation learning screen as shown in (b), a reduction operation learning screen as shown in (c), etc. are sequentially displayed. Prompt the operator to perform a trace operation. In addition, a sentence or a figure explaining how the screen display is changed by the touch operation is also displayed. Each touch for learning is performed about three times, and the average value is learned as the habit of the operator. In this learning,
A standard velocity vector determined in advance for each operation instruction may be modified based on the learning result, or a new velocity vector may be created based on the learning result.

【0040】図13に、地図操作とその操作を行うため
のジェスチャ(タッチ)と、対応する学習項目、速度ベ
クトルとの比較項目をまとめて示す。これらの学習によ
り、前述のように、×印の操作と斜め方向のスクロール
操作との差も判断できるようになる。すなわち、「縮
小」操作で学習した、2本の交差する斜め方向のタッチ
を行うときの1本目の終了から2本目の開始までの時間
間隔よりも長い時間間隔を置いてタッチされる2回のタ
ッチは、それぞれ2回のスクロール操作と判断される。
例えば、操作者が縮小操作学習画面で、画面右上から左
下までタッチした後、左上から右下へタッチを開始する
までの平均時間間隔が0.5秒であると学習した装置で
は、実施例のタッチ操作で画面右上から左下までタッチ
した後、左上から右下へのタッチを開始するための間隔
が0.5秒+バラツキ以上であれば、これを2回の地図
スクロール操作と判断する。逆に、0.5秒+バラツキ
未満であれば、縮小操作と判断する。なお、このとき、
×印のどちらの斜線を先にタッチするかも判断の項目と
してよい。すなわち、縮小操作学習画面において、先に
画面右上から左下へタッチして、その後、左上から右下
へタッチするように学習させた装置では、たとえ2回目
の斜めのタッチ操作の時間間隔が0.5秒+バラツキ未
満でも左上から右下へ先にタッチした場合には2回のス
クロール操作と判断する。
FIG. 13 collectively shows a map operation, a gesture (touch) for performing the operation, a corresponding learning item, and a comparison item with the velocity vector. By these learnings, as described above, it becomes possible to determine the difference between the X operation and the diagonal scroll operation. That is, the two touches that are learned with the “reduction” operation are touched at a time interval longer than the time interval from the end of the first to the start of the second when two touches in the diagonal direction intersecting each other. Each touch is determined to be two scroll operations.
For example, in the apparatus in which the operator learned that the average time interval from the upper right to the lower left of the screen on the reduction operation learning screen until the touch starts from the upper left to the lower right is 0.5 seconds, After the touch operation touches from the upper right to the lower left of the screen, if the interval for starting the touch from the upper left to the lower right is 0.5 seconds + variation or more, this is determined to be two map scroll operations. On the contrary, if it is less than 0.5 seconds + variation, it is determined to be a reduction operation. At this time,
Which diagonal line of the X mark is to be touched first may be used as a judgment item. That is, in a device for which learning is performed by first touching the screen from the upper right to the lower left and then from the upper left to the lower right on the reduction operation learning screen, even if the time interval of the second diagonal touch operation is 0. Even if it is less than 5 seconds + variation, if the user touches from the upper left to the lower right first, it is determined that the scroll operation is performed twice.

【0041】図14により、ジェスチャによる指示操作
について、具体的な学習項目を説明する。(a)は、ス
クロール操作において、右方向になぞる場合を例とす
る。この場合、学習時には、その最大および最小のタッ
チ速度、ならびに最大上向き角度および最大下向き角度
を検出する。(b)に示すように、標準では、上下2
2.5゜以内を横方向スクロールと判定するが、学習に
よってこの値を変えることができる。他の方向について
も同様である。縮小操作においても、1本のタッチ操作
についてはこれと同様である。回転モード変更操作につ
いては、(c)に示すように、学習時には円の中心に対
する最大および最小のタッチ角度、ならびに最大および
最小のタッチ直径、回転の方向を検出する。検出した円
を描くジェスチャが、これらの学習した回転方向と同じ
方向でタッチ角度およびタッチ直径がそのバラツキ以内
であれば、一致したと判定することができる。この判定
の条件には、円を描く平均速度およびそのバラツキを考
慮することもできる。なお、図15に示すように、回転
モード変更操作のマルを描くジェスチャについても、前
述のスムージング処理を適用することができる。
With reference to FIG. 14, specific learning items will be described for the instruction operation by the gesture. (A) is an example of tracing rightward in a scroll operation. In this case, at the time of learning, the maximum and minimum touch speeds, and the maximum upward angle and the maximum downward angle are detected. As shown in (b), the standard is 2
It is determined that the horizontal scroll is within 2.5 °, but this value can be changed by learning. The same applies to other directions. The same applies to one touch operation in the reduction operation. Regarding the rotation mode changing operation, as shown in (c), the maximum and minimum touch angles with respect to the center of the circle, the maximum and minimum touch diameters, and the direction of rotation are detected during learning. If the detected gesture of drawing the circle is in the same direction as the learned rotation direction and the touch angle and the touch diameter are within the variations, it can be determined that they match. As the condition for this determination, the average speed of drawing a circle and its variation can also be considered. Note that, as shown in FIG. 15, the smoothing process described above can be applied to a gesture of drawing a circle of a rotation mode changing operation.

【0042】本発明のジェスチャによる指示操作は、上
述のような例に限らず、例えば図10に示すようなオー
ディオカセットテープレコーダの操作、あるいは図11
に示すような今後整備される交通情報放送装置(VIC
S)からの情報表示に応用することも可能である。
The instruction operation by the gesture of the present invention is not limited to the above-described example, and for example, the operation of the audio cassette tape recorder as shown in FIG. 10 or FIG.
Traffic information broadcasting equipment (VIC
It is also possible to apply to the information display from S).

【0043】[0043]

【発明の効果】画面の特定の位置を確認してタッチしな
くても済むため、走行中に前方から視線をずらすことが
少なくなり、安全性を向上させることができる。
EFFECTS OF THE INVENTION Since it is not necessary to confirm a specific position on the screen and touch it, it is possible to reduce the shift of the line of sight from the front during traveling and improve the safety.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の車載情報装置の構成を示す機能ブロッ
ク図である。
FIG. 1 is a functional block diagram showing a configuration of an in-vehicle information device of the present invention.

【図2】本発明の車載情報装置の外観を示す斜視図であ
る。
FIG. 2 is a perspective view showing the external appearance of the vehicle-mounted information device of the present invention.

【図3】図2に示したスイッチユニットの構造を示す断
面図(a)および正面図(b)である。
FIG. 3 is a sectional view (a) and a front view (b) showing the structure of the switch unit shown in FIG.

【図4】実施例における地図操作とそれに対応するジェ
スチャの代表的タッチおよびそれに対する応答の説明図
である。
FIG. 4 is an explanatory diagram of a representative touch of a map operation and a gesture corresponding to the map operation and a response thereto in the embodiment.

【図5】実施例における拡大表示操作の説明図である。FIG. 5 is an explanatory diagram of an enlarged display operation according to the embodiment.

【図6】実施例におけるジェスチャ判断の処理のフロー
チャートである。
FIG. 6 is a flowchart of a gesture determination process according to an embodiment.

【図7】実施例における速度ベクトルの計算方法の説明
図である。
FIG. 7 is an explanatory diagram of a velocity vector calculation method according to the embodiment.

【図8】実施例における速度の誤差の説明図である。FIG. 8 is an explanatory diagram of a velocity error in the example.

【図9】実施例における速度の誤差に対するスムージン
グ処理の説明図である。
FIG. 9 is an explanatory diagram of a smoothing process with respect to a velocity error according to the embodiment.

【図10】本発明を応用したオーディオの操作画面の説
明図である。
FIG. 10 is an explanatory diagram of an audio operation screen to which the present invention has been applied.

【図11】本発明を応用した交通情報の操作画面の説明
図である。
FIG. 11 is an explanatory diagram of a traffic information operation screen to which the present invention is applied.

【図12】実施例における学習画面の例を示す説明図で
ある。
FIG. 12 is an explanatory diagram illustrating an example of a learning screen according to the embodiment.

【図13】実施例における学習の例を示す説明図であ
る。
FIG. 13 is an explanatory diagram showing an example of learning in the embodiment.

【図14】実施例における学習項目の具体例を示す説明
図である。
FIG. 14 is an explanatory diagram showing specific examples of learning items according to the embodiment.

【図15】実施例におけるスムージング処理の他の説明
図である。
FIG. 15 is another explanatory diagram of the smoothing process according to the embodiment.

【符号の説明】[Explanation of symbols]

11…入力設定手段、12…タイマ手段、13…タッチ
位置移動速度検出手段、14…現在位置演算手段、15
…情報処理手段、16…地図情報記憶手段、17…表示
手段、21…液晶ディスプレイ、22…スイッチユニッ
ト、23…CD−ROMユニット、24…GPS受信
器、25…ナビゲーションユニット。
11 ... Input setting means, 12 ... Timer means, 13 ... Touch position movement speed detecting means, 14 ... Current position calculating means, 15
... information processing means, 16 ... map information storage means, 17 ... display means, 21 ... liquid crystal display, 22 ... switch unit, 23 ... CD-ROM unit, 24 ... GPS receiver, 25 ... navigation unit.

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】車両に搭載され、表示装置の表示画面を介
して操作者が情報を得ることができる車載情報装置にお
いて、 表示装置の表示画面の前面に配置されたタッチパネルを
有し、該タッチパネルに対する操作者のタッチの軌跡に
基づいて、少なくとも前記表示装置の表示に関する操作
指示を行うことを特徴とする車載情報装置。
1. An in-vehicle information device which is mounted on a vehicle and allows an operator to obtain information through a display screen of a display device, the touch device having a touch panel arranged in front of the display screen of the display device. An in-vehicle information device, wherein at least an operation instruction regarding a display of the display device is issued based on a trajectory of an operator's touch on the.
【請求項2】前記車載情報装置は、車両用ナビゲーショ
ンシステムであり、前記表示に関する操作指示は、表示
画面上に表示された道路地図のスクロール、拡大、縮
小、回転の少なくとも1つを含むことを特徴とする請求
項1記載の車載情報装置。
2. The in-vehicle information device is a vehicle navigation system, and the operation instruction regarding the display includes at least one of scrolling, enlarging, reducing, and rotating a road map displayed on a display screen. The in-vehicle information device according to claim 1, which is characterized in that.
【請求項3】前記タッチパネル上のタッチの座標および
時刻を逐次検出して、タッチパネル上をなぞる動作の速
さおよび方向を求める手段を有する請求項1または2記
載の車載用情報装置。
3. The in-vehicle information device according to claim 1, further comprising means for sequentially detecting coordinates and time of a touch on the touch panel to obtain a speed and a direction of an operation of tracing on the touch panel.
【請求項4】前記なぞる動作の速さに応じて、前記操作
指示による操作の量を変化させることを特徴とする請求
項3記載の車載情報装置。
4. The in-vehicle information device according to claim 3, wherein the amount of operation by the operation instruction is changed according to the speed of the tracing operation.
【請求項5】複数種類の操作指示に対して予め定めた異
なる軌跡の情報を登録しておき、前記タッチの軌跡を前
記登録された異なる軌跡の情報と比較することにより、
操作者による操作指示を認識することを特徴とする請求
項1〜4のいずれかに記載の車載情報装置。
5. Information of predetermined different trajectories is registered for a plurality of types of operation instructions, and the trajectory of the touch is compared with the registered information of different trajectories,
The in-vehicle information device according to claim 1, wherein an operation instruction by an operator is recognized.
【請求項6】操作者に対して逐次複数種類の操作指示を
行うことを促す学習用画面を表示し、該学習用画面に対
して操作者により行われた各種類の操作指示の軌跡に基
づいて前記登録された軌跡の情報を修正し、または、登
録すべき軌跡の情報を作成することを特徴とする請求項
5記載の車載情報装置。
6. A learning screen that prompts the operator to sequentially issue a plurality of types of operation instructions is displayed, and based on the trajectory of each type of operation instruction made by the operator on the learning screen. The in-vehicle information device according to claim 5, wherein the information of the registered locus is corrected by creating the information of the locus to be registered.
【請求項7】車両に搭載され、表示装置の表示画面上に
道路地図を表示する車載情報装置において、 前記表示画面の前面に配置されたタッチパネルを有し、
該タッチパネルに対して道路地図上の1点を予め定めた
時間以上連続してタッチし続けたとき、前記道路地図上
の1点を中心として当該道路地図を拡大表示することを
特徴とする車載情報装置。
7. An in-vehicle information device mounted on a vehicle and displaying a road map on a display screen of a display device, comprising a touch panel arranged in front of the display screen,
In-vehicle information, wherein when a point on the road map is continuously touched on the touch panel for a predetermined time or more, the road map is enlarged and displayed around the point on the road map. apparatus.
JP7204647A 1995-08-10 1995-08-10 On-vehicle information device Pending JPH0950235A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7204647A JPH0950235A (en) 1995-08-10 1995-08-10 On-vehicle information device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7204647A JPH0950235A (en) 1995-08-10 1995-08-10 On-vehicle information device

Publications (1)

Publication Number Publication Date
JPH0950235A true JPH0950235A (en) 1997-02-18

Family

ID=16493953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7204647A Pending JPH0950235A (en) 1995-08-10 1995-08-10 On-vehicle information device

Country Status (1)

Country Link
JP (1) JPH0950235A (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114380A (en) * 1997-06-24 1999-01-22 Alpine Electron Inc Route guide device
JP2002311820A (en) * 2001-04-13 2002-10-25 Fujitsu Ten Ltd Information processor
JP2005339224A (en) * 2004-05-27 2005-12-08 Nippon Signal Co Ltd:The Monitoring device
JP2005352924A (en) * 2004-06-11 2005-12-22 Mitsubishi Electric Corp User interface device
JP2006078547A (en) * 2004-09-07 2006-03-23 Xanavi Informatics Corp Display device
JP2006145930A (en) * 2004-11-22 2006-06-08 Sony Corp Display device, display method, display program and recording medium with display program recorded thereon
JP2008027453A (en) * 2007-07-30 2008-02-07 Seiko Epson Corp Portable information apparatus and information storage medium
JP2008158842A (en) * 2006-12-25 2008-07-10 Xanavi Informatics Corp Map display device
JP2008185614A (en) * 2007-01-26 2008-08-14 Xanavi Informatics Corp Map display device
JP2008216990A (en) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd Display device
JP2008217767A (en) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd Display device
JP2009129171A (en) * 2007-11-22 2009-06-11 Denso It Laboratory Inc Information processor loaded in mobile body
JP2009151505A (en) * 2007-12-19 2009-07-09 Sony Corp Information processing apparatus, information processing method, and program
JP2010102662A (en) * 2008-10-27 2010-05-06 Sharp Corp Display apparatus and mobile terminal
JP2010157252A (en) * 2010-02-04 2010-07-15 Sony Corp In-vehicle device, method for providing information of in-vehicle device, program of method for providing information of in-vehicle device, and recording medium having the program recorded therein
JP2010181940A (en) * 2009-02-03 2010-08-19 Zenrin Datacom Co Ltd Apparatus and method for processing image
JP2010266961A (en) * 2009-05-12 2010-11-25 Sony Corp Information processor, information processing method and information processing program
US8151210B2 (en) 2004-05-31 2012-04-03 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
JP2012173950A (en) * 2011-02-21 2012-09-10 Denso Corp Continuous operation learning device and navigation device
JP2012203563A (en) * 2011-03-24 2012-10-22 Dainippon Printing Co Ltd Operation input detection device using touch panel
JP2012252043A (en) * 2011-05-31 2012-12-20 Casio Comput Co Ltd Program, data processing device, and data processing method
JP2013041609A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013041607A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013061950A (en) * 2012-10-22 2013-04-04 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013178785A (en) * 2013-03-13 2013-09-09 Mitsubishi Electric Corp Map information processing device
JP5420081B2 (en) * 2010-08-25 2014-02-19 三菱電機株式会社 Navigation device
US8918250B2 (en) 2013-05-24 2014-12-23 Hand Held Products, Inc. System and method for display of information using a vehicle-mount computer
JP2015035136A (en) * 2013-08-09 2015-02-19 本田技研工業株式会社 Input device
JP2015508356A (en) * 2011-12-24 2015-03-19 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Automotive touch-sensitive operating device and automobile
JP2016128889A (en) * 2015-01-09 2016-07-14 ブラザー工業株式会社 Information processing program and information processing apparatus
US9616749B2 (en) 2013-05-24 2017-04-11 Hand Held Products, Inc. System and method for display of information using a vehicle-mount computer
JP2020149501A (en) * 2019-03-14 2020-09-17 富士通コネクテッドテクノロジーズ株式会社 Information processing device, and program

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114380A (en) * 1997-06-24 1999-01-22 Alpine Electron Inc Route guide device
JP2002311820A (en) * 2001-04-13 2002-10-25 Fujitsu Ten Ltd Information processor
JP2005339224A (en) * 2004-05-27 2005-12-08 Nippon Signal Co Ltd:The Monitoring device
US8458618B2 (en) 2004-05-31 2013-06-04 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
US8151210B2 (en) 2004-05-31 2012-04-03 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
JP2005352924A (en) * 2004-06-11 2005-12-22 Mitsubishi Electric Corp User interface device
JP2006078547A (en) * 2004-09-07 2006-03-23 Xanavi Informatics Corp Display device
JP2006145930A (en) * 2004-11-22 2006-06-08 Sony Corp Display device, display method, display program and recording medium with display program recorded thereon
US7852357B2 (en) 2004-11-22 2010-12-14 Sony Corporation Display apparatus, display method, display program, and recording medium with the display program for controlling display of at least a portion of a map
JP2008158842A (en) * 2006-12-25 2008-07-10 Xanavi Informatics Corp Map display device
JP2008185614A (en) * 2007-01-26 2008-08-14 Xanavi Informatics Corp Map display device
JP2008027453A (en) * 2007-07-30 2008-02-07 Seiko Epson Corp Portable information apparatus and information storage medium
JP2009129171A (en) * 2007-11-22 2009-06-11 Denso It Laboratory Inc Information processor loaded in mobile body
JP2009151505A (en) * 2007-12-19 2009-07-09 Sony Corp Information processing apparatus, information processing method, and program
JP4605214B2 (en) * 2007-12-19 2011-01-05 ソニー株式会社 Information processing apparatus, information processing method, and program
US10114494B2 (en) 2007-12-19 2018-10-30 Sony Corporation Information processing apparatus, information processing method, and program
US9262040B2 (en) 2007-12-19 2016-02-16 Sony Corporation Information processing apparatus, information processing method, and program
JP2008217767A (en) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd Display device
JP2008216990A (en) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd Display device
JP2010102662A (en) * 2008-10-27 2010-05-06 Sharp Corp Display apparatus and mobile terminal
JP2010181940A (en) * 2009-02-03 2010-08-19 Zenrin Datacom Co Ltd Apparatus and method for processing image
JP2010266961A (en) * 2009-05-12 2010-11-25 Sony Corp Information processor, information processing method and information processing program
US8970630B2 (en) 2009-05-12 2015-03-03 Sony Corporation Information processing device, information processing method, and information processing program
JP2010157252A (en) * 2010-02-04 2010-07-15 Sony Corp In-vehicle device, method for providing information of in-vehicle device, program of method for providing information of in-vehicle device, and recording medium having the program recorded therein
JP5420081B2 (en) * 2010-08-25 2014-02-19 三菱電機株式会社 Navigation device
JP2012173950A (en) * 2011-02-21 2012-09-10 Denso Corp Continuous operation learning device and navigation device
JP2012203563A (en) * 2011-03-24 2012-10-22 Dainippon Printing Co Ltd Operation input detection device using touch panel
JP2012252043A (en) * 2011-05-31 2012-12-20 Casio Comput Co Ltd Program, data processing device, and data processing method
JP2017052507A (en) * 2011-12-24 2017-03-16 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Touch-sensitive operating device for a motor vehicle and motor vehicle
JP2015508356A (en) * 2011-12-24 2015-03-19 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Automotive touch-sensitive operating device and automobile
JP2013041609A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013041607A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013061950A (en) * 2012-10-22 2013-04-04 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013178785A (en) * 2013-03-13 2013-09-09 Mitsubishi Electric Corp Map information processing device
US8918250B2 (en) 2013-05-24 2014-12-23 Hand Held Products, Inc. System and method for display of information using a vehicle-mount computer
US9616749B2 (en) 2013-05-24 2017-04-11 Hand Held Products, Inc. System and method for display of information using a vehicle-mount computer
US9682625B2 (en) 2013-05-24 2017-06-20 Hand Held Products, Inc. System and method for display of information using a vehicle-mount computer
US10272784B2 (en) 2013-05-24 2019-04-30 Hand Held Products, Inc. System and method for display of information using a vehicle-mount computer
JP2015035136A (en) * 2013-08-09 2015-02-19 本田技研工業株式会社 Input device
JP2016128889A (en) * 2015-01-09 2016-07-14 ブラザー工業株式会社 Information processing program and information processing apparatus
JP2020149501A (en) * 2019-03-14 2020-09-17 富士通コネクテッドテクノロジーズ株式会社 Information processing device, and program

Similar Documents

Publication Publication Date Title
JPH0950235A (en) On-vehicle information device
JP5210497B2 (en) Navigation device
JP4678534B2 (en) Navigation device and map scroll processing method
US8284168B2 (en) User interface device
US7577518B2 (en) Navigation system
JP3610635B2 (en) Display device for operation of in-vehicle equipment
JP5381691B2 (en) Map display device, map display method and program
JP4686886B2 (en) Information processing device
EP2783893A2 (en) Input apparatus, input method, and input program
US20120235947A1 (en) Map information processing device
JP2006220884A (en) Map display method and navigation system
JP3893323B2 (en) Navigation input display device and navigation input display method
JP2002328040A (en) Navigation system, information displaying device, method for changing scale of image, recording medium and program
JP2007003328A (en) Car navigation system
JP2007331692A (en) In-vehicle electronic equipment and touch panel device
JPH1164026A (en) Navigation system
JP2007145106A (en) On-vehicle information terminal
JP2008129689A (en) Input device equipped with touch panel and its input reception method
JP2007025023A (en) Navigation system
JP2005030800A (en) Navigation apparatus and scrolling display method of map
JP5358215B2 (en) Map display device
JP2002022470A (en) Navigation system
JPH1183504A (en) Navigator
JP4695957B2 (en) Navigation device
JP4897342B2 (en) In-vehicle map display device