JP5805473B2 - Operating device - Google Patents

Operating device Download PDF

Info

Publication number
JP5805473B2
JP5805473B2 JP2011191274A JP2011191274A JP5805473B2 JP 5805473 B2 JP5805473 B2 JP 5805473B2 JP 2011191274 A JP2011191274 A JP 2011191274A JP 2011191274 A JP2011191274 A JP 2011191274A JP 5805473 B2 JP5805473 B2 JP 5805473B2
Authority
JP
Japan
Prior art keywords
point
touch
touch panel
map
fingers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011191274A
Other languages
Japanese (ja)
Other versions
JP2013054479A (en
Inventor
隆佑 秋田
隆佑 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2011191274A priority Critical patent/JP5805473B2/en
Publication of JP2013054479A publication Critical patent/JP2013054479A/en
Application granted granted Critical
Publication of JP5805473B2 publication Critical patent/JP5805473B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチパネルへのタッチ操作で操作対象を操作する操作装置に関する。   The present invention relates to an operation device that operates an operation target by a touch operation on a touch panel.

従来、カーナビゲーション装置において、ユーザーがカーナビゲーション装置の画面を触れることにより操作するタッチパネルが多く採用されており、例えば、ユーザーがタッチパネルを触ると、その接触点の数に応じて地図の拡大や縮小を行ったり、案内音声のボリュームを調整したりするなど種々の操作を行うことができる操作装置が知られている(例えば、下記特許文献1参照)。   Conventionally, in a car navigation device, many touch panels that are operated by a user touching the screen of the car navigation device are adopted. For example, when a user touches the touch panel, the map is enlarged or reduced according to the number of contact points There is known an operation device capable of performing various operations such as performing an operation or adjusting the volume of a guidance voice (for example, see Patent Document 1 below).

特開2006−162267号公報JP 2006-162267 A

しかしながら、カーナビゲーション装置においては、地図の縮尺を変更する等のカーナビゲーション装置に対して操作を行うための種々のボタンが表示中の地図と同じ画面内に表示されている場合が多い。このため、上述した従来の操作装置では、地図を操作したいにもかかわらず、誤ってボタンが操作されたり、逆にボタンを操作したいにも関わらず、誤って地図が操作されてしまうというユーザーの意図に反する操作が行われてしまう可能性がある。この場合、ユーザーの意図する操作を的確に実行できないという問題がある。
本発明は、上述した事情に鑑みてなされたものであり、ユーザーの意図する操作を的確に実行することができる操作装置を提供することを目的とする。
However, in the car navigation device, various buttons for operating the car navigation device such as changing the scale of the map are often displayed on the same screen as the displayed map. For this reason, in the conventional operation device described above, the user operates the map accidentally even though he / she wants to operate the map, or the user operates the button accidentally even though he / she wants to operate the button. There is a possibility that an unintended operation may be performed. In this case, there is a problem that the operation intended by the user cannot be performed accurately.
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an operation device that can accurately execute an operation intended by a user.

上記目的を達成するために、本発明は、タッチパネル上の2点を略同時にタッチ操作したときに当該2点の操作を共に有効な操作として出力する出力手段と、前記2点の出力に基づいて前記タッチパネル上のいずれの点が操作されたかを判別する判別手段と、を備え、前記判別手段は前記2点のうち前記タッチパネルの中心からより離れた方の点を操作された点である操作点として判別することを特徴とする操作装置。 In order to achieve the above object, the present invention is based on output means for outputting two point operations as effective operations when two points on the touch panel are touched substantially simultaneously, based on the two point outputs. A discriminating means for discriminating which point on the touch panel is operated, and the discriminating means is an operating point which is a point operated on a point of the two points farther from the center of the touch panel. An operating device characterized by determining as follows .

この構成において、前記出力手段は前記2点の前記タッチパネル上における座標を出力し、前記判別手段は前記座標に基づき前記タッチパネル上のいずれの点が操作されたかを判別する構成としても良い。
た、前記判別手段は前記2点を結ぶ線分の中点を判別する構成としても良い。
また、前記判別手段は前記2点のうち前記タッチパネルの座標系のX方向においてより端部側に位置する点の座標xと、前記2点のうち前記タッチパネルの座標系のY方向においてより端部側に位置する点の座標yとにおける点(x,y)を判別する構成としても良い。
In this configuration, the output unit may output coordinates of the two points on the touch panel, and the determination unit may determine which point on the touch panel is operated based on the coordinates.
Also, the determination unit may be configured to determine the midpoint of a line connecting the two points.
Further, the determination means includes a coordinate x of a point located closer to the end in the X direction of the coordinate system of the touch panel among the two points, and an end of the two points in the Y direction of the coordinate system of the touch panel. The point (x, y) in the coordinate y of the point located on the side may be determined.

また、さらに、前記タッチパネルにより操作する第1操作対象と、当該第1操作対象以外の操作対象である第2操作対象の操作処理を行う操作処理手段を備え、前記操作処理手段は、前記タッチパネル上の2点を略同時に操作した場合、前記第1操作対象の操作に対する処理を不可として前記第2操作対象の操作に対する処理を実行し、前記タッチパネル上の1点を操作した場合、前記第2操作対象の操作に対する処理を不可として前記第1操作対象の操作に対する処理を実行する構成としても良い。
また、さらに、前記タッチパネルにより操作する地図の操作処理を行う操作処理手段を備え、前記操作処理手段は、前記操作点に基づき前記地図のスクロールを実行する構成としても良い。
また、前記操作処理手段は、前記操作点を中心として前記地図のスクロールを実行する構成としても良い。
また、さらに、前記タッチパネルにより操作する各種機能が割り当てられたボタン及び地図の操作処理を行う操作処理手段を備え、前記操作処理手段は、前記タッチパネルを1本の指でタッチ操作した場合、前記操作点に対応する前記ボタンに割り当てられた機能を実行し、前記タッチパネルを2本の指でタッチ操作した場合、前記操作点を中心として前記地図のスクロールを実行する構成としても良い。
The touch panel further includes an operation processing unit that performs an operation process on a first operation target operated by the touch panel and a second operation target that is an operation target other than the first operation target. When the two points are operated almost simultaneously, the process for the operation of the first operation target is disabled, the process for the operation of the second operation target is executed, and when one point on the touch panel is operated, the second operation A configuration may be adopted in which processing for the target operation is disabled, and processing for the first operation target operation is executed.
Furthermore, it is good also as a structure which comprises the operation process means which performs the operation process of the map operated with the said touch panel, and the said operation process means performs the scroll of the said map based on the said operation point.
The operation processing means may be configured to execute scrolling of the map around the operation point.
In addition, the image processing apparatus further includes an operation processing unit that performs operation processing of a button and a map to which various functions operated by the touch panel are assigned, and the operation processing unit operates when the touch operation is performed on the touch panel with one finger. When a function assigned to the button corresponding to a point is executed and the touch panel is touched with two fingers, the map may be scrolled around the operation point.

本発明によれば、ユーザーの意図する操作を的確に実行することができるという効果を奏する。   According to the present invention, there is an effect that an operation intended by the user can be accurately executed.

本発明の第1の実施形態に係る操作装置の構成を示したブロック図である。It is the block diagram which showed the structure of the operating device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る操作装置の構成を示した図である。It is the figure which showed the structure of the operating device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る操作装置における処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the process in the operating device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る操作装置において、1本の指でボタンを操作した場合の表示パネルの画像の例を示した図である。It is the figure which showed the example of the image of a display panel at the time of operating a button with one finger in the operating device concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る操作装置において、1本の指で地図を操作した場合の表示パネルの画像の例を示した図である。It is the figure which showed the example of the image of a display panel at the time of operating a map with one finger | toe in the operating device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る操作装置において、1本の指で地図上のアイコンを操作した場合の表示パネルの画像の例を示した図である。It is the figure which showed the example of the image of a display panel at the time of operating the icon on a map with one finger | toe in the operating device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る操作装置において、2本の指で地図を操作した場合の画面の例を示した図である。It is the figure which showed the example of the screen at the time of operating a map with two fingers in the operating device concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る操作装置において、2本の指でボタンを操作した場合の表示パネルの画像の例を示した図である。It is the figure which showed the example of the image of a display panel at the time of operating a button with two fingers in the operating device concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る操作装置における2本の指でタッチ操作した場合の操作点の判別方法の手順を示したフローチャートである。It is the flowchart which showed the procedure of the determination method of the operating point at the time of touch operation with two fingers in the operating device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る操作装置における2本の指でタッチ操作した場合の操作点の判別方法を示した図である。It is the figure which showed the determination method of the operating point at the time of touch-operating with two fingers in the operating device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る操作装置をスマートフォンに適用した例を示した図である。It is the figure which showed the example which applied the operating device which concerns on the 1st Embodiment of this invention to the smart phone. 2本の指の中間点を操作点とし、2本の指でタッチパネルの右下隅をタッチ操作する様子を示した図である。It is the figure which showed a mode that touch operation is performed on the lower right corner of a touch panel with two fingers, using the middle point of two fingers as an operation point. 本発明の第2の実施形態に係る操作装置における2本の指でタッチ操作した場合の操作点の判別方法の手順を示したフローチャートである。It is the flowchart which showed the procedure of the determination method of the operating point at the time of touch-operating with two fingers in the operating device which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る操作装置における2本の指でタッチ操作した場合の操作点の判別方法を示した図である。It is the figure which showed the determination method of the operation point at the time of touch operation with two fingers in the operating device which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る操作装置における2本の指でタッチ操作した場合の操作点の判別方法を示した図である。It is the figure which showed the determination method of the operation point at the time of touch operation with two fingers in the operating device which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る操作装置における2本の指でタッチ操作した場合の操作点の判別方法の手順を示したフローチャートである。It is the flowchart which showed the procedure of the determination method of the operation point at the time of touch operation with two fingers in the operating device which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る操作装置における2本の指でタッチ操作した場合の操作点の判別方法を示した図である。It is the figure which showed the discrimination method of the operation point at the time of touch-operating with two fingers in the operating device which concerns on the 3rd Embodiment of this invention.

以下、図面を参照して本発明の実施形態について説明する。
<第1の実施形態>
以下、本発明に係る操作装置1の第1の実施形態について説明する。
はじめに、本実施形態に係る操作装置1の構成について説明する。
図2は、本実施形態に係る操作装置1の外観構成を示した図である。図2に示すように、本実施形態に係る操作装置1は、車両100に搭載されるカーナビゲーション装置である。操作装置1は、車両100の前部座席に搭乗するユーザーが操作しやすいようにダッシュボード101の略中央で、運転席と助手席との間に設置される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
Hereinafter, a first embodiment of the operating device 1 according to the present invention will be described.
First, the configuration of the controller device 1 according to the present embodiment will be described.
FIG. 2 is a diagram illustrating an external configuration of the controller device 1 according to the present embodiment. As shown in FIG. 2, the operating device 1 according to the present embodiment is a car navigation device mounted on a vehicle 100. The operating device 1 is installed between the driver seat and the passenger seat at the approximate center of the dashboard 101 so that a user who rides on the front seat of the vehicle 100 can easily operate.

操作装置1は、ダッシュボード101から車室内に露出し、略矩形に形成されたユーザーが指で触れて操作(以下、タッチ操作という)が可能なタッチパネル11を備えている。タッチパネル11は、表示パネル21の上に重ねて設置されている。表示パネル21は、枠体としてのフェイスパネル102に嵌め込まれている。また、ダッシュボード101の内部には、不図示の装置本体が設置されている。   The operating device 1 includes a touch panel 11 that is exposed from the dashboard 101 to the vehicle interior and that can be operated (hereinafter referred to as touch operation) by a user touching with a finger that is formed in a substantially rectangular shape. The touch panel 11 is placed over the display panel 21. The display panel 21 is fitted into a face panel 102 as a frame. In addition, an apparatus main body (not shown) is installed inside the dashboard 101.

図1は、本実施形態に係る操作装置1の構成を示したブロック図である。図1に示すように、操作装置1は、入力部10と、表示部20と、制御部30とを備えている。入力部10と、表示部20と、制御部30は、バス40により接続されており、相互に信号のやり取りを行うことが可能となっている。入力部10は、タッチ操作が可能なタッチパネル11を備えている。このため、ユーザーは、タッチパネル11へのタッチ操作で操作対象の操作を行うことができる。   FIG. 1 is a block diagram showing the configuration of the operating device 1 according to the present embodiment. As shown in FIG. 1, the controller device 1 includes an input unit 10, a display unit 20, and a control unit 30. The input unit 10, the display unit 20, and the control unit 30 are connected by a bus 40, and can exchange signals with each other. The input unit 10 includes a touch panel 11 that can be touched. For this reason, the user can perform an operation on the operation target by a touch operation on the touch panel 11.

本実施形態においては、タッチパネル11は、同時に複数のタッチ操作された位置(以下、タッチ位置という)をタッチパネル11上の平面座標における点(以下、検出点という)として検出することができるマルチタッチスクリーンである。このため、ユーザーは、タッチパネル11において一本の指でタッチ操作を行ったり、2本以上の指でタッチ操作を行ったりすることができる。タッチパネル11としては、抵抗膜方式、静電容量方式、電磁誘導方式、超音波表面弾性波方式等の様々な方式が一般に知られているが、本実施形態におけるタッチパネル11においては、タッチ位置を検出することが可能であればどのような方式を適用してもよい。   In the present embodiment, the touch panel 11 can detect a plurality of touch-operated positions (hereinafter referred to as touch positions) simultaneously as points (hereinafter referred to as detection points) in plane coordinates on the touch panel 11. It is. Therefore, the user can perform a touch operation with one finger on the touch panel 11 or perform a touch operation with two or more fingers. Various methods such as a resistive film method, a capacitance method, an electromagnetic induction method, and an ultrasonic surface acoustic wave method are generally known as the touch panel 11, but the touch position in the present embodiment is detected. Any method may be applied as long as it is possible.

表示部20は、画像を表示する表示パネル21を備えている。表示パネル21は、液晶表示パネル、プラズマディスプレイパネル(Plasma Display Panel:PDP)、又は、有機発光ダイオード(Organic Light−Emitting Diode:OLED)、有機エレクトロルミネッセンス(Organic Electro−Luminescence:OEL)等と呼ばれる有機EL表示パネルにより構成されている。   The display unit 20 includes a display panel 21 that displays an image. The display panel 21 is called a liquid crystal display panel, a plasma display panel (PDP), or an organic light emitting diode (OLED), an organic electroluminescence (OEL), or the like. It is composed of an EL display panel.

表示パネル21には、後述する制御部30の制御に基づき画像が表示される。表示パネル21の上には、タッチパネル11が重ねて配置され、表示パネル21に表示された各種の操作ボタンに対応する位置や、表示パネル21に表示された各種の図画を指先でタッチ操作することにより、制御部30に対して各種の指示を入力することができる。上述した操作ボタンは、例えば、地図の縮尺変更ボタンや地図の北上固定表示ボタン等の操作装置1に対して各種の処理を実行させるためのボタンであり、また、上述した図画は、例えば、地図や画像や各種の情報表示等である。   An image is displayed on the display panel 21 based on the control of the control unit 30 described later. The touch panel 11 is placed on the display panel 21 so that the positions corresponding to various operation buttons displayed on the display panel 21 and various graphics displayed on the display panel 21 are touch-operated with a fingertip. Thus, various instructions can be input to the control unit 30. The operation buttons described above are buttons for causing the operation device 1 to execute various processes such as a map scale change button and a map north fixed display button, for example. And images and various information displays.

制御部30は、操作装置1の各部を中枢的に制御するものであり、演算実行部としての中央処理装置(Central Processing Unit:CPU)や、このCPUに実行される基本制御プログラムをコンピューターに読み取り可能な形態で不揮発的に記憶するリードオンリーメモリー(Read Only Memory:ROM)や、CPUに実行される各種のプログラムやこれらのプログラムに係るデータを一時的に記憶するランダムアクセスメモリー(Random Access Memory:RAM)や、その他の周辺回路等により構成されている。   The control unit 30 centrally controls each unit of the controller device 1 and reads a central processing unit (Central Processing Unit: CPU) as a calculation execution unit and a basic control program executed by the CPU into a computer. A read only memory (ROM) that stores data in a nonvolatile manner in a possible form, and a random access memory (Random Access Memory) that temporarily stores various programs executed by the CPU and data related to these programs. RAM) and other peripheral circuits.

制御部30は、画像処理部31と、操作検出部32と、操作処理部33とを備えている。画像処理部31は、表示パネル21に表示する画像信号を生成して表示部20へ出力し、表示部20は入力した画像信号に基づき表示パネル21に画像を表示する。操作検出部32は、ユーザーによるタッチパネル11へのタッチ操作を検出して検出信号を操作処理部33へ出力する。   The control unit 30 includes an image processing unit 31, an operation detection unit 32, and an operation processing unit 33. The image processing unit 31 generates an image signal to be displayed on the display panel 21 and outputs the image signal to the display unit 20. The display unit 20 displays an image on the display panel 21 based on the input image signal. The operation detection unit 32 detects a touch operation on the touch panel 11 by the user and outputs a detection signal to the operation processing unit 33.

操作処理部33は、検出信号からユーザーによるタッチパネル11へのタッチ操作が1本の指による操作、すなわち検出点が1点であるか、又は2本の指による操作、すなわち検出点が2点であるかを判断し、1本の指による操作の場合には図画(第2操作対象)の操作に対する処理を不可として操作ボタン(第1操作対象)の操作に対する処理のみを行えることとし、2本の指による操作の場合には操作ボタンの操作に対する処理を不可として図画の操作に対する処理のみを行えることとして、画像処理部31へ画像を生成させるための信号を出力する。言い換えれば、操作する指の本数により操作可能な操作対象を変化させているということもできる。   The operation processing unit 33 is configured such that the touch operation on the touch panel 11 by the user from the detection signal is an operation with one finger, that is, one detection point, or an operation with two fingers, that is, two detection points. In the case of an operation with one finger, the processing for the operation of the drawing (second operation target) is disabled, and only the processing for the operation of the operation button (first operation target) can be performed. In the case of the operation with the finger, the processing for the operation of the operation button is disabled, and only the processing for the drawing operation can be performed. In other words, the operation target that can be operated is changed depending on the number of fingers to be operated.

本実施形態においては、1本の指による操作の場合には図画の操作に対する処理を不可として操作ボタンの操作に対する処理のみを行えることとし、2本の指による操作の場合には操作ボタンの操作に対する処理を不可として図画の操作に対する処理のみを行えることとしているが、これとは逆に、1本の指による操作の場合には操作ボタンの操作に対する処理を不可として図画の操作に対する処理のみを行えることとし、2本の指による操作の場合には図画の操作に対する処理を不可として操作ボタンの操作に対する処理のみを行えることとしてもよい。   In this embodiment, in the case of an operation with one finger, the process for the drawing operation is disabled, and only the operation for the operation button can be performed. In the case of the operation with two fingers, the operation of the operation button is performed. In contrast to this, in the case of an operation with one finger, the processing for the operation button is disabled and only the processing for the drawing operation is performed. In the case of an operation with two fingers, the process for the drawing operation may be disabled and only the process for the operation button operation may be performed.

そして、画像処理部31は、操作処理部33からの信号を入力したとき、この信号に基づき表示パネル21に表示する画像を生成して画像信号を表示部20へ出力し、表示部20は入力した画像信号に基づき表示パネル21に画像を表示する。   When the signal from the operation processing unit 33 is input, the image processing unit 31 generates an image to be displayed on the display panel 21 based on this signal and outputs the image signal to the display unit 20. An image is displayed on the display panel 21 based on the image signal.

次に、本実施形態に係る操作装置1の動作について説明する。
図3は、本実施形態に係る操作装置1における処理の手順を示したフローチャートである。図3に示すように、はじめに、ステップS1において、操作検出部32は、タッチパネル11のタッチ位置に基づく入力部10からの出力に基づき検出点を検出する。次に、ステップS2において、操作処理部33は、検出点が1点であるか判断し、検出点が1点である場合(ステップS2:YES)、図画の操作に対する処理を不可とし、操作ボタンの操作に対する処理を実行する(ステップS3)。また、操作処理部33は、検出点が2点であるか判断し(ステップS4)、検出点が2点である場合(ステップS4:YES)、操作ボタンの操作に対する処理を不可とし、図画の操作に対する処理を実行する(ステップS5)。
Next, operation | movement of the operating device 1 which concerns on this embodiment is demonstrated.
FIG. 3 is a flowchart showing a processing procedure in the controller device 1 according to the present embodiment. As shown in FIG. 3, first, in step S <b> 1, the operation detection unit 32 detects a detection point based on an output from the input unit 10 based on the touch position of the touch panel 11. Next, in step S2, the operation processing unit 33 determines whether or not there is one detection point. If the detection point is one point (step S2: YES), the operation on the drawing is disabled and the operation button is pressed. The process for the operation is executed (step S3). Further, the operation processing unit 33 determines whether there are two detection points (step S4). If there are two detection points (step S4: YES), the operation button operation is disabled, and the drawing is not processed. Processing for the operation is executed (step S5).

このように、本実施形態に係る操作装置1においては、タッチ操作する指の本数に応じてタッチパネル11内の特定部分の操作を不可としている。例えば、1本の指でタッチ操作した場合には地図の操作を不可とし、2本の指でタッチ操作した場合にはボタンの操作を不可とする。以下に操作装置1における操作の具体例について説明する。   Thus, in the operating device 1 according to the present embodiment, the operation of a specific part in the touch panel 11 is disabled according to the number of fingers to be touched. For example, when the touch operation is performed with one finger, the map operation is disabled, and when the touch operation is performed with two fingers, the button operation is disabled. Below, the specific example of operation in the operating device 1 is demonstrated.

はじめに、本実施形態に係る操作装置1におけるボタン50a,50bの操作について説明する。
図4は、本実施形態に係る操作装置1において、1本の指Sでボタン50a,50bをタッチ操作した場合の表示パネル21の画像の例を示した図であって、図4(a)は操作前の表示パネル21の画像の例を示した図であり、図4(b)は操作後の表示パネル21の画像の例を示した図である。
First, the operation of the buttons 50a and 50b in the operation device 1 according to the present embodiment will be described.
FIG. 4 is a diagram illustrating an example of an image on the display panel 21 when the buttons 50a and 50b are touch-operated with one finger S in the operation device 1 according to the present embodiment. FIG. 4 is a diagram showing an example of an image on the display panel 21 before operation, and FIG. 4B is a diagram showing an example of an image on the display panel 21 after operation.

図4(a)に示すように、ユーザーがボタン50bを操作したいと考え、1本の指Sでボタン50bをタッチ操作した場合には、図4(b)に示すように、操作装置1は、1本の指Sによるタッチ操作であるため、ボタン50bの操作を実行する。本実施形態においては、ボタン50a,50bとして地図60の縮尺を変更するボタン50a,50bを例として説明するが、これ以外の機能を果たすボタン50a,50bに適用することとしてもよい。   As shown in FIG. 4A, when the user wants to operate the button 50b and touches the button 50b with one finger S, as shown in FIG. Since this is a touch operation with one finger S, the operation of the button 50b is executed. In the present embodiment, the buttons 50a and 50b that change the scale of the map 60 will be described as an example of the buttons 50a and 50b. However, the buttons 50a and 50b may be applied to the buttons 50a and 50b that perform other functions.

図5は、本実施形態に係る操作装置1において、1本の指Sで地図60をタッチ操作した場合の表示パネル21の画像の例を示した図であって、図5(a)は操作前の表示パネル21の画像の例を示した図であり、図5(b)は操作後の表示パネル21の画像の例を示した図である。図5(a)に示すように、ユーザーがボタン50bを操作したいと考え、1本の指Sで地図60上をタッチ操作した場合には、図5(b)に示すように、操作装置1は、1本の指Sによるタッチ操作であるため、地図60の操作を不可とし、地図60は操作されない。すなわち、地図60は動かない。   5 is a diagram showing an example of an image on the display panel 21 when the map 60 is touched with one finger S in the operating device 1 according to the present embodiment, and FIG. It is the figure which showed the example of the image of the front display panel 21, FIG.5 (b) is the figure which showed the example of the image of the display panel 21 after operation. As shown in FIG. 5A, when the user wants to operate the button 50b and performs a touch operation on the map 60 with one finger S, as shown in FIG. Since this is a touch operation with one finger S, the map 60 cannot be operated and the map 60 is not operated. That is, the map 60 does not move.

また、上述したボタン50a,50bの操作と同様に、地図60上の特定の地点を示すアイコン51も1本の指Sで操作できるようにすることもできる。
図6は、本実施形態に係る操作装置1において、1本の指Sで地図60上のアイコン51をタッチ操作した場合の表示パネル21の画像の例を示した図であって、図6(a)は操作前の表示パネル21の画像の例を示した図であり、図6(b)は操作後の表示パネル21の画像の例を示した図である。
Moreover, the icon 51 which shows the specific point on the map 60 can also be operated with one finger | toe S similarly to operation of the buttons 50a and 50b mentioned above.
FIG. 6 is a diagram showing an example of an image on the display panel 21 when the icon 51 on the map 60 is touch-operated with one finger S in the operating device 1 according to the present embodiment. FIG. 6A is a diagram illustrating an example of an image on the display panel 21 before operation, and FIG. 6B is a diagram illustrating an example of an image on the display panel 21 after operation.

図6(a)に示すように、ユーザーが地図60上のアイコン51を操作したいと考え、1本の指Sでアイコン51をタッチ操作した場合には、図6(b)に示すように、操作装置1は、1本の指Sによるタッチ操作であるため、地図60上のアイコン51の操作を実行する。このとき、1本の指Sによるタッチ操作であるため、地図60の操作は不可となっており、地図60は操作されない。すなわち、地図60は動かない。本実施形態においては、地図60上のアイコン51として駐車場を示すアイコン51を例として説明するが、これ以外の場所等を示すアイコン51に適用することとしてもよい。   As shown in FIG. 6A, when the user wants to operate the icon 51 on the map 60 and touches the icon 51 with one finger S, as shown in FIG. Since the operating device 1 is a touch operation with one finger S, the operation of the icon 51 on the map 60 is executed. At this time, since the touch operation is performed with one finger S, the map 60 cannot be operated, and the map 60 is not operated. That is, the map 60 does not move. In the present embodiment, an icon 51 indicating a parking lot is described as an example of the icon 51 on the map 60, but the icon 51 indicating a place other than this may be applied.

このように、本実施形態に係る操作装置1においては、ユーザーがボタン50a,50bを操作したいと考えているときや、地図60上の特定の地点を示すアイコン51を操作したいと考えているときには、地図60の操作は不可となっているため、地図60は操作されない。したがって、ユーザーの意図に反する操作が行われることを防止することができる。   Thus, in the operating device 1 according to the present embodiment, when the user wants to operate the buttons 50a and 50b, or when he wants to operate the icon 51 indicating a specific point on the map 60. Since the operation of the map 60 is disabled, the map 60 is not operated. Therefore, it is possible to prevent an operation contrary to the user's intention from being performed.

次に、本実施形態に係る操作装置1における地図60の操作について説明する。
図7は、本実施形態に係る操作装置1において、2本の指Dで地図60をタッチ操作した場合の表示パネル21の画像の例を示した図であって、図7(a)は操作前の表示パネル21の画像の例を示した図であり、図7(b)は操作後の表示パネル21の画像の例を示した図である。図7(a)に示すように、ユーザーが地図60を操作したいと考え、2本の指Dで地図60上をタッチ操作した場合には、図7(b)に示すように、操作装置1は、2本の指Dによるタッチ操作であるため、地図60の操作を実行する。
Next, operation of the map 60 in the operating device 1 according to the present embodiment will be described.
FIG. 7 is a diagram illustrating an example of an image on the display panel 21 when the map 60 is touch-operated with two fingers D in the operation device 1 according to the present embodiment, and FIG. It is the figure which showed the example of the image of the front display panel 21, FIG.7 (b) is the figure which showed the example of the image of the display panel 21 after operation. As shown in FIG. 7A, when the user wants to operate the map 60 and performs a touch operation on the map 60 with two fingers D, as shown in FIG. Since this is a touch operation with two fingers D, the operation of the map 60 is executed.

図8は、本実施形態に係る操作装置1において、2本の指Dでボタン50a,50bをタッチ操作した場合の表示パネル21の画像の例を示した図であって、図8(a)は操作前の表示パネル21の画像の例を示した図であり、図8(b)は操作後の表示パネル21の画像の例を示した図である。図8(a)に示すように、ユーザーが地図60を操作したいと考え、2本の指Dでボタン50bをタッチ操作した場合には、図8(b)に示すように、操作装置1は、2本の指Dによるタッチ操作であるため、地図60の操作を実行する。このとき、2本の指Dによるタッチ操作であるため、操作装置1は、ボタン50bの操作を不可とし、ボタン50bは操作されない。   FIG. 8 is a diagram illustrating an example of an image on the display panel 21 when the buttons 50a and 50b are touch-operated with two fingers D in the operation device 1 according to the present embodiment. FIG. 8 is a diagram showing an example of an image on the display panel 21 before operation, and FIG. 8B is a diagram showing an example of an image on the display panel 21 after operation. As shown in FIG. 8A, when the user wants to operate the map 60 and touches the button 50b with two fingers D, as shown in FIG. Since it is a touch operation with two fingers D, the operation of the map 60 is executed. At this time, since it is a touch operation with two fingers D, the controller device 1 disables the operation of the button 50b, and the button 50b is not operated.

このように、本実施形態に係る操作装置1においては、ユーザーが地図60を操作したいと考えているときには、ボタン50a,50bの操作は不可となっているため、ボタン50a,50bは操作されない。したがって、ユーザーの意図に反する操作が行われることを防止することができるため、ユーザーの意図する操作を的確に実行することができる。   Thus, in the operating device 1 according to the present embodiment, when the user wants to operate the map 60, the buttons 50a and 50b are not operated, and thus the buttons 50a and 50b are not operated. Therefore, since an operation contrary to the user's intention can be prevented, the operation intended by the user can be executed accurately.

ところで、本実施形態に係る操作装置1においては、タッチパネル11を2本の指でタッチ操作した場合、検出点が2点発生することとなる。本実施形態においては、操作装置1は、入力部10にタッチパネル11上の2点を略同時、すなわちタッチパネル11上の2点を所定の時間内にタッチ操作したときに、この2点のタッチ操作を共に有効な操作として検出点を2点出力する出力部12と、操作処理部33に出力部12からの出力に基づいてタッチパネル11上のいずれの点が操作されたかを判別する判別部33aとを備えている。上述した2本の指による操作と判定するための所定の時間は、タッチパネル11における一連の操作に遅延が生じない程度の時間内に設定し、ユーザーがタッチパネル11を操作した際に反応に遅れが生じる等の違和感を与えないようにする。そして、操作装置1は、出力部12から検出点が2点出力された場合には、判別部33aにおいてタッチパネル11上のある1点を操作点として判別する。これにより、ユーザーは、タッチパネル11上のある1点を操作点としてタッチ操作することができるため、ユーザーの意図に沿った自然な操作を実現することができる。   By the way, in the operating device 1 according to the present embodiment, when the touch panel 11 is touch-operated with two fingers, two detection points are generated. In the present embodiment, the controller device 1 touches the input unit 10 with two points on the touch panel 11 at approximately the same time, that is, when two points on the touch panel 11 are touched within a predetermined time. An output unit 12 that outputs two detection points as effective operations, and a determination unit 33a that determines which point on the touch panel 11 is operated on the operation processing unit 33 based on an output from the output unit 12. It has. The predetermined time for determining the operation with two fingers as described above is set within a time that does not cause a delay in a series of operations on the touch panel 11, and the response is delayed when the user operates the touch panel 11. Do not give an uncomfortable feeling. When two detection points are output from the output unit 12, the controller device 1 determines one point on the touch panel 11 as an operation point in the determination unit 33a. Thereby, since the user can perform a touch operation using a certain point on the touch panel 11 as an operation point, a natural operation in accordance with the user's intention can be realized.

本実施形態に係る操作装置1においては、一例として、2点の検出点を結ぶ線分の中点、すなわち2点の検出点の中間点を操作点として操作を行う。
図9は、本実施形態に係る操作装置1における2本の指Dでタッチ操作した場合の操作点の判別方法の手順を示したフローチャートである。
図9に示すように、はじめに、ステップS10において、出力部12は、タッチパネル11を2本の指でタッチ操作した場合、1本目の指D1の検出点を第1検出点とし、2本目の指D2の検出点を第2検出点として検出点を2点出力する。
次に、ステップS11において、判別部33aは、出力部12の出力に基づき、第1検出点と第2検出点の中間点を操作点と判別する。
In the operation device 1 according to the present embodiment, for example, the operation is performed using the midpoint of a line segment connecting two detection points, that is, an intermediate point between the two detection points as an operation point.
FIG. 9 is a flowchart illustrating a procedure of a method for determining an operation point when a touch operation is performed with two fingers D in the operation device 1 according to the present embodiment.
As shown in FIG. 9, first, in step S <b> 10, when the touch panel 11 is touched with two fingers, the output unit 12 sets the detection point of the first finger D 1 as the first detection point. Two detection points are output with the detection point of the finger D 2 as the second detection point.
Next, in step S <b> 11, the determination unit 33 a determines an intermediate point between the first detection point and the second detection point as an operation point based on the output of the output unit 12.

図10は、本実施形態に係る操作装置1における2本の指Dで操作した場合の操作点の判別方法を示した図であって、図10(a)は操作点の判別方法を示した図表であり、図10(b)は2本の指Dで操作した場合の操作点の例を示した図である。
図10(a)に示すように、判別部33aは、表示パネル21の左下隅を原点Oとした2次元のxy座標面において、第1検出点P1の座標を(x1,y1)とし、第2検出点P2の座標を(x2,y2)として、操作点Pcの座標(xc,yc)を下記式(1)により求める。

Figure 0005805473
FIG. 10 is a diagram illustrating a method for determining an operation point when operated with two fingers D in the controller device 1 according to the present embodiment, and FIG. 10A illustrates a method for determining the operation point. FIG. 10B is a diagram showing an example of operation points when operated with two fingers D. FIG.
As shown in FIG. 10A, the determination unit 33a determines the coordinates of the first detection point P 1 as (x 1 , y 1 ) on the two-dimensional xy coordinate plane with the lower left corner of the display panel 21 as the origin O. And the coordinates of the operation point P c (x c , y c ) are obtained by the following equation (1), where the coordinates of the second detection point P 2 are (x 2 , y 2 ).
Figure 0005805473

したがって、図10(b)に示すように、ユーザーは2本の指Dの中間点を操作点Pcとして操作を行うことができる。本実施形態に係る操作点の判別方法によれば、例えば、地図60上のある位置を短押し又は長押ししたときに、表示パネル21に表示している地図60の中心をタッチ操作した点に移動させる操作や、ある点を押しながら軽く払うように操作したときに地図60をスクロールさせる操作において、ユーザーは2本の指Dの中間点を操作点Pcとして操作を行うことができるため、ユーザーの意図に沿った自然な操作を実現することができる。 Therefore, as shown in FIG. 10B, the user can perform an operation using the intermediate point of the two fingers D as the operation point Pc . According to the operation point determination method according to the present embodiment, for example, when a certain position on the map 60 is short-pressed or long-pressed, the center of the map 60 displayed on the display panel 21 is touched. In the operation of moving or the operation of scrolling the map 60 when operated to lightly press while pressing a certain point, the user can operate using the intermediate point of the two fingers D as the operation point P c . Natural operation according to the user's intention can be realized.

図11は、本実施形態に係る操作装置1をスマートフォン70に適用した例を示した図である。図11に示すように、スマートフォン70には機械的なボタンであるハードキー71が一つしか備えられていないものがある。このため、文字入力等は表示パネル21に表示されたソフトキー(図示省略)をタッチ操作することにより行われる。しかし、スマートフォン70の表示パネル21は面積が小さいため表示されるソフトキーも小さく、2本の指Dでソフトキーをタッチ操作した場合、意図しない他のソフトキーが操作されてしまう可能性がある。しかし、本実施形態に係る操作装置1のように、2本の指Dでタッチパネル11を操作したときには、2本の指Dの中間点を操作点Pcとすることにより、意図しない他のソフトキーが操作されてしまうことを回避することができるため、ユーザーの意図に沿った自然な操作を実現することができる。したがって、本実施形態に係る操作装置1のように、2本の指Dの中間点を操作点Pcとすることは、表示パネル21は面積が小さいスマートフォン70等において特に有用である。 FIG. 11 is a diagram illustrating an example in which the operation device 1 according to the present embodiment is applied to the smartphone 70. As illustrated in FIG. 11, some smartphones 70 include only one hard key 71 that is a mechanical button. For this reason, character input or the like is performed by touching a soft key (not shown) displayed on the display panel 21. However, since the display panel 21 of the smartphone 70 has a small area, the displayed soft keys are small, and when the soft keys are touched with two fingers D, other unintended soft keys may be operated. . However, when the touch panel 11 is operated with two fingers D as in the operation device 1 according to the present embodiment, another software that is not intended is set by setting the intermediate point between the two fingers D as the operation point Pc. Since the operation of the key can be avoided, a natural operation in accordance with the user's intention can be realized. Therefore, as in the operation device 1 according to the present embodiment, setting the intermediate point of the two fingers D as the operation point Pc is particularly useful for the smartphone 70 or the like having a small area.

<第2の実施形態>
以下、本発明に係る操作装置の第2の実施形態について説明する。
第1実施形態においては、2本の指の中間点を操作点として操作を行っている。このため、図12に示すように、右ハンドル車の運転席側からユーザーが右手の2本の指Dで表示パネル21(すなわち、タッチパネル11)の右下隅の部分のタッチ操作を行う場合、手Hを矢印Tで示すように捻り、肘Eを矢印Rで示すように挙げた状態で操作を行うこととなるため、操作が困難である。
このため、本実施形態に係る操作装置1においては、2本の指Dでタッチ操作した場合、2点の検出点のうち表示パネル21(すなわち、タッチパネル11)のより端部側に位置する検出点を操作点として操作を行うこととした。なお、本実施形態に係る操作装置1の構成は、第1の実施形態に係る操作装置1の構成と同様である。
<Second Embodiment>
Hereinafter, a second embodiment of the operating device according to the present invention will be described.
In the first embodiment, an operation is performed using an intermediate point between two fingers as an operation point. For this reason, as shown in FIG. 12, when the user performs a touch operation on the lower right corner portion of the display panel 21 (that is, the touch panel 11) with two fingers D of the right hand from the driver seat side of the right-hand drive vehicle, Since the operation is performed in a state where H is twisted as indicated by the arrow T and the elbow E is indicated as indicated by the arrow R, the operation is difficult.
For this reason, in the operating device 1 according to the present embodiment, when the touch operation is performed with the two fingers D, the detection that is located closer to the end of the display panel 21 (that is, the touch panel 11) among the two detection points. The operation was performed using the point as the operation point. The configuration of the operating device 1 according to the present embodiment is the same as the configuration of the operating device 1 according to the first embodiment.

図13は、本実施形態に係る操作装置1における2本の指Dでタッチ操作した場合の操作点の判別方法の手順を示したフローチャートである。
図13に示すように、はじめに、ステップS20において、出力部12は、タッチパネル11を2本の指でタッチ操作した場合、1本目の指D1の検出点を第1検出点とし、2本目の指D2の検出点を第2検出点として検出点を2点出力する。
次に、ステップS21において、判別部33aは、出力部12の出力に基づき、第1検出点が第2検出点より表示パネル21(すなわち、タッチパネル11)の端部側に位置するか判断し、第1検出点が第2検出点より端部側に位置する場合(ステップS21:YES)、第1検出点を操作点と判別する(ステップS22)。また、判別部33aは、第1検出点が第2検出点より端部側に位置していない場合(ステップS21:NO)、第2検出点を操作点と判別する(ステップS23)。
FIG. 13 is a flowchart illustrating a procedure of a method for determining an operation point when a touch operation is performed with two fingers D in the operation device 1 according to the present embodiment.
As shown in FIG. 13, first, in step S20, the output unit 12, when the touch operation of the touch panel 11 with two fingers, the detection point of the first run of the finger D 1 to the first detection point, connect a second Two detection points are output with the detection point of the finger D 2 as the second detection point.
Next, in step S21, the determination unit 33a determines whether the first detection point is located closer to the end side of the display panel 21 (ie, the touch panel 11) than the second detection point based on the output of the output unit 12. When the first detection point is located closer to the end than the second detection point (step S21: YES), the first detection point is determined as the operation point (step S22). In addition, when the first detection point is not located on the end side of the second detection point (step S21: NO), the determination unit 33a determines the second detection point as the operation point (step S23).

図14は、本実施形態に係る操作装置1における2本の指Dでタッチ操作した場合の操作点の判別方法を示した図であって、図14(a)は操作点の判別方法を示した図であり、図14(b)は親指D1と人差し指D2の2本の指Dでタッチ操作し、2本の指Dのうち人差し指D2でタッチパネル11の右下隅をタッチ操作した場合の操作点の例を示した図である。
図14(a)に示すように、判別部33aは、表示パネル21の左下隅を原点Oとした2次元のxy座標面において、第1検出点P1の座標を(x1,y1)とし、第2検出点P2の座標を(x2,y2)とし、操作点Pcの座標を(xc,yc)とすると、下記式(2)より、a≧bの場合、第1検出点P1の座標を操作点Pcの座標として判別し、a<bの場合、第2検出点P2の座標を操作点Pcの座標として判別する。

Figure 0005805473
ここで、wは表示パネル21のx方向の長さ(すなわち、表示パネル21及びタッチパネル11の幅)を意味し、hは表示パネル21のy方向の長さ(すなわち、表示パネル21及びタッチパネル11の高さ)を意味する。図14(a)においては、a<bの場合を例として示している。 FIG. 14 is a diagram illustrating a method for determining an operation point when a touch operation is performed with two fingers D in the controller device 1 according to the present embodiment, and FIG. 14A illustrates a method for determining an operation point. and a drawing, FIG. 14 (b) a touch operation with two fingers D of the thumb D 1 and forefinger D 2, when a touch operation to the lower-right corner of the touch panel 11 with the index finger D 2 of the two fingers D It is the figure which showed the example of this operation point.
As shown in FIG. 14A, the determination unit 33a sets the coordinates of the first detection point P 1 to (x 1 , y 1 ) on the two-dimensional xy coordinate plane with the lower left corner of the display panel 21 as the origin O. Assuming that the coordinates of the second detection point P 2 are (x 2 , y 2 ) and the coordinates of the operation point P c are (x c , y c ), The coordinates of the first detection point P 1 are determined as the coordinates of the operation point P c , and if a <b, the coordinates of the second detection point P 2 are determined as the coordinates of the operation point P c .
Figure 0005805473
Here, w means the length of the display panel 21 in the x direction (that is, the width of the display panel 21 and the touch panel 11), and h means the length of the display panel 21 in the y direction (that is, the display panel 21 and the touch panel 11). Of height). FIG. 14A shows an example where a <b.

したがって、図14(b)に示すように、ユーザーは親指D1を支点として、2点の検出点のうち表示パネル21(すなわち、タッチパネル11)の中心からより離れた人差し指D2側の検出点、すなわちより端部側に位置する検出点を操作点Pcとして操作を行うことができる。
このため、例えば、地図60上のある位置を短押し又は長押ししたときに、表示パネル21に表示している地図60の中心をタッチ位置に移動させるスクロール操作において、特に、右ハンドル車の運転席側からユーザーが右手で表示パネル21(すなわち、タッチパネル11)の右下隅の部分を操作することを容易にすることができる。
Accordingly, as shown in FIG. 14 (b), the user as a fulcrum thumb D 1, display panel 21 of the detection points of the two points (i.e., touch panel 11) more distant forefinger D 2 side of the detection points from the center of That is, the operation can be performed with the detection point located closer to the end as the operation point P c .
Therefore, for example, in a scroll operation for moving the center of the map 60 displayed on the display panel 21 to the touch position when a certain position on the map 60 is short-pressed or long-pressed, the driving of the right-hand drive vehicle is particularly performed. The user can easily operate the lower right corner portion of the display panel 21 (that is, the touch panel 11) with the right hand from the seat side.

図15は、本実施形態に係る操作装置1における2本の指Dでタッチ操作した場合の操作点の判別方法を示した図であって、図15(a)は操作点の判別方法を示した図であり、図15(b)は親指D1と人差し指D2の2本の指Dでタッチ操作し、2本の指Dのうち親指D1でタッチパネル11の左下隅をタッチ操作した場合の操作点の例を示した図である。
図15(a)に示すように、図14において説明した判別方法と同様の方法で操作点Pcを判別する。したがって、図15(b)に示すように、ユーザーは人差し指D2を支点として、2点の検出点のうち表示パネル21(すなわち、タッチパネル11)の中心からより離れた親指D1側の検出点、すなわちより端部側に位置する検出点を操作点Pcとして操作を行うことができる。
このため、例えば、地図60上のある位置を短押し又は長押ししたときに、表示パネル21に表示している地図60の中心をタッチ位置に移動させるスクロール操作において、右ハンドル車の運転席側からユーザーが右手で表示パネル21(すなわち、タッチパネル11)の左下隅の部分を操作することを容易にすることができる。
したがって、本実施形態に係る操作装置1のように、2本の指Dでタッチ操作した場合、2点の検出点のうち表示パネル21(すなわち、タッチパネル11)のより端部側に位置する検出点を操作点Pcとすることは、操作装置1を手に持って操作出来ないようなカーナビゲーション装置等において特に有用である。
FIG. 15 is a diagram illustrating a method for determining an operation point when a touch operation is performed with two fingers D in the controller device 1 according to the present embodiment. FIG. 15A illustrates a method for determining an operation point. FIG. 15B shows a case where the touch operation is performed with the two fingers D, the thumb D 1 and the index finger D 2 , and the lower left corner of the touch panel 11 is operated with the thumb D 1 of the two fingers D. It is the figure which showed the example of this operation point.
As shown in FIG. 15A, the operation point Pc is determined by the same method as the determination method described in FIG. Accordingly, as shown in FIG. 15 (b), the user as a fulcrum forefinger D 2, the display panel 21 of the detection points of the two points (i.e., touch panel 11) more distant thumb D 1 side of the detection point from the center of That is, the operation can be performed with the detection point located closer to the end as the operation point P c .
For this reason, for example, in a scroll operation for moving the center of the map 60 displayed on the display panel 21 to the touch position when a certain position on the map 60 is short-pressed or long-pressed, the driver's seat side of the right-hand drive vehicle Thus, the user can easily operate the lower left corner portion of the display panel 21 (that is, the touch panel 11) with the right hand.
Therefore, when the touch operation is performed with the two fingers D as in the operation device 1 according to the present embodiment, the detection that is located closer to the end portion of the display panel 21 (that is, the touch panel 11) among the two detection points. Setting the point as the operation point P c is particularly useful in a car navigation device or the like that cannot be operated by holding the operation device 1 in the hand.

<第3の実施形態>
以下、本発明に係る操作装置の第3の実施形態について説明する。
本実施形態に係る操作装置1の構成は、第1の実施形態に係る操作装置1の構成と同様であるが、本実施形態に係る操作装置1においては、2本の指Dでタッチ操作した場合、2点の検出点のうち、表示パネル21(すなわち、タッチパネル11)のX方向において、より端部側に位置する点の座標xと、2点の検出点のうち表示パネル21(すなわち、タッチパネル11)のY方向において、より端部側に位置する点の座標yとにおける点(x,y)を操作点として操作を行うこととした。
<Third Embodiment>
Hereinafter, a third embodiment of the operating device according to the present invention will be described.
The configuration of the operating device 1 according to the present embodiment is the same as the configuration of the operating device 1 according to the first embodiment. However, in the operating device 1 according to the present embodiment, a touch operation is performed with two fingers D. In this case, of the two detection points, the coordinate x of the point located on the end side in the X direction of the display panel 21 (that is, the touch panel 11) and the display panel 21 (that is, the two detection points) In the Y direction of the touch panel 11), the operation is performed with the point (x, y) at the coordinate y of the point located closer to the end side as the operation point.

図16は、本実施形態に係る操作装置1における2本の指Dでタッチ操作した場合の操作点の判別方法の手順を示したフローチャートである。
図16に示すように、はじめに、ステップS30において、出力部12は、タッチパネル11を2本の指でタッチ操作した場合、1本目の指D1の検出点を第1検出点とし、2本目の指D2の検出点を第2検出点として検出点を2点出力する。
FIG. 16 is a flowchart illustrating a procedure of a method for determining an operation point when a touch operation is performed with two fingers D in the operation device 1 according to the present embodiment.
As shown in FIG. 16, first, in step S30, the output unit 12, when the touch operation of the touch panel 11 with two fingers, the detection point of the first run of the finger D 1 to the first detection point, connect a second Two detection points are output with the detection point of the finger D 2 as the second detection point.

次に、ステップS31において、判別部33aは、出力部12の出力に基づき、X方向において第1検出点が第2検出点より表示パネル21(すなわち、タッチパネル11)の端部側に位置するか判断し、第1検出点が第2検出点より端部側に位置する場合(ステップS31:YES)、第1検出点の座標xを操作点の座標xと判別する(ステップS32)。また、判別部33aは、第1検出点が第2検出点より端部側に位置していない場合(ステップS31:NO)、第2検出点の座標xを操作点の座標xと判別する(ステップS33)。   Next, in step S31, based on the output of the output unit 12, the determination unit 33a determines whether the first detection point is located closer to the end of the display panel 21 (ie, the touch panel 11) than the second detection point in the X direction. If the first detection point is located closer to the end than the second detection point (step S31: YES), the coordinate x of the first detection point is determined as the coordinate x of the operation point (step S32). Further, when the first detection point is not located on the end side of the second detection point (step S31: NO), the determination unit 33a determines the coordinate x of the second detection point as the coordinate x of the operation point ( Step S33).

次に、ステップS34において、判別部33aは、出力部12の出力に基づき、Y方向において第1検出点が第2検出点より表示パネル21(すなわち、タッチパネル11)の端部側に位置するか判断し、第1検出点が第2検出点より端部側に位置する場合(ステップS34:YES)、第1検出点の座標yを操作点の座標yと判別する(ステップS32)。また、判別部33aは、第1検出点が第2検出点より端部側に位置していない場合(ステップS34:NO)、第2検出点の座標yを操作点の座標yと判別する(ステップS36)。   Next, in step S <b> 34, based on the output of the output unit 12, the determination unit 33 a determines whether the first detection point is positioned closer to the end of the display panel 21 (that is, the touch panel 11) than the second detection point in the Y direction. If the first detection point is located closer to the end than the second detection point (step S34: YES), the coordinate y of the first detection point is determined as the coordinate y of the operation point (step S32). Further, when the first detection point is not located on the end side of the second detection point (step S34: NO), the determination unit 33a determines the coordinate y of the second detection point as the coordinate y of the operation point ( Step S36).

図17は、本実施形態に係る操作装置1における2本の指Dでタッチ操作した場合の操作点の判別方法を示した図であって、図17(a)は操作点の判別方法を示した図であり、図17(b)は2本の指Dで操作した場合の操作点の例を示した図である。図17(a)に示すように、判別部33aは、表示パネル21の左下隅を原点Oとした2次元のxy座標面において、第1検出点P1の座標を(x1,y1)とし、第2検出点P2の座標を(x2,y2)とし、操作点Pcの座標を(xc,yc)とすると、下記式(3)より、xα≧xβの場合、第1検出点P1の座標におけるx1を操作点Pcの座標におけるxcとして判別し、xα<xβの場合、第2検出点P2の座標におけるx2を操作点Pcの座標におけるxcとして判別する。

Figure 0005805473
ここで、wは表示パネル21のx方向の長さ(すなわち、表示パネル21及びタッチパネル11の幅)を意味し、hは表示パネル21のy方向の長さ(すなわち、表示パネル21及びタッチパネル11の高さ)を意味する。 FIG. 17 is a diagram illustrating a method for determining an operation point when a touch operation is performed with two fingers D in the controller device 1 according to the present embodiment. FIG. 17A illustrates a method for determining an operation point. FIG. 17B is a diagram showing an example of operation points when operated with two fingers D. As shown in FIG. 17A, the determination unit 33a sets the coordinates of the first detection point P 1 to (x 1 , y 1 ) on the two-dimensional xy coordinate plane with the lower left corner of the display panel 21 as the origin O. Assuming that the coordinates of the second detection point P 2 are (x 2 , y 2 ) and the coordinates of the operation point P c are (x c , y c ), from the following equation (3), when xα ≧ xβ: X 1 in the coordinates of the first detection point P 1 is determined as x c in the coordinates of the operation point P c , and when xα <xβ, x 2 in the coordinates of the second detection point P 2 is determined in the coordinates of the operation point P c . determine the x c.
Figure 0005805473
Here, w means the length of the display panel 21 in the x direction (that is, the width of the display panel 21 and the touch panel 11), and h means the length of the display panel 21 in the y direction (that is, the display panel 21 and the touch panel 11). Of height).

また、判別部33aは、下記式(4)より、yα≧yβの場合、第1検出点P1の座標におけるy1を操作点Pcの座標におけるycとして判別し、yα<yβの場合、第2検出点P2の座標におけるy2を操作点Pcの座標におけるycとして判別する。

Figure 0005805473
ここで、wは表示パネル21のx方向の長さ(すなわち、表示パネル21及びタッチパネル11の幅)を意味し、hは表示パネル21のy方向の長さ(すなわち、表示パネル21及びタッチパネル11の高さ)を意味する。図17(a)においては、Pc(xc,yc)=(x2,y1)の場合を例として示している。 Further, determination unit 33a, the following equation (4), if the yα ≧ yβ, the y 1 at the first detection point P 1 of the coordinates to determine a y c at the coordinates of the operating point P c, in the case of yα <yβ Then, y 2 at the coordinates of the second detection point P 2 is determined as y c at the coordinates of the operation point P c .
Figure 0005805473
Here, w means the length of the display panel 21 in the x direction (that is, the width of the display panel 21 and the touch panel 11), and h means the length of the display panel 21 in the y direction (that is, the display panel 21 and the touch panel 11). Of height). In FIG. 17A, the case of P c (x c , y c ) = (x 2 , y 1 ) is shown as an example.

したがって、図17(b)に示すように、ユーザーは2点の検出点よりも表示パネル21の中心から離れた点、すなわちより隅側の点を操作点Pcとして操作を行うことができる。このため、例えば、地図60上のある位置を短押し又は長押ししたときに、表示パネル21に表示している地図60の中心をタッチ位置に移動させる操作において、2本の指Dでは操作しにくい表示パネル21(すなわち、タッチパネル11)の隅の部分における操作を容易にすることができる。本実施形態における操作点の判別方法では、2本の指Dで押していない点が操作点と設定される場合があり、ユーザーによっては不自然と感じる場合があると考えられるため、このような場合には、第1,2の実施形態における操作点の判別方法と切り替えられるようにすることで、ユーザーにとって自然な操作を行えるようにすることも可能である。 Accordingly, as shown in FIG. 17B, the user can perform an operation using the point farther from the center of the display panel 21 than the two detection points, that is, a point closer to the corner, as the operation point P c . For this reason, for example, when a certain position on the map 60 is short-pressed or long-pressed, the operation of moving the center of the map 60 displayed on the display panel 21 to the touch position is performed with two fingers D. It is possible to facilitate an operation at a corner portion of the display panel 21 (that is, the touch panel 11) that is difficult. In the operation point determination method according to the present embodiment, a point that is not pressed with two fingers D may be set as an operation point, and it may be considered unnatural depending on the user. In addition, by switching to the operation point determination method in the first and second embodiments, it is possible to perform a natural operation for the user.

なお、上述した実施形態においては、操作する指の本数が1本であるか、又は2本であるかを検出しているが、これ以外にも操作する指の本数が3本以上であることを検出してある操作対象の操作を不可としつつ、他の操作対象の操作のみを行えるようにしてもよい。また、指以外のもの、例えば、タッチペン等により操作を行う場合であっても適用することが可能である。   In the above-described embodiment, whether the number of fingers to be operated is one or two is detected, but the number of fingers to be operated is three or more in addition to this. It is also possible that only the operation of another operation target can be performed while the operation of the operation target that has been detected is disabled. Further, the present invention can be applied even when an operation is performed with something other than a finger, such as a touch pen.

また、地図60のスクロール操作は、操作点Pcを地図60の中心とする操作以外にも、表示パネル21(すなわち、タッチパネル11)の中心とタッチパネル11上のある点に位置する操作点Pcとを結ぶ線分上において地図60を所定量移動させる操作や、画面中央付近に表示される指し示す方向に地図60をスクロールさせるための矢印をタッチ操作することにより地図60を所定量移動させる操作など種々の操作方法を適用することが可能である。 The scroll operation of the map 60 is not limited to the operation with the operation point P c as the center of the map 60, but the operation point P c located at a certain point on the touch panel 11 and the center of the display panel 21 (that is, the touch panel 11). An operation for moving the map 60 by a predetermined amount on a line segment connecting the two, and an operation for moving the map 60 by a predetermined amount by touching an arrow for scrolling the map 60 in the pointing direction displayed near the center of the screen. Various operation methods can be applied.

また、操作装置1として、車両100に搭載されるカーナビゲーション装置を例として説明したが、これ以外にも、タッチ操作により操作対象を操作することができるタッチパネル11を備える機器に広く適用することができ、例えば、タッチパネル11を備える携帯電話機、スマートフォン、パーソナルコンピューター又は携帯ゲーム機等に適用することが可能である。   Moreover, although the car navigation device mounted on the vehicle 100 has been described as an example of the operation device 1, the operation device 1 may be widely applied to devices including the touch panel 11 that can operate an operation target by a touch operation. For example, the present invention can be applied to a mobile phone, a smart phone, a personal computer, a portable game machine, or the like that includes the touch panel 11.

1 操作装置
10 入力部
11 タッチパネル
12 出力部
20 表示部
21 表示パネル
30 制御部
31 画像処理部
32 操作検出部
33 操作処理部
33a 判別部
40 バス
50a,50b ボタン
51 アイコン
60 地図
70 スマートフォン
71 ハードキー
100 車両
101 ダッシュボード
102 フェイスパネル
S 1本の指
D 2本の指
H 手
E 肘
DESCRIPTION OF SYMBOLS 1 Operation apparatus 10 Input part 11 Touch panel 12 Output part 20 Display part 21 Display panel 30 Control part 31 Image processing part 32 Operation detection part 33 Operation processing part 33a Discrimination part 40 Bus 50a, 50b Button 51 Icon 60 Map 70 Smartphone 71 Hard key 100 vehicle 101 dashboard 102 face panel S 1 finger D 2 fingers H hand E elbow

Claims (4)

タッチパネル上の2点を略同時にタッチ操作したときに当該2点の操作を共に有効な操作として出力する出力手段と、
前記2点の出力に基づいて前記タッチパネル上のいずれの点が操作されたかを判別する判別手段と、を備え
前記判別手段は前記2点のうち前記タッチパネルの中心からより離れた方の点を操作された点である操作点として判別することを特徴とする操作装置。
An output means for outputting the operations of the two points as effective operations when two points on the touch panel are touched substantially simultaneously;
Discriminating means for discriminating which point on the touch panel has been operated based on the output of the two points ;
The operating device characterized in that the determining means determines a point farther from the center of the touch panel among the two points as an operating point that is an operated point .
記タッチパネルにより操作する地図の操作処理を行う操作処理手段を備え、
前記操作処理手段は、前記操作点に基づき前記地図のスクロールを実行することを特徴とする請求項に記載の操作装置。
An operation processing means for performing an operation processing of the map to be operated by pre-Symbol touch panel,
The operation device according to claim 1 , wherein the operation processing unit executes scrolling of the map based on the operation point.
前記操作処理手段は、前記操作点を中心として前記地図のスクロールを実行することを特徴とする請求項に記載の操作装置。 The operation device according to claim 2 , wherein the operation processing unit executes scrolling of the map around the operation point. 記タッチパネルにより操作する各種機能が割り当てられたボタン及び地図の操作処理を行う操作処理手段を備え、
前記操作処理手段は、前記タッチパネルを1本の指でタッチ操作した場合、前記操作点に対応する前記ボタンに割り当てられた機能を実行し、前記タッチパネルを2本の指でタッチ操作した場合、前記操作点を中心として前記地図のスクロールを実行することを特徴とする請求項に記載の操作装置。
Before Symbol comprising an operation processing means for performing an operation processing of a button and a map in which various functions are assigned to operate the touch panel,
The operation processing means executes a function assigned to the button corresponding to the operation point when the touch panel is touch-operated with one finger, and when the touch panel is touch-operated with two fingers, The operating device according to claim 1 , wherein scrolling of the map is executed around an operating point.
JP2011191274A 2011-09-02 2011-09-02 Operating device Expired - Fee Related JP5805473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011191274A JP5805473B2 (en) 2011-09-02 2011-09-02 Operating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011191274A JP5805473B2 (en) 2011-09-02 2011-09-02 Operating device

Publications (2)

Publication Number Publication Date
JP2013054479A JP2013054479A (en) 2013-03-21
JP5805473B2 true JP5805473B2 (en) 2015-11-04

Family

ID=48131424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011191274A Expired - Fee Related JP5805473B2 (en) 2011-09-02 2011-09-02 Operating device

Country Status (1)

Country Link
JP (1) JP5805473B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015192699A (en) * 2014-03-31 2015-11-05 株式会社大都技研 game machine

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006020305A2 (en) * 2004-07-30 2006-02-23 Apple Computer, Inc. Gestures for touch sensitive input devices
JP4715257B2 (en) * 2005-03-22 2011-07-06 パナソニック株式会社 Data processing device
JP5210497B2 (en) * 2006-04-12 2013-06-12 クラリオン株式会社 Navigation device
JP2010176330A (en) * 2009-01-28 2010-08-12 Sony Corp Information processing apparatus and display control method

Also Published As

Publication number Publication date
JP2013054479A (en) 2013-03-21

Similar Documents

Publication Publication Date Title
US9060068B2 (en) Apparatus and method for controlling mobile terminal user interface execution
TWI417764B (en) A control method and a device for performing a switching function of a touch screen of a hand-held electronic device
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
US7750893B2 (en) Storage medium storing input position processing program, and input position processing device
JP5780438B2 (en) Electronic device, position designation method and program
JP5908648B2 (en) Electronic device, display control method and program
JP5640486B2 (en) Information display device
US20220382438A1 (en) Input/output controller and input/output control program
JP5542224B1 (en) Electronic device and coordinate detection method
EP2835722A1 (en) Input device
JP2012079279A (en) Information processing apparatus, information processing method and program
US8558806B2 (en) Information processing apparatus, information processing method, and program
JP6017995B2 (en) Portable information processing apparatus, input method thereof, and computer-executable program
JP2008257629A (en) Touch type input device
JP6127679B2 (en) Operating device
CN102768597A (en) Method and device for operating electronic equipment
WO2010122825A1 (en) Mobile terminal
JP2010211264A (en) Coordinate input device
JP4856136B2 (en) Movement control program
JP5805473B2 (en) Operating device
JP2013073365A (en) Information processing device
JP2009157448A (en) Handwritten information input display system
JP2015118424A (en) Information processing device
JP6742021B2 (en) User interface device, map display device and navigation system
JP2018092676A (en) Input display device and input display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150902

R150 Certificate of patent or registration of utility model

Ref document number: 5805473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees