JP2020197942A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2020197942A
JP2020197942A JP2019103919A JP2019103919A JP2020197942A JP 2020197942 A JP2020197942 A JP 2020197942A JP 2019103919 A JP2019103919 A JP 2019103919A JP 2019103919 A JP2019103919 A JP 2019103919A JP 2020197942 A JP2020197942 A JP 2020197942A
Authority
JP
Japan
Prior art keywords
gesture
touch
coordinates
control unit
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019103919A
Other languages
Japanese (ja)
Inventor
慶幸 松原
Keiyuki Matsubara
慶幸 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019103919A priority Critical patent/JP2020197942A/en
Publication of JP2020197942A publication Critical patent/JP2020197942A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To realize an input device configured to be used for a display part having a predetermined area and to be capable of smooth switching between touch operation and gesture operation.SOLUTION: Provided are: a touch panel 11 which is so arranged as to be superposed on a display part 10 having at least a predetermined area; a gesture recognition part 12 which recognizes the gesture of an operator and outputs a signal according to the gesture; and a control part 17 which performs input control through touch operation and input control through gesture operation. In such a configuration, the control part executes switching of an operation system so as to perform the input control through either one of the touch operation and the gesture operation.SELECTED DRAWING: Figure 1

Description

本発明は、タッチ操作およびジェスチャ操作が可能な入力装置に関する。 The present invention relates to an input device capable of touch operation and gesture operation.

従来、操作者がタッチパネルに指を接触させた状態で行うタッチ操作、または操作者がタッチパネルから指を離した状態で行うジェスチャに基づくジェスチャ操作を実行可能な構成とされた入力装置としては、例えば特許文献1に記載のものが提案されている。 Conventionally, as an input device having a configuration capable of performing a touch operation performed when the operator touches the touch panel with a finger, or a gesture operation based on a gesture performed by the operator while the finger is released from the touch panel, for example. The one described in Patent Document 1 has been proposed.

なお、本明細書において「ジェスチャ」とは、例えば、操作者が指を上下左右などの所定の一方向に動かす、または指を時計回りもしくは反時計回りに動かすといった簡単な動作を意味する。また、「ジェスチャ操作」とは、タッチ操作が行われていない状況にて、操作者のジェスチャに基づいて行われる入力操作を意味する。 In addition, in this specification, "gesture" means a simple operation, for example, that an operator moves a finger in a predetermined direction such as up, down, left and right, or moves a finger clockwise or counterclockwise. Further, the "gesture operation" means an input operation performed based on the gesture of the operator in a situation where the touch operation is not performed.

この入力装置は、表示部に重畳配置されたタッチパネルと、操作者がジェスチャ操作を行う際の当該操作者の身体形状を画像データとして取り込む身体形状入力部と、当該画像データに基づいてジェスチャ操作を認識し、入力制御を行う制御部とを備える。この入力装置は、例えば車両に搭載されるディスプレイなどに適用され、操作者と表示部との相対位置の変化が所定の範囲内に制限されている状況において、操作者が表示部の全域において、タッチ操作またはジェスチャ操作が可能な構成である。 This input device has a touch panel superimposed on the display unit, a body shape input unit that captures the body shape of the operator as image data when the operator performs a gesture operation, and a gesture operation based on the image data. It is provided with a control unit that recognizes and controls input. This input device is applied to, for example, a display mounted on a vehicle, and in a situation where the change in the relative position between the operator and the display unit is limited within a predetermined range, the operator can use the entire display unit. It is a configuration that allows touch operation or gesture operation.

国際公開第2013/136776号International Publication No. 2013/136767

ところで、この種の入力装置では、操作者が姿勢や表示部に対する相対位置などを大きく変えないとその全域をタッチ操作できないほどに表示部を大面積化したいとのニーズが存在する。 By the way, in this type of input device, there is a need to increase the area of the display unit so that the entire area cannot be touch-operated unless the operator significantly changes the posture or the relative position with respect to the display unit.

しかしながら、例えば車載用途のように、表示部と操作者との相対位置の変化が所定の範囲内に制限された状況においては、操作者は、表示部のうち一部の領域しかタッチ操作をすることができない。このような状況では、表示部のうち操作者がタッチ操作できない領域については、非接触でのジェスチャ操作により各種の入力操作を可能にすることが求められる。 However, in a situation where the change in the relative position between the display unit and the operator is limited within a predetermined range, for example, in an in-vehicle application, the operator performs a touch operation on only a part of the display unit. I can't. In such a situation, it is required to enable various input operations by non-contact gesture operation in the area of the display unit where the operator cannot perform touch operation.

また、この状況において、操作者が、表示部のうちタッチ操作をすることが可能な第1の領域からタッチ操作ができない第2の領域、すなわち操作者の指が届かない領域に跨って所定の入力操作をすることが想定される。この場合、操作性を向上させるためには、タッチ操作に続けてジェスチャ操作を行う際に、これらの操作の切り替えをスムーズに行い、連続した操作が可能な構成とする必要がある。特許文献1に記載の入力装置は、表示部の面積が小さいため、このような操作系のスムーズな切り替えが考慮された構成となっていない。 Further, in this situation, a predetermined area is straddled from the first area of the display unit where the operator can perform the touch operation to the second area where the touch operation cannot be performed, that is, the area where the operator's finger cannot reach. It is expected that an input operation will be performed. In this case, in order to improve the operability, it is necessary to smoothly switch between these operations when performing the gesture operation following the touch operation so that the operation can be continuously performed. Since the area of the display unit is small, the input device described in Patent Document 1 is not configured in consideration of such smooth switching of the operation system.

本発明は、上記の点に鑑み、所定以上の面積とされた表示部に対する入力操作に用いられ、タッチ操作とジェスチャ操作とのスムーズな切り替えが可能な構成とされた入力装置を提供することを目的とする。 In view of the above points, the present invention provides an input device that is used for an input operation on a display unit having an area larger than a predetermined area and has a configuration capable of smoothly switching between a touch operation and a gesture operation. The purpose.

上記目的を達成するため、請求項1に記載の入力装置は、所定以上の面積とされた表示部(10)に対して重畳配置されたタッチパネル(11)と、操作者の身体形状を撮像する撮像部(21)が取得した画像データに基づいて、操作者のジェスチャを認識し、ジェスチャに応じた信号を出力するジェスチャ認識部(12)と、タッチパネルからの出力信号に基づくタッチ操作による入力制御、およびジェスチャ認識部からの出力信号に基づくジェスチャ操作による入力制御を行う制御部(17)と、を備え、制御部は、タッチ操作およびジェスチャ操作のいずれか一方による入力制御となるように操作系の切り替えを実行する。 In order to achieve the above object, the input device according to claim 1 captures an image of a touch panel (11) superposed on a display unit (10) having an area larger than a predetermined area and an operator's body shape. Based on the image data acquired by the imaging unit (21), the gesture recognition unit (12) recognizes the operator's gesture and outputs a signal according to the gesture, and the input control by touch operation based on the output signal from the touch panel. , And a control unit (17) that performs input control by gesture operation based on the output signal from the gesture recognition unit, and the control unit is an operation system so that the input control is performed by either touch operation or gesture operation. Perform a switch.

これにより、所定以上の面積の表示部へのタッチ操作およびジェスチャ操作が可能な入力装置において、制御部がタッチ操作とジェスチャ操作との切り替えを実行することで、スムーズな操作系の切り替えがなされる構成となる。 As a result, in the input device capable of touch operation and gesture operation on the display unit having an area larger than a predetermined area, the control unit switches between the touch operation and the gesture operation, so that the operation system can be smoothly switched. It becomes a composition.

なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。 The reference reference numerals in parentheses attached to each component or the like indicate an example of the correspondence between the component or the like and the specific component or the like described in the embodiment described later.

第1実施形態の入力装置を有する車載装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted device which has the input device of 1st Embodiment. 図1の車載装置の搭載例を説明するための説明図である。It is explanatory drawing for demonstrating the mounting example of the vehicle-mounted device of FIG. 図1の車載装置のうちタッチパネルの第1領域および第2領域の区画例を示す図である。It is a figure which shows the division example of the 1st region and the 2nd region of the touch panel in the vehicle-mounted device of FIG. タッチパネルをタッチ操作中の様子および表示部におけるポインタの表示を示す図である。It is a figure which shows the state during touch operation of a touch panel, and the display of a pointer in a display part. 図4Aに続くジェスチャ操作の様子および表示部におけるポインタの表示を示す図である。It is a figure which shows the state of the gesture operation following FIG. 4A, and the display of a pointer in a display part. タッチ操作およびジェスチャ操作におけるポインタの表示例を示す図である。It is a figure which shows the display example of a pointer in a touch operation and a gesture operation. タッチ操作およびジェスチャ操作において選択されたコンテンツの表示例を示す図である。It is a figure which shows the display example of the content selected in touch operation and gesture operation. タッチ操作からジェスチャ操作への切り替えにおける座標系の切り替えの一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the switching of the coordinate system in the switching from a touch operation to a gesture operation. 図7に示す座標系の切り替え時におけるポインタ表示の変化の一例を示す図である。It is a figure which shows an example of the change of the pointer display at the time of switching of the coordinate system shown in FIG. 7. 図7に示す座標系の切り替え時におけるポインタ表示の変化の他の一例を示す図である。It is a figure which shows another example of the change of the pointer display at the time of switching of the coordinate system shown in FIG. 7. タッチ操作からジェスチャ操作への切り替えにおける座標系の切り替えの他の一例を説明するための説明図である。It is explanatory drawing for demonstrating another example of the switching of the coordinate system in the switching from a touch operation to a gesture operation. 第1領域に表示されているアイコンを第2領域に移動する操作の例を示す図である。It is a figure which shows the example of the operation which moves the icon displayed in the 1st area to the 2nd area. 図11の操作に対応する処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of the processing operation corresponding to the operation of FIG. 図12の処理動作の変形例であって、その変形した部分に係る一部を示すフローチャートである。It is a modification of the processing operation of FIG. 12, and is the flowchart which shows a part which concerns on the modified part. 図12の処理動作の他の変形例であって、その変形した部分に係る一部を示すフローチャートである。It is another modification of the processing operation of FIG. 12, and is the flowchart which shows the part which concerns on the modified part. 図12の処理動作の他の変形例であって、その変形した部分に係る一部を示すフローチャートである。It is another modification of the processing operation of FIG. 12, and is the flowchart which shows the part which concerns on the modified part.

以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付して説明を行う。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each of the following embodiments, parts that are the same or equal to each other will be described with the same reference numerals.

(実施形態)
実施形態に係る入力装置について説明する。本明細書では、例えば、図1に示すように自動車などの車両に搭載される車載装置1として適用された場合を代表例として説明するが、この用途に限定されるものではない。
(Embodiment)
The input device according to the embodiment will be described. In the present specification, for example, a case where it is applied as an in-vehicle device 1 mounted on a vehicle such as an automobile as shown in FIG. 1 will be described as a typical example, but the present specification is not limited to this application.

車載装置1は、例えば図1に示すように、表示部10と、タッチパネル11と、ジェスチャ認識部12と、記憶部13と、音声認識部14と、音声合成部15と、通信部16と、制御部17とを有してなる。車載装置1は、例えば図2に示すように、車両VのサイドウィンドウV1に表示部10が搭載されたサイドウィンドウディスプレイとされ得る。この車載装置1は、乗員、すなわち操作者が表示部10に対してタッチ操作およびジェスチャ操作が可能な構成となっている。 As shown in FIG. 1, for example, the in-vehicle device 1 includes a display unit 10, a touch panel 11, a gesture recognition unit 12, a storage unit 13, a voice recognition unit 14, a voice synthesis unit 15, and a communication unit 16. It has a control unit 17. As shown in FIG. 2, for example, the in-vehicle device 1 may be a side window display in which the display unit 10 is mounted on the side window V1 of the vehicle V. The in-vehicle device 1 is configured so that the occupant, that is, the operator can perform a touch operation and a gesture operation on the display unit 10.

なお、図2は、紙面左右方向を車両Vの進行可能な方向に沿った「車両全長方向」とし、紙面上において車両全長方向に直交する方向を「車幅方向」として、これらのなす平面に対する法線方向から車室内を見たときの平面図に相当する。図2では、車両全長方向において、座席V2、V3に着座した乗員が向き合う状態とされると共に、座席V2、V3に隣接するサイドウィンドウV1に表示部10が搭載された状態を示している。そして、図2に示す例では、座席V2またはV3に着座した乗員が、着座した状態のままサイドウィンドウディスプレイとされた車載装置1の入力操作が可能な状況となっている。 In FIG. 2, the left-right direction of the paper surface is defined as the "vehicle length direction" along the direction in which the vehicle V can travel, and the direction orthogonal to the vehicle length direction on the paper surface is defined as the "vehicle width direction" with respect to the planes formed by these. It corresponds to the plan view when the passenger compartment is viewed from the normal direction. FIG. 2 shows a state in which the occupants seated in the seats V2 and V3 face each other in the overall length direction of the vehicle, and the display unit 10 is mounted on the side window V1 adjacent to the seats V2 and V3. Then, in the example shown in FIG. 2, the occupant seated in the seat V2 or V3 can perform the input operation of the in-vehicle device 1 as the side window display while being seated.

表示部10は、各種の映像等を表示する任意のディスプレイである。表示部10は、図2に示すようにサイドウィンドウディスプレイとされる場合には、透明ディスプレイ、例えば有機EL(エレクトロルミネッセンスの略)ディスプレイとされる。表示部10は、サイドウィンドウディスプレイへの適用に限られないが、映像等が表示される表示面が、少なくとも操作者が移動しないとその全域を触れることができない程度の所定以上の面積とされている。 The display unit 10 is an arbitrary display for displaying various images and the like. When the display unit 10 is a side window display as shown in FIG. 2, it is a transparent display, for example, an organic EL (abbreviation of electroluminescence) display. The display unit 10 is not limited to application to a side window display, but the display surface on which an image or the like is displayed has an area equal to or larger than a predetermined area so that at least the entire area cannot be touched unless the operator moves. There is.

タッチパネル11は、表示部10のうち表示面に対して重畳配置された透明体であり、操作者によるタッチ操作に用いられる。タッチパネル11は、表示部10に表示される映像等を透過させると共に、タッチパネル11のうち表示部10とは反対側の一面における操作者の接触箇所に応じた信号を出力する。タッチパネル11は、例えば、静電容量式とされ、複数の第1電極と複数の第2電極とが格子状に配列されると共に、任意の絶縁性材料により覆われてなる。この場合、タッチパネル11は、一面に指等の操作体が置かれたときに、一面における当該操作体の位置に応じて静電容量が変化する構成とされ、当該静電容量の信号を出力する構成とされる。タッチパネル11が出力する操作体の位置に応じた信号は、例えば、後述する制御部17に出力され、表示部10に表示された操作アイコン等に割り当てられた所定の車載機器等への入力操作に用いられる。 The touch panel 11 is a transparent body that is superposed on the display surface of the display unit 10 and is used for a touch operation by the operator. The touch panel 11 transmits the image or the like displayed on the display unit 10 and outputs a signal corresponding to the contact point of the operator on one side of the touch panel 11 opposite to the display unit 10. The touch panel 11 is, for example, a capacitance type, in which a plurality of first electrodes and a plurality of second electrodes are arranged in a grid pattern and covered with an arbitrary insulating material. In this case, the touch panel 11 is configured such that when an operating body such as a finger is placed on one surface, the capacitance changes according to the position of the operating body on one surface, and outputs a signal of the capacitance. It is composed. The signal output by the touch panel 11 according to the position of the operating body is output to, for example, the control unit 17 described later, and is used for input operations to a predetermined in-vehicle device or the like assigned to the operation icon or the like displayed on the display unit 10. Used.

なお、タッチパネル11は、一面に指等の操作体が置かれたときに、その位置に応じた信号を出力する構成であればよく、静電容量式に限定されず、感圧式などの他の任意の方式とされてもよい。 The touch panel 11 may be configured to output a signal according to the position when an operating body such as a finger is placed on one surface, and is not limited to the capacitance type, but is not limited to the capacitance type, and is not limited to the capacitance type. It may be any method.

表示部10およびタッチパネル11は、操作者との相対位置の変化が所定以下に制限された状況において、当該操作者が、手が届くことによりタッチ操作が可能な領域と、手が届かないことでタッチ操作ができない領域とを有する所定以上の大きさとされる。 In a situation where the change in the relative position with the operator is limited to a predetermined value or less, the display unit 10 and the touch panel 11 have an area where the operator can reach and touch the touch panel, and the touch panel 11 is out of reach. The size is larger than a predetermined size and has an area where touch operation is not possible.

以下、説明の便宜上、図3に示すように、上記した状況において、タッチパネル11のうち操作者の手が届き、タッチ操作が可能な領域、すなわち接触可能な領域を「第1領域111」と称することがある。また、同状況において、タッチパネル11のうち操作者の手が届かないためにタッチ操作ができない領域を「第2領域112」と称することがある。 Hereinafter, for convenience of explanation, as shown in FIG. 3, in the above situation, the area of the touch panel 11 that the operator can reach and can touch, that is, the area that can be touched is referred to as “first area 111”. Sometimes. Further, in the same situation, the area of the touch panel 11 where the touch operation cannot be performed because the operator cannot reach it may be referred to as "second area 112".

なお、図3では、第1領域111と第2領域112との境界を便宜的に破線で示しているが、これらの区画について便宜的なものであり、明確な境界が存在するわけではない。また、第2領域112は、指などの操作体が接触した場合には、その接触された位置に応じた信号を出力する構成となっており、操作者が移動したり、体勢を変えたりした場合にはタッチ操作も可能な領域である。つまり、タッチパネル11における第1領域111および第2領域112は、タッチパネル11のサイズ、操作者の位置、姿勢や体格等の諸条件によりその面積や位置等が変化する。 In FIG. 3, the boundary between the first region 111 and the second region 112 is shown by a broken line for convenience, but these sections are for convenience and there is no clear boundary. Further, the second region 112 is configured to output a signal according to the contacted position when the operating body such as a finger comes into contact with the operating body, and the operator moves or changes his / her posture. In some cases, it is an area where touch operation is also possible. That is, the area and position of the first area 111 and the second area 112 of the touch panel 11 change depending on various conditions such as the size of the touch panel 11, the position of the operator, the posture and the physique.

ジェスチャ認識部12は、撮像部21から取得した画像データに基づいて、操作者の手や指等を用いたジェスチャを三次元的に認識する。ジェスチャ認識部12は、例えば、所定の一方向への指のスライドや回転といった各種のジェスチャを認識すると共に、各種のジェスチャに応じた信号を制御部17へ出力する。このジェスチャに応じた信号は、例えば、操作者の手が届ない第2領域112における非接触のジェスチャ操作に用いられるが、第1領域111におけるジェスチャ操作にも用いられ得る。 The gesture recognition unit 12 three-dimensionally recognizes a gesture using the operator's hand, finger, or the like based on the image data acquired from the image pickup unit 21. The gesture recognition unit 12 recognizes various gestures such as sliding and rotation of a finger in a predetermined direction, and outputs signals corresponding to the various gestures to the control unit 17. The signal corresponding to this gesture is used, for example, for a non-contact gesture operation in the second region 112, which is out of the reach of the operator, but can also be used for the gesture operation in the first region 111.

撮像部21は、操作者がジェスチャ操作を行う際の当該操作者の手や指などの身体形状であって、ジェスチャに用いる部分を撮像するカメラである。撮像部21は、例えば、可視光カメラ、近赤外カメラ、赤外線カメラ等の任意のカメラとされる。撮像部21は、例えば図1に示すように、車載装置1とは別体とされると共に、図示しない配線等により車載装置1に電気的に接続される。撮像部21で取得した画像データは、ジェスチャ認識部12に伝送され、操作者のジェスチャの特定に用いられる。 The imaging unit 21 is a camera that captures a portion of the body shape of the operator's hand, finger, or the like when the operator performs a gesture operation, which is used for the gesture. The image pickup unit 21 may be any camera such as a visible light camera, a near infrared camera, or an infrared camera. As shown in FIG. 1, for example, the image pickup unit 21 is separated from the vehicle-mounted device 1 and is electrically connected to the vehicle-mounted device 1 by wiring or the like (not shown). The image data acquired by the imaging unit 21 is transmitted to the gesture recognition unit 12 and used to identify the gesture of the operator.

なお、撮像部21は、操作者の指等を撮像できる位置に設置されていればよく、例えば図2に示すように、車両Vの車室内における天井等の任意の箇所に設置される。 The imaging unit 21 may be installed at a position where the operator's finger or the like can be imaged. For example, as shown in FIG. 2, the imaging unit 21 is installed at an arbitrary location such as the ceiling in the vehicle interior of the vehicle V.

記憶部13には、例えば、表示部10に表示される操作アイコン等に係る情報、車載装置1の動作制御や車載機器等の機能を実行するための各種プログラムが格納されている。記憶部13は、例えば、不図示のROM、RAMや不揮発性RAM等により構成される記憶媒体である。 The storage unit 13 stores, for example, information related to operation icons and the like displayed on the display unit 10, and various programs for executing functions such as operation control of the in-vehicle device 1 and in-vehicle devices. The storage unit 13 is, for example, a storage medium composed of a ROM (not shown), a RAM, a non-volatile RAM, or the like.

音声認識部14は、例えば、車両Vに搭載されるマイク22から取得した音声データに基づき、操作者による発話等を認識する。音声認識部14は、例えば、車載装置1とは別体のマイク22からの音声データに応じた信号を制御部17に出力する。音声認識部14から出力された信号は、音声入力等に用いられる。 The voice recognition unit 14 recognizes an utterance or the like by the operator based on the voice data acquired from the microphone 22 mounted on the vehicle V, for example. For example, the voice recognition unit 14 outputs a signal corresponding to the voice data from the microphone 22, which is separate from the in-vehicle device 1, to the control unit 17. The signal output from the voice recognition unit 14 is used for voice input and the like.

マイク22は、操作者による発話等の音声が入力される任意の音声装置である。マイク22は、操作者による音声が入力される位置に配置されていればよく、車両Vの車室内における任意の位置に設置される。 The microphone 22 is an arbitrary voice device into which voice such as an utterance by an operator is input. The microphone 22 may be arranged at a position where the voice of the operator is input, and is installed at an arbitrary position in the vehicle interior of the vehicle V.

音声合成部15は、例えば、車載装置1とは別体のスピーカ23を介して音声によるメッセージ等を通知する際の音声を合成する。音声合成部15は、例えば、制御部17から操作者へのメッセージ等に関するテキストデータが伝送され、当該テキストデータに応じた音声信号をスピーカ23に出力する。 For example, the voice synthesis unit 15 synthesizes voice when notifying a voice message or the like via a speaker 23 separate from the vehicle-mounted device 1. For example, the voice synthesis unit 15 transmits text data related to a message or the like from the control unit 17 to the operator, and outputs a voice signal corresponding to the text data to the speaker 23.

スピーカ23は、例えば、音声合成部15から出力された音声信号に基づき、音声を出力する。スピーカ23は、操作者等がスピーカ23から出力される音声を聞き取ることができる箇所に搭載されていればよく、車両Vの任意の位置に設置される。 The speaker 23 outputs voice based on the voice signal output from the voice synthesis unit 15, for example. The speaker 23 may be mounted at a position where the operator or the like can hear the sound output from the speaker 23, and is installed at an arbitrary position of the vehicle V.

通信部16は、車両Vに搭載される任意の車載機器と不図示のネットワーク配線等を介して接続されており、制御部17と車載機器との通信に用いられる。 The communication unit 16 is connected to an arbitrary in-vehicle device mounted on the vehicle V via a network wiring (not shown) or the like, and is used for communication between the control unit 17 and the in-vehicle device.

なお、車載機器としては、例えば図1に示すように、通信機器24、ナビゲーション装置25、オーディオ装置26、カーエアコン27や車両ECU(Electronic Control Unitの略)28等が挙げられるが、これらに限定されない。通信機器24は、例えばインターネットなどの外部ネットワークとの通信用であってもよいし、車両V内にある車載機器とは異なる他の電子機器との通信用であってもよい。 Examples of the in-vehicle device include, but are limited to, a communication device 24, a navigation device 25, an audio device 26, a car air conditioner 27, a vehicle ECU (abbreviation of Electronic Control Unit) 28, and the like, as shown in FIG. Not done. The communication device 24 may be used for communication with an external network such as the Internet, or may be used for communication with another electronic device different from the in-vehicle device in the vehicle V.

制御部17は、例えば、回路配線を備える不図示の基板上にCPU等が搭載されてなる電子制御ユニットであり、記憶部13に格納された各種プログラムを読み込んで実行する。制御部17は、タッチパネル11からの出力信号に基づいて、タッチパネル11のうち操作者の指が接触もしくは近接した位置を算出する。制御部17は、ジェスチャ認識部12からの出力信号に基づいて、タッチパネル11のうち操作者のジェスチャ操作に対応する位置を算出する。制御部17は、音声認識部14からの出力信号に基づいて、操作者の発話を特定し、必要に応じて音声合成部15や車載機器への信号を出力する。制御部17は、各種の映像等を表示部10に表示させる制御を行うと共に、表示部10に表示された操作アイコンに割り当てられたコンテンツを実行させるため、通信部16を介して車載機器への出力を行う。また、制御部17は、例えば、操作アイコン等に関連付けられた機能やジェスチャ認識部12が認識したジェスチャに対応する機能を実行する。 The control unit 17 is, for example, an electronic control unit in which a CPU or the like is mounted on a board (not shown) provided with circuit wiring, and reads and executes various programs stored in the storage unit 13. The control unit 17 calculates the position of the touch panel 11 where the operator's finger touches or is close to the touch panel 11 based on the output signal from the touch panel 11. The control unit 17 calculates a position of the touch panel 11 corresponding to the gesture operation of the operator based on the output signal from the gesture recognition unit 12. The control unit 17 identifies the utterance of the operator based on the output signal from the voice recognition unit 14, and outputs a signal to the voice synthesis unit 15 and the in-vehicle device as needed. The control unit 17 controls the display unit 10 to display various images and the like, and transmits the content assigned to the operation icon displayed on the display unit 10 to the in-vehicle device via the communication unit 16. Output. Further, the control unit 17 executes, for example, a function associated with an operation icon or the like or a function corresponding to a gesture recognized by the gesture recognition unit 12.

つまり、制御部17は、タッチパネル11からの出力信号に基づくタッチ操作による入力制御、およびジェスチャ認識部12からの出力信号に基づくジェスチャ操作による入力制御を行う。そして、制御部17は、タッチ操作およびジェスチャ操作のいずれか一方による入力制御を行うように、その切り替えを実行する構成とされている。 That is, the control unit 17 performs input control by touch operation based on the output signal from the touch panel 11 and input control by gesture operation based on the gesture recognition unit 12. Then, the control unit 17 is configured to execute the switching so as to perform the input control by either the touch operation or the gesture operation.

以上が、入力装置が適用される車載装置1の基本的な構成である。この車載装置1は、例えば、タッチパネル11が信号を制御部17に出力している場合には、タッチ操作が行われ、タッチパネル11が信号を制御部17に出力していない場合には、ジェスチャ操作が行われ得る構成とされている。 The above is the basic configuration of the in-vehicle device 1 to which the input device is applied. In the in-vehicle device 1, for example, when the touch panel 11 outputs a signal to the control unit 17, a touch operation is performed, and when the touch panel 11 does not output a signal to the control unit 17, a gesture operation is performed. Is configured to be possible.

(操作系の切り替え)
次に、車載装置1におけるタッチ操作とジェスチャ操作との切り替えについて、図4A、図4Bに示す操作を代表例として説明する。
(Switching of operation system)
Next, the operation shown in FIGS. 4A and 4B will be described as a representative example of the switching between the touch operation and the gesture operation in the in-vehicle device 1.

図4A、図4Bでは、断面を示すものではないが、見易くするため、操作者の操作位置に対応する位置を示すものとして表示部10に表示されるポインタPにハッチングを施している。また、図4A、図4Bでは、タッチパネル11のうち操作者による接触操作が可能な面を操作面11aとして、操作面11aのタッチ操作またはジェスチャ操作を行う操作者の頭上から見た、いわば「平面視」したときの状況を示している。さらに、図4A、図4Bでは、操作面11aに対する法線方向、すなわち操作面法線方向から表示部10およびタッチパネル11を見た、いわば「側面視」した状況を示している。図4Bでは、分かり易くするため、タッチパネル11から所定以上離れた操作者の手を破線で示している。 Although the cross section is not shown in FIGS. 4A and 4B, the pointer P displayed on the display unit 10 is hatched to indicate the position corresponding to the operation position of the operator for easy viewing. Further, in FIGS. 4A and 4B, the surface of the touch panel 11 that can be contacted by the operator is defined as the operation surface 11a, and is viewed from above the operator who performs the touch operation or the gesture operation of the operation surface 11a, so to speak, a “plane”. It shows the situation when "visualizing". Further, FIGS. 4A and 4B show a so-called "side view" situation in which the display unit 10 and the touch panel 11 are viewed from the normal direction with respect to the operation surface 11a, that is, the operation surface normal direction. In FIG. 4B, for the sake of clarity, the hand of the operator who is separated from the touch panel 11 by a predetermined value or more is shown by a broken line.

操作者が図4Aに示すようにタッチパネル11の操作面11aのうち第1領域111の任意の位置に一本の指を置き、その後、図4Bに続くように第2領域112にポインタPをジェスチャ操作で移動させる操作を行った場合について説明する。 As shown in FIG. 4A, the operator places one finger on the operation surface 11a of the touch panel 11 at an arbitrary position in the first area 111, and then gestures the pointer P to the second area 112 so as to follow FIG. 4B. The case where the operation of moving by the operation is performed will be described.

図4Aに示すように、操作者が第1領域111の任意の場所に指を置いた場合、制御部17は、表示部10のうち操作者が指を置いた場所に相当する箇所にポインタPを表示させる制御を行う。操作者がタッチパネル11の操作面11aに触れたまま、第2領域112に向かって指をスライドさせると、制御部17の制御により、この指の位置に連動してポインタPが移動する。 As shown in FIG. 4A, when the operator puts a finger on an arbitrary place in the first area 111, the control unit 17 puts the pointer P on the place corresponding to the place where the operator puts the finger on the display unit 10. Is controlled to be displayed. When the operator slides a finger toward the second region 112 while touching the operation surface 11a of the touch panel 11, the pointer P moves in conjunction with the position of the finger under the control of the control unit 17.

ポインタPを表示部10のうち第1領域111に相当する位置から第2領域112に相当する位置に移動させる場合、図4Bに示すように、操作者は、タッチパネル11から指を離して、引き続き、非接触のジェスチャ操作を行うことになる。制御部17は、例えば、操作者がタッチパネル11から指を離したタイミングでタッチ操作からジェスチャ操作への切り替えを実行する。 When the pointer P is moved from the position corresponding to the first area 111 to the position corresponding to the second area 112 in the display unit 10, the operator releases the finger from the touch panel 11 and continues, as shown in FIG. 4B. , Non-contact gesture operation will be performed. The control unit 17 executes switching from the touch operation to the gesture operation at the timing when the operator releases the finger from the touch panel 11, for example.

なお、ジェスチャ操作時においては、撮像部21は、操作者の動きを撮影し、指の動きや形状を画像データとして生成し、ジェスチャ認識部12にデータを出力する。その後、ジェスチャ認識部12は、指の動きや向きに対応する信号を制御部17に出力する。そして、制御部17は、例えば、ジェスチャ認識部12により認識された指のなす直線と表示部10との交点にポインタPを表示させる制御を行う。また、撮像部21による撮像およびジェスチャ認識部12への信号出力、並びにジェスチャ認識部12から制御部17への信号出力については、ジェスチャ操作時だけでなく、タッチ操作時においても行われてもよい。 At the time of gesture operation, the imaging unit 21 photographs the movement of the operator, generates the movement and shape of the finger as image data, and outputs the data to the gesture recognition unit 12. After that, the gesture recognition unit 12 outputs a signal corresponding to the movement or direction of the finger to the control unit 17. Then, the control unit 17 controls, for example, to display the pointer P at the intersection of the straight line formed by the finger recognized by the gesture recognition unit 12 and the display unit 10. Further, the imaging by the imaging unit 21, the signal output to the gesture recognition unit 12, and the signal output from the gesture recognition unit 12 to the control unit 17 may be performed not only during the gesture operation but also during the touch operation. ..

タッチ操作とジェスチャ操作との切り替えについては、例えば、「タッチパネル11からの信号出力の有無」、「タッチパネル11からの出力信号の強度」や「タッチ座標とジェスチャ座標との差」などに基づいて行われる。以下、タッチ操作とジェスチャ操作との切り替えを単に「操作系の切り替え」と称する。 Switching between touch operation and gesture operation is performed based on, for example, "presence or absence of signal output from touch panel 11", "strength of output signal from touch panel 11", "difference between touch coordinates and gesture coordinates", and the like. It is said. Hereinafter, switching between touch operation and gesture operation is simply referred to as "switching of operation system".

具体的には、例えば、タッチパネル11が感圧式などの指等の操作体が接触した場合にのみ信号を出力する構成である場合には、制御部17は、タッチパネル11からの信号の出力、すなわちタッチ座標の出力がある場合にはタッチ操作に基づく制御を行う。この場合において、タッチパネル11からの信号出力、すなわちタッチ座標の出力がないときには、制御部17は、ジェスチャ操作に基づく制御へと切り替える。 Specifically, for example, when the touch panel 11 is configured to output a signal only when an operating body such as a finger is in contact with the touch panel 11, the control unit 17 outputs a signal from the touch panel 11, that is, If there is an output of touch coordinates, control is performed based on the touch operation. In this case, when there is no signal output from the touch panel 11, that is, no output of touch coordinates, the control unit 17 switches to control based on the gesture operation.

なお、ここでいう「タッチ座標」とは、タッチパネル11からの信号に関連付けられ、タッチ操作時に用いられる座標系である。「ジェスチャ座標」とは、ジェスチャ認識部12からの信号に関連付けられ、主にジェスチャ操作時に用いられる座標系である。ジェスチャ座標は、タッチ座標におけるタッチ位置にも関連付けられると共に、タッチ操作からジェスチャ操作への切り替え時にスムーズに座標系の切り替えができるように、タッチ操作中にも内部処理がされている。 The "touch coordinates" referred to here are coordinate systems that are associated with the signal from the touch panel 11 and are used during the touch operation. The "gesture coordinates" is a coordinate system associated with the signal from the gesture recognition unit 12 and mainly used during the gesture operation. Gesture coordinates are also associated with the touch position in the touch coordinates, and internal processing is performed during the touch operation so that the coordinate system can be smoothly switched when switching from the touch operation to the gesture operation.

操作系の切り替えは、タッチパネル11からの出力信号の有無に代わって、タッチパネル11からの出力信号の強度に応じて行われてもよい。具体的には、タッチパネル11が静電センサ等のように操作者の指等の操作体が操作面11aと所定の距離内に近づいた場合に感度が高くなる、すなわち出力信号が大きくなる構成である場合には、操作系の切り替えは、この出力信号の強度により行われてもよい。より具体的には、操作者の指が操作面11aに触れているか、または所定の距離以内にある場合、タッチパネル11からの出力信号が所定以上の強度となるため、制御部17は、出力信号が当該閾値以上であれば、タッチ操作に基づく制御を行う。一方、タッチパネル11からの出力信号が当該閾値未満であるときには、制御部17は、タッチ操作からジェスチャ操作へ切り替える。 The switching of the operation system may be performed according to the strength of the output signal from the touch panel 11 instead of the presence or absence of the output signal from the touch panel 11. Specifically, the touch panel 11 has a configuration in which the sensitivity increases when the operating body such as the operator's finger approaches the operation surface 11a within a predetermined distance like an electrostatic sensor, that is, the output signal increases. In some cases, the switching of the operation system may be performed by the strength of this output signal. More specifically, when the operator's finger touches the operation surface 11a or is within a predetermined distance, the output signal from the touch panel 11 has a strength equal to or higher than a predetermined value, so that the control unit 17 controls the output signal. If is equal to or greater than the threshold value, control based on the touch operation is performed. On the other hand, when the output signal from the touch panel 11 is less than the threshold value, the control unit 17 switches from the touch operation to the gesture operation.

操作者の違和感を低減し、より滑らかにするためには、操作系の切り替えは、例えば、タッチ座標とジェスチャ座標との差に基づいて行われてもよい。 In order to reduce the discomfort of the operator and make it smoother, the switching of the operation system may be performed based on, for example, the difference between the touch coordinates and the gesture coordinates.

具体的には、例えば、ポインタPを所定の距離だけタッチ操作により移動させた場合について検討する。 Specifically, for example, a case where the pointer P is moved by a touch operation by a predetermined distance will be examined.

タッチ座標における操作位置は、操作者がタッチパネル11に接触した際にタッチパネル11から出力される信号に基づいて算出される。そのため、タッチ座標におけるポインタPの移動量は、実際の操作者の指の移動量との差がほとんどない。 The operation position in the touch coordinates is calculated based on the signal output from the touch panel 11 when the operator touches the touch panel 11. Therefore, the movement amount of the pointer P in the touch coordinates has almost no difference from the movement amount of the finger of the actual operator.

一方、ジェスチャ座標における操作位置は、ジェスチャ認識部12からの出力信号に基づいて算出される。例えば、操作者の指のなす直線と表示部10との交点がジェスチャ座標における操作位置として算出され、その操作位置の座標の変化量がジェスチャ座標における移動量となる。つまり、ジェスチャ座標における移動量は、操作者の指との物理的な接触によらずに算出される仮想的な数値であり、タッチ座標における移動量に比べて、実際の操作者の指の移動量との差が大きい。そして、タッチ座標における移動量とジェスチャ座標における移動量との差は、操作者によるポインタPの移動量が大きいほど大きくなる。 On the other hand, the operation position in the gesture coordinates is calculated based on the output signal from the gesture recognition unit 12. For example, the intersection of the straight line formed by the operator's finger and the display unit 10 is calculated as the operation position in the gesture coordinates, and the amount of change in the coordinates of the operation position is the amount of movement in the gesture coordinates. That is, the movement amount in the gesture coordinates is a virtual numerical value calculated without physical contact with the operator's finger, and the movement amount of the actual operator's finger is compared with the movement amount in the touch coordinates. There is a large difference from the amount. The difference between the amount of movement in the touch coordinates and the amount of movement in the gesture coordinates increases as the amount of movement of the pointer P by the operator increases.

したがって、表示部10と操作者との相対位置の変化量が所定以下に制限されている状況においては、第1領域111内におけるポインタPの移動操作では、操作者の指の移動量が小さく、各座標における移動量の差は小さい。一方、同じ状況において、第2領域112にポインタPを移動させる場合、操作者の指の移動量が大きくなり、各座標における移動量の差は大きくなる。 Therefore, in a situation where the amount of change in the relative position between the display unit 10 and the operator is limited to a predetermined value or less, the movement amount of the operator's finger is small in the movement operation of the pointer P in the first area 111. The difference in the amount of movement at each coordinate is small. On the other hand, in the same situation, when the pointer P is moved to the second region 112, the amount of movement of the operator's finger becomes large, and the difference in the amount of movement at each coordinate becomes large.

そこで、タッチ座標における移動量とジェスチャ座標における移動量との差に閾値を設け、制御部17は、これらの移動量の差が所定の閾値以上の場合には、タッチ操作のままとし、タッチ操作に基づく入力制御を行ってもよい。逆に、これらの移動量の差が所定の閾値未満の場合には、制御部17は、タッチ操作からジェスチャ操作に切り替え、タッチ操作に基づく入力制御を行ってもよい。このような操作系の切り替えとすることにより、タッチ操作からジェスチャ操作への切り替え時に、座標差によるポインタPの位置ズレ(後述)を所定以下に抑えることができ、操作系のスムーズな切り替えを実行できる。つまり、両座標における移動量が所定の閾値以上の状態でタッチ操作からジェスチャ操作に切り替わると、ポインタPの表示位置が大きくずれてしまい違和感を覚えるため、上記の操作系の切り替え条件とすることでこのような事態を防止できる。 Therefore, a threshold value is set for the difference between the movement amount in the touch coordinates and the movement amount in the gesture coordinates, and when the difference between these movement amounts is equal to or more than a predetermined threshold value, the touch operation is left as it is and the touch operation is performed. Input control based on may be performed. On the contrary, when the difference between these movement amounts is less than a predetermined threshold value, the control unit 17 may switch from the touch operation to the gesture operation and perform input control based on the touch operation. By switching the operation system in this way, when switching from the touch operation to the gesture operation, the position shift of the pointer P (described later) due to the coordinate difference can be suppressed to a predetermined value or less, and the operation system can be smoothly switched. it can. That is, if the touch operation is switched to the gesture operation when the movement amount at both coordinates is equal to or more than a predetermined threshold value, the display position of the pointer P is greatly deviated and a sense of incongruity is felt. Therefore, by setting the above operation system switching condition Such a situation can be prevented.

なお、操作系の切り替えに用いられる出力信号の強度や両座標の差における閾値は、例えば記憶部13に格納され、必要に応じて制御部17により読み込まれる。また、操作系の切り替えにおいては、タッチパネル11からの出力信号の強度と、両座標における移動量の差とを組み合わせてもよい。例えば、タッチパネル11からの出力信号の強度が閾値以上、かつ両座標における移動量が所定の値以上の場合には、制御部17は、タッチ操作を有効とし、タッチ操作に基づく入力制御を実行してもよい。また、タッチパネル11からの出力信号の強度が閾値未満、かつ両座標における移動量が所定の値未満の場合には、制御部17は、ジェスチャ操作を有効とし、ジェスチャ操作に基づく入力制御を実行してもよい。 The strength of the output signal used for switching the operation system and the threshold value in the difference between the two coordinates are stored in, for example, the storage unit 13, and are read by the control unit 17 as needed. Further, when switching the operation system, the strength of the output signal from the touch panel 11 and the difference in the amount of movement at both coordinates may be combined. For example, when the strength of the output signal from the touch panel 11 is equal to or greater than the threshold value and the amount of movement at both coordinates is equal to or greater than a predetermined value, the control unit 17 enables the touch operation and executes input control based on the touch operation. You may. When the strength of the output signal from the touch panel 11 is less than the threshold value and the movement amount at both coordinates is less than a predetermined value, the control unit 17 enables the gesture operation and executes the input control based on the gesture operation. You may.

また、タッチ操作かジェスチャ操作かを操作者が視覚的に把握し易くするため、図5に示すように、ポインタPの意匠をタッチ操作とジェスチャ操作とで異なるものとしてもよい。また、同様の目的で、図6に示すように、表示部10に表示されているアイコンのうち操作者が選択している選択アイコンを強調表示する場合、その意匠をタッチ操作とジェスチャ操作とで異なるものとしてもよい。意匠の変更の様式としては、ポインタPについては色、形状や大きさを変えたり、選択アイコンについては枠の色、太さや模様を変えたりすることが挙げられるが、視覚的に差異が認識できればよく、これらに限定されない。 Further, in order to make it easier for the operator to visually grasp whether the touch operation or the gesture operation, the design of the pointer P may be different between the touch operation and the gesture operation as shown in FIG. Further, for the same purpose, as shown in FIG. 6, when highlighting the selection icon selected by the operator among the icons displayed on the display unit 10, the design can be touched and gestured. It may be different. As a style of changing the design, the color, shape and size of the pointer P can be changed, and the frame color, thickness and pattern of the selection icon can be changed, but if the difference can be visually recognized. Well, but not limited to these.

なお、上記したポインタPの意匠の変更については、タッチ操作からジェスチャ操作に切り替える場合だけでなく、その逆の場合に適用してもよい。つまり、制御部17は、タッチ操作およびジェスチャ操作のいずれか一方から他方へ切り替える際に、座標ズレによる違和感を低減する制御を実行してもよい。 The above-mentioned change in the design of the pointer P may be applied not only when switching from the touch operation to the gesture operation but also when vice versa. That is, when switching from either the touch operation or the gesture operation to the other, the control unit 17 may execute a control for reducing a sense of discomfort due to coordinate deviation.

(座標系の切り替え)
次に、操作系の切り替え時におけるタッチ座標とジェスチャ座標との切り替えについて、図7〜図10を参照して説明する。
(Switching the coordinate system)
Next, switching between the touch coordinates and the gesture coordinates at the time of switching the operation system will be described with reference to FIGS. 7 to 10.

図7、図10では、紙面左右方向をx方向とし、紙面上においてx方向に直交する方向をy方向として示すと共に、x方向におけるタッチ座標Txと同方向におけるジェスチャ座標Gxとを矢印で示している。また、図7、図10では、分かり易くするため、タッチ操作中の操作者の手を実線で示している。図7〜図10では、ジェスチャ操作中の操作者の手を破線で示している。 In FIGS. 7 and 10, the left-right direction of the paper surface is the x direction, the direction orthogonal to the x direction on the paper surface is the y direction, and the touch coordinate Tx in the x direction and the gesture coordinate Gx in the same direction are indicated by arrows. There is. Further, in FIGS. 7 and 10, for the sake of clarity, the operator's hand during the touch operation is shown by a solid line. In FIGS. 7 to 10, the operator's hand during the gesture operation is shown by a broken line.

以下の説明においては、説明の便宜上、操作系の切り替えに伴ってなされる、ポインタP等の現操作位置の表示に使用される座標の切り替えを単に「座標系の切り替え」と称する。また、座標系の切り替えを分かり易くするため、ここでは、ポインタPのy方向における座標を変化させず、x方向における座標を変化させるように、ポインタPを移動させる操作を行う場合を代表例として説明する。 In the following description, for convenience of explanation, the switching of the coordinates used for displaying the current operating position of the pointer P or the like, which is performed when the operating system is switched, is simply referred to as “coordinate system switching”. Further, in order to make the switching of the coordinate system easy to understand, here, as a typical example, the operation of moving the pointer P so as to change the coordinates in the x direction without changing the coordinates of the pointer P in the y direction is performed. explain.

制御部17は、例えば図7に示すように、タッチ操作からジェスチャ操作へ切り替えを行う際に、ポインタP等を表示させる現操作位置を算出するために用いる座標をタッチ座標からジェスチャ座標に切り替える制御を行う。 As shown in FIG. 7, for example, the control unit 17 controls to switch the coordinates used for calculating the current operation position for displaying the pointer P or the like from the touch coordinates to the gesture coordinates when switching from the touch operation to the gesture operation. I do.

例えば、操作系の切り替えの直前におけるポインタPのタッチ座標をtx1として、制御部17は、図7に示すように、タッチ操作時においては、ポインタPをタッチ座標でのtx1に対応する位置に表示させる制御を行う。一方、ジェスチャ座標においてtx1に対応する位置をgx1として、制御部17は、ジェスチャ操作時においては、ポインタPをジェスチャ座標でのgx1に対応する位置に表示させる制御を行う。 For example, assuming that the touch coordinate of the pointer P immediately before the switching of the operation system is tx1, the control unit 17 displays the pointer P at the position corresponding to tx1 in the touch coordinate during the touch operation as shown in FIG. Control to make it. On the other hand, the position corresponding to tx1 in the gesture coordinates is set to gx1, and the control unit 17 controls to display the pointer P at the position corresponding to gx1 in the gesture coordinates at the time of the gesture operation.

このとき、図7に示すように、タッチ座標のtx1とジェスチャ座標gx1との間に所定以上のズレがある場合には、座標系の切り替えに伴って、ポインタPの表示位置が瞬間的に大きくずれてしまい、操作者に違和感を覚えさせ得る。 At this time, as shown in FIG. 7, if there is a deviation of a predetermined value or more between the touch coordinate tx1 and the gesture coordinate gx1, the display position of the pointer P is momentarily increased as the coordinate system is switched. It may shift and make the operator feel uncomfortable.

このようにタッチ座標とジェスチャ座標とを単純に切り替える場合において、座標系の切り替えに伴うポインタP等の位置ズレによる違和感を低減するため、制御部17は、座標系の切り替え時におけるポインタPの表示制御を実行することが好ましい。 In the case of simply switching between the touch coordinates and the gesture coordinates in this way, the control unit 17 displays the pointer P at the time of switching the coordinate system in order to reduce the discomfort due to the positional deviation of the pointer P or the like due to the switching of the coordinate system. It is preferable to perform control.

例えば、図8に示すように、ポインタPをタッチ座標上での位置とジェスチャ座標上での位置とにおいて短時間で交互に数回表示させ、最終的に、切り替え後の座標系での位置にポインタPを表示させてもよい。つまり、制御部17は、操作系の切り替え時にポインタPが振動しているように表示をさせつつ、切り替え後の座標系での位置に表示させるといったアニメーション表示をさせることで、位置ズレによる違和感を低減する。また、図9に示すように、制御部17は、操作系の切り替え時においてポインタPの大きさを一時的に大きくし、切り替えた座標系における表示位置に集束するようにポインタPの大きさを元に戻すことで位置ズレによる違和感を低減してもよい。 For example, as shown in FIG. 8, the pointer P is displayed alternately at the position on the touch coordinate and the position on the gesture coordinate several times in a short time, and finally at the position in the coordinate system after switching. The pointer P may be displayed. That is, the control unit 17 displays the pointer P as if it is vibrating when the operation system is switched, and at the same time, displays the animation at the position in the coordinate system after the switching, thereby causing a sense of discomfort due to the misalignment. Reduce. Further, as shown in FIG. 9, the control unit 17 temporarily increases the size of the pointer P when the operation system is switched, and adjusts the size of the pointer P so as to focus on the display position in the switched coordinate system. By returning it to the original position, the discomfort due to the misalignment may be reduced.

また、制御部17は、例えば図10に示すように、タッチ操作からジェスチャ操作への切り替えを行う際に、ジェスチャ座標のオフセット処理を行った上で、タッチ座標からジェスチャ座標に切り替える制御を実行してもよい。 Further, as shown in FIG. 10, for example, when switching from the touch operation to the gesture operation, the control unit 17 performs a control of switching from the touch coordinates to the gesture coordinates after performing the offset processing of the gesture coordinates. You may.

図7に示すように、操作系の切り替え直前におけるタッチ座標のtx1とジェスチャ座標のgx1との間にズレが生じている場合、制御部17は、図10に示すように、これらの差(tx1−gx1)の分だけジェスチャ座標の原点をオフセットしてもよい。これにより、オフセット後のジェスチャ座標のgx1とタッチ座標のtx1とが同じ位置となり、座標系を切り替えた後であっても、ポインタPは、操作系の切り替え前後において同じ位置に表示されることになる。このような表示制御により、操作者は、タッチ操作からジェスチャ操作への切り替えによる違和感を覚えることなく、よりスムーズにジェスチャ操作を続行することができる。 As shown in FIG. 7, when there is a deviation between the tx1 of the touch coordinates and the gx1 of the gesture coordinates immediately before the switching of the operation system, the control unit 17 determines the difference (tx1) as shown in FIG. The origin of the gesture coordinates may be offset by −gx1). As a result, the gesture coordinate gx1 after the offset and the touch coordinate tx1 are at the same position, and the pointer P is displayed at the same position before and after the operation system is switched even after the coordinate system is switched. Become. With such display control, the operator can continue the gesture operation more smoothly without feeling a sense of discomfort due to the switching from the touch operation to the gesture operation.

(処理動作例)
次に、車載装置1における処理動作例について、図11に示す操作を行った場合における処理動作例を代表例に、図12を参照して説明する。
(Processing operation example)
Next, a processing operation example in the in-vehicle device 1 will be described with reference to FIG. 12 with reference to FIG. 12 as a representative example of the processing operation example when the operation shown in FIG. 11 is performed.

図11では、操作者が表示部10のうち第1領域111内において表示されているアイコンを選択し、当該選択アイコンを第2領域112に移動させる操作を示している。また、図11では、分かり易くするため、断面を示すものではないが、操作するアイコンにハッチングを施している。さらに、図11では、第1領域111と第2領域112との境界を便宜的に破線で示すと共に、操作の順番を白抜き矢印で示している。 FIG. 11 shows an operation in which the operator selects an icon displayed in the first area 111 of the display unit 10 and moves the selected icon to the second area 112. Further, in FIG. 11, for the sake of clarity, although the cross section is not shown, the icons to be operated are hatched. Further, in FIG. 11, the boundary between the first region 111 and the second region 112 is indicated by a broken line for convenience, and the order of operations is indicated by a white arrow.

制御部17は、例えば車載装置1がONの状態となったら、図12に示す制御フローを実行する。 The control unit 17 executes the control flow shown in FIG. 12, for example, when the in-vehicle device 1 is turned on.

ステップS101では、制御部17は、タッチパネル11から信号を出力されたか否か、すなわちタッチパネル11の入力有無についての判定を行う。制御部17は、ステップS101にて肯定判定の場合、すなわちタッチパネル11から信号が出力されたと判定した場合には処理をステップS102に進め、否定判定の場合には処理を終了させる。 In step S101, the control unit 17 determines whether or not a signal is output from the touch panel 11, that is, whether or not the touch panel 11 is input. The control unit 17 proceeds to step S102 when a positive determination is made in step S101, that is, when it is determined that a signal is output from the touch panel 11, and ends the process when a negative determination is made.

ステップS102では、制御部17は、タッチパネル11からの出力信号に基づいて算出された操作位置が、表示部10に表示された操作アイコン上であって、当該操作アイコンの移動を有効にできる位置であるか否かの判定を行う。ステップS102で肯定判定の場合には、制御部17は、処理をステップS103に進める。例えば、操作者がタッチパネル11に指を置いたまたは近接させた際に、表示部10に表示されるポインタPが操作アイコンの移動を有効にする位置にある状況等がこの場合に該当する。一方、否定判定の場合には、制御部17は、処理を終了させる。 In step S102, the control unit 17 is at a position where the operation position calculated based on the output signal from the touch panel 11 is on the operation icon displayed on the display unit 10 and the movement of the operation icon can be enabled. Judge whether or not there is. If the affirmative determination is made in step S102, the control unit 17 advances the process to step S103. For example, when the operator puts his or her finger on the touch panel 11 or brings it close to the touch panel 11, the pointer P displayed on the display unit 10 is in a position where the movement of the operation icon is enabled. On the other hand, in the case of a negative determination, the control unit 17 ends the process.

ステップS103では、制御部17は、操作位置に表示されているアイコンを移動可能な状態にする制御を行う。その後、制御部17は、処理をステップS104に進める。 In step S103, the control unit 17 controls to make the icon displayed at the operation position movable. After that, the control unit 17 advances the process to step S104.

ステップS104では、制御部17は、タッチパネル11からの出力信号により算出される操作位置が、タッチ座標上で変化したか否かについて判定する。ステップS104で肯定判定の場合には、制御部17は、処理をステップS105に進める。例えば、操作者がタッチパネル11に触れた状態のまま、第1領域111から第2領域112に向かってスライド操作をしている状況等がこの場合に該当する。一方、ステップS104にて否定判定の場合には、制御部17は、処理をステップS106に進める。 In step S104, the control unit 17 determines whether or not the operation position calculated by the output signal from the touch panel 11 has changed on the touch coordinates. If the affirmative determination is made in step S104, the control unit 17 advances the process to step S105. For example, this case corresponds to a situation in which the operator is operating the slide operation from the first area 111 to the second area 112 while touching the touch panel 11. On the other hand, in the case of a negative determination in step S104, the control unit 17 advances the process to step S106.

ステップS105では、制御部17は、タッチ座標上での操作位置の変化に連動して、選択アイコン(移動が有効な状態とされたアイコン)を移動させる制御を行う。その後、制御部17は、処理をステップS107に進める。 In step S105, the control unit 17 controls to move the selection icon (the icon in which the movement is enabled) in conjunction with the change in the operation position on the touch coordinates. After that, the control unit 17 advances the process to step S107.

ステップS106では、制御部17は、タッチパネル11からの入力がないか否かについて判定を行う。ステップS106で肯定判定の場合、すなわちタッチパネル11からの入力がないと判定した場合には、制御部17は、処理を後述のステップS113に進める。一方、ステップS106で否定判定の場合、すなわちタッチパネル11からの入力があると判定した場合には、制御部17は、処理をステップS104に戻す。 In step S106, the control unit 17 determines whether or not there is an input from the touch panel 11. In the case of an affirmative determination in step S106, that is, when it is determined that there is no input from the touch panel 11, the control unit 17 advances the process to step S113 described later. On the other hand, in the case of a negative determination in step S106, that is, when it is determined that there is an input from the touch panel 11, the control unit 17 returns the process to step S104.

なお、S106での判定については、前述したように、タッチパネル11からの出力信号の有無、当該出力信号の強度、およびタッチ座標とジェスチャ座標との差などに基づいて実行され得る。 As described above, the determination in S106 can be executed based on the presence / absence of the output signal from the touch panel 11, the strength of the output signal, the difference between the touch coordinates and the gesture coordinates, and the like.

ステップS107では、制御部17は、ステップS106と同様に、タッチパネル11における入力がないか否かについて判定を行う。ステップS107にて肯定判定の場合、すなわちタッチパネル11からの入力がないと判定した場合には、制御部17は、処理をステップS108に進める。例えば、操作者がタッチパネル11から指を離し、タッチパネル11からの出力信号が制御部17に伝送されなくなった状況等がこの場合に該当する。一方、ステップS107で否定判定の場合、すなわちタッチパネル11からの入力があると判定した場合には、制御部17は、処理をステップS105に戻す。 In step S107, the control unit 17 determines whether or not there is an input on the touch panel 11 as in step S106. In the case of an affirmative determination in step S107, that is, when it is determined that there is no input from the touch panel 11, the control unit 17 advances the process to step S108. For example, a situation where the operator releases the finger from the touch panel 11 and the output signal from the touch panel 11 is no longer transmitted to the control unit 17 corresponds to this case. On the other hand, in the case of a negative determination in step S107, that is, when it is determined that there is an input from the touch panel 11, the control unit 17 returns the process to step S105.

ステップS108では、制御部17は、ジェスチャ操作を有効とし、タッチ操作からジェスチャ操作に切り替える。言い換えると、ステップS108では、制御部17は、タッチ操作に代えて、ジェスチャ操作に基づく入力制御を実行可能な状態とする。これにより、操作者は、ジェスチャ操作により車載機器への入力操作が可能となる。続けて、制御部17は、処理をステップS109に進める。 In step S108, the control unit 17 enables the gesture operation and switches from the touch operation to the gesture operation. In other words, in step S108, the control unit 17 is in a state where input control based on the gesture operation can be executed instead of the touch operation. As a result, the operator can perform an input operation to the in-vehicle device by a gesture operation. Subsequently, the control unit 17 advances the process to step S109.

ステップS109では、制御部17は、所定時間内にジェスチャ座標上における操作位置の変化があるか否かについて判定を行う。ステップS109で肯定判定の場合、制御部17は、処理をステップS110に進める。一方、ステップS109で否定判定の場合、制御部17は、処理を後述のステップS112に進める。なお、この所定時間については、任意であり、適宜設定される。 In step S109, the control unit 17 determines whether or not there is a change in the operation position on the gesture coordinates within a predetermined time. If a positive determination is made in step S109, the control unit 17 advances the process to step S110. On the other hand, in the case of a negative determination in step S109, the control unit 17 advances the process to step S112 described later. It should be noted that this predetermined time is arbitrary and is set as appropriate.

ステップS110では、制御部17は、ジェスチャ座標上における操作位置の変化に連動して、選択アイコンを移動させる。続けて、制御部17は、処理をステップS111に進める。 In step S110, the control unit 17 moves the selection icon in conjunction with the change in the operation position on the gesture coordinates. Subsequently, the control unit 17 advances the process to step S111.

ステップS111では、制御部17は、再度、所定時間内にジェスチャ座標上における操作位置の変化があるか否かについて判定を行う。ステップS111にて肯定判定の場合、制御部17は、処理をステップS110に戻す。一方、ステップS111にて否定判定の場合、制御部17は、処理をステップS112に進める。 In step S111, the control unit 17 again determines whether or not there is a change in the operation position on the gesture coordinates within a predetermined time. If a positive determination is made in step S111, the control unit 17 returns the process to step S110. On the other hand, in the case of a negative determination in step S111, the control unit 17 advances the process to step S112.

なお、ステップS109およびS111では、制御部17は、ジェスチャ座標における操作位置の変化量が所定以上であるか否かを判定してもよい。また、ステップS109およびS111では、制御部17は、ジェスチャ座標における操作位置の変化量が所定以上であるか否かの判定において、上記と同様に所定の制限時間を設け、その所定時間内に判定を実行してもよい。ステップS109およびS111における否定判定の場合は、例えば、操作者がジェスチャ操作に用いていた指を一定時間停止させた状態にする状況等が該当する。言い換えると、この場合、「操作者が指差しの位置を一定時間停止させること」が選択アイコンの移動の終了条件とされているとも言える。 In steps S109 and S111, the control unit 17 may determine whether or not the amount of change in the operation position in the gesture coordinates is equal to or greater than a predetermined amount. Further, in steps S109 and S111, the control unit 17 sets a predetermined time limit as described above in determining whether or not the amount of change in the operation position in the gesture coordinates is equal to or greater than a predetermined time, and determines within the predetermined time. May be executed. In the case of the negative determination in steps S109 and S111, for example, a situation in which the finger used by the operator for the gesture operation is stopped for a certain period of time corresponds to the situation. In other words, in this case, it can be said that "the operator stops the pointing position for a certain period of time" is the end condition for moving the selection icon.

ステップS112では、制御部17は、選択アイコンの位置をジェスチャ座標における操作位置に決定する。そして、制御部17は、続くステップS113にて、当該選択アイコンの移動可能状態を無効とする制御を行う。これにより、例えば図11に示すように、選択アイコンは、表示部10のうち第2領域112の所定位置に固定された状態となり、その移動が終了する。その後、制御部17は、図12の制御フローの処理を終了する。 In step S112, the control unit 17 determines the position of the selection icon as the operation position in the gesture coordinates. Then, in the subsequent step S113, the control unit 17 controls to invalidate the movable state of the selection icon. As a result, for example, as shown in FIG. 11, the selection icon is fixed at a predetermined position in the second area 112 of the display unit 10, and its movement ends. After that, the control unit 17 ends the processing of the control flow shown in FIG.

(処理動作の変形例)
上記の処理動作例では、「ジェスチャ座標における操作位置の変化」により、選択アイコンの移動終了が決定されていた。しかしながら、制御フローのうち選択アイコンの移動終了条件は、図12に示す例に限られず、図13〜図15に示すように変更されてもよい。以降の説明では、図12を参照して説明した上記の処理動作とは相違する部分について主に説明する。
(Modified example of processing operation)
In the above processing operation example, the end of movement of the selection icon is determined by "change in operation position in gesture coordinates". However, the movement end condition of the selection icon in the control flow is not limited to the example shown in FIG. 12, and may be changed as shown in FIGS. 13 to 15. In the following description, a part different from the above processing operation described with reference to FIG. 12 will be mainly described.

図13〜図15では、図12に示す制御フローのうちステップS103からステップS106またはステップS112までの間を抜粋して示している。 13 to 15 show excerpts from step S103 to step S106 or step S112 of the control flow shown in FIG.

図13に示す変形例では、制御部17は、ステップS107の後、処理をステップS114に進める。ステップS114では、制御部17は、所定時間内にタッチ操作によるタップがないか否かについて判定を行う。ステップS114にて肯定判定の場合、すなわち操作者が所定時間内にタッチ操作によるタップをしなかったと判定した場合、制御部17は、処理をステップS108に進める。一方、ステップS114にて否定判定の場合、制御部17は、処理をステップS112に進める。 In the modified example shown in FIG. 13, the control unit 17 advances the process to step S114 after step S107. In step S114, the control unit 17 determines whether or not there is a tap by a touch operation within a predetermined time. In the case of an affirmative determination in step S114, that is, when it is determined that the operator did not tap by the touch operation within a predetermined time, the control unit 17 advances the process to step S108. On the other hand, in the case of a negative determination in step S114, the control unit 17 advances the process to step S112.

制御部17は、ステップS108の後、ステップS110にて選択アイコンをジェスチャ座標における操作位置に移動させる処理を行い、次に、処理をステップS115に進める。ステップS115では、制御部17は、タップ動作に対応する操作者のジェスチャがないか否かについて判定を行う。ステップS115にて肯定判定の場合、すなわちタップ動作がないと判定した場合には、制御部17は、処理をステップS110に戻す。一方、ステップS115にて否定判定の場合、すなわちタップ動作があると判定した場合には、制御部17は、処理をステップS112に進める。 After step S108, the control unit 17 performs a process of moving the selection icon to the operation position in the gesture coordinates in step S110, and then proceeds to the process of step S115. In step S115, the control unit 17 determines whether or not there is an operator gesture corresponding to the tap operation. In the case of an affirmative determination in step S115, that is, when it is determined that there is no tap operation, the control unit 17 returns the process to step S110. On the other hand, in the case of a negative determination in step S115, that is, when it is determined that there is a tap operation, the control unit 17 advances the process to step S112.

なお、操作者がタッチ操作によるタップの動作をしたか否かについては、例えば、タッチパネル11のうち所定の範囲内、かつ所定の時間内に少なくとも2回の断続的な出力信号が制御部17に伝送されたか否かにより判定可能である。また、操作者がジェスチャ操作によるタップの動作をしたか否かについては、例えば、所定の範囲内かつ所定の時間内に少なくとも2回の往復動作がされた場合に対応する信号が、ジェスチャ認識部12から制御部17に伝送されたか否かにより判定可能である。操作者によるタップ動作の有無の判定方法については、上記の例に限定されるものではない。 Regarding whether or not the operator has tapped by touch operation, for example, the control unit 17 receives at least two intermittent output signals within a predetermined range and within a predetermined time of the touch panel 11. It can be determined by whether or not it has been transmitted. Further, regarding whether or not the operator has performed the tap operation by the gesture operation, for example, the signal corresponding to the case where the operator performs the reciprocating operation at least twice within the predetermined range and within the predetermined time is the gesture recognition unit. It can be determined by whether or not the transmission is transmitted from the 12 to the control unit 17. The method of determining the presence or absence of the tap operation by the operator is not limited to the above example.

つまり、図13に示す変形例では、選択アイコンの移動終了条件が「タッチ操作またはジェスチャ操作によるタップ動作」となっている。また、図14に示すように、選択アイコンの移動終了条件は、「タッチ操作またはジェスチャ操作による押し込み動作」であってもよい。 That is, in the modified example shown in FIG. 13, the movement end condition of the selection icon is "tap operation by touch operation or gesture operation". Further, as shown in FIG. 14, the movement end condition of the selection icon may be "pushing operation by touch operation or gesture operation".

図14に示す変形例では、制御部17は、ステップS105の後、処理をステップS116に進める。ステップS116では、制御部17は、所定時間内にタッチ操作による押し込み動作がないか否かについて判定を行う。ステップS116にて肯定判定の場合、すなわち操作者が所定時間内にタッチ操作による押し込み動作をしなかったと判定された場合、制御部17は、処理をステップS117に進める。一方、ステップS116にて否定判定の場合、すなわち操作者が所定時間内にタッチ操作による押し込み動作をしたと判定した場合、制御部17は、処理をステップS112に進める。 In the modified example shown in FIG. 14, the control unit 17 advances the process to step S116 after step S105. In step S116, the control unit 17 determines whether or not there is a pushing operation by a touch operation within a predetermined time. In the case of an affirmative determination in step S116, that is, when it is determined that the operator did not perform the pushing operation by the touch operation within the predetermined time, the control unit 17 advances the process to step S117. On the other hand, in the case of a negative determination in step S116, that is, when it is determined that the operator has performed a pushing operation by a touch operation within a predetermined time, the control unit 17 advances the process to step S112.

ステップS117では、制御部17は、図12におけるステップS107と同様に、タッチパネル11からの入力がないか否かについて判定を行う。ステップS117で肯定判定の場合、すなわちタッチパネル11からの入力がないと判定した場合には、制御部17は、処理をステップS108、S110の順に進める。一方、ステップS117で否定判定の場合、すなわちタッチパネル11からの入力があると判定した場合には、制御部17は、処理をステップS105に戻す。 In step S117, the control unit 17 determines whether or not there is an input from the touch panel 11 as in step S107 in FIG. In the case of an affirmative determination in step S117, that is, when it is determined that there is no input from the touch panel 11, the control unit 17 proceeds with the processing in the order of steps S108 and S110. On the other hand, in the case of a negative determination in step S117, that is, when it is determined that there is an input from the touch panel 11, the control unit 17 returns the process to step S105.

制御部17は、ステップS110の後、処理をステップS118に進め、ジェスチャ操作による押し込みの動作がないか否かについて判定を行う。ステップS118で肯定判定の場合、すなわち押し込みのジェスチャがないと判定した場合には、制御部17は、処理をステップS110に戻す。一方、ステップS118で否定判定の場合、すなわち押し込みのジェスチャがあると判定した場合には、制御部17は、処理をステップS112に進める。 After step S110, the control unit 17 advances the process to step S118, and determines whether or not there is a pushing operation by the gesture operation. In the case of affirmative determination in step S118, that is, when it is determined that there is no pushing gesture, the control unit 17 returns the process to step S110. On the other hand, in the case of a negative determination in step S118, that is, when it is determined that there is a push gesture, the control unit 17 advances the process to step S112.

なお、操作者がタッチ操作による押し込みの動作をしたか否かについては、例えば、タッチパネル11が押圧センサを有した構成とされ、タッチパネル11から押圧に応じた信号を制御部17に伝送されたか否かにより判定可能である。また、操作者がジェスチャ操作による押し込みの動作をしたか否かについては、例えば、所定の範囲内かつ所定の時間内に少なくとも1回の往復動作がされた場合に対応する信号が、ジェスチャ認識部12から制御部17に伝送されたか否かにより判定可能である。操作者による押し込む動作の有無の判定方法については、上記の例に限定されるものではない。 Regarding whether or not the operator has performed the pushing operation by touch operation, for example, whether or not the touch panel 11 has a pressing sensor and a signal corresponding to the pressing is transmitted from the touch panel 11 to the control unit 17. It can be determined by the above. Further, regarding whether or not the operator has performed the pushing operation by the gesture operation, for example, the signal corresponding to the case where the operator performs at least one reciprocating operation within a predetermined range and within a predetermined time is the gesture recognition unit. It can be determined by whether or not the transmission is transmitted from the 12 to the control unit 17. The method of determining whether or not there is a pushing operation by the operator is not limited to the above example.

さらに、図15に示す変形例のように、操作者による所定の発話をアイコンの移動終了条件としてもよい。図15に示す変形例は、ステップS116、S118に代わって、アイコンの移動を停止させる発話がないか否かを判定するステップS119、S120とされたものである。 Further, as in the modified example shown in FIG. 15, a predetermined utterance by the operator may be a condition for ending the movement of the icon. In the modified example shown in FIG. 15, instead of steps S116 and S118, steps S119 and S120 are used to determine whether or not there is an utterance that stops the movement of the icon.

ステップS119では、制御部17は、例えば、「はい」、「そこ」、「ストップ」等の所定の発話に対応した音声信号が、音声認識部14から出力されているか否かにより、停止の発話がないか否かを判定する。ステップS119で肯定判定の場合、すなわち操作者による停止の発話がないと判定した場合には、制御部17は、処理をステップS117に進める。一方、ステップS119で否定判定の場合、すなわち操作者による停止の発話があったと判定した場合には、制御部17は、処理をステップS112に進める。 In step S119, the control unit 17 makes a stop utterance depending on whether or not a voice signal corresponding to a predetermined utterance such as "yes", "there", or "stop" is output from the voice recognition unit 14. Judge whether or not there is. In the case of an affirmative determination in step S119, that is, when it is determined that there is no stop utterance by the operator, the control unit 17 advances the process to step S117. On the other hand, in the case of a negative determination in step S119, that is, when it is determined that the operator has spoken a stop, the control unit 17 advances the process to step S112.

ステップS120では、ステップS119と同様の判定を行い、制御部17は、肯定判定の場合には処理をステップS110に戻し、否定判定の場合には処理をステップS112に進める。 In step S120, the same determination as in step S119 is performed, and the control unit 17 returns the process to step S110 in the case of an affirmative determination, and proceeds to the process in step S112 in the case of a negative determination.

本実施形態によれば、操作者が移動しなければその全域をタッチ操作できないほどの大面積化された表示部10に対する入力操作において、タッチ操作とジェスチャ操作とをスムーズに切り替えることが可能な構成とされた入力装置となる。 According to the present embodiment, in the input operation for the display unit 10 having a large area so that the entire area cannot be touch-operated unless the operator moves, the touch operation and the gesture operation can be smoothly switched. It becomes the input device.

(他の実施形態)
本発明は、実施例に準拠して記述されたが、本発明は当該実施例や構造に限定されるものではないと理解される。本発明は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらの一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本発明の範疇や思想範囲に入るものである。
(Other embodiments)
Although the present invention has been described in accordance with Examples, it is understood that the present invention is not limited to the Examples and structures. The present invention also includes various modifications and modifications within a uniform range. In addition, various combinations and forms, as well as other combinations and forms including only one element thereof, more or less, are also within the scope and ideology of the present invention.

(1)例えば、上記実施形態では、1点でタッチパネル11を操作する場合を例に説明したが、2点以上でタッチパネル11を操作する場合であっても同様に適用できる。 (1) For example, in the above embodiment, the case where the touch panel 11 is operated by one point has been described as an example, but the same applies even when the touch panel 11 is operated by two or more points.

(2)上記実施形態では、表示部10が車両VのサイドウィンドウV1に搭載された例について説明したが、表示部10は、リアウィンドウやウィンドシールド等の他の部位に搭載されてもよい。また、上記した入力装置は、車載用途に適用された場合であっても、操作者が移動せずとも表示部10の表示面全域についてタッチ操作とジェスチャ操作とを駆使して入力操作が可能な構成とされる。 (2) In the above embodiment, the example in which the display unit 10 is mounted on the side window V1 of the vehicle V has been described, but the display unit 10 may be mounted on other parts such as the rear window and the windshield. Further, even when the above-mentioned input device is applied to an in-vehicle application, it is possible to perform an input operation by making full use of touch operation and gesture operation on the entire display surface of the display unit 10 without the operator moving. It is composed.

(3)音声入力をしない場合や音声によるメッセージ等を出力しない場合には、音声認識部14、音声合成部15、マイク22およびスピーカ23を有しない構成であってもよい。 (3) When the voice is not input or the voice message or the like is not output, the configuration may not include the voice recognition unit 14, the voice synthesis unit 15, the microphone 22, and the speaker 23.

10 表示部
11 タッチパネル
111 第1領域
112 第2領域
12 ジェスチャ認識部
17 制御部
21 撮像部
10 Display unit 11 Touch panel 111 First area 112 Second area 12 Gesture recognition unit 17 Control unit 21 Imaging unit

Claims (12)

所定以上の面積とされた表示部(10)に対して重畳配置されたタッチパネル(11)と、
操作者の身体形状を撮像する撮像部(21)が取得した画像データに基づいて、前記操作者のジェスチャを認識し、前記ジェスチャに応じた信号を出力するジェスチャ認識部(12)と、
前記タッチパネルからの出力信号に基づくタッチ操作による入力制御、および前記ジェスチャ認識部からの出力信号に基づくジェスチャ操作による入力制御を行う制御部(17)と、を備え、
前記制御部は、前記タッチ操作および前記ジェスチャ操作のいずれか一方による入力制御となるように操作系の切り替えを実行する、入力装置。
A touch panel (11) superposed on the display unit (10) having an area larger than a predetermined area, and
Based on the image data acquired by the imaging unit (21) that captures the body shape of the operator, the gesture recognition unit (12) recognizes the gesture of the operator and outputs a signal corresponding to the gesture.
A control unit (17) that performs input control by a touch operation based on an output signal from the touch panel and input control by a gesture operation based on an output signal from the gesture recognition unit is provided.
The control unit is an input device that switches the operation system so that the input control is performed by either the touch operation or the gesture operation.
前記タッチパネルは、前記操作者との相対位置の変化が所定以下に制限されている状況において、前記操作者が接触可能な第1領域(111)と、前記操作者が接触できない第2領域(112)とを有してなり、
前記制御部は、少なくとも前記表示部のうち前記第2領域に位置する部分については前記ジェスチャ操作による入力制御を行う、請求項1に記載の入力装置。
The touch panel has a first region (111) that the operator can contact and a second region (112) that the operator cannot contact in a situation where the change in the relative position with the operator is limited to a predetermined value or less. ) And
The input device according to claim 1, wherein the control unit performs input control by the gesture operation for at least a portion of the display unit located in the second region.
前記制御部は、前記タッチパネルからの信号出力がある場合には、前記タッチ操作による入力制御を実行し、前記タッチパネルからの信号出力がない場合には、前記ジェスチャ操作による入力制御を実行する、請求項1または2に記載の入力装置。 The control unit executes the input control by the touch operation when there is a signal output from the touch panel, and executes the input control by the gesture operation when there is no signal output from the touch panel. Item 2. The input device according to item 1 or 2. 前記制御部は、前記タッチパネルからの出力信号の強度が所定の閾値以上の場合には、前記タッチ操作による入力制御を実行し、前記タッチパネルからの出力信号の強度が所定の閾値未満の場合には、前記ジェスチャ操作による入力制御を実行する、請求項1または2に記載の入力装置。 The control unit executes input control by the touch operation when the strength of the output signal from the touch panel is equal to or higher than a predetermined threshold value, and when the strength of the output signal from the touch panel is less than the predetermined threshold value. The input device according to claim 1 or 2, wherein the input control by the gesture operation is executed. 前記操作者が前記タッチパネルにおける所定の箇所に接触し、接触した状態を保ったまま前記所定の箇所から他の箇所へスライドさせたときの前記所定の箇所から前記他の箇所への距離を移動量として、
前記制御部は、
タッチ座標における移動量とジェスチャ座標における移動量との差が所定の閾値以上の場合には、前記タッチ操作による入力制御を実行し、
タッチ座標における移動量とジェスチャ座標における移動量との差が所定の閾値未満の場合には、前記ジェスチャ操作による入力制御を実行する、請求項1または2に記載の入力装置。
The amount of movement of the distance from the predetermined location to the other location when the operator touches the predetermined location on the touch panel and slides the touch panel from the predetermined location to another location while maintaining the contact state. As,
The control unit
When the difference between the movement amount in the touch coordinates and the movement amount in the gesture coordinates is equal to or greater than a predetermined threshold value, the input control by the touch operation is executed.
The input device according to claim 1 or 2, wherein when the difference between the movement amount in the touch coordinates and the movement amount in the gesture coordinates is less than a predetermined threshold value, the input control by the gesture operation is executed.
前記制御部は、
前記タッチパネルからの信号出力の強度が所定の閾値以上であり、かつタッチ座標における移動量とジェスチャ座標における移動量との差が所定の閾値以上の場合には、前記タッチ操作による入力制御を実行し、
前記タッチパネルからの信号出力の強度が所定の閾値未満であり、かつタッチ座標における移動量とジェスチャ座標における移動量との差が所定の閾値未満の場合には、前記ジェスチャ操作による入力制御を実行する、請求項5に記載の入力装置。
The control unit
When the intensity of the signal output from the touch panel is equal to or higher than a predetermined threshold value and the difference between the movement amount in the touch coordinates and the movement amount in the gesture coordinates is equal to or higher than the predetermined threshold value, the input control by the touch operation is executed. ,
When the intensity of the signal output from the touch panel is less than a predetermined threshold value and the difference between the movement amount in the touch coordinates and the movement amount in the gesture coordinates is less than the predetermined threshold value, the input control by the gesture operation is executed. , The input device according to claim 5.
前記制御部は、前記タッチ操作による入力制御時にはタッチ座標を用い、前記ジェスチャ操作による入力制御時にはジェスチャ座標を用いると共に、操作系の切り替えを実行する場合には、前記タッチ座標および前記ジェスチャ座標の一方から他方の座標へ切り替える制御を実行する、請求項1ないし6のいずれか1つに記載の入力装置。 The control unit uses touch coordinates during input control by the touch operation, gesture coordinates during input control by the gesture operation, and one of the touch coordinates and the gesture coordinates when switching the operation system. The input device according to any one of claims 1 to 6, which executes control for switching from one to the other coordinate. 前記制御部は、前記タッチ座標から前記ジェスチャ座標に切り替える場合には、前記タッチ座標における操作位置と前記ジェスチャ座標における操作位置とが同じになるように前記ジェスチャ座標のオフセットを行う、請求項7に記載の入力装置。 The control unit offsets the gesture coordinates so that the operation position in the touch coordinates and the operation position in the gesture coordinates are the same when switching from the touch coordinates to the gesture coordinates. The input device described. 前記制御部は、前記表示部に前記操作者による操作位置にポインタ(P)を表示させる制御を行っている場合において、前記タッチ座標および前記ジェスチャ座標の一方から他方の座標へ切り替える制御を実行するとき、前記ポインタを振動させるアニメーション表示を実行する、請求項7に記載の入力装置。 When the control unit controls the display unit to display the pointer (P) at the operation position by the operator, the control unit executes a control of switching from one of the touch coordinates and the gesture coordinates to the other coordinates. The input device according to claim 7, wherein an animation display that vibrates the pointer is executed. 前記制御部は、前記表示部に前記操作者による操作位置にポインタ(P)を表示させる制御を行っている場合において、前記タッチ座標および前記ジェスチャ座標の一方から他方の座標へ切り替える制御を実行するとき、前記ポインタの大きさを一時的に大きくし、切り替えた座標における操作位置に集束するように前記ポインタの大きさを元に戻す制御を行う、請求項7に記載の入力装置。 When the control unit controls the display unit to display the pointer (P) at the operation position by the operator, the control unit executes a control of switching from one of the touch coordinates and the gesture coordinates to the other coordinates. The input device according to claim 7, wherein the size of the pointer is temporarily increased, and control is performed to restore the size of the pointer so as to focus on the operation position at the switched coordinates. 前記制御部は、前記表示部に前記操作者による操作位置にポインタ(P)を表示させる制御を行っている場合において、前記ポインタの意匠を、前記タッチ操作による入力制御時と前記ジェスチャ操作による入力制御時とで異なるものとする制御を行う、請求項1ないし10のいずれか1つに記載の入力装置。 When the control unit controls the display unit to display the pointer (P) at the operation position by the operator, the design of the pointer is input at the time of input control by the touch operation and by the gesture operation. The input device according to any one of claims 1 to 10, wherein the control is performed so as to be different from that at the time of control. 前記制御部は、前記表示部に表示されているアイコンであって、前記操作者が選択している選択アイコンを強調表示させる制御を実行すると共に、前記選択アイコンの意匠を、前記タッチ操作による入力制御時と前記ジェスチャ操作による入力制御時とで異なるものとする制御を行う、請求項1ないし11のいずれか1つに記載の入力装置。

The control unit is an icon displayed on the display unit, executes control for highlighting the selection icon selected by the operator, and inputs the design of the selection icon by the touch operation. The input device according to any one of claims 1 to 11, wherein control is performed so that the time of control and the time of input control by the gesture operation are different.

JP2019103919A 2019-06-03 2019-06-03 Input device Pending JP2020197942A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019103919A JP2020197942A (en) 2019-06-03 2019-06-03 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019103919A JP2020197942A (en) 2019-06-03 2019-06-03 Input device

Publications (1)

Publication Number Publication Date
JP2020197942A true JP2020197942A (en) 2020-12-10

Family

ID=73649246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019103919A Pending JP2020197942A (en) 2019-06-03 2019-06-03 Input device

Country Status (1)

Country Link
JP (1) JP2020197942A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113782A1 (en) 2020-11-30 2022-06-02 古河機械金属株式会社 Inorganic solid electrolyte material, solid electrolyte, solid electrolyte film, and lithium ion battery

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008808A (en) * 2010-06-24 2012-01-12 Canon Inc Information processor
JP2012069095A (en) * 2010-08-25 2012-04-05 Canon Inc Information processing device and control method thereof
JP2015176311A (en) * 2014-03-14 2015-10-05 株式会社Nttドコモ Terminal and control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008808A (en) * 2010-06-24 2012-01-12 Canon Inc Information processor
JP2012069095A (en) * 2010-08-25 2012-04-05 Canon Inc Information processing device and control method thereof
JP2015176311A (en) * 2014-03-14 2015-10-05 株式会社Nttドコモ Terminal and control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113782A1 (en) 2020-11-30 2022-06-02 古河機械金属株式会社 Inorganic solid electrolyte material, solid electrolyte, solid electrolyte film, and lithium ion battery

Similar Documents

Publication Publication Date Title
JP5933824B2 (en) Vehicle electronic device
US9511669B2 (en) Vehicular input device and vehicular cockpit module
US8593417B2 (en) Operation apparatus for in-vehicle electronic device and method for controlling the same
JP2000006687A (en) Onboard equipment switch safety operation system
KR20110076921A (en) Display and control system in a motor vehicle having user-adjustable representation of displayed objects, and method for operating such a display and control system
US8355838B2 (en) Vehicular input device and method for controlling the same
CN108108042B (en) Display device for vehicle and control method thereof
KR20150072074A (en) System and control method for gesture recognition of vehicle
US20180032138A1 (en) Input system for determining position on screen of display device, detection device, control device, storage medium, and method
JP3933139B2 (en) Command input device
JP2020197942A (en) Input device
CN111231860A (en) Operation module, operation method, operation system, and storage medium for vehicle
JP2002108381A (en) Voice guidance switching device
JP5954145B2 (en) Input device
WO2016031152A1 (en) Input interface for vehicle
JP7183975B2 (en) input device
JP4849193B2 (en) Incorrect operation prevention device and operation error prevention method for in-vehicle equipment
JP4840332B2 (en) Remote control device
CN106289305A (en) Display device for mounting on vehicle
WO2020017220A1 (en) Input device
CN107783647B (en) Flexible screen input device and infotainment system
JP2007168639A (en) On-vehicle operation device
US20170255326A1 (en) Vehicular touch pad and vehicular input interface
JPWO2019176787A1 (en) Operation image display device, operation image display system, and operation image display program
WO2023032383A1 (en) Operation detection device, information processing system, and operation detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230516