WO2014087634A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2014087634A1
WO2014087634A1 PCT/JP2013/007065 JP2013007065W WO2014087634A1 WO 2014087634 A1 WO2014087634 A1 WO 2014087634A1 JP 2013007065 W JP2013007065 W JP 2013007065W WO 2014087634 A1 WO2014087634 A1 WO 2014087634A1
Authority
WO
WIPO (PCT)
Prior art keywords
input device
operation unit
infrared
infrared light
camera
Prior art date
Application number
PCT/JP2013/007065
Other languages
English (en)
French (fr)
Inventor
正剛 山中
野添 利幸
仁和 下中
西村 誠一
祥 園田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2014087634A1 publication Critical patent/WO2014087634A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Definitions

  • This technical field relates to an input device mainly used for vehicles.
  • FIG. 9 is a perspective view showing a state in which the conventional input device 20 is disposed in the vehicle.
  • FIG. 10 is a schematic diagram showing the internal structure of a conventional input device 20.
  • the input device 20 includes a translucent operation panel 1, a camera 2, a projector 3, and a circuit 4.
  • a curved plate-shaped translucent operation panel 1 is integrally formed with the instrument panel 6.
  • the translucent operation plate 1 is made of acrylic resin or the like.
  • the projector 3 is disposed behind the translucent operation panel 1 and is installed in the vehicle.
  • the projector 3 projects the selection button 5 on the translucent operation panel 1 from behind the translucent operation panel 1.
  • the camera 2 is disposed behind the translucent operation panel 1 together with the projector 3 and is attached to the vehicle body.
  • the camera 2 captures an image projected by the projector 3 with visible light.
  • the circuit 4 is connected to the camera 2 and the projector 3 and is disposed inside the instrument panel 6.
  • the circuit 4 detects the position of the selection button 5 selected from the image photographed by the camera 2.
  • the operator drives the projector 3 through the circuit 4 to display the selection button 5 on the translucent operation panel 1.
  • the position selected by the operator is detected from the image taken by the camera 2.
  • the circuit 4 outputs an operation signal to an electronic device (not shown) such as a car navigation system based on the detected position, and the electronic device performs an operation corresponding to the selected selection button 5.
  • the conventional input device 20 detects the position selected by the operator from the image photographed by the camera 2 using the external light incident on the translucent operation panel 1.
  • Patent Documents 1 and 2 are known as prior art documents related to this application.
  • the input device has an operation unit, an infrared light emitting element, a camera, and a control circuit.
  • the operation unit has a first surface and a second surface opposite to the first surface.
  • the infrared light emitting element is disposed so as to face the first surface of the operation unit, and irradiates infrared light onto the first surface of the operation unit.
  • the camera is disposed to face the first surface of the operation unit, and acquires an infrared image of the first surface of the operation unit.
  • the control circuit is connected to the infrared light emitting element and the camera, and detects the contact position on the second surface of the operation unit from the infrared image.
  • FIG. 1 is an exploded perspective view of an input device according to the present embodiment.
  • FIG. 2 is a perspective view showing the internal structure of the input device according to the present embodiment.
  • FIG. 3A is a cross-sectional view of the operation plate of the input device according to the present embodiment.
  • FIG. 3B is a diagram illustrating a photograph of an infrared image of the input device according to the present embodiment.
  • FIG. 4A is a cross-sectional view of another operation plate of the input device according to the present embodiment.
  • FIG. 4B is a diagram showing a photograph of an infrared image of the input device according to the present embodiment.
  • FIG. 5 is a cross-sectional view of another operation plate of the input device according to the present embodiment.
  • FIG. 1 is an exploded perspective view of an input device according to the present embodiment.
  • FIG. 2 is a perspective view showing the internal structure of the input device according to the present embodiment.
  • FIG. 3A is a cross-sectional view of the operation plate of the
  • FIG. 6 is a perspective view showing a state where the input device according to the present embodiment is arranged in the vehicle.
  • FIG. 7 is a diagram showing a display on a display connected to the input device according to the present embodiment.
  • FIG. 8A is a bottom view of the operation plate of the input device according to the present embodiment.
  • FIG. 8B is a bottom view of another operation plate of the input device according to the present embodiment.
  • FIG. 9 is a perspective view showing a state in which a conventional input device is arranged in a vehicle.
  • FIG. 10 is a schematic diagram showing the internal structure of a conventional input device.
  • the clarity of the image of the finger operated by the operator may be impaired when the external light is strong.
  • the translucent operation panel 1 since the translucent operation panel 1 has a structure that actively uses external light, it is necessary to shine light on the translucent operation panel 1 when the interior of the vehicle is dark.
  • the semi-transparent operation plate 1 when the semi-transparent operation plate 1 is exposed to light, the variation in irradiation intensity depending on the location in the semi-transparent operation plate 1 increases, and the finger position detection accuracy of the operator may deteriorate.
  • FIG. 1 is an exploded perspective view of the input device according to the present embodiment.
  • FIG. 2 is a perspective view showing the internal structure of the input device according to the present embodiment.
  • the input device 100 includes an operation unit 54A, an infrared light emitting element 42, a camera 41, and a control circuit 32.
  • the operation unit 54A has a first surface (inner surface) and a second surface (outer surface) opposite to the first surface.
  • the infrared light emitting element 42 is disposed so as to face the first surface of the operation unit 54A, and irradiates infrared light onto the first surface of the operation unit 54A.
  • the camera 41 is disposed so as to face the first surface of the operation unit 54A, and acquires an infrared image of the first surface of the operation unit 54A.
  • the control circuit 32 is connected to the infrared light emitting element 42 and the camera 41, and detects a contact position on the second surface of the operation unit 54A from an infrared image.
  • the input device 100 includes a lower case 21, a control unit 22, an imaging unit 23, a push switch 24, a movable unit 25, and an upper case unit 28.
  • the lower case 21 has a rectangular box shape with an upper opening, and is formed of an insulating resin or the like. At the center of the lower case 21, a protrusion 21A having an H shape and a flat upper surface is provided. On the left side of the protrusion 21A, two shaft receiving portions 21B with a predetermined interval are provided.
  • the side of the upper case unit 28 on which the hand table placement part 61B is formed is the left side
  • the hand table placement part The side on which 61B is not installed is the right side.
  • the control unit 22 includes control boards 31A, 31B, 31C and a control circuit 32.
  • Control boards 31A, 31B and 31C are housed in the lower case 21.
  • the control board 31A is disposed on the left side of the protrusion 21A.
  • the control boards 31B and 31C are arranged side by side on the right side of the protrusion 21A.
  • the control circuit 32 is composed of a semiconductor element such as a microcomputer or an IC (Integrated Circuit), and is disposed on the upper surface of the control board 31A.
  • the control circuit 32 detects the operation of the operator through the camera 41 and outputs an operation signal to the outside of the input device 100.
  • the pressing switch 24 is fixed to the inner bottom surface of the lower case 21 on the right side of the protrusion 21A.
  • the press switch 24 is preferably a square having a side of about 1 mm to 3 mm and a thickness of about 0.5 mm to 3 mm. When the operation unit 54A is pressed, the pressing switch 24 is switched on and off.
  • the imaging unit 23 has a function of irradiating infrared rays and a function of imaging.
  • the imaging unit 23 includes a substrate 43, a plurality of infrared light emitting elements 42, a camera 41, and a wiring 41A.
  • the infrared light emitting element 42 is configured by, for example, an infrared LED (Light Emitting Diode).
  • the imaging unit 23 is disposed on the upper surface of the protrusion 21A.
  • the camera 41 is a camera module equipped with a fisheye lens.
  • a fisheye lens is a projection type lens that is not a central projection type.
  • the angle of view of the fisheye lens is preferably 160 degrees or more and 310 degrees or less. Note that a wide-angle lens other than a fisheye lens can be used, but even in that case, the angle of view is preferably 160 degrees or more and 310 degrees or less.
  • the camera 41 is connected to the wiring 41A, and one end of the wiring 41A is connected to the control board 31A.
  • the substrate 43 is a wiring substrate provided with a hole 43A in the center.
  • Four infrared light emitting elements 42 are arranged at equal intervals around the hole 43A.
  • the camera 41 is disposed between the upper surface of the protrusion 21A and the substrate 43, and the fisheye lens of the camera 41 is exposed from the hole 43A.
  • the movable unit 25 includes a motor 51, a motor holder 52, a shaft holder 53, a shaft 26, a shaft presser 27, and an operation plate 54.
  • the operation plate 54 has an operation portion 54A and a flange portion 54B that protrudes outward from the outer periphery of the opening of the operation portion 54A.
  • the operation portion 54A is hollow and is formed in a dome shape having an opening.
  • the fisheye lens of the camera 41 is disposed directly below the center of the dome-shaped operation unit 54A.
  • the four infrared light emitting elements 42 are arranged around the camera 41 so as to be inside the operation unit 54A.
  • the operation portion 54A is formed in a dome shape.
  • the dome shape is not limited to a hemispherical shape
  • the bottom surface may be an ellipse
  • the cross section perpendicular to the flange portion 54B is a part of an ellipse. There may be.
  • the operation unit 54A is preferably hemispherical.
  • the number of the infrared light emitting elements 42 may be one or a plurality of two or more. In the case of a plurality, it is preferable to arrange them around the camera 41 at equal intervals.
  • the operation plate 54 when the operation plate 54 is pressed, a load is applied to the operation plate 54.
  • the load applied to the operation portion 54A can be dispersed throughout the operation portion 54A. Therefore, it is preferable that the operation portion 54A has a hemispherical shape.
  • the press switch 24 can be turned on via the flange portion 54B. In this case, since the load applied to the push switch 24 is dispersed, the push switch 24 is protected.
  • the motor 51 is accommodated in the hole 52A of the motor holder 52.
  • the motor holder 52 is fixed to the lower surface of the flange portion 54B.
  • the both ends of the shaft 26 are held in the groove on the upper surface of the shaft receiving portion 21B.
  • the upper surfaces of both ends of the shaft 26 are fixed by two shaft holders 27. That is, the shaft 26 is pressed by the shaft presser 27 so that the shaft 26 does not come off.
  • the shaft holder 53 has a shaft groove 53A on the upper surface. A central portion of the shaft 26 is inserted between the shaft groove 53A and the flange portion 54B, and the shaft holder 53 is fixed to the flange portion 54B.
  • the operation plate 54 operates with the shaft 26 as an axis.
  • the operation of the operation plate 54 is a vertical operation for pressing the push switch 24. That is, with the shaft 26 as an axis, the opposite side of the operation plate 54 to the shaft 26 moves up and down.
  • the operation plate 54 moves in the vertical direction. Then, the bottom surface of the motor holder 52 presses the pressing switch 24. Further, when the pressing force applied to the operation plate 54 is removed, the pressing switch 24 returns to the original state and is turned off.
  • the upper case unit 28 has an upper case 61 and a hand table 62.
  • a hole 61 ⁇ / b> A is formed in the center of the upper case 61.
  • a handstand arrangement portion 61B is formed on the left side of the hole 61A.
  • the upper case 61 is made of an insulating resin or the like.
  • the hand table 62 is arranged in the hand table arrangement part 61B.
  • the hand table 62 is made of an insulating resin or the like.
  • the control circuit 32 lights up the four infrared light emitting elements 42.
  • the control circuit 32 drives the camera 41 and images the inner surface of the operation unit 54A.
  • the infrared rays at the contacted portion are reflected by the finger, so that the infrared intensity at the contacted portion is increased and the image is captured in white.
  • the control circuit 32 determines the contact position of the operator's finger and the number of touching fingers from the image captured by the camera 41, and outputs it as an operation signal.
  • FIG. 3A is a cross-sectional view of operation panel 54 of input device 100 in the present embodiment.
  • the operation portion 54A of the operation plate 54 has three layers of a diffusion layer 73, a light attenuation layer 72, and a support layer 71 in order from the inner surface thereof.
  • the diffusion layer 73, the light attenuation layer 72, and the support layer 71 need not be in this order.
  • the support layer 71 is preferably on the outermost side in order to increase the durability of the operation portion 54A.
  • the diffusion layer 73 is preferably inside the light attenuation layer 72. Therefore, the structure shown in FIG. 3A is preferable.
  • the support layer 71 is made of a resin material such as polycarbonate or acrylic resin, and transmits visible light and infrared light.
  • the light attenuation layer 72 is formed of a material that transmits most of infrared rays and attenuates visible light.
  • visible light is light having a wavelength of about 400 nm to 700 nm
  • infrared light is light having a wavelength of about 800 nm to 1100 nm.
  • the light attenuation layer 72 preferably has a visible light transmittance of 0% to 20% and an infrared transmittance of 70% to 100%.
  • the light attenuation layer 72 is formed by painting the inner surface of the support layer 71.
  • the diffusion layer 73 is a translucent layer that diffuses infrared rays.
  • the diffusion layer 73 is formed so that infrared rays are diffused therein and the infrared rays are attenuated and transmitted therethrough.
  • the diffusion layer 73 is formed, for example, by dispersing organic particles such as a colored paint in a transparent resin.
  • the diffusion layer 73 is a milky white color such as ground glass.
  • the diffusion layer 73 diffuses infrared rays and visible light without totally reflecting them.
  • the diffusion layer 73 is formed by painting the inner surface of the light attenuation layer 72 or the like.
  • the inner surface of the diffusion layer 73 is preferably formed with irregularities by mat coating. By forming the unevenness, reflection of visible light and infrared light can be suppressed and the diffusion of infrared light can be increased, so that the contrast of the infrared image is improved.
  • the thickness of the diffusion layer 73 is preferably 50 ⁇ m or more and 100 ⁇ m or less so that infrared rays are appropriately diffused.
  • the light L1 When the light L1 enters the operation unit 54A from the outside of the operation unit 54A, the light L1 is attenuated by the light attenuation layer 72 and reaches the inside of the operation unit 54A as weak light L2. Therefore, the light incident on the camera 41 is weak and the infrared image captured by the camera 41 is clear.
  • the infrared ray L3 irradiated from the infrared light emitting element 42 to the inner surface of the operation portion 54A is diffused by the diffusion layer 73. Therefore, the infrared ray L4 radiated to the outside of the operation unit 54A is reduced.
  • the infrared light emitted from the diffusion layer 73 is reflected by the finger and returns to the inside of the operation plate 54 as reflected infrared light L6.
  • the inner surface of the operation unit 54A is imaged by the camera 41, the part touched by the finger becomes brighter than the part not touching. As a result, an infrared image having a high contrast at the location where the finger contacts is obtained.
  • FIG. 3B is an infrared image when the operation unit 54A is used.
  • the operation unit 54 ⁇ / b> A includes a support layer 71, a light attenuation layer 72, and a diffusion layer 73.
  • FIG. 4A is a cross-sectional view of operation panel 64 in the present embodiment.
  • FIG. 4B is an infrared image when the operation unit 64A is used.
  • the operation unit 64 ⁇ / b> A includes a support layer 71 and a light attenuation layer 72. Other configurations are the same as those in FIGS.
  • 3B and 4B are infrared images obtained by imaging the inner surfaces of the operation units 54A and 64A with the camera 41 in a state where the operator touches the operation units 54A and 64A with five fingers but not the palm. is there. The portion where infrared reflection is strong is imaged white.
  • the operation plate 64 Since the operation plate 64 is not provided with the diffusion layer 73, infrared rays are not sufficiently diffused. Therefore, as shown in FIG. 4B, the palm 81 is farther from the operation unit 64 ⁇ / b> A than the fingertip 82, but is imaged slightly whiter than the fingertip 82 because the reflection area is wide. As a result, it is unclear whether the fingertip 82 is in contact with the operation plate 54. Further, when the fluorescent lamp 83 exists outside the operation unit 64A, infrared light is emitted from the fluorescent lamp 83 to the operation unit 64A. Therefore, as shown in FIG. 4B, the fluorescent lamp 83 is imaged. As a result, it may be difficult to distinguish between the fingertip 82 and the fluorescent lamp 83.
  • a diffusion layer 73 is provided in the operation unit 54A. Since infrared rays are diffused by the diffusion layer 73, the fingertip 82 is clearly imaged white as shown in FIG. 3B. The palm 81 is picked up slightly darker because it reaches less infrared light than the fingertip 82. Furthermore, even if infrared rays reach the operation unit 54A from the outside of the operation unit 54A, the infrared rays are diffused by the diffusion layer 73. Therefore, the fluorescent lamp 83 as shown in FIG. 4B is not imaged. As a result, the fingertip 82 is easily detected.
  • the operation unit 64 ⁇ / b> A may be composed of a support layer 71 and a light attenuation layer 72.
  • the operation unit 64A may be configured by only the light attenuation layer 72.
  • the diffusion layer 73 is preferably formed. According to the configuration of FIG. 3A, since the variation in irradiation intensity depending on the location in the operation plate 54 is suppressed, the detection accuracy of the contact position of the operator's finger is improved.
  • FIG. 5 is a cross-sectional view of the operation plate 154 in the present embodiment.
  • the operation portion 154 ⁇ / b> A of the operation plate 154 may have two layers of a diffusion layer 173 and a light attenuation layer 172 in order from the inner surface.
  • the flange portion 154B may be formed by extending the light attenuation layer 172.
  • the light attenuation layer 172 is preferably formed by mixing a light-transmitting resin and an infrared transmitting ink.
  • the diffusion layer 173 and the light attenuation layer 172 may not be configured in the order shown in FIG. However, the diffusion layer 173 is preferably inside the light attenuation layer 172 from an optical viewpoint. Therefore, the structure shown in FIG. 5 is preferable.
  • FIG. 6 is a perspective view showing a state where the input device 100 according to the present embodiment is arranged in the vehicle.
  • FIG. 7 is a diagram illustrating a display on the display 101 connected to the input device 100 according to the present embodiment.
  • the input device 100 is disposed between a driver seat and a passenger seat in a vehicle.
  • the input device 100 is connected to an electronic device (not shown) such as a display 101, a car navigation system, or an audio system via a cable or a harness. Then, the electronic device is controlled according to the operation signal input from the input device 100.
  • the motor 51 is driven, so that the operator can feel a vibration or a pseudo tactile sensation with the fingertip.
  • the display 101 displays a map display 121, a vehicle display 122, icons 123A to 123D, and a pointer 124.
  • the icon 123A corresponds to an air conditioning function
  • the icon 123B corresponds to a communication function with another vehicle
  • the icon 123C corresponds to an audio function
  • the icon 123D corresponds to a telephone function.
  • the pointer 124 displayed on the menu screen moves in a desired direction.
  • the push switch 24 is turned on and the selected icon 123C is confirmed. Then, the display on the display 101 is switched to the menu screen of the audio system.
  • FIG. 8A is a bottom view of the operation plate 254 in the present embodiment.
  • FIG. 8B is a bottom view of operation plate 354 in the present embodiment.
  • the operation plate 254 includes an operation portion 254A and a flange portion 254B that protrudes outward from the lower portion of the operation portion 254A.
  • the operation unit 254A is formed in a hollow dome shape.
  • the operation plate 354 includes an operation portion 354A and a flange portion 354B that protrudes outward from the lower portion of the operation portion 354A.
  • the operation unit 354A is formed in a hollow dome shape. Other configurations are the same as those in FIGS.
  • correction patterns 255A, 255B, and 255C for performing calibration may be formed on the inner surfaces of the operation units 254A and 354A.
  • a correction pattern 255A that is linear and has a scale drawn at a predetermined position, and a correction pattern 255B that uses symbols are drawn. Further, a lattice-shaped correction pattern 255C is drawn on the operation unit 354A.
  • correction patterns 255A, 255B, and 255C may be drawn in the operation units 254A and 354A in-mold. Further, correction patterns 255A, 255B, and 255C may be formed on the inner surfaces of the operation units 254A and 354A by laser processing or printing.
  • correction patterns 255A, 255B, and 255C it is possible to perform a calibration process for coordinates serving as a reference when determining a finger detection position from an image captured by the camera 41. That is, coordinate correction and luminance correction can be performed at the intersection of the scales of the correction pattern 255A and at the intersection of the lattice pattern of the correction pattern 255C.
  • coordinate correction and luminance correction can be performed at the intersection of the scales of the correction pattern 255A and at the intersection of the lattice pattern of the correction pattern 255C.
  • infrared rays are reflected at the correction patterns 255A, 255B, and 255C, the reflection intensity of infrared rays at the correction patterns 255A, 255B, and 255C is stabilized.
  • the amount of light generated by the infrared light emitting element 42 can be adjusted by forming the correction patterns 255A, 255B, and 255C.
  • the contrast between finger contact and non-contact is improved, and the detection accuracy of the contact position of the operator's finger is improved.
  • the operation unit 54A has been described as a dome shape, but is not limited to a dome shape, and may be a flat plate shape.
  • the visible light transmittance of the light attenuation layer 72 is 0% or more and 20% or less, and the thickness of the diffusion layer 73 is 50 ⁇ m or more and 100 ⁇ m or less. With this configuration, the contrast of the infrared image is improved.
  • the difference between the contact and non-contact of the operator's finger with respect to the operation unit 54A becomes clear, and the contrast is improved. Therefore, the detection accuracy of the contact position of the finger with respect to the operation unit 54A is improved. As a result, an input device suitable for determination of finger contact or non-contact can be obtained.
  • the input device has high detection accuracy of the contact position of the operator's finger and is suitable for detection determination, and is mainly useful for in-vehicle use.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Abstract

 入力装置は、操作部と、赤外線発光素子と、カメラと、制御回路を有する。操作部は、第1面と、第1面の反対側の第2面とを有する。赤外線発光素子は、操作部の第1面と対向するように配置され、操作部の第1面に赤外線を照射する。カメラは、操作部の第1面と対向するように配置され、操作部の第1面の赤外線の画像を取得する。制御回路は、赤外線発光素子及びカメラに接続され、赤外線の画像により操作部の第2面における接触位置を検出する。

Description

入力装置
 本技術分野は、主に車両に用いられる入力装置に関する。
 乗員の操作簡便性と先進的なデザイン性を両立した様々な車両用の入力装置が提案されている。そのうちの一つとして、リアプロジェクション方式の入力装置が有望視されている。
 図9は、従来の入力装置20の車内に配置された状態を示す斜視図である。図10は、従来の入力装置20の内部構造を示す模式図である。
 入力装置20は、半透明操作板1と、カメラ2と、プロジェクタ3と、回路4とを有する。
 曲板形状の半透明操作板1は、インストルメントパネル6に一体形成されている。半透明操作板1はアクリル樹脂等で形成されている。
 プロジェクタ3は、半透明操作板1の後方に配置され、車内に取り付けられている。プロジェクタ3は、半透明操作板1の後方から半透明操作板1に、選択ボタン5を映写する。
 カメラ2は、プロジェクタ3と共に半透明操作板1の後方に配置され、車体に取り付けられている。カメラ2は、プロジェクタ3により映写された画像を可視光で撮影する。
 回路4は、カメラ2及びプロジェクタ3に接続され、インストルメントパネル6の内部に配置されている。回路4は、カメラ2により撮影された画像から選択された選択ボタン5の位置を検出する。
 操作者は、回路4を通じてプロジェクタ3を駆動し、半透明操作板1に選択ボタン5を表示させる。そして、操作者が半透明操作板1に表示された選択ボタン5の内の1つを選択すると、カメラ2で撮影された画像から、操作者が選択した位置が検出される。回路4は、検出された位置に基づいて、カーナビゲーションシステム等の電子機器(図示せず)に操作信号を出力し、電子機器は選択された選択ボタン5に対応した動作を行う。
 以上のように、従来の入力装置20は、半透明操作板1に入射する外光を利用し、カメラ2で撮影された画像から操作者が選択した位置を検出する。
 なお、この出願に関連する先行技術文献としては、例えば、特許文献1、2が知られている。
特開2007-223416号公報 特開2011-240147号公報
 入力装置は、操作部と、赤外線発光素子と、カメラと、制御回路を有する。操作部は、第1面と、第1面の反対側の第2面とを有する。赤外線発光素子は、操作部の第1面と対向するように配置され、操作部の第1面に赤外線を照射する。カメラは、操作部の第1面と対向するように配置され、操作部の第1面の赤外線の画像を取得する。制御回路は、赤外線発光素子及びカメラに接続され、赤外線の画像により操作部の第2面における接触位置を検出する。
図1は、本実施の形態における入力装置の分解斜視図である。 図2は、本実施の形態における入力装置の内部構造を示す斜視図である。 図3Aは、本実施の形態における入力装置の操作板の断面図である。 図3Bは、本実施の形態における入力装置の赤外線画像の写真を示す図である。 図4Aは、本実施の形態における入力装置の他の操作板の断面図である。 図4Bは、本実施の形態における入力装置の赤外線画像の写真を示す図である。 図5は、本実施の形態における入力装置の他の操作板の断面図である。 図6は、本実施の形態における入力装置が車内に配置された状態を示す斜視図である。 図7は、本実施の形態における入力装置に接続されるディスプレイの表示を示す図である。 図8Aは、本実施の形態における入力装置の操作板の下面図である。 図8Bは、本実施の形態における入力装置の他の操作板の下面図である。 図9は、従来の入力装置の車内に配置された状態を示す斜視図である。 図10は、従来の入力装置の内部構造を示す模式図である。
 従来の入力装置20では、半透明操作板1を透過した外光がそのままカメラに入射されるため、外光が強い場合、操作者が操作する指の画像の明瞭度が損なわれる場合がある。また、カメラで撮像した指の画像だけでは、指が半透明操作板1に接触しているのか、半透明操作板1の近傍で半透明操作板1に非接触であるのかの判定が難しい場合がある。
 また、従来の入力装置20では、半透明操作板1は外光を積極的に利用する構造であるため、車内が暗い場合には、半透明操作板1に光を当てる必要がある。しかし半透明操作板1に光が当たると、半透明操作板1内の場所による照射強度のばらつきが大きくなり、操作者の指の位置検出精度が悪くなる場合がある。
 図1は、本実施の形態における入力装置の分解斜視図である。図2は、本実施の形態における入力装置の内部構造を示す斜視図である。入力装置100は、操作部54Aと、赤外線発光素子42と、カメラ41と、制御回路32を有する。操作部54Aは、第1面(内表面)と、第1面の反対側の第2面(外表面)とを有する。赤外線発光素子42は、操作部54Aの第1面と対向するように配置され、操作部54Aの第1面に赤外線を照射する。カメラ41は、操作部54Aの第1面と対向するように配置され、操作部54Aの第1面の赤外線の画像を取得する。制御回路32は、赤外線発光素子42及びカメラ41に接続され、赤外線の画像により操作部54Aの第2面における接触位置を検出する。
 次に入力装置100の構造について、詳細に説明する。入力装置100は、下ケース21と、制御部22と、撮像部23と、押圧スイッチ24と、可動ユニット25と、上ケースユニット28とを備える。
 下ケース21は、上方が開口された方形の箱状であり、絶縁樹脂等で形成されている。下ケース21の中央にはH形状で上面が平らな突部21Aが設置されている。突部21Aの左側には所定の間隔を空けた二つのシャフト受け部21Bが設置されている。ここで、図1、図2に示すように、上ケースユニット28の手置き台配置部61Bが形成されている側(手置き台62が設置される側)を左側とし、手置き台配置部61Bが設置されていない側を右側とする。
 制御部22は、制御基板31A、31B、31Cと、制御回路32を有する。
 制御基板31A、31B、31Cは下ケース21内に収納されている。制御基板31Aは突部21Aの左側に配置されている。制御基板31B、31Cは突部21Aの右側に並んで配置されている。
 制御回路32は、マイコンやIC(Integrated Circuit)等の半導体素子から構成され、制御基板31Aの上面に配置されている。制御回路32は、カメラ41を通して操作者の操作を検出し、操作信号を入力装置100の外部に出力する。
 押圧スイッチ24は、突部21Aの右側で下ケース21の内底面に固定されている。押圧スイッチ24は、一辺が約1mm以上、3mm以下の方形で、厚みが約0.5mm以上、3mm以下であるのが好ましい。操作部54Aが押圧されることにより押圧スイッチ24のオンとオフが切り替わる。
 撮像部23は、赤外線を照射する機能と撮像する機能とを備えている。具体的には、撮像部23は、基板43と、複数の赤外線発光素子42と、カメラ41と、配線41Aとを有する。赤外線発光素子42は、例えば赤外線LED(Light Emitting Diode)で構成されている。撮像部23は、突部21Aの上面に配置されている。
 カメラ41は魚眼レンズを備えたカメラモジュールである。魚眼レンズとは中心射影方式でない射影方式のレンズである。魚眼レンズの画角は160度以上、310度以下が好ましい。なお、魚眼レンズ以外の広角レンズを使用することも可能であるが、その場合でも画角は160度以上、310度以下が好ましい。カメラ41は配線41Aに接続されており、配線41Aの一端は制御基板31Aに接続されている。
 基板43は、中央に孔43Aが設けられた配線基板である。孔43Aの周囲に等間隔で4つの赤外線発光素子42が配置されている。カメラ41が、突部21Aの上面と基板43との間に配置され、カメラ41の魚眼レンズが孔43Aから露出している。
 可動ユニット25は、モータ51と、モータホルダ52と、シャフトホルダ53と、シャフト26と、シャフト押さえ27と、操作板54とを有する。
 操作板54は、操作部54Aと、操作部54Aの開口部の外周から外方に突出したフランジ部54Bとを有する。操作部54Aは、中空で、開口部を有するドーム状に形成されている。
 カメラ41の魚眼レンズが、ドーム状の操作部54Aの中央の直下に配置されている。4つの赤外線発光素子42は、操作部54Aの内側になるように、カメラ41の周辺に配置されている。
 なお、操作部54Aはドーム状に形成されているが、ドーム状とは、半球状に限るものではなく、底面が楕円でも良く、フランジ部54Bに垂直方向の断面が楕円の一部の形状であっても良い。ただし、操作部54Aを半球状にすることにより、操作部54A内の場所による照射強度のばらつきをより小さくできるので、操作部54Aは半球状であることが好ましい。
 また、赤外線発光素子42の数は1つ或いは2以上の複数、いずれでも良い。複数の場合、カメラ41の周囲に同等の間隔で配置するのが好ましい。
 また、操作板54を押圧する場合、操作板54に荷重がかかる。操作部54Aを半球状とすることにより、操作部54Aにかかる荷重を操作部54Aの全体に分散できる。そのため、操作部54Aを半球状にすることが好ましい。
 また、フランジ部54Bを設けることにより、操作部54Aが押圧された場合、フランジ部54Bを介して押圧スイッチ24をオンにできる。この場合に、押圧スイッチ24にかかる荷重が分散されるので、押圧スイッチ24が保護される。
 モータホルダ52の孔52A内にモータ51が収納されている。モータホルダ52はフランジ部54Bの下面に固定されている。
 シャフト受け部21Bの上面の溝にシャフト26の両端が保持されている。シャフト26の両端の上面は、2つのシャフト押さえ27により固定されている。つまりシャフト26が外れないように、シャフト押さえ27によりシャフト26が押さえられている。
 シャフトホルダ53は、上面にシャフト溝53Aを有している。シャフト溝53Aとフランジ部54Bとの間にシャフト26の中央部が挿入されており、シャフトホルダ53はフランジ部54Bに固定されている。
 操作板54はシャフト26を軸として動作する。操作板54の動作は、押圧スイッチ24を押圧するための上下方向の動作になる。すなわち、シャフト26を軸として、操作板54のシャフト26の反対側が上下に動作する。操作板54が押圧されることにより、操作板54が上下方向に動作する。そして、モータホルダ52の底面が押圧スイッチ24を押圧する。また、操作板54にかかる押圧力を除くと、押圧スイッチ24は元の状態に復帰し、オフになる。
 上ケースユニット28は、上ケース61と手置き台62を有している。
 上ケース61の中央には孔61Aが形成されている。孔61Aの左側に手置き台配置部61Bが形成されている。上ケース61は絶縁樹脂等で形成されている。
 手置き台62は、手置き台配置部61Bに配置されている。手置き台62は絶縁樹脂等で形成されている。
 入力装置100の動作時には、制御回路32が4つの赤外線発光素子42を点灯する。また、制御回路32はカメラ41を駆動し、操作部54Aの内表面を撮像する。そして、操作者の指が操作部54Aに接触すると、接触した箇所の赤外線が指で反射されるため、接触した箇所の赤外線強度が強くなり、白く撮像される。制御回路32はカメラ41で撮像された画像から、操作者の指の接触位置及び接触している指の本数を判定し、操作信号として出力する。
 次に、操作板54の構造及び機能について、詳細に説明する。図3Aは、本実施の形態における入力装置100の操作板54の断面図である。
 図3Aに示すように、操作板54の操作部54Aは、その内表面から順に、拡散層73と、光減衰層72と、支持層71との三層を有している。なお、拡散層73と、光減衰層72と、支持層71は、この順番でなくても構わない。ただし、支持層71は、操作部54Aの耐久性を高めるために最も外側にあるのが好ましい。また、光学上の観点から、拡散層73は光減衰層72の内側にあるのが好ましい。よって図3Aに示す構造が好ましい。
 支持層71は、ポリカーボネートやアクリル樹脂等の樹脂材料で形成されており、可視光及び赤外線を透過する。
 光減衰層72は、大部分の赤外線を透過し、可視光を減衰する材料で形成されている。ここで、可視光とは約400nm以上、700nm以下の波長の光線であり、赤外線とは約800nm以上、1100nm以下の波長の光線である。光減衰層72は、可視光の透過率が0%以上、20%以下で、赤外線の透過率が70%以上、100%以下であるのが好ましい。光減衰層72は、支持層71の内表面を塗装することなどにより形成されている。
 拡散層73は、赤外線を拡散する半透明の層である。拡散層73は、その内部で赤外線が拡散し、かつその内部を赤外線が減衰しながら透過するように形成されている。拡散層73は、例えば透明な樹脂内に有色の塗料等の有機粒子を分散させることにより形成されている。拡散層73は、例えば、すりガラスのように乳白色の有色である。拡散層73は、赤外線及び可視光を全反射せず、拡散する。光減衰層72の内表面を塗装すること等により、拡散層73が形成されている。拡散層73の内表面は、マット塗装により凹凸を形成するのが好ましい。凹凸を形成することにより、可視光や赤外線の反射を抑制できると共に、赤外線の拡散を高められるため、赤外線画像のコントラストが向上する。
 また、赤外線が適切に拡散するように、拡散層73の厚みは、50μm以上、100μm以下にするのが好ましい。
 光L1が、操作部54Aの外側から操作部54Aに入射すると、光L1は光減衰層72により減衰し、弱い光L2として操作部54Aの内部に届く。そのため、カメラ41に入射される光は弱く、カメラ41で撮像される赤外線画像が鮮明となる。
 一方、赤外線発光素子42から操作部54Aの内表面に照射される赤外線L3は、拡散層73により拡散する。そのため、操作部54Aの外側に放射される赤外線L4は少なくなる。
 ここで、操作者が操作部54Aの外表面を指で触れると、拡散層73から出た赤外線が指で反射され、反射された赤外線L6として操作板54の内部に戻る。カメラ41で操作部54Aの内表面を撮像すると、指が接触した箇所は、接触していない箇所よりも明るくなる。その結果、指が接触した箇所のコントラストが高い赤外線画像が得られる。
 次に、図3A、3Bと図4A、4Bとを比較して、拡散層73の効果を説明する。図3Bは、操作部54Aを用いた場合の赤外線画像である。操作部54Aは、支持層71と、光減衰層72と、拡散層73で構成されている。図4Aは、本実施の形態における操作板64の断面図である。図4Bは、操作部64Aを用いた場合の赤外線画像である。操作部64Aは、支持層71と、光減衰層72で構成されている。その他の構成は、図1、図2と同様である。
 図3B、図4Bは、操作者が操作部54A、64Aに5本の指を接触させ、手の平を接触させていない状態で、カメラ41により操作部54A、64Aの内表面を撮像した赤外線画像である。赤外線の反射が強い部分は白く撮像されている。
 操作板64には拡散層73が設けられていないので、赤外線が十分に拡散されていない。そのため図4Bに示すように、手の平81は、指先82よりも操作部64Aから離れているが、反射領域が広いため、指先82よりもやや白く撮像されている。その結果、指先82が操作板54に接しているかどうか不明瞭である。また、操作部64Aの外側に蛍光灯83が存在する場合、蛍光灯83から操作部64Aに赤外線が放射される。そのために、図4Bに示すように、蛍光灯83が撮像されてしまう。その結果、指先82と蛍光灯83との区別が困難になる場合がある。
 これに対して、操作部54Aには拡散層73が設けられている。赤外線が拡散層73で拡散されるので、図3Bに示すように、指先82がはっきりと白く撮像されている。手の平81は、指先82に比べ、到達する赤外線が少ないため、やや暗く撮像されている。さらに、操作部54Aの外側から操作部54Aに赤外線が到達しても、拡散層73で赤外線が拡散される。そのために、図4Bに示すような蛍光灯83は撮像されていない。その結果、指先82が容易に検出される。
 図4Aに示すように、操作部64Aを支持層71と、光減衰層72とで構成してもよい。あるいは操作部64Aを光減衰層72だけで構成してもよい。操作部64Aを光減衰層72だけで構成する場合、強度を確保するため、光減衰層72は光透過性樹脂と赤外線透過インクなどを混合して形成するのが好ましい。しかし、拡散層73を形成することにより、操作部54Aに対する指の接触、非接触の差が明確になり、コントラストが向上するので、拡散層73を形成するのが好ましい。図3Aの構成によれば、操作板54内の場所による照射強度のばらつきが抑制されるため、操作者の指の接触位置の検出精度が向上する。
 図5は、本実施の形態における操作板154の断面図である。図5に示すように、操作板154の操作部154Aは、その内表面から順に、拡散層173と光減衰層172の二層でもよい。そして、フランジ部154Bは、光減衰層172を延出させて形成してもよい。この場合も、操作板154の強度を確保するため、光減衰層172は光透過性樹脂と赤外線透過インクなどを混合して形成するのが好ましい。なお、拡散層173と光減衰層172は、図5に示す順番で構成されていなくても構わない。ただし、光学上の観点から、拡散層173は光減衰層172の内側にあるのが好ましい。よって図5に示す構造が好ましい。
 図6は、本実施の形態における入力装置100が車内に配置された状態を示す斜視図である。図7は、本実施の形態における入力装置100に接続されるディスプレイ101の表示を示す図である。入力装置100は、例えば、車内で運転席と助手席の間に配置される。そして、入力装置100はケーブル或いはハーネス等を介して、ディスプレイ101や、カーナビゲーションシステムや、オーディオシステムなどの電子機器(図示せず)に接続される。そして、入力装置100から入力された操作信号に応じて電子機器が制御される。
 例えば、カーナビゲーションシステムによりディスプレイ101に地図が表示されている状態で、操作者が手置き台62に手の平を置いて、複数の指先を操作部54Aに接触させると、図7のような操作画面がディスプレイ101に表示される。なお、操作部54Aに指先が接触している状態では、モータ51が駆動しているため、操作者は、指先で振動或いは擬似的な触覚を感じられる。
 ディスプレイ101には、地図表示121と、自車表示122と、アイコン123A~123Dと、ポインタ124が表示される。なお、アイコン123Aは空調機能に、アイコン123Bは他の車両との通信機能に、アイコン123Cはオーディオ機能に、アイコン123Dは電話機能に対応している。
 この状態で、操作者が、複数の指先で操作部54Aに触れながら指の間隔を広げる操作(ピンチアウト操作)を行うと、ディスプレイ101の地図の表示が自車表示122を中央にした詳細表示に変化する。また、複数の指先で操作部54Aに触れながら指の間隔を狭める操作(ピンチイン操作)を行うと、ディスプレイ101の地図の表示が自車表示122を中央にした広域表示に変化する。
 また、操作者が一本の指を使って操作部54Aの上面を接触しながらスライド操作すると、メニュー画面に表示されたポインタ124が所望の方向に移動する。
 例えばアイコン123Cの上にポインタ124を移動させ、操作部54Aを押圧すると、押圧スイッチ24がオンになり、選択したアイコン123Cが確定される。そして、ディスプレイ101の表示はオーディオシステムのメニュー画面に切り替わる。
 図8Aは、本実施の形態における操作板254の下面図である。図8Bは、本実施の形態における操作板354の下面図である。操作板254は、操作部254Aと、操作部254Aの下部から外方に突出したフランジ部254Bとを有する。操作部254Aは、中空のドーム状に形成されている。操作板354は、操作部354Aと、操作部354Aの下部から外方に突出したフランジ部354Bとを有する。操作部354Aは、中空のドーム状に形成されている。その他の構成は、図1、図2と同様である。
 図8A、図8Bに示すように、操作部254A、354Aの内表面にキャリブレーションを行うための補正パターン255A、255B、255Cが形成されていても良い。操作部254Aには、線状で所定位置に目盛りが描かれた補正パターン255Aと、記号による補正パターン255Bが描かれている。また、操作部354Aには、格子状の補正パターン255Cが描かれている。
 なお、操作部254A、354A内に補正パターン255A、255B、255Cを描いたフィルムがインモールド成形されていても良い。また、操作部254A、354Aの内表面にレーザ加工や印刷により補正パターン255A、255B、255Cが形成されていても良い。
 補正パターン255A、255B、255Cを形成することにより、カメラ41により撮像された画像から、指の検出位置を判定する際に、基準となる座標のキャリブレーション処理が可能となる。すなわち、補正パターン255Aの目盛りの交差箇所や、補正パターン255Cの格子模様の交差箇所などで、座標補正や輝度補正が可能となる。また、補正パターン255A、255B、255Cの箇所で赤外線が反射されるため、補正パターン255A、255B、255Cでの赤外線の反射強度が安定する。そのため、補正パターン255A、255B、255Cを形成することにより、赤外線発光素子42が発生する光量の調整が可能となる。その結果、指の接触と非接触のコントラストが向上し、操作者の指の接触位置の検出精度が向上する。
 なお、本実施の形態では操作部54Aはドーム状として説明したが、ドーム状に限らず、平板状でもよい。
 また、光減衰層72の可視光の透過率が0%以上、20%以下であり、拡散層73の厚みが50μm以上、100μm以下であるのが好ましい。この構成により、赤外線画像のコントラストが向上する。
 以上のように本実施の形態によれば、操作部54Aに対する操作者の指の接触、非接触の違いが明確になり、コントラストが向上する。そのため、操作部54Aに対する指の接触位置の検出精度が向上する。その結果、指の接触、非接触の判定に適した入力装置が得られる。
 本実施の形態による入力装置は、操作者の指の接触位置の検出精度が高いため、検出の判定に適しており、主に車載用として有用である。
 21 下ケース
 21A 突部
 21B シャフト受け部
 22 制御部
 23 撮像部
 24 押圧スイッチ
 25 可動ユニット
 26 シャフト
 27 シャフト押さえ
 28 上ケースユニット
 31A~31C 制御基板
 32 制御回路
 41 カメラ
 41A 配線
 42 赤外線発光素子
 43 基板
 43A 孔
 51 モータ
 52 モータホルダ
 52A 孔
 53 シャフトホルダ
 53A シャフト溝
 54,64,154,254,354 操作板
 54A,64A,154A,254A,354A 操作部
 54B,154B,254B,354B フランジ部
 61 上ケース
 61A 孔
 61B 手置き台配置部
 62 手置き台
 71 支持層
 72,172 光減衰層
 73,173 拡散層
 81 手の平
 82 指先
 83 蛍光灯
 100 入力装置
 101 ディスプレイ
 121 地図表示
 122 自車表示
 123A,123B,123C,123D アイコン
 124 ポインタ
 255A,255B,255C 補正パターン
 L1,L2 光
 L3,L4,L6 赤外線

Claims (17)

  1. 第1面と、前記第1面の反対側の第2面とを有する操作部と、
    前記操作部の前記第1面と対向するように配置され、前記操作部の前記第1面に赤外線を照射する赤外線発光素子と、
    前記操作部の前記第1面と対向するように配置され、前記操作部の前記第1面の前記赤外線の画像を取得するカメラと、
    前記赤外線発光素子及び前記カメラに接続され、前記画像により前記操作部の前記第2面における接触位置を検出する制御回路と、
    を備えた
    入力装置。
  2. 前記操作部は、光を減衰する光減衰層を有する
    請求項1記載の入力装置。
  3. 前記操作部は、前記光減衰層の前記赤外線発光素子に対向する面と反対側の面に支持層をさらに有する
    請求項2記載の入力装置。
  4. 前記操作部は、前記支持層の前記赤外線発光素子に対向する面の側に、前記赤外線を拡散する拡散層をさらに有する
    請求項3記載の入力装置。
  5. 前記拡散層は、前記光減衰層の前記赤外線発光素子に対向する面に形成されている
    請求項4記載の入力装置。
  6. 前記操作部は、前記赤外線を拡散する拡散層をさらに有する
    請求項2記載の入力装置。
  7. 前記拡散層の厚みは、50μm以上、100μm以下である
    請求項6記載の入力装置。
  8. 前記拡散層の前記赤外線発光素子に対向する面には、マット塗装により凹凸が形成されている
    請求項6記載の入力装置。
  9. 前記光減衰層において、前記可視光の透過率は0%以上、20%以下であり、前記赤外線の透過率は70%以上、100%以下である
    請求項2記載の入力装置。
  10. 前記操作部は、前記第1面を内側、前記第2面を外側とするドーム状である
    請求項1記載の入力装置。
  11. 前記操作部は、半球状である
    請求項10記載の入力装置。
  12. 前記ドーム状の前記操作部の外周から外方に突出したフランジ部をさらに有する
    請求項10記載の入力装置。
  13. 前記操作部が押圧されることにより、前記フランジ部を介してオンになる押圧スイッチをさらに有する
    請求項12記載の入力装置。
  14. 前記カメラは、画角が160度以上、310度以下の広角レンズを有している
    請求項1記載の入力装置。
  15. 前記操作部の前記第1面にキャリブレーションを行うための補正パターンが形成されている
    請求項1記載の入力装置。
  16. 前記補正パターンは、前記赤外線を反射させる目盛りである
    請求項15記載の入力装置。
  17. 前記補正パターンは、前記赤外線を反射させる格子状のパターンである
    請求項15記載の入力装置。
PCT/JP2013/007065 2012-12-03 2013-12-03 入力装置 WO2014087634A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-264044 2012-12-03
JP2012264042 2012-12-03
JP2012-264042 2012-12-03
JP2012264044 2012-12-03

Publications (1)

Publication Number Publication Date
WO2014087634A1 true WO2014087634A1 (ja) 2014-06-12

Family

ID=50883076

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/007065 WO2014087634A1 (ja) 2012-12-03 2013-12-03 入力装置

Country Status (1)

Country Link
WO (1) WO2014087634A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014951A (ja) * 1999-06-28 2001-01-19 Toyobo Co Ltd 透明導電性フィルムおよびタッチパネル
JP2002062983A (ja) * 2000-08-21 2002-02-28 Hitachi Ltd ポインティングデバイス
JP2009087264A (ja) * 2007-10-02 2009-04-23 Alps Electric Co Ltd 中空型スイッチ装置及びこれを備えた電子機器
JP2009116586A (ja) * 2007-11-06 2009-05-28 Denso Corp タッチ式操作入力装置
JP2011513828A (ja) * 2008-02-29 2011-04-28 マイクロソフト コーポレーション 切替え可能なディフューザを備える対話型サーフェイスコンピュータ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014951A (ja) * 1999-06-28 2001-01-19 Toyobo Co Ltd 透明導電性フィルムおよびタッチパネル
JP2002062983A (ja) * 2000-08-21 2002-02-28 Hitachi Ltd ポインティングデバイス
JP2009087264A (ja) * 2007-10-02 2009-04-23 Alps Electric Co Ltd 中空型スイッチ装置及びこれを備えた電子機器
JP2009116586A (ja) * 2007-11-06 2009-05-28 Denso Corp タッチ式操作入力装置
JP2011513828A (ja) * 2008-02-29 2011-04-28 マイクロソフト コーポレーション 切替え可能なディフューザを備える対話型サーフェイスコンピュータ

Similar Documents

Publication Publication Date Title
JP6270898B2 (ja) 非接触入力方法
CN101567154B (zh) 显示装置
US8039779B2 (en) Electronic device
WO2008004101A2 (en) Optical touchpad system and waveguide for use therein
CN104854553A (zh) 在方向盘和仪表板上的光基触摸控制件
KR20090084767A (ko) 입력 장치 및 이미지 장치
KR101484229B1 (ko) 차량용 터치 디스플레이 장치 및 그 구동 방법
US11798758B2 (en) Steering switch device and steering switch system
WO2014021063A1 (ja) 操作装置
JP2019040802A (ja) 車両用スイッチ装置
US8542218B2 (en) Electronic switch apparatus for vehicle
CN1811682A (zh) 输入装置及触摸读取字符/符号输入方法
JP2014142777A (ja) タッチパネル入力操作装置
CN113165515B (zh) 驾驶员用户界面传感器
US20140028744A1 (en) Information reading device
WO2014087634A1 (ja) 入力装置
JP2017208185A (ja) 入力装置
JP2014153905A (ja) 入力装置
CN209676283U (zh) 一种按键以及电子设备
JP2008176761A (ja) 操作入力装置およびそれを用いた電気機器制御装置。
JP5575708B2 (ja) タッチ操作入力装置
JP2010211612A (ja) 入力装置及び車両機器
JP5950349B2 (ja) 照光機能付き入力装置
JP2015019279A (ja) 電子機器
JP5957611B1 (ja) 非接触入力装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13860992

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13860992

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP