WO2023234075A1 - 力覚センサ、センサモジュールおよびロボットハンド - Google Patents

力覚センサ、センサモジュールおよびロボットハンド Download PDF

Info

Publication number
WO2023234075A1
WO2023234075A1 PCT/JP2023/018789 JP2023018789W WO2023234075A1 WO 2023234075 A1 WO2023234075 A1 WO 2023234075A1 JP 2023018789 W JP2023018789 W JP 2023018789W WO 2023234075 A1 WO2023234075 A1 WO 2023234075A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
light receiving
section
sensor
layer
Prior art date
Application number
PCT/JP2023/018789
Other languages
English (en)
French (fr)
Inventor
章裕 野元
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023234075A1 publication Critical patent/WO2023234075A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/16Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring several components of force
    • G01L5/166Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for measuring several components of force using photoelectric means

Definitions

  • the present disclosure relates to a force sensor, a sensor module including the same, and a robot hand.
  • An optical three-axis force sensor typically includes a light source, a reflector, and two pairs of light receiving sections as components. Of the two pairs of light receiving sections, the first pair of light receiving sections is arranged in the X direction, and the second pair of light receiving sections is arranged in the Y direction (see, for example, Patent Document 1).
  • the dynamic range may become narrow and the sensitivity may decrease.
  • An object of the present disclosure is to provide a force sensor that can obtain a wide dynamic range and high sensitivity, a sensor module including the same, and a robot hand.
  • a first force sensor includes: a group of light receiving parts; a reflecting section provided above the light receiving section group; an elastic body provided between the reflecting section and the light receiving section group;
  • the light receiving group is four or more first light receiving sections arranged in a first direction; and four or more second light receiving sections arranged in a second direction orthogonal to the first direction.
  • the second force sensor includes: A plurality of light receiving unit groups, a plurality of reflection parts provided above each light receiving part group; an elastic layer provided between a plurality of reflective sections and a plurality of light receiving section groups;
  • the light receiving group is four or more first light receiving sections arranged in a first direction; and four or more second light receiving sections arranged in a second direction orthogonal to the first direction.
  • a sensor module according to the present disclosure includes at least one of the first force sensor and the second force sensor.
  • the robot hand according to the present disclosure includes at least one of the first force sensor and the second force sensor.
  • FIG. 1 is a block diagram showing an example of the configuration of a sensor module according to an embodiment.
  • FIG. 2 is a cross-sectional view showing an example of the configuration of the sensor.
  • FIG. 3 is a plan view showing an example of the configuration of the light receiving unit group.
  • FIG. 4 is a graph showing an example of the output signal difference SX A1,A4 , the output signal difference SX A2, A4 , and the output signal difference SX A3, A6 .
  • FIG. 5 is a graph showing an example of the output signal difference SY B1,B4 , the output signal difference SY B2, B4 , and the output signal difference SY B3, B6 .
  • FIG. 1 is a block diagram showing an example of the configuration of a sensor module according to an embodiment.
  • FIG. 2 is a cross-sectional view showing an example of the configuration of the sensor.
  • FIG. 3 is a plan view showing an example of the configuration of the light receiving unit group.
  • FIG. 4 is a graph showing an example
  • FIG. 7A is a graph showing an example of the difference between the output signals SX A1 and A4 .
  • FIG. 7B is a graph showing an example of the difference between the output signals SX A2 and A5 .
  • FIG. 7C is a graph showing an example of the difference between the output signals SX A3 and A6 .
  • FIG. 8A is a schematic diagram illustrating an example of a region R A1, A4 in which the output signal difference SX A1, A4 has a small error.
  • FIG. 8B is a schematic diagram illustrating an example of a region R A2, A5 in which the output signal difference SX A2, A5 has a small error.
  • FIG. 8A is a schematic diagram illustrating an example of a region R A1, A4 in which the output signal difference SX A1, A4 has a small error.
  • FIG. 8B is a schematic diagram illustrating an example of a region R A2, A5 in which the output signal difference SX A2, A5 has a small error.
  • FIG. 8C is a schematic diagram illustrating an example of a region R A3, A6 in which the output signal difference SX A3, A6 has a small error.
  • FIG. 8D is a schematic diagram showing an example of a region R A1, A6 in which the region R A1, A4 , the region R A2, A5 , and the region R A3 , A6 are integrated.
  • FIG. 9A is a graph showing an example of the difference between the output signals SY B1 and B4 .
  • FIG. 9B is a graph showing an example of the difference between the output signals SY B2 and B5 .
  • FIG. 9C is a graph showing an example of the difference between the output signals SY B3 and B6 .
  • FIG. 10A is a schematic diagram illustrating an example of regions R A1, A4 in which the output signal differences SY B1, B4 have small errors.
  • FIG. 10B is a schematic diagram illustrating an example of a region R A2, A5 in which the output signal difference SY B2, B5 has a small error.
  • FIG. 10C is a schematic diagram showing an example of a region R A3, A6 in which the output signal difference SY B3, B6 has a small error.
  • FIG. 10D is a schematic diagram showing an example of a region R B1, B6 in which the region R B1, B4 , the region R B2, B5 , and the region R B3 , B6 are integrated.
  • FIG. 11 is a flowchart for explaining an example of the force FZ detection operation by the sensor module.
  • FIG. 12 is a flowchart for explaining an example of the first detection operation of the forces F X and F Y by the sensor module.
  • FIG. 13 is a flowchart for explaining an example of the second detection operation of the forces F X and F Y by the sensor module.
  • FIG. 14A is a side view showing a model for optical simulation.
  • FIG. 14B is a plan view showing an optical simulation model.
  • FIG. 15 is a diagram showing the illuminance distribution determined by optical simulation.
  • FIG. 16A is a diagram showing the signal sum SZ obtained by optical simulation.
  • FIG. 16B is a graph showing the signal sum SZ at the position of the broken line in FIG. 16A.
  • FIG. 17A is a diagram showing the output signal difference SX determined by optical simulation.
  • FIG. 17B is a graph showing the output signal difference SX at the position of the broken line in FIG. 17A.
  • FIG. 18 is a diagram showing the output signal difference SY determined by optical simulation.
  • FIG. 19A is a perspective view showing an example of the shape of a sensor of Modification 1.
  • FIG. 19B is a cross-sectional view taken along line XIXB-XIXB in FIG. 19A.
  • FIG. 20 is an enlarged cross-sectional view of a portion of FIG. 19B.
  • FIG. 21 is a cross-sectional view showing an example of the configuration of a sensor according to modification 2.
  • FIG. 22 is a cross-sectional view showing an example of the configuration of a sensor according to modification 3.
  • FIG. 19A is a perspective view showing an example of the shape of a sensor of Modification 1.
  • FIG. 19B is a cross-sectional view taken along line XIXB-XIXB in FIG. 19A.
  • FIG. 20 is an enlarged cross-
  • FIG. 23 is a cross-sectional view showing an example of the configuration of a sensor according to modification 4.
  • FIG. 24 is a cross-sectional view showing an example of the configuration of a sensor according to modification 5.
  • FIG. 25 is a sectional view showing an example of the configuration of a sensor according to modification 6.
  • FIG. 26 is a cross-sectional view showing an example of the configuration of a sensor according to modification 7.
  • FIG. 27 is a cross-sectional view showing an example of the configuration of a sensor according to modification 8.
  • FIG. 28 is a cross-sectional view showing an example of the configuration of a sensor according to modification 9.
  • FIG. 29 is a plan view showing an example of the configuration of the light receiving section.
  • FIG. 30 is a sectional view showing an example of the configuration of a sensor according to modification 10.
  • FIG. 31 is a cross-sectional view showing an example of the configuration of a sensor according to modification 11.
  • FIG. 32 is a plan view showing an example of the configuration of a light receiving unit group according to modification 12.
  • FIG. 33 is a plan view showing an example of the configuration of the light receiving section.
  • FIG. 34 is a plan view for explaining an example of the detection operation of the forces F X and F Y by the sensor module.
  • FIG. 35 is a plan view for explaining an example of the detection operation of the forces F X and F Y by the sensor module.
  • FIG. 36 is a plan view for explaining an example of the detection operation of the forces F X and F Y by the sensor module.
  • FIG. 37 is a plan view for explaining an example of the detection operation of the forces F X and F Y by the sensor module.
  • FIG. 38 is a plan view showing an example of the configuration of a light receiving unit group according to modification 13.
  • FIG. 39 is a schematic diagram showing an example of the configuration of the robot hand of Specific Example 1.
  • FIG. 40 is a schematic diagram showing an example of the configuration of a robot hand according to specific example 2.
  • FIG. 41 is a schematic diagram showing an example of the configuration of a robot hand according to specific example 3.
  • FIG. 1 is a block diagram showing an example of the configuration of a sensor module 10 according to an embodiment.
  • the sensor module 10 includes a sensor 20 and an IC 11.
  • the sensor module 10 may be included in a robot hand, an electronic device, or the like.
  • the sensor module 10 is connected to, for example, a main CPU (Central Processing Unit) 12A included in the host device 12.
  • a main CPU Central Processing Unit
  • FIG. 2 is a cross-sectional view showing an example of the configuration of the sensor 20.
  • the sensor 20 is an optical three-axis force sensor.
  • the sensor 20 includes a base material 21 , a light source 22 , a light receiving section group 23 , an elastic body 24 , a reflecting section 25 , and a light shielding layer 26 .
  • the sensor 20 has a dome shape.
  • the dome shape refers to a hemispherical shape or a convex shape similar to the hemispherical shape.
  • the convex shape includes shapes such as a substantially parabolic shape, a substantially hemispherical shape, and a substantially semiellipsoidal shape.
  • the sensor 20 has a central axis 20L that passes through the top of the dome-shaped curved surface and the center of the circular bottom surface when no force is applied to the dome-shaped curved surface of the sensor 20.
  • the base material 21 supports the light source 22, the light receiving unit group 23, the elastic body 24, and the light shielding layer 26.
  • the base material 21 has a first surface facing the reflective section 25 and a second surface opposite to the first surface.
  • the direction parallel to the central axis 20L that is, the direction perpendicular to the first surface of the base material 21 is referred to as the Z direction (third direction).
  • Two directions that are orthogonal to the Z direction and mutually orthogonal, that is, two directions that are orthogonal to each other in a plane parallel to the first surface of the base material 21 are referred to as the X direction (first direction) and the Y direction (second direction).
  • the first surface and the second surface have a circular shape in plan view.
  • a planar view refers to a planar view when the object is viewed from the +Z direction or the -Z direction.
  • the base material 21 may include a light absorption layer on the first surface side.
  • the light source 22, the light receiving unit group 23, the elastic body 24, and the light shielding layer 26 are provided on the first surface of the base material 21.
  • the light source 22 and/or the light receiving unit group 23 may be directly formed on the first surface of the base material 21, or may be bonded together.
  • "and/or” means at least one of them; for example, "X and/or Y” means three types: X only, Y only, and X and Y.
  • the center position of the reflective surface of the reflective section 25 in the Z direction with respect to the first surface of the base material 21 is referred to as the height Z of the reflective section 25 or the position Z of the reflective section 25.
  • the center position of the reflective surface of the reflective section 25 in the X direction with respect to the central axis 20h of the base material 21 is referred to as the position X of the reflective section 25.
  • the center position of the reflective surface of the reflective section 25 in the Y direction with respect to the central axis 20h of the base material 21 is referred to as a position Y of the reflective section 25.
  • the reflective surface center position represents the geometric center position of the reflective surface in plan view.
  • the base material 21 is, for example, a substrate or a film.
  • the substrate may be rigid or flexible.
  • the substrate may be made of, for example, a semiconductor in which the light source 22 and/or the light receiving unit group 23, etc. can be easily formed, or may be made of glass or resin that has low moisture and oxygen permeability.
  • the substrate may be a semiconductor substrate, a glass substrate, a resin substrate, or the like.
  • the semiconductor substrate includes, for example, amorphous silicon, polycrystalline silicon, single crystal silicon, or the like.
  • the glass substrate includes, for example, high strain point glass, soda glass, borosilicate glass, forsterite, lead glass, or quartz glass.
  • the resin substrate includes, for example, at least one selected from the group consisting of polymethyl methacrylate, polyvinyl alcohol, polyvinylphenol, polyether sulfone, polyimide, polycarbonate, polyethylene terephthalate, polyethylene naphthalate, and the like.
  • the base material 21 may include an insulating layer on the first surface side, if necessary.
  • the light source 22 can emit light toward the reflecting section 25 .
  • the light that the light source 22 can emit is not particularly limited, and may be any of visible light, ultraviolet light, and infrared light, for example.
  • the visible light may be white light, red light, green light, blue light, or light of a color other than these.
  • the light source 22 is provided at the geometric center of the first surface of the base material 21 .
  • the light source 22 is located directly below the reflecting section 25 in a state where no force is acting on the dome-shaped curved surface of the sensor 20.
  • the geometric center position of the light emitting surface of the light source 22 (hereinafter simply referred to as "center position of the light source 22") is located on the central axis 20L when no force is acting on the dome-shaped curved surface of the sensor 20.
  • the light source 22 includes, for example, a light emitting element such as an LED (Light Emitting Diode) element, an LD (Laser Diode) element, an SLD (Super Luminescent Diode) element, or an OLED (Organic Light Emitting Diode) element.
  • the light source 22 may be an SMD (Surface Mount Device) in which a light emitting element is packaged, or may be a light emitting element wired on the base material 21 by wire bonding or the like.
  • FIG. 3 is a plan view showing an example of the configuration of the light receiving unit group 23.
  • the light receiving section group 23 includes first light receiving sections 23A 1 to 23A 6 and second light receiving sections 23B 1 to 23B 6 .
  • the first light receiving sections 23A 1 to 23A 6 may be collectively referred to as the first light receiving section 23A.
  • the second light receiving sections 23B 1 to 23B 6 may be collectively referred to as the second light receiving section 23B.
  • the sensor 20 includes six first light receiving sections 23A 1 to 23A 6 and six second light receiving sections 23B 1 to 23B 6 .
  • the number of second light receiving sections 23B is not limited to this.
  • the number of first light receiving sections 23A and second light receiving sections 23B may be four, five, or seven or more. It is preferable that the number of first light receiving sections 23A and second light receiving sections 23B is an even number.
  • the first light receiving sections 23A 1 , 23A 6 and the second light receiving sections 23B 1 , 23B 6 may be used when the height Z of the reflecting section 25 is high, for example, when the height Z is in the range h 1 ⁇ Z. good.
  • the first light receiving sections 23A 3 , 23A 4 and the second light receiving sections 23B 3 , 23B 4 are used when the height Z of the reflecting section 25 is low, for example, when the height Z of the reflecting section 25 is in the range of Z ⁇ h 2 . May be used for.
  • the first light receiving sections 23A 2 , 23A 5 and the second light receiving sections 23B 2 , 23B 5 may be used, for example, when Z is in the range h 2 ⁇ Z ⁇ h 1 .
  • all of the first light receiving sections 23A 1 to 23A 6 may be used regardless of the height Z of the reflecting section 25.
  • the second light receiving sections 23B 1 to 23B 6 are switched and used as a pair, all of the second light receiving sections 23B 1 to 23B 6 may be used regardless of the height Z of the reflecting section 25.
  • the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 can receive the light reflected by the reflecting section 25.
  • the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 can convert the received light into electrical signals and supply them to the IC 11.
  • the first light receiving sections 23A 1 to 23A 6 are arranged in the X direction and form a column.
  • the first light receiving sections 23A 1 to 23A 6 forming the row are arranged symmetrically with respect to the center of the light receiving section group 23, that is, with respect to the geometric center of the light source 22.
  • the second light receiving sections 23B 1 to 23B 6 are arranged in the Y direction and form a column.
  • the second light receiving sections 23B 1 to 23B 6 forming the row are arranged symmetrically with respect to the center of the light receiving section group 23, that is, with respect to the geometric center of the light source 22.
  • Each of the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 includes one or more light receiving elements.
  • the light receiving element is, for example, a photodiode, an avalanche photodiode, or a phototransistor.
  • the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 may each be an SMD (Surface Mount Device) in which one or more light receiving elements are packaged, or may be formed by wire bonding or the like. It may be one or more light receiving elements wired on the base material 21.
  • SMD Surface Mount Device
  • the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 may be mounted on the base material 21 via connecting members such as bumps, or may be mounted on the base material 21 by patterning, for example, amorphous silicon or the like. Accordingly, it may be formed directly on the base material 21.
  • h is the height of the reflective surface of the reflective section 25 with respect to the first surface of the base material 21.
  • D is the distance from the center position of the light source 22 (that is, the intersection position of the central axis 20L and the first surface of the base material 21) to the center position of the first light receiving part 23A 2 or the center position of the second light receiving part 23B 2 . be.
  • the center position of the first light receiving part 23A 2 and the second light receiving part 23B 2 represents the geometric center position of the first light receiving part 23A 2 and the second light receiving part 23B 2 in plan view.
  • the center position of the light source 22 represents the geometric center position of the light output surface of the light source 22 in plan view.
  • the arrangement of the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 is preferably adjusted based on a state in which the distance between the reflecting section 25 and the base material 21 is close.
  • the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 have a light distribution distribution of reflected light by the reflecting section 25 (see FIG. ) is preferably provided within a linear region that changes approximately linearly.
  • the light distribution of the light reflected by the reflecting section 25 described above is the light distribution of the light reflected by the reflecting section 25 in a state where no forces are acting on the sensor 20 in the ⁇ X direction, ⁇ Y direction, and -Z direction.
  • the light distribution may be as follows.
  • the elastic body 24 can be elastically deformed in the ⁇ X direction, ⁇ Y direction, and ⁇ Z direction.
  • the elastic body 24 is transparent to the light emitted from the light source 22.
  • the light source 22 is configured to emit visible light such as white light, red light, green light, or blue light
  • the elastic body 24 is transparent to visible light. It's okay.
  • the elastic body 24 may be colored.
  • the elastic body 24 has a dome shape.
  • the elastic body 24 supports the reflective section 25 at its dome-shaped top.
  • the elastic body 24 is provided between the reflecting section 25 and the light receiving section group 23.
  • the elastic body 24 is arranged on the first surface of the base material 21 such that the bottom surface of the elastic body 24 is on the first surface side of the base material 21.
  • the elastic body 24 includes, for example, at least one of an elastomer and a gel.
  • the elastomer includes, for example, at least one selected from the group consisting of silicone elastomer, acrylic elastomer, urethane elastomer, styrene elastomer, and the like.
  • the gel includes, for example, at least one polymer gel selected from the group consisting of silicone gel, urethane gel, acrylic gel, and styrene gel.
  • materials having various hardnesses can be selected. By selecting the material hardness of the elastic body 24, it is possible to adjust the sensitivity range of the sensor 20.
  • the reflecting section 25 can reflect the light emitted from the light source 22 toward the first surface of the base material 21 . That is, the reflecting section 25 can reflect the light emitted from the light source 22 toward the first surface of the light receiving section group 23 .
  • the reflection by the reflection section 25 is, for example, specular reflection or diffuse reflection.
  • the reflecting portion 25 has, for example, a reflecting surface that reflects the light emitted from the light source 22 and a back surface opposite to the reflecting surface.
  • the reflective surface is, for example, a mirror surface or a diffusive surface.
  • the reflecting section 25 is provided above the light receiving section group 23.
  • the reflector 25 is located directly above the light source 22 when no force is applied to the dome-shaped curved surface of the sensor 20 .
  • the geometric center position of the reflective surface of the reflective section 25 (hereinafter simply referred to as "center position of the reflective section 25") is aligned with the central axis 20L. located above.
  • the reflective surface of the reflective section 25 is held parallel to the first surface of the base material 21.
  • the reflective section 25 is held on the top of the elastic body 24.
  • the center position (position in the X direction, Y direction, and Z direction) of the reflecting part 25 changes as the elastic body 24 deforms. Due to this positional change, the orientation distribution of reflected light by the reflecting section 25 is changed.
  • the reflecting portion 25 has, for example, a circular shape or a regular polygonal shape (for example, a square shape) in plan view.
  • the reflective section 25 is a reflective layer capable of specular reflection or a diffuse reflective layer capable of diffuse reflection (scattering).
  • the reflective layer is, for example, a metal layer.
  • the metal layer include chromium (Cr), gold (Au), platinum (Pt), nickel (Ni), copper (Cu), molybdenum (Mo), titanium (Ti), tantalum (Ta), and aluminum (Al). , magnesium (Mg), iron (Fe), tungsten (W), and silver (Ag).
  • the diffuse reflection layer contains particles as light scatterers, for example. More specifically, the diffuse reflection layer is a white layer containing white silicone or the like, a white film (eg, white PET film), or the like.
  • the light shielding layer 26 can absorb incident light.
  • the incident light is, for example, external light, light emitted from the light source 22, or the like.
  • the light shielding layer 26 can be deformed together with the elastic body 24.
  • the light shielding layer 26 is provided on the dome-shaped curved surface of the elastic body 24 and covers the dome-shaped curved surface of the elastic body 24 and the back surface (the surface opposite to the reflective surface) of the reflective section 25.
  • the light-shielding layer 26 includes, for example, a light-absorbing material and a binder.
  • the light absorbing material includes, for example, a black pigment.
  • the black pigment includes, for example, at least one selected from the group consisting of carbon black, titanium black, and the like. Titanium black is black particles containing titanium atoms, and preferably contains at least one of lower titanium oxide and titanium oxynitride. The black pigment may be surface-modified as necessary for the purpose of improving dispersibility and suppressing agglomeration.
  • the light shielding layer 26 may contain, for example, black silicone.
  • the binder has elasticity.
  • the binder includes, for example, at least one selected from the group consisting of silicone resins, acrylic resins, urethane resins, and the like.
  • the IC 11 drives the light source 22 and causes the light source 22 to emit light toward the reflecting section 25 .
  • the IC 11 scans the first light receiving portions 23A 1 to 23A 6 and the second light receiving portions 23B 1 to 23B 6 , obtains output signals S A1 to S A6 from the first light receiving portions 23A 1 to 23A 6 , and scans the second light receiving portions 23A 1 to 23A 6 .
  • Output signals S B1 to S B6 are obtained from 23B 1 to 23B 6 .
  • the order in which the IC 11 scans the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 is not particularly limited.
  • the distance between the center position of the reflection part 25 and the base material 21 becomes shorter (that is, as the center position of the reflection part 25 in the Z direction becomes lower), the light distribution of the light reflected by the reflection part 25 is reduced. Therefore, as the distance between the center position of the reflecting section 25 and the base material 21 becomes shorter, the area where the detection error of the sum SZ of the output signals is small with respect to a change in the position of the reflecting section 25 in the X and Y directions becomes narrower.
  • the region in which the detection error of the sum SZ of the output signals is small represents a region in which the sum SZ of the output signals remains approximately constant with respect to changes in the position of the reflecting section 25 in the X and Y directions.
  • the sum SZ of the output signals corresponds to the force (pressing force) FZ acting in the Z direction.
  • the sum SZ of the output signals changes approximately linearly with respect to changes in the distance between the center position of the reflecting section 25 and the base material 21.
  • the IC 11 operates as follows depending on the distance between the reflection section 25 and the base material 21.
  • the IC 11 calculates the force FZ acting in the Z direction based on the sum SZ1 of the output signals, and outputs it to the main CPU 12A. do.
  • the IC 11 calculates the force FZ acting in the Z direction based on the sum SZ2 of the output signals, and sends the calculated force FZ to the main CPU 12A. Output.
  • the dynamic range of the sensor module 10 can be expanded by the IC 11 performing position detection processing according to the distance between the center position of the reflecting section 25 and the base material 21 as described above.
  • the IC 11 determines whether the distance between the center position of the reflecting section 25 and the base material 21 has become closer than a specified value based on whether the sum of the output signals SZ 1 is greater than the specified value SZ 0 . That is, when the sum SZ 1 of the output signals is larger than the specified value SZ 0 , the IC 11 determines that the distance between the center position of the reflecting section 25 and the base material 21 is farther than the specified value. On the other hand, when the sum SZ 1 of the output signals is less than or equal to the specified value SZ 0 , the IC 11 determines that the distance between the center position of the reflecting section 25 and the base material 21 is closer than the specified value.
  • the IC 11 operates as follows when the distance between the center position of the reflection section 25 and the base material 21 is longer than a specified value.
  • the IC 11 calculates the force F X acting in the X direction based on the calculated difference SX A1 and A6 of the output signals, and outputs it to the main CPU 12A.
  • the IC 11 calculates the force FY acting in the Y direction based on the calculated difference between the output signals SYB1 and B6 , and outputs it to the main CPU 12A.
  • the region where the detection error of the output signal differences SX and SY is small is, as described above, a linear region where the output signal differences SX and SY change approximately linearly with respect to changes in the position of the reflecting section 25 in the X and Y directions. (first and second linear regions).
  • the output signal difference SX corresponds to the force F X acting in the X direction
  • the output signal difference SY corresponds to the force F Y acting in the Y direction.
  • the IC 11 operates as follows when the distance between the center position of the reflection section 25 and the base material 21 is closer than a specified value.
  • the IC 11 calculates the force F X acting in the X direction using the pair of output signals SA m and SA n that can minimize the detection error of the force F X among the pair of output signals SA m and SA n . calculate. Further, the IC 11 uses the pair of output signals SB m and SB n that can minimize the detection error of the force F Y among the pair of output signals SB m and SB n to detect the force F acting in the Y direction. Calculate Y.
  • the pair of output signals SA m , SA n used for calculating the above - mentioned force F , 23A n pair of output signals output from the pair SA m , SA n .
  • 23A 6 is a pair of output signals SA 3 , SA 6 .
  • the pair of output signals SB m and SB n used for calculating the above-mentioned force F Y is, for example, straddled over the center of the light receiving section group 23, that is, across the light source 22, and sent to the second light receiving section 23B m separated by a specified distance.
  • 23B n pairs of output signals SB m and SB n .
  • the pair of output signals SB 1 and SB 4 of the second light receiving sections 23B 1 and 23B 4 , the pair of output signals SB 2 and SB 5 of the second light receiving sections 23B 2 and 23B 5 , and the second light receiving section This is a pair of output signals SB 3 and SB 6 of 23B 3 and 23B 6 .
  • the IC 11 operates as follows.
  • the IC 11 calculates the center positions X A1,A4 , X A2,A5 , and X A3,A6 of the reflecting section 25 as follows.
  • the output signal difference SX A1, A4 is a value corresponding to the amount of displacement of the center position of the reflecting section 25 in the X direction with the center axis 20L as a reference.
  • the IC 11 calculates the center positions X A1, A4 of the reflecting section 25 based on the calculated difference SX A1 , A4 between the output signals.
  • the center positions It is determined by the following equation (1-1) using the output signals S A1 , S A4 ) obtained from the four pairs of light receiving sections 23A 1 and 23A.
  • X A1, A4 -D 11 + (d 11 /L) x SX A1, A4 ... (1-1)
  • D 11 is the position of the midpoint between the four pairs of first light receiving sections 23A 1 and 23A
  • d 11 is (the width of the linear region of SX A1, A4 in the X direction)/2.
  • linear region refers to a linear region (first and second linear regions) in which the output signal differences SX Am,An and SY Bm,Bn change approximately linearly with respect to changes in the position of the reflecting section 25 in the X and Y directions. ) represents.
  • the output signal difference SX A2, A5 is a value corresponding to the amount of displacement of the center position of the reflecting section 25 in the X direction with the center axis 20L as a reference.
  • the IC 11 calculates the center position X A2, A5 of the reflecting section 25 based on the calculated difference SX A2 , A5 between the output signals.
  • the output signal difference SX A3, A6 is a value corresponding to the amount of displacement of the center position of the reflecting section 25 in the X direction with the center axis 20L as a reference.
  • the IC 11 calculates the center positions X A3, A6 of the reflecting section 25 based on the calculated difference SX A3 , A6 between the output signals.
  • the center positions It is determined by the following equation (1-3) using the output signals S A3 , S A6 ) obtained from the six pairs of light receiving sections 23A 3 and 23A.
  • X A3, A6 D 12 + (d 13 /L) x SX A3, A6 ... (1-3)
  • D 12 is the position of the midpoint between the six pairs of first light receiving sections 23A 3 and 23A
  • d 13 is (the width of the linear region of SX A3 and A6 in the X direction)/2.
  • the IC 11 selects X Am, An included in the linear region from among X A1, A4 , X A2, A5 , and X A3, A6 .
  • X Am an included in the linear region
  • the IC 11 selects the X Am, An as the X Am, An with the least error.
  • IC11 selects the X that is closest to the center position of the linear region among the two or more X Am, An. Let Am, An be X Am, An with the least error.
  • the IC 11 calculates the force F X acting in the X direction using X Am and An with the least error. More specifically, for example, the IC 11 calculates the difference in output signals (difference in sensor output values) SX Am, An from X Am , An with the smallest error. Alternatively, the IC 11 calculates the output signal difference SX Am, An corresponding to the smallest error among the output signal differences SX A1,A4 , SX A2,A5 , and SX A3, A6 calculated in advance. Select.
  • the IC 11 calculates the force F X acting in the X direction based on the calculated or selected output signal difference SX Am, An , and outputs it to the main CPU 12A.
  • the IC 11 calculates the center positions Y B1,B4 , Y B2,B5 , and Y B3,B6 of the reflecting section 25 as follows.
  • the difference between the output signals SY B1 and B4 is a value corresponding to the amount of displacement of the center position of the reflecting section 25 in the Y direction with respect to the central axis 20L.
  • the IC 11 calculates the center positions Y B1 and B4 of the reflecting section 25 based on the calculated difference SY A1 and A4 between the output signals.
  • the center positions YB1,B4 of the reflecting section 25 are determined by the difference between the output signals SYB1,B4 (that is, the It is determined by the following equation (2-1) using the output signals S B1 , S B4 ) obtained from the four pairs of two light receiving sections 23B 1 and 23B.
  • Y B1, B4 -D 21 + (d 21 /L) x SY B1, B4 ... (2-1)
  • D 21 is the position of the midpoint between the four pairs of second light receiving sections 23B 1 and 23B
  • d 21 is (width of the linear region of SY B1, B4 in the Y direction)/2.
  • the difference between the output signals SY B2 and B5 is a value corresponding to the amount of displacement of the center position of the reflecting section 25 in the Y direction with respect to the central axis 20L.
  • the IC 11 calculates the center position Y B2, B5 of the reflecting section 25 based on the calculated difference SY B2 , B5 between the output signals.
  • the center positions Y B2, B5 of the reflecting section 25 are determined by the difference SY B2, B5 (i.e., the difference between the output signals SY B2, B5 ). It is determined by the following equation (2-2) using the output signals S B2, S B5 ) obtained from the five pairs of two light receiving sections 23B 2 and 23B.
  • Y B2, B5 (d 22 /L) x SY B2, B5 ... (2-2)
  • d22 is (the width of the linear region of SY B2 and B5 in the Y direction)/2.
  • the difference between the output signals SY B3 and B6 is a value corresponding to the amount of displacement of the center position of the reflecting section 25 in the Y direction with respect to the central axis 20L.
  • the IC 11 calculates the center positions Y B3, B6 of the reflecting section 25 based on the calculated difference SY B3 , B6 between the output signals.
  • the center positions YB3,B6 of the reflecting section 25 are determined by the difference SYB3,B6 (i.e., the difference SYB3,B6) between the output signals. It is determined by the following equation (2-3) using the output signals S B3 , S B6 ) obtained from the six pairs of two light receiving sections 23B 3 and 23B.
  • Y B3, B6 D 22 + (d 23 /L) x SY B3, B6 ... (2-3)
  • D 22 is the position of the midpoint between the six pairs of second light receiving sections 23B 3 and 23B
  • d 23 is (the width of the linear region of SY B2 and B5 in the Y direction)/2.
  • the IC 11 selects Y Bm, Bn included in the linear region from Y B1, B4 , Y B2, B5 , and Y B3, B6 .
  • the IC 11 selects the Y Bm, Bn as the Y Bm, Bn with the smallest error.
  • IC11 selects the Y Bm , Bn that is closest to the center position of the linear region among the two or more Y Bm, Bn. Let Bm, Bn be Y Bm, Bn with the least error.
  • the IC 11 calculates the force F Y acting in the Y direction using Y Bm and Bn with the least error. More specifically, for example, the IC 11 calculates the difference in output signals (difference in sensor output values) SY Bm, Bn from Y Bm, Bn with the smallest error. Alternatively, the IC 11 selects the output signal difference SY Bm, Bn corresponding to the least error Y Bm, Bn from among the output signal differences SY B1, B4 , SY B2, B5 , and SY B3, B6 calculated in advance. Select.
  • the IC 11 calculates a force F Y acting in the Y direction based on the calculated or selected difference between the output signals SY Bm, Bn , and outputs it to the main CPU 12A.
  • the first light receiving section 23A 2 When the light with the light amount Q A2 is received by the first light receiving section 23A 2 , the first light receiving section 23A 2 outputs an output signal S A2 corresponding to the light amount Q A2 .
  • the first light receiving section 23A5 receives the light having the light amount Q A5 , the first light receiving section 23A5 outputs an output signal S A2 corresponding to the light amount Q A5 .
  • the sum of the light amounts QZ A2, A5 corresponds to the amount of displacement of the center position of the reflecting section 25 in the Z direction.
  • the force FZ acting in the Z direction can be calculated.
  • the light amount difference QX A2, A5 corresponds to the amount of displacement of the center position of the reflecting section 25 in the ⁇ X direction.
  • the force F X acting in the ⁇ X direction can be calculated.
  • the light distribution 20I has a conical shape and the slope of the light distribution 20I changes linearly.
  • the IC 11 determines the center position As shown in FIGS. 7A and 8A , the area where the detection error of the position Only.
  • the IC 11 determines the center position As shown in FIGS . 7B and 8B, the area where the detection error of the position Only.
  • the IC 11 determines the center position As shown in FIGS . 7C and 8B, the area where the detection error of the position Only.
  • the IC 11 detects the difference SX A1,A4 between the output signals obtained by the four pairs of first light receiving sections 23A 1 and 23A, the difference SX A2,A5 between the output signals obtained from the five pairs of first light receiving sections 23A 2 and 23A, and the first
  • the detection error of the position X is as shown in FIG. 8D.
  • the areas with a small number of areas are areas R A1 and A6 .
  • the area R A1, A6 corresponds to an area where the area R A1, A4 , the area R A2, A5 , and the area R A3, A6 are integrated.
  • the IC 11 detects the center position X of the reflecting section 25 using the output signal difference SX A1, A4 , the output signal difference SX A2, A5 , and the output signal difference SX A3, A6 .
  • the dynamic lens in the ⁇ X direction can be magnified.
  • widths (widths in the X-axis direction) of the regions R A1, A4 , R A2, A5 , R A3, A6, and R A1, A6 are shown below.
  • the widths (widths in the X-axis direction) of the regions R A1, A4 , R A2, A5 , and R A3, A6 are each 0.2 mm, for example.
  • the four pairs of first light receiving sections 23A 1 and 23A are arranged with a deviation of, for example, 0.1 mm in the -X direction from the five pairs of first light receiving sections 23A 2 and 23A.
  • the six pairs of first light receiving sections 23A 3 and 23A are arranged with a deviation of, for example, 0.1 mm from the five pairs of first light receiving sections 23A 2 and 23A in the +X direction.
  • the width (width in the X-axis direction) of the region R A1, A6 in which the regions R A1, A4, the region R A2, A5 , and the region R A3, A6 are integrated is, for example, 0.4 mm.
  • SY B1 , B4 the region where the detection error of the position Y is small (that is, the linear region where the values of SY B1 and B4 change approximately linearly) is the region R B1, B4 Only.
  • SY B2 , B5 the region where the detection error of the position Y is small (that is, the linear region where the values of SY B2 and B5 change approximately linearly) is the region R B2, B5. Only.
  • SY B3 , B6 the region where the detection error of the position Y is small (that is, the linear region where the values of SY B3 and B6 change approximately linearly) is the region R B3, B6. Only.
  • the IC 11 detects the difference SY A1,A4 between the output signals obtained by the four pairs of second light receiving sections 23B 1 and 23B, the difference SY B2,B5 between the output signals obtained from the five pairs of second light receiving sections 23B 2 and 23B, and the second When the center position Y of the reflecting section 25 is detected using the difference SY B3, B6 between the output signals obtained by the six pairs of light receiving sections 23B 3 and 23B, the detection error of the position Y is as shown in FIG. 10D.
  • the regions with a small amount of data are regions R B1 and B6 .
  • the area R B1, B6 corresponds to an area where the area R B1, B4 , the area R B2, B5 , and the area R B3, B6 are integrated.
  • the IC 11 detects the center position Y of the reflecting section 25 using the output signal difference SY B1, B4 , the output signal difference SY B2, B5 , and the output signal difference SY B3, B6 .
  • the dynamic lens in the ⁇ Y direction can be magnified.
  • widths (widths in the Y-axis direction) of the regions R B1, B4 , R B2, B5 , R B3, B6, and R B1, B6 are shown below.
  • the widths (width in the Y-axis direction) of the regions R B1, B4 , R B2, B5 , and R B3, B6 are each 0.2 mm, for example.
  • the four pairs of second light receiving sections 23B 1 and 23B are arranged with a deviation of, for example, 0.1 mm from the five pairs of second light receiving sections 23B 2 and 23B in the +Y direction.
  • the six pairs of second light receiving sections 23B 3 and 23B are arranged with a deviation of, for example, 0.1 mm from the five pairs of second light receiving sections 23B 2 and 23B in the -Y direction.
  • the width (width in the Y-axis direction) of the region R B1, B6 in which the region R B1, B4, the region R B2, B5 , and the region R B3, B6 are integrated is, for example, 0.6 mm.
  • step S11 the IC 11 scans the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 , and outputs signals S A1 to S A6 from the first light receiving sections 23A 1 to 23A 6 .
  • Output signals S B1 to S B6 are obtained from the second light receiving sections 23B 1 to 23B 6 .
  • step S12 the IC 11 receives the output signals S A1 , S A6 of the six pairs of first light receiving sections 23A 1 , 23A and the output signals S B1 , S B6 of the six pairs of second light receiving sections 23B 1 , 23B.
  • step S13 the IC 11 determines whether the calculated sum SZ1 of the output signals is greater than or equal to a specified value. If it is determined in step S13 that the sum SZ1 of the output signals is equal to or greater than the specified value, the IC 11 calculates the force FZ based on the sum SZ1 of the output signals in step S14. If it is determined in step S13 that the sum SZ1 of the output signals is not equal to or greater than the specified value, the IC 11 calculates the force FZ based on the sum SZ2 of the output signals in step S15, and outputs it to the main CPU 12A.
  • the first detection operation is performed, for example, when it is determined in step S13 of FIG. 11 that the sum SZ1 of the output signals is equal to or greater than a specified value.
  • step S21 the IC 11 scans the first light receiving sections 23A 1 , 23A 6 and the second light receiving sections 23B 1 , 23B 6 , and outputs signals S A1 , S A6 , from the first light receiving sections 23A 1 , 23A 6 .
  • Output signals S B1 and S B6 are obtained from the second light receiving sections 23B 1 and 23B 6 .
  • the IC 11 uses the output signals S A1 and S A6 and the output signals S B1 and S B6 obtained in step S11 in FIG . It may be calculated. In this case, the process of step S21 may be omitted.
  • step S23 the IC 11 calculates the force F X based on the difference between the output signals SX A1 and A6 , and calculates the force F Y based on the difference between the output signals SY B1 and B6 .
  • the IC 11 outputs the calculated force F X and force F Y to the main CPU 12A.
  • the second detection operation is performed, for example, when it is determined in step S13 of FIG. 11 that the sum SZ1 of the output signals is not equal to or greater than the specified value.
  • step S31 the IC 11 scans the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 , and outputs signals S A1 to S A6 from the first light receiving sections 23A 1 to 23A 6 .
  • Output signals S B1 to S B6 are obtained from the second light receiving sections 23B 1 to 23B 6 .
  • step S32 the IC 11 determines the center position X A1 , A4 , X A2 , A5 , X A3, A6 , Y B1, B4 , Y B2, B5 , Y B3, B6 are calculated.
  • the IC 11 uses the output signals S A1 to S A6 and the output signals S B1 to S B6 obtained in step S11 in FIG . , A6 , Y B1,B4 , Y B2,B5 , Y B3, B6 may be calculated. In this case, the process of step S31 may be omitted.
  • step S33 the IC 11 determines whether the calculated center positions X A1, A4 , X A2, A5 , X A3, A6 of the reflecting portion 25 are linear regions R A1, A4 , R A2, A5 , R A3, A6 (see FIGS. 7A, 7B, and 7C) is determined, and X Am , An included in the linear region R Am, An is selected.
  • IC11 is such that Y B1, B4 , Y B2, B5 , Y B3, B6 are included in the linear regions R B1, B4 , R B2, B5 , R B3, B6 (see FIGS. 9A, 9B, and 9C), respectively.
  • X Bm, Bn included in the linear region R Bm, Bn are selected.
  • step S34 the IC 11 selects the X Am, An closest to the center position of the linear region R Am, An from among the X Am, An selected in step S33 (FIG. 7A, FIG. 7B, 7C, FIG. 8A, FIG. 8B, FIG. 8C, and FIG. 8D). 7A, FIG. 7B, FIG. 7C, FIG. 8A, FIG. 8B, FIG. 8C, and FIG. 8D, X 1 , X 2 , and Represents the center position. If the number of X Am, An selected in step S33 is one, the IC 11 does not need to perform this process.
  • step S34 the IC 11 selects Y Bm, Bn closest to the center position of the linear region R Bm, Bn from among the Y Bm, Bn selected in step S33 (FIGS. 9A, 9B, 9C , FIG. 10A, FIG. 10B, FIG. 10C, and FIG. 10D).
  • 9A, FIG. 9B, FIG. 9C, FIG. 10A, FIG . 10B , FIG . 10C , and FIG. Represents the center position. If the number of Y Bm and Bn selected in step S33 is one, the IC 11 does not need to perform this process.
  • step S35 the IC 11 calculates the difference in output signals (difference in sensor output values) SX Am,An , SY Am,An from X Am,An , YBm , Bn selected in step S34. calculate.
  • the IC 11 calculates the forces F X and F Y acting in the X and Y directions based on the calculated output signal differences SX Am,An and SY Am,An , and outputs them to the main CPU 12A.
  • Point light source 72 corresponds to reflective portion 25 of sensor 20 in one embodiment.
  • the irradiation surface 70S corresponds to the first surface of the base material 21 (the surface on which the light receiving unit group 23 is arranged) in one embodiment.
  • the first light receiving sections 71A 1 and 71A 2 correspond to the first light receiving sections 23A 2 and 23A 5 in one embodiment.
  • the second light receiving sections 71B 1 and 71B 2 correspond to the second light receiving sections 23B 2 and 23B 5 in one embodiment.
  • the distance D Y between the center position 70P of 70S and the center positions of the second light receiving sections 71B 1 and 71B 2 is as follows. However, the center position 70P is set directly below the point light source 72. Height h: 1.0 Distance DX : 0.5 Distance DY : 0.5
  • the sum SZ of the output signals is the sum of the output signals S A1 , S A2 of the first light receiving sections 71A 1 , 71A 2 and the output signals S B1 , S B2 of the second light receiving sections 71B 1 , 71B 2 (S A1 +S A2 +S B1 +S B2 ).
  • the difference between the output signals SX A1 and A2 is the difference (S A1 - S A2 ) between the output signals S A1 and S A2 of the first light receiving sections 71A 1 and 71A 2 .
  • the difference between the output signals SY B1 and B2 is the difference (S B1 - S B2 ) between the output signals S B1 and S B2 of the second light receiving sections 71B 1 and 71B 2 .
  • FIGS. 16A, 16B, 17A, 17B, and 18 The results of the above optical simulation are shown in FIGS. 16A, 16B, 17A, 17B, and 18.
  • a prescribed region RB in which the detection error of the force (shear force) FX is small is shown in FIG. 14A.
  • the sum SZ of the output signals is a substantially constant value in the specified area RA , but changes outside the specified area RA . Therefore, while the detection error of the force (pressing force) FZ corresponding to the sum SZ of the output signals is small in the specified area RA , the error is large outside the specified area RA .
  • the difference between the output signals SX A1 and A2 changes substantially linearly in the specified region RB , but does not change substantially linearly outside the specified region RB . Therefore, the detection error of the force ( shearing force) F It is large outside the region RA (that is, when the deformation of the sensor in the X direction is large). Therefore, the dynamic range of the force (shear force) FX acting in the X direction is limited. Further, the amount of change in the output signal difference SX A1, A2 outside the specified area RA is smaller than the amount of change in the output signal difference SX A1, A2 in the specified area RA . Therefore, the sensitivity of force ( shear force) F ) force (shear force) F is lower than the sensitivity of X.
  • the output signal difference SY B1, B2 has the same tendency as the output signal difference SX A1, A2 described above.
  • the light emitted upward from the light source 22 is reflected by the reflecting section 25 and then transmitted to the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 . incident.
  • the elastic body 24 is deformed, and the center position of the reflecting portion 25 is displaced in at least one of the ⁇ X direction, ⁇ Y direction, and ⁇ Z direction.
  • the orientation distribution of the reflected light from the reflecting section 25 changes with the displacement of the center position of the reflecting section 25 described above.
  • the amount of light received by each of the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 changes in accordance with the change in the orientation distribution, and
  • the output signals SA 1 to SA 6 and SB 1 to SB 6 from the two light receiving sections 23B 1 to 23B 6 change .
  • the IC can detect the forces F X , F Y , and F Z acting on the sensor 20 based on the output signals SA 1 to SA 6 and SB 1 to SB 6 .
  • the sensor 20 has the first light receiving sections 23A 1 to 23A 6 arranged in the X direction (first direction) and the first light receiving parts 23A 1 to 23A 6 arranged in the Y direction (second direction) orthogonal to the X direction. 23B 1 to 23B 6 .
  • the area (linear area) where the detection error of position and Y position can be reduced can be expanded (area R A2, A5 in FIG. 8B, area R A1, A6 in FIG. 8D, area R B2, B5 in FIG. 10B, area R B2, B5 in FIG. 10D). (Refer to areas R B1 and B6 ).
  • the Z position Compared to a sensor including a pair of first light receiving sections 23A 2 and 23A 5 arranged in the X direction and a pair of second light receiving sections 23B 2 and 23B 5 arranged in the Y direction, the Z position The area (linear area) in which the detection error of can be reduced can be expanded. Therefore, a wide dynamic range and high sensitivity can be obtained with respect to the force F Z acting in the -Z direction (that is, the displacement of the reflecting section 25 in the -Z direction).
  • FIG. 19A is a plan view showing an example of the appearance of a sensor 30A of Modification 1.
  • FIG. 19B is a cross-sectional view taken along line XIXB-XIXB in FIG. 19A.
  • FIG. 20 is an enlarged cross-sectional view of a portion of FIG. 19B.
  • the sensor 30A is an optical three-axis force sensor.
  • the sensor 30A has a planar structure.
  • the sensor 30A may have rigidity or flexibility.
  • the sensor 30A has, for example, a plate shape or a film shape.
  • the sensor 30A has a first surface and a second surface opposite to the first surface.
  • the shape of the sensor 30A in a plan view that is, the shapes of the first surface and the second surface in a plan view may be a rectangular shape such as a square shape.
  • the shape of the sensor 30A in plan view is not limited to a rectangular shape, but may be a circular shape, an elliptical shape, or the like.
  • the sensor 30A has a plurality of sensor sections 30SE.
  • the plurality of sensor sections 30SE are two-dimensionally arranged in the in-plane direction (X, Y direction) of the first surface or the second surface of the sensor 30A.
  • Each sensor section 30SE has a central axis 30L parallel to the thickness direction of the sensor 30A.
  • the central axis 30L passes through the center position of the reflecting section 25 and the center of the light receiving section group 23 in a state where no force is acting on the first surface or the second surface of the sensor 30.
  • the direction parallel to the central axis 30L that is, the direction perpendicular to the first surface of the sensor 30A is referred to as the Z direction (third direction).
  • Two directions that are orthogonal to the Z direction and mutually orthogonal, that is, two directions that are orthogonal to each other in a plane parallel to the first surface of the sensor 30A are referred to as the X direction (first direction) and the Y direction (second direction).
  • the sensor 30A includes a base material layer 31, a plurality of light receiving section groups 23, an elastic layer 32, a plurality of reflection sections 25, and a light shielding layer 33.
  • the base material layer 31, the elastic layer 32, and the light-shielding layer 33 are laminated in this order, with the light-shielding layer 33 on the first surface side of the sensor 30A, and the base material layer 31 on the second surface side of the sensor 30A.
  • the base material layer 31 includes a base material 31A, a plurality of light sources 22, a bonding layer 31B, a light transmitting layer 31C, and a light blocking layer 31D.
  • the base layer 31 may include a reflective layer instead of the light shielding layer 31D.
  • the base material 31A can support a plurality of light sources 22 and a light transmitting layer 31C.
  • the base material 31A may be the same as the base material 21 in one embodiment in points other than the above.
  • the base material 31A may be composed of a reflective layer, or may be composed of a laminate of a substrate or a film and a reflective layer.
  • the plurality of light sources 22 are two-dimensionally arranged on the base material 31A in a prescribed arrangement pattern such as a matrix.
  • the light source 22 is provided for each sensor section 30SE.
  • Each light source 22 is located directly below the pinhole 31DA.
  • the bonding layer 31B bonds the base material 31A and the light transmitting layer 31C.
  • the bonding layer 31B may cover the light source 22 or may have a hole in the light source 22 portion.
  • FIG. 20 shows an example in which the bonding layer 31B has a hole in the light source 22 portion.
  • the bonding layer 31B covers the light source 22, it is preferable that the bonding layer 31B has translucency to the light emitted from the light source 22.
  • the bonding layer 31B may be translucent to the light emitted from the light source 22, or may be transparent to the light emitted from the light source 22. It may be opaque to the light emitted from 22.
  • the bonding layer 31B is provided between the base material 31A and the light transmitting layer 31C.
  • the bonding layer is, for example, an adhesive layer or an adhesive layer.
  • the light transmitting layer 31C is transparent to the light emitted from the light source 22.
  • the light source 22 is configured to be able to emit visible light such as white light, red light, green light, or blue light
  • the light transmitting layer 31C is transparent to visible light. You can leave it there.
  • the light transmitting layer 31C is provided on the bonding layer 31B.
  • the light transmitting layer 31C is bonded to the base material 31A by a bonding layer 31B.
  • the light transmitting layer 31C is a substrate or a film.
  • the substrate is, for example, a glass substrate or a resin substrate.
  • the film is, for example, a glass film or a resin film.
  • the resin substrate and the resin film contain a resin material.
  • the resin material is, for example, at least one selected from the group consisting of polymethyl methacrylate, polystyrene, polycarbonate, polyether sulfone, polyarylate, amorphous polyolefin, cycloolefin polymer, cycloolefin copolymer, triacetyl cellulose, and epoxy resin. Contains plastic materials.
  • the light shielding layer 31D has a plurality of pinholes 31DA.
  • the pinhole 31DA is an example of a hole.
  • Light emitted from the light source 22 is extracted from the light transmission layer 31C to the elastic layer 32 through the pinhole 31DA.
  • the light extracted by the elastic layer 32 illuminates the reflection section 25.
  • the pinhole 31DA penetrates the light shielding layer 31D in the thickness direction.
  • the pinhole 31DA is provided for each sensor section 30SE.
  • the pinhole 31DA is located directly below the reflecting portion 25 and directly above the light source 22 when no force is acting on the sensor 30. In a state where no force is acting on the sensor 30, the center position of the light source 22, the center position of the pinhole 31DA, and the center position of the reflection part 25 are located on the central axis 30L.
  • the light receiving unit group 23 is provided for each sensor unit 30SE.
  • Each light receiving section group 23 is arranged on the base material layer 31, specifically, on the light shielding layer 31D, such that each pinhole 31DA is located at the center of the light receiving section group 23.
  • the first light receiving sections 23A 1 to 23A 6 are arranged in the X direction and form a column.
  • the first light receiving sections 23A 1 to 23A 6 forming the row are arranged symmetrically with respect to the center of the light receiving section group 23, that is, with respect to the central axis 30L.
  • the second light receiving sections 23B 1 to 23B 6 are arranged in the Y direction and form a column.
  • the second light receiving sections 23B 1 to 23B 6 forming the row are arranged symmetrically with respect to the center of the light receiving section group 23, that is, with respect to the central axis 30L.
  • the elastic layer 32 can be elastically deformed in the ⁇ X direction, the ⁇ X direction, and the ⁇ Z direction.
  • the elastic layer 32 is transparent to the light emitted from the light source 22.
  • the elastic layer 32 may be colored.
  • the elastic layer 32 is provided between the plurality of reflection sections 25 and the plurality of light receiving section groups 23. More specifically, the elastic layer 32 is provided on the base material layer 31 so as to cover the plurality of light receiving unit groups 23.
  • the material of the elastic layer 32 may be similar to the material of the elastic body 24 in one embodiment.
  • the plurality of reflective parts 25 are two-dimensionally arranged on the elastic layer 32 in a prescribed arrangement pattern such as a matrix.
  • Each reflecting section 25 is provided above the light receiving section group 23 . More specifically, each reflecting section 25 is located directly above the pinhole 31DA.
  • the light shielding layer 33 is provided on the elastic layer 32 so as to cover the plurality of reflective parts 25 arranged two-dimensionally.
  • the light shielding layer 33 may be the same as the light shielding layer 26 in one embodiment in points other than the above.
  • the amount of light received by each of the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 changes in accordance with the change in the orientation distribution, and
  • the output signals SA 1 to SA 6 and SB 1 to SB 6 from the two light receiving sections 23B 1 to 23B 6 change .
  • the IC can detect the forces F X , F Y , and F Z acting on the sensor 30A based on changes in the output signals SA 1 to SA 6 and SB 1 to SB 6 .
  • the sensor 30A of Modification 1 includes a light source 22 and first and second light receiving sections 23A and 23B in separate layers. Therefore, the sensor 30A can be manufactured without precisely aligning and mounting the different parts of the light source 22 and the first and second light receiving sections 23A and 23B in the same plane. Furthermore, since the light source 22 and the first and second light receiving sections 23A and 23B are provided in separate layers, restrictions on the size of the light source 22 are also relaxed. Therefore, the sensor 30A can be manufactured more easily than the sensor 20 of one embodiment.
  • FIG. 21 is a cross-sectional view showing an example of the configuration of a sensor 30B according to modification 2.
  • the sensor 30B is different from the sensor 30A of the first modification in that it has one sensor section 30SE instead of the plurality of sensor sections 30SE arranged two-dimensionally (see FIG. 20).
  • the light shielding layer 33 covers the upper surface of the elastic layer 32 (the surface opposite to the base layer 31), and also covers the side surfaces of the elastic layer 32.
  • the light shielding layer 33 may further cover the side surfaces of the base material layer 31.
  • the sensor 30B is manufactured, for example, as follows. After a laminate including the base layer 31, the light receiving section group 23, and the elastic layer 32 is formed, the laminate is cut out into regions each including one sensor section 30SE. A light shielding layer 33 is formed to cover both the first surface and side surfaces of the cut out elastic layer 32.
  • FIG. 22 is a cross-sectional view showing an example of the configuration of a sensor 30C according to modification 3.
  • the sensor 30C is different from the sensor 30A of Modification 1 (see FIG. 20) in that it includes a diffuse reflection layer as the reflection section 25 and includes a light shielding layer 31E instead of the light shielding layer 31D.
  • the diffuse reflection layer as the reflection part 25 is as described in one embodiment.
  • the light shielding layer 31E has a plurality of pinholes 31EA and a plurality of holes 31EB.
  • the pinhole 31EA is similar to the pinhole 31DA in the first modification.
  • the pinhole 31EA and the plurality of holes 31EB can extract the light emitted from each light source 22 from the light transmission layer 31C to the elastic layer 32.
  • the hole 31EB penetrates the light shielding layer 31E in the thickness direction.
  • the hole 31EB has, for example, a dot shape or a slit shape in a plan view.
  • the hole portion 31EB is provided in a region of the light shielding layer 31E other than the region where the pinhole 31EA and the plurality of first and second light receiving portions 23A and 23B are formed.
  • the hole 31EB may be provided in a region outside the region where the light receiving section group 23 is provided, or may be provided in a region where the light receiving section group 23 is provided. It is preferable that the plurality of holes 31EB be provided on a circumference centered on the pinhole 31EA. In this case, it is preferable that the distance between adjacent holes 31EB be equal intervals.
  • the sensor 30C of the third modification includes a light shielding layer 31E having a plurality of pinholes 31EA and a plurality of holes 31EB.
  • Light emitted from each light source 22 is extracted from the light transmission layer 31C to the elastic layer 32 through the pinhole 31EA and the plurality of holes 31EB.
  • the light extracted from the light transmission layer 31C to the elastic layer 32 illuminates the reflection section 25.
  • the irradiated light is diffusely reflected by the reflecting section 25, and the diffusely reflected light enters the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 .
  • the amount of light that illuminates the reflective section 25 increases compared to the sensor 30A of Modification 1 that includes the light shielding layer 31D having only the pinholes 31DA. Furthermore, the light extracted from the plurality of holes 31EB irradiates the reflection section 25 from multiple directions, thereby increasing the intensity of the diffused light and improving the uniformity of the orientation light distribution.
  • the light shielding layer 31E has a plurality of holes 31EB having a dot shape or a slit shape in a plan view.
  • the light shielding layer 31E has one or more holes having a closed loop shape in a plan view. It may have a section 31EB. It is preferable that the closed loop hole 31EB is centered around the pinhole 31EA.
  • the closed loop shape is, for example, a circular ring shape, an elliptic ring shape, or a polygonal ring shape such as a regular polygon. It is preferable that the plurality of holes 31EB having a closed loop shape are provided concentrically around the pinhole 31EA.
  • FIG. 23 is a cross-sectional view showing an example of the configuration of a sensor 30D according to modification 4.
  • Sensor 30D of Modification 4 differs from sensor 30A of Modification 1 (see FIG. 20) in that it includes a light guide layer 34 instead of base layer 31 including a plurality of light sources 22.
  • the light source 35 is arranged facing the side surface of the light guide layer 34.
  • the light source 35 can input light into the light guide layer 34 from the side surface of the light guide layer 34 .
  • the type of light source 35 may be, for example, the same as the light source 22 in one embodiment.
  • the light guiding layer 34 has a plurality of pinholes 34BA on the first surface where the light receiving unit group 23 is provided.
  • the position of the pinhole 34BA is the same as the position of the pinhole 31DA in the first modification.
  • the light guiding layer 34 can guide the light incident from the side surface in the in-plane direction (X, Y direction) of the first surface of the sensor 30D, and can output the light to the elastic layer 32 from the plurality of pinholes 34BA. .
  • the light guiding layer 34 includes a reflective layer 34A, a light transmitting layer 31C, and a reflective layer 34B.
  • the light transmitting layer 31C is transparent to the light incident from the light source 35.
  • the light transmitting layer 31C is provided between the reflective layers 34A and 34B.
  • the reflective layers 34A and 34B can reflect light incident from the side surface of the light guide layer 34.
  • the reflective layers 34A and 34B are spaced apart so that their main surfaces are parallel to each other.
  • the reflective layer 34A is provided on the second surface of the light transmitting layer 31C.
  • the reflective layer 34B is provided on the first surface of the light transmitting layer 31C.
  • the reflective layer 34B has the plurality of pinholes 34BA described above. Pinhole 34BA penetrates reflective layer 34B.
  • the pinhole 34BA can extract light from the light transmission layer 31C to the elastic layer 32.
  • the reflective layers 34A and 34B are, for example, metal layers.
  • the metal layer include chromium (Cr), gold (Au), platinum (Pt), nickel (Ni), copper (Cu), molybdenum (Mo), titanium (Ti), tantalum (Ta), and aluminum (Al). , magnesium (Mg), iron (Fe), tungsten (W), and silver (Ag).
  • the light incident from the side surface of the light guide layer 34 is guided by the light guide layer 34 in the in-plane direction of the first surface of the sensor 30D, and the light enters the first surface of the light guide layer 34.
  • the light is emitted from a plurality of provided pinholes 34BA. Therefore, unlike the sensor 30A of the first modification, the light source 22 does not need to be provided for each sensor section 30SE. Therefore, in the sensor 30D of the fourth modification, the number of parts can be reduced compared to the sensor 30A of the first modification. Therefore, in the sensor 30D of the fourth modification, the sensor structure can be simplified compared to the sensor 30A of the first modification.
  • FIG. 24 is a cross-sectional view showing an example of the configuration of a sensor 30E according to modification 5.
  • the sensor 30E differs from the sensor 30A of Modification 1 (see FIG. 20) in that the elastic layer 32 has grooves 32A.
  • the groove 32A is provided between adjacent sensor parts 30SE in plan view.
  • the groove 32A has, for example, a lattice shape in plan view.
  • the elastic layer 32 may be divided by the grooves 32A, or may be connected at the bottom portions of the grooves 32A without being divided by the grooves 32A.
  • the elastic layer 32 has an upper surface and side surfaces formed by grooves 32A.
  • the upper surface of the elastic layer 32 refers to the surface on the side opposite to the light guide layer 34 and on which the reflective section 25 is supported.
  • the elastic layer 32 having the grooves 32A may be formed by injection molding using a mold, by laser processing, or by photolithography and etching.
  • the light shielding layer 33 covers both the top and side surfaces of the elastic layer 32. This suppresses external light from entering the elastic layer 32 from the top and side surfaces of the elastic layer 32.
  • the light shielding layer 33 may be formed to follow the grooves 32A after the grooves 32A are formed in the elastic layer 32, or may be formed using a mold.
  • the light shielding layer 33 may fill the groove 32A or may follow the groove 32A.
  • FIG. 25 is a cross-sectional view showing an example of the configuration of a sensor 30F according to modification 6.
  • the sensor 30F differs from the sensor 30D of modification 4 (see FIG. 23) in that it includes a protrusion 36 on the first surface.
  • the protrusion 36 is provided at a position corresponding to the reflective section 25. Specifically, the protrusion 36 is provided above the reflecting section 25.
  • the protrusion 36 may be made of the same material as the light shielding layer 33, or may be made of a different material from the light shielding layer 33.
  • the hardness of the projections 36 is harder than that of the elastic layer 32.
  • hardness represents indentation hardness (Vickers hardness).
  • the Young's modulus of the protrusion 36 is larger than that of the elastic layer 32.
  • FIG. 26 is a cross-sectional view showing an example of the configuration of a sensor 30G according to modification 7.
  • the sensor 30G is different from the sensor 30D of Modification 4 (see FIG. 23) in that the sensor 30G includes a reflective layer 34C instead of the reflective layer 34B, and further includes a wavelength conversion layer 37 and a color filter 38.
  • Modification 7 an example will be described in which the sensor 30G includes a reflective layer 34C instead of the reflective layer 34B, but the sensor 30G may also include a reflective layer 34B.
  • the reflective layer 34C has a pinhole 34CA and a plurality of holes 34CB.
  • Pinhole 34CA is similar to pinhole 34BA in Modification 4.
  • the pinhole 34CA and the plurality of holes 34CB can extract the light emitted from the light source 22 from the light transmission layer 31C to the elastic layer 32.
  • the light extracted by the elastic layer 32 illuminates the wavelength conversion layer 37 and the reflection section 25.
  • the hole 34CB penetrates the reflective layer 34B in the thickness direction.
  • the hole 34CB has, for example, a dot shape or a slit shape in a plan view.
  • the hole portion 34CB is provided in a region of the reflective layer 34B other than the region where the pinhole 34CA and the plurality of first and second light receiving portions 23A and 23B are formed.
  • the hole 34CB may be provided in a region outside the region where the light receiving section group 23 is provided, or may be provided in a region where the light receiving section group 23 is provided. It is preferable that the plurality of holes 34CB be provided on a circumference centered on the pinhole 34CA. In this case, it is preferable that the distances between adjacent holes 34CB be equal intervals.
  • the reflective layer 34C includes one or more holes 34CB having a closed loop shape in a plan view, instead of the holes 34CB having a dot shape or a slit shape, or together with the holes 34CB having a dot shape or a slit shape. It may have. It is preferable that the closed loop hole 34CB is centered on the pinhole 34CA.
  • the closed loop shape is, for example, a circular ring shape, an elliptic ring shape, or a polygonal ring shape such as a regular polygon. It is preferable that the plurality of holes 34CB having a closed loop shape are provided concentrically around the pinhole 34CA.
  • the wavelength conversion layer 37 can absorb the energy of the first light and emit second light having a different energy. Specifically, the wavelength conversion layer 37 can absorb first light having a first peak wavelength and convert it into second light having a second peak wavelength.
  • the first light is included in the light emitted from the light source 35, that is, the light emitted from the plurality of pinholes 34CA and the plurality of holes 34CB.
  • the wavelength conversion layer 37 may be a color conversion layer that can absorb blue light and convert the color to red light.
  • the plurality of wavelength conversion layers 37 are two-dimensionally arranged on the elastic layer 32 in a prescribed arrangement pattern such as a matrix.
  • the wavelength conversion layer 37 is provided between the reflective section 25 and the elastic layer 32.
  • the reflective part 25 may be laminated on the wavelength conversion layer 37.
  • the wavelength conversion layer 37 contains phosphor or quantum dots.
  • the wavelength conversion layer 37 may contain a binder as necessary.
  • the color filter 38 can transmit the second light emitted from the wavelength conversion layer 37, but can absorb the first light other than the second light.
  • the light source 35 is a blue light source capable of emitting blue light
  • the wavelength conversion layer 37 is a color conversion layer capable of absorbing blue light and converting the color into red light
  • the color filter 38 emits red light. It may also be a red filter that can absorb blue light while transmitting it.
  • the color filter 38 is provided on the reflective layer 34C so as to cover the light receiving unit group 23.
  • the color filter 38 includes, for example, a color resist such as a red color resist. It is preferable that the pinhole 34CA and the plurality of holes 34CB be exposed without being covered by the color filter 38.
  • the sensor 30G includes the wavelength conversion layer 37 and the reflection section 25, but the sensor 30G may include a diffuse reflection layer instead of the wavelength conversion layer 37 and the reflection section 25.
  • the light that can be emitted by the light source 35 may be white light or the like.
  • the sensor 30G may not include the reflective section 25.
  • the wavelength conversion layer 37 can absorb the energy of the first light emitted from the pinhole 34CA and the plurality of holes 34CB, and can emit second light having a different energy.
  • the color filter 38 transmits the second light emitted from the wavelength conversion layer 37, but can absorb the first light other than the second light. Thereby, it is possible to suppress the first light other than the second light from entering the light receiving unit group 23. Therefore, noise in the output signal of the light receiving unit group 23 (noise caused by the first light, etc.) can be reduced.
  • FIG. 27 is a cross-sectional view showing an example of the configuration of a sensor 30H of modification 8.
  • the sensor 30H includes a base material 21, a plurality of light receiving unit groups 23, a color filter 41, a light transmission layer 42, a light shielding layer 43, a light guide layer 44, and a plurality of lenses 45.
  • the same reference numerals are given to the same parts as in one embodiment.
  • the light source 47 is arranged opposite to the side surface of the light guide layer 44 .
  • the light source 47 can input light into the light guide layer 44 from the side surface of the light guide layer 44 .
  • the type of light source 47 may be, for example, the same as the light source 22 in one embodiment.
  • the light guide layer 44 can guide light incident from the side surface in the in-plane direction (X, Y direction) of the first surface of the sensor 30H, and make the light enter the plurality of wavelength conversion layers 46 .
  • the light guide layer 44 includes a reflective layer 44A, an elastic layer 32, a plurality of wavelength conversion layers 46, and a reflective layer 44B.
  • the elastic layer 32 is transparent to the light incident from the light source 47.
  • the elastic layer 32 is provided between the reflective layers 44A and 44B.
  • the plurality of wavelength conversion layers 46 are two-dimensionally arranged on the elastic layer 32 in a prescribed arrangement pattern such as a matrix.
  • the plurality of wavelength conversion layers 46 are similar to the wavelength conversion layer 37 in Modification Example 7.
  • the reflective layers 44A and 44B can reflect light incident from the side surfaces of the elastic layer 32.
  • the reflective layers 44A and 44B are spaced apart so that their main surfaces are parallel to each other.
  • the reflective layer 44A is provided on the second surface of the elastic layer 32.
  • the reflective layer 44B is provided on the first surface of the elastic layer 32 so as to cover the plurality of wavelength conversion layers 46.
  • the reflective layer 44A has a plurality of holes 44AA. Each hole 44AA is provided at a position where the lens 45 is arranged.
  • the reflective layers 44A and 44B are, for example, metal layers.
  • the metal layer include chromium (Cr), gold (Au), platinum (Pt), nickel (Ni), copper (Cu), molybdenum (Mo), titanium (Ti), tantalum (Ta), and aluminum (Al). , magnesium (Mg), iron (Fe), tungsten (W), and silver (Ag).
  • Base material 21 The base material 21 is as described in one embodiment.
  • the light receiving unit group 23 is as described in one embodiment.
  • the color filter 41 transmits the second light emitted from the wavelength conversion layer 46, but can absorb the first light other than the second light.
  • the light source 47 is a blue light source that can emit blue light
  • the wavelength conversion layer 46 is a color conversion layer that can absorb blue light and convert it into red light
  • the color filter 41 emits red light. It may also be a red filter that can absorb blue light while transmitting it.
  • the color filter 41 is provided on the base material 21 so as to cover the light receiving unit group 23.
  • the color filter 41 includes, for example, a color resist such as a red color resist.
  • the light transmitting layer 42 is transparent to the light emitted from the light source 47.
  • the light transmitting layer 42 is transparent to visible light. You can leave it there.
  • the light transmitting layer 42 is provided between the elastic layer 32 and the plurality of light receiving section groups 23. More specifically, the light transmitting layer 42 is provided on the color filter 41.
  • the light transmitting layer 42 is a substrate or a film.
  • the substrate may be the same as the substrate constituting the light transmitting layer 31C in Modification 1.
  • the film may be the same as the film constituting the light transmitting layer 31C in Modification 1.
  • the light shielding layer 43 can absorb incident light.
  • the incident light is, for example, the light emitted from the light source 47 and the light emitted from the wavelength conversion layer 46 .
  • the light blocking layer 26 is provided on the light transmitting layer 42.
  • the light shielding layer 26 has a plurality of holes 43A. Each hole 43A is provided at a position where the lens 45 is arranged.
  • the light blocking layer 26 may include, for example, the same material as the light blocking layer 26 in one embodiment.
  • the lens 45 can form one image 46A of the wavelength conversion layer 46 provided directly above the lens 45 on the light transmission layer 42.
  • the plurality of lenses 45 are two-dimensionally arranged on the light-transmitting layer 42 in a prescribed arrangement pattern, such as a matrix, for example.
  • Each lens 45 is provided in the hole 43A of the light shielding layer 43 and the hole 44AA of the reflective layer 44A, and protrudes into the light guide layer 44.
  • the geometric center of each lens 45 in plan view is located on the central axis 30L.
  • the senor 30H includes the wavelength conversion layer 46, but the wavelength conversion layer 46 may be replaced with a diffuse reflection layer.
  • the light that the light source 47 can emit may be white light or the like.
  • the light guide layer 44 includes the reflective layer 44B, but the light guide layer 44 may include a diffuse reflective layer instead of the reflective layer 44B.
  • the wavelength conversion layer 46 may or may not be provided.
  • a virtual image 46A of the wavelength conversion layer 46 is formed in the light transmission layer 42 by the lens 45.
  • the light distribution of the emitted light of the image 46A is received by the first light receiving sections 23A 1 to 23A 6 and the second light receiving sections 23B 1 to 23B 6 . Therefore, even if the wavelength conversion layer 46 is located far from the light receiving unit group 23, the positions X, Y, and Z of the wavelength conversion layer 46 can be detected.
  • the color filter 41 transmits the second light emitted from the wavelength conversion layer 46, but can absorb the first light other than the second light. Thereby, it is possible to suppress the first light other than the second light from entering the light receiving unit group 23. Therefore, noise in the output signal of the light receiving unit group 23 (noise caused by the first light, etc.) can be reduced.
  • Modification 9 An example in which one virtual image 46A is formed by one lens 45 has been described. On the other hand, in Modification 9, an example will be described in which a plurality of virtual images 46A are formed by one lens 45.
  • FIG. 28 is a cross-sectional view showing an example of the configuration of a sensor 30I according to modification 9.
  • a plurality of wavelength conversion layers 46 are provided corresponding to one lens 45.
  • a plurality of light receiving unit groups 23 are provided corresponding to one lens 45.
  • One lens 45 can form a plurality of images 46A on the light transmission layer 42 corresponding to each of the plurality of wavelength conversion layers 46 provided corresponding to the lens 45.
  • Each image 46A is formed above the light receiving unit group 23.
  • Components such as the plurality of light receiving unit groups 23 and the lens 45 may be general-purpose components used in digital cameras and the like. By using such general-purpose parts, the sensor 30I can be manufactured at low cost.
  • each first light receiving section 23A and each second light receiving section 23B may be constituted by one light receiving element (for example, a pixel) included in a photodiode array or an image sensor, or may be configured by one light receiving element (for example, a pixel) included in a photodiode array or an image sensor. It may be configured by one section of light receiving elements.
  • each of the first light receiving sections 23A and each of the second light receiving sections 23B is constituted by a section of light receiving elements of a photodiode array or an image sensor
  • the IC 11 receives the output signal of the section of light receiving elements.
  • the sum may be an output signal from one first light receiving section 23A or one second light receiving section 23B.
  • the image sensor may be a general-purpose component used in digital cameras and the like. By using such general-purpose parts, the sensor 30I can be manufactured at low cost. Furthermore, a plurality of light receiving unit groups 23 can be configured without mounting a plurality of light receiving elements one by one. Therefore, productivity of the sensor 30I can be improved.
  • FIG. 30 is a cross-sectional view showing an example of the configuration of a sensor 30J according to modification 10.
  • the sensor 30J differs from the sensor 30A of the first modification in that it includes a lens 51.
  • the lens 51 can collect the light emitted from the pinhole 31DA and adjust the light distribution of the light incident on the reflection section 25. Therefore, the light distribution of the light reflected by the reflecting section 25 can be adjusted.
  • the lens 51 is provided on or above the pinhole 31DA.
  • the optical axis of the lens 51 coincides with the central axis 30L.
  • Lens 51 may be an aspherical lens.
  • the aspherical lens may be able to adjust the light distribution of the reflected light from the reflecting section 25 and expand the linear region of the light distribution. In this case, the detection error of the sensor 30J can be reduced, and the dynamic range can also be expanded.
  • the lens 51 is provided above the pinhole 31DA or above the pinhole 31DA.
  • the irradiation range of the pinhole 31DA can be concentrated in the movable range of the reflection section 25, and it is possible to reduce wasted light that does not contribute to sensing around the reflection section 25. Therefore, the light utilization efficiency of the sensor 30J can be increased, and even with the same power consumption, better sensitivity can be obtained.
  • FIG. 31 is a cross-sectional view showing an example of the configuration of a sensor 20K according to modification 11.
  • the sensor 20K differs from the sensor 20 according to the embodiment in that it includes a lens 52.
  • the lens 52 is provided on or above the light source 22 .
  • the optical axis of the lens 52 coincides with the central axis 20L.
  • Lens 52 may be an aspherical lens.
  • the aspherical lens may have the same function as the aspherical lens in Modification 10.
  • the sensor 20K of modification 11 is provided on or above the light source 22. Thereby, it is possible to concentrate the irradiation range of the light source 22 on the movable range of the reflection section 25, and to reduce wasted light that does not contribute to sensing around the reflection section 25. Therefore, it is possible to increase the light usage efficiency of the sensor 20K and obtain better sensitivity with the same power consumption.
  • the sensor 20 and the sensors 30A to 30J, 20K include a light receiving unit group 23 in which a plurality of first and second light receiving units 23A, 23B are arranged in a cross shape.
  • the sensor 20 and the sensors 30A to 30J, 20K may include any of the light receiving unit groups 61, 62 of Modifications 12 and 13 below.
  • FIG. 32 is a plan view showing an example of the configuration of the light receiving unit group 61 of Modification 12.
  • the light receiving unit group 61 includes a plurality of light receiving units 61A m,n (where m and n are positive integers).
  • the plurality of light receiving sections 61A m, n are two-dimensionally arranged in a matrix on the base material 21.
  • the numbers 1, 2, ..., 7 arranged in the Y direction represent the row numbers m of the light receiving sections 61A m, n
  • the numbers 1, 2, ..., arranged in the X direction, 7 represents the column number n of the light receiving section 61A m,n .
  • the light receiving section 61A m,n represents a light receiving section arranged at a position of m rows and n columns.
  • the light receiving sections 61A 2,2 represent the light receiving sections arranged in the 2nd row and 2nd column
  • the light receiving sections 61A 6,6 represent the light receiving sections arranged in the 6th row and 6th column.
  • a light source 22 is arranged at the center of the light receiving unit group 61.
  • the plurality of light receiving sections 61A m, n may be configured by a photodiode array or an image sensor.
  • each light receiving section 61A m, n may be constituted by one light receiving element (for example, a pixel) 61AE included in a photodiode array or an image sensor, or a section of light receiving element 61AE included in a photodiode array or image sensor. 61AE.
  • one or more light sources 22 may be arranged around the light receiving section group 23 so that light is emitted from the periphery toward the reflecting section 25.
  • the IC 11 sequentially scans a plurality of light receiving sections 61A m,n arranged two-dimensionally, and obtains an output signal S m ,n from each light receiving section 61A m ,n .
  • the IC 11 uses the obtained plurality of output signals S m,n to select the three light receiving parts 61A having the highest received light intensity from the first to the third among the plurality of light receiving parts 61A m,n.
  • n for example, light receiving sections 61A m1,n1 , 61A m2,n2 , 61A m3,n3 (hereinafter referred to as "upper three light receiving sections 61A m1,n1 , 61A m2,n2 , 61A m3,n3 "))) Identify.
  • FIG. 34 shows an example in which the top three light receiving sections 61A m1,n1 , 61A m2,n2 , and 61A m3,n3 are arranged in the Y direction (column direction).
  • FIG. 36 two of the upper three light receiving sections 61A m1,n1 , 61A m2,n2 , 61A m3 ,n3 are arranged in the Y direction (column direction), and two An example is shown in which two light receiving sections 61A m1,n1 and 61A m3,n3 are arranged in the X direction (row direction).
  • the IC 11 selects the row 61M of the light receiving sections 61A m,n and the column 61N of the light receiving sections 61A m,n used for calculating the forces F.sub.X and F.sub.Y.
  • the IC 11 is arranged as shown in FIG. As shown, a column 61N of light receiving sections 61A m, n including the top three light receiving sections 61A m1,n1 , 61A m2,n2 , and 61A m3,n3 is selected. Further, as shown in FIG. 34, as shown in FIG. 34, when the top three light receiving sections 61A m1,n1 , 61A m2,n2 , and 61A m3,n3 are arranged in the Y direction (column direction), the IC 11 is arranged as shown in FIG. As shown, a column 61N of light receiving sections 61A m, n including the top three light receiving sections 61A m1,n1 , 61A m2,n2 , and 61A m3,n3 is selected. Further, as shown in FIG. 34, when the top three light receiving sections 61A m1,n1 , 61A m2,n2 , and 61A m3,n
  • the IC 11 includes a light receiving section 61A m1, which includes the central one of the three upper light receiving sections 61A m1,n1 , 61A m2 ,n2 , and 61A m3 ,n3 . , selects row 61M of n .
  • the IC 11 selects the top three light receiving sections 61A m1,n1 , 61A m2,n2 , 61A m3,n3 in the X direction (column direction).
  • the row 61M of the light receiving sections 61A m , n including the light receiving sections 61A m3, n2 , 61A m3, n3 is selected.
  • the IC 11 selects the row 61N of the light receiving sections 61A m, n including the centrally located 61A m1, n1 among the top three light receiving sections 61A m1, n1 , 61A m2 , n2 , 61A m3, n3. .
  • the IC11 selects a row 61N of light receiving sections 61A m, n including two light receiving sections 61A m1,n1 and 61A m2,n2 lined up in the Y direction (column direction). Further, as shown in FIG. 37, the IC 11 selects a row 61M of light receiving sections 61A m, n including two light receiving sections 61A m1,n1 and 61A m3,n3 lined up in the X direction (row direction).
  • the IC 11 calculates the forces F X and F Y using the row 61M of the light receiving sections 61A m , n and the column 61N of the light receiving sections 61A m , n selected as described above.
  • the calculation operation of the forces F X and F Y is the same as the first one except that the row 61M of the light receiving portions 61A m , n and the column 61N of the light receiving portions 61A m , n selected as described above are used. This is similar to the second detection operation of the forces F X and F Y by the sensor module 10 in the embodiment (see FIG. 13).
  • FIG. 38 is a plan view showing an example of the configuration of the light receiving unit group 62 of Modified Example 13.
  • the X-axis and Y-axis are referred to as a first axis and a third axis, respectively, and the axes rotated by 45 degrees and 135 degrees with respect to the X-axis are referred to as a second axis and a fourth axis, respectively.
  • the circle 63C n (where n is a positive integer) represents a virtual circle centered on the geometric center of the light source 22 in plan view and having a radius r n .
  • the circle 63Cn with a larger value of n has a larger radius rn and is located on the outside.
  • the light receiving section group 62 includes a plurality of light receiving sections 62A n .
  • Four light receiving parts 62A n are arranged at equal intervals in the circle 63C n .
  • the four light receiving portions 62A n are arranged at regular intervals such that the geometric center is located at the intersection of the circle 63C n having the radius r n and the second axis and the fourth axis.
  • the four light receiving sections 62A n+1 are arranged at equal intervals so that the geometric center is located at the intersection of the circle 63C n+1 with radius r n +1 and the first and third axes.
  • the four light receiving sections 62A n located on the circle 63C n constitute a first light receiving section pair and a second light receiving section pair.
  • the first light receiving unit pair is a pair of light receiving units 62A n corresponding to each other in the direction of the first axis or the second axis.
  • the second light receiving unit pair is a pair of light receiving units 62A n corresponding to each other in the direction of the third axis or the fourth axis.
  • the IC 11 may detect the forces F X , F Y , and F Z acting on the sensor 20 based on the outputs of the first pair of light receivers and the second pair of light receivers located in the same circle 63C n .
  • the IC 11 uses the first light receiving section pair and/or the second light receiving section pair closer to the geometric center of the light source 22, The forces F X , F Y , F Z acting on the sensor 20 may be detected.
  • the four light receiving parts 62A n located on the circle 63C n and the four light receiving parts 62A n +1 located on the circle 63C n+1 adjacent to the circle 63C n are arranged to be shifted in the radial direction and the circumferential direction.
  • the four light receiving sections 62A n+ 1 located at the circle 63C n+1 can be made larger than the four light receiving sections 62A n located at the circle 63C n .
  • the IC 11 adjusts the forces F.sub.X , F.sub.Y , FZ may also be detected.
  • the first light receiving section and the second light receiving section near the geometric center of the light source 22 have a small area, but when the reflecting section 25 is close to the light source 22, the intensity of the light entering the first light receiving section and the second light receiving section is small. Because of its high temperature, it can be sensed with high sensitivity.
  • the IC 11 uses the forces F.sub . Y , FZ may also be detected.
  • the intensity of the light that enters the first light receiving section and the second light receiving section that are far from the geometric center of the light source 22 is low, but since the first light receiving section and the second light receiving section that are far from the geometric center of the light source 22 have a large area, the light that enters the light receiving section is low. Even if the intensity of light is low, a sufficient amount of light can be received by the first light receiving section and the second light receiving section, and sensing can be performed with high sensitivity.
  • the sensor 20 may not include the elastic body 24 and may have a hollow structure.
  • the light shielding layer 26 may be self-supporting and elastic.
  • the IC 11 uses the output signals S A3 and S A4 of the four pairs of first light receiving sections 23A 3 and 23A and the output signals S B3 and S B4 of the four pairs of second light receiving sections 23B 3 and 23B,
  • the IC 11 may operate as follows.
  • the IC 11 calculates the force FZ acting in the Z direction based on the sum SZ1 of the output signals, and sends it to the main CPU 12A. Output.
  • the IC 11 When the distance between the center position of the reflecting section 25 and the base material 21 is greater than the second specified value and less than or equal to the first specified value, the IC 11 generates a force F Z acting in the Z direction based on the sum SZ2 of the output signals. is calculated and output to the main CPU 12A.
  • the IC 11 calculates the force FZ acting in the Z direction based on the sum SZ3 of the output signals, and sends the power to the main CPU 12A. Output to.
  • the IC 11 determines whether the distance between the center position of the reflecting portion 25 and the base material 21 is greater than the first specified value based on whether the sum SZ 1 of the output signals is greater than the first specified value SZ A. The IC 11 determines whether the distance between the center position of the reflecting part 25 and the base material 21 is greater than the second specified value and less than or equal to the first specified value, depending on whether the sum SZ1 of the output signals is greater than the second specified value SZB . 1. Judgment is made based on whether it is less than or equal to the specified value SZA .
  • the IC 11 determines whether the distance between the center position of the reflecting portion 25 and the base material 21 is less than or equal to a second specified value based on whether the sum of the output signals SZ1 is less than or equal to a second specified value SZB . do.
  • the IC 11 calculates the force FZ from the sum SZ 1 of the output signals or the sum SZ 2 of the output signals, and outputs it to the main CPU 12A.
  • the present disclosure is not limited to this example; for example, the IC 11 may output the sum of output signals SZ 1 or the sum of output signals SZ 2 to the main CPU 12A.
  • the IC 11 outputs the sum SZ1 of the output signals to the main CPU 12A, and When the distance between the base material 21 and the base material 21 becomes closer than a specified value, the IC 11 may output the sum SZ2 of the output signals to the main CPU 12A.
  • the IC 11 calculates the force F X , the force F Y , and the force F Z from the output signal difference SX, the output signal difference SY, and the sum SZ of the output signals, and outputs them to the main CPU 12A.
  • the present disclosure is not limited to this example; for example, the IC 11 may output the output signal difference SX, the output signal difference SY, and the output signal sum SZ to the main CPU 12A.
  • the present disclosure can also adopt the following configuration.
  • a group of light receiving parts a reflecting section provided above the light receiving section group; an elastic body provided between the reflecting section and the light receiving section group;
  • the light receiving unit group is four or more first light receiving sections arranged in a first direction; and four or more second light receiving sections arranged in a second direction perpendicular to the first direction.
  • Force sensor (2)
  • the first light receiving section and the second light receiving section which are farther from the center of the light receiving section group have a larger area of the light receiving region.
  • the force sensor described in (1) (3)
  • the four or more first light receiving sections are arranged symmetrically with respect to the center of the light receiving section group,
  • the four or more second light receiving sections are arranged symmetrically with respect to the center of the light receiving section group.
  • the first light receiving section and the second light receiving section are each constituted by a section of light receiving element included in the image sensor.
  • the force sensor according to any one of (1) to (4). (6) Further equipped with a light-shielding layer, the light shielding layer covers the elastic body and the reflective section; The force sensor according to any one of (1) to (5).
  • the elastic body has a top surface and a side surface, the light shielding layer covers the top surface and the side surfaces;
  • the reflective section includes a light scatterer.
  • a wavelength conversion layer provided between the elastic body and the reflective section; further comprising a color filter that covers the light receiving unit group, The wavelength conversion layer can convert the first light emitted from the light source into second light, The color filter can absorb the first light and transmit the second light.
  • the force sensor according to any one of (1) to (11).
  • a light transmitting layer provided between the elastic body and the light receiving unit group; further comprising a lens capable of forming an image of the reflective portion within the light transmitting layer; The force sensor according to any one of (1) to (12).
  • the number of the first light receiving parts arranged in the first direction is 6 or more
  • the number of the second light receiving parts arranged in the second direction is six or more, The force sensor according to any one of (1) to (13).
  • the light receiving unit group is four or more first light receiving sections arranged in a first direction; and four or more second light receiving sections arranged in a second direction perpendicular to the first direction.
  • the elastic layer has a groove between the adjacent light receiving unit groups in a plan view.
  • a light-transmitting layer provided between the elastic layer and the plurality of light-receiving section groups; further comprising: a plurality of lenses forming images of the plurality of reflective parts in the light transmission layer;
  • the sensor according to any one of (1) to (17); a detection section; Equipped with The detection unit includes: Selecting a difference in output signals included in a first linear region from among the differences in output signals of the pair of first light receiving units, selecting a difference in output signals included in a second linear region from among differences in output signals of the pair of second light receiving units; sensor module. (19) The sensor according to any one of (1) to (17); a detection section; Equipped with The detection unit includes: Selecting the difference between the output signals of the pair of first light-receiving units that results in the smallest detection error, selecting a difference in output signals that results in the smallest detection error among the differences in output signals of the pair of second light receiving units; sensor module. (20) Equipped with the force sensor according to any one of (1) to (17), robot hand.
  • the robot hand may include the sensor module 10 (ie, the sensor 20 and the IC 11) according to the above embodiment.
  • the sensor module 10 may include any of the sensors 30A to 30J and 20K of Modifications 1 to 11 instead of the sensor 20.
  • the sensor 20, the sensors 30A to 30J, and 20K may include the light receiving section groups 61 and 62 of Modifications 12 and 13 instead of the light receiving section group 23.
  • the robot hand may include the sensor 20 of the above-described embodiment and any of the sensors 30A to 30J and 20K of the first to eleventh modifications, and a control device or the like that controls the robot hand may include the IC 11.
  • the sensor 20, the sensors 30A to 30J, and 20K may include the light receiving section group 23, or may include the light receiving section groups 61 and 62 of Modifications 12 and 13 instead of the light receiving section group 23.
  • FIG. 39 is a schematic diagram showing an example of the configuration of the robot hand 120.
  • the robot hand 120 is configured to be able to grip a workpiece 130.
  • Robot hand 120 is provided at the tip of robot arm 110.
  • Robot hand 120 is an example of an end effector.
  • the robot hand 120 includes a link 120C and a plurality of fingers 120A and 120B.
  • the robot hand 120 includes two finger sections 120A and 120B will be described, but the number of finger sections is not limited to this, and may be one, or three or more. There may be.
  • the link 120C is connected to the robot arm 110.
  • the link 120C may constitute a palm portion.
  • Finger portion 120A and finger portion 120B are connected to link 120C.
  • the finger portion 120A and the finger portion 120B are configured to be able to grip the workpiece 130.
  • the finger portion 120A includes two links 121A and 122A, a joint portion 123A, and a force sensor (first sensor) 124A.
  • the finger portion 120B includes two links 121B and 122B, a joint portion 123B, and a force sensor (second sensor) 124B.
  • the joint portion 123A connects the link 121A and the link 122A.
  • the finger portion 120A is configured to be bendable around the joint portion 123A.
  • Joint portion 123B connects link 121B and link 122B.
  • the finger portion 120B is configured to be bendable around the joint portion 123B.
  • an example will be described in which the finger sections 120A and 120B have one joint, but the number of joints may be two or more.
  • the force sensor (first sensor) 124A is provided at the fingertip of the finger portion 120A, that is, at the tip of the link 122A.
  • the force sensor (second sensor) 124B is provided at the fingertip of the finger portion 120B, that is, at the tip of the link 122B.
  • the force sensors 124A and 124B may be the sensor 20 of one embodiment, or may be any of the sensors 30A to 30J and 20K of Modifications 1 to 11. Although not shown in FIG. 39, the force sensors 124A and 124B are each connected to the IC 11 (see FIG. 1).
  • the IC 11 is connected to a main CPU (Central Processing Unit) 12A included in the host device 12.
  • the host device 12 is a control device that controls the robot arm 110 and the robot hand 120.
  • the IC 11 may be provided in the robot hand 120 or may be provided in the control device.
  • the force sensor 124A is configured to be able to detect the pressure distribution and shear force at the fingertip of the finger portion 120A.
  • the force sensor 124A detects the pressure distribution and shear force at the fingertip of the finger portion 120A under the control of the IC 11A, and outputs the detection results to the sensor IC 11A.
  • the force sensor 124B is configured to be able to detect the pressure distribution and shear force at the fingertip of the finger portion 120B.
  • the force sensor 124B detects the pressure distribution and shear force at the fingertip of the finger portion 120B under the control of the IC 11A, and outputs the detection results to the sensor IC 11A.
  • FIG. 40 is a schematic diagram showing an example of the configuration of the robot hand 125.
  • the robot hand 125 is different from the robot hand of specific example 1 in that a plurality of force sensors 124A are provided at the fingertips of the finger portion 120A, and a plurality of force sensors 124B are provided at the tip of the fingertip of the finger portion 120B. It is different from 120.
  • a plurality of force sensors 124A are two-dimensionally arranged at the fingertip of the finger portion 120A, forming a tactile sensor.
  • a plurality of force sensors 124B are two-dimensionally arranged at the fingertips of the finger portions 120B, forming a tactile sensor.
  • FIG. 41 is a schematic diagram showing the configuration of a robot hand 210 to which force sensors 211-1 to 211-16 are applied.
  • the force sensors 211-1 to 211-16 may be the sensor 20 of one embodiment, or may be any of the sensors 30A to 30J, 20K of Modifications 1 to 11. It is preferable that the force sensors 211-1 to 211-16 have a film shape.
  • the force sensors 211-1 to 211-16 are each connected to the IC 11 (see FIG. 1).
  • the IC 11 is connected to a main CPU (Central Processing Unit) 12A included in the host device 12.
  • the host device 12 is a control device that controls the robot hand 210.
  • the IC 11 may be provided in the robot hand 120 or may be provided in the control device.
  • the palm of the robot hand 210 is provided with force sensors 211-1 and 211-2, and the force sensor 211-2 is provided above the first joint on the palmar surface of the thumb of the robot hand 210. 3.
  • a force sensor 211-4 is provided between the first joint and the second joint, and a force sensor 211-5 and a force sensor 211-5 are provided above the first joint on the palm surface of the index finger.
  • a force sensor 211-6 is provided between the second joint and a force sensor 211-7 is provided between the second and third joint.
  • a force sensor 211-8 is placed above the first joint on the palm surface of the middle finger, a force sensor 211-9 is placed between the first and second joints, and a force sensor 211-9 is placed between the second and third joints.
  • a force sensor 211-10 is provided on the palm surface of the ring finger, and a force sensor 211-11 is provided above the first joint, and a force sensor 211 is provided between the first joint and the second joint.
  • a force sensor 211-13 is provided between the second joint and the third joint, and a force sensor 211-14 and a first force sensor are provided above the first joint on the palm surface of the little finger.
  • a force sensor 211-15 is provided between the joint and the second joint, and a force sensor 211-16 is provided between the second joint and the third joint.
  • the robot hand 125 may include a sensor array instead of the force sensors 211-1 to 211-16.
  • the sensor array may include a plurality of sensors arranged two-dimensionally.
  • the sensor array may constitute a tactile sensor.
  • the sensor 20 of one embodiment may be used, or any of the sensors 30A to 30J and 20K of Modifications 1 to 11 may be used.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)

Abstract

広いダイナミックレンジを得ることができ、かつ、高い感度を得ることができる力覚センサを提供する。 力覚センサは、受光部群と、受光部群の上方に設けられた反射部と、反射部と受光部群の間に設けられた弾性体とを備える。受光部群は、第1方向に配置された、4個以上の第1受光部と、第1方向と直交する第2方向に配置された、4個以上の第2受光部とを含む。

Description

力覚センサ、センサモジュールおよびロボットハンド
 本開示は、力覚センサ、それを備えるセンサモジュールおよびロボットハンドに関する。
 ロボットハンドにおいて対象物に加わる力の強さや方向を検出し、対象物の安定把持や対象物の操作を実現するため、3軸の力分布を取得可能な力覚センサが望まれている。力覚センサの一つとして、光学式の3軸力覚センサがある。光学式の3軸力覚センサは通常、構成要素として、光源と、反射板と、2つのペアの受光部とを備える。2つのペアの受光部のうち第1のペアの受光部はX方向に配置され、第2のペアの受光部はY方向に配置される(例えば特許文献1参照)。
国際公開第2014/045865号パンフレット
 しかしながら、上記の構成を有する光学式の3軸力覚センサでは、ダイナミックレンジ狭くなると共に、感度が低下することがある。
 本開示の目的は、広いダイナミックレンジを得ることができ、かつ、高い感度を得ることができる力覚センサ、それを備えるセンサモジュールおよびロボットハンドを提供することにある。
 上述の課題を解決するために、本開示に係る第1の力覚センサは、
 受光部群と、
 受光部群の上方に設けられた反射部と、
 反射部と受光部群の間に設けられた弾性体と
 を備え、
 受光部群は、
 第1方向に配置された、4個以上の第1受光部と、
 第1方向と直交する第2方向に配置された、4個以上の第2受光部と
 を含む。
 本開示に係る第2の力覚センサは、
 複数の受光部群と、
 各受光部群の上方に設けられた複数の反射部と、
 複数の反射部と複数の受光部群の間に設けられた弾性層と
 を備え、
 受光部群は、
 第1方向に配置された、4個以上の第1受光部と、
 第1方向と直交する第2方向に配置された、4個以上の第2受光部と
 を含む。
 本開示に係るセンサモジュールは、上記第1の力覚センサおよび上記第2の力覚センサの少なくとも一方を備える。
 本開示に係るロボットハンドは、上記第1の力覚センサおよび上記第2の力覚センサの少なくとも一方を備える。
図1は、一実施形態に係るセンサモジュールの構成の一例を示すブロック図である。 図2は、センサの構成の一例を示す断面図である。 図3は、受光部群の構成の一例を示す平面図である。 図4は、出力信号の差SXA1,A4、出力信号の差SXA2,A4および出力信号の差SXA3,A6の一例を表すグラフである。 図5は、出力信号の差SYB1,B4、出力信号の差SYB2,B4および出力信号の差SYB3,B6の一例を表すグラフである。 図6Aは、反射部の中心位置の変位量ΔXがΔX=0であるときの配光分布、光量の和QZA2,A5および光量の差QXA2,A5の一例を示す図である。図6Bは、反射部の中心位置の変位量ΔXがΔX=dであるときの配光分布、光量の和QZA2,A5および光量の差QXA2,A5の一例を示す図である。図6Cは、反射部の中心位置の変位量ΔXがΔX=2dであるときの配光分布、光量の和QZA2,A5および光量の差QXA2,A5の一例を示す図である。 図7Aは、出力信号の差SXA1,A4の一例を表すグラフである。図7Bは、出力信号の差SXA2,A5の一例を表すグラフである。図7Cは、出力信号の差SXA3,A6の一例を表すグラフである。 図8Aは、出力信号の差SXA1,A4の誤差が少ない領域RA1,A4の一例を表す概略図である。図8Bは、出力信号の差SXA2,A5の誤差が少ない領域RA2,A5の一例を表す概略図である。図8Cは、出力信号の差SXA3,A6の誤差が少ない領域RA3,A6の一例を表す概略図である。図8Dは、領域RA1,A4と領域RA2,A5と領域RA3,A6とが統合された領域RA1,A6の一例を表す概略図である。 図9Aは、出力信号の差SYB1,B4の一例を表すグラフである。図9Bは、出力信号の差SYB2,B5の一例を表すグラフである。図9Cは、出力信号の差SYB3,B6の一例を表すグラフである。 図10Aは、出力信号の差SYB1,B4の誤差が少ない領域RA1,A4の一例を表す概略図である。図10Bは、出力信号の差SYB2,B5の誤差が少ない領域RA2,A5の一例を表す概略図である。図10Cは、出力信号の差SYB3,B6の誤差が少ない領域RA3,A6の一例を表す概略図である。図10Dは、領域RB1,B4と領域RB2,B5と領域RB3,B6とが統合された領域RB1,B6の一例を表す概略図である。 図11は、センサモジュールによる力Fの検出動作の一例について説明するためのフローチャートである。 図12は、センサモジュールによる力F、Fの第1検出動作の一例について説明するためのフローチャートである。 図13は、センサモジュールによる力F、Fの第2検出動作の一例について説明するためのフローチャートである。 図14Aは、光学シミュレーションのモデルを示す側面図である。図14Bは、光学シミュレーションのモデルを示す平面図である。 図15は、光学シミュレーションにより求められた照度分布を示す図である。 図16Aは、光学シミュレーションにより求められた信号の和SZを示す図である。図16Bは、図16Aの破線位置における信号の和SZを示すグラフである。 図17Aは、光学シミュレーションにより求められた出力信号の差SXを示す図である。図17Bは、図17Aの破線位置における出力信号の差SXを示すグラフである。 図18は、光学シミュレーションにより求められた出力信号の差SYを示す図である。 図19Aは、変形例1のセンサの形状の一例を示す斜視図である。図19Bは、図19AのXIXB-XIXB線に沿った断面図である。 図20は、図19Bの一部の拡大断面図である。 図21は、変形例2のセンサの構成の一例を示す断面図である。 図22は、変形例3のセンサの構成の一例を示す断面図である。 図23は、変形例4のセンサの構成の一例を示す断面図である。 図24は、変形例5のセンサの構成の一例を示す断面図である。 図25は、変形例6のセンサの構成の一例を示す断面図である。 図26は、変形例7のセンサの構成の一例を示す断面図である。 図27は、変形例8のセンサの構成の一例を示す断面図である。 図28は、変形例9のセンサの構成の一例を示す断面図である。 図29は、受光部の構成の一例を示す平面図である。 図30は、変形例10のセンサの構成の一例を示す断面図である。 図31は、変形例11のセンサの構成の一例を示す断面図である。 図32は、変形例12の受光部群の構成の一例を示す平面図である。 図33は、受光部の構成の一例を示す平面図である。 図34は、センサモジュールによる力F、Fの検出動作の一例を説明するための平面図である。 図35は、センサモジュールによる力F、Fの検出動作の一例を説明するための平面図である。 図36は、センサモジュールによる力F、Fの検出動作の一例を説明するための平面図である。 図37は、センサモジュールによる力F、Fの検出動作の一例を説明するための平面図である。 図38は、変形例13の受光部群の構成の一例を示す平面図である。 図39は、具体例1のロボットハンドの構成の一例を示す概略図である。 図40は、具体例2のロボットハンドの構成の一例を示す概略図である。 図41は、具体例3のロボットハンドの構成の一例を示す概略図である。
 本開示の実施形態について図面を参照しながら以下の順序で説明する。なお、以下の実施形態の全図においては、同一または対応する部分には同一の符号を付す。
 1 一実施形態(センサおよびセンサモジュールの例)
 2 変形例(センサの変形例、受光部群の変形例およびその他の変形例)
 3 適用例(ロボットハンドに対する適用例)
<1 一実施形態>
[センサモジュール10の構成]
 図1は、一実施形態に係るセンサモジュール10の構成の一例を示すブロック図である。センサモジュール10は、センサ20と、IC11とを備える。センサモジュール10は、ロボットハンドまたは電子機器等に備えられていてもよい。センサモジュール10は、例えば、ホスト機器12が備えるメインCPU(Central Processing Unit)12Aに接続されている。
(センサ20)
 図2は、センサ20の構成の一例を示す断面図である。センサ20は、光学式の3軸力覚センサである。センサ20は、基材21と、光源22と、受光部群23と、弾性体24と、反射部25と、遮光層26とを備える。センサ20は、ドーム状を有している。ここで、ドーム状は、半球状またはそれに類似する凸状を表す。当該凸状は、略放物面状、略半球状および略半楕円球等の形状を含む。センサ20は、センサ20のドーム状曲面に力が作用していない状態において、ドーム状の曲面の頂部と円形状の底面の中心を通る中心軸20Lを有している。
(基材21)
 基材21は、光源22、受光部群23、弾性体24および遮光層26を支持する。基材21は、反射部25側となる第1面と、第1面とは逆側の第2面とを有する。本実施形態において、中心軸20Lに平行な方向、すなわち、基材21の第1面に対して垂直な方向をZ方向(第3方向)という。Z方向に直交すると共に互いに直交する2方向、すなわち基材21の第1面に平行な面内において互いに直交する2方向をX方向(第1方向)およびY方向(第2方向)という。第1面および第2面は、平面視において、円形状を有している。平面視とは、+Z方向または-Z方向から対象物が見られたときの平面視を表す。基材21は、第1面側に光吸収層を備えていてもよい。
 光源22、受光部群23、弾性体24および遮光層26は、基材21の第1面に設けられている。光源22および/または受光部群23は、基材21の第1面に直接形成されていてもよいし、貼り合わされていてもよい。ここで、「および/または」とは、少なくとも一方を意味し、例えば、「Xおよび/またはY」の場合、Xのみ、Yのみ、XおよびYの三通りを意味する。
 本実施形態において、基材21の第1面を基準とする、Z方向における反射部25の反射面中心位置を反射部25の高さZまたは反射部25の位置Zという。基材21の中心軸20hを基準とする、X方向における反射部25の反射面中心位置を反射部25の位置Xという。基材21の中心軸20hを基準とする、Y方向における反射部25の反射面中心位置を反射部25の位置Yという。ここで、反射面中心位置とは、平面視における反射面の幾何中心位置を表す。
 基材21は、例えば、基板またはフィルムである。基板は、剛性を有していてもよいし、可撓性を有していてもよい。基板は、例えば、光源22および/または受光部群23等の形成が容易な半導体で構成されていてもよいし、水分および酸素の透過性が低いガラスまたは樹脂で構成されていてもよい。具体的には、基板は、半導体基板、ガラス基板または樹脂基板等であってもよい。半導体基板は、例えば、アモルファスシリコン、多結晶シリコンまたは単結晶シリコン等を含む。ガラス基板は、例えば、高歪点ガラス、ソーダガラス、ホウケイ酸ガラス、フォルステライト、鉛ガラスまたは石英ガラス等を含む。樹脂基板は、例えば、ポリメチルメタクリレート、ポリビニルアルコール、ポリビニルフェノール、ポリエーテルスルホン、ポリイミド、ポリカーボネート、ポリエチレンテレフタラートおよびポリエチレンナフタレート等からなる群より選ばれた少なくとも1種を含む。基材21は、必要に応じて第1面側に絶縁層を備えていてもよい。
(光源22)
 光源22は、反射部25に向けて光を出射することができる。光源22が出射することができる光は特に限定されず、例えば可視光、紫外光および赤外光のいずれであってもよい。可視光は、白色光、赤色光、緑色光、青色光またはこれら以外の色の光であってもよい。光源22は、基材21の第1面の幾何中心位置に設けられている。光源22は、センサ20のドーム状曲面に力が作用していない状態において、反射部25の直下に位置している。光源22の光出射面の幾何中心位置(以下単に「光源22の中心位置」という。)は、センサ20のドーム状曲面に力が作用していない状態において、中心軸20L上に位置している。光源22は、例えば、LED(Light Emitting Diode)素子、LD(Laser Diode)素子、SLD(Super Luminescent Diode)素子またはOLED(Organic Light Emitting Diode)素子等の発光素子を含む。光源22は、発光素子がパッケージされたSMD(Surface Mount Device)等であってもよし、ワイヤーボンディング等で基材21上に配線された発光素子であってもよい。
(受光部群23)
 図3は、受光部群23の構成の一例を示す平面図である。受光部群23は、第1受光部23A~23Aと、第2受光部23B~23Bとを含む。以下の説明において、第1受光部23A~23Aを総称して第1受光部23Aという場合がある。また、第2受光部23B~23Bを総称して第2受光部23Bという場合がある。本実施形態では、センサ20が、6個の第1受光部23A~23Aと、6個の第2受光部23B~23Bとを備える例について説明するが、第1受光部23Aおよび第2受光部23Bの個数はこれに限定されるものではない。例えば、第1受光部23Aおよび第2受光部23Bの個数が、4個、5個または7個以上であってもよい。第1受光部23Aおよび第2受光部23Bの個数は、偶数であることが好ましい。
 第1受光部23A、23Aおよび第2受光部23B、23Bは、反射部25の高さZが高く、例えば高さZがh<Zの範囲である場合に用いられてもよい。第1受光部23A、23Aおよび第2受光部23B、23Bは、反射部25の高さZが低い場合、例えば反射部25の高さZがZ<hの範囲である場合に用いられてもよい。第1受光部23A、23Aおよび第2受光部23B、23Bは、例えばZがh≦Z≦hの範囲である場合に用いられてもよい。第1受光部23A~23Aがペアとして切り替えて用いられる場合には、反射部25の高さZによらず、第1受光部23A~23Aのすべてが用いられてもよい。第2受光部23B~23Bがペアとして切り替えて用いられる場合には、反射部25の高さZによらず、第2受光部23B~23Bのすべてが用いられてもよい。
 第1受光部23A~23Aおよび第2受光部23B~23Bは、反射部25により反射された光を受光することができる。第1受光部23A~23Aおよび第2受光部23B~23Bは、受光した光を電気信号に変換し、IC11に供給することができる。第1受光部23A~23Aは、X方向に配列され、列を構成している。列を構成する第1受光部23A~23Aは、受光部群23の中心に関して、すなわち光源22の幾何中心に関して対称に配置されている。第2受光部23B~23Bは、Y方向に配列され、列を構成している。列を構成する第2受光部23B~23Bは、受光部群23の中心に関して、すなわち光源22の幾何中心に関して対称に配置されている。隣接する第1受光部23A、23Aの距離DA1、隣接する第1受光部23A、23Aの距離DA2、隣接する第1受光部23A、23Aの距離DA3、隣接する第1受光部23A、23Aの距離DA4は、同一(すなわちDA1=DA2=DA3=DA4)であってもよい。隣接する第2受光部23B、23Bの距離DB1、隣接する第2受光部23B、23Bの距離DB2、隣接する第2受光部23B、23Bの距離DB3、隣接する第2受光部23B、23Bの距離DB4は、同一(すなわちDB1=DB2=DB3=DB4)であってもよい。隣接する第1受光部23Aの距離と、隣接する第2受光部23Bの距離が、同一(すなわちDA1=DA2=DA3=DA4=DB1=DB2=DB3=DB4)であってもよい。
 第1受光部23A~23A、第2受光部23B~23Bはそれぞれ、1または2以上の受光素子を含む。受光素子は、例えば、フォトダイオード、アバランシェフォトダイオードまたはフォトトランジスタである。第1受光部23A~23A、第2受光部23B~23Bはそれぞれ、1または2以上の受光素子がパッケージされたSMD(Surface Mount Device)等であってもよし、ワイヤーボンディング等で基材21上に配線された1または2以上の受光素子であってもよい。第1受光部23A~23A、第2受光部23B~23Bは、バンプ等の接続部材を介して基材21上に実装されていてもよいし、例えばアモルファスシリコン等をパターニングすることにより、基材21上に直接形成されていてもよい。
 第1受光部23A、23Aおよび第2受光部23B、23Bは、センサ20に作用する力の検出誤差を抑制する観点から、1.6×D≦h≦2.4×Dの関係を満たすことが好ましく、h=2Dの関係を満たすことがより好ましい。但し、hは、基材21の第1面を基準とする反射部25の反射面の高さである。Dは、光源22の中心位置(すなわち、中心軸20Lと基材21の第1面との交点位置)から第1受光部23Aの中心または第2受光部23Bの中心位置までの距離である。ここで、第1受光部23Aおよび第2受光部23Bの中心位置とは、平面視における第1受光部23Aおよび第2受光部23Bの幾何中心位置を表す。光源22の中心位置とは、上述したように、平面視における光源22の光出射面の幾何中心位置を表す。第1受光部23A~23Aおよび第2受光部23B~23Bの配置は、反射部25と基材21の距離が近づいた状態を基準に調整されることが好ましい。
 第1受光部23A~23A、第2受光部23B~23Bは、センサ20に作用する力の検出誤差を抑制する観点から、反射部25による反射光の配光分布(図15参照)が略線形(略リニア)に変化する線形領域内に設けられていることが好ましい。上記の反射部25による反射光の配光分布は、センサ20に±X方向、±Y方向および-Z方向の力が作用していない状態における、反射部25による反射光の配光分布であってもよいし、センサ20に±X方向および±Y方向の力が作用せず、センサ20に-Z方向のみに力(規定の力)が作用している状態における、反射部25による反射光の配光分布であってもよい。
(弾性体24)
 弾性体24は、±X方向、±Y方向および-Z方向に弾性変形することができる。弾性体24は、光源22から出射される光に対して透光性を有している。例えば、光源22が白色光、赤色光、緑色光または青色光等の可視光を出射することができるように構成されている場合、弾性体24は、可視光に対して透明性を有していてもよい。弾性体24は、着色されていてもよい。
 弾性体24は、ドーム状を有している。弾性体24は、ドーム状の頂部で反射部25を支持している。弾性体24は、反射部25と受光部群23の間に設けられている。弾性体24は、弾性体24の底面が基材21の第1面側となるように、基材21の第1面上に配置されている。弾性体24は、例えば、エラストマおよびゲルのうちの少なくとも一方を含む。エラストマは、例えば、シリコーン系エラストマ、アクリル系エラストマ、ウレタン系エラストマおよびスチレン系エラストマ等からなる群より選ばれた少なくとも1種を含む。ゲルは、例えば、シリコーンゲル、ウレタンゲル、アクリルゲルおよびスチレンゲルからなる群より選ばれた少なくとも1種の高分子ゲルを含む。弾性体24の材料としては、様々な硬度のものを選択することができる。弾性体24の材料硬度の選択により、センサ20の感度範囲を調整することが可能である。
(反射部25)
 反射部25は、光源22から出射された光を基材21の第1面に向けて反射することができる。すなわち、反射部25は、光源22から出射された光を受光部群23の第1面に向けて反射することができる。反射部25による反射は、例えば、鏡面反射または拡散反射である。反射部25は、例えば、光源22から出射された光を反射する反射面と、反射面とは反対側の裏面とを有する。反射面は、例えば、鏡面または拡散面である。
 反射部25は、受光部群23の上方に設けられている。反射部25は、センサ20のドーム状曲面に力が作用していない状態において、光源22の直上に位置している。具体的には、センサ20のドーム状曲面に力が作用していない状態において、反射部25の反射面の幾何中心位置(以下単に「反射部25の中心位置」という。)が、中心軸20L上に位置する。また、センサ20のドーム状曲面に力が作用していない状態において、反射部25の反射面は、基材21の第1面と平行に保持されている。反射部25は、弾性体24の頂部に保持されている。反射部25の中心位置(X方向、Y方向およびZ方向における位置)が、弾性体24の変形により変化する。この位置変化により、反射部25により反射光の配向分布を変化する。反射部25は、例えば、平面視において円形状または正多角形状(例えば正方形状)を有している。
 反射部25は、鏡面反射することができる反射層、または拡散反射(散乱)することができる拡散反射層である。反射層は、例えば、金属層である。金属層は、例えば、クロム(Cr)、金(Au)、白金(Pt)、ニッケル(Ni)、銅(Cu)、モリブデン(Mo)、チタン(Ti)、タンタル(Ta)、アルミニウム(Al)、マグネシウム(Mg)、鉄(Fe)、タングステン(W)および銀(Ag)からなる群より選ばれた少なくとも1種を含む。拡散反射層は、例えば、光散乱体として粒子を含む。より具体的には、拡散反射層は、白色シリコーン等を含む白色層、または白色フィルム(例えば白色PETフィルム)等である。
(遮光層26)
 遮光層26は、入射光を吸収することができる。入射光は、例えば、外光および光源22の出射光等である。遮光層26は、弾性体24と共に変形することができる。遮光層26は、弾性体24のドーム状の曲面上に設けられ、弾性体24のドーム状の曲面および反射部25の裏面(反射面とは反対側の面)を覆っている。
 遮光層26は、例えば、光吸収材料と、バインダーとを含む。光吸収材料は、例えば、黒色顔料を含む。黒色顔料は、例えば、カーボンブラックおよびチタンブラック等からなる群より選ばれた少なくとも1種を含む。チタンブラックは、チタン原子を含有する黒色粒子であり、低次酸化チタンおよび酸窒化チタンの少なくとも一方を含むことが好ましい。黒色顔料は、分散性向上および凝集性抑制等の目的で必要に応じ、表面修飾されていてもよい。遮光層26は、具体的には例えば、黒色シリコーンを含んでいてもよい。
 バインダーは、伸縮性を有していることが好ましい。バインダーは、例えば、シリコーン系樹脂、アクリル系樹脂およびウレタン系樹脂等からなる群より選ばれた少なくとも1種を含む。
(IC11)
 IC11は、光源22を駆動し、光源22から反射部25に向けて光を出射させる。IC11は、第1受光部23A~23A、第2受光部23B~23Bをスキャンし、第1受光部23A~23Aから出力信号SA1~SA6得ると共に、第2受光部23B~23Bから出力信号SB1~SB6を得る。IC11による第1受光部23A~23A、第2受光部23B~23Bのスキャンの順序は特に限定されるものでない。
(Z方向に作用する力Fの検出)
 IC11は、第1受光部23A、23Aペアの出力信号SA1、SA6および第2受光部23B、23Bペアの出力信号SB1、SB6を用いて、出力信号の和SZ(=SA1+SA6+SB1+SB6)を算出する。
 IC11は、第1受光部23A、23Aペアの出力信号SA2、SA5および第2受光部23B、23Bペアの出力信号SB2、SB5を用いて、出力信号の和SZ(=SA2+SA5+SB2+SB5)を算出する。
 反射部25の中心位置と基材21の距離が近くなるに従って(すなわち、Z方向における反射部25の中心位置が低くなるに従って)、反射部25による反射光の配光分布は縮小される。このため、反射部25の中心位置と基材21の距離が近くなるに従って、反射部25のX、Y方向の位置変化に対して出力信号の和SZの検出誤差が少ない領域が狭くなる。出力信号の和SZの検出誤差が少ない領域とは、反射部25のX、Y方向の位置変化に対して出力信号の和SZが略一定となる領域を表す。出力信号の和SZは、Z方向に作用する力(押圧力)Fに対応する。出力信号の和SZは、反射部25の中心位置と基材21の距離の変化に対して略線形(略リニア)に変化する。
 IC11は、上記特性の観点から、反射部25と基材21の距離に応じて、以下のように動作する。
 反射部25の中心位置と基材21の距離が規定値よりも遠い場合には、IC11は、出力信号の和SZに基づき、Z方向に作用する力Fを算出し、メインCPU12Aに出力する。反射部25の中心位置と基材21の距離が規定値よりも近づいた場合には、IC11は、出力信号の和SZに基づき、Z方向に作用する力Fを算出し、メインCPU12Aに出力する。
 IC11が上記のように反射部25の中心位置と基材21の距離に応じて位置検出の処理を行うことで、センサモジュール10のダイナミックレンジを広げることができる。
 IC11は、反射部25の中心位置と基材21の距離が規定値よりも近づいたか否かを、出力信号の和SZが規定値SZより大きいか否かに基づき判断する。すなわち、IC11は、出力信号の和SZが規定値SZより大きい場合には、反射部25の中心位置と基材21の距離が規定値よりも遠いと判断する。一方、IC11は、出力信号の和SZが規定値SZ以下である場合には、反射部25の中心位置と基材21の距離が規定値よりも近いと判断する。
(反射部25と基材21の距離が遠い場合における、X、Y方向に作用する力F、Fの検出)
 反射部25の中心位置と基材21の距離が遠くなるに従って、反射部25による反射光の配光分布は拡大される。このため、反射部25の中心位置と基材21の距離が遠くなるに従って、反射部25のX、Y方向の位置変化に対して出力信号の差SX(=(SAm-SAn)/(SAm+SAn))、SY(=(SBm-SBn)/(SBm+SBn))の検出誤差が少ない領域が広くなる。出力信号の差SX、SYの検出誤差が少ない領域とは、反射部25のX、Y方向の位置変化に対して出力信号の差SX、SYが略線形に変化する線形領域(第1、第2線形領域)を表す。出力信号の差SXは、X方向に作用する力(せん断力)Fに対応し、出力信号の差SYは、Y方向に作用する力(せん断力)Fに対応する。
 IC11は、上記特性の観点から、反射部25の中心位置と基材21の距離が規定値よりも遠い場合には、以下のように動作する。
 IC11は、第1受光部23A、23Aペアの出力信号SA1、SA6から出力信号の差SXA1,A6(=(SA1-SA6)/(SA1+SA6))を算出する。IC11は、算出された出力信号の差SXA1,A6に基づき、X方向に作用する力Fを算出し、メインCPU12Aに出力する。
 IC11は、第2受光部23B、23Bペアの出力信号SB1、SB6から出力信号の差SYB1,B6(=(SB1-SB6)/(SB1+SB6))を算出する。IC11は、算出された出力信号の差SYB1,B6に基づき、Y方向に作用する力Fを算出し、メインCPU12Aに出力する。
(反射部25と基材21の距離が近い場合における、X、Y方向に作用する力F、Fの検出)
 反射部25の中心位置と基材21の距離が近づくに従って、反射部25による反射光の配光分布は縮小される。このため、反射部25の中心位置と基材21の距離が近づくに従って、反射部25のX、Y方向の位置変化に対して出力信号の差SX(=(SAm-SAn)/(SAm+SAn))、SY(=(SBm-SBn)/(SBm+SBn))の検出誤差が少ない領域が狭くなる。出力信号の差SX、SYの検出誤差が少ない領域とは、上記のように、反射部25のX、Y方向の位置変化に対して出力信号の差SX、SYが略線形に変化する線形領域(第1、第2線形領域)を表す。出力信号の差SXは、X方向に作用する力Fに対応し、出力信号の差SYは、Y方向に作用する力Fに対応する。
 IC11は、上記特性の観点から、反射部25の中心位置と基材21の距離が規定値よりも近い場合には、以下のように動作する。
 IC11は、出力信号のペアSA、SAのうち、力Fの検出誤差を最も少なくすることができる出力信号のペアSA、SAを用いて、X方向に作用する力Fを算出する。また、IC11は、出力信号のペアSB、SBのうち、力Fの検出誤差を最も少なくすることができる出力信号のペアSB、SBを用いて、Y方向に作用する力Fを算出する。
 上記の力Fの算出に用いられる出力信号のペアSA、SAは、例えば、受光部群23の中心を跨いで、すなわち光源22を跨いで、規定距離離れた第1受光部23A、23Aペアから出力される出力信号のペアSA、SAである。具体的には、第1受光部23A、23Aの出力信号ペアSA、SA、第1受光部23A、23Aの出力信号ペアSA、SA、および第1受光部23A、23Aの出力信号のペアSA、SAである。
 上記の力Fの算出に用いられる出力信号のペアSB、SBは、例えば、受光部群23の中心を跨いで、すなわち光源22を跨いで、規定距離離れた第2受光部23B、23Bペアから出力される出力信号のペアSB、SBである。具体的には、第2受光部23B、23Bの出力信号のペアSB、SB、第2受光部23B、23Bの出力信号のペアSB、SB、および第2受光部23B、23Bの出力信号のペアSB、SBである。
 より具体的には、IC11は、以下のように動作する。
(反射部25の中心位置XA1,A4、XA2,A5、XA3,A6の算出)
 IC11は、反射部25の中心位置XA1,A4、XA2,A5、XA3,A6を以下のようにして算出する。
(反射部25の中心位置XA1,A4の算出)
 IC11は、第1受光部23A、23Aペアの出力信号SA1、SA4から、出力信号の差SXA1,A4(=(SA1-SA4)/(SA1+SA4))を算出する。出力信号の差SXA1,A4は、中心軸20Lを基準とする、X方向における反射部25の中心位置の変位量に対応する値である。IC11は、算出された出力信号の差SXA1,A4に基づき、反射部25の中心位置XA1,A4を算出する。
 図4に示されるように、-L≦SXA1,A4≦+Lの領域が線形領域である場合、反射部25の中心位置XA1,A4は、出力信号の差SXA1,A4(すなわち、第1受光部23A、23Aペアから得られた出力信号SA1、SA4)を用いて、下記の式(1-1)により求められる。
 A1,A4=-D11+(d11/L)×SXA1,A4 ・・・(1-1)
 但し、D11は、第1受光部23A、23Aペア間の中点の位置であり、d11は、(X方向におけるSXA1,A4の線形領域の幅)/2である。
 なお、線形領域とは、反射部25のX、Y方向の位置変化に対して出力信号の差SXAm,An、SYBm,Bnが略線形に変化する線形領域(第1、第2線形領域)を表す。
(反射部25の中心位置XA2,A5の算出)
 IC11は、第1受光部23A、23Aペアの出力信号SA2、SA5から、出力信号の差SXA2,A5(=(SA2-SA5)/(SA2+SA5))を算出する。出力信号の差SXA2,A5は、中心軸20Lを基準とする、X方向における反射部25の中心位置の変位量に対応する値である。IC11は、算出された出力信号の差SXA2,A5に基づき、反射部25の中心位置XA2,A5を算出する。
 図4に示されるように、-L≦SXA2,A5≦+Lの領域が線形領域である場合、反射部25の中心位置XA2,A5は、出力信号の差SXA2,A5(すなわち、第1受光部23A、23Aペアから得られた出力信号SA2、SA5)を用いて、下記の式(1-2)により求められる。
 A2,A5=(d12/L)×SXA2,A5 ・・・(1-2)
 但し、d12は、(X方向におけるSXA2,A5の線形領域の幅)/2である。
(反射部25の中心位置XA3,A6の算出)
 IC11は、第1受光部23A、23Aペアの出力信号SA3、SA6から、出力信号の差SXA3,A6(=(SA3-SA6)/(SA3+SA6))を算出する。出力信号の差SXA3,A6は、中心軸20Lを基準とする、X方向における反射部25の中心位置の変位量に対応する値である。IC11は、算出された出力信号の差SXA3,A6に基づき、反射部25の中心位置XA3,A6を算出する。
 図4に示されるように、-L≦SXA3,A6≦+Lの領域が線形領域である場合、反射部25の中心位置XA3,A6は、出力信号の差SXA3,A6(すなわち、第1受光部23A、23Aペアから得られた出力信号SA3、SA6)を用いて、下記の式(1-3)により求められる。
 A3,A6=D12+(d13/L)×SXA3,A6 ・・・(1-3)
 但し、D12は、第1受光部23A、23Aペア間の中点の位置であり、d13は(X方向におけるSXA3,A6の線形領域の幅)/2である。
(X方向に作用する力Fの算出)
 IC11は、XA1,A4、XA2,A5およびXA3,A6のうち、線形領域に含まれるXAm,Anを選び出す。IC11は、線形領域に含まれるXAm,Anとして1つのXAm,Anが選び出された場合には、当該XAm,Anを誤差の最も少ないXAm,Anとする。IC11は、線形領域に含まれるXAm,Anとして2つ以上のXAm,Anが選び出された場合には、当該2つ以上のXAm,Anのうち線形領域の中心位置に最も近いXAm,Anを誤差の最も少ないXAm,Anとする。
 IC11は、誤差の最も少ないXAm,Anを用いて、X方向に作用する力Fを算出する。より具体的には例えば、IC11は、誤差の最も少ないXAm,Anから出力信号の差(センサ出力値の差)SXAm,Anを算出する。もしくは、IC11は、予め算出された出力信号の差SXA1,A4、SXA2,A5、SXA3,A6のうちから、誤差の最も少ないXAm,Anに対応する出力信号の差SXAm,Anを選び出す。
 IC11は、算出された、もしくは選び出された出力信号の差SXAm,Anに基づき、X方向に作用する力Fを算出し、メインCPU12Aに出力する。
(反射部25の中心位置YB1,B4、YB2,B5、YB3,B6の算出)
 IC11は、反射部25の中心位置YB1,B4、YB2,B5、YB3,B6を以下のようにして算出する。
(反射部25の中心位置YB1,B4の算出)
 IC11は、第2受光部23B、23Bペアの出力信号SB1、SB4から、出力信号の差SYB1,B4(=(SB1-SB4)/(SB1+SB4))を算出する。出力信号の差SYB1,B4は、中心軸20Lを基準とする、Y方向における反射部25の中心位置の変位量に対応する値である。IC11は、算出された出力信号の差SYA1,A4に基づき、反射部25の中心位置YB1,B4を算出する。
 図5に示されるように、-L≦SYB1,B4≦+Lの領域が線形領域である場合、反射部25の中心位置YB1,B4は、出力信号の差SYB1,B4(すなわち、第2受光部23B、23Bペアから得られた出力信号SB1、SB4)を用いて、下記の式(2-1)により求められる。
 B1,B4=-D21+(d21/L)×SYB1,B4 ・・・(2-1)
 但し、D21は、第2受光部23B、23Bペア間の中点の位置であり、d21は、(Y方向におけるSYB1,B4の線形領域の幅)/2である。
(反射部25の中心位置YB2,B5の算出)
 IC11は、第2受光部23B、23Bペアの出力信号SB2、SB5から、出力信号の差SYB2,B5(=(SB2-SB5)/(SB2+SB5))を算出する。出力信号の差SYB2,B5は、中心軸20Lを基準とする、Y方向における反射部25の中心位置の変位量に対応する値である。IC11は、算出された出力信号の差SYB2,B5に基づき、反射部25の中心位置YB2,B5を算出する。
 図5に示されるように、-L≦SYB2,B5≦+Lの領域が線形領域である場合、反射部25の中心位置YB2,B5は、出力信号の差SYB2,B5(すなわち、第2受光部23B、23Bペアから得られた出力信号SB2,B5)を用いて、下記の式(2-2)により求められる。
 B2,B5=(d22/L)×SYB2,B5 ・・・(2-2)
 但し、d22は、(Y方向におけるSYB2,B5の線形領域の幅)/2である。
(反射部25の中心位置YB3,B6の算出)
 IC11は、第2受光部23B、23Bペアの出力信号SB3、SB6から、出力信号の差SYB3,B6(=(SB3-SB6)/(SB3+SB6))を算出する。出力信号の差SYB3,B6は、中心軸20Lを基準とする、Y方向における反射部25の中心位置の変位量に対応する値である。IC11は、算出された出力信号の差SYB3,B6に基づき、反射部25の中心位置YB3,B6を算出する。
 図5に示されるように、-L≦SYB3,B6≦+Lの領域が線形領域である場合、反射部25の中心位置YB3,B6は、出力信号の差SYB3,B6(すなわち、第2受光部23B、23Bペアから得られた出力信号SB3、SB6)を用いて、下記の式(2-3)により求められる。
 B3,B6=D22+(d23/L)×SYB3,B6 ・・・(2-3)
 但し、D22は、第2受光部23B、23Bペア間の中点の位置であり、d23は(Y方向におけるSYB2,B5の線形領域の幅)/2である。
(Y方向に作用する力Fの算出)
 IC11は、YB1,B4、YB2,B5およびYB3,B6のうち、線形領域に含まれるYBm,Bnを選び出す。IC11は、線形領域に含まれるYBm,Bnとして1つのYBm,Bnが選び出された場合には、当該YBm,Bnを誤差の最も少ないYBm,Bnとする。IC11は、線形領域に含まれるYBm,Bnとして2つ以上のYBm,Bnが選び出された場合には、当該2つ以上のYBm,Bnのうち線形領域の中心位置に最も近いYBm,Bnを誤差の最も少ないYBm,Bnとする。
 IC11は、誤差の最も少ないYBm,Bnを用いて、Y方向に作用する力Fを算出する。より具体的には例えば、IC11は、誤差の最も少ないYBm,Bnから出力信号の差(センサ出力値の差)SYBm,Bnを算出する。もしくは、IC11は、予め算出された出力信号の差SYB1,B4、SYB2,B5、SYB3,B6のうちから、誤差の最も少ないYBm,Bnに対応する出力信号の差SYBm,Bnを選び出す。
 IC11は、算出された、もしくは選び出された出力信号の差SYBm,Bnに基づき、Y方向に作用する力Fを算出し、メインCPU12Aに出力する。
[力F、F、Fの検出原理]
 以下、図6A、図6Bおよび図6Cを参照して、±X方向、±Y方向および±Z方向のうち±X方向のみに位置変位がある場合を例として、±Z方向に作用する力FおよびX方向に作用する力Fの検出原理について説明する。図6A、図6Bおよび図6Cにおいて、反射部25の変位量ΔX=d、2dは、±X方向における反射部25の幾何中心の変位量を表す。図6A、図6Bおよび図6Cにおける領域23AR、23ARは、配光分布20Iのうち第1受光部23A、23Aに対応する領域を表す。
 光量QA2の光が第1受光部23Aで受光されると、第1受光部23Aは光量QA2に対応する出力信号SA2を出力する。光量QA5の光が第1受光部23Aで受光されると、第1受光部23Aは光量QA5に対応する出力信号SA2を出力する。
 反射部25の移動前後において、第1受光部23Aで受光される光量QA2と、第1受光部23Aで受光される光量QA5との光量の和QZA2,A5(=QA2+QA5)は、反射部25の中心位置の変位量ΔX(例えばΔX=0、ΔX=d、ΔX=2d)に依らず一定である。光量の和QZA2,A5は、Z方向における反射部25の中心位置の変位量に対応している。これにより、IC11は、第1受光部23Aの出力信号SA2と、第1受光部23Aの出力信号SA5との出力信号の和SZA2,A5(=SA2+SA5)に基づき、Z方向に作用する力Fを算出することができる。
 反射部25の移動前後において、第1受光部23Aで受光される光量QA2と、第1受光部23Aで受光される光量QA5との光量の差QXA2,A5(=QA2-QA5)は、反射部25の中心位置の変位量ΔX(例えばΔX=0、ΔX=d、ΔX=2d)に依り線形(リニア)に変化する。光量の差QXA2,A5は、±X方向の反射部25の中心位置の変位量に対応している。これにより、IC11は、第1受光部23Aの出力信号SA2と、第1受光部23Aの出力信号SA5との出力信号の差SXA2,A5(=SXA2-SXA5)に基づき、±X方向に作用する力Fを算出することができる。
[ダイナミックレンズ拡大の原理]
 以下、図7A~図7C、図8A~図8D、図9A~図9Cおよび図10A~図10Dを参照して、センサモジュール10のダイナミックレンズ拡大の原理について説明する。
 図6A、図6Bおよび図6Cでは、配光分布20Iが円錐状を有し、配光分布20Iの勾配が線形変化する例について説明したが、図15に示されるように、実際の配光分布は円錐状とは異なり、配光分布20Iの勾配が線形変化する領域と、当該領域の内側および外側に位置する、配光分布20Iの勾配が線形変化しない領域とがある。このため、図7A、図7B、図7Cに示されるように、出力信号の差SXAm,An(=(SXAm-SXAn)/(SXAm+XAn))が線形変化する領域と、出力信号の差SXAm,Anが線形変化しない領域とが存在する。出力信号の差SYBm,Bn(=(SYBm-SYBn)/(SYBm+SYBn))に関しても同様に、図9A、図9B、図9Cに示されるように、出力信号の差SYBm,Bnが線形変化する領域と、出力信号の差SBBm,Bnが線形変化しない領域とが存在する。
 IC11が、第1受光部23A、23Aペアの出力信号の差SXA1,A4(=(SA1-SA4)/(SA1+SA4))のみを用いて反射部25の中心位置Xを検出する場合には、図7Aおよび図8Aに示されるように、位置Xの検出誤差が少ない領域(すなわち、SXA1,A4の値が略線形変化する線形領域)は、領域RA1,A4のみとなる。
 IC11が、第1受光部23A、23Aペアの出力信号の差SXA2,A5(=(SA2-SA5)/(SA2+SA5))のみを用いて反射部25の中心位置Xを検出する場合には、図7Bおよび図8Bに示されるように、位置Xの検出誤差が少ない領域(すなわち、SXA2,A5の値が略線形変化する線形領域)は、領域RA2,A5のみなる。
 IC11が、第1受光部23A、23Aペアの出力信号の差SXA3,A6(=(SA3-SA6)/(SA3+SA6))のみを用いて反射部25の中心位置Xを検出する場合には、図7Cおよび図8Bに示されるように、位置Xの検出誤差が少ない領域(すなわち、SXA3,A6の値が略線形変化する線形領域)は、領域RA3,A6のみなる。
 IC11が、第1受光部23A、23Aペアにより得られる出力信号の差SXA1,A4、第1受光部23A、23Aペアにより得られる出力信号の差SXA2,A5、および第1受光部23A、23Aペアにより得られる出力信号の差SXA3,A6を用いて反射部25の中心位置Xを検出した場合には、図8Dに示されるように、位置Xの検出誤差が少ない領域は、領域RA1,A6となる。当該領域RA1,A6は、領域RA1,A4、領域RA2,A5および領域RA3,A6が統合された領域に相当する。したがって、IC11が、上記のように、出力信号の差SXA1,A4、出力信号の差SXA2,A5、および出力信号の差SXA3,A6を用いて反射部25の中心位置Xを検出する場合には、±X方向におけるダイナミックレンズを拡大することができる。
 領域RA1,A4、領域RA2,A5、領域RA3,A6および領域RA1,A6の幅(X軸方向における幅)の具体例が、以下に示される。領域RA1,A4、領域RA2,A5、領域RA3,A6の幅(X軸方向における幅)はそれぞれ、例えば0.2mmである。第1受光部23A、23Aペアは、第1受光部23A、23Aペアに対して-X方向に、例えば0.1mmずれて配置されている。第1受光部23A、23Aペアは、第1受光部23A、23Aペアに対して+X方向に、例えば0.1mmずれて配置されている。領域RA1,A4、領域RA2,A5および領域RA3,A6が統合された領域RA1,A6の幅(X軸方向における幅)は、例えば0.4mmである。
 IC11が、第2受光部23B、23Bペアの出力信号の差SYB1,B4(=(SB1-SB4)/(SB1+SB4))のみを用いて反射部25の中心位置Yを検出する場合には、図9Aおよび図10Aに示されるように、位置Yの検出誤差が少ない領域(すなわち、SYB1,B4の値が略線形変化する線形領域)は、領域RB1,B4のみとなる。
 IC11が、第2受光部23B、23Bペアの出力信号の差SYB2,B5(=(SB2-SB5)/(SB2+SB5))のみを用いて反射部25の中心位置Yを検出する場合には、図9Bおよび図10Bに示されるように、位置Yの検出誤差が少ない領域(すなわち、SYB2,B5の値が略線形変化する線形領域)は、領域RB2,B5のみとなる。
 IC11が、第2受光部23B、23Bペアの出力信号の差SYB3,B6(=(SB3-SB6)/(SB3+SB6))のみを用いて反射部25の中心位置Yを検出する場合には、図9Cおよび図10Cに示されるように、位置Yの検出誤差が少ない領域(すなわち、SYB3,B6の値が略線形変化する線形領域)は、領域RB3,B6のみとなる。
 IC11が、第2受光部23B、23Bペアにより得られる出力信号の差SYA1,A4、第2受光部23B、23Bペアにより得られる出力信号の差SYB2,B5、および第2受光部23B、23Bペアにより得られる出力信号の差SYB3,B6を用いて反射部25の中心位置Yを検出した場合には、図10Dに示されるように、位置Yの検出誤差が少ない領域は、領域RB1,B6となる。当該領域RB1,B6は、領域RB1,B4、領域RB2,B5および領域RB3,B6が統合された領域に相当する。したがって、IC11が、上記のように、出力信号の差SYB1,B4、出力信号の差SYB2,B5、および出力信号の差SYB3,B6を用いて反射部25の中心位置Yを検出する場合には、±Y方向におけるダイナミックレンズを拡大することができる。
 領域RB1,B4、領域RB2,B5、領域RB3,B6および領域RB1,B6の幅(Y軸方向における幅)の具体例が、以下に示される。領域RB1,B4、領域RB2,B5、領域RB3,B6の幅(Y軸方向における幅)はそれぞれ、例えば0.2mmである。第2受光部23B、23Bペアは、第2受光部23B、23Bペアに対して+Y方向に、例えば0.1mmずれて配置されている。第2受光部23B、23Bペアは、第2受光部23B、23Bペアに対して-Y方向に、例えば0.1mmずれて配置されている。領域RB1,B4、領域RB2,B5および領域RB3,B6が統合された領域RB1,B6の幅(Y軸方向における幅)は、例えば0.6mmである。
[センサモジュール10の動作]
 以下、図11を参照して、センサモジュール10による力Fの検出動作の一例について説明される。
 まず、ステップS11において、IC11が、第1受光部23A~23A、第2受光部23B~23Bをスキャンし、第1受光部23A~23Aから出力信号SA1~SA6、第2受光部23B~23Bから出力信号SB1~SB6を得る。次に、ステップS12において、IC11が、第1受光部23A、23Aペアの出力信号SA1、SA6および第2受光部23B、23Bペアの出力信号SB1、SB6から出力信号の和SZ(=SA1+SA6+SB1+SB6)を算出する。また、IC11が、第1受光部23A、23Aペアの出力信号SA2、SA5および第2受光部23B、23Bペアの出力信号SB2、SB5から出力信号の和SZ(=SA2+SA5+SB2+SB5)を算出する。
 次に、ステップS13において、IC11が、算出された出力信号の和SZが規定値以上であるか否かを判断する。ステップS13にて出力信号の和SZが規定値以上であると判断された場合、IC11は、ステップS14において、出力信号の和SZに基づき、力Fを算出する。ステップS13にて出力信号の和SZが規定値以上でないと判断された場合、IC11は、ステップS15において、出力信号の和SZに基づき、力Fを算出し、メインCPU12Aに出力する。
 以下、図12を参照して、センサモジュール10による力F、Fの第1検出動作の一例について説明される。当該第1検出動作は、例えば、図11のステップS13にて出力信号の和SZが規定値以上であると判断された場合に行われる。
 まず、ステップS21において、IC11が、第1受光部23A、23A、第2受光部23B、23Bをスキャンし、第1受光部23A、23Aから出力信号SA1、SA6、第2受光部23B、23Bから出力信号SB1、SB6を得る。
 次に、ステップS22において、IC11が、ステップS21にて得られた出力信号SA1、SA6および出力信号SB1、SB6を用いて、出力信号の差SXA1,A6(=(SA1-SA6)/(SA1+SA6))および出力信号の差SYB1,B6(=(SB1-SB6)/(SB1+SB6))を算出する。IC11が、図11のステップS11にて得られた出力信号SA1、SA6および出力信号SB1、SB6を用いて、出力信号の差SXA1,A6および出力信号の差SXB1,B6を算出してもよい。この場合、ステップS21の処理は省略されてもよい。
 次に、ステップS23において、IC11が、出力信号の差SXA1,A6に基づき、力Fを算出すると共に、出力信号の差SYB1,B6に基づき、力Fを算出する。IC11は、算出した力Fおよび力FをメインCPU12Aに出力する。
 以下、図13を参照して、センサモジュール10による力F、Fの第2検出動作の一例について説明される。当該第2検出動作は、例えば、図11のステップS13にて出力信号の和SZが規定値以上でないと判断された場合に行われる。
 まず、ステップS31において、IC11が、第1受光部23A~23A、第2受光部23B~23Bをスキャンし、第1受光部23A~23Aから出力信号SA1~SA6、第2受光部23B~23Bから出力信号SB1~SB6を得る。
 次に、ステップS32において、IC11が、ステップS31にて得られた出力信号SA1~SA6および出力信号SB1~SB6を用いて、反射部25の中心位置XA1,A4、XA2,A5、XA3,A6、YB1,B4、YB2,B5、YB3,B6を算出する。IC11が、図11のステップS11にて得られた出力信号SA1~SA6および出力信号SB1~SB6を用いて、反射部25の中心位置XA1,A4、XA2,A5、XA3,A6、YB1,B4、YB2,B5、YB3,B6を算出してもよい。この場合、ステップS31の処理は省略されてもよい。
 次に、ステップS33において、IC11が、算出された反射部25の中心位置XA1,A4、XA2,A5、XA3,A6がそれぞれ線形領域RA1,A4、RA2,A5、RA3,A6(図7A、図7B、図7C参照)に含まれるか否かを判断し、線形領域RAm,Anに含まれるXAm,Anを選び出す。また、IC11が、YB1,B4、YB2,B5、YB3,B6がそれぞれ線形領域RB1,B4、RB2,B5、RB3,B6(図9A、図9B、図9C参照)に含まれるか否かを判断し、線形領域RBm,Bnに含まれるXBm,Bnを選び出す。
 次に、ステップS34において、IC11が、ステップS33にて選び出されたXAm,Anのうち線形領域RAm,Anの中心位置に最も近いXAm,Anを選び出す(図7A、図7B、図7C、図8A、図8B、図8C、図8D参照)。図7A、図7B、図7C、図8A、図8B、図8C、図8Dにおいて、X、X、Xはそれぞれ、線形領域RA1,A4、RA2,A5、RA3,A6の中心位置を表す。ステップS33にて選び出されたXAm,Anが一つである場合には、IC11が、当該処理を行わなくてもよい。また、ステップS34において、IC11が、ステップS33にて選び出されたYBm,Bnのうち線形領域RBm,Bnの中心位置に最も近いYBm,Bnを選び出す(図9A、図9B、図9C、図10A、図10B、図10C、図10D参照)。図9A、図9B、図9C、図10A、図10B、図10C、図10Dにおいて、Y、Y、Yはそれぞれ、線形領域RB1,B4、RB2,B5、RB3,B6の中心位置を表す。ステップS33にて選び出されたYBm,Bnが一つである場合には、IC11が、当該処理を行わなくてもよい。
 次に、ステップS35において、IC11が、ステップS34にて選び出されたXAm,An、YBm,Bnから、出力信号の差(センサ出力値の差)SXAm,An、SYAm,Anを算出する。IC11は、算出された出力信号の差SXAm,An、SYAm,Anに基づき、X、Y方向に作用する力F、Fを算出し、メインCPU12Aに出力する。
[シミュレーション]
 以下に示されるシミュレーション1、2では、光学シミュレーションのモデルとして、図14A、図14Bに示されるモデルが用いられた。点光源72が、一実施形態におけるセンサ20の反射部25に対応する。照射面70Sが、一実施形態における基材21の第1面(受光部群23の配置面)に対応する。第1受光部71A、71Aが、一実施形態における第1受光部23A、23Aに対応する。第2受光部71B、71Bが、一実施形態における第2受光部23B、23Bに対応する。
 図14A、図14B中において、照射面70Sを基準とする高さh、照射面70Sの中心位置70Pと第1受光部71A、71Aの中心位置との間の距離D、および照射面70Sの中心位置70Pと第2受光部71B、71Bの中心位置との間の距離Dは以下のとおりである。但し、中心位置70Pは、点光源72の直下に設定された。
 高さh:1.0
 距離D:0.5
 距離D:0.5
 距離Dおよび距離Dは、高さhを基準(h=1.0)とした比率で記載されている。図15中の位置X、Y、および図16B、図17B中の点光源の位置Xも同様に、高さhを基準(h=1.0)とした比率で記載されている。
(シミュレーション1)
 点光源72が照射面70Sの中心位置70Pの直上に静止された状態における、照射面70Sの照度分布が、光学シミュレーションにより求められた。その結果が図15に示されている。
(シミュレーション2)
 点光源72が±X方向および±Y方向に移動されたときの、出力信号の和SZ、出力信号の差SXA1,A2および出力信号の差SYB1,B2が、光学シミュレーションにより求められた。但し、点光源72の高さhは、h=1.0の一定値に保持された。
 出力信号の和SZは、第1受光部71A、71Aの出力信号SA1、SA2および第2受光部71B、71Bの出力信号SB1、SB2の和(SA1+SA2+SB1+SB2)である。出力信号の差SXA1,A2は、第1受光部71A、71Aの出力信号SA1、SA2の差(SA1-SA2)である。出力信号の差SYB1,B2は、第2受光部71B、71Bの出力信号SB1、SB2の差(SB1-SB2)である。
 上記光学シミュレーションの結果が、図16A、図16B、図17A、図17B、図18に示されている。力(せん断力)Fの検出誤差が小さい規定領域Rが図14Aに示されている。
 出力信号の和SZは、規定領域Rにおいては略一定値であるのに対して、規定領域Rの領域外においては変化する。したがって、出力信号の和SZに対応する力(押圧力)Fの検出誤差は、規定領域Rにおいては小さいのに対して、規定領域Rの領域外において誤差は大きい。
 出力信号の差SXA1,A2は、規定領域Rにおいては略線形(略リニア)に変化するのに対して、規定領域Rの領域外においては略線形(略リニア)に変化しない。したがって、出力信号の差SXA1,A2に対応する力(せん断力)Fの検出誤差は、規定領域Rにおいて(すなわちセンサのX方向の変形が小さい場合において)小さいのに対して、規定領域Rの領域外において(すなわちセンサのX方向の変形が大きい場合において)大きい。よって、X方向に作用する力(せん断力)Fのダイナミックレンジが制限される。
 また、規定領域Rの領域外における出力信号の差SXA1,A2の変化量は、規定領域Rにおける出力信号の差SXA1,A2の変化量に比べて小さくなる。したがって、規定領域Rの領域外における(すなわちセンサのX方向の変形が大きい場合における)力(せん断力)Fの感度が、規定領域Rにおける(すなわちセンサのX方向の変形が小さい場合における)力(せん断力)Fの感度に比べて低くなる。
 出力信号の差SYB1,B2は、上記の出力信号の差SXA1,A2と同様の傾向を有している。
[作用効果]
 一実施形態に係るセンサモジュール10では、光源22から上方に出射された光は、反射部25により反射された後、第1受光部23A~23Aおよび第2受光部23B~23Bに入射する。センサ20のドーム状曲面に力が作用すると、弾性体24が変形し、±X方向、±Y方向および±Z方向のうちの少なくとも一方向に反射部25の中心位置が変位する。反射部25の反射光の配向分布が、上記の反射部25の中心位置の変位に伴って変化する。第1受光部23A~23Aおよび第2受光部23B~23Bそれぞれで受光される受光量が、上記配向分布の変化に応じて変化し、第1受光部23A~23Aおよび第2受光部23B~23Bからの出力信号SA~SAおよびSB~SBが変化する。ICは、上記出力信号SA~SAおよびSB~SBに基づき、センサ20に作用する力F、F、Fを検出することができる。
 一実施形態に係るセンサモジュール10では、センサ20が、X方向(第1方向)に配置された第1受光部23A~23Aと、X方向と直交するY方向(第2方向)に配置された第2受光部23B~23Bとを備える。これにより、X方向に配置された1ペアの第1受光部23A、23Aと、Y方向に配置された1ペアの第2受光部23B、23Bとを備えるセンサに比べて、X位置およびY位置の検出誤差を少なくできる領域(線形領域)を広げることができる(図8Bの領域RA2,A5、図8Dの領域RA1,A6、図10Bの領域RB2,B5、図10Dの領域RB1,B6参照)。したがって、±X方向、±Y方向に作用する力F、力F(すなわち±X方向、±Y方向における反射部25の変位)に対して、広いダイナミックレンジを得ることができ、かつ、高い感度を得ることができる。
 また、X方向に配置された1ペアの第1受光部23A、23Aと、Y方向に配置された1ペアの第2受光部23B、23Bとを備えるセンサに比べて、Z位置の検出誤差を少なくできる領域(線形領域)を広げることができる。したがって、-Z方向に作用する力F(すなわち-Z方向における反射部25の変位)に対して、広いダイナミックレンジを得ることができ、かつ、高い感度を得ることができる。
<2 変形例>
[センサの変形例]
 一実施形態では、センサモジュール10がセンサ20を備える例について説明したが、センサモジュール10がセンサ20に代えて以下の変形例1~11のセンサ30A~30J、20Kのいずれかを備えてもよい。
<変形例1>
[センサ30Aの構成]
 図19Aは、変形例1のセンサ30Aの外観の一例を示す平面図である。図19Bは、図19AのXIXB-XIXB線に沿った断面図である。図20は、図19Bの一部の拡大断面図である。センサ30Aは、光学式の3軸力覚センサである。センサ30Aは、プレーナー構造を有している。センサ30Aは、剛性を有していてもよいし、フレキシブル性を有していてもよい。
 センサ30Aは、例えば、板状またはフィルム状を有している。センサ30Aは、第1面と、第1面とは逆側の第2面とを有する。平面視におけるセンサ30Aの形状、すなわち平面視における第1面および第2面の形状は、正方形状等の四角形状であってもよい。但し、平面視におけるセンサ30Aの形状は四角形状に限定されるものではなく、円形状または楕円形状等であってもよい。
 センサ30Aは、複数のセンサ部30SEを有している。複数のセンサ部30SEは、センサ30Aの第1面または第2面の面内方向(X、Y方向)に2次元配置されている。各センサ部30SEは、センサ30Aの厚さ方向に平行な中心軸30Lを有している。中心軸30Lは、センサ30の第1面または第2面に力が作用していない状態において、反射部25の中心位置と受光部群23の中心を通る。変形例1において、中心軸30Lに平行な方向、すなわち、センサ30Aの第1面に対して垂直な方向をZ方向(第3方向)という。Z方向に直交すると共に互いに直交する2方向、すなわちセンサ30Aの第1面に平行な面内において互いに直交する2方向をX方向(第1方向)およびY方向(第2方向)という。
 センサ30Aは、基材層31と、複数の受光部群23と、弾性層32と、複数の反射部25と、遮光層33とを備える。なお、変形例1において、一実施形態と同様の箇所には同一の符号を付す。基材層31、弾性層32および遮光層33はこの順序で積層され、遮光層33がセンサ30Aの第1面側となり、基材層31がセンサ30Aの第2面側となる。
(基材層31)
 基材層31は、基材31Aと、複数の光源22と、貼合層31Bと、光透過層31Cと、遮光層31Dとを備える。基材層31が、遮光層31Dに代えて反射層を備えてもよい。
(基材31A)
 基材31Aは、複数の光源22および光透過層31Cを支持することができる。基材31Aは、上記以外の点においては、一実施形態における基材21と同様であってもよい。基材31Aは、反射層で構成されていてもよいし、基板またはフィルムと反射層との積層体により構成されていてもよい。
(光源22)
 複数の光源22は、マトリクス状等の規定の配置パターンで基材31A上に2次元配置されている。光源22は、センサ部30SEごとに設けられている。各光源22は、ピンホール31DAの直下に位置している。
(貼合層31B)
 貼合層31Bは、基材31Aと光透過層31Cの間を貼り合わせる。貼合層31Bは、光源22を覆っていてもよいし、光源22の部分に孔部を有していてもよい。図20では、貼合層31Bが光源22の部分に孔部を有する例が示されている。貼合層31Bが光源22を覆う場合、貼合層31Bは、光源22から出射される光に対して透光性を有していることが好ましい。貼合層31Bが光源22の部分に孔部を有している場合には、貼合層31Bは、光源22から出射される光に対して透光性を有していてもよいし、光源22から出射される光に対して不透光性を有していてもよい。貼合層31Bは、基材31Aと光透過層31Cの間に設けられている。貼合層は、例えば、粘着層または接着層である。
(光透過層31C)
 光透過層31Cは、光源22から出射される光に対して透光性を有している。例えば、光源22が白色光、赤色光、緑色光または青色光等の可視光を出射することができるように構成されている場合、光透過層31Cは、可視光に対して透明性を有していてもよい。光透過層31Cは、貼合層31B上に設けられている。光透過層31Cは、貼合層31Bにより基材31Aに貼り合わされている。
 光透過層31Cは、基板またはフィルムである。基板は、例えば、ガラス基板または樹脂基板である。フィルムは、例えば、ガラスフィルムまたは樹脂フィルムである。樹脂基板および樹脂フィルムは、樹脂材料を含む。樹脂材料は、例えば、ポリメチルメタクリレート、ポリスチレン、ポリカーボネート、ポリエーテルスルホン、ポリアリレート、アモルファスポリオレフィン、シクロオレフィンポリマー、シクロオレフィンコポリマー、トリアセチルセルロースおよびエポキシ樹脂等からなる群より選ばれた少なくとも1種のプラスチック材料を含む。
(遮光層31D)
 遮光層31Dは、複数のピンホール31DAを有する。ピンホール31DAは、孔部の一例である。光源22から出射された光が、ピンホール31DAにより光透過層31Cから弾性層32に取り出される。弾性層32に取り出された光は、反射部25を照明する。
 ピンホール31DAは、遮光層31Dの厚さ方向に貫通している。ピンホール31DAは、センサ部30SEごとに設けられている。ピンホール31DAは、センサ30に力が作用していない状態において、反射部25の直下に位置し、かつ、光源22の直上に位置している。センサ30に力が作用していない状態において、光源22の中心位置とピンホール31DAと反射部25の中心位置が、中心軸30L上に位置している。
(受光部群23)
 受光部群23は、センサ部30SEごとに設けられている。各受光部群23は、各ピンホール31DAが受光部群23の中心に位置するように、基材層31、具体的には遮光層31D上に配置されている。第1受光部23A~23Aは、X方向に配列され、列を構成している。列を構成する第1受光部23A~23Aは、受光部群23の中心に関して、すなわち中心軸30Lに対して対称に配置されている。第2受光部23B~23Bは、Y方向に配列され、列を構成している。列を構成する第2受光部23B~23Bは、受光部群23の中心に関して、すなわち中心軸30Lに対して対称に配置されている。
(弾性層32)
 弾性層32は、±X方向、±X方向および-Z方向に弾性変形することができる。弾性層32は、光源22から出射される光に対して透光性を有している。例えば、光源22が白色光、赤色光、緑色光または青色光等の可視光を出射することができるように構成されている場合、弾性層32は、可視光に対して透明性を有していてもよい。弾性層32は、着色されていてもよい。弾性層32は、複数の反射部25と複数の受光部群23の間に設けられている。より具体的には、弾性層32は、複数の受光部群23を覆うように、基材層31上に設けられている。弾性層32の材料は、一実施形態における弾性体24の材料と同様であってもよい。
(反射部25)
 複数の反射部25は、マトリクス状等の規定の配置パターンで弾性層32上に2次元配置されている。各反射部25は、受光部群23の上方に設けられている。より具体的には、各反射部25は、ピンホール31DAの直上に位置している。
(遮光層33)
 遮光層33は、2次元配置された複数の反射部25を覆うように、弾性層32上に設けられている。遮光層33は、上記以外の点においては、一実施形態における遮光層26と同様であってもよい。
[作用効果]
 変形例1のセンサ30Aでは、光源22から上方に出射された光は、遮光層31Dのピンホール31DAを介して弾性層32に取り出される。弾性層32に取り出された光は、反射部25により反射された後、第1受光部23A~23Aおよび第2受光部23B~23Bに入射する。センサ30Aの第1面(上面)に力が作用すると、弾性層32が変形し、±X方向、±Y方向および-Z方向のうちの少なくとも一方向に反射部25の中心位置が変位する。反射部25の反射光の配向分布が、上記の反射部25の中心位置の変位に伴って変化する。第1受光部23A~23Aおよび第2受光部23B~23Bそれぞれで受光される受光量が、上記配向分布の変化に応じて変化し、第1受光部23A~23Aおよび第2受光部23B~23Bからの出力信号SA~SAおよびSB~SBが変化する。ICは、上記出力信号SA~SAおよびSB~SBの変化に基づき、センサ30Aに作用する力F、F、Fを検出することができる。
 変形例1のセンサ30Aは、光源22と第1、第2受光部23A、23Bとを別々の層に備えている。このため、センサ30Aは、光源22と第1、第2受光部23A、23Bの異種部品を同一面内に精密に位置合わせして実装せずに作製することが可能である。また、光源22と第1、第2受光部23A、23Bとが別々の層に備えられていることで、光源22のサイズの制限も緩和される。したがって、センサ30Aは、一実施形態のセンサ20に比べて容易に作製することができる。
<変形例2>
[センサ30Bの構成]
 図21は、変形例2のセンサ30Bの構成の一例を示す断面図である。センサ30Bは、2次元配置された複数のセンサ部30SE(図20参照)に代えて、1つのセンサ部30SEを有する点において、変形例1のセンサ30Aとは異なっている。遮光層33が、弾性層32の上面(基材層31とは逆側の面)を覆うと共に、弾性層32の側面を覆っている。遮光層33が、さらに基材層31の側面も覆っていてもよい。弾性層32の側面が遮光層33により覆われることで、側面から弾性層32内への外光の入射が抑制される。
 センサ30Bは、例えば、以下のようにして作製される。基材層31、受光部群23および弾性層32を備える積層体が形成された後、当該積層体が1つのセンサ部30SEを含む領域ごとに切り出される。切り出された弾性層32の第1面と側面の両方を覆うように、遮光層33が形成される。
<変形例3>
[センサ30Cの構成]
 図22は、変形例3のセンサ30Cの構成の一例を示す断面図である。センサ30Cは、反射部25として拡散反射層を備え、かつ、遮光層31Dに代えて遮光層31Eを備える点において、変形例1のセンサ30A(図20参照)とは異なっている。
(反射部25)
 反射部25としての拡散反射層は、一実施形態において説明したとおりである。
(遮光層31E)
 遮光層31Eは、複数のピンホール31EAと、複数の孔部31EBとを有している。ピンホール31EAは、変形例1におけるピンホール31DAと同様である。
 ピンホール31EAおよび複数の孔部31EBは、各光源22から出射された光を光透過層31Cから弾性層32に取り出すことができる。孔部31EBは、遮光層31Eの厚さ方向に貫通している。孔部31EBは、例えば、平面視においてドット状またはスリット状を有している。孔部31EBは、遮光層31Eのうち、ピンホール31EAおよび複数の第1、第2受光部23A、23Bの形成領域以外の領域に設けられている。孔部31EBは、受光部群23が設けられている領域の外側の領域に備えられていてもよいし、受光部群23が設けられている領域に設けられていてもよい。複数の孔部31EBは、ピンホール31EAを中心とする円周上に設けられていることが好ましい。この場合、隣接する孔部31EB間の距離は、等間隔であることが好ましい。
[作用効果]
 変形例3のセンサ30Cは、複数のピンホール31EAと複数の孔部31EBとを有する遮光層31Eを備えている。各光源22から出射された光が、ピンホール31EAおよび複数の孔部31EBにより光透過層31Cから弾性層32に取り出される。光透過層31Cから弾性層32に取り出された光は、反射部25を照明する。照射光が、反射部25により拡散反射され、拡散反射光が第1受光部23A~23Aおよび第2受光部23B~23Bに入射する。これにより、ピンホール31DAのみを有する遮光層31Dを備える変形例1のセンサ30Aに比べて、反射部25を照らす光量が多くなる。また、複数の孔部31EBから取り出された光が、多方向から反射部25を照射することで、拡散光の強度が大きくなり、かつ、配向光分布の均一性が高められる。
 上記の変形例3では、遮光層31Eが平面視においてドット状またはスリット状を有する複数の孔部31EBを有する例について説明したが、遮光層31Eが平面視において閉ループ状を有する1または複数の孔部31EBを有していてもよい。閉ループ状の孔部31EBは、ピンホール31EAを中心としていることが好ましい。閉ループ状は、例えば、円環状、楕円環または正多角形等の多角形の環状である。閉ループ状を有する複数の孔部31EBは、ピンホール31EAを中心とする同心状に設けられていることが好ましい。
<変形例4>
[センサ30Dの構成]
 図23は、変形例4のセンサ30Dの構成の一例を示す断面図である。変形例4のセンサ30Dは、複数の光源22を含む基材層31に代えて、導光層34を備える点において、変形例1のセンサ30A(図20参照)とは異なっている。
(光源35)
 光源35は、導光層34の側面に対向して配置されている。光源35は、導光層34の側面から光を導光層34内に入射することができる。光源35の種類は、例えば、一実施形態における光源22と同様であってもよい。
(導光層)
 導光層34は、受光部群23が設けられる第1面に複数のピンホール34BAを有している。ピンホール34BAの位置は、変形例1におけるピンホール31DAの位置と同様である。導光層34は、側面から入射された光を、センサ30Dの第1面の面内方向(X、Y方向)に導光し、複数のピンホール34BAから弾性層32に出射することができる。
 導光層34は、反射層34Aと、光透過層31Cと、反射層34Bとを備える。光透過層31Cは、光源35から入射される光に対して透光性を有している。光透過層31Cは、反射層34A、34Bの間に設けられている。
 反射層34A、34Bは、導光層34の側面から入射された光を反射することができる。反射層34A、34Bは、互いの主面が平行となるように、離隔されている。反射層34Aは、光透過層31Cの第2面に設けられている。反射層34Bは、光透過層31Cの第1面に設けられている。反射層34Bは、上記の複数のピンホール34BAを有している。ピンホール34BAは、反射層34Bを貫通している。ピンホール34BAは、光透過層31Cから弾性層32に光を取り出すことができる。
 反射層34A、34Bは、例えば、金属層である。金属層は、例えば、クロム(Cr)、金(Au)、白金(Pt)、ニッケル(Ni)、銅(Cu)、モリブデン(Mo)、チタン(Ti)、タンタル(Ta)、アルミニウム(Al)、マグネシウム(Mg)、鉄(Fe)、タングステン(W)および銀(Ag)からなる群より選ばれた少なくとも1種を含む。
[作用効果]
 変形例4のセンサ30Dでは、導光層34の側面から入射された光が、導光層34によりセンサ30Dの第1面の面内方向に導光され、導光層34の第1面に設けられた複数のピンホール34BAから出射される。したがって、変形例1のセンサ30Aのように、光源22がセンサ部30SEごとに備えられていなくてもよい。したがって、変形例4のセンサ30Dでは、変形例1のセンサ30Aに比べて部品点数を削減することができる。よって、変形例4のセンサ30Dでは、変形例1のセンサ30Aに比べてセンサ構造を簡略化することができる。
<変形例5>
[センサ30Eの構成]
 図24は、変形例5のセンサ30Eの構成の一例を示す断面図である。センサ30Eは、溝32Aを弾性層32に有している点において、変形例1のセンサ30A(図20参照)とは異なっている。
 溝32Aは、平面視において、隣接するセンサ部30SEの間に設けられている。溝32Aは、例えば、平面視において格子状を有している。弾性層32は、溝32Aにより分断されていてもよいし、溝32Aにより分断されず溝32Aの底部の部分で繋がっていてもよい。弾性層32は、上面と、溝32Aにより形成された側面とを有している。ここで、弾性層32の上面とは、導光層34とは逆側の、反射部25が支持される側の面を表す。溝32Aを有する弾性層32は、金型を用いた射出成形により形成されてもよいし、レーザー加工により形成されてもよいし、フォトリソグラフィおよびエッチングにより形成されてもよい。
 遮光層33は、弾性層32の上面と側面の両方を覆っている好ましい。これにより、弾性層32の上面および側面からの弾性層32内への外光の入射が抑制される。遮光層33は、弾性層32に溝32Aが形成された後に、溝32Aに倣うように形成されてもよいし、金型による成形されてもよい。遮光層33は、溝32Aを埋めていてもよいし、溝32Aに倣っていてもよい。
[作用効果]
 変形例5のセンサ30Eでは、弾性層32に溝32Aが設けられているため、1つのセンサ部30SEの弾性層32が大きく変形した場合であっても、当該変形の影響を隣のセンサ部30SEの弾性層32が受けにくい。すなわち、各センサ部30SEに加わる力を独立させることができる。
<変形例6>
[センサ30Fの構成]
 図25は、変形例6のセンサ30Fの構成の一例を示す断面図である。センサ30Fは、突起36を第1面に備えている点において、変形例4のセンサ30D(図23参照)とは異なっている。
(突起36)
 突起36は、反射部25に対応する位置に設けられている。具体的には、突起36は、反射部25の上方に設けられている。突起36は、遮光層33と同一の材料により構成されていてもよいし、遮光層33とは異なる材料により構成されていてもよい。突起36に作用する力を弾性層32に伝えやすくするために、突起36の硬さが、弾性層32の硬さに比べて硬いことが好ましい。ここで、硬さは、押し込み硬さ(ビッカース硬さ)を表す。突起36に作用する力を弾性層32に伝えやすくするために、突起36のヤング率が、弾性層32のヤング率に比べて大きいことが好ましい。
[作用効果]
 変形例6のセンサ30Fでは、センサ30Fの第1面に突起36が設けられている。これにより、突起36に力が作用すると、弾性層32のうち突起36の下に位置する部分が変形しやすくなる。したがって、センサ30Fの感度が、変形例4のセンサ30Dの感度に比べて向上する。
<変形例7>
[センサ30Gの構成]
 図26は、変形例7のセンサ30Gの構成の一例を示す断面図である。センサ30Gが、反射層34Bに代えて反射層34Cを備え、かつ、波長変換層37とカラーフィルタ38とをさらに備える点において、変形例4のセンサ30D(図23参照)とは異なっている。変形例7では、センサ30Gが反射層34Bに代えて反射層34Cを備える例について説明するが、センサ30Gが反射層34Bを備えてもよい。
(反射層34C)
 反射層34Cは、ピンホール34CAと複数の孔部34CBとを有する。ピンホール34CAは、変形例4におけるピンホール34BAと同様である。ピンホール34CAおよび複数の孔部34CBは、光源22から出射された光を光透過層31Cから弾性層32に取り出すことができる。弾性層32に取り出された光は、波長変換層37および反射部25を照明する。孔部34CBは、反射層34Bの厚さ方向に貫通している。孔部34CBは、例えば、平面視においてドット状またはスリット状を有している。孔部34CBは、反射層34Bのうち、ピンホール34CAおよび複数の第1、第2受光部23A、23Bの形成領域以外の領域に設けられている。孔部34CBは、受光部群23が設けられている領域の外側の領域に備えられていてもよいし、受光部群23が設けられている領域に設けられていてもよい。複数の孔部34CBは、ピンホール34CAを中心とする円周上に設けられていることが好ましい。この場合、隣接する孔部34CB間の距離は、等間隔であることが好ましい。
 反射層34Cが、上記のドット状またはスリット状を有する孔部34CBに代えて、あるいは上記のドット状またはスリット状を有する孔部34CBと共に、平面視において閉ループ状を有する1または複数の孔部34CBを有していてもよい。閉ループ状の孔部34CBは、ピンホール34CAを中心としていることが好ましい。閉ループ状は、例えば、円環状、楕円環または正多角形等の多角形の環状である。閉ループ状を有する複数の孔部34CBは、ピンホール34CAを中心とする同心状に設けられていることが好ましい。
(波長変換層37)
 波長変換層37は、第1の光のエネルギーを吸収し、エネルギーの異なる第2の光を放出することができる。具体的には、波長変換層37は、第1のピーク波長を有する第1の光を吸収し、第2のピーク波長を有する第2の光に変換することができる。第1の光は、光源35から出射される光、すなわち複数のピンホール34CAおよび複数の孔部34CBから出射される光に含まれている。例えば、光源35が青色光を出射することができる青色光源である場合、波長変換層37は、青色光を吸収し、赤色光に色変換することができる色変換層であってもよい。
 複数の波長変換層37は、マトリクス状等の規定の配置パターンで弾性層32上に2次元配置されている。波長変換層37は、反射部25と弾性層32の間に設けられている。反射部25は、波長変換層37上に積層されていてもよい。波長変換層37は、蛍光体または量子ドットを含む。波長変換層37が、必要に応じてバインダーを含んでもよい。
(カラーフィルタ38)
 カラーフィルタ38は、波長変換層37から放出された第2の光を透過することができるのに対して、第2の光以外の第1の光等を吸収することができる。光源35が青色光を出射することができる青色光源であり、波長変換層37が青色光を吸収し赤色光に色変換することができる色変換層である場合、カラーフィルタ38は、赤色光を透過するのに対して、青色光を吸収することができる赤色フィルタであってもよい。
 カラーフィルタ38は、受光部群23を覆うように、反射層34C上に設けられている。カラーフィルタ38は、例えば、赤色カラーレジスト等のカラーレジストを含む。ピンホール34CAおよび複数の孔部34CBは、カラーフィルタ38に覆われず露出していることが好ましい。
 上記の変形例7では、センサ30Gが波長変換層37および反射部25を備える例について説明したが、センサ30Gが波長変換層37および反射部25に代えて拡散反射層を備えてもよい。この場合、光源35が出射することができる光は、白色光等であってもよい。上記の変形例7では、センサ30Gが反射部25を備える例について説明したが、センサ30Gが反射部25を備えていなくてもよい。
[作用効果]
 変形例7のセンサ30Gでは、波長変換層37は、ピンホール34CAおよび複数の孔部34CBから出射された第1の光のエネルギーを吸収し、エネルギーの異なる第2の光を放出することができる。カラーフィルタ38は、波長変換層37から放出された第2の光を透過するのに対して、第2の光以外の第1の光等を吸収することができる。これにより、第2の光以外の第1の光等の、受光部群23への入射を抑制することができる。したがって、受光部群23の出力信号のノイズ(第1の光等に起因するノイズ)を低減することができる。
<変形例8>
[センサ30Hの構成]
 図27は、変形例8のセンサ30Hの構成の一例を示す断面図である。センサ30Hは、基材21と、複数の受光部群23と、カラーフィルタ41と、光透過層42と、遮光層43と、導光層44と、複数のレンズ45とを備える。なお、変形例8において、一実施形態と同様の箇所には同一の符号を付す。
(光源47)
 光源47は、導光層44の側面に対向して配置されている。光源47は、導光層44の側面から光を導光層44内に入射することができる。光源47の種類は、例えば、一実施形態における光源22と同様であってもよい。
(導光層44)
 導光層44は、側面から入射された光を、センサ30Hの第1面の面内方向(X、Y方向)に導光し、複数の波長変換層46に入射させることができる。導光層44は、反射層44Aと、弾性層32と、複数の波長変換層46と、反射層44Bとを備える。
 弾性層32は、光源47から入射される光に対して透光性を有している。弾性層32は、反射層44A、44Bの間に設けられている。
 複数の波長変換層46は、マトリクス状等の規定の配置パターンで弾性層32上に2次元配置されている。複数の波長変換層46は、変形例7における波長変換層37と同様である。
 反射層44A、44Bは、弾性層32の側面から入射された光を反射することができる。反射層44A、44Bは、互いの主面が平行となるように、離隔されている。反射層44Aは、弾性層32の第2面に設けられている。反射層44Bは、複数の波長変換層46を覆うように、弾性層32の第1面に設けられている。反射層44Aは、複数の孔部44AAを有している。各孔部44AAは、レンズ45の配置位置に設けられている。
 反射層44A、44Bは、例えば、金属層である。金属層は、例えば、クロム(Cr)、金(Au)、白金(Pt)、ニッケル(Ni)、銅(Cu)、モリブデン(Mo)、チタン(Ti)、タンタル(Ta)、アルミニウム(Al)、マグネシウム(Mg)、鉄(Fe)、タングステン(W)および銀(Ag)からなる群より選ばれた少なくとも1種を含む。
(基材21)
 基材21は、一実施形態において説明したとおりである。
(受光部群23)
 受光部群23は、一実施形態において説明したとおりである。
(カラーフィルタ41)
 カラーフィルタ41は、波長変換層46から放出された第2の光を透過するのに対して、第2の光以外の第1の光等を吸収することができる。光源47が青色光を出射することができる青色光源であり、波長変換層46が青色光を吸収し赤色光に色変換することができる色変換層である場合、カラーフィルタ41は、赤色光を透過するのに対して、青色光を吸収することができる赤色フィルタであってもよい。
 カラーフィルタ41は、受光部群23を覆うように、基材21上に設けられている。カラーフィルタ41は、例えば、赤色カラーレジスト等のカラーレジストを含む。
(光透過層42)
 光透過層42は、光源47から出射される光に対して透光性を有している。例えば、光源22が白色光、赤色光、緑色光または青色光等の可視光を出射することができるように構成されている場合、光透過層42は、可視光に対して透明性を有していてもよい。光透過層42は、弾性層32と複数の受光部群23の間に設けられている。より具体的には、光透過層42は、カラーフィルタ41上に設けられている。
 光透過層42は、基板またはフィルムである。基板は、変形例1における光透過層31Cを構成する基板と同様であってもよい。フィルムは、変形例1における光透過層31Cを構成するフィルムと同様であってもよい。
(遮光層43)
 遮光層43は、入射光を吸収することができる。入射光は、例えば、光源47の出射光および波長変換層46の放出光等である。遮光層26は、光透過層42上に設けられている。遮光層26は、複数の孔部43Aを有する。各孔部43Aは、レンズ45の配置位置に設けられている。遮光層26は、例えば、一実施形態における遮光層26と同様の材料を含んでもよい。
(レンズ45)
 レンズ45は、当該レンズ45の直上に設けられた波長変換層46の1つの像46Aを光透過層42に形成することができる。複数のレンズ45は、例えばマトリクス状等の規定の配置パターンで光透過層42上に2次元配置されている。各レンズ45は、遮光層43の孔部43A内および反射層44Aの孔部44AA内に設けられ、導光層44内に突出している。平面視における各レンズ45の幾何中心は、中心軸30L上に位置している。
 上記の変形例8では、センサ30Hが波長変換層46を備える例について説明したが、波長変換層46に代えて拡散反射層を備えてもよい。この場合、光源47が出射することができる光は、白色光等であってもよい。上記の変形例8では、導光層44が、反射層44Bを備える例について説明したが、導光層44が、反射層44Bに代えて拡散反射層を備えてもよい。この場合、波長変換層46は備えられていてもよいし、備えられていなくてもよい。
[作用効果]
 変形例8のセンサ30Hでは、波長変換層46の仮想的な像46Aが、レンズ45により光透過層42内に形成される。像46Aの放出光の配光分布が、第1受光部23A~23Aおよび第2受光部23B~23Bで受光される。したがって、波長変換層46の位置が受光部群23から遠い場合でも、波長変換層46の位置X、Y、Zを検出することができる。
 カラーフィルタ41は、波長変換層46から放出された第2の光を透過するのに対して、第2の光以外の第1の光等を吸収することができる。これにより、第2の光以外の第1の光等の、受光部群23への入射を抑制することができる。したがって、受光部群23の出力信号のノイズ(第1の光等に起因するノイズ)を低減することができる。
<変形例9>
 変形例8では、1つの仮想的な像46Aが1つのレンズ45により形成される例が説明された。これに対して、変形例9では、複数の仮想的な像46Aが1つのレンズ45により形成される例が説明される。
[センサ30Iの構成]
 図28は、変形例9のセンサ30Iの構成の一例を示す断面図である。複数の波長変換層46が、1つのレンズ45に対応して設けられている。複数の受光部群23が、1つのレンズ45に対応して設けられている。1つのレンズ45は、当該レンズ45に対応して設けられた複数の波長変換層46それぞれに対応する複数の像46Aを光透過層42に形成することができる。各像46Aは、受光部群23の上方に形成される。
 複数の受光部群23およびレンズ45等の部品は、デジタルカメラ等で使用されている汎用部品であってもよい。このような汎用部品が使用されることで、センサ30Iを安価に製造することができる。
 図29に示されるように、複数の第1受光部23A~23Aおよび複数の第2受光部23B~23Bは、フォトダイオードアレイまたはイメージセンサにより構成されていてもよい。例えば、各第1受光部23Aおよび各第2受光部23Bは、フォトダイオードアレイまたはイメージセンサが有する一つの受光素子(例えば画素)により構成されていてもよいし、フォトダイオードアレイまたはイメージセンサが有する一区画の受光素子により構成されていてもよい。
 各第1受光部23Aおよび各第2受光部23Bが、フォトダイオードアレイまたはイメージセンサが有する一区画の受光素子により構成されている場合には、IC11は、上記一区画の受光素子の出力信号の和を、1つの第1受光部23Aまたは1つの第2受光部23Bからの出力信号としてもよい。
 イメージセンサは、デジタルカメラ等で使用されている汎用部品であってもよい。このような汎用部品が使用されることで、センサ30Iを安価に製造することができる。また、複数の受光素子を1つ1つ実装することなく、複数の受光部群23を構成することができる。したがって、センサ30Iの生産性を向上させることができる。
<変形例10>
[センサ30Jの構成]
 図30は、変形例10のセンサ30Jの構成の一例を示す断面図である。センサ30Jは、レンズ51を備える点において、変形例1のセンサ30Aとは異なっている。レンズ51は、ピンホール31DAから出射される光を集光し、反射部25への入射光の配光分布を調整することができる。したがって、反射部25による反射光の配光分布を調整することができる。
 レンズ51は、ピンホール31DAの上またはピンホール31DAの上方に設けられている。レンズ51の光軸は、中心軸30Lと一致している。レンズ51は、非球面レンズであってもよい。当該非球面レンズは、反射部25の反射光の配光分布を調整し、当該配光分布のリニア領域を拡大することができてもよい。この場合、センサ30Jの検出誤差を低減することができ、またダイナミックレンジを拡大することもできる。
[作用効果]
 変形例10のセンサ30Jでは、レンズ51がピンホール31DAの上またはピンホール31DAの上方に設けられている。これにより、ピンホール31DAの照射範囲を反射部25の移動可能範囲に集中させ、反射部25の周辺でセンシングに寄与せずに無駄になる光を低減することができる。したがって、センサ30Jの光の利用効率を高め、同じ消費電力でも、より良い感度を得ることができる。
<変形例11>
[センサ20Kの構成]
 図31は、変形例11のセンサ20Kの構成の一例を示す断面図である。センサ20Kは、レンズ52を備える点において、一実施形態に係るセンサ20とは異なっている。レンズ52は、光源22上または光源22の上方に設けられている。レンズ52の光軸は、中心軸20Lと一致している。レンズ52は、非球面レンズであってもよい。当該非球面レンズは、変形例10における非球面レンズと同様の機能を有していてもよい。
[作用効果]
 変形例11のセンサ20Kでは、光源22上または光源22の上方に設けられている。これにより、光源22の照射範囲を反射部25の移動可能範囲に集中させ、反射部25の周辺でセンシングに寄与せずに無駄になる光を低減することができる。したがって、センサ20Kの光の利用効率を高め、同じ消費電力でも、より良い感度を得ることができる。
[受光部群23の変形例]
 一実施形態および変形例1~11では、センサ20およびセンサ30A~30J、20Kが、複数の第1、第2受光部23A、23Bが十字状に配置された受光部群23を備える例について説明したが、センサ20およびセンサ30A~30J、20Kが、以下の変形例12、13の受光部群61、62のいずれかを備えてもよい。
<変形例12>
[受光部群61の構成]
 図32は、変形例12の受光部群61の構成の一例を示す平面図である。受光部群61は、複数の受光部61Am,n(但し、m、nは正の整数である。)を含む。複数の受光部61Am,nは、基材21上にマトリックス状に2次元配置されている。図32中、Y方向に並んだ数値1、2、・・・・、7は、受光部61Am,nの行番号mを表し、X方向に並んだ数字1、2、・・・・、7は、受光部61Am,nの列番号nを表す。受光部61Am,nは、m行n列の位置に配置されている受光部を表す。例えば、受光部61A2,2は2行2列の位置に配置されている受光部を表し、受光部61A6,6は6行6列の位置に配置されている受光部を表す。受光部群61の中心位置には、光源22が配置されている。
 図33に示されるように、複数の受光部61Am,nは、フォトダイオードアレイまたはイメージセンサにより構成されていてもよい。例えば、各受光部61Am,nは、フォトダイオードアレイまたはイメージセンサが有する一つの受光素子(例えば画素)61AEにより構成されていてもよいし、フォトダイオードアレイまたはイメージセンサが有する一区画の受光素子61AEにより構成されていてもよい。この場合、1または2以上の光源22が、受光部群23の周辺に配置され、周辺から反射部25に向かって光が照射されるようにしてもよい。
[センサモジュール10の動作]
 以下、図34~図37を参照して、センサモジュール10による力F、Fの検出動作の一例について説明される。
 まず、IC11が、2次元配置された複数の受光部61Am,nを順次スキャンし、各受光部61Am,nから出力信号Sm,nを得る。次に、IC11が、得られた複数の出力信号Sm,nを用いて、複数の受光部61Am,nのうち、受光する光強度が1番目から3番目までに大きい3つの受光部61Am,n(例えば、受光部61Am1,n1、61Am2,n2、61Am3,n3(以下「上位3つの受光部61Am1,n1、61Am2,n2、61Am3,n3」という。))を特定する。
 図34には、上位3つの受光部61Am1,n1、61Am2,n2、61Am3,n3がY方向(列方向)に並んだ例が示されている。図36には、上位3つの受光部61Am1,n1、61Am2,n2、61Am3,n3のうち2つの受光部61Am1,n1、61Am2,n2がY方向(列方向)に並び、2つの受光部61Am1,n1、61Am3,n3がX方向(行方向)に並んだ例が示されている。
 次に、IC11が、力F、Fの算出に用いられる受光部61Am,nの行61Mおよび受光部61Am,nの列61Nを選択する。
 例えば、図34に示されるように、上位3つの受光部61Am1,n1、61Am2,n2、61Am3,n3がY方向(列方向)に並んでいる場合には、IC11は、図35に示されるように、上位3つの受光部61Am1,n1、61Am2,n2、61Am3,n3を含む受光部61Aの列61Nを選択する。また、IC11は、図35に示されるように、上位3つの3つの受光部61Am1,n1、61Am2,n2、61Am3,n3のうち中央に位置する61Am1,n1を含む受光部61Aの行61Mを選択する。
 上位3つの受光部61Am1,n1、61Am2,n2、61Am3,n3がX方向(列方向)に並んでいる場合には、IC11は、上位3つの受光部61Am1,n1、61Am2,n2、61Am3,n3を含む受光部61Aの行61Mを選択する。また、IC11は、上位3つの3つの受光部61Am1,n1、61Am2,n2、61Am3,n3のうち中央に位置する61Am1,n1を含む受光部61Aの列61Nを選択する。
 図36に示されるように、上位3つの受光部61Am1,n1、61Am2,n2、61Am3,n3がX方向(行方向)およびY方向(列方向)に並んでいる場合には、IC11は、図37に示されるように、Y方向(列方向)に並んだ2つの受光部61Am1,n1、61Am2,n2を含む受光部61Am,nの列61Nを選択する。また、IC11は、図37に示されるように、X方向(行方向)に並んだ2つの受光部61Am1,n1、61Am3,n3を含む受光部61Am,nの行61Mを選択する。
 次に、IC11は、上記のようにして選択された受光部61Aの行61Mおよび受光部61Aの列61Nを用いて、力F、Fを算出する。当該力F、Fの算出動作は、上記のようにして選択された受光部61Aの行61Mおよび受光部61Aの列61Nを用いる以外の点においては、第1の実施形態におけるセンサモジュール10による力F、Fの第2検出動作(図13参照)と同様である。
<変形例13>
 図38は、変形例13の受光部群62の構成の一例を示す平面図である。変形例13において、X軸、Y軸をそれぞれ第1軸、第3軸といい、X軸を基準にして45°、135°回転した軸をそれぞれ第2軸、第4軸という。円63C(但し、nは正の整数である。)は、平面視において光源22の幾何中心を中心とし、かつ、半径rを有する仮想的な円を表す。また、nの値が大きい円63Cほど半径rが大きく、外側に位置するものとする。隣接する円63Cと円63Cn+1の半径の差Δr(=rn+1-r)は、nの値によらず一定値であってもよいし、nの値により変化してもよい。
 受光部群62は、複数の受光部62Aを含む。円63Cには、4つの受光部62Aが等間隔で配置されている。4つの受光部62Aは、幾何中心が半径rの円63Cと第2軸および第4軸との交点に位置するように等間隔に配置されている。4つの受光部62An+1は、幾何中心が半径rn+1の円63Cn+1と第1軸および第3軸との交点に位置するように等間隔に配置されている。すなわち、4つの受光部62An+1の配置位置(幾何中心位置)は、4つの受光部62Aの配置位置(幾何中心位置)から径方向にΔrずらすとともに、周方向にΔθ(=45°)ずらした位置である。受光部群62の中心、すなわち光源22の幾何中心から遠い受光部62Aほど、平面視における受光部62Aの受光領域の面積が大きいことが好ましい。
 円63C上に位置する4つの受光部62Aは、第1受光部ペアと、第2受光部ペアとを構成している。第1受光部ペアは、第1軸または第2軸の方向において対応する受光部62Aのペアである。第2受光部ペアは、第3軸または第4軸の方向において対応する受光部62Aのペアである。IC11は、同一の円63Cに位置する第1受光部ペアおよび第2受光部ペアの出力に基づき、センサ20に作用する力F、F、Fを検出してもよい。IC11は、反射部25の高さが低くなる(反射部25が光源22に接近する)に従って、より光源22の幾何中心に近い第1受光部ペアおよび/または第2受光部ペアを用いて、センサ20に作用する力F、F、Fを検出してもよい。
 上記のように、円63Cに位置する4つの受光部62Aと、円63Cに隣接する円63Cn+1に位置する4つの受光部62An+1が径方向および周方向にずらして配置されていることで、円63Cn+1に位置する4つの受光部62An+1を円63Cに位置する4つの受光部62Aに比べて大きくすることができる。
 IC11は、反射部25が光源22に近い場合には、光源22の幾何中心に近い第1受光部ペアおよび第2受光部ペアの出力に基づき、センサ20に作用する力F、F、Fを検出してもよい。光源22の幾何中心に近い第1受光部および第2受光部は小さい面積を有するが、反射部25が光源22に近い場合には第1受光部および第2受光部に入射する光の強度が高いため、感度良くセンシングすることができる。
 一方、IC11は、反射部25が光源22に遠い場合には、光源22の幾何中心から遠い第1受光部ペアおよび第2受光部ペアの出力に基づき、センサ20に作用する力F、F、Fを検出してもよい。光源22の幾何中心から遠い第1受光部および第2受光部に入射する光の強度は低いが、光源22の幾何中心から遠い第1受光部および第2受光部は大きい面積を有するため、入射光の強度が低くても、第1受光部および第2受光部にて十分な受光量を得ることができ、感度良くセンシングすることができる。
(その他の変形例)
 以上、本開示の実施形態および変形例について具体的に説明したが、本開示は、上記の実施形態および変形例に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。
 例えば、上記の実施形態および変形例において挙げた構成、方法、工程、形状、材料および数値等はあくまでも例に過ぎず、必要に応じてこれと異なる構成、方法、工程、形状、材料および数値等を用いてもよい。
 上記の実施形態および変形例の構成、方法、工程、形状、材料および数値等は、本開示の主旨を逸脱しない限り、互いに組み合わせることが可能である。
 上記の実施形態および変形例に例示した材料は、特に断らない限り、1種を単独でまたは2種以上を組み合わせて用いることができる。
 上記の実施形態では、センサ20が弾性体24を備える例について説明したが、センサ20が弾性体24を備えず中空構造を有していてもよい。この場合、遮光層26が、自立性を有し、かつ、弾性を有してもよい。
 上記の実施形態において、IC11が、第1受光部23A、23Aペアの出力信号SA3、SA4および第2受光部23B、23Bペアの出力信号SB3、SB4を用いて、出力信号の和SZ(=SA3+SA4+SB3+SB4)を算出してもよい。この場合、IC11は、以下のように動作してもよい。
 反射部25の中心位置と基材21の距離が第1規定値より大きい場合には、IC11は、出力信号の和SZに基づき、Z方向に作用する力Fを算出し、メインCPU12Aに出力する。反射部25の中心位置と基材21の距離が第2規定値より大きく第1規定値以下である場合には、IC11は、出力信号の和SZに基づき、Z方向に作用する力Fを算出し、メインCPU12Aに出力する。反射部25の中心位置と基材21の距離が第2規定値以下である場合には、IC11は、出力信号の和SZに基づき、Z方向に作用する力Fを算出し、メインCPU12Aに出力する。
 IC11は、反射部25の中心位置と基材21の距離が第1規定値より大きいか否かを、出力信号の和SZが第1規定値SZより大きいか否かに基づき判断する。IC11は、反射部25の中心位置と基材21の距離が第2規定値より大きく第1規定値以下であるか否かを、出力信号の和SZが第2規定値SZより大きく第1規定値SZ以下であるか否かに基づき判断する。IC11は、反射部25の中心位置と基材21の距離が第2規定値以下であるか否かを、出力信号の和SZが第2規定値SZ以下であるか否かに基づき判断する。
 上記の実施形態では、IC11が、出力信号の和SZまたは出力信号の和SZから力Fを算出し、メインCPU12Aに出力する例について説明した。しかしながら、本開示はこの例に限定されるものではなく、例えば、IC11が、出力信号の和SZまたは出力信号の和SZをメインCPU12Aに出力してもよい。より具体的には、反射部25の中心位置と基材21の距離が規定値よりも遠い場合には、IC11は、出力信号の和SZをメインCPU12Aに出力し、反射部25の中心位置と基材21の距離が規定値よりも近づいた場合には、IC11は、出力信号の和SZをメインCPU12Aに出力してもよい。
 上記の実施形態では、IC11が、出力信号の差SX、出力信号の差SY、出力信号の和SZから力F、力F、力Fを算出し、メインCPU12Aに出力する例について説明した。しかしながら、本開示はこの例に限定されるものではなく、例えば、IC11が、出力信号の差SX、出力信号の差SY、出力信号の和SZをメインCPU12Aに出力してもよい。
 また、本開示は以下の構成を採用することもできる。
(1)
 受光部群と、
 前記受光部群の上方に設けられた反射部と、
 前記反射部と前記受光部群の間に設けられた弾性体と
 を備え、
 前記受光部群は、
 第1方向に配置された、4個以上の第1受光部と、
 前記第1方向と直交する第2方向に配置された、4個以上の第2受光部と
 を含む、
 力覚センサ。
(2)
 前記受光部群の中心からの距離が遠い前記第1受光部および前記第2受光部ほど、受光領域の面積が大きい、
 (1)に記載の力覚センサ。
(3)
 4個以上の前記第1受光部は、前記受光部群の中心に関して対称に配置され、
 4個以上の前記第2受光部は、前記受光部群の中心に関して対称に配置されている、
 (1)に記載の力覚センサ。
(4)
 前記反射部に対応する位置に設けられた光源と、
 前記光源上または前記光源の上方に設けられたレンズと
 をさらに備える、
 (1)から(3)のいずれか1項に記載の力覚センサ。
(5)
 前記第1受光部、前記第2受光部はそれぞれ、イメージセンサが有する一区画の受光素子により構成されている、
 (1)から(4)のいずれか1項に記載の力覚センサ。
(6)
 遮光層をさらに備え、
 前記遮光層は、前記弾性体および前記反射部を覆う、
 (1)から(5)のいずれか1項に記載の力覚センサ。
(7)
 前記弾性体は、上面と側面を有し、
 前記遮光層は、前記上面と前記側面とを覆う、
 (6)に記載の力覚センサ。
(8)
 前記反射部は、光散乱体を含む、
 (1)から(7)のいずれか1項に記載の力覚センサ。
(9)
 光源を含む基材層をさらに備え、
 4個以上の前記第1受光部および4個以上の前記第2受光部は、前記基材層上に設けられ、
 前記基材層は、前記弾性体に光を取り出すことができる孔部を有する、
 (1)から(3)のいずれか1項に記載の力覚センサ。
(10)
 導光層をさらに備え、
 前記導光層は、前記弾性体に光を取り出すことができる孔部を有する、
 (1)から(3)のいずれか1項に記載の力覚センサ。
(11)
 前記反射部に対応する位置に突起をさらに備える、
 (1)から(10)のいずれか1項に記載の力覚センサ。
(12)
 前記弾性体と前記反射部の間に設けられた波長変換層と、
 前記受光部群を覆うカラーフィルタと
 をさらに備え、
 前記波長変換層は、光源から出射された第1光を第2光に変換することができ、
 前記カラーフィルタは、前記第1光を吸収することができ、かつ、前記第2光を透過することができる、
 (1)から(11)のいずれか1項に記載の力覚センサ。
(13)
 前記弾性体と前記受光部群との間に設けられた光透過層と、
 前記光透過層内に前記反射部の像を形成することができるレンズと
 をさらに備える、
 (1)から(12)のいずれか1項に記載の力覚センサ。
(14)
 前記第1方向に配置された前記第1受光部の個数が、6個以上であり、
 前記第2方向に配置された前記第2受光部の個数が、6個以上である、
 (1)から(13)のいずれか1項に記載の力覚センサ。
(15)
 複数の受光部群と、
 各前記受光部群の上方に設けられた複数の反射部と、
 複数の前記反射部と複数の前記受光部群の間に設けられた弾性層と
 を備え、
 前記受光部群は、
 第1方向に配置された、4個以上の第1受光部と、
 前記第1方向と直交する第2方向に配置された、4個以上の第2受光部と
 を含む、
 力覚センサ。
(16)
 前記弾性層は、平面視において、隣接する前記受光部群の間に溝を有する、
 (15)に記載の力覚センサ。
(17)
 前記弾性層と複数の前記受光部群の間に設けられた光透過層と、
 前記光透過層内に複数の前記反射部の像を形成する複数のレンズと
 をさらに備える、
 (15)または(16)に記載の力覚センサ。
(18)
 (1)から(17)のいずれか1項に記載のセンサと、
 検出部と、
 を備え、
 前記検出部は、
 前記第1受光部のペアの出力信号の差のうち、第1線形領域に含まれる出力信号の差を選び出し、
 前記第2受光部のペアの出力信号の差のうち、第2線形領域に含まれる出力信号の差を選び出す、
 センサモジュール。
(19)
 (1)から(17)のいずれか1項に記載のセンサと、
 検出部と、
 を備え、
 前記検出部は、
 前記第1受光部のペアの出力信号の差のうち、最も検出誤差が小さくなる出力信号の差を選び出し、
 前記第2受光部のペアの出力信号の差のうち、最も検出誤差が小さくなる出力信号の差を選び出す、
 センサモジュール。
(20)
 (1)から(17)のいずれか1項に記載の力覚センサを備える、
 ロボットハンド。
<3 適用例>
(ロボットハンド)
 ロボットハンドが、上記の一実施形態に係るセンサモジュール10(すなわちセンサ20およびIC11)を備えてもよい。この場合、センサモジュール10は、センサ20に代えて変形例1~11のセンサ30A~30J、20Kのいずれかを備えてもよい。センサ20、センサ30A~30J、20Kは、受光部群23に代えて、変形例12、13の受光部群61、62を備えてもよい。
 ロボットハンドが、上記の一実施形態のセンサ20、変形例1~11のセンサ30A~30J、20Kのいずれかを備え、ロボットハンドを制御する制御装置等が、IC11を備えてもよい。この場合、センサ20、センサ30A~30J、20Kは、受光部群23を備えてもよいし、受光部群23に代えて変形例12、13の受光部群61、62を備えてもよい。
(具体例1)
 図39は、ロボットハンド120の構成の一例を示す概略図である。ロボットハンド120は、ワーク130を把持可能に構成されている。ロボットハンド120は、ロボットアーム110の先端に設けられている。ロボットハンド120は、エンドエフェクタの一例である。ロボットハンド120は、リンク120Cと、複数の指部120A、120Bとを備える。ここでは、ロボットハンド120が2本の指部120A、120Bを備える例について説明するが、指部の本数はこれに限定されるものではなく、1本であってもよいし、3本以上であってもよい。
 リンク120Cは、ロボットアーム110に繋がっている。リンク120Cは、掌部を構成していてもよい。指部120Aおよび指部120Bは、リンク120Cに繋がっている。指部120Aおよび指部120Bは、ワーク130を把持可能に構成されている。
 指部120Aは、2つのリンク121A、122Aと、関節部123Aと、力覚センサ(第1のセンサ)124Aとを備える。指部120Bは、2つのリンク121B、122Bと、関節部123Bと、力覚センサ(第2のセンサ)124Bとを備える。
 関節部123Aは、リンク121Aとリンク122Aとを繋いでいる。指部120Aは、関節部123Aを中心として指を折り曲げ可能に構成されている。関節部123Bは、リンク121Bとリンク122Bとを繋いでいる。指部120Bは、関節部123Bを中心として指を折り曲げ可能に構成されている。ここでは、指部120A、120Bが有する関節部の数が1つである例について説明するが、関節部の数が2つ以上であってもよい。
 力覚センサ(第1のセンサ)124Aは、指部120Aの指先、すなわちリンク122Aの先端に設けられている。力覚センサ(第2のセンサ)124Bは、指部120Bの指先、すなわちリンク122Bの先端に設けられている。
 力覚センサ124A、124Bは、一実施形態のセンサ20であってもよいし、変形例1~11のセンサ30A~30J、20Kのいずれかであってもよい。図39では省略されているが、力覚センサ124A、124Bはそれぞれ、IC11(図1参照)に接続されている。IC11は、ホスト機器12が備えるメインCPU(Central Processing Unit)12Aに接続されている。ホスト機器12は、ロボットアーム110およびロボットハンド120を制御する制御装置である。IC11は、ロボットハンド120に備えられていてもよいし、制御装置に備えられていてもよい。
 力覚センサ124Aは、指部120Aの指先の圧力分布およびせん断力を検出可能に構成されている。力覚センサ124Aは、IC11Aの制御に基づき、指部120Aの指先の圧力分布およびせん断力を検出し、検出結果をセンサIC11Aに出力する。
 力覚センサ124Bは、指部120Bの指先の圧力分布およびせん断力を検出可能に構成されている。力覚センサ124Bは、IC11Aの制御に基づき、指部120Bの指先の圧力分布およびせん断力を検出し、検出結果をセンサIC11Aに出力する。
(具体例2)
 図40は、ロボットハンド125の構成の一例を示す概略図である。ロボットハンド125は、複数の力覚センサ124Aが指部120Aの指先に設けられ、複数の力覚センサ124Bが、指部120Bの指先の先端に設けられている点において、具体例1のロボットハンド120とは異なっている。
 複数の力覚センサ124Aが指部120Aの指先に2次元配置され、触覚センサが構成されている。複数の力覚センサ124Bが指部120Bの指先に2次元配置され、触覚センサが構成されている。
(具体例3)
 図41は、力覚センサ211-1~211-16を適用したロボットハンド210の構成を示す概略図である。力覚センサ211-1~211-16は、一実施形態のセンサ20であってもよいし、変形例1~11のセンサ30A~30J、20Kのいずれかであってもよい。力覚センサ211-1~211-16は、フィルム状を有していることが好ましい。図41では省略されているが、力覚センサ211-1~211-16はそれぞれ、IC11(図1参照)に接続されている。IC11は、ホスト機器12が備えるメインCPU(Central Processing Unit)12Aに接続されている。ホスト機器12は、ロボットハンド210を制御する制御装置である。IC11は、ロボットハンド120に備えられていてもよいし、制御装置に備えられていてもよい。
 ロボットハンド210を構成する掌には、力覚センサ211-1および211-2が設けられており、ロボットハンド210を構成する親指の指掌面における第1関節より上には力覚センサ211-3、第1関節と第2関節の間には力覚センサ211-4が、それぞれ設けられており、人指し指の指掌面における第1関節より上には力覚センサ211-5、第1関節と第2関節の間には力覚センサ211-6、第2関節と第3関節の間には力覚センサ211-7が、それぞれ設けられている。
 さらに、中指の指掌面における第1関節より上には力覚センサ211-8、第1関節と第2関節の間には力覚センサ211-9、第2関節と第3関節の間には力覚センサ211-10が、それぞれ設けられており、薬指の指掌面における第1関節より上には力覚センサ211-11、第1関節と第2関節の間には力覚センサ211-12、第2関節と第3関節の間には力覚センサ211-13が、それぞれ設けられており、小指の指掌面における第1関節より上には力覚センサ211-14、第1関節と第2関節の間には力覚センサ211-15、第2関節と第3関節の間には力覚センサ211-16が、それぞれ設けられている。
 ロボットハンド125が、力覚センサ211-1~211-16に代えて、センサアレイを備えてもよい。センサアレイは、2次元配置された複数のセンサにより構成されていてもよい。センサアレイは、触覚センサを構成していてもよい。センサアレイを構成するセンサとしては、一実施形態のセンサ20が用いられてもよいし、変形例1~11のセンサ30A~30J、20Kのいずれかが用いられてもよい。
 10  センサモジュール
 11  IC
 12  ホスト機器
 12A  メインCPU
 20、20K  センサ
 20L  中心軸
 21  基材
 22  光源
 23  受光部群
 23A、23A、23A  第1受光部
 23B、23B、23B  第2受光部
 24  弾性体
 25  反射部
 26  遮光層
 30A、30B、30C、30D、30E、30F、30G、30H、30I、30J  センサ
 30L  中心軸
 30SE  センサ部
 31  基材層
 31A  基材
 31B  貼合層
 31C  光透過層
 31D  遮光層
 31DA、31EA  ピンホール
 31DB  孔部
 32  弾性層
 32A  溝
 33  遮光層
 34  導光層
 34A、34B  反射層
 34BA、34CA  ピンホール
 34CB  孔部
 35  光源
 36  突起
 37  波長変換層
 38  カラーフィルタ
 41  カラーフィルタ
 42  光透過層
 43  遮光層
 43A  孔部
 44  導光層
 44A、44B  反射層
 44AA  孔部
 45  レンズ
 46  波長変換層
 46A  像
 47  光源
 51、52  レンズ
 61、62  受光部群
 61An、m、62An  受光部
 61AE  受光素子
 70S  照射面
 70P  中心位置
 71A、71A  第1受光部
 71B、71B  第2受光部
 72  点光源
 110  ロボットアーム
 120、125、210  ロボットハンド
 120A、120B  指部
 120C  リンク
 124A、124B  力覚センサ
 211-1~211-16  力覚センサ-

Claims (20)

  1.  受光部群と、
     前記受光部群の上方に設けられた反射部と、
     前記反射部と前記受光部群の間に設けられた弾性体と
     を備え、
     前記受光部群は、
     第1方向に配置された、4個以上の第1受光部と、
     前記第1方向と直交する第2方向に配置された、4個以上の第2受光部と
     を含む、
     力覚センサ。
  2.  前記受光部群の中心からの距離が遠い前記第1受光部および前記第2受光部ほど、受光領域の面積が大きい、
     請求項1に記載の力覚センサ。
  3.  4個以上の前記第1受光部は、前記受光部群の中心に関して対称に配置され、
     4個以上の前記第2受光部は、前記受光部群の中心に関して対称に配置されている、
     請求項1に記載の力覚センサ。
  4.  前記反射部に対応する位置に設けられた光源と、
     前記光源上または前記光源の上方に設けられたレンズと
     をさらに備える、
     請求項1に記載の力覚センサ。
  5.  前記第1受光部、前記第2受光部はそれぞれ、イメージセンサが有する一区画の受光素子により構成されている、
     請求項1に記載の力覚センサ。
  6.  遮光層をさらに備え、
     前記遮光層は、前記弾性体および前記反射部を覆う、
     請求項1に記載の力覚センサ。
  7.  前記弾性体は、上面と側面を有し、
     前記遮光層は、前記上面と前記側面とを覆う、
     請求項6に記載の力覚センサ。
  8.  前記反射部は、光散乱体を含む、
     請求項1に記載の力覚センサ。
  9.  光源を含む基材層をさらに備え、
     4個以上の前記第1受光部および4個以上の前記第2受光部は、前記基材層上に設けられ、
     前記基材層は、前記弾性体に光を取り出すことができる孔部を有する、
     請求項1に記載の力覚センサ。
  10.  導光層をさらに備え、
     前記導光層は、前記弾性体に光を取り出すことができる孔部を有する、
     請求項1に記載の力覚センサ。
  11.  前記反射部に対応する位置に突起をさらに備える、
     請求項1に記載の力覚センサ。
  12.  前記弾性体と前記反射部の間に設けられた波長変換層と、
     前記受光部群を覆うカラーフィルタと
     をさらに備え、
     前記波長変換層は、光源から出射された第1光を第2光に変換することができ、
     前記カラーフィルタは、前記第1光を吸収することができ、かつ、前記第2光を透過することができる、
     請求項1に記載の力覚センサ。
  13.  前記弾性体と前記受光部群との間に設けられた光透過層と、
     前記光透過層内に前記反射部の像を形成することができるレンズと
     をさらに備える、
     請求項1に記載の力覚センサ。
  14.  前記第1方向に配置された前記第1受光部の個数が、6個以上であり、
     前記第2方向に配置された前記第2受光部の個数が、6個以上である、
     請求項1に記載の力覚センサ。
  15.  複数の受光部群と、
     各前記受光部群の上方に設けられた複数の反射部と、
     複数の前記反射部と複数の前記受光部群の間に設けられた弾性層と
     を備え、
     前記受光部群は、
     第1方向に配置された、4個以上の第1受光部と、
     前記第1方向と直交する第2方向に配置された、4個以上の第2受光部と
     を含む、
     力覚センサ。
  16.  前記弾性層は、平面視において、隣接する前記受光部群の間に溝を有する、
     請求項15に記載の力覚センサ。
  17.  前記弾性層と複数の前記受光部群の間に設けられた光透過層と、
     前記光透過層内に複数の前記反射部の像を形成する複数のレンズと
     をさらに備える、
     請求項15に記載の力覚センサ。
  18.  請求項1に記載のセンサと、
     検出部と、
     を備え、
     前記検出部は、
     前記第1受光部のペアの出力信号の差のうち、第1線形領域に含まれる出力信号の差を選び出し、
     前記第2受光部のペアの出力信号の差のうち、第2線形領域に含まれる出力信号の差を選び出す
     センサモジュール。
  19.  請求項1に記載のセンサと、
     検出部と、
     を備え、
     前記検出部は、
     前記第1受光部のペアの出力信号の差のうち、最も検出誤差が小さくなる出力信号の差を選び出し、
     前記第2受光部のペアの出力信号の差のうち、最も検出誤差が小さくなる出力信号の差を選び出す、
     センサモジュール。
  20.  請求項1に記載の力覚センサを備える、
     ロボットハンド。
PCT/JP2023/018789 2022-06-03 2023-05-19 力覚センサ、センサモジュールおよびロボットハンド WO2023234075A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-091132 2022-06-03
JP2022091132 2022-06-03

Publications (1)

Publication Number Publication Date
WO2023234075A1 true WO2023234075A1 (ja) 2023-12-07

Family

ID=89026548

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/018789 WO2023234075A1 (ja) 2022-06-03 2023-05-19 力覚センサ、センサモジュールおよびロボットハンド

Country Status (1)

Country Link
WO (1) WO2023234075A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6061632U (ja) * 1983-10-03 1985-04-30 沖電気工業株式会社 感圧センサ
JP2007510913A (ja) * 2003-11-05 2007-04-26 イノヴェイティブ サイエンティフィック ソリューションズ,インコーポレイテッド 表面接触力を判定するための方法
US20140326882A1 (en) * 2011-11-17 2014-11-06 Optoforce Müszaki Fejlesztö És Innovációs Kft Electrically Insulated Screen and Method of Erecting an Electrically Insulated Screen
JP2017166850A (ja) * 2016-03-14 2017-09-21 キヤノン株式会社 位置検出装置、力覚センサ、および、装置
WO2021033455A1 (ja) * 2019-08-19 2021-02-25 株式会社村田製作所 力センサ、及びそれを含むセンサアレイ並びに把持装置
KR102233746B1 (ko) * 2019-10-15 2021-03-31 한국생산기술연구원 소프트 촉각 센서를 이용한 3차원 외력 측정 장치 및 이를 이용한 외력의 3차원 위치와 방향 및 크기 측정 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6061632U (ja) * 1983-10-03 1985-04-30 沖電気工業株式会社 感圧センサ
JP2007510913A (ja) * 2003-11-05 2007-04-26 イノヴェイティブ サイエンティフィック ソリューションズ,インコーポレイテッド 表面接触力を判定するための方法
US20140326882A1 (en) * 2011-11-17 2014-11-06 Optoforce Müszaki Fejlesztö És Innovációs Kft Electrically Insulated Screen and Method of Erecting an Electrically Insulated Screen
JP2017166850A (ja) * 2016-03-14 2017-09-21 キヤノン株式会社 位置検出装置、力覚センサ、および、装置
WO2021033455A1 (ja) * 2019-08-19 2021-02-25 株式会社村田製作所 力センサ、及びそれを含むセンサアレイ並びに把持装置
KR102233746B1 (ko) * 2019-10-15 2021-03-31 한국생산기술연구원 소프트 촉각 센서를 이용한 3차원 외력 측정 장치 및 이를 이용한 외력의 3차원 위치와 방향 및 크기 측정 방법

Similar Documents

Publication Publication Date Title
EP2195628B1 (en) Optical sensor for measuring a force distribution
US8674963B2 (en) Waveguide configurations for optical touch systems
KR101399142B1 (ko) 내부전반사를 이용한 광학 터치 스크린
US8743088B2 (en) Pointing device comprising a light control part and electronic apparatus comprising an input device
JP4035515B2 (ja) 光学式変位センサおよび外力検出装置
JP6962474B2 (ja) 触覚及び近接センサ、並びにセンサアレイ
KR20140097277A (ko) 전자 디바이스용 키보드 메커니즘
US20080106527A1 (en) Waveguide Configurations for Minimising Substrate Area
JP2002048601A (ja) 光学式変位測定装置
TW201030376A (en) A transmissive body
TW200825487A (en) Apparatus and method for an improved lens structure for polymer waveguides which maximizes free space light coupling
US20110122060A1 (en) Optical navigation device
CN112530999B (zh) 一种显示装置及其制作方法
US8558162B2 (en) Optical pointing device having a transparent housing element
WO2023234075A1 (ja) 力覚センサ、センサモジュールおよびロボットハンド
US20060050058A1 (en) Optical mouse structure
WO2020166185A1 (ja) 触覚及び近接センサ
JP2024012600A (ja) 光モジュール及び反射型エンコーダ
WO2021085098A1 (ja) 光学式センサおよび光学式センサモジュール
JPH1153102A (ja) 入力装置
JP6983713B2 (ja) 光学式センサ、およびその光学式センサを備えた装置
JP3428255B2 (ja) コンピュータ等の入力装置
TWM601382U (zh) 取像裝置與使用其的電子裝置
WO2023053898A1 (ja) ユーザインタフェース装置
CN212675577U (zh) 一种光学指纹识别装置及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23815834

Country of ref document: EP

Kind code of ref document: A1