WO2012086435A1 - 電子機器及び入出力システム - Google Patents

電子機器及び入出力システム Download PDF

Info

Publication number
WO2012086435A1
WO2012086435A1 PCT/JP2011/078547 JP2011078547W WO2012086435A1 WO 2012086435 A1 WO2012086435 A1 WO 2012086435A1 JP 2011078547 W JP2011078547 W JP 2011078547W WO 2012086435 A1 WO2012086435 A1 WO 2012086435A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
input
contacted
output
protrusion
Prior art date
Application number
PCT/JP2011/078547
Other languages
English (en)
French (fr)
Inventor
八木 健
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2012086435A1 publication Critical patent/WO2012086435A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/008Teaching or communicating with blind persons using visual presentation of the information for the partially sighted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to an electronic device and an input / output system.
  • This application claims priority based on Japanese Patent Application No. 2010-284885 filed on Dec. 21, 2010 and Japanese Patent Application No. 2011-253806 filed on Nov. 21, 2011. This is incorporated here.
  • Patent Document 1 has a problem that it is difficult to perform input work, particularly for a person with visual disabilities, because Braille input is performed using a touch panel and a touch pen.
  • An object of the present invention is to provide an electronic device and an input / output system that can be easily used even by a person with visual impairment.
  • An electronic device includes a bowl-shaped surface portion and a plurality of protrusion portions protruding from the surface portion to the outside of the surface portion, and each of the protrusion portions is formed inside by pressure applied by a user.
  • An input value for detecting a contacted part formed so as to be pressed down and deformation of the contacted part due to the pressurization, and acquiring information indicating a detection result as an input value from the user And an acquisition unit.
  • the electronic device includes a contacted part having a surface part and a plurality of protrusions protruding from the surface part to the outside of the surface part, and the contacted part according to an output value of an output to a user And a deformation control unit for deforming.
  • An input / output system includes an input device that acquires an input value according to deformation of a contacted portion, and an output device that deforms the contacted portion according to an output value.
  • the input device is any one of the above-described electronic devices that obtains an input value
  • the output device is any one of the above-described electronic devices that deforms the contacted portion according to the output value. It is characterized by that.
  • FIG. 1A and 1B are schematic views illustrating an example of an electronic apparatus 1 according to the first embodiment of the present invention.
  • 1A is a perspective perspective view of the electronic device 1
  • FIG. 1B is a cross-sectional view of the electronic device 1.
  • 2A and 2B are explanatory diagrams for describing the moving body 410 and the like.
  • 3A and 3B are examples of captured images.
  • the electronic device 1 includes a base portion 10 and a contacted portion 40 as shown in FIG. 1A.
  • the electronic device 1 (the same applies to the electronic device 2 according to the second embodiment of the present invention and the electronic device 3 according to the third embodiment of the present invention) is preferably sized to be easily gripped by the user.
  • 1 H1 in FIG. 1B
  • the height of the contacted portion 40 H2 in FIG. 1B
  • the radius of curvature of the surface portion 400 R in FIG. 1B
  • the above numerical values are merely examples, and the present invention is not limited thereto.
  • the contacted portion 40 is composed of a bowl-shaped surface portion 400 having a plurality of hole portions 401 and a rod-like moving body 410 arranged so as to penetrate each of the hole portions 401. Yes.
  • the moving body 410 is disposed so as to penetrate the hole portion 451 included in the surface portion 450 (not shown in FIGS. 1A and 1B) existing inside the surface portion 400 (see FIG. 2A and 2B).
  • the moving body 410 shown in FIG. 1B is configured integrally with a piezoelectric actuator 130 (described later).
  • each moving body 410 the outer end portion of the surface portion 400 (the lower right hatched portion in FIGS. 2A and 2B) is referred to as a protrusion 411. That is, the protruding portion 411 is a part of the moving body 410 that protrudes outside the surface portion 400. Further, in each moving body 410, the inner end portion (upper right thin hatched portion in FIGS. 2A and 2B) of the surface portion 400 is referred to as an imaged portion 412.
  • each of the protrusions 411 is in a pressed state in which the protrusions 411 are pressed down in the direction inside the surface portion 400 (the direction in which the LED-illuminated camera module 110 to be described later is disposed; the X direction in FIG. 2A) due to pressure from the outside of the surface portion 400. It is formed to become.
  • FIG. 2A schematically shows the protrusion 411 that is not pressed (non-pressed)
  • FIG. 2B schematically shows the protrusion 411 that is pressed.
  • the imaged part 412 is attached to the surface 450, but when the protrusion 411 is pressed, as shown in FIG.
  • the imaged part 412 is separated from the surface part 450.
  • 2A and 2B for convenience of explanation, only the reference numerals are shown for the piezoelectric actuator 130 (described later), and the illustration is omitted.
  • the projecting portion 411 is brought into a pressed state by, for example, pressing from the outside of the surface portion 400 performed by the user (pressing the projecting portion 411 by the user). That is, the moving body 410 moves in the direction inside the surface portion 400 (the direction in which the LED-illuminated camera module 110 to be described later is disposed) by the pressure applied to the protrusion 411 performed by the user. In other words, the contacted portion 40 is deformed by pressurization from the outside of the surface portion 400 (for example, pressing of the protruding portion 411 by the user).
  • the electronic device 1 includes a CPU 100, a camera module with LED illumination 110, a piezoelectric actuator 130, and a communication unit 140 inside the surface unit 400.
  • the triangular broken line in FIG. 1B schematically shows the imaging range (field-of-view region) of the camera module 110 with LED illumination.
  • the LED-illuminated camera module 110 includes an LED that illuminates the inside of the surface portion 400, a wide-angle lens, and a captured image generation unit that generates a captured image.
  • the LED-illuminated camera module 110 illuminates the inside of the surface portion 400 and images the inside of the surface portion 400 to generate a captured image. That is, the electronic device 1 captures the imaged portion 412 of each moving body 410 as if it were capturing a star projected on the planetarium.
  • the camera module with LED illumination 110 outputs a captured image obtained by capturing the inside of the surface portion 400 to the CPU 100.
  • FIG. 3A schematically shows a captured image generated by the camera module 110 with LED illumination and output to the CPU 100.
  • a circle 412 ′ of the captured image shown in FIG. 3A is an imaging region (imaging position) of each imaging target 412 (note that a part of the imaging region is denoted by reference numeral 412 ′ for simplification of the drawing. ).
  • the imaging area of each imaging target 412 is specified (recognized) by the CPU 100 (described later), but in order to easily specify the imaging area of each moving body 410, for example, LED illumination is reflected. It is preferable to apply the reflective paint to be applied to the imaged portion 412. Further, for example, instead of applying the reflective paint, the imaged part 412 may have a color that can be easily distinguished from the background part (surface part 450) in the captured image.
  • FIG. 3A shows a captured image after correction in which distortion at the peripheral portion of the imaging range due to the characteristics of the wide-angle lens is corrected, but the camera module with LED illumination 110 (captured image generation unit) is The captured image before correction may be output to the CPU 100 without performing the correction.
  • the piezoelectric actuator 130 is, for example, a piezoelectric linear actuator, and controls the movement of the moving body 410. Specifically, the piezoelectric actuator 130 drives the moving body 410 so as to move in a direction opposite to the direction in which the LED-illuminated camera module 110 is arranged (X direction in FIG. 2A). That is, the piezoelectric actuator 130 drives the moving body 410 in such a direction that the protrusion 411 shifts from the pressed state to the non-pressed state. In other words, the piezoelectric actuator 130 changes the contacted portion 40 (protrusion 411) that has entered the input state (pressed state) after receiving the user's press from the initial state (non-pressed state) of receiving the press by the user to the initial state. It has an initialization function that initializes it to (non-pressed state).
  • the piezoelectric actuator 130 drives the moving body 410 so as to move in the direction in which the LED-illuminated camera module 110 is arranged (X direction in FIG. 2A). That is, the piezoelectric actuator 130 drives the moving body 410 in such a direction that the protrusion 411 shifts from the non-pressed state to the pressed state.
  • the piezoelectric actuator 130 deforms the contacted portion 40 (moves the moving body 410 in both directions) in accordance with an instruction from the CPU 100, so that characters (including dotted characters), symbols, figures, etc. are applied to the contacted portion 40.
  • the communication unit 140 executes wired or wireless communication, or communication with another device directly or via a connection cable.
  • An example of information to be transmitted to other devices via the communication unit 140 is input information from the user of the electronic device 1 (details will be described later).
  • An example of information received from another device via the communication unit 140 is output information to the user of the electronic device 1 (information to be expressed by the contacted portion 40 by the piezoelectric actuator 130).
  • CPU 100 controls the entire electronic device 1 (camera module 110 with LED illumination, piezoelectric actuator 130, communication unit 140). For example, the CPU 100 controls the communication unit 140 so as to transmit and receive various information.
  • the CPU 100 controls the piezoelectric actuator 130 so that the contacted portion 40 expresses the output information. .
  • the CPU 100 controls the LED-illuminated camera module 110 so that the inside of the surface part 400 is imaged at a predetermined timing, and a captured image is generated and supplied.
  • the CPU 100 acquires an input value input by the user (input value input by the user) from the captured image supplied from the camera module 110 with LED illumination. Specifically, the CPU 100 moves the moving body 410 caused by pressurization from the outside of the surface portion 400 (for example, pressing of the protruding portion 411 by the user) from the captured image supplied from the camera module 110 with LED illumination. Is detected, and a value corresponding to the deformation of the contacted portion 40 (that is, information indicating the detection result) is acquired as an input value of the input from the user.
  • the CPU 100 detects the deformation of the contacted portion 40 by determining whether or not each of the protruding portions 411 is in a pressed state based on the captured image. Note that a determination method for determining whether each of the protrusions 411 is in the pressed state based on the captured image will be described later.
  • the CPU 100 transmits the input value from the user acquired as described above to the other device via the communication unit 140 (that is, controls the communication unit 140 to transmit the input value to the other device). . Note that the CPU 100 may execute various processes using the input value instead of transmitting the input value to another device.
  • the CPU 100 determines whether or not each of the protrusions 411 is in the pressed state, in which the imaging position 412 ′ of the imaging target part 412 of each moving body 410 in the captured image captured this time is not pressed. It is determined whether or not each moving body 410 has moved from the imaging position 412 ′ of the imaging target part 412 in the state. More specifically, the CPU 100 holds in advance the imaging position 412 ′ of the imaging target 412 of each moving body 410 when all the protrusions 411 are not pressed, and each moving body 410 in the captured image captured this time. It is determined whether or not the imaging position 412 ′ of the imaging unit 412 has moved from the imaging position 412 ′ of the imaging unit 412 of each moving body 410 that is held.
  • the CPU 100 moves the imaging position 412 ′ of any imaging unit 412 from the captured image captured this time. Then, it can be determined which image capturing position 412 ′ of the image capturing unit 412 has not moved. Further, when the protrusion 411 of one moving body 410 shifts from the non-pressed state to the pressed state, the imaging position 412 ′ of the imaging target 412 of the moving body 410 moves in the center direction of the imaging screen. Can determine from the captured image captured this time whether or not each of the protrusions 411 is in the pressed state.
  • the CPU 100 acquires the captured image illustrated in FIG. 3B as the captured image captured this time, the captured position 412 ′ of the captured portion 412 of each moving body 410 that is held in advance (for example, the captured image illustrated in FIG. 3A). It is determined that only the imaging positions A, B, and C have moved from the imaging position 412 ′) of the imaging target part 412 in FIG. Then, the CPU 100 corresponds to the projection portion 411 corresponding to the imaging position A (the projection portion 411 of the moving body 410 having the imaging target portion 412 imaged at the imaging position A, and referred to as the projection portion a), and the imaging position B.
  • a protrusion 411 (a protrusion 411 of the moving body 410 having the imaged part 412 imaged at the image pickup position B, referred to as a protrusion b), and a protrusion 411 corresponding to the image pickup position C (imaged at the image pickup position C) Only the protrusion 411 of the moving body 410 having the imaged part 412 (referred to as the protrusion c).
  • the CPU 100 displays information indicating the pressed protrusions a, b, and c (for example, identification information previously attached to the protrusion a, identification information previously attached to the protrusion b, and protrusion c.
  • identification information attached in advance is transmitted to another device via the communication unit 140.
  • the electronic device 1 may store an initial image (a captured image when all the protrusions 411 are in a non-pressed state. For example, a captured image illustrated in FIG. 3A) in a storage unit (not illustrated).
  • the CPU 100 compares the initial image with the captured image captured this time, and the imaging position 412 ′ of the imaging target part 412 of each moving body 410 in the captured image captured this time is It is determined whether or not it has moved from the imaging position from the imaging position 412 ′ of the imaging target 412 of each moving body 410 in the initial image.
  • the CPU 100 may determine the pressing amount of each of the protrusions 411 and acquire a value corresponding to each pressing amount of the protrusion 411 as an input value from the user.
  • the pressed amount is an amount pressed down in the direction inside the surface portion 400.
  • the CPU 100 may determine the amount by which each protrusion 411 is pressed from the amount of movement of the imaging position 412 ′ of the imaging target 412 in the captured image captured this time, and obtain the input value as an input from the user.
  • the CPU 100 uses, for example, information indicating the pressing part 411 pressed and information indicating each pressing amount, for example, It transmits to other devices via the communication unit 140.
  • the electronic device 1 As described above, according to the electronic device 1 according to the first embodiment of the present invention, even a visually impaired person can easily use it. For example, it is possible to easily input via the contacted portion 40 and to easily recognize the output contents.
  • the method using the piezoelectric actuator 130 has been described as an example of the method of initializing from the input state (pressed state) to the initial state (non-pressed state), other methods can be used to change from the input state (pressed state). It may be initialized to an initial state (non-pressed state).
  • the electronic device 1 may include a spring, and may be initialized from an input state (pressed state) to an initial state (non-pressed state) by a method using the elastic force of the spring.
  • the electronic device 1 may include an encoder that measures the amount of movement of the moving body 410, and the amount of pressing of each protrusion 411 may be determined (measured) by the encoder.
  • the electronic device 1 needs to include as many encoders as the moving bodies 410.
  • FIG. 4 is a schematic diagram showing another example of the electronic device 1 according to the first embodiment of the present invention.
  • the electronic device 1 may include a camera module 111, a camera module 112, and an LED illumination module 120 instead of the camera module 110 with LED illumination illustrated in FIG. 4.
  • the camera module 112, and the LED illumination module 120 are the same as the structure shown in FIG. 1B, in FIG. 4, some reference numerals are omitted.
  • 4 schematically shows the imaging range (field of view area) of the camera module 111, and the long broken line of the triangle schematically shows the imaging range (field of view area) of the camera module 112.
  • the electronic device 1 having the configuration shown in FIG. 1B is difficult to recognize the pressing of the protruding portion 411 (D in FIG. 1B), but the electronic device 1 having the configuration shown in FIG. 4) D) can be easily recognized.
  • the electronic device 1 having the configuration illustrated in FIG. 4 determines the pressing state (and pressing amount) of the protrusion 411 from two captured images, the pressing state (and pressing) of the protrusion 411 from one captured image. It is possible to determine the pressing state (and pressing amount) of the protrusion 411 with higher accuracy than the electronic device 1 having the configuration shown in FIG.
  • the number of camera modules included in the electronic device 1 may be three or more in consideration of the resolution of the captured image, the number of the protrusions 411 (the moving body 410), the processing capability of the CPU 100, and the like.
  • FIG. 5A and 5B are schematic views of the electronic device 2 according to the second embodiment of the present invention.
  • FIG. 5A is a perspective view of the electronic device 2
  • FIG. 5B is a cross-sectional view of the electronic device 2.
  • 6A and 6B are explanatory diagrams for explaining the surface portion 500 and the protruding portion 511.
  • the electronic device 2 includes a base portion 11 and a contacted portion 50 as shown in FIGS. 5A and 5B.
  • the contacted portion 50 includes a bowl-shaped surface portion 500 and a protruding portion 511. Note that.
  • a portion (see FIGS. 6A and 6B) that protrudes outward from the surface portion 500 is referred to as a protruding portion 511.
  • the inside of the protrusion 511 (the lower right thin hatched portion in FIGS. 6A and 6B) is referred to as the imaged portion 512.
  • the contacted part 50 is formed using an elastic body (for example, rubber).
  • an elastic body for example, rubber.
  • Each of the protrusions 511 is pressed as shown in FIG. 6B by pressing from the outside of the surface part 500 (pressing in the X direction in FIG. 6A), and shown in FIG. 6A by the elastic force of the protrusions 511. It will be in a non-pressed state.
  • the electronic device 2 includes a CPU 101, a camera module 110 with LED illumination, and a communication unit 140 inside the surface unit 500.
  • the camera module with LED illumination 110 and the communication unit 140 are the same as those included in the electronic apparatus 1 according to the first embodiment, and thus a part or all of the description is omitted.
  • the electronic device 2 does not include a piezoelectric actuator.
  • the CPU 101 controls the entire electronic device 2 (the camera module 110 with LED illumination 110, the communication unit 140). For example, the CPU 101 controls the LED-illuminated camera module 110 so that the inside of the surface unit 500 is imaged at a predetermined timing, and a captured image is generated and supplied.
  • the CPU 101 acquires an input value input by the user (input value input by the user) from the captured image supplied from the camera module 110 with LED illumination. Specifically, the CPU 101 deforms the contacted portion 50 caused by pressurization from the outside of the surface portion 500 (for example, pressing of the protruding portion 511 by the user) from the captured image supplied from the camera module 110 with LED illumination. And a value corresponding to the deformation of the contacted part 50 (that is, information indicating the detection result) is acquired as an input value of the input from the user.
  • the CPU 101 detects the deformation of the contacted portion 50 by determining whether or not each of the protruding portions 511 is in a pressed state based on the captured image. As shown in FIG. 6B, since the imaging area of the imaging target 512 is widened when the pressed state is reached, the CPU 101 can determine whether or not the protruding portion 511 is in the pressed state.
  • the electronic device 2 As described above, according to the electronic device 2 according to the second embodiment of the present invention, even a visually impaired person can easily use it. For example, it is possible to input easily via the contacted part 50.
  • the to-be-contacted part 50 of the electronic device 2 was demonstrated using the elastic body, at least the protrusion part 511 should just be formed using the elastic body among the to-be-contacted parts 50, and it is a surface part. 500 may not be formed using an elastic body.
  • FIG. 7A and 7B are schematic views of the electronic device 3 according to the third embodiment of the present invention.
  • FIG. 7A is a perspective view of the electronic device 3
  • FIG. 7B is a cross-sectional view of the electronic device 3.
  • the electronic device 3 includes a base portion 12 and a contacted portion 60 as shown in FIGS. 7A and 7B.
  • the contacted portion 60 includes a bowl-shaped surface portion 600 having a plurality of hole portions 601 and an elastic body 610 arranged so as to penetrate each of the hole portions 601.
  • the elastic body 610 is made of rubber, for example.
  • the electronic device 3 includes a CPU 102, a pump 150, a pressure sensor 160, a communication unit 140, and an open valve (not shown) inside the surface unit 600.
  • the communication unit 140 is the same as that included in the electronic device 1 according to the first embodiment.
  • Each elastic body 610 has a hollow portion 614 therein.
  • Each cavity 614 is filled with gas (for example, air).
  • gas for example, air
  • each cavity 614 does not have a completely sealed structure, but has a pressure adjusting hole (not shown) for discharging gas to the outside or injecting from the outside.
  • the gas in the cavity 614 flows to the release valve side via the atmospheric pressure adjustment hole. It is like that.
  • each elastic body 610 the outer end portion of the surface portion 600 is referred to as a protruding portion 611. That is, the protrusion 611 is a part of the elastic body 610 that protrudes outside the surface portion 600.
  • each of the protrusions 611 is pushed down in a direction inside the surface part 600 (a direction in which a pressure sensor 160 or the like to be described later is disposed) by pressure from the outside of the surface part 600 (for example, pressing of the protrusion part 611 by the user). It is formed so as to be pressed. It should be noted that each elastic body 610 is configured such that the pressure in the cavity 614 increases when the projection 611 is pressed in a state where the release valve is sealed (that is, in a state where gas in the cavity 614 does not leak). Is formed.
  • the pump 150 controls the atmospheric pressure in the cavity 614 according to the control of the CPU 102. Specifically, the pump 150 sends gas into the cavity 614 through the atmospheric pressure adjustment hole.
  • the pump 150 has an initialization function.
  • the state is a state in which the gas protrudes further to the outside of the surface portion 600 (the raised state) than in the initial state.
  • the pump 150 has a function of causing the contacted portion 60 to express characters (including dotted characters), symbols, figures, and the like by deforming the contacted portion 60 (stretching the elastic body 610) according to an instruction from the CPU 102.
  • the contacted portion 60 expresses characters (including dotted characters), symbols, figures, and the like depending on the unevenness (non-pressed state / pressed state, non-pressed state / lifted state) of the protrusion 611.
  • the contacted portion 60 expresses output information by the length of the portion protruding from the surface portion 600.
  • the pressure sensor 160 measures the atmospheric pressure in the cavity 614. Note that the air pressure in the cavity 614 increases by pressurization from the outside of the surface 600 or gas injection by the pump 150 and decreases by opening the release valve.
  • the CPU 102 controls the entire electronic device 3 (pump 150, pressure sensor 160, communication unit 140, open valve). For example, when the CPU 102 receives output information from another device to the user of the electronic device 3 via the communication unit 140, the CPU 102 controls to close the opening valve when it is open, The pump 150 is controlled to inject, and the air pressure in the cavity 614 is increased.
  • the contacted portion 40 is deformed according to the output value by moving the moving body 410 according to the output value of the output to the user.
  • the contacted portion 60 is deformed according to the output value by increasing the atmospheric pressure in the cavity 614 according to the output value of the output to the user.
  • the CPU 102 acquires an input value (input value input from the user) input by the user as information indicating the detection result of the deformation of the contacted portion 60.
  • the CPU 102 detects the deformation of the contacted portion 60 by determining whether or not each of the protruding portions 611 is in a pressed state based on the atmospheric pressure in the cavity portion 614 measured by the pressure sensor 160. Note that when the protrusion 611 of one elastic body 610 is in the pressed state, the pressure in the cavity 614 of the elastic body 610 increases as described above. Is measured, it is possible to determine whether each of the protrusions 611 is in a pressed state.
  • the electronic device 3 According to the electronic device 3 according to the third embodiment of the present invention, even a visually impaired person can easily use it. For example, it is possible to easily input via the contacted portion 60 and easily recognize the output content.
  • the to-be-contacted part 60 was demonstrated that output information was expressed by the length (unevenness
  • the contacted part 60 may express the output information by the hardness of the protruding part. That is, even when the size of the elastic body 610 (the length of the portion protruding from the surface portion 600) hardly changes with respect to the change in the atmospheric pressure in the cavity 614, the user touches the protrusion 611 lightly. It is also possible to detect the hardness of the elastic body 610 based on the touch and to allow the user to recognize the output information based on the hardness of each elastic body 610.
  • FIG. 8A, 8B, and 8C are schematic views of the electronic device 4 according to the fourth embodiment of the present invention.
  • FIG. 8A is a perspective view of the electronic device 4
  • FIG. 8B is a cross-sectional view of the electronic device 4.
  • FIG. 8C is a cross-sectional view of a pair of detection units 702.
  • the electronic device 4 has a base portion 13 and a contacted portion 70 as shown in FIG. 8A.
  • the contacted portion 70 includes a bowl-shaped surface portion 700 having a plurality of hole portions 701 and a detection portion 702 disposed so as to penetrate each of the hole portions 701. Yes.
  • each detection unit 702 includes a deformation projection 710, a support housing 711 that supports the deformation projection 710, and a pressure sensor 161 disposed in the support housing 711.
  • the deformation protrusion 710 is an elastic body (for example, rubber) having a hollow portion, and is deformed when pressed.
  • the support housing 711 is a cylindrical steel body (for example, metal, hard resin) having a hollow portion, and is not deformed by a change in atmospheric pressure in the hollow portion.
  • the pressure sensor 161 detects the pressure in the hollow portion in the detection unit 702 (that is, the hollow portion of the deformation protrusion 710 and the hollow portion of the support housing 711). Note that the cavity in the detection unit 702 is sealed.
  • the electronic device 4 includes a CPU 103 and a communication unit 140 as shown in FIG. 8C.
  • the communication unit 140 is the same as that included in the electronic device 1 according to the first embodiment.
  • each pressure sensor 161 in the detection unit 702 can detect a pressure change and detect a pressing state by the user of the detection unit 702 (deformation protrusion 710).
  • the CPU 103 controls the entire electronic device 4 (the pressure sensors 161 and the communication unit 140). For example, the CPU 103 acquires a detection value of each pressure sensor 161 as an input value input by the user, and outputs the detection value to another electronic device via the communication unit 140.
  • the electronic device 4 according to the fourth embodiment of the present invention even a visually impaired person can easily use it. For example, it is possible to easily input via the contacted portion 70.
  • FIG. 9A is a schematic diagram of an electronic device 5 according to the fifth embodiment of the present invention.
  • the electronic device 5 includes a main body 860 having a hole 801 on the inner surface (side contacting the arm) (surface portion 800), and a mounting portion 870 for mounting the main body 860 on the arm. Is done.
  • the main body 860 includes a CPU 810 (not shown), a protrusion drive unit (not shown), a communication unit 140 (not shown), and a protrusion 810 disposed so as to penetrate each of the holes 801.
  • the communication part 140 is the same as that with which the electronic device 1 by 1st Embodiment is provided, the one part or all part of description is abbreviate
  • the protrusion 810 contacts the arm when the body 860 is mounted on the arm by the mounting portion 870. That is, the protrusion 810 is a contacted part.
  • the protrusion driving unit drives the protrusion 810 (contacted part). Specifically, the projecting body driving unit drives the projecting body 810 in the direction of exiting from the hole 801 or the direction of returning into the hole 801 according to the control of the CPU 104. In other words, the projecting body drive unit deforms the projecting body 810 (contacted part) (moves the projecting body 810 in both directions) in accordance with an instruction from the CPU 104, and displays characters (including dotted characters), symbols, figures, etc.
  • the protrusion 810 (contacted portion) has a function to be expressed.
  • the CPU 104 controls the entire electronic device 5 (projection body driving unit, communication unit 140). For example, when the CPU 104 receives output information from another device to the user of the electronic device 5 via the communication unit 140, the CPU 104 causes the protrusion 810 (contacted portion) to express the output information. Control the drive. That is, the CPU 104 controls the protrusion driving unit so that the output content is expressed by the unevenness of the protrusion 810.
  • the configuration of the protrusion 810 and the protrusion driving unit of the electronic device 5 of the fifth embodiment is not particularly limited.
  • the electronic device 5 As described above, according to the electronic device 5 according to the fifth embodiment of the present invention, even a visually impaired person can easily use it. For example, the output contents can be easily recognized.
  • FIG. 9B is a schematic view of an electronic device 6 according to the sixth embodiment of the present invention.
  • the electronic device 6 has a hole 901 on the inner surface (side contacting the arm) (surface portion 900).
  • the electronic device 6 includes a CPU 105 (not shown) and a protrusion driving unit (not shown). (Not shown), the communication part 140 (not shown), and the protrusion 910 arrange
  • the communication part 140 is the same as that with which the electronic device 1 by 1st Embodiment is provided, the one part or all part of description is abbreviate
  • the protrusion 910 contacts the arm when the electronic device 6 is mounted on the arm. That is, the protrusion 910 is a contacted part.
  • the protrusion driving unit drives the protrusion 910 (contacted part). Specifically, the protrusion driving unit drives the protrusion 910 in the direction of exiting from the hole 901 or in the direction of returning into the hole 901 according to the control of the CPU 105. In other words, the projecting body driving unit deforms the projecting body 910 (contacted part) (moves the projecting body 910 in both directions) in accordance with an instruction from the CPU 105 to generate characters (including dotted characters), symbols, figures, etc.
  • the projection 910 (contacted portion) has a function to be expressed.
  • the CPU 105 controls the entire electronic device 6 (projection body driving unit, communication unit 140). For example, when the CPU 105 receives output information from another device to the user of the electronic device 6 via the communication unit 140, the CPU 105 causes the protrusion 910 (contacted portion) to express the output information. Control the drive. That is, the CPU 105 controls the protrusion driving unit so that the output content is expressed by the unevenness of the protrusion 910.
  • the electronic device 6 As described above, according to the electronic device 6 according to the sixth embodiment of the present invention, even a visually impaired person can easily use it. For example, the output contents can be easily recognized.
  • the output content is expressed by the deformation of the contacted portion 40 (unevenness of the protruding portion 411), but the protruding portion 411 is replaced with the deformation of the contacted portion 40.
  • the output content may be expressed by the vibration of. That is, the electronic device 1 may include a vibration generating unit that vibrates the protrusion 411 instead of the piezoelectric actuator 130.
  • the output content is expressed by the deformation of the contacted portion 60 (unevenness of the protruding portion 611) or the hardness of the elastic body 610.
  • the output content may be expressed by the vibration of the protrusion 611.
  • the surface output content is expressed by the unevenness of the protrusion 810, but the output content is expressed by the vibration of the protrusion 810 instead of the unevenness of the protrusion 810. May be.
  • the output content is expressed by the unevenness of the protrusion 910, but the output content is expressed by the vibration of the protrusion 910 instead of the unevenness of the protrusion 910. May be.
  • the electronic device 1 according to the first embodiment of the present invention may express the output content by sound and light (strong light) in addition to the deformation of the contacted portion 40.
  • FIG. 10 is a conceptual diagram of an input / output system using the electronic device 1.
  • the input / output system 1000 includes an electronic device 1A and an electronic device 1B.
  • the electronic device 1A and the electronic device 1B are both the electronic device 1 according to the first embodiment described above.
  • the electronic device 1 ⁇ / b> A (the same applies to the electronic device 1 ⁇ / b> B) acquires an input value (input information) according to the deformation of the contacted portion 40 and an output device that deforms the contacted portion 40 according to the output value (output information). It is.
  • the electronic device 1A detects the deformation of the contacted portion 40, Information indicating the detection result is acquired as input information from the user A.
  • the electronic device 1A that has acquired the input information from the user A transmits the input information to the electronic device 1B that is another device.
  • the electronic device 1B receives input information of the user A from the electronic device 1A which is another device as output information to the user B (user of the electronic device 1B).
  • the electronic device 1B that has received the output information to the user B deforms the contacted portion 40 in accordance with the output information.
  • the input information from the user A and the output information to the user B may be the same, or the information converted from the input information from the user A may be the output information to the user B.
  • the conversion from the input information to the output information may be performed on the input device side (electronic device 1A in the above example) or on the output device side (electronic device 1B in the above example). .
  • the input / output system 1000 shown in FIG. 10A is configured to transmit / receive input / output information via a cable.
  • the input / output system using the electronic device 1 is configured as shown in FIG. It is not limited to.
  • the input / output information may be transmitted and received by short-range wireless communication as in the input / output system 1001 illustrated in FIG. 10B, or the input / output system 1002 illustrated in FIG.
  • the configuration may be such that input / output information is transmitted / received via a mobile station (for example, a smartphone), or via a wireless AP (for example, a wireless LAN router) as in the input / output system 1003 shown in FIG. 10 (d).
  • the input / output information may be transmitted / received.
  • the input / output system using the electronic device 1 is not limited to one-to-one communication.
  • the input in the electronic device 1A is output to both the electronic device 1B and the electronic device 1C
  • the input in the electronic device 1B is output to both the electronic device 1C and the electronic device 1A. It is also possible to output the input in the device 1C to both the electronic device 1A and the electronic device 1B.
  • the input / output systems 1000 to 1003 in FIG. 10 are systems using the electronic device 1, but the electronic device 3 may be used for either or both of the input device and the output device, and the input device may be an electronic device.
  • the device 2, the electronic device 4, the electronic device 5, and the electronic device 6 may be used.
  • devices other than the electronic devices 1 to 6 for example, personal computers and mobile stations may be used as input devices or output devices.
  • an electronic apparatus has a bowl-shaped surface portion and a plurality of protrusion portions protruding from the surface portion to the outside of the surface portion, and each of the protrusion portions is pressed by a user.
  • the contacted part formed so as to be pressed down inward and the deformation of the contacted part due to the pressurization are detected, and information indicating the detection result is acquired as an input value of the input from the user And an input value acquisition unit.
  • an imaging unit is provided inside the contacted part, and the input value acquisition unit determines whether each of the protrusions is in the pressed state based on a captured image captured by the imaging unit.
  • the input value acquisition unit determines each pressing amount of the protruding portion based on the captured image, and sets a value corresponding to the pressing amount of the protruding portion as the input value. You can get it.
  • the surface portion has a plurality of holes, and each of the protrusions is a part of a rod-like moving body arranged to penetrate each of the holes,
  • the moving body may be moved in the direction in which the imaging unit is arranged by the pressurization.
  • a movement control unit that controls movement of the moving body can be provided.
  • the protrusion can be formed using an elastic body.
  • each of the protrusions is a part of each elastic body having a hollow portion therein, and the atmospheric pressure in the hollow portion is
  • the input value acquisition unit changes whether or not each of the protrusions is in the pressed state based on the atmospheric pressure in the cavity measured by the pressure sensor.
  • an air pressure control unit that controls the air pressure in the cavity can be provided.
  • the movement control unit can deform the contacted part according to the output value by moving the moving body according to the output value of the output to the user.
  • the atmospheric pressure control unit can deform the contacted part according to the output value by controlling the atmospheric pressure in the cavity according to the output value of the output to the user.
  • the electronic device includes a contacted part having a surface part and a plurality of protrusions protruding from the surface part to the outside of the surface part, and the contacted part according to an output value of an output to a user A deformation control unit that deforms the unit.
  • the surface portion has a plurality of holes, and each of the protrusions is a part of a rod-shaped moving body arranged to penetrate each of the holes, and the deformation
  • the control unit can deform the contacted part according to the output value by controlling the movement of the moving body according to the output value.
  • each of the protrusions is a part of each elastic body having a cavity therein, and the deformation control unit controls the atmospheric pressure in the cavity according to the output value. By doing so, the contacted part can be deformed according to the output value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 電子機器(1)は、椀状の面部(400)と、面部(400)から面部(400)の外側に突起した複数の突起部(411)とを有し、突起部(411)の夫々が、ユーザが行う加圧によって内側に押し下げられた押下状態になるように形成された被接触部(40)と、前記加圧による被接触部(40)の変形を検出し、検出結果を示す情報を当該ユーザからの入力の入力値として取得する入力値取得部(CPU(100))とを備える。

Description

電子機器及び入出力システム
 本発明は、電子機器及び入出力システムに関するものである。
 本願は、2010年12月21日に出願された日本特許出願2010-284885号、及び2011年11月21日に出願された日本特許出願2011-253806号に基づき優先権を主張し、その内容をここに援用する。
 従来、点字表示とともに点字入力を可能にした技術が開示されている(例えば、特許文献1参照)。
特開2009-31469号公報
 しかしながら、特許文献1に開示された技術では、タッチパネルとタッチペンを用いて点字入力を行うため、入力作業、特に、視覚に障害がある人にとって入力作業が容易でないという問題がある。
 本発明に係る態様は、視覚に障害がある人でも容易に使用することができる電子機器及び入出力システムを提供することを目的とする。
 本発明の一態様である電子機器は、椀状の面部と前記面部から前記面部の外側に突起した複数の突起部とを有し、前記突起部の夫々が、ユーザが行う加圧によって内側に押し下げられた押下状態になるように形成された被接触部と、前記加圧による前記被接触部の変形を検出し、検出結果を示す情報を前記ユーザからの入力の入力値として取得する入力値取得部とを備えることを特徴とする。
 本発明の他の一態様である電子機器は、面部と前記面部から前記面部の外側に突起した複数の突起部とを有する被接触部と、ユーザに対する出力の出力値に応じて前記被接触部を変形させる変形制御部とを備えることを特徴とする。
 本発明の他の一態様である入出力システムは、被接触部の変形に応じて入力値を取得する入力機器と、出力値に応じて被接触部が変形する出力機器とを含む入出力システムであって、前記入力機器は、入力値を取得する上述の何れかの電子機器であって、前記出力機器は、出力値に応じて被接触部を変形させる上述の何れかの電子機器であることを特徴とする。
 本発明の態様によれば、視覚に障害がある人でも容易に使用することができる。
本発明の第1の実施形態による電子機器の一例を示す斜視図である。 本発明の第1の実施形態による電子機器の一例を示す概略断面図である。 移動体などについて説明するための説明図である。 移動体などについて説明するための説明図である。 撮像画像の一例である。 撮像画像の一例である。 本発明の第1の実施形態による電子機器の他の一例を示す概略図である。 本発明の第2の実施形態による電子機器の斜視図である。 本発明の第2の実施形態による電子機器の概略断面図である。 面部、突起部について説明するための説明図である。 面部、突起部について説明するための説明図である。 本発明の第3の実施形態による電子機器の斜視図である。 本発明の第3の実施形態による電子機器の概略断面図である。 本発明の第4の実施形態による電子機器の斜視図である。 本発明の第4の実施形態による電子機器の概略断面図である。 電子機器における一組の検出部の部分断面図である。 本発明の第5の実施形態による電子機器の概略図である。 本発明の第6の実施形態による電子機器の概略図である。 電子機器を利用した入出力システムの概念図である。
(第1の実施形態)
 以下、図面を参照しながら本発明の第1の実施形態について説明する。図1A及び図1Bは、本発明の第1の実施形態による電子機器1の一例を示す概略図である。図1Aは電子機器1の斜視透視図、図1Bは電子機器1の断面図である。図2A及び図2Bは、移動体410などについて説明するための説明図である。図3A及び図3Bは、撮像画像の一例である。
 電子機器1は、図1Aに示すように、台部10と被接触部40とを有する。電子機器1(本発明の第2の実施形態による電子機器2、本発明の第3の実施形態による電子機器3も同様)は、ユーザが握り易いサイズであることが好ましく、例えば、台部10の高さ(図1BのH1)は10ミリメートル程度、被接触部40の高さ(図1BのH2)は30ミリメートル程度、面部400の曲率半径(図1BのR)は40ミリメートル程度にできる。上記数値は一例であって本発明がこれに限定されないのは言うまでもない。
 被接触部40は、図1Bに示すように、複数の穴部401を有する椀状の面部400と、穴部401の夫々を貫通するように配された棒状の移動体410とから構成されている。また、移動体410は、面部400の穴部401に加えて、面部400の内側に存在する面部450(図1A及び1Bにおいて非図示)が有する穴部451も貫通するように配置されている(図2A及び2B参照)。なお、図1Bに示す移動体410は、圧電アクチュエータ130(後述)と一体的に構成されている。
 各移動体410において、面部400の外側の端部(図2A及び2Bの右下斜線部)を突起部411という。つまり、突起部411は、移動体410の一部であって、面部400の外側に突起した部分である。また、各移動体410において、面面部400の内側の端部(図2A及び2Bの右上細斜線部)を被撮像部412という。
 突起部411の夫々は、面部400の外側からの加圧によって面部400の内側の方向(後述するLED照明付カメラモジュール110の配置された方向。図2AのX方向)に押し下げられた押下状態になるように形成されている。図2Aは押下状態でない状態(非押下状態)の突起部411を模式的に示し、図2Bは押下状態である突起部411を模式的に示している。突起部411が非押下状態であるときは、図2Aに示すように、被撮像部412は面部450に着いているが、突起部411が押下状態であるときは、図2Bに示すように、被撮像部412は面部450から離れている。なお、図2A及び2Bでは、説明の便宜上、圧電アクチュエータ130(後述)について、符号のみを示し、図示を省略している。
 突起部411は、例えば、ユーザが行う面部400の外側からの加圧(ユーザによる突起部411の押下)によって押下状態になる。つまり、移動体410は、ユーザが行う突起部411への加圧によって面部400の内側の方向(後述するLED照明付カメラモジュール110の配置された方向)に移動する。換言すれば、被接触部40は、面部400の外側からの加圧(例えば、ユーザによる突起部411の押下)によって、変形する。
 また、電子機器1は、図1Bに示すように、面部400の内側に、CPU100とLED照明付カメラモジュール110と圧電アクチュエータ130と通信部140とを備える。図1Bの三角形の破線は、LED照明付カメラモジュール110の撮像範囲(視野領域)を模式的に示している。
 LED照明付カメラモジュール110は、面部400の内側を照明するLEDと、広角レンズと、撮像画像を生成する撮像画像生成部とを有する。LED照明付カメラモジュール110は、面部400の内側を照明し、また、面部400の内側を撮像して撮像画像を生成する。つまり、電子機器1は、あたかも、プラネタリウムにおいて投影された星を撮像するが如く、各移動体410の被撮像部412を撮像する。LED照明付カメラモジュール110は、面部400の内側を撮像した撮像画像をCPU100に出力する。
 図3Aは、LED照明付カメラモジュール110によって生成され、CPU100に出力される撮像画像を模式的に示したものである。図3Aに示す撮像画像の丸412'は、各被撮像部412の撮像領域(撮像位置)である(なお、図面の簡素化のため、一部の撮像領域について符号412'を付している)。
 なお、撮像画像において、各被撮像部412の撮像領域は、CPU100によって特定(認識)されるが(後述)、各移動体410の撮像領域を特定し易くするために、例えば、LED照明を反射させる反射塗料を被撮像部412に塗布しておくことが好ましい。また例えば、反射塗料の塗布に代えて、被撮像部412を、撮像画像において背景となる部分(面部450)と区別し易い色にしておいてもよい。
 なお、説明の便宜上、図3Aは、広角レンズの特性に起因する撮像範囲の周縁部の歪みを補正した補正後の撮像画像を示したが、LED照明付カメラモジュール110(撮像画像生成部)は、上記補正を行わずに、補正前の撮像画像をCPU100に出力してもよい。
 圧電アクチュエータ130は、例えば、圧電リニアアクチュエータであって、移動体410の移動を制御する。具体的には、圧電アクチュエータ130は、LED照明付カメラモジュール110の配置された方向(図2AのX方向)と逆の方向に移動するように、移動体410を駆動させる。つまり、圧電アクチュエータ130は、突起部411が押下状態から非押下状態に移行するような方向に移動体410を駆動させる。換言すれば、圧電アクチュエータ130は、ユーザによる押下を受け付ける初期状態(非押下状態)からユーザの押下を受け付けて入力状態(押下状態)になった被接触部40(突起部411)を、初期状態(非押下状態)になるように初期化する初期化機能を有する。
また、圧電アクチュエータ130は、LED照明付カメラモジュール110の配置された方向(図2AのX方向)に移動するように、移動体410を駆動させる。つまり、圧電アクチュエータ130は、突起部411が非押下状態から押下状態に移行するような方向に移動体410を駆動させる。換言すれば、圧電アクチュエータ130は、CPU100から指示に従って、被接触部40を変形(移動体410を両方向に移動)させて、文字(点文字を含む)、記号、図形などを被接触部40に表現させる機能を有する。なお、被接触部40は、突起部411の凹凸(非押下状態/押下状態)によって、文字(点文字を含む)、記号、図形などを表現する。
 通信部140は、有線若しくは無線による通信、又は、直接又は接続用ケーブルを介した他の機器との通信を実行する。通信部140を介して他の機器に送信する情報の一例は、電子機器1のユーザからの入力情報である(詳細は後述)。また、通信部140を介して他の機器から受信する情報の一例は、電子機器1のユーザへの出力情報(圧電アクチュエータ130によって被接触部40に表現させる情報)である。
 CPU100は、電子機器1全体(LED照明付カメラモジュール110、圧電アクチュエータ130、通信部140)を制御する。例えば、CPU100は、種々の情報を送受信するように、通信部140を制御する。
 また、CPU100は、通信部140を介して他の機器から電子機器1のユーザへの出力情報を受信したときは、被接触部40に当該出力情報を表現させるように、圧電アクチュエータ130を制御する。
 また、CPU100は、所定のタイミングで、面部400の内側を撮像し、撮像画像を生成し、供給するように、LED照明付カメラモジュール110を制御する。
 また、CPU100は、LED照明付カメラモジュール110から供給された撮像画像から、ユーザによる入力の入力値(ユーザからの入力の入力値)を取得する。具体的には、CPU100は、LED照明付カメラモジュール110から供給された撮像画像から、面部400の外側からの加圧(例えば、ユーザによる突起部411の押下)によって生じた、移動体410の移動による被接触部40の変形を検出し、被接触部40の変形に応じた値(即ち、検出結果を示す情報)を、当該ユーザからの入力の入力値として取得する。ここで、CPU100は、撮像画像に基づいて突起部411の夫々が押下状態であるか否かを判断することによって、被接触部40の変形を検出する。なお、突起部411の夫々が押下状態であるか否かを撮像画像に基づいて判断する判断手法については後述する。
 CPU100は、上述のようにして取得したユーザからの入力値を、通信部140を介して他の機器に送信する(即ち、入力値を他の機器に送信するように通信部140を制御する)。なお、CPU100は、入力値を他の機器に送信することに代えて、入力値を用いて種々の処理を実行してもよい。
 以下、被接触部40の変形の検出方法、即ち、突起部411の夫々が押下状態であるか否かを撮像画像に基づいて判断する判断手法について説明する。
 CPU100は、突起部411の夫々が押下状態であるか否かの判断として、今回撮像した撮像画像における各移動体410の被撮像部412の撮像位置412'が、全ての突起部411が非押下状態であるときの各移動体410の被撮像部412の撮像位置412'から移動したか否かを判断する。より詳細には、CPU100は、全ての突起部411が非押下状態であるときの各移動体410の被撮像部412の撮像位置412'を予め保持し、今回撮像した撮像画像における各移動体410の被撮像部412の撮像位置412'が、保持している各移動体410の被撮像部412の撮像位置412'から移動したか否かを判断する。つまり、電子機器1において、LED照明付カメラモジュール110の撮像範囲(視野領域)は固定しているため、CPU100は、今回撮像した撮像画像から、何れの被撮像部412の撮像位置412'が移動し、何れの被撮像部412の撮像位置412'が移動していないかを判断することできる。また、一の移動体410の突起部411が非押下状態から押下状態に移行した場合、当該移動体410の被撮像部412の撮像位置412'は、撮像画面の中央方向に移動するため、CPU100は、今回撮像した撮像画像から、突起部411の夫々が押下状態であるか否かを判断することができる。
 例えば、CPU100は、今回撮像した撮像画像として図3Bに示す撮像画像を取得した場合、予め保持している各移動体410の被撮像部412の撮像位置412'(例えば、図3Aに示す撮像画像における被撮像部412の撮像位置412')から、撮像位置A、B、Cのみが移動したと判断する。そして、CPU100は、撮像位置Aに対応する突起部411(撮像位置Aに撮像されている被撮像部412を有する移動体410の突起部411。突起部aとする)、撮像位置Bに対応する突起部411(撮像位置Bに撮像されている被撮像部412を有する移動体410の突起部411。突起部bとする)、撮像位置Cに対応する突起部411(撮像位置Cに撮像されている被撮像部412を有する移動体410の突起部411。突起部cとする)のみが押下状態であると判断する。なお、当該場合、CPU100は、押下された突起部a、b、cを示す情報(例えば、突起部aに予め付された識別情報、突起部bに予め付された識別情報、突起部cに予め付された識別情報)を、例えば、通信部140を介して他の機器に送信する。
 なお、電子機器1は、初期画像(全ての突起部411が非押下状態であるときの撮像画像。例えば、図3Aに示す撮像画像)を記憶部(非図示)に記憶してもよい。電子機器1が初期画像を記憶する場合、CPU100は、初期画像と、今回撮像した撮像画像とを比較し、今回撮像した撮像画像における各移動体410の被撮像部412の撮像位置412'が、初期画像における各移動体410の被撮像部412の撮像位置412'から撮像位置から移動したか否かを判断する。
 なお、CPU100は、突起部411の夫々の押下量を判断し、突起部411の夫々の押下量に応じた値を、ユーザからの入力の入力値として取得してもよい。なお、押下量とは、面部400の内側の方向に押し下げられた量である。CPU100は、今回撮像した撮像画像における被撮像部412の撮像位置412'の移動量から、突起部411の夫々の押下量を判断し、ユーザからの入力の入力値として取得してもよい。なお、突起部411の夫々の押下量に応じた値をユーザからの入力の入力値とする場合、CPU100は、押下された突起部411を示す情報と各押下量を示す情報とを、例えば、通信部140を介して他の機器に送信する。
 以上、本発明の第1の実施形態による電子機器1によれば、視覚に障害がある人でも容易に使用することができる。例えば、被接触部40を介して容易に入力し、また、容易に出力内容を認識することができる。
 なお、入力状態(押下状態)から初期状態(非押下状態)へ初期化する方法として、圧電アクチュエータ130を用いる方法を一例として説明したが、他の方法を用いて、入力状態(押下状態)から初期状態(非押下状態)へ初期化してもよい。例えば、電子機器1がバネを備え、バネの弾性力を用いる方法によって、入力状態(押下状態)から初期状態(非押下状態)へ初期化してもよい。
 また、突起部411の夫々の押下量を判断する方法として、撮像画像を用いる方法、即ち画像処理による方法を一例として説明したが、他の方法を用いて、突起部411の夫々の押下量を判断してもよい。例えば、電子機器1が移動体410の移動量を測定するエンコーダを備え、エンコーダによって、突起部411の夫々の押下量を判断(測定)してもよい。但し、電子機器1は、移動体410の本数分のエンコーダを具備する必要がある。
 図4は、本発明の第1の実施形態による電子機器1の他の一例を示す概略図である。図4に示すように、電子機器1は、図4に示すLED照明付カメラモジュール110に代えて、カメラモジュール111、カメラモジュール112及びLED照明モジュール120を備える構成としてもよい。なお、カメラモジュール111、カメラモジュール112及びLED照明モジュール120以外の構成は、図1Bに示す構成と同様であるため、図4において、一部について符号の付与を省略している。また、図4の三角形の一点鎖線はカメラモジュール111の撮像範囲(視野領域)を模式的に示し、三角形の長破線はカメラモジュール112の撮像範囲(視野領域)を模式的に示している。
 図1Bに示す構成の電子機器1は、真上の突起部411(図1BのD)の押下を認識し難いが、図4に示す構成の電子機器1は、真上の突起部411(図4のD)の押下を容易に認識することができる。また、図4に示す構成の電子機器1は、2枚の撮像画像から突起部411の押下状態(及び押下量)を判断するため、1枚の撮像画像から突起部411の押下状態(及び押下量)を判断する図1Bに示す構成の電子機器1に比べてより高い精度で、突起部411の押下状態(及び押下量)を判断することができる。なお、電子機器1が備えるカメラモジュールの数量は、撮像画像の解像度、突起部411(移動体410)の本数、CPU100の処理能力などを考慮し、3個以上としてもよい。
(第2の実施形態)
 以下、図面を参照しながら本発明の第2の実施形態について説明する。図5A及び図5Bは、本発明の第2の実施形態による電子機器2の概略図である。図5Aは電子機器2の斜視図、図5Bは電子機器2の断面図である。図6A及び図6Bは、面部500、突起部511について説明するための説明図である。
 電子機器2は、図5A及び5Bに示すように、台部11と被接触部50とを有する。被接触部50は、椀状の面部500と突起部511とから構成されている。なお。被接触部50において、面部500から外側に突起した部分(図6A及び6B参照)を突起部511という。また、突起部511の内側(図6A及び6Bの右下細斜線部)を被撮像部512という。被撮像部512には、電子機器1の被撮像部412と同様、反射塗料を塗布しておくか、被撮像部512を背景色と区別し易い色としておくことが好ましい。
 被接触部50は、弾性体(例えば、ゴム)を用いて形成されている。突起部511の夫々は、面部500の外側からの加圧(図6AのX方向の加圧)によって、図6Bに示すように押下状態になり、突起部511の弾性力によって、図6Aに示すように非押下状態なる。
 また、電子機器2は、図5Bに示すように、面部500の内側に、CPU101とLED照明付カメラモジュール110と通信部140とを備える。なお、LED照明付カメラモジュール110、通信部140は、第1の実施形態による電子機器1が備えるものと同様であるため、説明の一部又は全部を省略する。なお、電子機器2は、圧電アクチュエータを備えていない。
 CPU101は、電子機器2全体(LED照明付カメラモジュール110、通信部140)を制御する。例えば、CPU101は、所定のタイミングで、面部500の内側を撮像し、撮像画像を生成し、供給するように、LED照明付カメラモジュール110を制御する。
 また、CPU101は、LED照明付カメラモジュール110から供給された撮像画像から、ユーザによる入力の入力値(ユーザからの入力の入力値)を取得する。具体的には、CPU101は、LED照明付カメラモジュール110から供給された撮像画像から、面部500の外側からの加圧(例えば、ユーザによる突起部511の押下)によって生じた被接触部50の変形を検出し、被接触部50の変形に応じた値(即ち、検出結果を示す情報)を、当該ユーザからの入力の入力値として取得する。ここで、CPU101は、撮像画像に基づいて突起部511の夫々が押下状態であるか否かを判断することによって、被接触部50の変形を検出する。なお、図6Bに示すように、押下状態になると被撮像部512の撮像領域が広くなるため、CPU101は、突起部511が押下状態であるか否かを判断することができる。
 以上、本発明の第2の実施形態による電子機器2によれば、視覚に障害がある人でも容易に使用することができる。例えば、被接触部50を介して容易に入力することができる。なお、電子機器2の被接触部50は、弾性体を用いて形成されていると説明したが、被接触部50のうち少なくとも突起部511が弾性体を用いて形成されていればよく、面部500は弾性体を用いて形成されていなくてもよい。
(第3の実施形態)
 以下、図面を参照しながら本発明の第3の実施形態について説明する。図7A及び図7Bは、本発明の第3の実施形態による電子機器3の概略図である。図7Aは電子機器3の斜視図、図7Bは電子機器3の断面図である。
 電子機器3は、図7A及び7Bに示すように、台部12と被接触部60とを有する。被接触部60は、図7Bに示すように、複数の穴部601を有する椀状の面部600と、穴部601の夫々を貫通するように配された弾性体610とから構成されている。弾性体610は、例えばゴムによって形成されている。
 また、電子機器3は、図7Bに示すように、面部600の内側に、CPU102とポンプ150と圧力センサ160と通信部140と開放弁(非図示)を備える。なお、通信部140は、第1の実施形態による電子機器1が備えるものと同様である。
 各弾性体610は、内部に、空洞部614を有する。各空洞部614内には、気体(例えば、空気)が充満している。但し、各空洞部614は、完全に密閉された構造ではなく、気体を外部に放出し、又は、外部から注入するための気圧調整穴(非図示)を有する。なお、気圧調整穴を介して、ポンプ150側から気体が空洞部614に送り込まれ、開放弁が開放している場合、気圧調整穴を介して、空洞部614内の気体が開放弁側に流れるようになっている。
 各弾性体610において、面部600の外側の端部を突起部611という。つまり、突起部611は、弾性体610の一部であって、面部600の外側に突起した部分である。
 突起部611の夫々は、面部600の外側からの加圧(例えば、ユーザによる突起部611の押下)によって面部600の内側の方向(後述する圧力センサ160等の配置された方向)に押し下げられた押下状態になるように形成されている。なお、各弾性体610は、開放弁が封鎖した状態において(即ち、空洞部614内の気体が漏れない状態において)、突起部611が押下状態になると、空洞部614の気圧が上昇するように形成されている。
 ポンプ150は、CPU102の制御に従って、空洞部614内の気圧を制御する。具体的には、ポンプ150は、気圧調整穴を通じて空洞部614内に気体を送り込む。
 なお、開放弁の封鎖状態かつ入力状態(押下状態)において、空洞部614内に気体が送り込まれた場合、入力状態であった被接触部60(突起部611)は、初期状態(非押下状態)に戻る。即ち、ポンプ150は、初期化機能を有する。また、開放弁の封鎖状態かつ初期状態において、空洞部614内に気体が送り込まれた場合、初期状態よりも、より一層、面部600の外側に突起した状態(***状態)になる。
 換言すれば、ポンプ150は、CPU102から指示に従って、被接触部60を変形(弾性体610を伸縮)させて、文字(点文字を含む)、記号、図形などを被接触部60に表現させる機能を有する。なお、被接触部60は、突起部611の凹凸(非押下状態/押下状態、非押下状態/***状態)によって、文字(点文字を含む)、記号、図形などを表現する。換言すれば、被接触部60は、面部600から突起した部分の長さによって出力情報を表現する。
 圧力センサ160は、空洞部614内の気圧を測定する。なお、空洞部614内の気圧は、面部600の外側からの加圧、又は、ポンプ150による気体の注入によって上昇し、開放弁の開放によって下降する。
 CPU102は、電子機器3全体(ポンプ150、圧力センサ160、通信部140、開放弁)を制御する。例えば、CPU102は、通信部140を介して他の機器から電子機器3のユーザへの出力情報を受信したときは、開放弁が開放している場合には封鎖するように制御するとともに、気体を注入するようにポンプ150を制御し、空洞部614内の気圧を上昇させる。
 つまり、実施形態1の電子機器1の場合、ユーザに対する出力の出力値に応じて移動体410を移動させることによって、被接触部40を出力値に応じて変形させたが、実施形態3の電子機器3の場合、ユーザに対する出力の出力値に応じて空洞部614内の気圧を上昇させることによって、被接触部60を出力値に応じて変形させている。
 また、CPU102は、被接触部60の変形の検出結果を示す情報を、ユーザによる入力の入力値(ユーザからの入力の入力値)を取得する。なお、CPU102は、圧力センサ160によって測定された空洞部614内の気圧に基づいて突起部611の夫々が押下状態であるか否かを判断することによって、被接触部60の変形を検出する。なお、一の弾性体610の突起部611が押下状態である場合、上述の如く、当該弾性体610の空洞部614内の気圧は上昇するため、圧力センサ160が夫々の空洞部614内の圧力を測定すれば、突起部611の夫々が押下状態であるか否かを判断することが可能である。
 以上、本発明の第3の実施形態による電子機器3によれば、視覚に障害がある人でも容易に使用することができる。例えば、被接触部60を介して容易に入力し、また、容易に出力内容を認識することができる。
 なお、被接触部60は、面部600から突起した部分の長さ(突起部611の凹凸)によって出力情報を表現すると説明したが、出力情報を表現する態様は上記に限定されない。例えば、被接触部60は、突起した部分の硬さによって出力情報を表現してもよい。即ち、空洞部614内の気圧の変化に対し、弾性体610のサイズ(面部600から突起する部分の長さ)が殆ど変化しない場合であっても、ユーザが、突起部611に軽く触れた時の感触によって弾性体610の硬さを感知し、各弾性体610の硬さによって、ユーザが出力情報を認識できるようにしてもよい。
(第4の実施形態)
 以下、図面を参照しながら本発明の第4の実施形態について説明する。図8A、図8B、及び図8Cは、本発明の第4の実施形態による電子機器4の概略図である。図8Aは電子機器4の斜視図、図8Bは電子機器4の断面図である。図8Cは、一組の検出部702の断面図である。
 電子機器4は、図8Aに示すように、台部13と被接触部70とを有する。被接触部70は、図8A及び8Bに示すように、複数の穴部701を有する椀状の面部700と、穴部701の夫々を貫通するように配された検出部702とから構成されている。各検出部702は、図8Cに示すように、変形突起部710と、変形突起部710を支持する支持筐体711と、支持筐体711内に配置された圧力センサ161とから構成されている。変形突起部710は、空洞部を有する弾性体(例えばゴムに)であって、押下によって変形する。一方、支持筐体711は、空洞部を有する筒状の鋼体(例えば、金属、硬い樹脂)であって、空洞部内の気圧の変化によって変形しない。圧力センサ161は、検出部702内の空洞部(即ち、変形突起部710の空洞部及び支持筐体711の空洞部)内の圧力を検出する。なお、検出部702内の空洞部は密閉されている。
 また、電子機器4は、図8Cに示すように、CPU103と通信部140とを備える。なお、通信部140は、第1の実施形態による電子機器1が備えるものと同様である。
 上記構成において、ユーザが面部700の外側の突出した変形突起部710を押下した場合、変形突起部710は変形し、検出部702の空洞部内の容積は減少し、ボイルの法則に従って、空洞部内の圧力は上昇する。また、ユーザが押下を止めた場合、弾性力によって変形突起部710の形状は押下前の元の状態に復元し、容積及び圧力も元の状態に戻る。つまり、検出部702内の各圧力センサ161は、圧力変化を検出し、当該検出部702(変形突起部710)のユーザによる押下状態を検出することができる。
 CPU103は、電子機器4全体(各圧力センサ161、通信部140)を制御する。例えば、CPU103は、ユーザによる入力の入力値として、各圧力センサ161の検出値を取得し、通信部140を介して、他の電子機器に出力する。
 以上、本発明の第4の実施形態による電子機器4によれば、視覚に障害がある人でも容易に使用することができる。例えば、被接触部70を介して容易に入力することができる。
(第5の実施形態)
 以下、図面を参照しながら本発明の第5の実施形態について説明する。図9Aは、本発明の第5の実施形態による電子機器5の概略図である。
 電子機器5は、図9Aに示すように、内側(腕に接する側)の面(面部800)に穴部801を有する本体860と、本体860を腕に装着するための装着部870とから構成される。本体860は、CPU104(非図示)、突起体駆動部(非図示)、通信部140(非図示)、及び、穴部801の夫々を貫通するように配された突起体810を備える。なお、通信部140は、第1の実施形態による電子機器1が備えるものと同様であるため、説明の一部又は全部を省略する。
 突起体810は、装着部870によって本体860が腕に装着された場合、腕に接触する。即ち、突起体810は、被接触部である。
 突起体駆動部は、突起体810(被接触部)を駆動させる。具体的には、突起体駆動部は、CPU104の制御に従って、穴部801から外に出す方向に、又は、穴部801の中に戻す方向に、突起体810を駆動させる。換言すれば、突起体駆動部は、CPU104から指示に従って、突起体810(被接触部)を変形(突起体810を両方向に移動)させて、文字(点文字を含む)、記号、図形などを突起体810(被接触部)に表現させる機能を有する。
 CPU104は、電子機器5全体(突起体駆動部、通信部140)を制御する。例えば、CPU104は、通信部140を介して他の機器から電子機器5のユーザへの出力情報を受信したときは、突起体810(被接触部)に当該出力情報を表現させるように、突起体駆動部を制御する。即ち、CPU104は、出力内容を突起体810の凹凸によって表現するように、突起体駆動部を制御する。
 なお、第5の実施形態の電子機器5の突起体810及び突起体駆動部の構成は特に限定しないが、例えば、第1の実施形態の電子機器1の移動体410及び圧電アクチュエータ130と同様の構成としてもよいし、第3の実施形態の電子機器3の弾性体610及びポンプ150と同様の構成としてもよい。第6の実施形態の電子機器6(後述)についても同様である。
 以上、本発明の第5の実施形態による電子機器5によれば、視覚に障害がある人でも容易に使用することができる。例えば、容易に出力内容を認識することができる。
(第6の実施形態)
 以下、図面を参照しながら本発明の第6の実施形態について説明する。図9Bは、本発明の第6の実施形態による電子機器6の概略図である。
 電子機器6は、図9Bに示すように、内側(腕に接する側)の面(面部900)に穴部901を有する、また、電子機器6は、CPU105(非図示)、突起体駆動部(非図示)、通信部140(非図示)、及び、穴部901の夫々を貫通するように配された突起体910を備える。なお、通信部140は、第1の実施形態による電子機器1が備えるものと同様であるため、説明の一部又は全部を省略する。
 突起体910は、電子機器6が腕に装着された場合、腕に接触する。即ち、突起体910は、被接触部である。
 突起体駆動部は、突起体910(被接触部)を駆動させる。具体的には、突起体駆動部は、CPU105の制御に従って、穴部901から外に出す方向に、又は、穴部901の中に戻す方向に、突起体910を駆動させる。換言すれば、突起体駆動部は、CPU105から指示に従って、突起体910(被接触部)を変形(突起体910を両方向に移動)させて、文字(点文字を含む)、記号、図形などを突起体910(被接触部)に表現させる機能を有する。
 CPU105は、電子機器6全体(突起体駆動部、通信部140)を制御する。例えば、CPU105は、通信部140を介して他の機器から電子機器6のユーザへの出力情報を受信したときは、突起体910(被接触部)に当該出力情報を表現させるように、突起体駆動部を制御する。即ち、CPU105は、出力内容を突起体910の凹凸によって表現するように、突起体駆動部を制御する。
 以上、本発明の第6の実施形態による電子機器6によれば、視覚に障害がある人でも容易に使用することができる。例えば、容易に出力内容を認識することができる。
 なお、本発明の第1の実施形態による電子機器1は、被接触部40の変形(突起部411の凹凸)によって出力内容を表現したが、被接触部40の変形に代えて、突起部411の振動によって出力内容を表現してもよい。即ち、電子機器1は、圧電アクチュエータ130に代えて、突起部411を振動させる振動発生部を備えるようにしてもよい。同様に、本発明の第3の実施形態による電子機器3は、被接触部60の変形(突起部611の凹凸)又は弾性体610の硬さによって出力内容を表現したが、上記に代えて、突起部611の振動によって出力内容を表現してもよい。同様に、本発明の第5の実施形態による電子機器5は、突起体810の凹凸によって表出力内容を現したが、突起体810の凹凸に代えて、突起体810の振動によって出力内容を表現してもよい。同様に、本発明の第6の実施形態による電子機器6は、突起体910の凹凸によって出力内容を表現したが、突起体910の凹凸に代えて、突起体910の振動によって出力内容を表現してもよい。
 また、本発明の第1の実施形態による電子機器1は、被接触部40の変形に加え、音と光(強い光)によって、出力内容を表現してもよい。本発明の第3の実施形態による電子機器3、本発明の第5の実施形態による電子機器5、本発明の第6の実施形態による電子機器6についても同様である。
 続いて、本発明に係る電子機器を利用した入出力システムについて説明する。図10は、電子機器1を利用した入出力システムの概念図である。
 入出力システム1000は、図10(a)に示すように、電子機器1Aと電子機器1Bとを含んで構成される。電子機器1A、及び、電子機器1Bは、何れも、上述の第1の実施形態による電子機器1である。電子機器1A(電子機器1Bも同様)は、被接触部40の変形に応じて入力値(入力情報)を取得するとともに、出力値(出力情報)に応じて被接触部40が変形する出力機器である。
 例えば、ユーザA(電子機器1Aのユーザ)が電子機器1Aの被接触部40を変形させた場合(突起部411を押した場合)、電子機器1Aは、被接触部40の変形を検出し、検出結果を示す情報をユーザAからの入力情報として取得する。ユーザAからの入力情報を取得した電子機器1Aは、当該入力情報を他の機器である電子機器1Bに送信する。一方、電子機器1Bは、他の機器である電子機器1AからユーザAの入力情報を、ユーザB(電子機器1Bのユーザ)への出力情報として受信する。ユーザBへの出力情報を受信した電子機器1Bは、当該出力情報に応じて被接触部40を変形させる。
 なお、ユーザAからの入力情報と、ユーザBへの出力情報とは、同一であってもよいし、ユーザAからの入力情報を変換したものが、ユーザBへの出力情報であってもよい。なお、入力情報から出力情報への変換は、入力装置側(上記例の場合、電子機器1A)で行ってもよいし、出力装置側(上記例の場合、電子機器1B)で行ってもよい。
 なお、図10(a)に示す入出力システム1000は、ケーブルを介して、入出力情報を送受信する構成であるが、電子機器1を利用した入出力システムは、図10(a)に示す構成に限定されるものではない。例えば、図10(b)に示す入出力システム1001の如く、近距離無線通信によって、入出力情報を送受信する構成であってもよいし、図10(c)に示す入出力システム1002の如く、移動局(例えば、スマートフォン)を介して、入出力情報を送受信する構成であってもよいし、図10(d)に示す入出力システム1003の如く、無線AP(例えば、無線LANルータ)を介して、入出力情報を送受信する構成であってもよい。
 また、図10(d)に示すように、電子機器1を利用した入出力システムは、1対1の通信に限定するものではない。図10(d)の構成では、例えば、電子機器1Aにおける入力を電子機器1B、電子機器1Cの両方に出力し、電子機器1Bにおける入力を電子機器1C、電子機器1Aの両方に出力し、電子機器1Cにおける入力を電子機器1A、電子機器1Bの両方に出力することも可能である。
 なお、図10の入出力システム1000~1003は、電子機器1を利用したシステムであるが、入力機器又は出力機器の両方又は一方に電子機器3を利用してもよいし、入力機器として、電子機器2、電子機器4、電子機器5、電子機器6を利用してもよい。また、入力機器又は出力機器に電子機器1~6以外の機器(例えば、パーソナルコンピュータ、移動局)を利用してもよい。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 本発明に係る一実施形態において、電子機器は、椀状の面部と前記面部から前記面部の外側に突起した複数の突起部とを有し、前記突起部の夫々が、ユーザが行う加圧によって内側に押し下げられた押下状態になるように形成された被接触部と、前記加圧による前記被接触部の変形を検出し、検出結果を示す情報を前記ユーザからの入力の入力値として取得する入力値取得部とを備える。
 この実施形態において、前記被接触部の内側に撮像部を備え、前記入力値取得部は、前記撮像部によって撮像された撮像画像に基づいて前記突起部の夫々が前記押下状態であるか否かを判断することによって、前記被接触部の変形を検出するようにできる。
 また、この実施形態において、前記入力値取得部は、前記撮像画像に基づいて前記突起部の夫々の押下量を判断し、前記突起部の夫々の押下量に応じた値を、前記入力値として取得するようにできる。
 また、この実施形態において、前記面部は、複数の穴部を有し、前記突起部の夫々は、前記穴部の夫々を貫通するように配された棒状の移動体の一部であって、前記移動体は、前記加圧によって前記撮像部の配置された方向に移動するようにできる。
 また、この実施形態において、前記移動体の移動を制御する移動制御部を備えるようにできる。
 また、この実施形態において、前記突起部は、弾性体を用いて形成することができる。
 また、この実施形態において、前記被接触部の内側に圧力センサを備え、前記突起部の夫々は、内部に空洞部を有する夫々の弾性体の一部であって、前記空洞部内の気圧は、ユーザが行う前記突起部への加圧によって変化し、前記入力値取得部は、前記圧力センサによって測定された前記空洞部内の気圧に基づいて前記突起部の夫々が前記押下状態であるか否かを判断することによって、前記被接触部の変形を検出するようにできる。
 また、この実施形態において、前記空洞部内の気圧を制御する気圧制御部を備えるようにできる。
 また、この実施形態において、前記移動制御部は、ユーザに対する出力の出力値に応じて前記移動体を移動させることによって、前記出力値に応じて前記被接触部を変形させるようにできる。
 また、この実施形態において、前記気圧制御部は、ユーザに対する出力の出力値に応じて前記空洞部内の気圧を制御することによって、前記出力値に応じて前記被接触部を変形させるようにできる。
 本発明に係る別の実施形態において、電子機器は、面部と前記面部から前記面部の外側に突起した複数の突起部とを有する被接触部と、ユーザに対する出力の出力値に応じて前記被接触部を変形させる変形制御部とを備える。
 この実施形態において、前記面部は、複数の穴部を有し、前記突起部の夫々は、前記穴部の夫々を貫通するように配された棒状の移動体の一部であって、前記変形制御部は、前記出力値に応じて前記移動体の移動を制御することによって、前記出力値に応じて前記被接触部を変形させるようにできる。
 また、この実施形態において、前記突起部の夫々は、内部に空洞部を有する夫々の弾性体の一部であって、前記変形制御部は、前記出力値に応じて前記空洞部内の気圧を制御することによって、前記出力値に応じて前記被接触部を変形させるようにできる。
 1、2、3、4、5、6…電子機器 10、11、12、13…台部 40、50、60、70…被接触部 100、101、102、103、104、105…CPU(入力値取得部、移動制御部、気圧制御部、変形制御部) 110…LED照明付カメラモジュール 111、112…カメラモジュール 120…LED照明モジュール 130…圧電アクチュエータ 140…通信部 150…ポンプ 160、161…圧力センサ 400、450、500、600、700、800、900…面部 401、451、601、701、801、901…穴部 702…検出部 410…移動体 610…弾性体 710…変形突起部 810、910…突起体 411、511、611…突起部 711…支持筐体 412、512…被撮像部 614…空洞部 860…本体 870…装着部 1000、1001、1002、1003…入出力システム 

Claims (14)

  1.  椀状の面部と前記面部から前記面部の外側に突起した複数の突起部とを有し、前記突起部の夫々が、ユーザが行う加圧によって内側に押し下げられた押下状態になるように形成された被接触部と、
     前記加圧による前記被接触部の変形を検出し、検出結果を示す情報を前記ユーザからの入力の入力値として取得する入力値取得部と
     を備えることを特徴とする電子機器。
  2.  請求項1に記載の電子機器において、
     前記被接触部の内側に撮像部を備え、
     前記入力値取得部は、
     前記撮像部によって撮像された撮像画像に基づいて前記突起部の夫々が前記押下状態であるか否かを判断することによって、前記被接触部の変形を検出することを特徴とする電子機器。
  3.  請求項2に記載の電子機器において、
     前記入力値取得部は、
     前記撮像画像に基づいて前記突起部の夫々の押下量を判断し、前記突起部の夫々の押下量に応じた値を、前記入力値として取得すること特徴とする電子機器。
  4.  請求項2又は請求項3に記載の電子機器において、
     前記面部は、複数の穴部を有し、
     前記突起部の夫々は、前記穴部の夫々を貫通するように配された棒状の移動体の一部であって、
     前記移動体は、前記加圧によって前記撮像部の配置された方向に移動することを特徴とする電子機器。
  5.  請求項4に記載の電子機器において、
     前記移動体の移動を制御する移動制御部を備えることを特徴とする電子機器。
  6.  請求項2に記載の電子機器において、
     前記突起部は、弾性体を用いて形成されたものであることを特徴とする電子機器。
  7.  請求項1に記載の電子機器において、
     前記被接触部の内側に圧力センサを備え、
     前記突起部の夫々は、内部に空洞部を有する夫々の弾性体の一部であって、
     前記空洞部内の気圧は、ユーザが行う前記突起部への加圧によって変化し、
     前記入力値取得部は、
      前記圧力センサによって測定された前記空洞部内の気圧に基づいて前記突起部の夫々が前記押下状態であるか否かを判断することによって、前記被接触部の変形を検出することを特徴とする電子機器。
  8.  請求項7に記載の電子機器において、
     前記空洞部内の気圧を制御する気圧制御部を備えることを特徴とする電子機器。
  9.  請求項5に記載の電子機器において、
     前記移動制御部は、
      ユーザに対する出力の出力値に応じて前記移動体を移動させることによって、前記出力値に応じて前記被接触部を変形させることを特徴とする電子機器。
  10.  請求項8に記載の電子機器において、
     前記気圧制御部は、
      ユーザに対する出力の出力値に応じて前記空洞部内の気圧を制御することによって、前記出力値に応じて前記被接触部を変形させることを特徴とする電子機器。
  11.  面部と前記面部から前記面部の外側に突起した複数の突起部とを有する被接触部と、
     ユーザに対する出力の出力値に応じて前記被接触部を変形させる変形制御部と
     を備えることを特徴とする電子機器。
  12.  請求項11に記載の電子機器において、
     前記面部は、複数の穴部を有し、
     前記突起部の夫々は、前記穴部の夫々を貫通するように配された棒状の移動体の一部であって、
     前記変形制御部は、
      前記出力値に応じて前記移動体の移動を制御することによって、前記出力値に応じて前記被接触部を変形させることを特徴とする電子機器。
  13.  請求項11に記載の電子機器において、
     前記突起部の夫々は、内部に空洞部を有する夫々の弾性体の一部であって、
     前記変形制御部は、
      前記出力値に応じて前記空洞部内の気圧を制御することによって、前記出力値に応じて前記被接触部を変形させることを特徴とする電子機器。
  14.  被接触部の変形に応じて入力値を取得する入力機器と、
     出力値に応じて被接触部が変形する出力機器と
     を含む入出力システムであって、
     前記入力機器は、請求項1乃至請求項10の何れか1項に記載の電子機器であって、
     前記出力機器は、請求項9乃至請求項13の何れか1項に記載の電子機器であることを特徴とする入出力システム。
PCT/JP2011/078547 2010-12-21 2011-12-09 電子機器及び入出力システム WO2012086435A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010284885 2010-12-21
JP2010-284885 2010-12-21
JP2011-253806 2011-11-21
JP2011253806A JP2012145920A (ja) 2010-12-21 2011-11-21 電子機器及び入出力システム

Publications (1)

Publication Number Publication Date
WO2012086435A1 true WO2012086435A1 (ja) 2012-06-28

Family

ID=46313715

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/078547 WO2012086435A1 (ja) 2010-12-21 2011-12-09 電子機器及び入出力システム

Country Status (2)

Country Link
JP (1) JP2012145920A (ja)
WO (1) WO2012086435A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7093103B2 (ja) * 2018-05-10 2022-06-29 国立大学法人信州大学 触覚デバイス
JP2021039480A (ja) * 2019-09-02 2021-03-11 キヤノン株式会社 操作入力装置および電子機器

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333765A (ja) * 1992-05-27 1993-12-17 Nippon Telegr & Teleph Corp <Ntt> データ入出力装置
JPH0744096A (ja) * 1993-07-28 1995-02-14 Matsushita Electric Ind Co Ltd 編集機能付き点字ディスプレィ装置
JPH0778238A (ja) * 1993-09-08 1995-03-20 Hitachi Ltd 画像データ入力確認方式
JPH07244558A (ja) * 1994-03-07 1995-09-19 Sharp Corp 触覚提示装置
JPH08202484A (ja) * 1992-06-19 1996-08-09 Naohiro Tanno 光検出打ち込みキー判別装置及び多段打ち込みキーボード
JP2005338382A (ja) * 2004-05-26 2005-12-08 ▲舘▼ ▲すすむ▼ 形状記憶合金を用いた3次元形状ディスプレイ
JP4109806B2 (ja) * 1999-08-31 2008-07-02 株式会社東芝 触覚を利用した方向提示装置及びその方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333765A (ja) * 1992-05-27 1993-12-17 Nippon Telegr & Teleph Corp <Ntt> データ入出力装置
JPH08202484A (ja) * 1992-06-19 1996-08-09 Naohiro Tanno 光検出打ち込みキー判別装置及び多段打ち込みキーボード
JPH0744096A (ja) * 1993-07-28 1995-02-14 Matsushita Electric Ind Co Ltd 編集機能付き点字ディスプレィ装置
JPH0778238A (ja) * 1993-09-08 1995-03-20 Hitachi Ltd 画像データ入力確認方式
JPH07244558A (ja) * 1994-03-07 1995-09-19 Sharp Corp 触覚提示装置
JP4109806B2 (ja) * 1999-08-31 2008-07-02 株式会社東芝 触覚を利用した方向提示装置及びその方法
JP2005338382A (ja) * 2004-05-26 2005-12-08 ▲舘▼ ▲すすむ▼ 形状記憶合金を用いた3次元形状ディスプレイ

Also Published As

Publication number Publication date
JP2012145920A (ja) 2012-08-02

Similar Documents

Publication Publication Date Title
CN109551502B (zh) 具有触摸灵敏度的机器人
JP4298759B2 (ja) レオロジー流体を利用した映像の形状情報触感伝達装置及びその方法
US11806864B2 (en) Robot arm assemblies including fingers having deformable sensors
US9262003B2 (en) Piezoelectric force sensing array
JP5261786B2 (ja) 3次元触覚センサ及び3次元触覚センシング方法
US10843066B2 (en) Capacitive sensing assembly for detecting proximity of user to a controller device
US10635188B2 (en) Magnetic user input assembly of a controller device
WO2012086435A1 (ja) 電子機器及び入出力システム
EP3903080B1 (en) Tactile sensor
CN112074802A (zh) 位置指示装置及信息处理装置
EP3611603A3 (en) Display device
US20230074958A1 (en) Multi-directional high-resolution optical tactile sensors
CN204190857U (zh) 投影用互动书写笔及屏幕书写***
EP3458943A1 (en) Haptic communication apparatus, integrated touch sensing and simulating apparatus and method for haptic communication
US20190228569A1 (en) Apparatus and method for processing three dimensional image
US11408788B2 (en) Variable geometry and stiffness control for fluid filled sensor
US6606540B1 (en) Pressure sensor systems and methods for use in robotic devices
US20220410403A1 (en) Deformable sensors and methods for detecting pose and force against an object
EP2755186A2 (en) Range-finding method and computer program product
US11368618B2 (en) Image capturing device, image capturing method and recording medium
JP5396103B2 (ja) 球状ディスプレイ
US20230158685A1 (en) Soft robotic sensing and proprioception via cable and microfluidic transmission
CN112754530B (zh) 甲状腺识别无线超声仪
KR20050116041A (ko) 가속도센서로 구성된 디지털 펜
Yoshimoto et al. Multielectrode Balloon-type Dielectric Elastomer Actuator for 3-Degrees-of-Freedom Lens Actuation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11850509

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11850509

Country of ref document: EP

Kind code of ref document: A1