WO2014080621A1 - アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路 - Google Patents

アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路 Download PDF

Info

Publication number
WO2014080621A1
WO2014080621A1 PCT/JP2013/006803 JP2013006803W WO2014080621A1 WO 2014080621 A1 WO2014080621 A1 WO 2014080621A1 JP 2013006803 W JP2013006803 W JP 2013006803W WO 2014080621 A1 WO2014080621 A1 WO 2014080621A1
Authority
WO
WIPO (PCT)
Prior art keywords
panel display
touch panel
touch
force
arm
Prior art date
Application number
PCT/JP2013/006803
Other languages
English (en)
French (fr)
Inventor
勇大 札場
津坂 優子
小澤 順
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2014523861A priority Critical patent/JP5588089B1/ja
Publication of WO2014080621A1 publication Critical patent/WO2014080621A1/ja
Priority to US14/446,945 priority patent/US9102057B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36429Power assisted positioning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39427Panel on arm, hand of robot, controlled axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement

Definitions

  • the present invention relates to an arm control device and control method for controlling the rigidity of an arm with a touch panel display and generating an operation, a robot having an arm control device, an arm control program, and an integrated electronic circuit for arm control.
  • the following techniques have been proposed as a technique for moving a display device to a desired position by a person.
  • the display device includes a detection unit that detects contact of the person with the bezel, and when the contact with the bezel is detected so as to move the display unit, the link unit can be rotated to display the display unit. Can be moved to a desired position. Further, when a situation is detected in which the person is not in contact with the bezel in an attempt to hold the position of the display unit, the link unit cannot be rotated and the position of the display unit is held (see Patent Document 1).
  • the link part can be rotated only when a person contacts the bezel part. Therefore, when a person collides with a part other than the bezel part, the link part cannot be rotated, which is dangerous. is there.
  • an object of the present invention is to solve the above-mentioned problem, and in the arm with a touch panel display, even when a person collides with a part other than the bezel part, the person can move the touch panel display with a light force.
  • Control device and control method of arm, robot, arm control program, and integrated electronic circuit for arm control that can be touched without touch panel display moving in the direction touched when a person touches the touch panel display Is to provide.
  • the present invention is configured as follows.
  • a control device for an arm that controls the position and orientation of a touch panel display A touch position information acquisition unit for acquiring a position on the screen of the touch panel display touched by a person; A touch force information acquisition unit for acquiring a force on the screen touched by the person; A torque calculation unit that calculates torque applied to the touch panel display from the position acquired from the touch position information acquisition unit and the force acquired from the touch force information acquisition unit; Based on the torque calculated by the torque calculation unit, a stiffness parameter information generation unit that generates information on a stiffness parameter that controls the arm so as not to change the position and posture of the touch panel display; An arm control unit for controlling the arm based on the information on the stiffness parameter generated by the stiffness parameter information generating unit; An arm control device comprising:
  • the touch panel display can be moved with a light force and touched by a person.
  • the rigidity can be adjusted so that the touch panel display can be touched without moving in the pressed direction. Therefore, the operability of the touch operation is improved.
  • FIG. 1 is a block diagram of a robot arm in the robot according to the first embodiment of the present invention.
  • FIG. 2 is an explanatory diagram of motion information data in the robot according to the first embodiment of the present invention.
  • FIG. 3A is an explanatory diagram of arm movement in the robot according to the first embodiment of the present invention.
  • FIG. 3B is an explanatory diagram of arm movement in the robot according to the first embodiment of the present invention.
  • FIG. 3C is an explanatory diagram of the movement of the arm in the robot according to the first embodiment of the present invention.
  • FIG. 4A is an explanatory diagram of motion information generation in the robot according to the first embodiment of the present invention.
  • FIG. 4B is an explanatory diagram of motion information generation in the robot according to the first embodiment of the present invention.
  • FIG. 4C is an explanatory diagram of motion information generation in the robot according to the first embodiment of the present invention.
  • FIG. 4D is an explanatory diagram of motion information generation in the robot according to the first embodiment of the present invention.
  • FIG. 5A is an explanatory diagram of a coordinate system of a touch panel display in the robot according to the first embodiment of the present invention.
  • FIG. 5B is an explanatory diagram of a coordinate system of the touch panel display in the robot according to the first embodiment of the present invention.
  • FIG. 6 is an explanatory diagram of touch position information data in the robot according to the first embodiment of the present invention.
  • FIG. 7A is an explanatory diagram of a method for attaching a force sensor in the robot according to the first embodiment of the present invention;
  • FIG. 7B is an explanatory diagram of a method of attaching the force sensor in the robot according to the first embodiment of the present invention.
  • FIG. 8 is an explanatory diagram of touch force information data in the robot according to the first embodiment of the present invention.
  • FIG. 9 is an explanatory diagram of torque calculation in the robot according to the first embodiment of the present invention.
  • FIG. 10 is an explanatory diagram of a positional relationship between the person of the robot and the touch panel display according to the first embodiment of the present invention.
  • FIG. 11A is an explanatory diagram of rigidity parameter information generation (touch) in the robot according to the first embodiment of the present invention.
  • FIG. 11B is an explanatory diagram of rigidity parameter information generation (touch) in the robot according to the first embodiment of the present invention.
  • FIG. 11C is an explanatory diagram of touch position information (touch) data in the robot according to the first embodiment of this invention.
  • FIG. 11D is an explanatory diagram of touch force information (touch) data in the robot according to the first embodiment of the present invention;
  • FIG. 11E is an explanatory diagram of data of stiffness parameter information (touch) in the robot according to the first embodiment of the present invention.
  • FIG. 12A is an explanatory diagram of rigidity parameter information generation (page turning) in the robot according to the first embodiment of the present invention.
  • FIG. 12B is an explanatory diagram of rigidity parameter information generation (page turning) in the robot according to the first embodiment of the present invention.
  • FIG. 13A is an explanatory diagram including a graph of touch position information (page turning) in the robot according to the first embodiment of the present invention
  • FIG. 13B is an explanatory diagram including a graph of touch force information (page turning) in the robot according to the first embodiment of the present invention.
  • FIG. 13C is an explanatory diagram including a graph of stiffness parameter information (page turning) regarding + x in the robot according to the first embodiment of the present invention
  • FIG. 13D is an explanatory diagram including a graph of stiffness parameter information (page turning) regarding ⁇ z in the robot according to the first embodiment of the present invention;
  • FIG. 13A is an explanatory diagram including a graph of touch position information (page turning) in the robot according to the first embodiment of the present invention
  • FIG. 13B is an explanatory diagram including a graph of touch force information (page turning) in the robot according to
  • FIG. 13E is an explanatory diagram including a graph of stiffness parameter information (page turning) regarding the ⁇ rx direction in the robot according to the first embodiment of the present invention.
  • FIG. 13F is an explanatory diagram including a graph of stiffness parameter information (page turning) regarding the + ry direction in the robot according to the first embodiment of the present invention.
  • FIG. 13G is an explanatory diagram including a graph of stiffness parameter information (page turning) regarding the ⁇ ry direction in the robot according to the first embodiment of the present invention.
  • FIG. 13H is an explanatory diagram including a graph of stiffness parameter information (page turning) regarding the ⁇ rz direction in the robot according to the first embodiment of the present invention.
  • FIG. 13E is an explanatory diagram including a graph of stiffness parameter information (page turning) regarding the ⁇ rx direction in the robot according to the first embodiment of the present invention.
  • FIG. 13F is an explanatory diagram including a graph of stiffness parameter information (page turning) regarding the + ry direction in the
  • FIG. 14A is an explanatory diagram of rigidity parameter information generation (enlargement) in the robot according to the first embodiment of the present invention.
  • FIG. 14B is an explanatory diagram of rigidity parameter information generation (enlargement) in the robot according to the first embodiment of the present invention.
  • FIG. 14C is an explanatory diagram including a graph of touch position information (enlarged) regarding the position A in the robot according to the first embodiment of the present invention;
  • FIG. 14D is an explanatory diagram including a graph of touch position information (enlarged) regarding the position B in the robot according to the first embodiment of the present invention;
  • FIG. 14E is an explanatory diagram including a graph of touch force information (enlarged) regarding the position A in the robot according to the first embodiment of the present invention;
  • FIG. 14C is an explanatory diagram including a graph of touch position information (enlarged) regarding the position A in the robot according to the first embodiment of the present invention.
  • FIG. 14D is an explanatory diagram including a graph of touch position information (enlarged) regarding the position
  • FIG. 14F is an explanatory diagram including a graph of touch force information (enlarged) regarding the position B in the robot according to the first embodiment of the present invention
  • FIG. 14G is an explanatory diagram including a graph of the stiffness parameter information (enlarged) in the translation direction regarding the position A in the robot according to the first embodiment of the present invention
  • FIG. 14H is an explanatory diagram including a graph of stiffness parameter information (enlarged) in the translation direction with respect to the position B in the robot according to the first embodiment of the present invention
  • FIG. 14I is an explanatory diagram including a graph of rigidity parameter information (enlarged) in the rotation direction regarding the position A in the robot according to the first embodiment of the present invention
  • FIG. 14J is an explanatory diagram including a graph of rigidity parameter information (enlarged) in the rotation direction regarding the position B in the robot according to the first embodiment of the present invention
  • FIG. 15A is an explanatory diagram of rigidity parameter information generation (reduction) in the robot according to the first embodiment of the present invention.
  • FIG. 15B is an explanatory diagram of rigidity parameter information generation (reduction) in the robot according to the first embodiment of the present invention.
  • FIG. 15C is an explanatory diagram including a graph of touch position information (reduction) regarding the position A in the robot according to the first embodiment of the present invention;
  • FIG. 15D is an explanatory diagram including a graph of touch position information (reduction) regarding the position B in the robot according to the first embodiment of the present invention;
  • FIG. 15A is an explanatory diagram of rigidity parameter information generation (reduction) in the robot according to the first embodiment of the present invention.
  • FIG. 15B is an explanatory diagram of rigidity parameter information generation (reduction) in the robot
  • FIG. 15E is an explanatory diagram including a graph of touch force information (reduction) regarding the position A in the robot according to the first embodiment of the present invention
  • FIG. 15F is an explanatory diagram including a graph of touch force information (reduction) regarding the position B in the robot according to the first embodiment of the present invention
  • FIG. 15G is an explanatory diagram including a graph of stiffness parameter information (reduction) in the translation direction regarding the position A in the robot according to the first embodiment of the present invention
  • FIG. 15H is an explanatory diagram including a graph of stiffness parameter information (reduction) in the translation direction regarding the position B in the robot according to the first embodiment of the present invention
  • FIG. 15I is an explanatory diagram including a graph of stiffness parameter information (reduction) in the rotation direction regarding the position A in the robot according to the first embodiment of the present invention
  • FIG. 15J is an explanatory diagram including a graph of stiffness parameter information (reduction) in the rotation direction regarding the position B in the robot according to the first embodiment of the present invention
  • FIG. 16A is an explanatory diagram of rigidity parameter information generation (keyboard input) in the robot according to the first embodiment of the present invention.
  • FIG. 16B is an explanatory diagram of rigidity parameter information generation (keyboard input) in the robot according to the first embodiment of the present invention.
  • FIG. 16C is a graph of touch position information (keyboard input) in the robot according to the first embodiment of the present invention.
  • FIG. 16D is a graph of touch force information (keyboard input) in the robot according to the first embodiment of the present invention
  • FIG. 16E is a graph of stiffness parameter information (keyboard input) in the translation direction in the robot according to the first embodiment of the present invention
  • FIG. 16F is a graph of stiffness parameter information (keyboard input) regarding the ⁇ rx direction in the robot according to the first embodiment of the present invention
  • FIG. 16G is a graph of stiffness parameter information (keyboard input) regarding the ⁇ ry direction in the robot according to the first embodiment of the present invention.
  • FIG. 17A is an explanatory diagram of hospital content in the robot according to the first embodiment of this invention.
  • FIG. 17B is an explanatory diagram of hospital content in the robot according to the first embodiment of this invention.
  • FIG. 18 is a block diagram of the input / output IF in the robot according to the first embodiment of the present invention.
  • FIG. 19 is an explanatory diagram of an arm in the robot according to the first embodiment of the present invention.
  • FIG. 20A is an explanatory diagram of an operation procedure in the robot of the first embodiment of the present invention.
  • FIG. 20B is an explanatory diagram of an operation procedure in the robot according to the first embodiment of the present invention.
  • FIG. 20C is an explanatory diagram of an operation procedure in the robot of the first embodiment of the present invention.
  • FIG. 20D is an explanatory diagram of an operation procedure in the robot of the first embodiment of the present invention.
  • FIG. 20E is an explanatory diagram of an operation procedure in the robot of the first embodiment of the present invention.
  • FIG. 20F is an explanatory diagram of an operation procedure in the robot of the first embodiment of the present invention.
  • FIG. 20G is an explanatory diagram of an operation procedure in the robot of the first embodiment of the present invention.
  • FIG. 21 is a flowchart in the operation procedure of the control device for the robot according to the first embodiment of the present invention.
  • FIG. 22 is a flowchart of the operation procedure of the robot control apparatus according to the first embodiment of the present invention.
  • FIG. 23 is a block diagram of a robot arm in the robot according to the second embodiment of the present invention.
  • FIG. 24A is an explanatory diagram of touch force information data in the robot according to the second embodiment of the present invention.
  • FIG. 24B is an explanatory diagram of touch force displacement information data in the robot according to the second embodiment of the present invention.
  • FIG. 25 is a flowchart of the operation procedure of the robot control apparatus according to the second embodiment of the present invention.
  • FIG. 26 is a block diagram of a robot arm in the robot according to the third embodiment of the present invention.
  • FIG. 27A is an explanatory diagram of a calculation method of touch area information in the robot according to the third embodiment of the present invention.
  • FIG. 27B is an explanatory diagram of a calculation method of touch area information in the robot according to the third embodiment of the present invention.
  • FIG. 28A is an explanatory diagram of temporal displacement of touch area information in the robot according to the third embodiment of the present invention.
  • FIG. 28B is an explanatory diagram of the time displacement of the touch area information in the robot according to the third embodiment of the present invention.
  • FIG. 28C is an explanatory diagram of temporal displacement of touch area information in the robot according to the third embodiment of the present invention.
  • FIG. 28D is an explanatory diagram of the time displacement of the touch area information in the robot according to the third embodiment of the present invention.
  • FIG. 29 is a flowchart of the operation procedure of the robot control apparatus according to the third embodiment of the present invention.
  • FIG. 30A is an explanatory diagram of a touch panel display with an arm in a conventional robot
  • FIG. 30B is an explanatory diagram of a touch panel display with an arm in a conventional robot
  • FIG. 31A is an explanatory diagram of a problem of a touch panel display with an arm in a conventional robot
  • FIG. 31B is an explanatory diagram of a problem of a touch panel display with an arm in a conventional robot
  • FIG. 32 is a block diagram of an arm in the robot according to the robot of the fourth embodiment.
  • FIG. 33 is a flowchart of the operation procedure of the robot control apparatus according to the robot of the fourth embodiment.
  • touch means that a person (user) 1301 or 301 intentionally operates the display 1303 or 303 on the display 1303 or 303 with a finger 701 or a stylus pen. Means touching. That is, “touch” means an operation until the finger 701 or the stylus pen touches the display 1303, 303, and after the contact, the operation until the finger 701 or the stylus pen is released from the display 1303, 303. It does not mean to include.
  • a person leaves means that a person (user) 1301 or 301 releases a finger 701 or a stylus pen from the display 1303 or 303. It does not mean leaving the display 1303, 303.
  • multi-touch means a state in which a plurality of fingers 701 or the like are in contact with the touch panel displays 1303 and 303 at the same time. That is, “multi-touch” means a plurality of touches on a plurality of positions on the touch panel displays 1303 and 303 and a plurality of touches that overlap in time. Therefore, “multi-touch” includes not only a plurality of touches started at the same time but also a plurality of touches started at different times and detected at a certain time point at the same time. Specifically, when the second touch is started in a state where the first touch is continued after the first touch is started, the first touch and the second touch are multiple at the start time of the second touch. Corresponds to touch.
  • collision corresponds to an unintentional contact between a touch panel display and a person.
  • the touch panel display 1303 there are various usage examples of the touch panel display 1303, such as when the person 1301 operates the touch panel display 1303 while lying on the bed 1300 or when the attendant 1301 shares the touch panel display 1303 during the meeting.
  • the person 1301 since the person 1301 has the touch panel display 1303 with one hand and operates the touch panel display 1303 with the other hand, the person 1301 must always have the touch panel display 1303 with one hand. Therefore, the arm 1102 is attached to the touch panel display 1303 so that the person 1301 does not need to hold the touch panel display 1303 by hand, and the touch panel display 1303 can be operated by one hand.
  • FIG. 30A shows a usage example in a bed 1300 or a sofa
  • FIG. 30B shows a usage example in a conference.
  • the following points are mentioned as problems of such a touch panel display 1303.
  • the arm 1102 can be moved lightly, the arm 1102 moves in the direction pressed by the person 1301 when the person 1301 performs a touch operation (see FIG. 31B), so the touch panel display 1303 is moved in the direction pressed by the person 1301. It is difficult to touch without moving. That is, it is difficult for a person 1301 to touch the touch panel display 1303.
  • the touch panel display includes a detection unit that detects contact of the person with the bezel.
  • the link unit can be rotated. Can be moved to a desired position.
  • Patent Document there is a proposal that when a situation in which a person has lost contact with the bezel portion is detected in an attempt to hold the position of the touch panel display, the link portion cannot rotate and the position of the touch panel display is held (Patent Document). 1).
  • an arm control device for controlling the position and orientation of a touch panel display
  • a touch position information acquisition unit for acquiring a position on the screen of the touch panel display touched by a person
  • a touch force information acquisition unit for acquiring a force on the screen touched by the person
  • a torque calculation unit that calculates torque applied to the touch panel display from the position acquired from the touch position information acquisition unit and the force acquired from the touch force information acquisition unit;
  • a stiffness parameter information generation unit Based on the torque calculated by the torque calculation unit, a stiffness parameter information generation unit that generates information on a stiffness parameter that controls the arm so as not to change the position and posture of the touch panel display;
  • An arm control unit for controlling the arm based on the information on the stiffness parameter generated by the stiffness parameter information generating unit;
  • An arm control device comprising:
  • the rigidity can be adjusted so that the touch panel display can be moved with a light force when the touch panel display is moved, and the touch panel display can be touched without moving in the pressed direction when the person touches. Can do. Therefore, the operability of the touch operation is improved.
  • the touch force information acquisition unit Obtaining force information regarding a pressing force applied in a direction perpendicular to the surface of the screen of the touch panel display and a frictional force applied in a direction horizontal to the surface of the screen of the touch panel display;
  • the touch position information acquisition unit By changing the person touching the screen of the touch panel display, the changing position information is obtained,
  • the torque calculator From the force information related to the pressing force applied in the direction perpendicular to the surface of the screen of the touch panel display and the position information acquired by the touch position information acquisition unit, the direction parallel to the surface of the screen of the touch panel display is used as an axis.
  • Calculate the torque to be Torque about the direction perpendicular to the screen of the touch panel display is calculated from the force information about the frictional force applied in the horizontal direction to the screen of the touch panel display and the position information acquired by the touch position information acquisition unit.
  • the arm control device according to the first aspect is provided.
  • the touch panel display can be touched without moving in the traced direction.
  • the touch force information acquisition unit (1) A pressing force is applied in a direction perpendicular to the surface of the screen of the touch panel display, (2) A pressing force in a direction perpendicular to the surface of the screen of the touch panel display and a frictional force applied in a horizontal direction to the surface of the screen of the touch panel display are added. (3) No force is applied to the touch panel display. So that the changing force information In the touch position information acquisition unit, (1) Touch the screen of the touch panel display, (2) The position where the person touches while touching the screen of the touch panel display changes in an arbitrary direction, (3) The person leaves the screen of the touch panel display.
  • the stiffness parameter information generation unit (1) Based on the force pressed in the direction perpendicular to the surface of the screen of the touch panel display acquired by the touch force information acquisition unit, a torque about the direction horizontal to the surface of the screen of the touch panel display is set as the torque. Calculated by the calculation unit, and based on the calculated torque, the stiffness parameter information generation unit calculates the stiffness parameter of the arm so that the position and orientation of the touch panel display do not change, (2) Based on the pressing force in the direction perpendicular to the surface of the screen of the touch panel display and the frictional force applied in the horizontal direction to the touch panel display, the horizontal direction on the surface of the screen of the touch panel display is used as an axis.
  • Torque and torque about the direction perpendicular to the surface of the screen of the touch panel display is calculated by the torque calculation unit, and the position of the touch panel display is not changed based on the calculated torque.
  • the stiffness parameter information generation unit calculates the stiffness parameter of (3)
  • the stiffness parameter information generation unit calculates a stiffness parameter of the arm when no force is applied to the touch panel display.
  • the touch panel display can be touched without moving in the traced direction when a person performs a page turning operation.
  • the touch force information acquisition unit (1) A pressing force is applied in a direction perpendicular to the surface of the screen of the touch panel display, (2) A pressing force in a direction perpendicular to the surface of the screen of the touch panel display and a frictional force applied in a horizontal direction to the surface of the screen of the touch panel display are added. (3) No force is applied to the touch panel display. So that the changing force information In the touch position information acquisition unit, (1) The person multi-touches the screen of the touch panel display, (2) Each position where the person multi-touches the screen of the touch panel display changes in a direction away from each other, (3) The person leaves the screen of the touch panel display.
  • the stiffness parameter information generation unit (1) Based on the pressing force in a direction perpendicular to the surface of the screen of the touch panel display, a torque centered on a direction horizontal to the surface of the screen of the touch panel display is calculated by the torque calculation unit. Based on the torque, the stiffness parameter information generation unit calculates the stiffness parameter of the arm so that the position and orientation of the touch panel display do not change, (2) Based on the pressing force in the direction perpendicular to the surface of the screen of the touch panel display and the frictional force applied in the horizontal direction to the surface of the screen of the touch panel display, the touch panel display is horizontal to the surface of the screen.
  • the torque calculation unit calculates torque about the direction and torque about the direction perpendicular to the surface of the screen of the touch panel display, and the position and orientation of the touch panel display change based on the calculated torque.
  • the stiffness parameter information generation unit calculates a stiffness parameter of the arm when no force is applied to the touch panel display.
  • the touch panel display can be touched without moving in the traced direction when a person performs an enlargement operation.
  • the touch force information acquisition unit (1) A pressing force is applied in a direction perpendicular to the surface of the screen of the touch panel display, (2) A pressing force in a direction perpendicular to the surface of the screen of the touch panel display and a frictional force applied in a horizontal direction to the surface of the screen of the touch panel display are added. (3) No force is applied to the touch panel display. So that the changing force information In the touch position information acquisition unit, (1) The person multi-touches the screen of the touch panel display, (2) Each position where the person multi-touches the screen of the touch panel display changes in a direction approaching each other, (3) The person leaves the screen of the touch panel display.
  • the torque calculation unit calculates the torque about the direction horizontal to the surface of the screen of the touch panel display. Based on the torque, the stiffness parameter information generation unit calculates the stiffness parameter of the arm so that the position and orientation of the touch panel display do not change, (2) Horizontally on the surface of the screen of the touch panel display based on a pressing force in a direction perpendicular to the surface of the screen of the touch panel display and a frictional force applied in a horizontal direction on the surface of the screen of the touch panel display.
  • the torque calculation unit calculates a torque centered on a specific direction and a torque centered on a direction perpendicular to the surface of the screen of the touch panel display. Based on the calculated torque, the position and orientation of the touch panel display are The rigidity parameter information generation unit calculates the rigidity parameter of the arm so as not to change, (3) The rigidity parameter information generation unit generates a rigidity parameter of the arm when no force is applied to the touch panel display.
  • the arm control device according to the second aspect is provided for calculating the stiffness parameter to be changed.
  • the touch panel display can be touched without moving in the traced direction when a person performs a reduction operation.
  • the touch force information acquisition unit Obtaining force information regarding a pressing force applied in a direction perpendicular to the surface of the screen of the touch panel display and a force not applied to the screen of the touch panel display;
  • the touch position information acquisition unit Obtaining position information when the person repeats touching the screen of the touch panel display multiple times,
  • the stiffness parameter information generation unit (1) A direction horizontal to the surface of the screen of the touch panel display, based on force information regarding a pressing force applied in a direction perpendicular to the surface of the screen of the touch panel display and the position information acquired by the touch position information acquisition unit.
  • the torque calculation unit calculates the torque with the axis as the axis, and based on the calculated torque, the stiffness parameter information generation unit calculates the arm stiffness parameter so that the position and orientation of the touch panel display do not change, (2) When no force is applied to the touch panel display, the torque is not calculated by the torque calculator, and the stiffness parameter of the arm is calculated by the stiffness parameter information generator.
  • a control device for an arm according to a first aspect is provided that generates a stiffness parameter that changes in such a manner.
  • the touch panel display when a person performs an operation of continuously touching the screen of the touch panel display by adjusting the rigidity, the touch panel display can be touched without moving in the touched direction.
  • the touch force information acquisition unit (1) A pressing force is applied in a direction perpendicular to the surface of the screen of the touch panel display, (2) No force is applied to the screen of the touch panel display. So that the changing force information In the touch position information acquisition unit, (1) The person touches the screen of the touch panel display, (2) The person leaves the screen of the touch panel display.
  • the stiffness parameter information generation unit (1) Based on the pressing force in a direction perpendicular to the surface of the screen of the touch panel display, the torque calculation unit calculates a torque about the direction horizontal to the surface of the screen of the touch panel display, and the calculated torque Based on the above, the stiffness parameter information generation unit calculates the stiffness parameter of the arm so that the position and orientation of the touch panel display do not change, (2) The stiffness parameter information generation unit calculates a stiffness parameter of the arm when no force is applied to the screen of the touch panel display.
  • the arm control device which generates the stiffness parameter to be changed as described above, is provided.
  • the touch panel display can be touched without moving in the touched direction when a person performs a keyboard input operation.
  • the apparatus includes a touch force displacement calculation unit that acquires force information from the touch force information acquisition unit and calculates a displacement of the force from the acquired force information.
  • the stiffness parameter information generation unit Based on the displacement of the force acquired from the touch force displacement calculation unit, if the displacement of the force exceeds a predetermined threshold, generate a stiffness parameter of the arm so that the position and orientation of the touch panel display changes,
  • the arm control device according to the first aspect, wherein the arm stiffness parameter is generated so that the position and posture of the touch panel display do not change when the displacement of the force does not exceed a predetermined threshold.
  • the apparatus includes a touch area calculation unit that acquires position information from the touch position information acquisition unit and calculates a touch area from the acquired position information.
  • the stiffness parameter information generation unit Based on the touch area acquired from the touch area calculation unit, when the touch area exceeds a predetermined threshold, the arm stiffness parameter is generated so that the position and orientation of the touch panel display changes, and the touch area is
  • the arm control device there is provided the arm control device according to the first aspect, wherein the arm stiffness parameter is generated so that the position and orientation of the touch panel display do not change when a predetermined threshold value is not exceeded.
  • the touch area when the touch area is large, it is safe even when a person collides with the touch panel display by adjusting the rigidity so that the touch panel display moves.
  • contact is detected from the position from the position acquired from the touch position information acquisition unit and the force acquired from the touch force information acquisition unit, and contact is detected from the force.
  • a touch determination unit that determines that there is contact and determines that there is no contact in other cases
  • the stiffness parameter information generation unit generates stiffness parameter information for controlling the arm so as not to change the position and orientation of the touch panel display only when the touch determination unit determines that there is contact.
  • the stiffness determination information is generated by the stiffness parameter information generation unit so that the touch determination unit determines whether or not there is a touch and the stiffness parameter information is set to be high only when the touch determination unit determines that there is a touch. Therefore, the operability of the touch panel display can be improved more accurately.
  • the arm control device according to any one of the first to tenth aspects, which controls the arm;
  • a robot comprising:
  • the rigidity can be adjusted so that the touch panel display can be moved with a light force when the touch panel display is moved, and the touch panel display can be touched without moving in the pressed direction when the person touches. Can do. Therefore, the operability of the touch operation is improved.
  • an arm control method for controlling the position and posture of a touch panel display
  • the touch position information acquisition unit acquires the position on the touch panel display touched by a person
  • the force on the screen touched by the person is acquired by the touch force information acquisition unit
  • a torque applied to the touch panel display is calculated by a torque calculation unit
  • the rigidity parameter information generator Based on the torque calculated by the torque calculator, the rigidity parameter information generator generates rigidity parameter information for controlling the arm so as not to change the position and orientation of the touch panel display.
  • an arm control method in which the arm is controlled by an arm control unit based on the stiffness parameter information generated by the stiffness parameter information generation unit.
  • the rigidity can be adjusted so that the touch panel display can be moved with a light force when the touch panel display is moved, and the touch panel display can be touched without moving in the pressed direction when the person touches. Can do. Therefore, the operability of the touch operation is improved.
  • an arm control program for controlling the position and posture of a touch panel display,
  • Computer A touch position information acquisition unit for acquiring a position on the screen of the touch panel display touched by a person;
  • a touch force information acquisition unit for acquiring a force on the screen touched by the person;
  • a torque calculation unit that calculates torque applied to the touch panel display from the position acquired from the touch position information acquisition unit and the force acquired from the touch force information acquisition unit;
  • a stiffness parameter information generation unit that generates information on a stiffness parameter that controls the arm so as not to change the position and posture of the touch panel display;
  • an arm control program for functioning as an arm control unit for controlling the arm based on the stiffness parameter information generated by the stiffness parameter information generation unit.
  • the rigidity can be adjusted so that the touch panel display can be moved with a light force when the touch panel display is moved, and the touch panel display can be touched without moving in the pressed direction when the person touches. Can do. Therefore, the operability of the touch operation is improved.
  • an integrated electronic circuit for controlling an arm that controls the position and orientation of a touch panel display
  • the touch position information acquisition unit acquires the position on the touch panel display touched by a person
  • the force on the screen touched by the person is acquired by the touch force information acquisition unit
  • a torque applied to the touch panel display is calculated by a torque calculation unit
  • the rigidity parameter information generator Based on the torque calculated by the torque calculator, the rigidity parameter information generator generates rigidity parameter information for controlling the arm so as not to change the position and orientation of the touch panel display.
  • the arm is controlled by the arm control unit.
  • An integrated electronic circuit for arm control is provided.
  • the rigidity can be adjusted so that the touch panel display can be moved with a light force when the touch panel display is moved, and the touch panel display can be touched without moving in the pressed direction when the person touches. Can do. Therefore, the operability of the touch operation is improved.
  • FIG. 1 is a block diagram of a robot 101 having an arm control device 103 according to the first embodiment of the present invention.
  • a robot 101 includes an arm 102 and a control device 103 for the arm 102.
  • the control device 103 of the arm 102 is an arm control device that controls the position and orientation of a touch panel 303 as an example of a display device.
  • the control device 103 of the arm 102 includes at least a touch position information acquisition unit 108, a touch force information acquisition unit 109, a torque calculation unit 110, a stiffness parameter information generation unit 111, and an arm control unit 112.
  • the touch position information acquisition unit 108 acquires the position on the screen 303a of the touch panel touched by a person.
  • the touch force information acquisition unit 109 acquires the force on the screen that is touched by the person.
  • the torque calculation unit 110 calculates the torque applied to the touch panel from the position acquired from the touch position information acquisition unit and the force acquired from the touch force information acquisition unit.
  • the stiffness parameter information generation unit 111 generates (calculates) information for controlling the arm so as not to change the position and orientation of the touch panel based on the torque calculated by the torque calculation unit.
  • the arm control unit 112 controls the arm based on the information generated by the rigidity parameter information generation unit.
  • the arm 102 is controlled so that the position of the touch panel display 303 is fixed when touched in order to prevent the touch panel display 303 from moving in the touched direction.
  • a force and a position applied to the touch panel display 303 are detected, and the arm 102 is controlled by adjusting the rigidity in a direction to cancel the force (torque).
  • the control device 103 of the arm 102 includes a control device main body 104 and a peripheral device 105.
  • the control device main body 104 includes a motion information acquisition unit 106, an arm motion information generation unit 107, a touch position information acquisition unit 108, a touch force information acquisition unit 109, a torque calculation unit 110, and a stiffness parameter information generation unit 111. And an arm control unit 112 and an input information acquisition unit 117.
  • the peripheral device 105 includes an input / output IF (interface) 113 and a motor driver 114. Each function will be described below.
  • the motion information acquisition unit 106 receives the position information and posture information of the arm 102 from the input / output IF 113 and the time information from the timer built in the input / output IF 113. Further, the motion information acquisition unit 106 acquires speed information by differentiating the position information acquired from the input / output IF 113 with time information. Further, the motion information acquisition unit 106 acquires angular velocity information by differentiating the posture information with respect to time information.
  • FIG. 2 shows time information, position information, posture information, speed information, and angular speed information acquired by the motion information acquisition unit 106.
  • the motion information is information for generating a motion of the arm 102 when the arm 102 is moved, and is independent of a stiffness parameter described later.
  • the motion information acquisition unit 106 outputs the acquired position information, posture information, velocity information, angular velocity information, and time information of the arm 102 to the arm motion information generation unit 107.
  • the arm motion information generation unit 107 acquires the position information, posture information, velocity information, angular velocity information, and time information of the arm 102 from the motion information acquisition unit 106.
  • the arm motion information generation unit 107 generates motion information for the arm 102 to move based on the acquired information.
  • the motion information is generated when the person 301 directly touches the arm 102 and moves the arm 102. Thus, in order for the person 301 to move the arm 102 (see FIG. 3B), it is necessary to set the rigidity of the arm 102 low.
  • a force sensor is attached to the arm 102, a gain is multiplied by the magnitude of the force applied by the person 301 to the arm 102 by the arm operation information generation unit 107, and the movement amount of the arm 102 is derived by the arm operation information generation unit 107. .
  • the arm 102 can be moved with a light force by increasing the gain value by the arm motion information generation unit 107.
  • FIG. 3A An example of attaching the force sensor 302 to the arm 102 is shown in FIG. 3A.
  • FIGS. 3B and 3C An example in which the person 301 applies a force to the force sensor 302 to move the arm 102.
  • the arm 102 includes three arm members 102a and four rotary joint portions 102b, and a touch panel display as an example of a display device via the rotary joint portion 102b at the tip of the arm 102.
  • 303 is arranged.
  • the force sensor 302 is disposed on the arm member 102a in the middle of the three arm members 102a, and the person 301 directly grips the force sensor 302 or contacts any one of the arm members 102a of the three arm members 102a.
  • the force sensor 302 is configured to move the arm 102 while detecting the force.
  • the stiffness parameter information generation unit 111 reduces the stiffness.
  • the arm 102 can be moved with a light force. Therefore, it is possible to reduce the impact force applied to the person 301 at the time of collision.
  • the stiffness of the arm 102 is set low by the stiffness parameter information generation unit 111.
  • movement information of movement shown in FIGS. 4A to 4D is generated.
  • the person 301 is not touching the arm 102 and the touch panel display 303, and the arm 102 and the touch panel display 303 do not move.
  • FIG. 4B it is a time point when the person 301 touches the touch panel display 303 and applies force to the arm 102 via the touch panel display 303 in the direction in which the touch panel display 303 is desired to move.
  • FIG. 4C shows a state in which the touch panel display 303 is moving via the arm 102 in the direction in which the person 301 wants to move the touch panel display 303.
  • the operation information generation method may be a method in which the operation information is moved remotely using a remote control such as a pendant, or in advance. It is possible to use any method such as a method of teaching and moving the operation.
  • the arm motion information generation unit 107 outputs the generated position information, posture information, speed information, angular velocity information, and time information of the arm 102 to the arm control unit 112 as motion information.
  • the operation information and time information to be output have the same configuration as the information shown in FIG.
  • the touch sensor 115 is attached to the display unit 303a of the touch panel display 303, and detects the position where the touch occurs (touch position) according to the coordinate system of FIG. 5A.
  • 5A and 5B represent the coordinate system of the touch panel display 303 and the coordinate system of the hand portion 102e of the arm 102.
  • FIG. 5A the coordinate system of the display unit 303a of the touch panel display 303 has a center portion as an origin O (0, 0). Further, a tip portion (attachment portion of the touch panel display 303) 102e at the tip of the arm 102 is attached to the center portion of the back surface of the touch panel display 303 as shown in FIG. 5B.
  • the coordinate system can be set or the hand 102e of the arm 102 can be attached by any other method.
  • the touch sensor 115 is realized by using, for example, a capacitive touch panel.
  • Touch position information (contact position) detected by the touch sensor 115 is output from the touch sensor 115 to the touch position information acquisition unit 108.
  • the touch position information detected by the touch sensor 115 is information as shown in FIG. Here, when there is a touch, it is represented by 1, and when there is no touch, it is represented by 0.
  • the force sensor 116 is attached to the display unit 303a of the touch panel display 303, and measures a force applied to the display unit 303a at a position where a touch (contact) has occurred.
  • the forces of the x-axis, y-axis, and z-axis are measured according to the coordinate system of FIG. 5A.
  • the force sensor 116 may be any force sensor having 1 to 6 axes.
  • FIG. 7A a method of attaching a large number of force sensors 116 to the display portion 303a of the touch panel display 303 in a matrix or as shown in FIG. 7B to the hand portion 102e of the arm 102. There is a method of attaching.
  • the force sensor 116 is realized by using, for example, a strain gauge type force sensor.
  • the force information measured by the force sensor 116 is output to the touch force information acquisition unit 109.
  • Touch position information acquisition unit 108 receives touch position information from touch sensor 115 and time information from a timer built in input / output IF 113 every predetermined time (for example, every 1 sec). In addition, for example, when the touch position information is acquired by the touch position information acquisition unit 108, the touch position information and time information may be input to the touch position information acquisition unit 108.
  • the touch position information input to the touch position information acquisition unit 108 is information as illustrated in FIG. Here, when there is a contact, it is represented by 1, and when there is no contact, it is represented by 0.
  • the touch position information acquisition unit 108 can also acquire touch position information from the touch sensor 115 via the input / output IF 113.
  • the touch position information and time information acquired by the touch position information acquisition unit 108 are output to the stiffness parameter information generation unit 111 via the torque calculation unit 110.
  • the touch force information acquisition unit 109 receives touch force information (contact force information) from the force sensor 116 and time information from a timer built in the input / output IF 113.
  • the input touch force information is information as shown in FIG.
  • the coordinate system of the touch force information follows the coordinate system of FIG. 5A, and the forces Fx and Fy in the respective directions of the xy axes represent forces related to the frictional force with respect to the display unit 303a of the touch panel display 303, and the force Fz in the z axis direction represents the touch panel display. This represents a force in the direction z in which the display unit 303a of 303 is pushed vertically.
  • the force Fx, the force Fy, and the force Fz indicate a force related to a frictional force applied in a horizontal direction on the surface of the screen 303a and a pressing force applied in a direction perpendicular to the surface of the screen 303a.
  • the torque Mx, the torque My, and the torque Mz indicate a torque whose axis is a direction horizontal to the surface of the screen 303a and a torque whose axis is a direction perpendicular to the surface of the screen 303a.
  • touch force information acquisition unit 109 can also acquire touch force information from the force sensor 116 via the input / output IF 113.
  • the touch force information and time information acquired by the touch force information acquisition unit 109 are output to the stiffness parameter information generation unit 111 via the torque calculation unit 110.
  • the torque calculation unit 110 acquires touch position information and time information from the touch position information acquisition unit 108, and acquires touch force information and time information from the touch force information acquisition unit 109.
  • the torque calculation unit 110 calculates the magnitude of torque applied to the touch panel display 303 using the acquired touch position information and touch force information.
  • rx is a rotation direction around the x axis
  • ry is a rotation direction around the y axis
  • rz is a rotation direction around the z axis.
  • both information of the acquired touch position information and touch force information Fz only) is used.
  • the torque calculation unit 110 uses both the acquired touch position information (x, y) and touch force information (Fx, Fy).
  • the torque Mz of the axis in the rz direction acquired by the torque calculation unit 110 is represented by y ⁇ Fx ⁇ x ⁇ Fy.
  • the torque calculation unit 110 outputs the torque information and time information calculated by the torque calculation unit 110 to the stiffness parameter information generation unit 111.
  • the stiffness parameter information generation unit 111 acquires touch force information and time information from the touch force information acquisition unit 109, and acquires torque information and time information from the torque calculation unit 110.
  • the stiffness parameter information generation unit 111 sets the stiffness parameter information of the arm 102 so that the posture of the touch panel display 303 does not change when the person 301 touches the touch panel display 303. Generate.
  • generating the stiffness parameter information of the arm 102 so that the posture of the touch panel display 303 does not change specifically means that the posture is not changed by setting the stiffness high. Details will be described later.
  • the stiffness parameter information is information on the stiffness parameter of each axis (x, y, z, rx, ry, rz) in the hand portion (attachment portion of the touch panel display 303) 102e of the arm 102.
  • rx is a rotation direction around the x axis
  • ry is a rotation direction around the y axis
  • rz is a rotation direction around the z axis.
  • the stiffness parameter information generation unit 111 uses the coordinate system of the display unit 303 a of the touch panel display 303 as a reference, the stiffness parameter information generation unit 111 generates stiffness parameter information for the coordinate system.
  • the stiffness parameter information is set to a low stiffness at the initial value, and the stiffness parameter information generating unit 111 changes the stiffness only when the stiffness of the arm 102 is changed.
  • the rigidity parameter information generating unit 111 sets the increased rigidity to a low value
  • the power of the touch panel display 303 (for example, as described later, input / output IF 114 is used to turn on / off the power of the touch panel display 303). This is when the switch information (off switch) is turned off or when the person 301 does not touch the display portion 303a.
  • stiffness parameter information generation unit 111 A method for generating stiffness parameter information in the stiffness parameter information generation unit 111 will be described.
  • the touch panel display 303 moves in the z direction every time the person 301 makes a touch input to the touch panel display 303. Therefore, in the arm control device 103 of the first embodiment, the rigidity of the arm 102 is increased by increasing the feedback gain of the motor 102M that controls the z direction by the rigidity parameter information generation unit 111.
  • the stiffness of the arm 102 is changed by the stiffness parameter information generation unit 111 so that the amount of movement of the touch panel display 303 is within 5 mm when a force of 2.0 N is applied in the z direction.
  • the stiffness parameter information generation unit 111 when the stiffness is set higher than when the stiffness is set low, the touch panel display 303 travels a short distance even when the touch panel display 303 is pressed with the same force. In either case, when the person 301 does not touch the touch panel display 303, the touch panel display 303 does not move.
  • the stiffness parameter information generation unit 111 sets the stiffness higher than the force detected at each position.
  • the stiffness parameter information generation unit 111 sets the stiffness to be high with respect to the largest force.
  • the stiffness parameter information generation unit 111 when a force is applied to a plurality of positions, the stiffness is set high for the largest force, and the stiffness is set high for the resultant force of the plurality of positions. It is also possible to take this method.
  • the stiffness parameter information generation unit 111 uses both the acquired touch position information and touch force information (only Fz). For the position (+ x, + y) added in the z-axis direction, the stiffness in the + ry direction is set high by the stiffness parameter information generation unit 111 for + x, and the stiffness in the ⁇ rx direction is set high by the stiffness parameter information generation unit 111 for + y. Set. This is because when the person 301 touches, the touch panel display 303 does not rotate in the touched direction, and the person 301 touches the display unit 303a.
  • the magnitude of the torque applied to the touch panel display 303 by the person 301 is calculated by the torque calculation unit 110 by multiplying the magnitude of the force in the z-axis direction (Fz) by the distance from the origin O to the touch position.
  • Fz the force in the z-axis direction
  • the touch panel display 303 is moved by 0.2 rad (as a comparative example, a control device similar in configuration to the arm control device 103 of the first embodiment and different only in the stiffness adjustment configuration).
  • the rigidity is increased by the stiffness parameter information generation unit 111 by increasing the feedback gain of the motor 102M that controls the ry direction by the stiffness parameter information generation unit 111.
  • the rigidity is changed so that the amount of movement of the touch panel display is within 0.05 rad when a force of 2.0 N is applied in the z direction at the position (100 mm, 0 mm).
  • a method of obtaining torque Mx and torque My and setting the rigidity that can withstand the torque at each position to be high by the rigidity parameter information generation unit 111 is provided.
  • the rigidity is set high by the rigidity parameter information generation unit 111 so as to withstand the largest torque.
  • the rigidity parameter information generating unit 111 sets a rigidity that can withstand the largest torque, and the resultant torque of the plurality of positions. It is also possible to take other methods, such as adopting both methods in which the stiffness that can withstand the stiffness is set high by the stiffness parameter information generation unit 111.
  • the stiffness parameter information generation unit 111 uses both the acquired touch position information (x, y) and touch force information (Fx, Fy).
  • the torque Mz of the axis in the rz direction acquired by the stiffness parameter information generation unit 111 is represented by y ⁇ Fx ⁇ x ⁇ Fy.
  • the position (100 mm, 50 mm) is 1.0 N, y in the x-axis direction.
  • the control device in which the touch panel display 303 moves by 0.2 rad (as a comparative example, similar to the arm control device 103 of the first embodiment) It is assumed that the control device is configured differently only in the configuration and the configuration for adjusting the rigidity.
  • the rigidity is increased by increasing the feedback gain of the motor 102M that controls the ⁇ rz direction by the rigidity parameter information generation unit 111.
  • the stiffness parameter information is set so that the moving amount of the touch panel display is within 0.05 rad when a force of 1.0 N is applied to the position (100 mm, 50 mm) in the x-axis direction and 2.0 N in the y-axis direction.
  • the generation unit 111 changes the rigidity.
  • the torque Mz When the torque Mz is applied at a plurality of positions, the torque Mz is obtained by the torque calculation unit 110, and the rigidity parameter information generation unit 111 sets the rigidity higher than the torque at each position.
  • the stiffness parameter information generation unit 111 sets the stiffness to be high with respect to the largest torque. Note that when the torque Mz is applied at a plurality of positions, the rigidity parameter information generation unit 111 sets the rigidity high for the largest torque, and the rigidity parameter information is generated for the resultant torque of the plurality of positions. It is possible to adopt other methods such as adopting both of the methods of setting the rigidity high in the portion 111.
  • the force applied to the touch panel display 303 differs depending on the positional relationship between the person 301 and the touch panel display 303 even when the same touch operation or keyboard operation is performed due to the positional relationship between the person 301 and the touch panel display 303. Therefore, it is necessary to change the stiffness adjustment amount in advance by the stiffness parameter information generation unit 111 according to the environment in which the arm-equipped touch panel display 303 is used. As an example of the adjustment method, the person 301 can input the stiffness adjustment amount to the stiffness parameter information generation unit 111 using the input / output IF 113. Further, when the rigidity is set to be low by the rigidity parameter information generation unit 111, the rigidity parameter information generation unit 111 sets the rigidity to such an extent that the touch panel display 303 does not fall due to the influence of gravity.
  • the touch operation is an operation in which the person 301 touches the display unit 303a of the touch panel display 303 with a finger 701 or the like (contacts the display unit 303a).
  • FIG. 11A description will be made using content that is selected by a person 301 by touching (selecting Yes or No).
  • a question “Do you agree” is displayed as content information in the center of the display unit 303a, and two buttons, “Yes” and “No”, are displayed below the question as an answer to the question. Has been.
  • FIG. 11A description will be made using content that is selected by a person 301 by touching (selecting Yes or No).
  • a question “Do you agree” is displayed as content information in the center of the display unit 303a, and two buttons, “Yes” and “No”, are displayed below the question as an answer to the question. Has been.
  • FIG. 11A description will be made using content that is selected by a person 301 by touching (selecting Yes or No).
  • the stiffness parameter information generation unit 111 generates stiffness parameter information in the case of performing an operation of touching the position A ( ⁇ 180 mm, ⁇ 150 mm) with a human hand (finger) 701.
  • a human hand 701 applies a force of +1.0 N in the z direction. That is, information as shown in FIG. 11C is acquired by the touch position information acquisition unit 108 as touch position information, and information as shown in FIG. 11D is acquired by the touch force information acquisition unit 109 as touch force information.
  • the feedback gain of the motor 102M that controls the arm 102 is increased by the stiffness parameter information generation unit 111 so as to increase the stiffness in the z direction.
  • the rigidity is increased by increasing the feedback gain of the motor 102M that controls the z direction by the rigidity parameter information generation unit 111.
  • the rigidity in the rx rotation direction is generated as stiffness parameter information.
  • the rigidity is set to be increased by the unit 111, and the rigidity is also set to be increased by the rigidity parameter information generation unit 111 in the ry rotation direction.
  • the arm control device 103 operates as follows.
  • the touch force information acquisition unit 109 obtains force information regarding the pressing force Fz applied in the direction perpendicular to the surface of the screen 303a of the touch panel display 303 and the frictional forces Fx and Fy applied in the horizontal direction on the surface of the screen 303a of the touch panel display 303. get.
  • the touch position information acquisition unit 108 acquires changing position information when the person 301 traces while touching the screen 303a of the touch panel display 303.
  • the torque calculation unit 110 displays the force information on the pressing force Fz applied in the direction perpendicular to the surface of the screen 303a of the touch panel display 303 and the position information acquired by the touch position information acquisition unit 108 on the surface of the screen 303a of the touch panel display 303. Torques Mx and My are calculated with the horizontal direction as the axis. Next, the torque calculation unit 110 is perpendicular to the screen 303 a of the touch panel display 303 from the force information regarding the frictional forces Fx and Fy applied in the horizontal direction to the screen 303 a of the touch panel display 303 and the position information acquired by the touch position information acquisition unit 108. Torque Mz with a specific direction as an axis is calculated.
  • the stiffness parameter information generation unit 111 generates stiffness parameter information based on the torque calculated by the torque calculation unit 110.
  • FIG. 11E shows the stiffness parameter information generated by the stiffness parameter information generation unit 111 in this way.
  • the page turning operation is an operation performed by the person 301 when the page is changed while reading a sentence.
  • the operation is an operation of touching the display unit 303a of the touch panel display 303 so as to trace in an arbitrary direction. That is, for the position information of the page turning operation, first, the finger 701 or the like touches the screen 303a, and then the touch position changes in an arbitrary direction while tracing with the finger 701 or the like on the screen 303a, and then the screen 303a.
  • the position information changes such that the finger 701 or the like is released from the position.
  • a certain direction as an example, FIG.
  • FIG. 12B shows the operation shown in FIG. 12B as an example.
  • a page turning operation is performed with the finger 701 from the position A (100 mm, ⁇ 100 mm) to the position B ( ⁇ 100 mm, ⁇ 100 mm).
  • FIG. 13A shows the touch position information acquired by the touch position information acquisition unit 108.
  • the horizontal axis represents time (ms), and the vertical axis represents position (mm).
  • the graph with reference symbol x represents a change in the position of the x coordinate
  • the graph with reference symbol y represents a change in the y coordinate. From FIG.
  • FIG. 13A shows the touch force information acquired by the touch force information acquisition unit 109.
  • the horizontal axis represents time (ms), and the vertical axis represents force (N).
  • the graph of the reference sign Fx in FIG. 13B represents the change of the force Fx
  • the graph of the reference sign Fy represents the change of the force Fy
  • the graph of the reference sign Fz represents the change of the force Fz.
  • 13B is an explanatory diagram of the operation state of the person 301.
  • the force Fz is added by 1.0 N from 0 ms to 1000 ms, the force Fx is ⁇ 0.5 N, and the force Fz is 0.1 from 1000 ms to 2000 ms. Indicates that 5N is added.
  • the stiffness parameter information generation unit 111 sets a high stiffness based on the touch force information (FIG. 13B) acquired by the touch force information acquisition unit 109.
  • the rigidity is increased by the stiffness parameter information generation unit 111 by increasing the feedback gain of the motor 102M that controls the x and z directions by the stiffness parameter information generation unit 111.
  • the stiffness parameter information generation unit 111 changes the stiffness so that the movement amount of the touch panel display 303 is within 5 mm when a force of 2.0 N is applied in the x and z directions. As a result, the stiffness parameter information generation unit 111 obtains the stiffness coefficient as information as shown in FIG.
  • the stiffness coefficient is 0.2 N / mm from 1000 ms to 2000 ms.
  • the stiffness coefficient is 0.4 N / mm when the stiffness coefficient is 0 ms to 1000 ms, and 0.2 N / mm over 1000 ms to 2000 ms.
  • the other shaft has a stiffness coefficient of 0.05 N / mm.
  • torque is torqued by the above-described method based on the touch position information (FIG. 13A) acquired by the touch position information acquisition unit 108 and the touch force information (FIG. 13B) acquired by the touch force information acquisition unit 109. Derived by the calculation unit 110. Similarly, since the force is applied in the x-axis and z-axis directions also in the rotation direction, the rigidity parameter information generation unit 111 increases the rigidity in the rx-axis, ry-axis, and rz-axis rotation directions.
  • the + rx direction is shown in FIG. 13E
  • the -ry direction is shown in FIG. 13F
  • the + ry direction is shown in FIG. 13G
  • the + rz direction is shown in FIG.
  • an explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 13F.
  • the stiffness coefficient is 4000 Nmm / rad when the stiffness coefficient is 0 ms to 1000 ms, and 2000 Nmm / rad when the stiffness coefficient is 1000 ms to 2000 ms.
  • the stiffness coefficient increases monotonously to 2000 Nmm / rad from 1500 ms to 2000 ms on the ⁇ ry direction axis in FIG. 13F.
  • the stiffness coefficient is 4000 Nmm / rad when the stiffness coefficient is 0 ms to 1000 ms, and the stiffness coefficient monotonously decreases from 2000 Nmm / rad over 1000 ms to 1500 ms.
  • the other shaft has a stiffness coefficient of 500 Nmm / rad.
  • the arm control device 103 operates as follows.
  • the touch force information acquisition unit 109 acquires force information that changes as follows. (1) A force Fz that pushes in a direction perpendicular to the surface of the screen 303a of the touch panel display 303 is applied. Next, (2) a force Fz that is pressed in a direction perpendicular to the surface of the screen 303a of the touch panel display 303 and frictional forces Fx and Fy that are applied in a horizontal direction to the surface of the screen 303a of the touch panel display 303 are applied. Next, (3) no force is applied to the touch panel display 303.
  • the touch position information acquisition unit 109 acquires position information that changes as follows. (1) Touch the screen 303a of the touch panel display 303. Next, (2) the position where the person 301 touches the screen 303a of the touch panel display 303 while touching it changes in an arbitrary direction. Next, (3) the person 301 leaves the screen 303a of the touch panel display 303.
  • the rigidity parameter information generation unit 111 generates a rigidity parameter to be changed as follows. (1) Based on the force Fz pressed in the direction perpendicular to the surface of the screen 303a of the touch panel display 303 acquired by the touch force information acquisition unit 109, the torque Mx about the direction horizontal to the surface of the screen 303a of the touch panel display 303, My is calculated by the torque calculator 110. Next, based on the calculated torque, the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 so that the position and orientation of the touch panel display 303 do not change.
  • the torque calculation unit 110 calculates torques Mx and My whose axis is an arbitrary direction and torque Mz whose axis is a direction perpendicular to the surface of the screen 303a of the touch panel display 303.
  • the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 so that the position and orientation of the touch panel display 303 do not change.
  • the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 when no force is applied to the touch panel display 303.
  • the enlargement operation is an operation performed by the person 301 when enlarging a photograph when viewing the photograph.
  • the operation is an operation of multi-touching the display unit 303a of the touch panel display 303 with a plurality of fingers 701 and the like so that the multi-touched positions are traced in two directions away from each other. That is, the position information of the enlargement operation is as follows. First, a plurality of fingers 701 and the like are multi-touched on the screen 303a (the position where the plurality of fingers 701 and the like are multi-touched does not move on the screen 303a), and then a plurality of positions are displayed on the screen 303a.
  • the position information changes such that each position where the finger 701 or the like is multi-touched changes in a direction away from each other, and then the finger 701 or the like leaves the screen 303a.
  • the positions of the two locations are determined from the point in time when the plurality of fingers 701 of the human hand touch the display portion 303a of the touch panel display 303 at two locations (FIG. 14A). This is an operation of moving away from each other while maintaining the touch state.
  • the enlargement operation is an operation in which two fingers 701 are multi-touched.
  • the position A (100 mm, 100 mm) from the origin O (0 mm, 0 mm)
  • the position B (-100 mm, -100 mm) from the origin O (0 mm, 0 mm).
  • touch position information acquired by the touch position information acquisition unit 108 touch position information related to the position A is shown in FIG. 14C
  • touch position information related to the position B is shown in FIG. 14D.
  • the horizontal axis represents time (ms), and the vertical axis represents position (mm).
  • Reference sign x represents a change in the position of the x coordinate
  • reference sign y represents a change in the y coordinate. It can be seen that the touch position is moving in both the x and y coordinates.
  • 14C shows an explanatory diagram of the operation state of the person 301, touching the position O from 0 ms to 1000 ms, from position O to position A and from position O to position B from 1000 ms to 2000 ms, Each indicates that the tracing operation is being performed. Further, in the touch force information acquired by the touch force information acquisition unit 109, the touch force information related to the position A is shown in FIG.
  • FIG. 14F shows the touch force information related to the position B.
  • the horizontal axis represents time (ms), and the vertical axis represents force (N).
  • Reference sign Fx represents a change in force Fx
  • reference sign Fy represents a change in force Fy
  • reference sign Fz represents a change in force Fz. It can be seen that the forces Fx, Fy, and Fz all change in magnitude.
  • 14F shows an explanatory diagram of the operation state of the person 301.
  • the force Fz is applied by 1.0 N from 0 ms to 1000 ms, and the forces Fx and Fy are 0.5 N (position A) from 1000 ms to 2000 ms. -0.5N (position B) is applied, indicating that the force Fz is applied 0.5N.
  • the rigidity is increased by increasing the feedback gain of the motor 102M that controls the x, y, and z directions by the rigidity parameter information generation unit 111.
  • the stiffness parameter information generation unit 111 changes the stiffness so that the amount of movement of the touch panel display 303 is within 5 mm when a force of 2.0 N is applied in the x, y, and z directions.
  • the stiffness parameter information generation unit 111 obtains the stiffness coefficient as information such as the translation direction of the position A shown in FIG. 14G and the translation direction of the position B shown in FIG. 14H. Further, an explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 14H.
  • FIG. 14G shows the stiffness parameter information generated by the stiffness parameter information generation unit 111 for the position A.
  • An explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 14G.
  • the stiffness coefficient is 0.2 N / mm from 1000 ms to 2000 ms
  • the stiffness coefficient is 0.4 N / mm from 0 ms to 1000 ms.
  • the coefficient is 0.2 N / mm over 1000 ms to 2000 ms.
  • the other shaft has a stiffness coefficient of 0.05 N / mm.
  • FIG. 14H shows the stiffness parameter information generated by the stiffness parameter information generation unit 111 for the position B.
  • An explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 14H.
  • the stiffness coefficient is 0.2 N / mm from 1000 ms to 2000 ms, and on the + z axis, the stiffness coefficient is 0.4 N / mm from 0 ms to 1000 ms.
  • the stiffness coefficient is 0.2 N / mm over 1000 ms to 2000 ms.
  • the other shaft has a stiffness coefficient of 0.05 N / mm.
  • the rotation direction is described above based on the touch position information (FIGS. 14C and 14D) acquired by the touch position information acquisition unit 108 and the touch force information (FIGS. 14E and 14F) acquired by the touch force information acquisition unit 109.
  • the torque is calculated by the torque calculation unit 110 by the method described above.
  • the stiffness parameter information generation unit is also in the rx-axis, ry-axis, and rz-axis rotation directions.
  • 111 is set to increase the rigidity.
  • the rotation direction of the position A is shown in FIG. 14I
  • the rotation direction of the position B is shown in FIG. 14J.
  • an explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 14J. It can be seen that the stiffness coefficient increases monotonously to 2000 Nmm / rad from 1000 ms to 2000 ms on the + rx direction axis and the ⁇ ry direction axis in FIG. 14I. It can be seen that the stiffness coefficient increases monotonously to 2000 Nmm / rad from 1000 ms to 2000 ms in the ⁇ rx direction axis and the + ry direction axis in FIG. 14J.
  • the other shaft has a stiffness coefficient of 500 Nmm / rad.
  • the arm control device 103 operates as follows.
  • the touch force information acquisition unit 109 acquires force information that changes as follows. (1) A force Fz that pushes in a direction perpendicular to the surface of the screen 303a of the touch panel display 303 is applied. Next, (2) a force Fz that is pressed in a direction perpendicular to the surface of the screen 303a of the touch panel display 303 and frictional forces Fx and Fy that are applied in a horizontal direction to the surface of the screen 303a of the touch panel display 303 are applied. Next, (3) no force is applied to the touch panel display 303.
  • the touch position information acquisition unit 108 acquires position information that changes as follows. (1) The person 301 multi-touches the screen 303a of the touch panel display 303. Next, (2) the positions where the person 301 multi-touches the screen 303a of the touch panel display 303 is changed in a direction away from each other. Next, (3) the person 301 leaves the screen 303a of the touch panel display 303.
  • the stiffness parameter information generation unit 111 generates a stiffness parameter to be changed as follows. (1) Based on the force Fz pressed in the direction perpendicular to the surface of the screen 303a of the touch panel display 303 acquired by the touch force information acquisition unit 109, the torque Mx about the direction horizontal to the surface of the screen 303a of the touch panel display 303, My is calculated by the torque calculator 110. Next, based on the calculated torque, the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 so that the position and orientation of the touch panel display 303 do not change.
  • Torque calculator 110 calculates torques Mx and My whose axes are parallel to the surface of 303a and torques Mz whose axes are perpendicular to the surface of screen 303a of touch panel display 303. Based on the calculated torque, the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 so that the position and orientation of the touch panel display 303 do not change. Next, (3) the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 when no force is applied to the touch panel display 303.
  • the reduction operation is an operation performed by the person 301 when reducing a photograph, for example, when viewing the photograph.
  • the operation is an operation of multi-touching the display unit 303a of the touch panel display 303 with a plurality of fingers 701 and the like so that the multi-touched positions are traced in directions approaching each other in two directions. That is, for the position information of the reduction operation, first, a plurality of fingers 701 and the like are multitouched on the screen 303a (the position where the plurality of fingers 701 and the like are multitouched does not move on the screen 303a), and then a plurality of information is displayed on the screen 303a.
  • the position information changes such that each position where the finger 701 and the like are multi-touched changes in a direction approaching each other, and then the finger 701 and the like are separated from the screen 303a.
  • FIG. 15A and FIG. 15B two positions are touched from when a plurality of fingers 701 or the like of a human hand touch the display portion 303a of the touch panel display 303 (FIG. 15A). It is an operation of moving in a direction approaching each other while maintaining the state.
  • the reduction operation is an operation in which two fingers 701 are multi-touched.
  • the touch position information acquired by the touch position information acquisition unit 108 the touch position information related to the position A is shown in FIG. 15C, and the touch position information related to the position B is shown in FIG. 15D.
  • the horizontal axis represents time (ms), and the vertical axis represents position (mm).
  • Reference sign x represents a change in the position of the x coordinate
  • reference sign y represents a change in the y coordinate. It can be seen that the touch position is moving in both the x and y coordinates.
  • An explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 15D. Touching the position A and the position B from 0 ms to 1000 ms, and from the position A to the position O and from the position B to the position O from 1000 ms to 2000 ms. And indicate that the tracing operation is being performed.
  • the touch force information regarding the position A is shown in FIG.
  • FIG. 15F shows an explanatory diagram of the operation state of the person 301.
  • the force Fz is added by 1.0 N from 0 ms to 1000 ms, and the forces Fx and Fy are -0.5 N (position A) from 1000 ms to 2000 ms. Alternatively, 0.5N (position B) is applied, and the force Fz is 0.5N.
  • the rigidity parameter information generation unit 111 increases the feedback gain of the motor 102M that controls the x, y, and z directions.
  • the stiffness parameter information generation unit 111 changes the stiffness so that the amount of movement of the touch panel display 303 is within 5 mm when a force of 2.0 N is applied in the x, y, and z directions.
  • the stiffness parameter information generation unit 111 obtains the stiffness coefficient as information as shown in FIG. 15G for the translation direction of the position A and as shown in FIG. 15H for the translation direction of the position B.
  • an explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 15G.
  • FIG. 15G shows the stiffness parameter information generated by the stiffness parameter information generation unit 111 for the position A.
  • An explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 15G.
  • the stiffness coefficient is 0.2 N / mm from 1000 ms to 2000 ms, and for the + z direction axis, the stiffness coefficient is 0.4 N / mm from 0 ms to 1000 ms.
  • the stiffness coefficient is 0.2 N / mm over 1000 ms to 2000 ms.
  • the other shaft has a stiffness coefficient of 0.05 N / mm.
  • FIG. 14H shows the stiffness parameter information generated by the stiffness parameter information generation unit 111 for the position B.
  • An explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 14H.
  • the stiffness coefficient is 0.2 N / mm from 1000 ms to 2000 ms
  • the stiffness coefficient is 0.4 N / mm from 0 ms to 1000 ms.
  • the coefficient is 0.2 N / mm over 1000 ms to 2000 ms.
  • the other shaft has a stiffness coefficient of 0.05 N / mm.
  • the rotation direction is described above based on the touch position information (FIGS. 15C and 15D) acquired by the touch position information acquisition unit 108 and the touch force information (FIGS. 15E and 15F) acquired by the touch force information acquisition unit 109.
  • the torque is calculated by the torque calculation unit 110 by the method.
  • the stiffness parameter information generation unit is also in the rx-axis, ry-axis, and rz-axis rotation directions. 111 is set to increase the rigidity.
  • the rotation direction of the position A is shown in FIG. 15I
  • the rotation direction of the position B is shown in FIG.
  • an explanatory diagram of the operation state of the person 301 is shown below the graph of FIG. 15J. It can be seen that the stiffness coefficient decreases monotonously from 2000 Nmm / rad from 1000 ms to 2000 ms on the ⁇ rx direction axis and the + ry direction axis in FIG. 15I. It can be seen that the stiffness coefficient decreases monotonously from 2000 Nmm / rad over 1000 ms to 2000 ms in the + rx direction axis and the ⁇ ry direction axis in FIG. 15J.
  • the other shaft has a stiffness coefficient of 500 Nmm / rad.
  • the arm control device 103 operates as follows.
  • the touch force information acquisition unit 109 acquires force information that changes as follows. (1) A force Fz that pushes in a direction perpendicular to the surface of the screen 303a of the touch panel display 303 is applied. Next, (2) a force Fz that is pressed in a direction perpendicular to the surface of the screen 303a of the touch panel display 303 and frictional forces Fx and Fy that are applied in a horizontal direction to the surface of the screen 303a of the touch panel display 303 are applied. Next, (3) no force is applied to the touch panel display 303.
  • the touch position information acquisition unit 108 acquires position information that changes as follows. (1) The person 301 multi-touches the screen 303a of the touch panel display 303. Next, (2) the positions where the person 301 multi-touches the screen 303a of the touch panel display 303 changes in a direction approaching each other. Next, (3) the person 301 leaves the screen 303a of the touch panel display 303.
  • the stiffness parameter information generation unit 111 generates a stiffness parameter to be changed as follows. (1) Based on the force Fz that is pressed in the direction perpendicular to the surface of the screen 303a of the touch panel display 303, the torque calculation unit 110 calculates torques Mx and My about the direction horizontal to the surface of the screen 303a of the touch panel display 303. To do. Next, based on the calculated torque, the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 so that the position and orientation of the touch panel display 303 do not change.
  • Torque calculator 110 calculates torques Mx and My whose axes are parallel to the surface of screen 303a and torques Mz whose axes are perpendicular to the surface of screen 303a of touch panel display 303.
  • the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 so that the position and orientation of the touch panel display 303 do not change.
  • the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 when no force is applied to the touch panel display 303.
  • the keyboard input operation is an operation performed by the person 301 when performing keyboard input, for example, when creating a sentence.
  • the operation is performed continuously by the touch operation described above. That is, the position information of the keyboard input operation is that the finger 701 or the like first touches the screen 303a (the position where the finger 701 touches the screen 303a does not move), and then the finger 701 or the like leaves the screen 303a. As described above, the position information is repeatedly changed a plurality of times. In particular, as an example, as shown in FIG. 16A, description will be made using content for creating a sentence. As shown in FIG. 16B, the touch operation is continuously performed. The difference from the touch operation is that the touch operation is continuously performed.
  • FIG. 16C shows an example of touch position information acquired when a keyboard operation is performed.
  • the horizontal axis represents time (ms), and the vertical axis represents position (mm).
  • Reference sign x represents a change in the position of coordinate x
  • reference sign y represents a change in coordinate y. It can be seen that keyboard input is performed three times.
  • Touch force information is shown in FIG. 16D.
  • the horizontal axis represents time (ms), and the vertical axis represents force (N).
  • Reference sign Fz represents a change in force Fz. Regarding the force Fz, it can be seen that 2.0N is added for each of the three keyboard inputs.
  • the stiffness parameter information generation unit 111 sets a high stiffness based on the acquired touch force information (FIG. 16D). Since a force of 1.0 N is applied in the z direction, the feedback gain of the motor 102M that controls the arm 102 is increased by the stiffness parameter information generation unit 111 so as to increase the stiffness in the z direction by the stiffness parameter information generation unit 111.
  • the rigidity is increased by the stiffness parameter information generation unit 111 by increasing the feedback gain of the motor 102M that controls the z direction by the stiffness parameter information generation unit 111.
  • the stiffness parameter information generated by the stiffness parameter information generation unit 111 is shown in FIG. 16E.
  • the stiffness coefficient in the + z-axis direction is 0.4 N / mm, and when there is no touch input, the stiffness coefficient is 0.05 N / mm.
  • the other shaft has a stiffness coefficient of 0.05 N / mm.
  • torque is calculated by the above-described method based on the touch position information (FIG. 16C) acquired by the touch position information acquisition unit 108 and the touch force information (FIG. 16D) acquired by the touch force information acquisition unit 109. Derived by the unit 110.
  • the stiffness parameter information generation unit 111 sets the stiffness to be high enough to withstand a torque twice the magnitude of the torque.
  • the + rx direction is shown in FIG. 16F and the + ry direction is shown in FIG. 16G.
  • the stiffness coefficient On the axis in the + rx direction, the stiffness coefficient is 2000 Nmm / rad at the first and third inputs, and the stiffness coefficient is 4000 Nmm / rad at the second input. On the axis in the + ry direction, the stiffness coefficient is 4000 Nmm / rad at the first and third inputs, and the stiffness coefficient is 500 Nmm / rad at the second input.
  • the other shaft has a stiffness coefficient of 500 Nmm / rad.
  • the arm control device 103 operates as follows.
  • the touch force information acquisition unit 109 acquires force information that changes as follows. (1) A pressing force is applied in a direction perpendicular to the surface of the screen 303a of the touch panel display 303. Next, (2) no force is applied to the screen 303 a of the touch panel display 303.
  • the touch position information acquisition unit 108 acquires position information that repeatedly changes a plurality of times as follows. (1) The person 301 touches the screen 303a of the touch panel display 303. Next, (2) the person 301 leaves the screen 303 a of the touch panel display 303.
  • the stiffness parameter information generation unit 111 generates a stiffness parameter to be changed as follows. (1) Based on the force Fz that is pressed in the direction perpendicular to the surface of the screen 303a of the touch panel display 303, the torque calculator 110 calculates torques Mx and My about the horizontal direction on the surface of the screen 303a of the touch panel display 303. . Next, based on the calculated torque, the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 so that the position and orientation of the touch panel display 303 do not change. Next, (2) the stiffness parameter information generation unit 111 calculates (generates) the stiffness parameter of the arm 102 when no force is applied to the screen 303 a of the touch panel display 303.
  • the arm control device 103 operates as follows.
  • the touch force information acquisition unit 109 acquires force information regarding the pressing force Fz applied in a direction perpendicular to the surface of the screen 303a of the touch panel display 303 and force information regarding when no force is applied to the screen 303a of the touch panel display 303.
  • the touch position information acquisition unit 108 acquires position information when the person 301 repeatedly touches the screen 303a of the touch panel display 303 a plurality of times.
  • the stiffness parameter information generation unit 111 generates a stiffness parameter to be changed as follows. (1) The direction horizontal to the surface of the screen 303a of the touch panel display 303 from the force information regarding the pressing force Fz applied in the direction perpendicular to the surface of the screen 303a of the touch panel display 303 and the position information acquired by the touch position information acquisition unit 108. Torques Mx and My are calculated by the torque calculation unit 110, and the stiffness parameter information generation unit calculates the arm stiffness parameters so that the position and orientation of the touch panel display do not change based on the calculated torque ( (2) When no force is applied to the touch panel display 303, the torque is not calculated by the torque calculator 110, and the stiffness parameter of the arm 102 is calculated (generated) by the stiffness parameter information generator 111.
  • FIG. 17A shows moving image content of rehabilitation video.
  • an operation such as a play / stop button or a slider is performed on the portion surrounded by the reference symbol A.
  • FIG. 17B shows contents for inputting physical condition such as weight and blood pressure.
  • a selection or input operation is performed on a portion to be selected or input, which is surrounded by reference numerals B and C.
  • the stiffness parameter information generation unit 111 outputs the stiffness parameter information and time information generated by the stiffness parameter information generation unit 111 to the arm control unit 112.
  • the arm control unit 112 acquires operation information and time information from the arm operation information generation unit 107. In addition, the arm control unit 112 acquires stiffness parameter information and time information from the stiffness parameter information generation unit 111.
  • the operation information input to the arm control unit 112 is updated at a certain time interval (for example, every 1 ms) using a timer built in the input / output IF 113.
  • the control unit 112 outputs the input / output IF 113 to control the operation of the arm 102 via the motor driver 114.
  • the arm control unit 112 As a second function of the arm control unit 112, based on the stiffness parameter information input to the arm control unit 112, using a timer built in the input / output IF 113, every certain time (for example, every 1ms) In addition, the arm controller 112 outputs to the input / output IF 113, and the arm controller 112 controls the rigidity of the hand portion (attachment portion of the touch panel display 303) 102 e of the arm 102. When the stiffness parameter information is not input to the arm control unit 112, the arm control unit 112 controls the stiffness to be low so that the person 301 can move the arm 102 with a light force. Here, the arm control unit 112 always controls the rigidity of the touch panel display 303 with respect to the display unit 303a.
  • the arm control unit 112 controls the rigidity of the arm 102 based on the coordinate system of the display unit 303 a of the touch panel display 303.
  • the rigidity By controlling the rigidity by the arm control unit 112, the touch operation of the person 301 is facilitated. That is, when the person 301 operates the touch panel display, the arm control unit 112 controls the rigidity so that the position and posture of the touch panel display 303 do not change.
  • any control method such as impedance control or damping control can be used.
  • the output force and torque are multiplied by gain, and the position and posture of the arm 102 are controlled by the arm control unit 112.
  • the arm control unit 112 can adjust the rigidity by adjusting the magnitude of the gain value by the arm control unit 112.
  • the arm control unit 112 may use impedance control or damping control.
  • the arm control unit 112 can combine a plurality of control methods such as using the position control in the arm control unit 112 so that the touch panel display 303 stays in that position.
  • the input information acquisition unit 117 acquires input information from the input / output IF 113.
  • the input information indicates information that the person 301 inputs to the input information acquisition unit 117 using the input / output IF 113.
  • input information it represents power on / off switching information of the touch panel display 303.
  • Skill level information is shown as another example of input information.
  • the skill level information represents information on the usage history of the person 301 using the arm control device 103 according to the first embodiment. For example, the person 301 selects from three options “0 to 1 month”, “2 to 5 months”, and “6 months to”, and the person 301 uses the input / output IF 113 to input the skill level information. Input to the acquisition unit 117.
  • the stiffness parameter information generation unit 111 adjusts the stiffness parameter information based on the skill level information input to the input information acquisition unit 117.
  • the stiffness parameter information generation unit 111 stores the number of times the touch panel display 303 is turned on or the number of times the touch panel display 303 is touched. It is also possible to estimate skill level information at 111.
  • the input / output IF 113 outputs the operation information input from the arm control unit 112 to the motor driver 114. Further, the input / output IF 113 obtains the position information and the posture information of the arm 102 from the input value acquired by the encoder 102E of each axis of the arm 102 by the arithmetic unit inside the encoder, and then inputs the input / output IF 113 to the input / output IF 113.
  • the position information and posture information input to the input / output IF 113 and time information from the timer built in the input / output IF 113 are output from the input / output IF 113 to the motion information acquisition unit 106.
  • Touch position information is detected from the touch sensor 115, and the detected touch position information and time information from a timer built in the input / output IF 113 are output to the touch position information acquisition unit 108.
  • Touch force information is detected from the force sensor 116, and the detected touch force information and time information from a timer built in the input / output IF 113 are output to the touch force information acquisition unit 109.
  • the input / output IF 113 includes an input unit 113A and an output unit 113B as shown in FIG.
  • the input unit 113A is an input IF.
  • the output unit 113B is an output IF, and is used when the acquired information or the like is output to the outside or displayed on a display or the like.
  • the output unit 113B is configured by a display, a speaker, a lamp, or the like, and can also output the acquired information or the like by external display, sound, lighting points, or the like.
  • the motor driver 114 outputs a command value to the motor 102M of each axis of the arm 102 to the arm 102 in order to control the arm 102 based on the operation information and the stiffness parameter information acquired from the input / output IF 113.
  • the operation information of the arm 102 is obtained at a certain fixed time (for example, every 1 ms) by an arithmetic unit inside the encoder using each encoder 102E of the arm 102. Obtained and output to the input / output IF 113. Further, the motor 102M of each axis of the arm 102 is controlled in accordance with a command value from the motor driver 114.
  • each joint portion 102b to which the arm members 102a of the arm 102 are coupled to each other has a rotational drive device such as a motor 102M for driving the joint portion and a rotational phase angle of the rotation shaft of the motor 102M (that is, An encoder 102E (actually disposed inside each joint portion 102b of the arm 102) that detects position information and posture information by an internal calculation unit and outputs the position information and posture information. ing.
  • the motor 102M (actually disposed inside each joint portion 102b of the arm 102) includes a pair of arm members 102a (for example, a rotation-side arm member 102a and each of the joint portions 102b).
  • One of the support side arm members 102a) that supports the rotation side arm member 102a is provided on one arm member 102a, and is driven and controlled by the motor driver 115.
  • the rotation shaft of the motor 102M provided in one arm member 102a of each joint portion 102b is connected to the other arm member 102a of each joint portion 102b, and the other arm is rotated by rotating the rotation shaft forward and backward.
  • the member 102a is rotatable around each axis with respect to the one arm member 102a.
  • the arm 102 can be controlled to a desired position and posture by the motor 102M and the encoder 102E.
  • a multi-link manipulator with 6 degrees of freedom having 6 joints is used.
  • the coordinate system of the hand portion 102e of the arm 102 is the same coordinate system as that of the touch panel display 303 in accordance with the coordinate system shown in FIG. Note that the number of joints and the degree of freedom of the arm 102 are not limited to the number of the first embodiment, and any number of 1 or more is possible.
  • FIG. 20A is a time point when the touch panel display 303 is separated from the person 301.
  • the power supply of the touch panel display 303 is off, and the rigidity parameter information generation unit 111 sets both the rigidity of the arm 102 to be low. This is because the stiffness of the arm 102 is set to a low initial value by the stiffness parameter information generation unit 111.
  • FIG. 20B shows a point in time when the person 301 has the side of the touch panel display 303 and moves the touch panel display 303 to a position that is easy to see. Since the stiffness of the arm 102 is set to be low for both axes by the stiffness parameter information generation unit 111, the person 301 can move the touch panel display 303 to a position where it can be easily seen by a light force.
  • FIG. 20C shows a time when the person 301 has moved the touch panel display 303 to a position where it can be easily seen.
  • FIG. 20D shows a point in time when the person 301 turns on the power of the touch panel display 303. At this time, the content for reading the text is displayed on the display unit 303a.
  • FIG. 20E shows the time when the person 301 touches the display unit 303a of the touch panel display 303.
  • the position touched by the person 301 and the touched force are detected by the touch sensor 115 and the force sensor 116, respectively, and the force and torque acting on the touch panel display 303 are derived by the torque calculation unit 110.
  • the rigidity of the shaft to which the derived force and torque are applied is set higher by the rigidity parameter information generation unit 111.
  • the stiffness parameter information generation unit 111 sets the stiffness to be low.
  • FIG. 20F shows a point in time when the person 301 performs a page turning operation on the display unit 303a of the touch panel display 303. Based on the touch position information and the touch force information, the stiffness is changed by the stiffness parameter information generation unit 111, and the stiffness is set higher by the stiffness parameter information generation unit 111 according to the touch operation of the person 301.
  • FIG. 20G shows a time point when the person 301 is reading the displayed text without touching the touch panel display 303. At this time, since the person 301 is not touching the touch panel display 303, the rigidity is set to be low by the rigidity parameter information generation unit 111.
  • the time when the rigidity is reduced by the rigidity parameter information generation unit 111 can be any method such as when a certain time has elapsed after setting the rigidity high.
  • the stiffness of the arm 102 is adjusted by the stiffness parameter information generation unit 111 according to the position and force with which the person 301 touches the display unit 303a, and the person 301 can easily operate. Specifically, the touch operation is easy when the person 301 is touching the display unit 303a, and the touch panel display 303 is easy to move when the person 301 is not touching.
  • FIG. 21 shows an example of the operation of the control device 103 of the arm 102 of the first embodiment.
  • step S2101 the person 301 moves the touch panel display 303 to a position and posture easy to see, and proceeds to step S2102.
  • step S2102 the person 301 browses the content displayed on the touch panel display 303, and proceeds to step S2103.
  • step S2103 the person 301 performs a touch operation on the display unit 303a of the touch panel display 303, and the process proceeds to step S2104.
  • step S2104 the arm control unit 112 controls the rigidity of the arm 102 via the input / output IF 113 and the motor driver 114 based on the force information and the position information when the person 301 performs a touch operation. .
  • the touch panel display 303 can be touched without moving.
  • FIG. 22 explains in detail the arm rigidity control in step S2104 of the flowchart shown in FIG.
  • step S2201 the touch position information acquisition unit 108 acquires touch position information
  • the touch force information acquisition unit 109 acquires touch force information
  • the process proceeds to step S2202.
  • step S2202 the torque calculation unit 110 calculates the torque applied to the touch panel display 303 from the touch position information and touch force information acquired from the touch position information acquisition unit 108 and the touch force information acquisition unit 109, and step S2203. Proceed to
  • step S2203 the stiffness parameter information generation unit 111 generates stiffness parameter information based on the touch force information and torque information acquired from the touch force information acquisition unit 109 and the torque calculation unit 110, and the process proceeds to step S2204. .
  • step S2204 the arm control unit 112 controls the stiffness of the arm 102 via the input / output IF 113 and the motor driver 114 in accordance with the stiffness parameter information acquired from the stiffness parameter information generation unit 111.
  • FIG. 23 is a block diagram of the robot 101B in the second embodiment of the present invention.
  • the arm 102, the peripheral device 105, the motion information acquisition unit 106 of the control device main body 104B of the control device 103B, the arm motion information generation unit 107, and the touch position information Since the acquisition unit 108, the touch force information acquisition unit 109, and the arm control unit 112 are the same as those in the first embodiment, the same reference numerals as those in the first embodiment are used, and the description of the common parts is omitted. Only the different parts will be described in detail below.
  • the touch force displacement calculation unit 2301 acquires force information from the touch force information acquisition unit 109, and calculates a displacement of force from the acquired force information. Specifically, the touch force displacement calculation unit 2301 acquires touch force information and time information from the touch force information acquisition unit 109. The touch force displacement calculation unit 2301 generates touch force displacement information based on the acquired touch force information and time information.
  • the touch force displacement information represents displacement of touch force information per unit time (for example, 1 ms).
  • the touch force information represented in FIG. 24A is acquired by the touch force displacement calculator 2301
  • the displacement of the touch force information per unit time is calculated by the touch force displacement calculator 2301
  • the touch represented by FIG. Force displacement information is generated by the touch force displacement calculator 2301.
  • the touch force displacement calculation unit 2301 outputs the touch force displacement information and time information generated by the touch force displacement calculation unit 2301 to the stiffness parameter information generation unit 2302.
  • the stiffness parameter information generation unit 2302 is provided in the control device main body 104B instead of the stiffness parameter information generation unit 111 of the first embodiment, and in addition to the function of the stiffness parameter information generation unit 111 in the first embodiment, the touch force According to the touch force displacement information acquired from the displacement calculation unit 2301, a function of generating rigidity parameter information for changing the rigidity is provided. In the following, additional functions will be described.
  • the stiffness parameter information generation unit 2302 determines the position and orientation of the arm 102 so that the position and posture of the touch panel display 303 change when the displacement of the force exceeds a predetermined threshold. A stiffness parameter is generated. If the displacement of the force does not exceed a predetermined threshold, the stiffness parameter of the arm 102 is generated so that the position and posture of the touch panel display 303 do not change. Specifically, the stiffness parameter information generation unit 2302 acquires touch force displacement information and time information from the touch force displacement calculation unit 2301.
  • the stiffness parameter information generation unit 2302 Based on the acquired touch force displacement information, the stiffness parameter information generation unit 2302 derives displacements of force (Fx, Fy, Fz) and torque (Mx, My, Mz) when the person 301 contacts the touch panel display 303. .
  • the stiffness parameter information generation unit 2302 compares the absolute value of the derived force and torque displacement and the threshold value.
  • the magnitude of the threshold is, for example, 10.0 N / ms for a displacement of force (Fx, Fy, Fz), 1000.0 Nmm / ms for a displacement of torque (Mx, My, Mz), etc. Then, the person 301 inputs the stiffness parameter information generation unit 2302 using the input / output IF 113.
  • the threshold is tuned by the user using the input / output IF 113 based on the threshold provided by the manufacturer of the robot arm control device. If the stiffness parameter information generation unit 2302 determines that the derived force and torque displacement is greater than the threshold, the stiffness parameter information generation unit 2302 does not set the stiffness of the shaft force and torque high.
  • the rigidity of the shaft exceeding the threshold is set low by the rigidity parameter information generation unit 2302, but the rigidity of all the axes can be set low by the rigidity parameter information generation unit 2302.
  • the stiffness parameter information generation unit 2302 determines that the person 301 has collided with the touch panel display 303 as a result of the determination by the stiffness parameter information generation unit 2302 (if the displacement of force and torque is greater than the threshold, the stiffness parameter information generation unit 2302 If the determination is made), the rigidity is not set high by the stiffness parameter information generation unit 2302, but is set low by the stiffness parameter information generation unit 2302, thereby increasing safety.
  • step S2201 the touch position information acquisition unit 108 acquires touch position information
  • the touch force information acquisition unit 109 acquires touch force information
  • the process proceeds to step S2202.
  • step S2202 the torque calculation unit 110 calculates the torque applied to the touch panel display 303 from the touch position information and touch force information acquired by the touch position information acquisition unit 108 and the touch force information acquisition unit 109, and the process proceeds to step S2501. move on.
  • step S2501 the touch force displacement calculation unit 2301 calculates touch force displacement information from the touch force information acquired from the touch force information acquisition unit 109, and the process proceeds to step S2502.
  • step S2502 the stiffness parameter generation unit 2302 detects the touch of the person 301 on the touch panel display 303 from the touch force displacement information acquired from the touch force displacement calculation unit 2301, and the process proceeds to step S2203.
  • step S2203 the stiffness parameter information generation unit 2302 generates stiffness parameter information based on the touch force information and torque information acquired from the touch force information acquisition unit 109 and the torque calculation unit 110, and the process proceeds to step S2204. .
  • step S2204 the arm control unit 112 controls the stiffness of the arm 102 via the input / output IF 113 and the motor driver 114 in accordance with the stiffness parameter information acquired from the stiffness parameter information generation unit 2302.
  • the stiffness parameter information generation unit 2302 determines whether the person 301 is touching or colliding with the display unit 303a. If the stiffness parameter information generation unit 2302 determines that the arm has collided with 303a, safety can be improved by setting the stiffness of the arm 102 low.
  • FIG. 26 shows a block diagram of the robot 101C in the third embodiment of the present invention.
  • the arm 102, the peripheral device 105, the motion information acquisition unit 106 of the control device main body 104C of the control device 103C, the arm motion information generation unit 107, and the touch position information Since the acquisition unit 108, the touch force information acquisition unit 109, and the arm control unit 112 are the same as those in the first embodiment, the same reference numerals as those in the first embodiment are used, and the description of the common parts is omitted. Only the different parts will be described in detail below.
  • the touch area calculation unit 2601 acquires position information from the touch position information acquisition unit 108, and calculates a touch area from the acquired position information. Specifically, the touch area calculation unit 2601 acquires touch position information and time information from the touch position information acquisition unit 108. The touch area calculation unit 2601 generates touch area information based on the acquired touch position information and time information. The touch area information represents an area where the person 301 contacts the touch panel display 303.
  • a method of calculating touch area information in the touch area calculation unit 2601 will be described.
  • a touch panel display 303 of a display unit 303a of 15 mm ⁇ 10 mm as shown in FIG. 27A As an example, description will be made using a touch panel display 303 of a display unit 303a of 15 mm ⁇ 10 mm as shown in FIG. 27A.
  • this touch panel display 303 As an example, it is assumed that there is a contact as shown in FIG. 27B.
  • black squares indicate contact (touch position information is 1), and white squares indicate no contact (touch position information is 0). Therefore, the touch area calculation unit 2601 derives the touch area information by calculating the total of the areas (areas) that have been touched. In FIG. 27B, since the black cell is 22 cells, the touch area information is 22 mm 2 .
  • the touch area calculation unit 2601 calculates the largest area of 14 mm 2 as touch area information.
  • the touch area calculation unit 2601 outputs the calculated touch area information and time information to the stiffness parameter information generation unit 2602.
  • the stiffness parameter information generation unit 2602 is provided in the control device main body unit 104C instead of the stiffness parameter information generation unit 111 of the first embodiment, and in addition to the function of the stiffness parameter information generation unit 111 in the first embodiment, the touch area In accordance with the touch area information acquired from the calculation unit 2601, a function of generating rigidity parameter information for changing the rigidity is provided. In the following, additional functions will be described.
  • the stiffness parameter information generation unit 2602 Based on the touch area acquired from the touch area calculation unit 2601, the stiffness parameter information generation unit 2602 sets the stiffness parameter of the arm 102 so that the position and orientation of the touch panel display 303 change when the touch area exceeds a predetermined threshold. When the touch area does not exceed a predetermined threshold value, the stiffness parameter of the arm 102 is generated so that the position and posture of the touch panel display 303 do not change. Specifically, the stiffness parameter information generation unit 2602 acquires touch area information and time information from the touch area calculation unit 2601. The stiffness parameter information generation unit 2602 compares the acquired touch area information with a threshold value.
  • the size of the threshold is, for example, 100 mm 2 or the like, and the person 301 inputs the stiffness parameter information generation unit 2602 using the input / output IF 113.
  • the threshold value is tuned by the user using the input / output IF 113 based on the threshold value provided by the manufacturer of the robot arm control device. If the stiffness parameter information generation unit 2602 determines that the acquired touch area information is greater than the threshold, the stiffness parameter information generation unit 2602 does not set the stiffness of all axes high.
  • the stiffness parameter information generation unit 2602 determines that the touch area information exceeds the threshold, the stiffness parameter information generation unit 2602 uses only the axis where the magnitude of the force and torque applied to the touch panel display 303 exceeds the threshold. It is also possible to set the rigidity low.
  • the magnitude of the threshold is, for example, 10.0 N for force and 1000 Nmm for torque, and the person 301 can input to the stiffness parameter information generation unit 2602 using the input / output IF 113.
  • the stiffness parameter information generation unit 2602 determines whether the person 301 touches the touch panel display 303 or collides with the touch area and the threshold value. If the stiffness parameter information generation unit 2602 determines that the collision has occurred as a result of the determination by the stiffness parameter information generation unit 2602 (when the stiffness parameter information generation unit 2602 determines that the touch area is larger than the threshold), the stiffness parameter information generation The portion 2602 increases safety by not setting the rigidity high.
  • the touch area calculation unit 2601 calculates the time displacement of the touch area, and when the time displacement is large, the stiffness is set low by the stiffness parameter information generation unit 2602, When the time displacement is small, the stiffness can be set high by the stiffness parameter information generation unit 2602. By doing so, the stiffness is reduced by the stiffness parameter information generation unit 2602 at the time of contact, and when the touch panel display 303 is supported by the hand that does not perform the touch operation, the stiffness is obtained by the stiffness parameter information generation unit 2602. Can be set high.
  • the touch panel display 303 is supported by a hand 2801 that is not a hand 701 performing a touch operation as shown in FIG. 28A, the touch area indicated by reference symbol B in FIG. 28B is large, but the time displacement is small.
  • the parameter information generation unit 2602 sets a high rigidity. By setting the rigidity to be high by the rigidity parameter information generation unit 2602, the touch panel display 303 does not move in the direction in which the touch panel display 303 is supported, and the touch operation is easy to perform.
  • the touch area indicated by reference symbol B in FIG. 28D is large, but the time displacement is small.
  • the parameter information generation unit 2602 sets a high rigidity. By setting the rigidity to be high by the rigidity parameter information generation unit 2602, the touch panel display 303 does not move in the direction in which the touch panel display 303 is supported, and the touch operation is easy to perform.
  • step S2201 the touch position information acquisition unit 108 acquires touch position information
  • the touch force information acquisition unit 109 acquires touch force information
  • the process proceeds to step S2202.
  • step S2202 the torque calculation unit 110 calculates the torque applied to the touch panel display 303 from the touch position information and touch force information acquired by the touch position information acquisition unit 108 and the touch force information acquisition unit 109, and the process proceeds to step S2901. move on.
  • step S2901 the touch area calculation unit 2601 calculates touch area information from the touch position information acquired from the touch force information acquisition unit 109, and the process proceeds to step S2902.
  • step S2902 the stiffness parameter generation unit 2602 detects the touch of the person 301 on the touch panel display 303 from the touch area information acquired from the touch area calculation unit 2601, and the process proceeds to step S2203.
  • step S2203 the stiffness parameter information generation unit 111 generates stiffness parameter information based on the touch force information and torque information acquired from the touch force information acquisition unit 109 and the torque calculation unit 110, and the process proceeds to step S2204. .
  • step S2204 the arm control unit 112 controls the stiffness of the arm 102 via the input / output IF 113 and the motor driver 114 in accordance with the stiffness parameter information acquired from the stiffness parameter information generation unit 111.
  • the stiffness parameter information generation unit 2602 determines whether the person 301 is touching or colliding with the display unit 303a, and the person 301 displays the display unit 303a.
  • the stiffness parameter information generation unit 2602 determines that the vehicle has collided with the vehicle, the stiffness can be improved by setting the stiffness to be low with the stiffness parameter information generation unit 111.
  • the rigidity of the arm 102 is set high based on force information and position information when the touch panel display 303 is touched.
  • FIG. 32 shows a block diagram of the robot 101D in the fourth embodiment of the present invention.
  • the touch determination unit 3201 acquires touch position information and time information from the touch position information acquisition unit 108, acquires touch force information and time information from the touch force information acquisition unit 109, and the person 301 touches the touch panel display 303. Determine whether you are doing.
  • a determination method in the touch determination unit 3201 will be described. Using the touch position information from the touch position information acquisition unit 108 and the touch force information from the touch force information acquisition unit 109, the touch determination unit 3201 determines the presence or absence of a touch. In the touch position information, contact (information whose position information is 1) is detected by at least one position in the touch position information, and the force (value of the force sensor) is detected at at least one position in the touch force information. The touch determination unit 3201 detects that there is a touch only when the touch force information acquisition unit 109 detects information that is not 0). In other states, the touch determination unit 3201 determines that there is no touch.
  • the touch position information acquisition unit 108 detects that the touch position information is not touched at all positions (information where the position information is 0), and the touch force information has a force at at least one position ( If the touch force information acquisition unit 109 detects that the force sensor value is not 0, the touch determination unit 3201 determines that there is no touch.
  • the person 301 is applying force to the display 303 but is not in contact with the screen (display unit 303a). That is, the person 301 has the edge of the display 303.
  • the touch determination unit 3201 determines that there is a touch, the touch detection information is set to 1, and when it is determined that there is no touch, the touch detection information is set to 0 and is generated by the touch determination unit 3201.
  • the touch determination unit 3201 outputs the touch detection information and time information generated by the touch determination unit 3201 to the stiffness parameter information generation unit 3202.
  • the stiffness parameter information generation unit 3202 is provided in the control device main body 104D instead of the stiffness parameter information generation unit 111 of the first embodiment, and in addition to the function of the stiffness parameter information generation unit 111 in the first embodiment, touch determination Rigidity parameter information is generated based on the touch detection information acquired from the unit 3201.
  • the stiffness parameter information generation unit 3202 When the touch detection information acquired from the touch determination unit 3201 by the stiffness parameter information generation unit 3202 is 1 (touch is present), the stiffness parameter information is set so that the stiffness is set high by the same method as in the first embodiment. Generated by the generation unit 3202. When the touch detection information acquired by the stiffness parameter information generation unit 3202 from the touch determination unit 3201 is 0 (no touch), the stiffness parameter information generation unit 3202 generates stiffness parameter information so as not to change the stiffness.
  • the stiffness parameter information generation unit 3202 by setting the stiffness to be high by the stiffness parameter information generation unit 3202 only when the touch determination unit 3201 determines that there is a touch, when the person 301 touches the touch panel display 303, the touch panel display 303 is moved. You can touch without touching.
  • the stiffness parameter information generation unit 3202 does not change the stiffness. Therefore, when the person 301 holds the edge of the touch panel display 303, the touch panel display 303 is light. Can be moved by force.
  • step S2201 the touch position information acquisition unit 108 acquires touch position information
  • the touch force information acquisition unit 109 acquires touch force information
  • the process proceeds to step S2202.
  • step S2202 the torque calculation unit 110 acquires touch position information and touch force information acquired by the touch position information acquisition unit 108 and the touch force information unit 109, respectively, and torque applied to the touch panel display 303 from these information. And the calculated torque information is output to the stiffness parameter information generation unit 3202, and the process proceeds to step S3301.
  • step S3301 the touch determination unit 3201 acquires the touch position information and the touch force information acquired by the touch position information acquisition unit 108 and the touch force information unit 109, respectively, and whether there is a touch based on these information. It is determined whether or not, and information of the determination result is output to the stiffness parameter information generation unit 3202. If the touch determination unit 3201 determines that there is a touch, the process proceeds to step S3302, and if the touch determination unit 3201 determines that there is no touch, the process proceeds to step S3303.
  • step S3302 the stiffness parameter information generation unit 3202 generates stiffness parameter information so that the stiffness is set higher based on the torque information acquired from the torque calculation unit 110 and the determination result in the touch determination unit 3201. Then, the process proceeds to step S2204.
  • step S3303 the stiffness parameter information generation unit 3202 generates stiffness parameter information so as not to change the stiffness based on the torque information acquired from the torque calculation unit 110 and the determination result in the touch determination unit 3201. The process proceeds to step S2204.
  • step S2204 the arm control unit 112 controls the stiffness of the arm 102 via the input / output IF 113 and the motor driver 114 in accordance with the stiffness parameter information acquired from the stiffness parameter information generation unit 3202.
  • step S2202 may be performed simultaneously with step 3301.
  • touch panel display 303 and the arm 102 are integrated
  • a form in which the touch panel display 303 is detachable from the arm 102 may be employed.
  • such a form can be used when the touch panel display 303 is a portable device with a touch panel display such as a tablet or a smartphone.
  • the stiffness adjustment amount it is desirable to set the stiffness adjustment amount within a range where the movement of the touch panel display 303 is sufficiently small when the person 301 interacts with the touch panel display 303. .
  • a collision is detected and the rigidity is set low.
  • the stiffness parameter information generation unit Measures by the operation of the touch panel display 303 such that the rigidity is set high by 2302 and 2602, and the rigidity is set low by the rigidity parameter information generation units 2302 and 2602 when the collision and rigidity parameter information generation units 2302 and 2602 determine. Is also possible.
  • each control device is a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit. Each unit achieves its function by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • achieves a part or all of the element which comprises the control apparatus in the said embodiment or modification is the following programs.
  • this program is an arm control program for controlling the position and posture of the touch panel display,
  • Computer A touch position information acquisition unit for acquiring a position on the screen of the touch panel display touched by a person;
  • a touch force information acquisition unit for acquiring a force on the screen touched by the person;
  • a torque calculation unit that calculates torque applied to the touch panel display from the position acquired from the touch position information acquisition unit and the force acquired from the touch force information acquisition unit;
  • a stiffness parameter information generation unit that generates information on a stiffness parameter that controls the arm so as not to change the position and posture of the touch panel display;
  • It is an arm control program for functioning as an arm control unit for controlling the arm based on the stiffness parameter information generated by the stiffness parameter information generation unit.
  • the program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, or a semiconductor memory) is read out. May be executed.
  • a predetermined recording medium for example, an optical disk such as a CD-ROM, a magnetic disk, or a semiconductor memory
  • the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • the arm control device and control method, robot, arm control program, and arm control integrated electronic circuit according to the present invention have the following characteristics.
  • the person By adjusting the rigidity of the arm according to the position and force with which the person touches the display unit, the person can move the touch panel display with a light force, and the touch panel display in the direction the person has pressed when touching the person The display can be touched without moving.
  • an arm control device and control method, a robot, an arm control program, and an arm control integrated electronic circuit according to the present invention include an arm control device and control method for a home-use touch panel display with an arm, and a robot. It is useful as an arm control program and an integrated electronic circuit for arm control.
  • the arm control device and control method, the robot, the arm control program, and the arm control integrated electronic circuit according to the present invention are not limited to household devices, but are industrial touch panel displays with arms, medical use
  • the present invention can be applied as an arm control device and control method in a touch panel display with an arm, a robot, an arm control program, and an integrated electronic circuit for arm control.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

 アーム付きタッチパネルディスプレイであって、タッチ位置情報取得部(108)より取得した位置及びタッチ力情報取得部(109)より取得した力より、タッチパネルディスプレイ(303)に負荷されるトルクをトルク計算部(110)で計算し、計算されたトルクに基づいて、タッチパネルディスプレイの位置及び姿勢を変化しないようアーム(102)を制御する剛性パラメータの情報を剛性パラメータ情報生成部(111)で生成する。生成された剛性パラメータの情報に基づいてアームをアーム制御部(112)で制御する。

Description

アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路
 本発明は、タッチパネルディスプレイ付きアームの剛性の制御及び動作の生成を行うためのアームの制御装置及び制御方法、アームの制御装置を有するロボット、アームの制御プログラム、アームの制御用集積電子回路に関する。
 人が表示装置を所望の位置に移動させる技術として、下記の技術が提案されている。
 表示装置において、人のベゼル部への接触を検出する検出部を備え、表示部を移動させようとして人がベゼル部に接触したことが検出されると、リンク部が回動可能となり、表示部を所望の位置に移動させることができる。また、表示部の位置を保持しようとして人がベゼル部との接触を絶った状況が検出されると、リンク部は回動不可となり、表示部の位置が保持される(特許文献1参照)。
特開2010-128195号公報
 しかしながら、特許文献1では、人がベゼル部に接触したときのみリンク部は回動可能となるため、人がベゼル部以外の部分に衝突したときは、リンク部は回動不可であり、危険である。
 従って、本発明の目的は、前記問題を解決することにあって、タッチパネルディスプレイ付きアームにおいて、人がベゼル部以外の部分に衝突したときでも、人が軽い力でタッチパネルディスプレイを移動させることができ、人がタッチパネルディスプレイにタッチする際にタッチした方向にタッチパネルディスプレイが移動せず、タッチすることができるアームの制御装置及び制御方法、ロボット、アームの制御プログラム、並びに、アームの制御用集積電子回路を提供することにある。
 前記の目的を達成するために、本発明は以下のように構成する。
 本発明の1つの態様によれば、タッチパネルディスプレイの位置及び姿勢を制御するアームの制御装置であって、
 人によりタッチされる前記タッチパネルディスプレイの画面上の位置を取得するタッチ位置情報取得部と、
 前記人によりタッチされる前記画面上の力を取得するタッチ力情報取得部と、
 前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクを計算するトルク計算部と、
 前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を生成する剛性パラメータ情報生成部と、
 前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームを制御するアーム制御部と、
 を備えるアームの制御装置を提供する。
 これらの概括的かつ特定の態様は、システム、方法、コンピュータプログラム並びにシステム、方法及びコンピュータプログラムの任意の組み合わせにより実現してもよい。
 本発明の前記態様のアームの制御装置及び制御方法、ロボット、アームの制御プログラム、並びに、アームの制御用集積電子回路によれば、タッチパネルディスプレイの移動時は軽い力で移動でき、人がタッチするときには押した方向にタッチパネルディスプレイが移動せずタッチできるように、剛性を調整することができる。そのため、タッチ操作の操作性が向上する。
 本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形態に関連した次の記述から明らかになる。この図面においては、
図1は、本発明の第1実施形態のロボットにおけるロボットアームのブロック図であり、 図2は、本発明の第1実施形態のロボットにおける動作情報のデータの説明図であり、 図3Aは、本発明の第1実施形態のロボットにおけるアームの移動の説明図であり、 図3Bは、本発明の第1実施形態のロボットにおけるアームの移動の説明図であり、 図3Cは、本発明の第1実施形態のロボットにおけるアームの移動の説明図であり、 図4Aは、本発明の第1実施形態のロボットにおける動作情報生成の説明図であり、 図4Bは、本発明の第1実施形態のロボットにおける動作情報生成の説明図であり、 図4Cは、本発明の第1実施形態のロボットにおける動作情報生成の説明図であり、 図4Dは、本発明の第1実施形態のロボットにおける動作情報生成の説明図であり、 図5Aは、本発明の第1実施形態のロボットにおけるタッチパネルディスプレイの座標系の説明図であり、 図5Bは、本発明の第1実施形態のロボットにおけるタッチパネルディスプレイの座標系の説明図であり、 図6は、本発明の第1実施形態のロボットにおけるタッチ位置情報のデータの説明図であり、 図7Aは、本発明の第1実施形態のロボットにおける力センサの取り付け方法の説明図であり、 図7Bは、本発明の第1実施形態のロボットにおける力センサの取り付け方法の説明図であり、 図8は、本発明の第1実施形態のロボットにおけるタッチ力情報のデータの説明図であり、 図9は、本発明の第1実施形態のロボットにおけるトルク算出の説明図であり、 図10は、本発明の第1実施形態のロボットの人とタッチパネルディスプレイの位置関係の説明図であり、 図11Aは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(タッチ)の説明図であり、 図11Bは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(タッチ)の説明図であり、 図11Cは、本発明の第1実施形態のロボットにおけるタッチ位置情報(タッチ)のデータの説明図であり、 図11Dは、本発明の第1実施形態のロボットにおけるタッチ力情報(タッチ)のデータの説明図であり、 図11Eは、本発明の第1実施形態のロボットにおける剛性パラメータ情報(タッチ)のデータの説明図であり、 図12Aは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(ページめくり)の説明図であり、 図12Bは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(ページめくり)の説明図であり、 図13Aは、本発明の第1実施形態のロボットにおけるタッチ位置情報(ページめくり)のグラフを含む説明図であり、 図13Bは、本発明の第1実施形態のロボットにおけるタッチ力情報(ページめくり)のグラフを含む説明図であり、 図13Cは、本発明の第1実施形態のロボットにおける+xに関する剛性パラメータ情報(ページめくり)のグラフを含む説明図であり、 図13Dは、本発明の第1実施形態のロボットにおける-zに関する剛性パラメータ情報(ページめくり)のグラフを含む説明図であり、 図13Eは、本発明の第1実施形態のロボットにおける-rx方向に関する剛性パラメータ情報(ページめくり)のグラフを含む説明図であり、 図13Fは、本発明の第1実施形態のロボットにおける+ry方向に関する剛性パラメータ情報(ページめくり)のグラフを含む説明図であり、 図13Gは、本発明の第1実施形態のロボットにおける-ry方向に関する剛性パラメータ情報(ページめくり)のグラフを含む説明図であり、 図13Hは、本発明の第1実施形態のロボットにおける-rz方向に関する剛性パラメータ情報(ページめくり)のグラフを含む説明図であり、 図14Aは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(拡大)の説明図であり、 図14Bは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(拡大)の説明図であり、 図14Cは、本発明の第1実施形態のロボットにおける位置Aに関するタッチ位置情報(拡大)のグラフを含む説明図であり、 図14Dは、本発明の第1実施形態のロボットにおける位置Bに関するタッチ位置情報(拡大)のグラフを含む説明図であり、 図14Eは、本発明の第1実施形態のロボットにおける位置Aに関するタッチ力情報(拡大)のグラフを含む説明図であり、 図14Fは、本発明の第1実施形態のロボットにおける位置Bに関するタッチ力情報(拡大)のグラフを含む説明図であり、 図14Gは、本発明の第1実施形態のロボットにおける位置Aに関する並進方向の剛性パラメータ情報(拡大)のグラフを含む説明図であり、 図14Hは、本発明の第1実施形態のロボットにおける位置Bに関する並進方向の剛性パラメータ情報(拡大)のグラフを含む説明図であり、 図14Iは、本発明の第1実施形態のロボットにおける位置Aに関する回転方向の剛性パラメータ情報(拡大)のグラフを含む説明図であり、 図14Jは、本発明の第1実施形態のロボットにおける位置Bに関する回転方向の剛性パラメータ情報(拡大)のグラフを含む説明図であり、 図15Aは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(縮小)の説明図であり、 図15Bは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(縮小)の説明図であり、 図15Cは、本発明の第1実施形態のロボットにおける位置Aに関するタッチ位置情報(縮小)のグラフを含む説明図であり、 図15Dは、本発明の第1実施形態のロボットにおける位置Bに関するタッチ位置情報(縮小)のグラフを含む説明図であり、 図15Eは、本発明の第1実施形態のロボットにおける位置Aに関するタッチ力情報(縮小)のグラフを含む説明図であり、 図15Fは、本発明の第1実施形態のロボットにおける位置Bに関するタッチ力情報(縮小)のグラフを含む説明図であり、 図15Gは、本発明の第1実施形態のロボットにおける位置Aに関する並進方向の剛性パラメータ情報(縮小)のグラフを含む説明図であり、 図15Hは、本発明の第1実施形態のロボットにおける位置Bに関する並進方向の剛性パラメータ情報(縮小)のグラフを含む説明図であり、 図15Iは、本発明の第1実施形態のロボットにおける位置Aに関する回転方向の剛性パラメータ情報(縮小)のグラフを含む説明図であり、 図15Jは、本発明の第1実施形態のロボットにおける位置Bに関する回転方向の剛性パラメータ情報(縮小)のグラフを含む説明図であり、 図16Aは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(キーボード入力)の説明図であり、 図16Bは、本発明の第1実施形態のロボットにおける剛性パラメータ情報生成(キーボード入力)の説明図であり、 図16Cは、本発明の第1実施形態のロボットにおけるタッチ位置情報(キーボード入力)のグラフであり、 図16Dは、本発明の第1実施形態のロボットにおけるタッチ力情報(キーボード入力)のグラフであり、 図16Eは、本発明の第1実施形態のロボットにおける並進方向の剛性パラメータ情報(キーボード入力)のグラフであり、 図16Fは、本発明の第1実施形態のロボットにおける-rx方向に関する剛性パラメータ情報(キーボード入力)のグラフであり、 図16Gは、本発明の第1実施形態のロボットにおける-ry方向に関する剛性パラメータ情報(キーボード入力)のグラフであり、 図17Aは、本発明の第1実施形態のロボットにおける病院のコンテンツの説明図であり、 図17Bは、本発明の第1実施形態のロボットにおける病院のコンテンツの説明図であり、 図18は、本発明の第1実施形態のロボットにおける入出力IFのブロック図であり、 図19は、本発明の第1実施形態のロボットにおけるアームの説明図であり、 図20Aは、本発明の第1実施形態のロボットにおける動作手順の説明図であり、 図20Bは、本発明の第1実施形態のロボットにおける動作手順の説明図であり、 図20Cは、本発明の第1実施形態のロボットにおける動作手順の説明図であり、 図20Dは、本発明の第1実施形態のロボットにおける動作手順の説明図であり、 図20Eは、本発明の第1実施形態のロボットにおける動作手順の説明図であり、 図20Fは、本発明の第1実施形態のロボットにおける動作手順の説明図であり、 図20Gは、本発明の第1実施形態のロボットにおける動作手順の説明図であり、 図21は、本発明の第1実施形態のロボットの制御装置の操作手順におけるフローチャートであり、 図22は、本発明の第1実施形態のロボットの制御装置の操作手順におけるフローチャートであり、 図23は、本発明の第2実施形態のロボットにおけるロボットアームのブロック図であり、 図24Aは、本発明の第2実施形態のロボットにおけるタッチ力情報のデータの説明図であり、 図24Bは、本発明の第2実施形態のロボットにおけるタッチ力変位情報のデータの説明図であり、 図25は、本発明の第2実施形態のロボットの制御装置の操作手順におけるフローチャートであり、 図26は、本発明の第3実施形態のロボットにおけるロボットアームのブロック図であり、 図27Aは、本発明の第3実施形態のロボットにおけるタッチ面積情報の算出方法の説明図であり、 図27Bは、本発明の第3実施形態のロボットにおけるタッチ面積情報の算出方法の説明図であり、 図28Aは、本発明の第3実施形態のロボットにおけるタッチ面積情報の時間変位の説明図であり、 図28Bは、本発明の第3実施形態のロボットにおけるタッチ面積情報の時間変位の説明図であり、 図28Cは、本発明の第3実施形態のロボットにおけるタッチ面積情報の時間変位の説明図であり、 図28Dは、本発明の第3実施形態のロボットにおけるタッチ面積情報の時間変位の説明図であり、 図29は、本発明の第3実施形態のロボットの制御装置の操作手順におけるフローチャートであり、 図30Aは、従来のロボットにおけるアーム付きタッチパネルディスプレイの説明図であり、 図30Bは、従来のロボットにおけるアーム付きタッチパネルディスプレイの説明図であり、 図31Aは、従来のロボットにおけるアーム付きタッチパネルディスプレイの課題の説明図であり、 図31Bは、従来のロボットにおけるアーム付きタッチパネルディスプレイの課題の説明図であり、 図32は、第4実施形態のロボットに係るロボットにおけるアームのブロック図であり、 図33は、第4実施形態のロボットに係るロボットの制御装置の操作手順におけるフローチャートである。
 本明細書において、「タッチ」とは、人(ユーザ)1301,301がコンテンツ内容を操作するために、人(ユーザ)1301,301がディスプレイ1303,303上を指701又はスタイラスペン等により意図的に触れることを意味する。つまり、「タッチ」とは、指701又はスタイラスペン等がディスプレイ1303,303上に接触するまでの動作を意味し、接触後、指701又はスタイラスペン等をディスプレイ1303,303上から離す動作までを含む意味ではない。
 また、本明細書において、「人が離れる」とは、人(ユーザ)1301,301がディスプレイ1303,303上から指701又はスタイラスペン等を離すことを意味し、人(ユーザ)1301,301がディスプレイ1303,303から離れることを意味するものではない。
 また、本明細書において、「マルチタッチ」とは、タッチパネルディスプレイ1303,303に同時に複数の指701などが接触している状態を意味する。つまり、「マルチタッチ」とは、タッチパネルディスプレイ1303,303上の複数の位置に対する複数のタッチであって、時間的に重複する複数のタッチを意味する。したがって、「マルチタッチ」は、同時に開始された複数のタッチだけではなく、異なる時刻に開始され、ある時点において同時に検出される複数のタッチを含む。具体的には、第1タッチが開始された後に、第1タッチが継続された状態で第2タッチが開始された場合、第2タッチの開始時点において、第1タッチと第2タッチとはマルチタッチに相当する。
 また、本明細書において、「衝突」とは、タッチパネルディスプレイと人とが意図せず接触することに相当する。
 以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
 以下、図面を参照して本発明における実施形態を詳細に説明する前に、まず、本発明の基礎となった知見を説明したのち、本発明の種々の態様について説明する。
 (本発明の基礎となった知見)
 (先行文献の内容及び課題)
 (先行文献の内容)
 人1301がベッド1300上で横たわりながらタッチパネルディスプレイ1303を操作する場合又は会議中にタッチパネルディスプレイ1303を出席者1301で共有する場合など、タッチパネルディスプレイ1303の使用例は様々である。上述した例では、人1301が片手でタッチパネルディスプレイ1303を持ち、もう一方の手でタッチパネルディスプレイ1303を操作するので、人1301は常に片手でタッチパネルディスプレイ1303を持つ必要がある。そのため、タッチパネルディスプレイ1303にアーム1102を取り付けて、人1301が手でタッチパネルディスプレイ1303を持つ必要がなく、片手でタッチパネルディスプレイ1303を操作することが可能となる。アーム付きのタッチパネルディスプレイ1303の使用例として、図30Aにベッド1300又はソファでの使用例又は図30Bに会議での使用例を示す。このようなタッチパネルディスプレイ1303の課題としては、下記の点が挙げられる。
 アーム1102を軽く移動できるようにすると、人1301がタッチ操作するときに人1301が押した方向にアーム1102が移動してしまうため(図31B参照)、人1301が押した方向にタッチパネルディスプレイ1303が移動しない状態でタッチすることが難しい。つまり、タッチパネルディスプレイ1303に対して、人1301がタッチしにくいという点である。
 そのように、タッチパネルディスプレイ1303に対して、タッチ操作を行う際に、タッチしにくいという課題に対して、下記のような技術が提案されている。
 タッチパネルディスプレイにおいて、人のベゼル部への接触を検出する検出部を備え、タッチパネルディスプレイを移動させようとして人がベゼル部に接触したことが検出されると、リンク部が回動可能となり、タッチパネルディスプレイを所望の位置に移動させることができる。また、タッチパネルディスプレイの位置を保持しようとして人がベゼル部との接触を絶った状況が検出されると、リンク部は回動不可となり、タッチパネルディスプレイの位置が保持されるという提案がある(特許文献1参照)。
 (先行文献の課題)
 特許文献1では、人がベゼル部に接触したときは回転可能となり、タッチパネルディスプレイを移動させることができる。一方、人がベゼル部に接触していないときは回転不可となり、タッチパネルディスプレイは移動しない。そのため、人がベゼル部を触らずタッチパネルディスプレイのみタッチすると、タッチパネルディスプレイは移動せず、タッチすることができる。しかしながら、人がベゼル部を触りながら、タッチパネルディスプレイにタッチすると、タッチパネルディスプレイは押した方向に移動してしまい、タッチ操作がしにくい。
 そこで、この課題を解決するために、以下の発明を行なった。
 以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
 以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
 本発明の第1態様によれば、タッチパネルディスプレイの位置及び姿勢を制御するアームの制御装置であって、
 人によりタッチされる前記タッチパネルディスプレイの画面上の位置を取得するタッチ位置情報取得部と、
 前記人によりタッチされる前記画面上の力を取得するタッチ力情報取得部と、
 前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクを計算するトルク計算部と、
 前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を生成する剛性パラメータ情報生成部と、
 前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームを制御するアーム制御部と、
 を備えるアームの制御装置を提供する。
 前記態様によれば、剛性を調整することによって、タッチパネルディスプレイの移動時は軽い力で移動でき、人がタッチするときには押した方向にタッチパネルディスプレイが移動せずタッチできるように、剛性を調整することができる。そのため、タッチ操作の操作性が向上する。
 本発明の第2態様によれば、前記タッチ力情報取得部において、
  前記タッチパネルディスプレイの前記画面の表面に垂直な方向に加わる押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とに関する力情報を取得し、
 前記タッチ位置情報取得部において、
  前記人が前記タッチパネルディスプレイの前記画面にタッチしつつなぞることにより、変化する位置情報を取得し、
 前記トルク計算部において、
  前記タッチパネルディスプレイの前記画面の表面に垂直な方向に加わる押す力に関する力情報と前記タッチ位置情報取得部で取得した前記位置情報とから、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを算出し、
  前記タッチパネルディスプレイの前記画面に水平な方向に加わる摩擦力に関する力情報と前記タッチ位置情報取得部で取得した前記位置情報から、前記タッチパネルディスプレイの前記画面に垂直な方向を軸とするトルクを算出する、第1の態様に記載のアームの制御装置を提供する。
 前記態様によれば、剛性を調整することによって、人が前記タッチパネルディスプレイの前記画面をなぞるような摩擦力の加わる操作を行ったときにおいて、なぞった方向にタッチパネルディスプレイが移動せず、タッチできる。
 本発明の第3態様によれば、前記タッチ力情報取得部において、
  (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力が加わり、
  (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とが加わり、
  (3)前記タッチパネルディスプレイに力が加わらない、
 というように変化する力情報を取得し、
 前記タッチ位置情報取得部において、
  (1)前記タッチパネルディスプレイの前記画面にタッチし、
  (2)前記タッチパネルディスプレイの前記画面に前記人がなぞりながらタッチする位置が任意の方向に変化し、
  (3)前記タッチパネルディスプレイの前記画面から前記人が離れる、
 というように変化する位置情報を取得し、
 前記剛性パラメータ情報生成部において、
  (1)前記タッチ力情報取得部で取得した前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力に基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
  (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイに水平な方向に加わる摩擦力とに基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクと、前記タッチパネルディスプレイの前記画面の表面に垂直な方向を軸とするトルクとを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
  (3)前記タッチパネルディスプレイに力が加わらない場合の前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算する、
 というように変更する剛性パラメータを生成する、第2の態様に記載のアームの制御装置を提供する。
 前記態様によれば、剛性を調整することによって、人がページめくり操作を行ったときにおいて、なぞった方向にタッチパネルディスプレイが移動せず、タッチできる。
 本発明の第4態様によれば、前記タッチ力情報取得部において、
  (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力が加わり、
  (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とが加わり、
  (3)前記タッチパネルディスプレイに力が加わらない、
 というように変化する力情報を取得し、
 前記タッチ位置情報取得部において、
  (1)前記タッチパネルディスプレイの前記画面に前記人がマルチタッチし、
  (2)前記タッチパネルディスプレイの前記画面に前記人がマルチタッチしたそれぞれの位置がお互いに離れる方向に変化し、
  (3)前記タッチパネルディスプレイの前記画面から前記人が離れる、
 というように変化する位置情報を取得し、
 前記剛性パラメータ情報生成部において、
  (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力に基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクとを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
  (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とに基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクと、前記タッチパネルディスプレイの前記画面の表面に垂直な方向を軸とするトルクとを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
  (3)前記タッチパネルディスプレイに力が加わらない場合の前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算する、
 というように変更する剛性パラメータを前記剛性パラメータ情報生成部で生成する、第2の態様に記載のアームの制御装置を提供する。
 前記態様によれば、剛性を調整することによって、人が拡大操作を行ったときにおいて、なぞった方向にタッチパネルディスプレイが移動せず、タッチできる。
 本発明の第5態様によれば、前記タッチ力情報取得部において、
  (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力が加わり、
  (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とが加わり、
  (3)前記タッチパネルディスプレイに力が加わらない、
 というように変化する力情報を取得し、
 前記タッチ位置情報取得部において、
  (1)前記タッチパネルディスプレイの前記画面に前記人がマルチタッチし、
  (2)前記タッチパネルディスプレイの前記画面に前記人がマルチタッチしたそれぞれの位置がお互いに近づく方向に変化し、
  (3)前記タッチパネルディスプレイの前記画面から前記人が離れる、
 というように変化する位置情報を取得し、
 前記剛性パラメータ情報生成部において、
  (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力に基づいて、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
  (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とに基づいて、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクと、前記タッチパネルディスプレイの前記画面の表面に垂直な方向を軸とするトルクとを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
  (3)前記タッチパネルディスプレイに力が加わらない場合の前記アームの剛性パラメータを前記剛性パラメータ情報生成部で生成する、
 というように変更する剛性パラメータを算出する、第2の態様に記載のアームの制御装置を提供する。
 前記態様によれば、剛性を調整することによって、人が縮小操作を行ったときにおいて、なぞった方向にタッチパネルディスプレイが移動せず、タッチできる。
 本発明の第6態様によれば、前記タッチ力情報取得部において、
 前記タッチパネルディスプレイの前記画面の表面に垂直な方向に加わる押す力と前記タッチパネルディスプレイの前記画面に力が加わらないときに関する力情報を取得し、
 前記タッチ位置情報取得部において、
 前記人が前記タッチパネルディスプレイの前記画面に複数回のタッチを繰り返す際の位置情報を取得し、
 前記剛性パラメータ情報生成部において、
 (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に加わる押す力に関する力情報と前記タッチ位置情報取得部で取得した前記位置情報とから、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
 (2)前記タッチパネルディスプレイに力が加わらないときはトルクを前記トルク計算部で算出せず、前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算する、
 というように変更する剛性パラメータを生成する、第1の態様に記載のアームの制御装置を提供する。
 前記態様によれば、剛性を調整することによって、人が前記タッチパネルディスプレイの前記画面を連続タッチする操作を行ったときにおいて、タッチした方向にタッチパネルディスプレイが移動せず、タッチできる。
 本発明の第7態様によれば、前記タッチ力情報取得部において、
  (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力が加わり、
  (2)前記タッチパネルディスプレイの前記画面に力が加わらない、
 というように変化する力情報を取得し、
 前記タッチ位置情報取得部において、
  (1)前記タッチパネルディスプレイの前記画面に前記人がタッチし、
  (2)前記タッチパネルディスプレイの前記画面から前記人が離れる、
 というように複数回繰り返し変化する位置情報を取得し、
 前記剛性パラメータ情報生成部において、
  (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力に基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
  (2)前記タッチパネルディスプレイの前記画面に力が加わらない場合の前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算する、
 というように変更する剛性パラメータを生成する、第2の態様に記載のアームの制御装置を提供する。
 前記態様によれば、剛性を調整することによって、人がキーボード入力操作を行ったときにおいて、タッチした方向にタッチパネルディスプレイが移動せず、タッチできる。
 本発明の第8態様によれば、前記タッチ力情報取得部から力情報を取得し、取得した力情報から力の変位を計算するタッチ力変位計算部を備え、
 前記剛性パラメータ情報生成部においては、
 前記タッチ力変位計算部から取得した力の変位を基に、前記力の変位が所定の閾値を上回る場合は前記タッチパネルディスプレイの位置及び姿勢が変化するように前記アームの剛性パラメータを生成し、前記力の変位が所定の閾値を上回らない場合は前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを生成する、第1の態様に記載のアームの制御装置を提供する。
 前記態様によれば、力の変位が大きいときは、タッチパネルディスプレイが移動するように剛性を調整することによって、人がタッチパネルディスプレイに衝突した場合においても安全である。
 本発明の第9態様によれば、前記タッチ位置情報取得部から位置情報を取得し、取得した位置情報からタッチ面積を計算するタッチ面積計算部を備え、
 前記剛性パラメータ情報生成部において、
 前記タッチ面積計算部から取得したタッチ面積を基に、前記タッチ面積が所定の閾値を上回る場合は前記タッチパネルディスプレイの位置及び姿勢が変化するように前記アームの剛性パラメータを生成し、前記タッチ面積が所定の閾値を上回らない場合は前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを生成する、第1の態様に記載のアームの制御装置を提供する。
 前記態様によれば、タッチ面積が大きいときは、タッチパネルディスプレイが移動するように剛性を調整することによって、人がタッチパネルディスプレイに衝突した場合においても安全である。
 本発明の第10態様によれば、前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記位置より接触が検出され、かつ前記力より接触が検出された場合において、接触ありと判定し、その他の場合は接触なしと判定する、タッチ判定部をさらに備え、
 前記剛性パラメータ情報生成部において、前記タッチ判定部で接触ありと判定された場合のみ、前記タッチパネルディスプレイの位置及び姿勢を変化しないように前記アームを制御する剛性パラメータの情報を生成する、第1~9のいずれか1つの態様に記載のアームの制御装置を提供する。
 前記態様によれば、前記タッチ判定部においてタッチの有無を判定し、前記タッチ判定部においてタッチ有りと判定されたときだけ剛性を高く設定するように剛性パラメータ情報を前記剛性パラメータ情報生成部で生成するので、より正確にタッチパネルディスプレイの操作性を向上させることができる。
 本発明の第11態様によれば、前記アームを制御する、第1~10のいずれか1つの態様に記載の前記アームの制御装置と、
 前記アームと、
を備えるロボットを提供する。
 前記態様によれば、剛性を調整することによって、タッチパネルディスプレイの移動時は軽い力で移動でき、人がタッチするときには押した方向にタッチパネルディスプレイが移動せずタッチできるように、剛性を調整することができる。そのため、タッチ操作の操作性が向上する。
 本発明の第12態様によれば、タッチパネルディスプレイの位置及び姿勢を制御するアームの制御方法であって、
 人によりタッチされる前記タッチパネルディスプレイの画面上の位置をタッチ位置情報取得部で取得し、
 前記人によりタッチされる前記画面上の力をタッチ力情報取得部で取得し、
 前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクをトルク計算部で計算し、
 前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を剛性パラメータ情報生成部で生成し、
 前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームをアーム制御部で制御する、アームの制御方法を提供する。
 前記態様によれば、剛性を調整することによって、タッチパネルディスプレイの移動時は軽い力で移動でき、人がタッチするときには押した方向にタッチパネルディスプレイが移動せずタッチできるように、剛性を調整することができる。そのため、タッチ操作の操作性が向上する。
 本発明の第13態様によれば、タッチパネルディスプレイの位置及び姿勢を制御するアームの制御プログラムであって、
 コンピュータを、
 人によりタッチされる前記タッチパネルディスプレイの画面上の位置を取得するタッチ位置情報取得部と、
 前記人によりタッチされる前記画面上の力を取得するタッチ力情報取得部と、
 前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクを計算するトルク計算部と、
 前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を生成する剛性パラメータ情報生成部と、
 前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームを制御するアーム制御部として機能させるためのアームの制御プログラムを提供する。
 前記態様によれば、剛性を調整することによって、タッチパネルディスプレイの移動時は軽い力で移動でき、人がタッチするときには押した方向にタッチパネルディスプレイが移動せずタッチできるように、剛性を調整することができる。そのため、タッチ操作の操作性が向上する。
 本発明の第14態様によれば、タッチパネルディスプレイの位置及び姿勢を制御するアームの制御用集積電子回路であって、
 人によりタッチされる前記タッチパネルディスプレイの画面上の位置をタッチ位置情報取得部で取得し、
 前記人によりタッチされる前記画面上の力をタッチ力情報取得部で取得し、
 前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクをトルク計算部で計算し、
 前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を剛性パラメータ情報生成部で生成し、
 前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームをアーム制御部で制御する、
 アームの制御用集積電子回路を提供する。
 前記態様によれば、剛性を調整することによって、タッチパネルディスプレイの移動時は軽い力で移動でき、人がタッチするときには押した方向にタッチパネルディスプレイが移動せずタッチできるように、剛性を調整することができる。そのため、タッチ操作の操作性が向上する。
 (第1実施形態)
 図1は、本発明の第1実施形態における、アームの制御装置103を有するロボット101のブロック図を示す。図1において、ロボット101は、アーム102と、アーム102の制御装置103とで構成されている。
 アーム102の制御装置103は、表示装置の一例としてのタッチパネル303の位置及び姿勢を制御するアームの制御装置である。このアーム102の制御装置103は、タッチ位置情報取得部108と、タッチ力情報取得部109と、トルク計算部110と、剛性パラメータ情報生成部111と、アーム制御部112とを少なくとも備える。
 以下、アーム102の制御装置103の主たる構成について、まず、簡単に説明する。
 タッチ位置情報取得部108は、人によりタッチされる前記タッチパネルの画面303a上の位置を取得する。
 タッチ力情報取得部109は、前記人によりタッチされる前記画面上の力を取得する。
 トルク計算部110は、前記タッチ位置情報取得部より取得した位置及び前記タッチ力情報取得部より取得した力より前記タッチパネルに負荷されるトルクを計算する。
 剛性パラメータ情報生成部111は、前記トルク計算部より計算されたトルクに基づいて、前記タッチパネルの位置及び姿勢を変化しないよう前記アームを制御する情報を生成(計算)する。
 アーム制御部112は、前記剛性パラメータ情報生成部より生成された情報に基づいて前記アームを制御する。
 この結果、タッチパネルディスプレイ303に人301がタッチした際、タッチした方向へタッチパネルディスプレイ303が移動してしまうことを防ぐため、タッチした際にタッチパネルディスプレイ303の位置が固定されるようアーム102の制御を行なう。特に、この第1実施形態では、タッチパネルディスプレイ303に加わる力及び位置を検出し、その力(トルク)を打ち消す方向に剛性を調整して、アーム102を制御するようにしている。
 以下、この第1実施形態について詳細に説明する。
 <アームの制御装置の説明>
 アーム102の制御装置103は、制御装置本体部104と、周辺装置105とで構成されている。
 <制御装置本体部の説明>
 制御装置本体部104は、動作情報取得部106と、アーム動作情報生成部107と、タッチ位置情報取得部108と、タッチ力情報取得部109と、トルク計算部110と、剛性パラメータ情報生成部111と、アーム制御部112と、入力情報取得部117とで構成されている。
 周辺装置105は、入出力IF(インターフェース)113と、モータドライバ114とで構成されている。それぞれの機能について、以下に説明する。
 動作情報取得部106は、入出力IF113からアーム102の位置情報及び姿勢情報と、入出力IF113に内蔵されたタイマーからの時間情報とが入力される。また、動作情報取得部106は、入出力IF113から取得した位置情報を時間情報で微分することによって、速度情報を取得する。また、動作情報取得部106は、姿勢情報を時間情報で微分することによって、角速度情報を取得する。図2は、動作情報取得部106で取得する時間情報と、位置情報と、姿勢情報と、速度情報と、角速度情報とを示す。
 動作情報は、アーム102を移動させる際のアーム102の動作を生成するための情報であり、後述する剛性パラメータとは、独立している。
 動作情報取得部106は、取得したアーム102の位置情報と、姿勢情報と、速度情報と、角速度情報と、時間情報とを、アーム動作情報生成部107に出力する。
 アーム動作情報生成部107は、動作情報取得部106からアーム102の位置情報と、姿勢情報と、速度情報と、角速度情報と、時間情報とを取得する。アーム動作情報生成部107は、取得した情報を基に、アーム102が移動するための動作情報を生成する。動作情報は、人301がアーム102を直接触り、アーム102を移動させることによって生成される。このように、人301がアーム102を移動させるためには(図3B参照)、アーム102の剛性を低く設定しておく必要がある。例えば、アーム102に力センサを取り付け、人301がアーム102に加えた力の大きさにゲインをアーム動作情報生成部107で掛けて、アーム102の移動量をアーム動作情報生成部107で導出する。その際に、ゲインの値をアーム動作情報生成部107で大きくすることによって、軽い力でアーム102を移動させることができる。アーム102に力センサ302を取り付ける一例として、図3Aに示す。また、人301が力センサ302に力を加え、アーム102を移動させる例を、図3B及び図3Cに示す。ここでは、アーム102は、3本のアーム部材102aと、4個の回転関節部102bとで構成されており、アーム102の先端に回転関節部102bを介して、表示装置の一例としてのタッチパネルディスプレイ303が配置されている。力センサ302は、3本のアーム部材102aの真ん中のアーム部材102aに配置されて、人301がこの力センサ302を直接握ったり、3本のアーム部材102aのいずれかのアーム部材102aに接触するなどして、力センサ302が力を検出しつつ、アーム102を移動させるように構成している。
 また、人301がタッチパネルディスプレイ303の表示部(画面)303a(図5B参照)以外の部分又はアーム102に接触したことを上述の力センサ302で検出すると、剛性パラメータ情報生成部111により剛性を低く設定するため、軽い力でアーム102を移動させることができる。したがって、衝突したときの人301に与える衝撃力を小さくすることができる。
 以上により、人301がタッチパネルディスプレイ303の表示部303a以外に接触したときは、剛性パラメータ情報生成部111でアーム102の剛性を低く設定する。
 アーム動作情報生成部107による動作情報の生成の一例として、図4A~図4Dに示す動作の動作情報を生成する。
 図4Aでは、人301がアーム102及びタッチパネルディスプレイ303に触っておらず、アーム102及びタッチパネルディスプレイ303は移動しない。
 図4Bでは、人301がタッチパネルディスプレイ303に触り、タッチパネルディスプレイ303を介してアーム102に対して、タッチパネルディスプレイ303を移動させたい方向に力を加えている時点である。
 図4Cでは、人301がタッチパネルディスプレイ303を移動させたい方向にアーム102を介してタッチパネルディスプレイ303が移動している状態である。
 図4Dでは、アーム102とタッチパネルディスプレイ303との移動が終了し、人301がアーム102及びタッチパネルディスプレイ303に触っておらず、アーム102及びタッチパネルディスプレイ303は移動しない。
 なお、動作情報の生成方法は、上述した人301がアーム102又はタッチパネルディスプレイ303に直接触って動作情報を生成する方法の他に、遠隔からペンダントなどのリモコンを用いて移動させる方法、又は、予め動作を教示して移動させる方法など、任意の方法で可能である。
 アーム動作情報生成部107は、生成したアーム102の位置情報と、姿勢情報と、速度情報と、角速度情報と、時間情報とを、動作情報として、アーム制御部112に出力する。出力する動作情報、時間情報は図2に示す情報と同様の構成である。
 タッチセンサ115は、タッチパネルディスプレイ303の表示部303aに取り付けられ、タッチが生じた位置(タッチ位置)を図5Aの座標系に従い検出する。図5A及び図5Bは、タッチパネルディスプレイ303の座標系を表し、アーム102の手先部102eの座標系を表す。タッチパネルディスプレイ303の表示部303aの座標系は、図5Aに示すように中心部分を原点O(0,0)とする。また、アーム102の先端の手先部(タッチパネルディスプレイ303の取り付け部)102eは、図5Bに示すようにタッチパネルディスプレイ303の裏面の中心部分に取り付ける。なお、座標系の設定又はアーム102の手先部102eの取り付け方は、他の任意の方法でも可能である。
 タッチセンサ115は、例えば、静電容量方式のタッチパネルを用いることによって実現する。
 タッチセンサ115で検出したタッチ位置情報(接触位置)は、タッチセンサ115からタッチ位置情報取得部108に出力する。タッチセンサ115で検出したタッチ位置情報は、図6で示すような情報である。ここで、タッチがある場合は1で表され、タッチがない場合には0で表される。
 力センサ116は、タッチパネルディスプレイ303の表示部303aに取り付けられ、タッチ(接触)が生じた位置において表示部303aに加わる力を測定する。ここでは、図5Aの座標系に従い、x軸、y軸、及び、z軸の力を測定する。なお、力センサ116は、1軸~6軸の任意の力センサを使用することもできる。力センサ116の取り付け例としては、図7Aに示すようにタッチパネルディスプレイ303の表示部303aに多数の力センサ116をマトリックス状に取り付ける方法、又は、図7Bに示すようにアーム102の手先部102eに取り付ける方法などがある。
 力センサ116は、例えば、ひずみゲージ式の力覚センサを用いることによって実現する。
 力センサ116で測定した力情報は、タッチ力情報取得部109に出力する。
 タッチ位置情報取得部108には、タッチセンサ115からタッチ位置情報と、入出力IF113に内蔵されたタイマーからの時間情報とが所定時間毎(例えば、1sec毎)に入力される。この他、例えば、タッチ位置情報取得部108でタッチ位置情報を取得した際に、そのタッチ位置情報と時間情報とをタッチ位置情報取得部108に入力するようにしてもよい。タッチ位置情報取得部108に入力されるタッチ位置情報は、図6で示すような情報である。ここで、接触がある場合は1で表され、接触がない場合には0で表される。
 なお、タッチ位置情報取得部108は、入出力IF113を介してタッチセンサ115からタッチ位置情報を取得することも可能である。
 タッチ位置情報取得部108で取得したタッチ位置情報と時間情報とを、トルク計算部110を介して、剛性パラメータ情報生成部111に出力する。
 タッチ力情報取得部109は、力センサ116からタッチ力情報(接触力情報)と、入出力IF113に内蔵されたタイマーからの時間情報とが入力される。入力されるタッチ力情報は、図8で示すような情報である。タッチ力情報の座標系は図5Aの座標系に従い、xy軸のそれぞれの方向の力Fx及びFyがタッチパネルディスプレイ303の表示部303aに対する摩擦力に関する力を表し、z軸方向の力Fzがタッチパネルディスプレイ303の表示部303aを垂直に押す方向zの力を表す。ここでは、力Fxと力Fyと、力Fzとは、画面303aの表面に水平な方向に加わる摩擦力に関する力と、画面303aの表面に垂直な方向に加わる押す力とを示している。また、トルクMxとトルクMyと、トルクMzとは、画面303aの表面に水平な方向を軸とするトルクと、画面303aの表面に垂直な方向を軸とするトルクとを示している。
 なお、タッチ力情報取得部109は、入出力IF113を介して力センサ116からタッチ力情報を取得することも可能である。
 タッチ力情報取得部109で取得したタッチ力情報と時間情報とを、トルク計算部110を介して、剛性パラメータ情報生成部111に出力する。
 トルク計算部110は、タッチ位置情報取得部108からタッチ位置情報と時間情報とを取得し、タッチ力情報取得部109からタッチ力情報と時間情報とを取得する。
 トルク計算部110は、取得したタッチ位置情報とタッチ力情報とを用いて、タッチパネルディスプレイ303に加わるトルクの大きさを計算する。
 (rx,ry)の回転方向の軸(図5A参照)の生成方法について説明する。ここで、rxはx軸回りの回転方向であり、ryはy軸回りの回転方向であり、rzはz軸回りの回転方向である。回転方向については、取得したタッチ位置情報とタッチ力情報(Fzのみ)との両方の情報を用いる。図9に示す任意の位置A(Ax,Ay)の位置に力Fzが加わった場合は、xy軸のそれぞれの方向回りのトルクMx=-Ay・Fz、トルクMy=Ax・Fzとなる。例えば、位置(4mm,3mm)にz軸方向に0.5Nの力が加わった場合は、トルクMxは-1.5Nmm(=-0.5N×3mm)、トルクMyは+2.0Nmm(=0.5N×4mm)となる。詳細は後述する。
 rz方向の軸(図5A参照)の生成方法について説明する。回転方向については、取得したタッチ位置情報(x,y)とタッチ力情報(Fx、Fy)との両方の情報をトルク計算部110で用いる。
 トルク計算部110で取得するrz方向の軸のトルクMzは、y・Fx-x・Fyで表される。トルク計算部110において、トルクの大きさの求め方は、図9に示すA(Ax,Ay)の位置に力Fx、Fyが加わった場合は、Mz=Ay・Fx-Ax・Fyとなる。
 トルク計算部110は、トルク計算部110で算出したトルク情報と時間情報とを剛性パラメータ情報生成部111に出力する。
 なお、図7Bに示すように、手先部102eをタッチパネルディスプレイ303の裏面の中心部分の位置に、力センサ116の一例としての6軸力センサを取り付けた場合は、力センサ116より3軸の力の情報と3軸のトルクの情報とを検出できるため、トルク計算部110を用いる必要はない。
 剛性パラメータ情報生成部111は、タッチ力情報取得部109からタッチ力情報と時間情報とを取得し、トルク計算部110からトルク情報と時間情報とを取得する。
 剛性パラメータ情報生成部111は、取得したタッチ力情報とトルク情報とを基に、人301がタッチパネルディスプレイ303にタッチした際にタッチパネルディスプレイ303の姿勢が変化しないように、アーム102の剛性パラメータ情報を生成する。ここで、タッチパネルディスプレイ303の姿勢が変化しないように、アーム102の剛性パラメータ情報を生成することは、具体的には剛性を高く設定することによって姿勢が変化しないようにすることを意味する。詳細は、後述する。
 剛性パラメータ情報とは、アーム102の手先部(タッチパネルディスプレイ303の取り付け部)102eにおける各軸(x,y,z,rx,ry,rz)の剛性のパラメータの情報のことである。ここで、rxはx軸回りの回転方向であり、ryはy軸回りの回転方向であり、rzはz軸回りの回転方向である。この値を剛性パラメータ情報生成部111で変更することによって、アーム102の手先部102eの剛性を変えることができる。その結果、人301がタッチパネルディスプレイ303にタッチするときの剛性を剛性パラメータ情報生成部111で調整することができる。また、座標系として図5A及び図5Bに示すように、タッチパネルディスプレイ303の表示部303aの座標系と、アーム102の手先部102eの座標系との2種類存在する。ここでは、タッチパネルディスプレイ303の表示部303aの座標系を基準とし、その座標系に対する剛性パラメータ情報を剛性パラメータ情報生成部111で生成する。以上より、アーム102の手先部102eの座標系とタッチパネルディスプレイ303の座標系とが異なるように取り付けられている場合においても、常に、タッチパネルディスプレイ303の表示部303aに対する剛性を剛性パラメータ情報生成部111で変化させることができる。また、剛性パラメータ情報は初期値では剛性を低く設定し、アーム102の剛性を変えるときのみ剛性を剛性パラメータ情報生成部111で変更する。
 剛性パラメータ情報生成部111において、高くした剛性を低く設定するときは、タッチパネルディスプレイ303の電源(例えば、後述するように、入出力IF114を使用して入力される、タッチパネルディスプレイ303の電源のオン/オフの切替情報)がオフになったとき、又は、表示部303aに対する人301のタッチがないときである。
 剛性パラメータ情報生成部111での剛性パラメータ情報の生成方法について説明する。
 まず、(x,y,z)の並進方向の軸(図5A参照)の生成方法について説明する。並進方向については、剛性パラメータ情報生成部111で取得したタッチ力情報において、力の加わった軸の剛性を高めるようにアーム102を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくする。剛性を高くする一例として、人301によるタッチパネルディスプレイ303のタッチによる力が加わる前の状態では、z方向に1.0Nの力が加わった場合、剛性が低いため20mmだけタッチパネルディスプレイ303が移動してしまう制御装置(比較例として、第1実施形態のアームの制御装置103と類似する構成でかつ剛性の調整の構成のみ異なる制御装置)として構成されていたとする。すなわち、この比較例では、一例として、剛性の係数が1.0/20=0.05N/mmとなっている。この状態では、人301がタッチパネルディスプレイ303に対してタッチ入力を行う度に、タッチパネルディスプレイ303がz方向へ移動してしまう。そこで、第1実施形態のアームの制御装置103では、z方向を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくすることでアーム102の剛性を高める。例えば、z方向に2.0Nの力が加わったときにタッチパネルディスプレイ303の移動量が5mm以内の移動になるように、剛性パラメータ情報生成部111でアーム102の剛性を変更する。これにより、この例では、剛性の係数が2.0/5=0.4N/mmとなる。つまり、剛性パラメータ情報生成部111で剛性を高く設定するとは、人301がタッチパネルディスプレイ303を押した方向にタッチパネルディスプレイ303が移動しにくくなることを表す。剛性パラメータ情報生成部111において、剛性を低く設定する場合と比較して、剛性を高く設定する場合は、同じ力でタッチパネルディスプレイ303を押しても、タッチパネルディスプレイ303が移動する距離が短い。どちらの場合においても、人301がタッチパネルディスプレイ303に接触しない場合は、タッチパネルディスプレイ303は移動しない。
 表示部303aの複数の位置に力が加わった場合は、それぞれの位置で検出した力に対して剛性パラメータ情報生成部111で剛性を高く設定する。又は、同じ方向に複数の位置で力が加わっている場合は、剛性パラメータ情報生成部111で、最も大きな力に対して剛性を高く設定する。なお、剛性パラメータ情報生成部111において、複数の位置に力が加わった場合に、最も大きな力に対して剛性を高く設定するとともに、複数の位置の力の合力に対して剛性を高く設定するなどの方法を取ることも可能である。
 (rx,ry)の回転方向の軸(図5A参照)の生成方法について説明する。回転方向については、取得したタッチ位置情報とタッチ力情報(Fzのみ)との両方の情報を剛性パラメータ情報生成部111で用いる。z軸方向に加わった位置(+x,+y)について、+xに関しては+ry方向の剛性を剛性パラメータ情報生成部111で高く設定し、+yに関しては-rx方向の剛性を剛性パラメータ情報生成部111で高く設定する。このことは、人301がタッチしたときに、タッチパネルディスプレイ303がタッチした方向に回転しないようにし、人301が表示部303aをタッチするためである。
 人301がタッチパネルディスプレイ303に加えるトルクの大きさは、z軸方向の力の大きさ(Fz)に原点Oからタッチ位置までの距離を掛けてトルク計算部110で算出する。図9に示すA(Ax,Ay)の位置に力Fzが加わった場合は、トルクは、それぞれ、Mx=-Ay・Fz、My=Ax・Fzとなる。例えば、位置(4mm,3mm)にz軸方向に0.5Nの力が加わった場合は、トルクMxは-1.5Nmm(=-0.5N×3mm)、トルクMyは+2.0Nmm(=0.5N×4mm)となる。
 剛性を高く設定する方法の一例として、人301によるタッチパネルディスプレイ303のタッチによる力が加わる前の状態では、位置(100mm,0mm)のz方向に1.0Nの力が加わった場合、剛性が低いため0.2radだけタッチパネルディスプレイ303が移動してしまう制御装置(比較例として、第1実施形態のアームの制御装置103と類似する構成でかつ剛性の調整の構成のみ異なる制御装置)として構成されていたとする。すなわち、この比較例では、剛性の係数が1.0×100.0/0.2=500Nmm/radとなっている。この状態では、人301がタッチパネルディスプレイ303に対してタッチ入力を行う度に、タッチパネルディスプレイ303がry方向へ移動してしまう。そこで、第1実施形態のアームの制御装置103では、ry方向を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくすることで剛性パラメータ情報生成部111で剛性を高める。例えば、位置(100mm,0mm)のz方向に2.0Nの力が加わったときにタッチパネルディスプレイの移動量が0.05rad以内の移動になるように剛性を変更する。これにより、剛性の係数が2.0×100.0/0.05=4000Nmm/radとなる。
 複数の位置において、z方向に力が加わった場合は、トルクMx、トルクMyをそれぞれ求め、それぞれの位置のトルクに対して耐えることができる剛性を剛性パラメータ情報生成部111で高く設定する方法をする。又は、同じ方向に複数の位置でトルクが加わっている場合は、最も大きなトルクに対して耐えることができるよう、剛性パラメータ情報生成部111で剛性を高く設定する。なお、複数の位置においてz方向に力が加わった場合に、最も大きなトルクに対して耐えることができる剛性を剛性パラメータ情報生成部111で高く設定する方法、及び、複数の位置のトルクの合力に対して耐えることができる剛性を剛性パラメータ情報生成部111で高く設定する方法の両方を採用するなど、他の方法を取ることも可能である。
 rz方向の軸(図5A参照)の生成方法について説明する。回転方向については、取得したタッチ位置情報(x,y)とタッチ力情報(Fx、Fy)の両方の情報を剛性パラメータ情報生成部111で用いる。
 剛性パラメータ情報生成部111で取得するrz方向の軸のトルクMzは、y・Fx-x・Fyで表される。トルク計算部110でのトルクの大きさの求め方は、図9に示すA(Ax,Ay)の位置に力Fx、Fyが加わった場合は、Mz=Ay・Fx-Ax・Fyとなる。
 剛性パラメータ情報生成部111において剛性を高く設定する方法の一例として、人301によるタッチパネルディスプレイ303のタッチによる力が加わる前の状態では、位置(100mm,50mm)のx軸方向に1.0N、y軸方向に2.0Nの力が加わった場合、剛性が低いため、0.2radだけタッチパネルディスプレイ303が移動してしまう制御装置(比較例として、第1実施形態のアームの制御装置103と類似する構成でかつ剛性の調整の構成のみ異なる制御装置)として構成されていたとする。すなわち、この比較例では、剛性の係数が(50×1.0-100×2.0)/0.2=-750Nmm/radとなっている。この状態では、人301がタッチパネルディスプレイ303に対してタッチ入力を行う度に、タッチパネルディスプレイ303が-rz方向へ移動してしまう。そこで、第1実施形態のアームの制御装置103では、-rz方向を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくすることで剛性を高める。例えば、位置(100mm,50mm)のx軸方向に1.0N、y軸方向に2.0Nの力が加わったときにタッチパネルディスプレイの移動量が0.05rad以内の移動になるように剛性パラメータ情報生成部111で剛性を変更する。これにより、剛性の係数が(50×1.0-100×2.0)/0.05=-3000Nmm/radとなる。
 複数の位置において、トルクMzが加わった場合は、トルクMzをそれぞれトルク計算部110で求め、それぞれの位置のトルクに対して剛性パラメータ情報生成部111で剛性を高く設定する方法をする。又は、同じ方向に複数の位置でトルクが加わっている場合は、最も大きなトルクに対して剛性パラメータ情報生成部111で剛性を高く設定する。なお、複数の位置においてトルクMzが加わった場合に、最も大きなトルクに対して剛性パラメータ情報生成部111で剛性を高く設定する方法、及び、複数の位置のトルクの合力に対して剛性パラメータ情報生成部111で剛性を高く設定する方法の両方を採用するなど、他の方法を取ることも可能である。
 また、図10に示すように、人301とタッチパネルディスプレイ303の位置関係によって、同じタッチ操作又はキーボード操作でも、人301とタッチパネルディスプレイ303の位置関係によって、タッチパネルディスプレイ303に加わる力が異なる。そこで、事前に、アーム付きタッチパネルディスプレイ303が利用される環境によって、前記剛性の調整量を剛性パラメータ情報生成部111で変化させる必要がある。調整方法は、一例として、人301が入出力IF113を用いて剛性パラメータ情報生成部111に、剛性の調整量を入力することができる。また、剛性を剛性パラメータ情報生成部111で低く設定する場合には、タッチパネルディスプレイ303が重力の影響で下に落ちない程度の剛性を剛性パラメータ情報生成部111で設定する。
 次に、人301が、表示装置の一例としてのタッチパネルディスプレイ303に対して行う操作の具体的な例を用いて説明する。人301がタッチパネルディスプレイに対して行う操作として、ここでは、一例として、「タッチ」、「ページめくり」、「拡大」、「縮小」、及び、「キーボード入力」の5つの操作について説明する。
 《タッチ》
 タッチ操作は、人301が指701などでタッチパネルディスプレイ303の表示部303aをタッチする(表示部303aに接触する)動作である。例として、図11Aに示すように、人301がタッチ操作をして選択する(YesかNoを選択する)コンテンツを用いて、説明する。図11Aでは、コンテンツ情報として、表示部303aの中央に「同意しますか?」という質問が表示され、それに対する回答として、「Yes」と「No」との2つのボタンが質問の下に表示されている。ここでは、図11Bに示すように、位置A(-180mm,-150mm)を人の手(指)701でタッチする操作する場合の剛性パラメータ情報を剛性パラメータ情報生成部111で生成する。一例として、人の手701はz方向に+1.0Nの力を加えたとする。つまり、タッチ位置情報として図11Cに示すような情報をタッチ位置情報取得部108で取得し、タッチ力情報として図11Dに示すような情報をタッチ力情報取得部109で取得する。
 このとき、剛性パラメータ情報生成部111で剛性を高く設定する方法について説明する。
 並進方向については、z方向に1.0Nの力が加わっているので、z方向の剛性を高めるようにアーム102を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくする。人301によるタッチパネルディスプレイ303のタッチによる力が加わる前の状態では、z方向に1.0Nの力が加わった場合、剛性が低いため20mmだけタッチパネルディスプレイ303が移動してしまう制御装置(比較例として、第1実施形態のアームの制御装置103と類似する構成でかつ剛性の調整の構成のみ異なる制御装置)として構成されていたとする。すなわち、この比較例では、剛性の係数が1.0/20=0.05N/mmとなっている。この状態では、人301がタッチパネルディスプレイ303に対してタッチ入力を行う度に、タッチパネルディスプレイ303がz方向へ移動してしまう。そこで、第1実施形態のアームの制御装置103では、z方向を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくすることで剛性を高める。例えば、z方向に2.0Nの力が加わったときにタッチパネルディスプレイ303の移動量が5mm以内の移動になるように剛性パラメータ情報生成部111で剛性を変更する。これにより、剛性の係数が2.0/5=0.4N/mmとなる。
 同様に、(rx,ry)の回転方向に対しても、位置A(-180mm,-150mm)にz方向に1.0Nの力が加わっているので、rx回転方向に対する剛性を剛性パラメータ情報生成部111で大きくし、ry回転方向に対しても剛性を剛性パラメータ情報生成部111で大きくするように設定する。
 したがって、このタッチ操作では、以下のように、アームの制御装置103は動作する。
 タッチ力情報取得部109は、タッチパネルディスプレイ303の画面303aの表面に垂直な方向に加わる押す力Fzとタッチパネルディスプレイ303の画面303aの表面に水平な方向に加わる摩擦力Fx,Fyとに関する力情報を取得する。
 タッチ位置情報取得部108は、人301がタッチパネルディスプレイ303の画面303aにタッチしつつなぞることにより、変化する位置情報を取得する。
 トルク計算部110は、タッチパネルディスプレイ303の画面303aの表面に垂直な方向に加わる押す力Fzに関する力情報とタッチ位置情報取得部108で取得した位置情報とから、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myを算出する。次いで、トルク計算部110は、タッチパネルディスプレイ303の画面303aに水平な方向に加わる摩擦力Fx,Fyに関する力情報とタッチ位置情報取得部108で取得した位置情報から、タッチパネルディスプレイ303の画面303aに垂直な方向を軸とするトルクMzを算出する。
 剛性パラメータ情報生成部111は、トルク計算部110より計算された前記トルクに基づいて、剛性パラメータの情報を生成する。
 このようにして、剛性パラメータ情報生成部111で生成する剛性パラメータ情報を図11Eに示す。
 《ページめくり》
 ページめくり操作は、文章を読んでいるときなどにおいて、ページを変更する場合に人301が行う操作である。その操作は、タッチパネルディスプレイ303の表示部303aを任意の方向になぞるようにタッチする動作である。すなわち、ページめくり操作の位置情報は、まず、画面303aに指701などがタッチし、次いで、画面303aにおいて、指701などでなぞりながら、タッチする位置が任意の方向に変化し、次いで、画面303aから指701などが離れる、というように変化する位置情報である。具体的には、図12A及び図12Bに示すように、人の手701がタッチパネルディスプレイ303の表示部303aにタッチした時点(図12A)からタッチ状態を維持しながら一定方向(一例として、図12Aでは-x軸方向)に移動する動作(スライド動作)のことである(図12B参照)。
 ページめくり操作における剛性を剛性パラメータ情報生成部111で高く設定する方法について、図12Bで表される操作を行ったときを例に説明する。ここでは、位置A(100mm,-100mm)から位置B(-100mm,-100mm)へ指701でページめくり操作を行った例を示す。図13Aは、タッチ位置情報取得部108で取得したタッチ位置情報を示す。横軸が時間(ms)を表し、縦軸が位置(mm)を表す。参照符号xのグラフはx座標の位置の変化を表し、参照符号yのグラフはy座標の変化を表す。この図13Aより、x座標についてタッチ位置が移動していることがわかる。また、図13Aのグラフの下に人301の操作状態の説明図を表し、0ms~1000msまでは位置Aにタッチし、1000ms~2000msにかけて位置Aから位置Bまでなぞり操作を行っていることを示す。図13Bは、タッチ力情報取得部109で取得したタッチ力情報を示す。横軸が時間(ms)を表し、縦軸が力(N)を表す。図13Bの参照符号Fxのグラフは力Fxの変化を表し、参照符号Fyのグラフは力Fyの変化を表し、参照符号Fzのグラフは力Fzの変化を表す。力Fxと力Fzに関して、力の大きさが変化していることがわかる。また、図13Bのグラフの下に人301の操作状態の説明図を表し、0ms~1000msまでは力Fzが1.0N加わり、1000ms~2000msにかけて力Fxが-0.5N、力Fzが0.5N加わっていることを表す。
 このとき、剛性パラメータ情報生成部111で剛性を高く設定する方法について説明する。
 並進方向については、タッチ力情報取得部109で取得したタッチ力情報(図13B)を基に、剛性パラメータ情報生成部111で剛性を高く設定する。人301によるタッチパネルディスプレイ303のタッチによる力が加わる前の状態では、x、y、及び、z軸方向に1.0Nの力が加わった場合、剛性が低いため20mmタッチパネルディスプレイ303が移動してしまう制御装置(比較例として、第1実施形態のアームの制御装置103と類似する構成でかつ剛性の調整の構成のみ異なる制御装置)として構成されていたとする。すなわち、この比較例では、剛性の係数が1.0/20=0.05N/mmとなっている。この状態では、人301がタッチパネルディスプレイ303に対して上述したページめくり操作を行う度に、タッチパネルディスプレイ303がx及びz軸方向へ移動してしまう。そこで、第1実施形態のアームの制御装置103では、x及びz方向を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくすることで剛性パラメータ情報生成部111で剛性を高める。例えば、x及びz方向に2.0Nの力が加わったときにタッチパネルディスプレイ303の移動量が5mm以内の移動になるように剛性パラメータ情報生成部111で剛性を変更する。これにより、剛性の係数が-x方向を図13Cに示し、+z方向を図13Dに示すような情報として剛性パラメータ情報生成部111で求まる。また、図13Cのグラフの下に人301の操作状態の説明図を表す。図13Cの-x方向の軸では、剛性の係数が1000ms~2000msにかけて0.2N/mmである。図13Dの+z方向の軸では、剛性の係数が0ms~1000msでは0.4N/mmであり、1000ms~2000msにかけて0.2N/mmである。他の軸は、剛性の係数が0.05N/mmとなっている。
 回転方向については、タッチ位置情報取得部108で取得したタッチ位置情報(図13A)とタッチ力情報取得部109で取得したタッチ力情報(図13B)とを基に、上述した方法でトルクをトルク計算部110で導出する。同様に、回転方向に対しても、x軸及びz軸方向に力が加わっているので、rx軸、ry軸、及び、rz軸回転方向に対しても剛性パラメータ情報生成部111で剛性を大きくするように設定する。
 剛性パラメータ情報生成部111で生成した剛性パラメータ情報について、+rx方向を図13Eに示し、-ry方向を図13Fに示し、+ry方向を図13Gに示し、+rz方向を図13Hに示す。また、図13Fのグラフの下に人301の操作状態の説明図を表す。図13Eの+rx方向の軸では、剛性の係数が0ms~1000msでは4000Nmm/radであり、剛性の係数が1000ms~2000msでは2000Nmm/radである。図13Fの-ry方向の軸では、剛性の係数が1500ms~2000msにかけて2000Nmm/radに単調増加していることがわかる。図13Gの+ry方向の軸では、剛性の係数が0ms~1000msでは4000Nmm/radであり、剛性の係数が1000ms~1500msにかけて2000Nmm/radから単調減少していることがわかる。他の軸は、剛性の係数が500Nmm/radとなっている。
 したがって、このページめくり操作では、以下のように、アームの制御装置103は動作する。
 タッチ力情報取得部109では、以下のように変化する力情報を取得する。(1)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzが加わる。次いで、(2)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzとタッチパネルディスプレイ303の画面303aの表面に水平な方向に加わる摩擦力Fx,Fyとが加わる。次いで、(3)タッチパネルディスプレイ303に力が加わらない。
 タッチ位置情報取得部109は、以下のように変化する位置情報を取得する。(1)タッチパネルディスプレイ303の画面303aにタッチする。次いで、(2)タッチパネルディスプレイ303の画面303aに人301がなぞりながらタッチする位置が任意の方向に変化する。次いで、(3)タッチパネルディスプレイ303の画面303aから人301が離れる。
 剛性パラメータ情報生成部111においては、以下のように変更する剛性パラメータを生成する。(1)タッチ力情報取得部109で取得したタッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzに基づき、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myをトルク計算部110で算出する。次いで、算出したトルクに基づき、タッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。次いで、(2)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzとタッチパネルディスプレイ303に水平な方向に加わる摩擦力Fx,Fyとに基づき、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myとタッチパネルディスプレイ303の画面303aの表面に垂直な方向を軸とするトルクMzとをトルク計算部110で算出する。次いで、算出したトルクに基づき、タッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。次いで、(3)タッチパネルディスプレイ303に力が加わらない場合のアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。
 《拡大》
 拡大操作は、写真を見ているときなどにおいて、写真を拡大する場合に人301が行う動作である。その操作は、タッチパネルディスプレイ303の表示部303aを複数の指701などでマルチタッチし、マルチタッチした位置が2方向にお互いに離れる方向になぞるようにタッチする動作である。すなわち、拡大操作の位置情報は、まず、画面303aに複数の指701などがマルチタッチし(画面303aに複数の指701などがマルチタッチした位置が移動せず)、次いで、画面303aに複数の指701などがマルチタッチしたそれぞれの位置がお互いに離れる方向に変化し、次いで、画面303aから指701などが離れる、というように変化する位置情報である。具体的には、図14A及び図14Bに示すように、人の手の複数の指701などがタッチパネルディスプレイ303の表示部303aに2箇所でタッチした時点(図14A)から、2箇所の位置がタッチ状態を維持しながらお互いに離れる方向に移動する操作のことである。
 このとき、剛性パラメータ情報生成部111で剛性を高く設定する方法について、図14A及び図14Bで表される操作を行ったときを例に説明する。拡大操作は2本の指701がマルチタッチする操作であり、ここでは原点O(0mm,0mm)から位置A(100mm,100mm)と原点O(0mm,0mm)から位置B(-100mm,-100mm)との2つのタッチが生じる。タッチ位置情報取得部108で取得したタッチ位置情報において、位置Aに関するタッチ位置情報を図14Cに示し、位置Bに関するタッチ位置情報を図14Dに示す。横軸が時間(ms)を表し、縦軸が位置(mm)を表す。参照符号xはx座標の位置の変化を表し、参照符号yはy座標の変化を表す。x及びy座標共にタッチ位置が移動していることがわかる。図14Cのグラフの下に人301の操作状態の説明図を表し、0ms~1000msまでは位置Oにタッチし、1000ms~2000msにかけて位置Oから位置Aまでと、位置Oから位置Bまでとで、それぞれ、なぞり操作を行っていることを示す。また、タッチ力情報取得部109で取得したタッチ力情報において、位置Aに関するタッチ力情報を図14Eに示し、位置Bに関するタッチ力情報を図14Fに示す。横軸が時間(ms)を表し、縦軸が力(N)を表す。参照符号Fxは力Fxの変化を表し、参照符号Fyは力Fyの変化を表し、参照符号Fzは力Fzの変化を表す。力Fx、Fy、及び、Fzは共に力の大きさが変化していることがわかる。また、図14Fのグラフの下に人301の操作状態の説明図を表し、0ms~1000msまでは力Fzが1.0N加わり、1000ms~2000msにかけて力Fx及びFyが0.5N(位置A)又は-0.5N(位置B)加わっており、力Fzが0.5N加わっていることを表す。
 このとき、剛性パラメータ情報生成部111で剛性を高く設定する方法について説明する。
 並進方向については、人301によるタッチパネルディスプレイ303のタッチによる力が加わる前の状態では、x、y、及び、z軸方向に1.0Nの力が加わった場合、剛性が低いため20mmだけタッチパネルディスプレイ303が移動してしまう制御装置(比較例として、第1実施形態のアームの制御装置103と類似する構成でかつ剛性の調整の構成のみ異なる制御装置)として構成されていたとする。すなわち、この比較例では、剛性の係数が1.0/20=0.05N/mmとなっている。この状態では、人301がタッチパネルディスプレイ303に対して上述した拡大操作を行う度に、タッチパネルディスプレイ303がx、y、及び、z軸方向へ移動してしまう。そこで、第1実施形態のアームの制御装置103では、x、y、及び、z方向を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくすることで剛性を高める。例えば、x、y、及び、z方向に2.0Nの力が加わったときにタッチパネルディスプレイ303の移動量が5mm以内の移動になるように剛性パラメータ情報生成部111で剛性を変更する。これにより、剛性の係数が位置Aの並進方向を図14Gに示し、位置Bの並進方向を図14Hに示すような情報として剛性パラメータ情報生成部111で求まる。また、図14Hのグラフの下に人301の操作状態の説明図を表す。
 位置Aについて、剛性パラメータ情報生成部111で生成した剛性パラメータ情報を図14Gに示す。図14Gのグラフの下に人301の操作状態の説明図を表す。+x方向の軸及び+y方向の軸では、剛性の係数が1000ms~2000msにかけて0.2N/mmであり、+z方向の軸では、剛性の係数が0ms~1000msでは0.4N/mmであり、剛性の係数が1000ms~2000msにかけて0.2N/mmである。また、他の軸は、剛性の係数が0.05N/mmとなっている。
 位置Bについて、剛性パラメータ情報生成部111で生成した剛性パラメータ情報を図14Hに示す。図14Hのグラフの下に人301の操作状態の説明図を表す。-x方向の軸及び-y方向の軸では、剛性の係数が1000ms~2000msにかけて0.2N/mmであり、+z方向の軸では、剛性の係数が0ms~1000msでは0.4N/mmであり、剛性の係数が1000ms~2000msにかけて0.2N/mmである。また、他の軸は、剛性の係数が0.05N/mmとなっている。
 回転方向については、タッチ位置情報取得部108で取得したタッチ位置情報(図14C、図14D)とタッチ力情報取得部109で取得したタッチ力情報(図14E、図14F)とを基に、上述した方法でトルクをトルク計算部110で導出する。同様に、回転方向に対しても、x軸、y軸、及び、z軸方向に力が加わっているので、rx軸、ry軸、及び、rz軸回転方向に対しても剛性パラメータ情報生成部111で剛性を大きくするように設定する。
 剛性パラメータ情報生成部111で生成した剛性パラメータ情報について、位置Aの回転方向を図14Iに示し、位置Bの回転方向を図14Jに示す。また、図14Jのグラフの下に人301の操作状態の説明図を表す。図14Iの+rx方向の軸及び-ry方向の軸では、剛性の係数が1000ms~2000msにかけて2000Nmm/radに単調増加していることがわかる。図14Jの-rx方向の軸及び+ry方向の軸では、剛性の係数が1000ms~2000msにかけて2000Nmm/radに単調増加していることがわかる。他の軸は、剛性の係数が500Nmm/radとなっている。
 したがって、この拡大操作では、以下のように、アームの制御装置103は動作する。
 タッチ力情報取得部109は、以下のように変化する力情報を取得する。(1)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzが加わる。次いで(2)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzとタッチパネルディスプレイ303の画面303aの表面に水平な方向に加わる摩擦力Fx,Fyとが加わる。次いで、(3)タッチパネルディスプレイ303に力が加わらない。
 タッチ位置情報取得部108は、以下のように変化する位置情報を取得する。(1)タッチパネルディスプレイ303の画面303aに人301がマルチタッチする。次いで、(2)タッチパネルディスプレイ303の画面303aに人301がマルチタッチしたそれぞれの位置がお互いに離れる方向に変化する。次いで、(3)タッチパネルディスプレイ303の画面303aから人301が離れる。
 剛性パラメータ情報生成部111は、以下のように変更する剛性パラメータを生成する。(1)タッチ力情報取得部109で取得したタッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzに基づき、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myとをトルク計算部110で算出する。次いで、算出したトルクに基づき、タッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。次いで、(2)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzとタッチパネルディスプレイ303の画面303aの表面に水平な方向に加わる摩擦力Fx,Fyとに基づき、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myと、タッチパネルディスプレイ303の画面303aの表面に垂直な方向を軸とするトルクMzとをトルク計算部110で算出する。算出したトルクに基づき、タッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。次いで、(3)タッチパネルディスプレイ303に力が加わらない場合のアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。
 《縮小》
 縮小操作は、写真を見ているときなどにおいて、写真を縮小する場合に人301が行う動作である。その操作は、タッチパネルディスプレイ303の表示部303aを複数の指701などでマルチタッチし、マルチタッチした位置が2方向にお互いに近づく方向になぞるようにタッチする動作である。すなわち、縮小操作の位置情報は、まず、画面303aに複数の指701などがマルチタッチし(画面303aに複数の指701などがマルチタッチした位置が移動せず)、次いで、画面303aに複数の指701などがマルチタッチしたそれぞれの位置がお互いに近づく方向に変化し、次いで、画面303aから指701などが離れる、というように変化する位置情報である。具体的には、図15A及び図15Bに示すように、人の手の複数の指701などがタッチパネルディスプレイ303の表示部303aに2箇所タッチした時点(図15A)から、2箇所の位置がタッチ状態を維持しながらお互いに近づく方向に移動する操作のことである。
 このとき、剛性パラメータ情報生成部111で剛性を高く設定する方法について、図15A及び図15Bで表される操作を行ったときを例に説明する。縮小操作は2本の指701がマルチタッチする操作であり、ここでは、位置A(100mm,100mm)から原点O(0mm,0mm)と位置B(-100mm,-100mm)から原点O(0mm,0mm)との2つのタッチが生じる。タッチ位置情報取得部108で取得したタッチ位置情報において、位置Aに関するタッチ位置情報を図15Cに示し、位置Bに関するタッチ位置情報を図15Dに示す。横軸が時間(ms)を表し、縦軸が位置(mm)を表す。参照符号xはx座標の位置の変化を表し、参照符号yはy座標の変化を表す。x及びy座標共にタッチ位置が移動していることがわかる。図15Dのグラフの下に人301の操作状態の説明図を表し、0ms~1000msまでは位置A及び位置Bにタッチし、1000ms~2000msにかけて位置Aから位置Oまでと、位置Bから位置Oまでとで、それぞれ、なぞり操作を行っていることを示す。また、タッチ力情報取得部109で取得したタッチ力情報において、位置Aに関するタッチ力情報を図15Eに示し、位置Bに関するタッチ力情報を図15Fに示す。横軸が時間(ms)を表し、縦軸が力(N)を表す。参照符号Fxは力Fxの変化を表し、参照符号Fyは力Fyの変化を表し、参照符号Fzは力Fzの変化を表す。力Fx、Fy、及び、Fzは共に力の大きさが変化していることがわかる。また、図15Fのグラフの下に人301の操作状態の説明図を表し、0ms~1000msまでは力Fzが1.0N加わり、1000ms~2000msにかけて力Fx及びFyが-0.5N(位置A)又は0.5N(位置B)加わっており、力Fzが0.5N加わっていることを表す。
 このとき、剛性パラメータ情報生成部111で剛性を高く設定する方法について説明する。
 並進方向については、人301によるタッチパネルディスプレイ303のタッチによる力が加わる前の状態では、x、y、及び、z軸方向に1.0Nの力が加わった場合、剛性が低いため20mmだけタッチパネルディスプレイ303が移動してしまう制御装置(比較例として、第1実施形態のアームの制御装置103と類似する構成でかつ剛性の調整の構成のみ異なる制御装置)として構成されていたとする。すなわち、この比較例では、剛性の係数が1.0/20=0.05N/mmとなっている。この状態では、人301がタッチパネルディスプレイ303に対して上述した縮小操作を行う度に、タッチパネルディスプレイ303がx、y、及び、z軸方向へ移動してしまう。そこで、第1実施形態のアームの制御装置103では、x、y、及び、z方向を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくすることで剛性パラメータ情報生成部111で剛性を高める。例えば、x、y、及び、z方向に2.0Nの力が加わったときにタッチパネルディスプレイ303の移動量が5mm以内の移動になるように剛性パラメータ情報生成部111で剛性を変更する。これにより、剛性の係数が位置Aの並進方向を図15Gに示し、位置Bの並進方向を図15Hに示すような情報として剛性パラメータ情報生成部111で求まる。また、図15Gのグラフの下に人301の操作状態の説明図を表す。
 位置Aについて、剛性パラメータ情報生成部111で生成した剛性パラメータ情報を図15Gに示す。図15Gのグラフの下に人301の操作状態の説明図を表す。-x方向の軸及び-y方の軸では、剛性の係数が1000ms~2000msにかけて0.2N/mmであり、+z方向の軸では、剛性の係数が0ms~1000msでは0.4N/mmであり、剛性の係数が1000ms~2000msにかけて0.2N/mmである。また、他の軸は、剛性の係数が0.05N/mmとなっている。
 位置Bについて、剛性パラメータ情報生成部111で生成した剛性パラメータ情報を図14Hに示す。図14Hのグラフの下に人301の操作状態の説明図を表す。+x方向の軸及び+y方向の軸では、剛性の係数が1000ms~2000msにかけて0.2N/mmであり、+z方向の軸では、剛性の係数が0ms~1000msでは0.4N/mmであり、剛性の係数が1000ms~2000msにかけて0.2N/mmである。また、他の軸は、剛性の係数が0.05N/mmとなっている。
 回転方向については、タッチ位置情報取得部108で取得したタッチ位置情報(図15C、図15D)とタッチ力情報取得部109で取得したタッチ力情報(図15E、図15F)を基に、上述した方法でトルクをトルク計算部110で導出する。同様に、回転方向に対しても、x軸、y軸、及び、z軸方向に力が加わっているので、rx軸、ry軸、及び、rz軸回転方向に対しても剛性パラメータ情報生成部111で剛性を大きくするように設定する。
 剛性パラメータ情報生成部111で生成した剛性パラメータ情報について、位置Aの回転方向を図15Iに示し、位置Bの回転方向を図15Jに示す。また、図15Jのグラフの下に人301の操作状態の説明図を表す。図15Iの-rx方向の軸及び+ry方向の軸では、剛性の係数が1000ms~2000msにかけて2000Nmm/radから単調減少していることがわかる。図15Jの+rx方向の軸及び-ry方向の軸では、剛性の係数が1000ms~2000msにかけて2000Nmm/radから単調減少していることがわかる。他の軸は、剛性の係数が500Nmm/radとなっている。
 したがって、この縮小操作では、以下のように、アームの制御装置103は動作する。
 タッチ力情報取得部109は、以下のように変化する力情報を取得する。(1)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzが加わる。次いで、(2)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzとタッチパネルディスプレイ303の画面303aの表面に水平な方向に加わる摩擦力Fx,Fyとが加わる。次いで、(3)タッチパネルディスプレイ303に力が加わらない。
 タッチ位置情報取得部108は、以下のように変化する位置情報を取得する。(1)タッチパネルディスプレイ303の画面303aに人301がマルチタッチする。次いで、(2)タッチパネルディスプレイ303の画面303aに人301がマルチタッチしたそれぞれの位置がお互いに近づく方向に変化する。次いで、(3)タッチパネルディスプレイ303の画面303aから人301が離れる。
 剛性パラメータ情報生成部111は、以下のように変更する剛性パラメータを生成する。(1)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzに基づいて、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myをトルク計算部110で算出する。次いで、算出したトルクに基づき、タッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。次いで、(2)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzとタッチパネルディスプレイ303の画面303aの表面に水平な方向に加わる摩擦力Fx,Fyとに基づいて、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myと、タッチパネルディスプレイ303の画面303aの表面に垂直な方向を軸とするトルクMzとをトルク計算部110で算出する。次いで、算出したトルクに基づき、タッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。次いで、(3)タッチパネルディスプレイ303に力が加わらない場合のアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。
 《キーボード入力》
 キーボード入力操作は、文章を作成するときなどにおいて、キーボード入力を行う場合に人301が行う操作である。その操作は、前述したタッチ操作を連続して行う。すなわち、キーボード入力操作の位置情報は、まず、画面303aに指701などがタッチし(画面303aに指701などがタッチする位置が移動せず)、次いで、画面303aから指701などが離れる、というように複数回繰り返し変化する位置情報である。具体的には、
 例として、図16Aに示すように、文章を作成するコンテンツを用いて説明する。図16Bに示すように、連続してタッチ操作を行う。タッチ操作との違いは、連続してタッチ操作を行うところである。
 キーボード操作を行ったときの取得するタッチ位置情報の一例を図16Cに示す。横軸が時間(ms)を表し、縦軸が位置(mm)を表す。参照符号xは座標xの位置の変化を表し、参照符号yは座標yの変化を表す。キーボード入力が3回行われていることがわかる。
 タッチ力情報を図16Dに示す。横軸が時間(ms)を表し、縦軸が力(N)を表す。参照符号Fzは力Fzの変化を表す。力Fzに関して、3回のキーボード入力でそれぞれ2.0Nが加えられていることがわかる。
 このとき、剛性パラメータ情報生成部111で剛性を高く設定する方法について説明する。
 並進方向については、取得したタッチ力情報(図16D)を基に、剛性パラメータ情報生成部111で剛性を高く設定する。z方向に1.0Nの力が加わっているので、z方向の剛性を剛性パラメータ情報生成部111で高めるようにアーム102を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくする。人301によるタッチパネルディスプレイ303のタッチによる力が加わる前の状態では、z方向に1.0Nの力が加わった場合、剛性が低いため20mmだけタッチパネルディスプレイ303が移動してしまう制御装置(比較例として、第1実施形態のアームの制御装置103と類似する構成でかつ剛性の調整の構成のみ異なる制御装置)として構成されていたとする。すなわち、この比較例では、剛性の係数が1.0/20=0.05N/mmとなっている。この状態では、人301がタッチパネルディスプレイ303に対してタッチ入力を行う度に、タッチパネルディスプレイ303がz方向へ移動してしまう。そこで、第1実施形態のアームの制御装置103では、z方向を制御するモータ102Mのフィードバックゲインを剛性パラメータ情報生成部111で大きくすることで剛性パラメータ情報生成部111で剛性を高める。例えば、z方向に2.0Nの力が加わったときにタッチパネルディスプレイ303の移動量が5mm以内の移動になるように剛性パラメータ情報生成部111で剛性を変更する。これにより、剛性の係数が2.0/5=0.4N/mmとなる。剛性パラメータ情報生成部111で生成した剛性パラメータ情報を図16Eに示す。タッチ入力がある場合は、+z軸方向の剛性の係数が0.4N/mmとなり、タッチ入力がない場合は、剛性の係数が0.05N/mmとなる。また、他の軸は、剛性の係数が0.05N/mmとなっている。
 回転方向については、タッチ位置情報取得部108で取得したタッチ位置情報(図16C)とタッチ力情報取得部109で取得したタッチ力情報(図16D)を基に、上述した方法でトルクをトルク計算部110で導出する。そのトルクの大きさの2倍のトルクに耐えられるよう剛性パラメータ情報生成部111で剛性を高く設定する。剛性パラメータ情報生成部111で生成した剛性パラメータ情報について、+rx方向を図16Fに示し、+ry方向を図16Gに示す。+rx方向の軸では、1回目と3回目との入力で剛性の係数が2000Nmm/radであり、2回目の入力で剛性の係数が4000Nmm/radである。+ry方向の軸では、1回目と3回目との入力で剛性の係数が4000Nmm/radであり、2回目の入力では剛性の係数が500Nmm/radである。他の軸は、剛性の係数が500Nmm/radとなっている。
 したがって、このキーボード入力操作では、以下のように、アームの制御装置103は動作する。
 タッチ力情報取得部109は、以下のように変化する力情報を取得する。(1)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力が加わる。次いで、(2)タッチパネルディスプレイ303の画面303aに力が加わらない。
 タッチ位置情報取得部108は、以下のように複数回繰り返し変化する位置情報を取得する。(1)タッチパネルディスプレイ303の画面303aに人301がタッチする。次いで、(2)タッチパネルディスプレイ303の画面303aから人301が離れる。
 剛性パラメータ情報生成部111は、以下のように変更する剛性パラメータを生成する。(1)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に押す力Fzに基づき、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myをトルク計算部110で算出する。次いで、算出したトルクに基づき、タッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。次いで、(2)タッチパネルディスプレイ303の画面303aに力が加わらない場合のアーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。
 なお、人301が画面303aに連続タッチ操作する場合には、以下のように、アームの制御装置103は動作する。
 タッチ力情報取得部109は、タッチパネルディスプレイ303の画面303aの表面に垂直な方向に加わる押す力Fz関する力情報とタッチパネルディスプレイ303の画面303aに力が加わらないときに関する力情報とを取得する。
 タッチ位置情報取得部108は、人301がタッチパネルディスプレイ303の画面303aに複数回のタッチを繰り返す際の位置情報を取得する。
 剛性パラメータ情報生成部111は、以下のように変更する剛性パラメータを生成する。(1)タッチパネルディスプレイ303の画面303aの表面に垂直な方向に加わる押す力Fzに関する力情報とタッチ位置情報取得部108で取得した位置情報とから、タッチパネルディスプレイ303の画面303aの表面に水平な方向を軸とするトルクMx,Myをトルク計算部110で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算(生成)し、(2)タッチパネルディスプレイ303に力が加わらないときはトルクをトルク計算部110で算出せず、アーム102の剛性パラメータを剛性パラメータ情報生成部111で計算(生成)する。
 上述したコンテンツ以外にも、病院などで用いられるコンテンツにも適用可能である。図17A及び図17Bを用いて具体的なコンテンツを説明する。
 図17Aは、リハビリ映像の動画のコンテンツである。このようなコンテンツでは、参照符号Aで囲んだ部分に対して、再生/停止ボタン又はスライダなどの操作を行う。
 図17Bは体重及び血圧などの体調を入力するコンテンツである。このようなコンテンツでは、参照符号Bと参照符号Cとで囲んだ、選択又は入力を行う部分に対して、選択又は入力の操作を行う。
 剛性パラメータ情報生成部111は、剛性パラメータ情報生成部111で生成した剛性パラメータ情報と時間情報とをアーム制御部112に出力する。
 アーム制御部112は、アーム動作情報生成部107から動作情報と時間情報とを取得する。また、アーム制御部112は、剛性パラメータ情報生成部111から剛性パラメータ情報と時間情報とを取得する。
 アーム制御部112の1つ目の機能として、アーム制御部112に入力された動作情報を、入出力IF113に内蔵されたタイマーを利用して、ある一定時間毎(例えば、1ms毎)に、アーム制御部112から入出力IF113に出力して、モータドライバ114を介してアーム102の動作を制御する。
 アーム制御部112の2つ目の機能として、アーム制御部112に入力された剛性パラメータ情報を基に、入出力IF113に内蔵されたタイマーを利用して、ある一定時間毎(例えば、1ms毎)に、アーム制御部112から入出力IF113に出力して、アーム102の手先部(タッチパネルディスプレイ303の取り付け部)102eの剛性をアーム制御部112で制御する。アーム制御部112に剛性パラメータ情報が入力されない場合は、軽い力で人301がアーム102を移動できるように、アーム制御部112で剛性は低く制御されている。ここでは、常にタッチパネルディスプレイ303の表示部303aに対する剛性をアーム制御部112で制御する。つまり、タッチパネルディスプレイ303の表示部303aの座標系を基準に、アーム102の剛性をアーム制御部112で制御する。剛性をアーム制御部112で制御することによって、人301のタッチ操作を行いやすくする。つまり、人301がタッチパネルディスプレイに対して操作したときに、タッチパネルディスプレイ303の位置及び姿勢が変わらないように、剛性をアーム制御部112で制御する。
 アーム制御部112による剛性の制御方法は、インピーダンス制御又はダンピング制御など、任意の制御方法を用いることも可能である。例えば、出力する力とトルクとにゲインをそれぞれ掛け、アーム102の位置及び姿勢をアーム制御部112で制御する。このとき、ゲインの値の大きさをアーム制御部112で調整することで、剛性をアーム制御部112で調整することができる。
 また、剛性を低くしてタッチパネルディスプレイ303を移動させるときは、インピーダンス制御又はダンピング制御をアーム制御部112で用いればよい。一方、剛性を高めるときには、タッチパネルディスプレイ303をその位置に留まるように位置制御をアーム制御部112で用いるなど、複数の制御方法をアーム制御部112で組み合わせることも可能である。
 一方、入力情報取得部117は、入出力IF113からの入力情報を取得する。入力情報とは、人301が入出力IF113を用いて入力情報取得部117に入力する情報のことを示す。
 入力情報の一例としては、タッチパネルディスプレイ303の電源のオン/オフの切替情報を表す。
 入力情報の他の例として、熟練度情報を表す。熟練度情報とは、人301が第1実施形態にかかるアームの制御装置103を使用した使用歴の情報を表す。例えば、使用歴が「0~1ヶ月」、「2~5ヶ月」、「6ヶ月~」の3つの選択肢から人301が選択し、人301が熟練度情報を入出力IF113を用いて入力情報取得部117に入力する。
 入力情報取得部117に入力された熟練度情報を基に、剛性パラメータ情報生成部111において、剛性パラメータ情報を調整する。
 なお、熟練度情報の取得を人301の入力によって行ったが、タッチパネルディスプレイ303のオンされた回数又はタッチパネルディスプレイ303をタッチした回数などを剛性パラメータ情報生成部111で記憶し、剛性パラメータ情報生成部111で熟練度情報を推定することも可能である。
 <周辺装置の説明>
 入出力IF113は、アーム制御部112から入力された動作情報をモータドライバ114に出力する。また、入出力IF113は、アーム102の各軸のエンコーダ102Eで取得した入力値から、アーム102の位置情報及び姿勢情報をエンコーダ内部の演算部で求めたのち入出力IF113に入力され、入出力IF113に入力された位置情報及び姿勢情報と入出力IF113に内蔵されたタイマーからの時間情報とを、入出力IF113から動作情報取得部106に出力する。
 タッチセンサ115からタッチ位置情報を検出し、検出したタッチ位置情報と入出力IF113に内蔵されたタイマーからの時間情報とをタッチ位置情報取得部108に出力する。力センサ116からタッチ力情報を検出し、検出したタッチ力情報と入出力IF113に内蔵されたタイマーからの時間情報とをタッチ力情報取得部109に出力する。
 また、入出力IF113は、図18に示すように、入力部113Aと出力部113Bとによって構成される。入力部113Aは、入力IFとなっており、キーボード又はマウス又はタッチパネルディスプレイ又は音声入力などにより人301が項目を選択する場合、又は、キーボード又はマウス又はタッチパネルディスプレイ又は音声入力などにより人301が数字を入力する場合などに用いられる。出力部113Bは、出力IFとなっており、取得した情報などを外部に出力する場合又はディスプレイなどに表示する場合などに用いられる。出力部113Bは、ディスプレイ、スピーカ、又は、ランプなどで構成して、取得した情報などを外部に表示、音声、又は、照明の点等若しくは点滅などで出力することもできる。
 モータドライバ114は、入出力IF113から取得した動作情報と剛性パラメータ情報とを基に、アーム102を制御するために、アーム102の各軸のモータ102Mへの指令値をアーム102に出力する。
 <アームの説明>
 アーム102において、入出力IF113に内蔵されたタイマーを利用して、ある一定時間毎(例えば、1ms毎)に、アーム102の動作情報をアーム102の各エンコーダ102Eを用いてエンコーダ内部の演算部で求めて入出力IF113に出力する。また、アーム102の各軸のモータ102Mは、モータドライバ114からの指令値に従って制御される。
 ここで、アーム102は各関節にモータ102Mとエンコーダ102Eとが配置されている。より具体的には、アーム102のアーム部材102a同士が連結される各関節部102bには、関節部駆動用のモータ102Mのような回転駆動装置と、モータ102Mの回転軸の回転位相角(すなわち関節角)を検出して位置情報及び姿勢情報を内部の演算部で算出して出力するエンコーダ102E(実際には、アーム102の各関節部102bの内部に配設されている。)とを備えている。モータ102M(実際には、アーム102の各関節部102bの内部に配設されている。)は、各関節部102bを構成する一対のアーム部材102a(例えば、回動側アーム部材102aと、該回動側アーム部材102aを支持する支持側アーム部材102a)のうちの一方のアーム部材102aに備えられ、モータドライバ115により駆動制御される。各関節部102bの一方のアーム部材102aに備えられたモータ102Mの回転軸が、各関節部102bの他方のアーム部材102aに連結されて、前記回転軸を正逆回転させることにより、他方のアーム部材102aを一方のアーム部材102aに対して各軸周りに回転可能とする。このように構成することにより、モータ102Mとエンコーダ102Eとによりアーム102を所望の位置及び姿勢に制御することができる。ここでは、6関節を有する6自由度の多リンクマニピュレータとする。アーム102の手先部102eの座標系は、図19に示す座標系に従い、タッチパネルディスプレイ303と同様の座標系とする。なお、アーム102の関節数及び自由度は、第1実施形態の数に限られるわけではなく、1以上のいかなる数でも可能である。
 <動作手順の説明>
 第1実施形態での動作手順について説明する。ここでは、表示するコンテンツについて、文章を読むコンテンツを例に説明する。
 図20A~図20Gを用いて、アーム102を移動させ、アーム制御装置102でコンテンツによって剛性を調整する例の手順を述べる。
 図20Aは、人301からタッチパネルディスプレイ303が離れている時点である。タッチパネルディスプレイ303の電源はオフであり、剛性パラメータ情報生成部111により、アーム102の剛性についてもいずれの軸も低く設定する。これは、アーム102の剛性は、剛性パラメータ情報生成部111により、その初期値が低く設定されているためである。
 図20Bは、人301がタッチパネルディスプレイ303の側部を持ち、見やすい位置にタッチパネルディスプレイ303を移動させている時点である。剛性パラメータ情報生成部111により、アーム102の剛性はいずれの軸も低く設定するので、人301は軽い力で自分の見やすい位置にタッチパネルディスプレイ303を移動させることができる。
 図20Cは、人301がタッチパネルディスプレイ303を見やすい位置に移動させた時点である。
 図20Dは、人301がタッチパネルディスプレイ303の電源をオンにした時点である。この時点で文章を読むコンテンツが表示部303aに表示されている。
 図20Eは、人301がタッチパネルディスプレイ303の表示部303aをタッチした時点である。この時点で、人301がタッチした位置及びタッチした力をタッチセンサ115と力センサ116でそれぞれ検出し、タッチパネルディスプレイ303に働く力及びトルクをトルク計算部110で導出する。導出した力及びトルクが加わる軸の剛性を剛性パラメータ情報生成部111により高く設定する。そのように剛性を剛性パラメータ情報生成部111により高くすることによって、人301はタッチパネルディスプレイ303の表示部303aを押した方向にタッチパネルディスプレイ303が移動せずタッチすることができる。また、人301がタッチパネルディスプレイ303の表示部303aにタッチしない場合は、剛性パラメータ情報生成部111により剛性を低く設定する。
 図20Fは、人301がタッチパネルディスプレイ303の表示部303aでページめくりの操作を行った時点である。タッチ位置情報及びタッチ力情報を基に、剛性パラメータ情報生成部111により剛性を変化させ、人301のタッチ操作に応じて剛性パラメータ情報生成部111により剛性を高く設定する。
 図20Gは、人301がタッチパネルディスプレイ303を触らずに、表示されている文章を読んでいる時点である。この時点では、人301がタッチパネルディスプレイ303をタッチしていないので、剛性パラメータ情報生成部111により剛性を低く設定する。
 なお、剛性パラメータ情報生成部111により剛性を低くする時点は、剛性を高く設定してから一定時間経過した場合など、任意の方法でも可能である。
 以上のように、人301が表示部303aにタッチする位置及び力に応じてアーム102の剛性を剛性パラメータ情報生成部111により調整しており、人301が操作しやすくなっている。具体的には、人301が表示部303aにタッチしているときはタッチ操作しやすく、タッチしていないときはタッチパネルディスプレイ303を移動させやすい。
 <フローチャート>
 第1実施形態のアーム102の制御装置103の操作手順を図21及び図22のフローチャートを用いて説明する。
 図21は、第1実施形態のアーム102の制御装置103の操作の一例を示す。
 まず、ステップS2101では、人301がタッチパネルディスプレイ303を自分の見やすい位置及び姿勢に移動させ、ステップS2102に進む。
 次に、ステップS2102では、人301がタッチパネルディスプレイ303に表示されたコンテンツを閲覧し、ステップS2103に進む。
 次に、ステップS2103では、人301がタッチパネルディスプレイ303の表示部303aに対してタッチ操作を行い、ステップS2104に進む。
 次に、ステップS2104では、人301がタッチ操作を行った際の力情報と位置情報とに基づき、アーム制御部112により、入出力IF113及びモータドライバ114を介して、アーム102の剛性を制御する。タッチ操作に応じて剛性パラメータ情報生成部111によりアーム102の剛性を高くすることによって、タッチパネルディスプレイ303が移動することなく、表示部303aにタッチすることができる。
 図22では、図21で表されるフローチャートのステップS2104のアーム剛性制御について、詳しく説明する。
 まず、ステップS2201では、タッチ位置情報取得部108においてタッチ位置情報を取得し、タッチ力情報取得部109においてタッチ力情報を取得し、ステップS2202に進む。
 次に、ステップS2202では、トルク計算部110において、タッチ位置情報取得部108及びタッチ力情報取得部109から取得したタッチ位置情報及びタッチ力情報から、タッチパネルディスプレイ303にかかるトルクを計算し、ステップS2203に進む。
 次に、ステップS2203では、剛性パラメータ情報生成部111において、タッチ力情報取得部109及びトルク計算部110から取得したタッチ力情報及びトルク情報を基に、剛性パラメータ情報を生成し、ステップS2204に進む。
 次に、ステップS2204では、アーム制御部112において、剛性パラメータ情報生成部111から取得した剛性パラメータ情報に応じて、入出力IF113及びモータドライバ114を介して、アーム102の剛性を制御する。
 《第1実施形態の効果》
 人301が表示部303aにタッチする位置及び力に応じてアーム102の剛性を剛性パラメータ情報生成部111により調整することによって、人301がタッチパネルディスプレイ303を移動させる場合は軽い力で移動させることができ、表示部303aをタッチして操作する場合は、剛性パラメータ情報生成部111により剛性を高くすることで、人301が押した方向にタッチパネルディスプレイ303が移動せず、表示部303aにタッチすることができる。よって、タッチパネルディスプレイ303の操作性を向上することができる。
 (第2実施形態)
 図23は、本発明の第2実施形態における、ロボット101Bブロック図を示す。本発明の第2実施形態のロボット101Bにおけるアーム102と、周辺装置105と、制御装置103Bの制御装置本体部104Bのうちの動作情報取得部106と、アーム動作情報生成部107と、タッチ位置情報取得部108と、タッチ力情報取得部109と、アーム制御部112とは第1実施形態と同様であるので、第1実施形態と共通の参照符号を付して共通部分の説明は省略し、異なる部分についてのみ、以下、詳細に説明する。
 タッチ力変位計算部2301は、タッチ力情報取得部109から力情報を取得し、取得した力情報から力の変位を計算する。具体的には、タッチ力変位計算部2301は、タッチ力情報取得部109からタッチ力情報と時間情報とを取得する。タッチ力変位計算部2301は、取得したタッチ力情報と時間情報とを基に、タッチ力変位情報を生成する。タッチ力変位情報とは、単位時間(例えば、1ms)あたりのタッチ力情報の変位を表す。
 例えば、図24Aで表されるタッチ力情報をタッチ力変位計算部2301で取得した場合、単位時間あたりのタッチ力情報の変位をタッチ力変位計算部2301で計算し、図24Bで表されるタッチ力変位情報をタッチ力変位計算部2301で生成する。
 タッチ力変位計算部2301は、タッチ力変位計算部2301で生成したタッチ力変位情報と時間情報とを剛性パラメータ情報生成部2302に出力する。
 剛性パラメータ情報生成部2302は、第1実施形態の剛性パラメータ情報生成部111に代えて制御装置本体部104Bに備えられ、第1実施形態における剛性パラメータ情報生成部111の機能に加えて、タッチ力変位計算部2301から取得したタッチ力変位情報に応じて、剛性を変更するための剛性パラメータ情報を生成する機能を有する。以下では、追加機能について説明する。
 剛性パラメータ情報生成部2302は、タッチ力変位計算部2301から取得した力の変位を基に、力の変位が所定の閾値を上回る場合はタッチパネルディスプレイ303の位置及び姿勢が変化するようにアーム102の剛性パラメータを生成し、力の変位が所定の閾値を上回らない場合はタッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを生成する。具体的には、剛性パラメータ情報生成部2302は、タッチ力変位計算部2301からタッチ力変位情報と時間情報とを取得する。取得したタッチ力変位情報を基に、人301がタッチパネルディスプレイ303に接触する際の力(Fx、Fy、Fz)及びトルク(Mx、My、Mz)の変位を剛性パラメータ情報生成部2302で導出する。導出した力及びトルクの変位の絶対値と閾値を剛性パラメータ情報生成部2302で比較する。閾値の大きさは、例えば、力(Fx、Fy、Fz)の変位の場合は10.0N/msであり、トルク(Mx、My、Mz)の変位の場合は1000.0Nmm/msであるなどと、人301が入出力IF113を用いて剛性パラメータ情報生成部2302に入力する。閾値は、ロボットアームの制御装置のメーカ提供の閾値を基にユーザが入出力IF113を用いてチューニングする。導出した力及びトルクの変位が閾値より大きいと剛性パラメータ情報生成部2302で判定した場合は、その軸の力及びトルクの剛性を剛性パラメータ情報生成部2302で高く設定しない。
 なお、ここでは、閾値を上回った軸の剛性を剛性パラメータ情報生成部2302で低く設定したが、全軸の剛性を剛性パラメータ情報生成部2302で低く設定することも可能である。
 以上により、人301がタッチパネルディスプレイ303にタッチしたのか、それとも衝突したのかを力及びトルクの変位と閾値を剛性パラメータ情報生成部2302で比較して判定する。剛性パラメータ情報生成部2302での判定の結果、人301がタッチパネルディスプレイ303に衝突したと剛性パラメータ情報生成部2302で判定した場合(力及びトルクの変位が閾値より大きいと剛性パラメータ情報生成部2302で判定した場合)には、剛性パラメータ情報生成部2302で剛性を高く設定せず、剛性パラメータ情報生成部2302で低く設定することによって、安全性を高める。
 <フローチャート>
 第2実施形態のアーム102の制御装置103Bの操作手順を図25のフローチャートを用いて説明する。
 第2実施形態のアーム102の制御装置103Bの操作の一例は、図21と同様である。ここでは、図21で表されるフローチャートのステップS2104のアーム剛性制御について、図25を用いて説明する。
 まず、ステップS2201では、タッチ位置情報取得部108においてタッチ位置情報を取得し、タッチ力情報取得部109においてタッチ力情報を取得し、ステップS2202に進む。
 次に、ステップS2202では、トルク計算部110において、タッチ位置情報取得部108及びタッチ力情報取得部109で取得したタッチ位置情報及びタッチ力情報からタッチパネルディスプレイ303にかかるトルクを計算し、ステップS2501に進む。
 次に、ステップS2501では、タッチ力変位計算部2301において、タッチ力情報取得部109から取得したタッチ力情報から、タッチ力変位情報を算出し、ステップS2502に進む。
 次に、ステップS2502では、剛性パラメータ生成部2302において、タッチ力変位計算部2301から取得したタッチ力変位情報から、人301のタッチパネルディスプレイ303へのタッチを検出し、ステップS2203に進む。
 次に、ステップS2203では、剛性パラメータ情報生成部2302において、タッチ力情報取得部109及びトルク計算部110から取得したタッチ力情報及びトルク情報を基に、剛性パラメータ情報を生成し、ステップS2204に進む。
 次に、ステップS2204では、アーム制御部112において、剛性パラメータ情報生成部2302から取得した剛性パラメータ情報に応じて、入出力IF113及びモータドライバ114を介して、アーム102の剛性を制御する。
 《第2実施形態の効果》
 人301が表示部303aに接触する際の力の変位を基に、人301が表示部303aにタッチしているか又は衝突しているかを剛性パラメータ情報生成部2302で判定し、人301が表示部303aに衝突していると剛性パラメータ情報生成部2302で判定した場合は、アーム102の剛性を低く設定することによって、安全性を向上することができる。
 (第3実施形態)
 図26は、本発明の第3実施形態における、ロボット101Cのブロック図を示す。本発明の第3実施形態のロボット101Cにおけるアーム102と、周辺装置105と、制御装置103Cの制御装置本体部104Cのうちの動作情報取得部106と、アーム動作情報生成部107と、タッチ位置情報取得部108と、タッチ力情報取得部109と、アーム制御部112とは第1実施形態と同様であるので、第1実施形態と共通の参照符号を付して共通部分の説明は省略し、異なる部分についてのみ、以下、詳細に説明する。
 タッチ面積計算部2601は、タッチ位置情報取得部108から位置情報を取得し、取得した位置情報からタッチ面積を計算する。具体的には、タッチ面積計算部2601は、タッチ位置情報取得部108からタッチ位置情報と時間情報とを取得する。タッチ面積計算部2601は、取得したタッチ位置情報と時間情報とを基に、タッチ面積情報を生成する。タッチ面積情報とは、人301がタッチパネルディスプレイ303に接触する面積を表す。
 タッチ面積計算部2601でのタッチ面積情報の算出方法について説明する。
 一例として、図27Aに示すような15mm×10mmの表示部303aのタッチパネルディスプレイ303を用いて説明する。このタッチパネルディスプレイ303において、一例として、図27Bに示すような接触があったとする。図27Bにおいて、黒のマスは接触有り(タッチ位置情報が1)、白のマスは接触無し(タッチ位置情報が0)を表す。そこで、接触があったマス(面積)の合計を求めることによって、タッチ面積情報をタッチ面積計算部2601で導出する。図27Bでは、黒のマスが22マスであるので、タッチ面積情報は22mmとなる。
 なお、タッチ面積計算部2601によるタッチ面積の算出方法として、連続する位置情報の面積をタッチ面積計算部2601でそれぞれ求め、求めた面積のうち最も大きい面積をタッチ面積としてタッチ面積計算部2601で算出することも可能である。具体例として、図27Bでは、連続する位置情報は、それぞれ1mm(図27Bの参照符号A)、7mm(図27Bの参照符号B)、14mm(図27Bの参照符号C)の3箇所であるので、この中で最も大きい面積の14mmをタッチ面積情報としてタッチ面積計算部2601で算出する。
 タッチ面積計算部2601は、算出したタッチ面積情報と時間情報とを剛性パラメータ情報生成部2602に出力する。
 剛性パラメータ情報生成部2602は、第1実施形態の剛性パラメータ情報生成部111に代えて制御装置本体部104Cに備えられ、第1実施形態における剛性パラメータ情報生成部111の機能に加えて、タッチ面積計算部2601から取得したタッチ面積情報に応じて、剛性を変更するための剛性パラメータ情報を生成する機能を有する。以下では、追加機能について説明する。
 剛性パラメータ情報生成部2602は、タッチ面積計算部2601から取得したタッチ面積を基に、タッチ面積が所定の閾値を上回る場合はタッチパネルディスプレイ303の位置及び姿勢が変化するようにアーム102の剛性パラメータを生成し、タッチ面積が所定の閾値を上回らない場合はタッチパネルディスプレイ303の位置及び姿勢が変化しないようにアーム102の剛性パラメータを生成する。具体的には、剛性パラメータ情報生成部2602は、タッチ面積計算部2601からタッチ面積情報と時間情報とを取得する。剛性パラメータ情報生成部2602は、取得したタッチ面積情報と閾値とを比較する。閾値の大きさは、例えば、100mmなどと、人301が入出力IF113を用いて剛性パラメータ情報生成部2602に入力する。閾値は、ロボットアームの制御装置のメーカ提供の閾値をもとにユーザが入出力IF113を用いてチューニングする。取得したタッチ面積情報が閾値より大きいと剛性パラメータ情報生成部2602で判定した場合は、剛性パラメータ情報生成部2602により、全軸の剛性を高く設定しない。
 なお、タッチ面積情報が閾値を上回ったと剛性パラメータ情報生成部2602で判定した場合には、剛性パラメータ情報生成部2602により、タッチパネルディスプレイ303に加わる力及びトルクの大きさが閾値を上回った軸だけ、剛性を低く設定することも可能である。閾値の大きさは、例えば、力の場合は10.0Nとし、トルクの場合は1000Nmmとし、人301が入出力IF113を用いて剛性パラメータ情報生成部2602に入力することができる。
 以上により、人301がタッチパネルディスプレイ303にタッチしたのか、又は、それとも衝突したのかをタッチ面積と閾値とを比較して剛性パラメータ情報生成部2602で判定する。剛性パラメータ情報生成部2602で判定した結果、衝突したと剛性パラメータ情報生成部2602で判定した場合(タッチ面積が閾値より大きいと剛性パラメータ情報生成部2602で判定した場合)には、剛性パラメータ情報生成部2602により、剛性を高く設定しないことによって、安全性を高める。
 また、接触がタッチ面積計算部2601で検出される場合において、タッチ面積の時間変位をタッチ面積計算部2601で計算し、時間変位が大きいときは剛性パラメータ情報生成部2602により剛性を低く設定し、時間変位が小さいときは剛性パラメータ情報生成部2602により剛性を高く設定することも可能である。このようにすることによって、接触の際は剛性パラメータ情報生成部2602により剛性を低くし、タッチ操作を行わない方の手でタッチパネルディスプレイ303を支えているときは剛性パラメータ情報生成部2602により剛性を高く設定することができる。
 例えば、図28Aで示すようなタッチ操作を行っている手701ではない手2801でタッチパネルディスプレイ303を支えている場合では、図28Bの参照符号Bのタッチ面積は大きいが時間変位が小さいので、剛性パラメータ情報生成部2602により剛性を高く設定する。剛性パラメータ情報生成部2602により剛性を高く設定することによって、タッチパネルディスプレイ303を支えている方向にタッチパネルディスプレイ303が移動することはなく、タッチ操作が行いやすい。
 また、他の例では、図28Cで示すように人の手2801でタッチパネルディスプレイ303の側部を支えている場合において、図28Dの参照符号Bのタッチ面積は大きいが時間変位が小さいので、剛性パラメータ情報生成部2602により剛性を高く設定する。剛性パラメータ情報生成部2602により剛性を高く設定することによって、タッチパネルディスプレイ303を支えている方向にタッチパネルディスプレイ303が移動することはなく、タッチ操作が行いやすい。
 <フローチャート>
 第3実施形態のアーム102の制御装置103Cの操作手順を図29のフローチャートを用いて説明する。
 第3実施形態のアーム102の制御装置103Cの操作の一例は、図21と同様である。ここでは、図21で表されるフローチャートのステップS2104のアーム剛性制御について、図29を用いて説明する。
 まず、ステップS2201では、タッチ位置情報取得部108においてタッチ位置情報を取得し、タッチ力情報取得部109においてタッチ力情報を取得し、ステップS2202に進む。
 次に、ステップS2202では、トルク計算部110において、タッチ位置情報取得部108及びタッチ力情報取得部109で取得したタッチ位置情報及びタッチ力情報からタッチパネルディスプレイ303にかかるトルクを計算し、ステップS2901に進む。
 次に、ステップS2901では、タッチ面積計算部2601において、タッチ力情報取得部109から取得したタッチ位置情報からタッチ面積情報を算出し、ステップS2902に進む。
 次に、ステップS2902では、剛性パラメータ生成部2602において、タッチ面積計算部2601から取得したタッチ面積情報から、人301のタッチパネルディスプレイ303へのタッチを検出し、ステップS2203に進む。
 次に、ステップS2203では、剛性パラメータ情報生成部111において、タッチ力情報取得部109及びトルク計算部110から取得したタッチ力情報及びトルク情報を基に、剛性パラメータ情報を生成し、ステップS2204に進む。
 次に、ステップS2204では、アーム制御部112において、剛性パラメータ情報生成部111から取得した剛性パラメータ情報に応じて、入出力IF113及びモータドライバ114を介して、アーム102の剛性を制御する。
 《第3実施形態の効果》
 人301が表示部303aに接触する際のタッチ面積を基に、人301が表示部303aにタッチしているか又は衝突しているかを剛性パラメータ情報生成部2602で判定し、人301が表示部303aに衝突していると剛性パラメータ情報生成部2602で判定した場合は、剛性パラメータ情報生成部111で剛性を低く設定することによって、安全性を向上することができる。
 (第4実施形態)
 第1実施形態においては、タッチパネルディスプレイ303にタッチした際の力情報と位置情報とを基に、アーム102の剛性を高く設定している。これに対して、第4実施形態では、取得する力情報と位置情報とを基に、人301がタッチパネルディスプレイ303をタッチしているのか、タッチしていないのかを判定し、タッチしている場合のみ、アーム102の剛性を高く設定する。
 図32は、本発明の第4実施形態における、ロボット101Dのブロック図を示す。本発明の第4実施形態のロボット101Dにおけるロボットアーム102と、周辺装置105と、制御装置104Dのうちの動作情報取得部106と、アーム動作情報生成部107と、タッチ位置情報取得部108と、タッチ力情報取得部109と、トルク計算部110と、アーム制御部112と、入力情報取得部117とは第1実施形態と同様であるので、共通の参照符号を付して共通部分の説明は省略し、異なる部分についてのみ、以下、詳細に説明する。
 タッチ判定部3201は、タッチ位置情報取得部108からタッチ位置情報と時間情報とを取得し、タッチ力情報取得部109からタッチ力情報と時間情報とを取得し、人301がタッチパネルディスプレイ303にタッチしているかどうかを判定する。
 タッチ判定部3201での判定方法を説明する。タッチ位置情報取得部108からのタッチ位置情報と、タッチ力情報取得部109からのタッチ力情報とを用いてタッチ判定部3201でタッチの有無を判定する。タッチ位置情報において少なくとも1つ以上の位置に接触(位置情報が1である情報)がタッチ位置情報取得部108で検出され、かつタッチ力情報において少なくとも1つ以上の位置で力(力センサの値が0でない情報)がタッチ力情報取得部109で検出されたときのみ、タッチが有るとタッチ判定部3201で検出する。それ以外の状態では、タッチ無しとタッチ判定部3201で判定する。例えば、タッチ位置情報取得部108でタッチ位置情報が全ての位置で接触が無いこと(位置情報が0である情報)が検出され、タッチ力情報が少なくとも1つ以上の位置で力があること(力センサの値が0でない情報)がタッチ力情報取得部109で検出された場合は、タッチ無しとタッチ判定部3201で判定する。この例では、人301はディスプレイ303に力を加えているが、画面(表示部303a)に接触していない。つまり、人301がディスプレイ303の縁を持っている状態である。
 タッチ判定部3201は、タッチ有りと判定した場合はタッチ検出情報を1とし、タッチ無しと判定した場合はタッチ検出情報を0とし、タッチ判定部3201で生成する。タッチ判定部3201は、タッチ判定部3201で生成したタッチ検出情報と時間情報とを剛性パラメータ情報生成部3202に出力する。
 剛性パラメータ情報生成部3202は、第1実施形態の剛性パラメータ情報生成部111に代えて制御装置本体部104Dに備えられ、第1実施形態における剛性パラメータ情報生成部111の機能に加えて、タッチ判定部3201から取得したタッチ検出情報を基に、剛性パラメータ情報を生成する。
 タッチ判定部3201から剛性パラメータ情報生成部3202で取得したタッチ検出情報が1(タッチ有り)の場合は、第1実施形態と同様の方法で剛性を高く設定するように剛性パラメータ情報を剛性パラメータ情報生成部3202で生成する。タッチ判定部3201から剛性パラメータ情報生成部3202で取得したタッチ検出情報が0(タッチ無し)の場合は、剛性を変更しないように剛性パラメータ情報を剛性パラメータ情報生成部3202で生成する。
 このように、タッチ有りとタッチ判定部3201で判定されたときだけ剛性を剛性パラメータ情報生成部3202で高く設定することによって、人301がタッチパネルディスプレイ303をタッチした場合は、タッチパネルディスプレイ303が移動せずタッチすることができる。また、タッチ判定部3201でタッチ無しと判定された場合は剛性パラメータ情報生成部3202で剛性を変更しないので、人301がタッチパネルディスプレイ303の縁などを把持しているときは、タッチパネルディスプレイ303を軽い力で移動させることができる。
 <フローチャート>
 第4実施形態のアーム102の制御装置103Dの操作手順を図33のフローチャートを用いて説明する。
 第4実施形態のアーム102の制御装置103Dの操作の一例は、図21と同様である。ここでは、図21で表されるフローチャートのステップS2104のアーム剛性制御について、図33を用いて説明する。
 まず、ステップS2201では、タッチ位置情報取得部108においてタッチ位置情報を取得し、タッチ力情報取得部109においてタッチ力情報を取得し、ステップS2202に進む。
 次に、ステップS2202では、トルク計算部110において、タッチ位置情報取得部108及びタッチ力情報部109でそれぞれ取得したタッチ位置情報及びタッチ力情報を取得し、これらの情報からタッチパネルディスプレイ303にかかるトルクを計算し、計算したトルク情報を剛性パラメータ情報生成部3202に出力して、ステップS3301に進む。
 次に、ステップS3301では、タッチ判定部3201において、タッチ位置情報取得部108及びタッチ力情報部109でそれぞれ取得したタッチ位置情報及びタッチ力情報を取得し、これらの情報に基づき、タッチが有るかどうかを判定して、判定結果の情報を剛性パラメータ情報生成部3202に出力する。タッチが有るとタッチ判定部3201で判定した場合はステップS3302に進み、タッチが無いとタッチ判定部3201で判定した場合はステップS3303に進む。
 次に、ステップS3302では、剛性パラメータ情報生成部3202において、トルク計算部110から取得したトルク情報とタッチ判定部3201での判定結果とを基に、剛性を高く設定するように剛性パラメータ情報を生成し、ステップS2204に進む。
 次に、ステップS3303では、剛性パラメータ情報生成部3202において、トルク計算部110から取得したトルク情報とタッチ判定部3201での判定結果とを基に、剛性を変更しないように剛性パラメータ情報を生成し、ステップS2204に進む。
 次に、ステップS2204では、アーム制御部112において、剛性パラメータ情報生成部3202から取得した剛性パラメータ情報に応じて、入出力IF113及びモータドライバ114を介して、アーム102の剛性を制御する。
 なお、前記ステップS2202は、前記ステップ3301と同時的に行ってもよい。
 《第4実施形態の効果》
 タッチ判定部3201においてタッチの有無を判定し、タッチ判定部3201でタッチが有ると判定されたときだけ剛性を高く設定するように剛性パラメータ情報を剛性パラメータ情報生成部3202で生成するので、より正確にタッチパネルディスプレイ303の操作性を向上させることができる。
 なお、タッチパネルディスプレイ303とアーム102とが一体となっている例について説明したが、アーム102に対してタッチパネルディスプレイ303が着脱可能である形態を採用することも可能である。例えば、タッチパネルディスプレイ303がタブレット又はスマートフォンなどのタッチパネルディスプレイ付きの携帯機器である場合において、このような形態を使用することができる。
 なお、第1~第4実施形態において、剛性の調整量に関しては、人301がタッチパネルディスプレイ303に対してインタラクションが発生したときに、タッチパネルディスプレイ303の動きが十分に小さい範囲に設定することが望ましい。特に、人301に対してタッチパネルディスプレイ303がどのような状態にあるかによって、剛性の調整量は設定する必要がある。例えば、図10に示すように、人301とタッチパネルディスプレイ303との位置関係によって、同じタッチ操作又はキーボード操作でも、人301とタッチパネルディスプレイ303の位置関係によって、タッチパネルディスプレイ303に加わる力が異なる。そこで、事前に、アーム付きタッチパネルディスプレイ303が利用される環境によって、前記剛性の調整量を剛性パラメータ情報生成部111,2302,2602で変化させる必要がある。
 なお、第2実施形態及び第3実施形態において、衝突を検出し、剛性を低く設定することを行っている。この他にも、タッチパネルディスプレイ303に接触を検知した時点で一旦タッチパネルディスプレイ303を後退させ、その後の時系列データからタッチ操作と剛性パラメータ情報生成部2302,2602で判定した場合は剛性パラメータ情報生成部2302,2602で剛性を高く設定し、衝突と剛性パラメータ情報生成部2302,2602で判定した場合は剛性パラメータ情報生成部2302,2602で剛性を低く設定するというように、タッチパネルディスプレイ303の動作による対策も可能である。
 なお、本発明を第1~第4実施形態及び変形例に基づいて説明してきたが、本発明は、前記の第1~第4実施形態及び変形例に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 前記各制御装置の一部又は全部は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAM又はハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各部は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 例えば、ハードディスク又は半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。なお、前記実施形態又は変形例における制御装置を構成する要素の一部又は全部を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、タッチパネルディスプレイの位置及び姿勢を制御するアームの制御プログラムであって、
 コンピュータを、
 人によりタッチされる前記タッチパネルディスプレイの画面上の位置を取得するタッチ位置情報取得部と、
 前記人によりタッチされる前記画面上の力を取得するタッチ力情報取得部と、
 前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクを計算するトルク計算部と、
 前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を生成する剛性パラメータ情報生成部と、
 前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームを制御するアーム制御部として機能させるためのアームの制御プログラムである。
 また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスク、磁気ディスク、又は、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。
 また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 なお、前記様々な実施形態又は変形例のうちの任意の実施形態又は変形例を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。
 本発明にかかるアームの制御装置及び制御方法、ロボット、アームの制御プログラム、並びに、アームの制御用集積電子回路は、下記の特徴を有する。人が表示部に対して接触する位置及び力に応じてアームの剛性を調整することによって、人はタッチパネルディスプレイを軽い力で移動できるとともに、人がタッチする際に人が押した方向にタッチパネルディスプレイが移動せず表示部をタッチすることができる。このため、本発明にかかるアームの制御装置及び制御方法、ロボット、アームの制御プログラム、並びに、アームの制御用集積電子回路は、家庭用のアーム付きタッチパネルディスプレイにおけるアームの制御装置及び制御方法、ロボット、アームの制御プログラム、並びに、アームの制御用集積電子回路として有用である。また、本発明にかかるアームの制御装置及び制御方法、ロボット、アームの制御プログラム、並びに、アームの制御用集積電子回路は、家庭用装置に限らず、産業用のアーム付きタッチパネルディスプレイ、医療用のアーム付きタッチパネルディスプレイにおけるアームの制御装置及び制御方法、ロボット、アームの制御プログラム、並びに、アームの制御用集積電子回路として適用可能である。
 本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形又は修正は明白である。そのような変形又は修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。

Claims (14)

  1.  タッチパネルディスプレイの位置及び姿勢を制御するアームの制御装置であって、
     人によりタッチされる前記タッチパネルディスプレイの画面上の位置を取得するタッチ位置情報取得部と、
     前記人によりタッチされる前記画面上の力を取得するタッチ力情報取得部と、
     前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクを計算するトルク計算部と、
     前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を生成する剛性パラメータ情報生成部と、
     前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームを制御するアーム制御部と、
     を備えるアームの制御装置。
  2.  前記タッチ力情報取得部において、
      前記タッチパネルディスプレイの前記画面の表面に垂直な方向に加わる押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とに関する力情報を取得し、
     前記タッチ位置情報取得部において、
      前記人が前記タッチパネルディスプレイの前記画面にタッチしつつなぞることにより、変化する位置情報を取得し、
     前記トルク計算部において、
      前記タッチパネルディスプレイの前記画面の表面に垂直な方向に加わる押す力に関する力情報と前記タッチ位置情報取得部で取得した前記位置情報とから、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを算出し、
      前記タッチパネルディスプレイの前記画面に水平な方向に加わる摩擦力に関する力情報と前記タッチ位置情報取得部で取得した前記位置情報から、前記タッチパネルディスプレイの前記画面に垂直な方向を軸とするトルクを算出する、請求項1に記載のアームの制御装置。
  3.  前記タッチ力情報取得部において、
      (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力が加わり、
      (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とが加わり、
      (3)前記タッチパネルディスプレイに力が加わらない、
     というように変化する力情報を取得し、
     前記タッチ位置情報取得部において、
      (1)前記タッチパネルディスプレイの前記画面にタッチし、
      (2)前記タッチパネルディスプレイの前記画面に前記人がなぞりながらタッチする位置が任意の方向に変化し、
      (3)前記タッチパネルディスプレイの前記画面から前記人が離れる、
     というように変化する位置情報を取得し、
     前記剛性パラメータ情報生成部において、
      (1)前記タッチ力情報取得部で取得した前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力に基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
      (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイに水平な方向に加わる摩擦力とに基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクと、前記タッチパネルディスプレイの前記画面の表面に垂直な方向を軸とするトルクとを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
      (3)前記タッチパネルディスプレイに力が加わらない場合の前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算する、
     というように変更する剛性パラメータを生成する、請求項2に記載のアームの制御装置。
  4.  前記タッチ力情報取得部において、
      (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力が加わり、
      (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とが加わり、
      (3)前記タッチパネルディスプレイに力が加わらない、
     というように変化する力情報を取得し、
     前記タッチ位置情報取得部において、
      (1)前記タッチパネルディスプレイの前記画面に前記人がマルチタッチし、
      (2)前記タッチパネルディスプレイの前記画面に前記人がマルチタッチしたそれぞれの位置がお互いに離れる方向に変化し、
      (3)前記タッチパネルディスプレイの前記画面から前記人が離れる、
     というように変化する位置情報を取得し、
     前記剛性パラメータ情報生成部において、
      (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力に基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクとを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
      (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とに基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクと、前記タッチパネルディスプレイの前記画面の表面に垂直な方向を軸とするトルクとを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
      (3)前記タッチパネルディスプレイに力が加わらない場合の前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算する、
     というように変更する剛性パラメータを前記剛性パラメータ情報生成部で生成する、請求項2に記載のアームの制御装置。
  5.  前記タッチ力情報取得部において、
      (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力が加わり、
      (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とが加わり、
      (3)前記タッチパネルディスプレイに力が加わらない、
     というように変化する力情報を取得し、
     前記タッチ位置情報取得部において、
      (1)前記タッチパネルディスプレイの前記画面に前記人がマルチタッチし、
      (2)前記タッチパネルディスプレイの前記画面に前記人がマルチタッチしたそれぞれの位置がお互いに近づく方向に変化し、
      (3)前記タッチパネルディスプレイの前記画面から前記人が離れる、
     というように変化する位置情報を取得し、
     前記剛性パラメータ情報生成部において、
      (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力に基づいて、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
      (2)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力と前記タッチパネルディスプレイの前記画面の表面に水平な方向に加わる摩擦力とに基づいて、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクと、前記タッチパネルディスプレイの前記画面の表面に垂直な方向を軸とするトルクとを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
      (3)前記タッチパネルディスプレイに力が加わらない場合の前記アームの剛性パラメータを前記剛性パラメータ情報生成部で生成する、
     というように変更する剛性パラメータを算出する、請求項2に記載のアームの制御装置。
  6.  前記タッチ力情報取得部において、
     前記タッチパネルディスプレイの前記画面の表面に垂直な方向に加わる押す力と前記タッチパネルディスプレイの前記画面に力が加わらないときに関する力情報を取得し、
     前記タッチ位置情報取得部において、
     前記人が前記タッチパネルディスプレイの前記画面に複数回のタッチを繰り返す際の位置情報を取得し、
     前記剛性パラメータ情報生成部において、
     (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に加わる押す力に関する力情報と前記タッチ位置情報取得部で取得した前記位置情報とから、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
     (2)前記タッチパネルディスプレイに力が加わらないときはトルクを前記トルク計算部で算出せず、前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算する、
     というように変更する剛性パラメータを生成する、請求項1に記載のアームの制御装置。
  7.  前記タッチ力情報取得部において、
      (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力が加わり、
      (2)前記タッチパネルディスプレイの前記画面に力が加わらない、
     というように変化する力情報を取得し、
     前記タッチ位置情報取得部において、
      (1)前記タッチパネルディスプレイの前記画面に前記人がタッチし、
      (2)前記タッチパネルディスプレイの前記画面から前記人が離れる、
     というように複数回繰り返し変化する位置情報を取得し、
     前記剛性パラメータ情報生成部において、
      (1)前記タッチパネルディスプレイの前記画面の表面に垂直な方向に押す力に基づき、前記タッチパネルディスプレイの前記画面の表面に水平な方向を軸とするトルクを前記トルク計算部で算出し、算出したトルクに基づき、前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算し、
      (2)前記タッチパネルディスプレイの前記画面に力が加わらない場合の前記アームの剛性パラメータを前記剛性パラメータ情報生成部で計算する、
     というように変更する剛性パラメータを生成する、請求項2に記載のアームの制御装置。
  8.  前記タッチ力情報取得部から力情報を取得し、取得した力情報から力の変位を計算するタッチ力変位計算部を備え、
     前記剛性パラメータ情報生成部においては、
     前記タッチ力変位計算部から取得した力の変位を基に、前記力の変位が所定の閾値を上回る場合は前記タッチパネルディスプレイの位置及び姿勢が変化するように前記アームの剛性パラメータを生成し、前記力の変位が所定の閾値を上回らない場合は前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを生成する、請求項1に記載のアームの制御装置。
  9.  前記タッチ位置情報取得部から位置情報を取得し、取得した位置情報からタッチ面積を計算するタッチ面積計算部を備え、
     前記剛性パラメータ情報生成部において、
     前記タッチ面積計算部から取得したタッチ面積を基に、前記タッチ面積が所定の閾値を上回る場合は前記タッチパネルディスプレイの位置及び姿勢が変化するように前記アームの剛性パラメータを生成し、前記タッチ面積が所定の閾値を上回らない場合は前記タッチパネルディスプレイの位置及び姿勢が変化しないように前記アームの剛性パラメータを生成する、請求項1に記載のアームの制御装置。
  10.  前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記位置より接触が検出され、かつ前記力より接触が検出された場合において、接触ありと判定し、その他の場合は接触なしと判定する、タッチ判定部をさらに備え、
     前記剛性パラメータ情報生成部において、前記タッチ判定部で接触ありと判定された場合のみ、前記タッチパネルディスプレイの位置及び姿勢を変化しないように前記アームを制御する剛性パラメータの情報を生成する、請求項1に記載のアームの制御装置。
  11.  前記アームを制御する、請求項1~10のいずれか1つに記載の前記アームの制御装置と、
     前記アームと、
    を備えるロボット。
  12.  タッチパネルディスプレイの位置及び姿勢を制御するアームの制御方法であって、
     人によりタッチされる前記タッチパネルディスプレイの画面上の位置をタッチ位置情報取得部で取得し、
     前記人によりタッチされる前記画面上の力をタッチ力情報取得部で取得し、
     前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクをトルク計算部で計算し、
     前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を剛性パラメータ情報生成部で生成し、
     前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームをアーム制御部で制御する、アームの制御方法。
  13.  タッチパネルディスプレイの位置及び姿勢を制御するアームの制御プログラムであって、
     コンピュータを、
     人によりタッチされる前記タッチパネルディスプレイの画面上の位置を取得するタッチ位置情報取得部と、
     前記人によりタッチされる前記画面上の力を取得するタッチ力情報取得部と、
     前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクを計算するトルク計算部と、
     前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を生成する剛性パラメータ情報生成部と、
     前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームを制御するアーム制御部として機能させるためのアームの制御プログラム。
  14.  タッチパネルディスプレイの位置及び姿勢を制御するアームの制御用集積電子回路であって、
     人によりタッチされる前記タッチパネルディスプレイの画面上の位置をタッチ位置情報取得部で取得し、
     前記人によりタッチされる前記画面上の力をタッチ力情報取得部で取得し、
     前記タッチ位置情報取得部より取得した前記位置及び前記タッチ力情報取得部より取得した前記力より、前記タッチパネルディスプレイに負荷されるトルクをトルク計算部で計算し、
     前記トルク計算部より計算された前記トルクに基づいて、前記タッチパネルディスプレイの位置及び姿勢を変化しないよう前記アームを制御する剛性パラメータの情報を剛性パラメータ情報生成部で生成し、
     前記剛性パラメータ情報生成部より生成された前記剛性パラメータの情報に基づいて、前記アームをアーム制御部で制御する、
     アームの制御用集積電子回路。
PCT/JP2013/006803 2012-11-22 2013-11-20 アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路 WO2014080621A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014523861A JP5588089B1 (ja) 2012-11-22 2013-11-20 アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路
US14/446,945 US9102057B2 (en) 2012-11-22 2014-07-30 Arm control apparatus, arm control method, arm control program, robot, and integrated electronic circuit for arm control

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-256518 2012-11-22
JP2012256518 2012-11-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/446,945 Continuation US9102057B2 (en) 2012-11-22 2014-07-30 Arm control apparatus, arm control method, arm control program, robot, and integrated electronic circuit for arm control

Publications (1)

Publication Number Publication Date
WO2014080621A1 true WO2014080621A1 (ja) 2014-05-30

Family

ID=50775816

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006803 WO2014080621A1 (ja) 2012-11-22 2013-11-20 アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路

Country Status (3)

Country Link
US (1) US9102057B2 (ja)
JP (1) JP5588089B1 (ja)
WO (1) WO2014080621A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2983762B1 (fr) * 2011-12-09 2014-01-10 Commissariat Energie Atomique Procede de pilotage d'un robot et systeme de pilotage mettant en oeuvre un tel procede
JP5942311B2 (ja) * 2013-02-25 2016-06-29 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US9827060B2 (en) * 2014-07-15 2017-11-28 Synaptive Medical (Barbados) Inc. Medical device control interface
KR101610508B1 (ko) * 2014-09-19 2016-04-20 현대자동차주식회사 Avm 자동 보정 시스템 및 방법
US9804593B1 (en) * 2014-12-12 2017-10-31 X Development Llc Methods and systems for teaching positions to components of devices
US9718192B2 (en) * 2015-06-24 2017-08-01 National Taipei University Of Technology System for automatically and precisely positioning robotic arm and method thereof
US10698518B2 (en) * 2015-12-22 2020-06-30 Intel Corporation Reduction of touchscreen bounce
CN109213349A (zh) * 2017-06-30 2019-01-15 北京小米移动软件有限公司 基于触摸屏的交互方法及装置、计算机可读存储介质
US10845913B1 (en) 2019-05-22 2020-11-24 International Business Machines Corporation Touch sensitivity for robotically operated displays
JPWO2023021703A1 (ja) * 2021-08-20 2023-02-23

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09196055A (ja) * 1996-01-19 1997-07-29 Toransapooto:Kk 移動ディスプレイ装置
JPH09267281A (ja) * 1996-03-29 1997-10-14 Nippon Steel Corp 多軸ロボットの倣い制御装置および倣い制御方法
JP2000162976A (ja) * 1998-11-27 2000-06-16 Uchida Yoko Co Ltd タッチパネルタイプのディスプレイ支持装置
JP2008009632A (ja) * 2006-06-28 2008-01-17 Denso Corp 文字入力装置
JP2012086354A (ja) * 2010-09-22 2012-05-10 Canon Inc ロボット装置の制御方法及びロボット装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374255B1 (en) * 1996-05-21 2002-04-16 Immersion Corporation Haptic authoring
US6428172B1 (en) * 1999-11-24 2002-08-06 Donnelly Corporation Rearview mirror assembly with utility functions
US6155993A (en) * 1999-03-31 2000-12-05 Queen's University At Kingston Kinesiological instrument for limb movements
AU2001243285A1 (en) * 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
US7314103B2 (en) * 2003-08-25 2008-01-01 Airtrax, Inc. Re-locatable operator station
US20020149571A1 (en) * 2001-04-13 2002-10-17 Roberts Jerry B. Method and apparatus for force-based touch input
JP3903311B2 (ja) 2002-06-28 2007-04-11 日本フォームサービス株式会社 ユニット型ディスプレイ支持装置
JP4500485B2 (ja) 2002-08-28 2010-07-14 株式会社日立製作所 タッチパネルを備えた表示装置
JP2010128195A (ja) 2008-11-27 2010-06-10 Sony Corp 表示装置
US9888973B2 (en) * 2010-03-31 2018-02-13 St. Jude Medical, Atrial Fibrillation Division, Inc. Intuitive user interface control for remote catheter navigation and 3D mapping and visualization systems
US8812161B2 (en) 2010-09-22 2014-08-19 Canon Kabushiki Kaisha Robot apparatus
JP5175968B1 (ja) * 2011-10-28 2013-04-03 株式会社東芝 スタンドおよび電子機器
JP5367863B2 (ja) * 2012-03-30 2013-12-11 株式会社東芝 電子機器
US9038971B1 (en) * 2012-11-14 2015-05-26 Beau Thomas Guthrie Mobile computing platform holding device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09196055A (ja) * 1996-01-19 1997-07-29 Toransapooto:Kk 移動ディスプレイ装置
JPH09267281A (ja) * 1996-03-29 1997-10-14 Nippon Steel Corp 多軸ロボットの倣い制御装置および倣い制御方法
JP2000162976A (ja) * 1998-11-27 2000-06-16 Uchida Yoko Co Ltd タッチパネルタイプのディスプレイ支持装置
JP2008009632A (ja) * 2006-06-28 2008-01-17 Denso Corp 文字入力装置
JP2012086354A (ja) * 2010-09-22 2012-05-10 Canon Inc ロボット装置の制御方法及びロボット装置

Also Published As

Publication number Publication date
JP5588089B1 (ja) 2014-09-10
US9102057B2 (en) 2015-08-11
US20140343729A1 (en) 2014-11-20
JPWO2014080621A1 (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
JP5588089B1 (ja) アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路
US8648797B2 (en) Information input/output device, information input/output method and computer program
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
JPH05282095A (ja) 3次元座標入力装置
JP2010108500A (ja) 着用型コンピューティング環境基盤のユーザインターフェース装置およびその方法
JP5588090B1 (ja) アームの制御装置及び制御方法及び制御プログラム、ロボット、並びに、アームの制御用集積電子回路
JP2008203911A (ja) ポインティング・デバイス、およびコンピュータ
EP3626404A1 (en) Robot system and method for controlling robot system
Shu et al. Human-robot collaboration: Task sharing through virtual reality
JP3742879B2 (ja) ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム
KR20200005243A (ko) Imu 센서를 이용한 손가락 동작 기반 인터페이스 제어 시스템
RU2670649C9 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
JP2000056897A (ja) コンピュータシステム
Price et al. A handheld haptic robot for large-format touchscreens
Sugiyama et al. NAVIgoid: robot navigation with haptic vision
JP2013114323A (ja) 3次元空間座標入力装置
Uribe et al. Gesture-based teleoperation using a holonomic robot
WO2021041248A1 (en) Head movement control of a viewing system
EP3587049A1 (en) Control apparatus, robot, and robot system
JP2011215692A (ja) 3次元3自由度回転パラメータ処理装置
Ugale et al. Overview on latest gesture controlled systems for robotic arm
JP2020077069A (ja) フィードバック生成装置
Gomi et al. UbiSurface: A Robotic Touch Surface for Supporting Mid-air Planar Interactions in Room-Scale VR
JP2018181185A (ja) 力覚提示器及び仮想力覚提示装置
JP5992380B2 (ja) ポインティング・デバイス、ノートブック型パーソナル・コンピュータおよび操作方法。

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014523861

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856422

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13856422

Country of ref document: EP

Kind code of ref document: A1