WO2016181466A1 - 分注システム、コントローラ及び制御方法 - Google Patents

分注システム、コントローラ及び制御方法 Download PDF

Info

Publication number
WO2016181466A1
WO2016181466A1 PCT/JP2015/063515 JP2015063515W WO2016181466A1 WO 2016181466 A1 WO2016181466 A1 WO 2016181466A1 JP 2015063515 W JP2015063515 W JP 2015063515W WO 2016181466 A1 WO2016181466 A1 WO 2016181466A1
Authority
WO
WIPO (PCT)
Prior art keywords
dispenser
robot
liquid
tip
position information
Prior art date
Application number
PCT/JP2015/063515
Other languages
English (en)
French (fr)
Inventor
倫子 阿部
弘 熊谷
有希子 澤田
亀井 泉寿
Original Assignee
株式会社安川電機
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社安川電機 filed Critical 株式会社安川電機
Priority to PCT/JP2015/063515 priority Critical patent/WO2016181466A1/ja
Priority to JP2015152910A priority patent/JP6536263B2/ja
Priority to EP15891896.1A priority patent/EP3296069B1/en
Priority to PCT/JP2015/071887 priority patent/WO2016181572A1/ja
Priority to JP2017517582A priority patent/JP6492273B2/ja
Priority to US15/146,291 priority patent/US10837977B2/en
Publication of WO2016181466A1 publication Critical patent/WO2016181466A1/ja
Priority to US15/806,339 priority patent/US10697991B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
    • G01N35/10Devices for transferring samples or any liquids to, in, or from, the analysis apparatus, e.g. suction devices, injection devices
    • G01N35/1009Characterised by arrangements for controlling the aspiration or dispense of liquids
    • G01N35/1011Control of the position or alignment of the transfer device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01LCHEMICAL OR PHYSICAL LABORATORY APPARATUS FOR GENERAL USE
    • B01L3/00Containers or dishes for laboratory use, e.g. laboratory glassware; Droppers
    • B01L3/02Burettes; Pipettes
    • B01L3/021Pipettes, i.e. with only one conduit for withdrawing and redistributing liquids
    • B01L3/0217Pipettes, i.e. with only one conduit for withdrawing and redistributing liquids of the plunger pump type
    • B01L3/0237Details of electronic control, e.g. relating to user interface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0019End effectors other than grippers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • B25J9/0087Dual arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N35/00Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor
    • G01N35/0099Automatic analysis not limited to methods or materials provided for in any single one of groups G01N1/00 - G01N33/00; Handling materials therefor comprising robots or similar manipulators
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Definitions

  • the present disclosure relates to a dispensing system, a controller, and a control method.
  • Patent Document 1 discloses a chip, a liquid feeding device that sucks a sample into the chip or discharges a sample in the chip, a chip transport mechanism, a detection unit that detects the liquid level of the sample, A supply / discharge robot including a liquid feeding power device and a control device for controlling the chip transport mechanism so that the tip end and the sample liquid level are kept in contact with each other based on the liquid level position of the sample during aspiration. It is disclosed.
  • This disclosure is intended to provide a dispensing system, a dispensing method, a control device, and a control method capable of performing a more reliable dispensing operation.
  • a dispensing system includes a robot that moves a dispenser for sucking a liquid to be dispensed, at least a tip of the dispenser, a liquid level, and a lower level than the liquid level.
  • the image processing unit that acquires the position information of the tip of the injection device, and the position information of the tip, the position information of the liquid surface, and the position information of the boundary when the liquid is sucked into the dispenser And a descent controller that controls the robot to lower the dispenser.
  • a dispensing system includes a robot that moves a dispenser for sucking a liquid to be dispensed, at least a tip of the dispenser, a liquid level, and a lower level than the liquid level.
  • a camera for capturing an image including a non-dispensing object that is positioned, and based on the image, position information on the liquid level, position information on a boundary between the liquid and the non-dispensing object, and dispensing Obtaining the position information of the tip of the injection device, when sucking the liquid into the dispenser, based on the position information of the tip, the position information of the liquid level, and the position information of the boundary, And a circuit configured to perform control of the robot to lower the dispenser.
  • the controller according to the present disclosure is based on an image including at least a tip of a dispenser for sucking a liquid to be dispensed, a liquid level of the liquid, and a non-dispensing target positioned below the liquid level.
  • An image processing unit for acquiring position information on the liquid level, position information on the boundary between the liquid and the non-dispensing object, and position information on the tip of the dispenser; and the liquid in the dispenser And a descent controller that controls the robot to lower the dispenser based on the position information on the tip, the position information on the liquid level, and the position information on the boundary.
  • the control method includes an image including at least a tip portion of a dispenser for sucking a liquid to be dispensed, a liquid level of the liquid, and a non-dispensing target positioned below the liquid level.
  • an image including at least a tip portion of a dispenser for sucking a liquid to be dispensed, a liquid level of the liquid, and a non-dispensing target positioned below the liquid level.
  • the dispensing system 1 is for performing a dispensing operation for selectively taking out the liquid stored in the container 80.
  • the container 80 accommodates an object to be worked by the dispensing system 1.
  • the container 80 is formed of a material that can transmit visible light or light of a specific wavelength.
  • the container 80 is a microtube, for example, and has a cylindrical side wall 81 and a bottom 82 (see FIGS. 2A and 2B).
  • the lower portion 81a of the side wall 81 has a tapered shape that narrows toward the bottom 82 side.
  • the container 80 is not limited to such a microtube, and may have any shape as long as it can accommodate an object and can transmit visible light or light of a specific wavelength.
  • the object accommodated in the container 80 is separated into a liquid C1 to be dispensed and a non-dispensing object C2 by centrifugation or the like, and the liquid C1 forms a liquid surface SF1, and the non-dispensing object C2 Is located below the liquid level SF1.
  • the non-dispensing object C2 include a solid precipitate or a liquid separated from the liquid C1.
  • the boundary part BD1 between the liquid C1 and the non-dispensing object C2 is parallel to the liquid surface SF1 (see FIG. 2A).
  • the boundary part BD1 may be inclined with respect to the liquid level SF1 (see FIG. 2B).
  • the boundary portion BD1 is visible from the outside of the container 80. For example, if the transmissivity of light that can pass through the container 80 is different between the liquid C1 and the non-dispensing object C2, the boundary portion BD1 becomes visible. Even if the refractive index of the light that can pass through the container 80 is different between the liquid C1 and the non-dispensing object C2, the boundary portion BD1 is visible.
  • the dispensing system 1 takes out the liquid C1 to be dispensed from the container 80 in a state where the non-dispensing object C2 remains in the container 80, and transfers the liquid C1 to another container 80.
  • the non-dispensing object C2 is merely a “non-dispensing object” in the process of dispensing the liquid C1.
  • the dispensing system 1 may further dispense the non-dispensing object C2 itself in the step after dispensing the liquid C1.
  • each component of the dispensing system 1 will be described.
  • the dispensing system 1 includes a robot 10 and a camera 40.
  • the robot 10 is used for operations such as moving the dispenser 30.
  • the dispenser 30 aspirates the liquid C1 to be dispensed.
  • Examples of the dispenser 30 include an electric pipette or syringe that automatically sucks and discharges a liquid by a specific signal or a specific operation.
  • the dispenser 30 may not be motorized, and may be a manual syringe or pipette, for example. In this case, as described later, the dispenser 30 may be operated by both arms of the double-armed robot 10.
  • the dispenser 30 may be anything as long as it can suck the liquid C1, but the following illustrates a case where the dispenser 30 is an electric pipette.
  • the dispenser 30 has a main body 31 and a chip 32.
  • the main body 31 incorporates an electric pump, for example, and operates according to a command input.
  • the chip 32 is detachably attached to the main body 31.
  • the tip 32 has, for example, a pointed cylindrical shape and forms the distal end portion 30 a of the dispenser 30.
  • the dispenser 30 decompresses the inside of the chip 32 by the main body 31, thereby sucking the liquid from the tip 30a and pressurizing the inside of the chip 32 to discharge the liquid from the tip 30a.
  • the robot 10 may be anything as long as the operation of moving the dispenser 30 can be performed.
  • the robot 10 may be a single arm type or a double arm type.
  • FIG. 1 illustrates a double-armed robot 10.
  • the robot 10 includes a trunk portion 11, a shoulder portion 12, a first arm 13A, and a second arm 13B.
  • drum 11 stands with respect to a floor surface.
  • the shoulder portion 12 is attached to the upper portion of the trunk portion 11 and is rotatable around a vertical axis.
  • the arms 13A and 13B are, for example, serial link type articulated arms, and are attached to both ends of the shoulder portion 12, respectively.
  • a gripping mechanism 14 is provided at the ends of the arms 13A and 13B.
  • the gripping mechanism 14 is a robot hand having a plurality of finger portions 15, for example, and grips various work objects by opening and closing the finger portions 15.
  • the camera 40 captures an image including at least the tip portion 30a of the dispenser 30, the liquid surface SF1 of the liquid C1, and the non-dispensing object C2.
  • the camera 40 has an image pickup device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, picks up an image in response to a command input, and outputs the image data.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the dispensing system 1 may further include a table 20.
  • the table 20 is attached to the robot 10 and supports an object to be worked by the robot 10.
  • the dispensing system 1 may further include a rack 60.
  • the rack 60 holds the camera 40 and the container 80 together.
  • the rack 60 may be anything as long as the positional relationship between the holding objects can be maintained.
  • the rack 60 includes support plates 61A and 61B, a container holding unit 62, a camera holding unit 63, and a handle 65.
  • the support plates 61A and 61B have a rectangular shape and are connected so as to be rotatable with respect to each other on one side. For example, one side of the support plates 61 ⁇ / b> A and 61 ⁇ / b> B is connected via a hinge 66.
  • the support plates 61 ⁇ / b> A and 61 ⁇ / b> B are arranged on the table 20 such that the support plate 61 ⁇ / b> A overlaps the support plate 61 ⁇ / b> B and the hinge 66 is on the opposite side of the robot 10.
  • the support plate 61B may be fixed to the table 20 by bolt fastening or the like. Even in a state where the support plate 61B is fixed to the table 20, the support plate 61A can rotate about the central axis of the hinge 66.
  • the container holding part 62, the camera holding part 63, and the light holding part 64 are provided on the support plate 61A.
  • the container holding unit 62 holds the container 80.
  • the container holding unit 62 holds the container 80 so that the side wall 81 is perpendicular to the support plate 61A.
  • the camera holding unit 63 captures an image including at least a part of the liquid level SF1 of the liquid C1 in the container 80, at least a part of the non-dispensing object C2, and the tip part 30a inserted into the container 80.
  • the camera 40 is held in a posture that can be done.
  • the camera holding unit 63 may be arranged so as to line up with the container holding unit 62 in a direction along the hinge 66, for example. In this case, the support plate 61A can be rotated around the axis line along the direction in which the container holding portion 62 and the light holding portion 64 are arranged.
  • the handle 65 is provided on the opposite side of the hinge 66 on the support plate 61A, for example.
  • the handle 65 is located on the robot 10 side.
  • the handle 65 protrudes upward from the support plate 61 ⁇ / b> A, and its upper portion 65 a projects to the opposite side of the hinge 66.
  • the support plate 61A can be rotated around the hinge 66 and the rack 60 can be tilted.
  • tilt the rack 60 means that the object to be held in the rack 60 is tilted by tilting a part or the whole of the rack 60.
  • the rack 60 may further include a stopper 67.
  • the stopper 67 is a member that keeps the inclination of the rack 60 constant.
  • the stopper 67 is provided on the opposite side of the hinge 66 on the support plate 61B.
  • the stopper 67 protrudes upward from the support plate 61 ⁇ / b> B, and its upper portion 67 a projects to the opposite side of the hinge 66.
  • the stopper 67 has a groove 67b facing the hinge 66 side. The edge of the support plate 61A can be fitted into the groove 67b.
  • the stopper 67 is rotatable so that the groove 67b is moved closer to and away from the hinge 66.
  • the base of the stopper 67 is connected to the support plate 61 ⁇ / b> B via a hinge 68 parallel to the hinge 66.
  • FIG. 4B when the stopper 67 is tilted toward the hinge 66 while the support plate 61A is rotated and the edge of the support plate 61A is fitted into the groove 67b, the support plate 61A is restrained. . Thereby, the inclination of the rack 60 is kept constant.
  • the dispensing system 1 may further include a backlight 50.
  • the backlight 50 irradiates at least an imaging range by the camera 40.
  • the light emitted from the backlight 50 may be transmitted through the container 80 and can be detected by the camera 40.
  • the backlight 50 may emit red visible light.
  • LED Light Emitting Diode
  • the backlight 50 may be held on the rack 60 together with the camera 40 and the container 80 in an arrangement in which the container 80 is sandwiched between the backlight 40 and the camera 40.
  • the rack 60 may further include a light holding unit 64 provided on the support plate 61 ⁇ / b> A in such a manner that the container holding unit 62 is sandwiched between the rack 60 and the camera holding unit 63.
  • the light holding unit 64 holds the backlight 50 in a posture in which light is emitted to the container 80 side.
  • the dispensing system 1 further includes a controller 100.
  • the controller 100 acquires at least the position information of the liquid level SF1, the position information of the boundary part BD1, and the position information of the tip part 30a of the dispenser 30 based on the image captured by the camera 40.
  • the dispenser 30 is lowered based on the position information of the distal end portion 30a, the position information of the liquid surface SF1, and the position information of the boundary portion BD1. Controlling the robot 10 is configured to execute.
  • the controller 100 may have a console 70 as a user interface.
  • the console 70 includes a monitor 71 and an input device 72 such as a keyboard.
  • the console 70 may be a touch panel in which a monitor and an input device are integrated.
  • the controller 100 may be of any type as long as it is configured to execute the above-described processing. Hereinafter, the configuration of the controller 100 will be described in detail with reference to FIGS. 1 and 5 to 7. Illustrate.
  • the controller 100 includes a protocol construction unit 110, an image processing unit 120, a backlight control unit 125, a robot control unit 130, a dispenser control unit 140, a process storage unit 151, and a reference data storage as functional modules. Part 152.
  • the protocol construction unit 110 sets work processes of the robot 10 including a plurality of types of dispensing operations, registers them in the process storage unit 151, and registers reference data for dispensing operations in the reference data storage unit 152.
  • the reference data is data necessary for controlling the robot 10 and includes image processing data.
  • the image processing data includes, for example, an image pattern for image recognition.
  • the image processing unit 120 is based on the position information of the liquid surface SF1, the position information of the boundary part BD1, and the position of the tip part 30a. Get information and.
  • the backlight control unit 125 switches the backlight 50 on and off. For example, the backlight control unit 125 turns off the backlight in at least a part of the time period when the imaging by the camera 40 is not performed. This can reduce the burden on the operator's eyes.
  • the robot control unit 130 controls the robot 10 based on the position information acquired by the image processing unit 120 and the work process registered in the process storage unit 151.
  • the dispenser control unit 140 controls the dispenser 30 in synchronization with the control of the robot 10 based on the work process registered in the process storage unit 151. For example, when the dispenser 30 is an electric type, the dispenser control unit 140 turns suction by the dispenser 30 on and off. The dispenser control unit 140 may control the robot 10 so as to operate an on / off switch of the dispenser 30 instead of controlling the dispenser 30 itself. Moreover, when the dispenser 30 is a manual type, the dispenser control part 140 may control the robot 10 so that the dispenser 30 may be operated.
  • the dispenser control unit 140 grips the outer cylinder of the syringe by one of the arms 13A and 13B, and the plunger of the syringe by the other of the arms 13A and 13B.
  • the robot 10 may be controlled to push and pull.
  • the protocol construction unit 110 includes a process setting unit 111, a process confirmation unit 114, an interrupt unit 112, and a reference data registration unit 113.
  • the process setting unit 111 sets a work process of the robot 10 including a plurality of types of dispensing work. Specifically, the process setting unit 111 acquires a work process of the robot 10 including a plurality of types of dispensing work from the console 70 and registers it in the process storage unit 151. Thus, the console 70 functions as a user interface for registering work processes.
  • the process confirmation unit 114 confirms the work content that the robot control unit 130 intends to execute.
  • the interrupting unit 112 stops the robot 10 via the robot control unit 130 when the robot 10 tries to perform a dispensing operation in which the reference data is not registered, and the robot 10 operates after the registration of the reference data. To resume.
  • the reference data registration unit 113 displays a reference data setting screen on the console 70 when the interrupt unit 112 stops the robot 10, and acquires and registers the reference data from the console 70.
  • the console 70 also functions as a user interface for registering reference data.
  • the robot control unit 130 includes a container arrangement control unit 131, a dispenser arrangement control unit 132, a descent control unit 133, a reference distance setting unit 134, a boundary monitoring unit 135, a target position.
  • a setting unit 136, a tilt detection unit 137, and a tilt control unit 138 are included.
  • the container arrangement control unit 131 controls the robot 10 so that the container 80 is arranged in the field of view of the camera 40.
  • the container arrangement control unit 131 controls the arm 13 ⁇ / b> B so that the container 80 is arranged on the container holding unit 62.
  • the dispenser arrangement control unit 132 controls the arm 13A so as to arrange the dispenser 30 at the starting position of suction or discharge.
  • the dispenser 30 When the descent controller 133 sucks the liquid C1 into the dispenser 30, the dispenser 30 is based on the position information of the tip 30a, the position information of the liquid C1, and the position information of the boundary BD1. The robot 10 is controlled to move down.
  • the descent control unit 133 includes a first mode control unit 133a, a second mode control unit 133b, and a switching unit 133c.
  • the first mode control unit 133a controls the robot 10 so as to lower the tip portion 30a following the lowering of the liquid C1.
  • the second mode control unit 133b controls the robot 10 to lower the tip 30a to the final target position.
  • the final target position is set in advance based on the position information of the boundary portion BD1.
  • the switching unit 133c switches the control by the first mode control unit 133a to the control by the second mode control unit 133b in response to the leading end 30a approaching the final target position.
  • the switching unit 133c controls the first mode control unit 133a according to the second mode control unit 133b as the distance from the tip 30a to the final target position becomes smaller than a preset reference distance. Switch to control by.
  • the reference distance setting unit 134 sets the reference distance.
  • the boundary monitoring unit 135 detects a change in the boundary part BD1 based on the image captured by the camera 40.
  • the target position setting unit 136 sets the final target position based on the position information of the boundary part BD1.
  • the inclination detecting unit 137 detects the inclination of the boundary part BD1 with respect to the liquid surface SF1 based on the image captured by the camera 40. Note that the inclination of the boundary portion BD1 with respect to the liquid level SF1 may occur when the container 80 is upright and the central axis is vertical in a state where the boundary portion BD1 is inclined with respect to the central axis of the container 80.
  • the tilt control unit 138 controls the robot 10 so that the container 80 is tilted in a direction in which the boundary portion BD1 is gently inclined with respect to the liquid level SF1.
  • the inclination control part 138 moves the container 80 and the dispenser 30 to the boundary part BD1 as the tip part 30a approaches the final target position.
  • the robot 10 may be controlled so as to be tilted in a direction in which the tilt of the robot becomes gentle.
  • the hardware of the controller 100 is not necessarily divided into the functional blocks described above.
  • a hardware configuration of the controller 100 for example, a circuit having a processor 101, a memory 102, a storage 103, an input / output port 104, and a driver 105 can be cited as shown in FIG.
  • the driver 105 is a circuit for controlling the actuator of the robot 10.
  • the input / output port 104 inputs / outputs data between the camera 40 and the console 70, outputs a suction or discharge on / off command to the dispenser 30, and sends a drive command for the actuator of the robot 10 to the driver 105. Output.
  • the processor 101 configures each function of the controller 100 described above by executing a program in cooperation with at least one of the memory 102 and the storage 103.
  • the camera 40, the console 70, and the controller 100 may be integrated on hardware or may be separated from each other.
  • the controller 100 may be divided into a plurality of hardware.
  • the separated hardware may be connected by either wire or wireless, and there is no limitation on the connection method.
  • the circuit of the controller 100 acquires the position information of the liquid level SF1, the position information of the boundary portion BD1, and the position information of the tip portion 30a based on the image captured by the camera 40, and the liquid C1. Is sucked into the dispenser 30, the robot 10 is caused to lower the dispenser 30 based on the position information of the tip 30 a, the position information of the liquid level SF 1, and the position information of the boundary BD 1. Is configured to perform the control.
  • the hardware configuration of the controller 100 is not necessarily limited to that configuring each functional module by executing a program.
  • the controller 100 may constitute each function by a dedicated logic circuit or an ASIC (Application Specific Integrated Circuit) in which the controller 100 is integrated.
  • ASIC Application Specific Integrated Circuit
  • Protocol Construction Procedure (1) Overall Configuration Next, a protocol construction procedure by the controller 100 will be described as an example of a protocol construction method.
  • step S101 the process setting unit 111 sets a work process of the robot 10 including a plurality of types of dispensing work.
  • the process setting unit 111 acquires a work process of the robot 10 including a plurality of types of dispensing work from the console 70 and registers it in the process storage unit 151.
  • FIG. 9 is a diagram illustrating an example of setting work processes.
  • This work process includes steps S01 to S23.
  • Step S01 is a step of injecting the first reagent into the first container 80 containing a sample such as a cell, and stirring the contents of the container 80 using, for example, a vortex mixer.
  • Step S02 is a process of separating the contents of the first container 80 into the liquid C1 to be dispensed and the non-dispensing object C2 by centrifugation or the like.
  • Step S03 is a step of taking out the liquid C1 to be dispensed in the first container 80 and transferring it to the second container 80.
  • Step S11 is a process of injecting the second reagent into the second container 80 containing the liquid C1, and stirring the contents of the container 80 by, for example, a vortex mixer.
  • Step S12 is a step of separating the contents of the second container 80 into the liquid C1 to be dispensed and the non-dispensing object C2 by centrifugation or the like.
  • Step S13 is a step of discharging the liquid C1 to be dispensed in the second container 80.
  • Step S21 is a step of injecting the third reagent into the second container 80 containing the remaining non-dispensing object C2, and stirring the contents of the container 80 by, for example, a vortex mixer.
  • Step S22 is a step of separating the contents of the second container 80 into the liquid C1 to be dispensed and the non-dispensing object C2 by centrifugation or the like.
  • Step S ⁇ b> 23 is a step of discharging the liquid C ⁇ b> 1 to be dispensed in the second container 80 and collecting the non-dispensing object C ⁇ b> 2 remaining in the container 80.
  • steps S03, S13, and S23 correspond to the dispensing work.
  • step S102 the robot control unit 130 controls the robot 10 to start execution of the process set in step S101.
  • the robot control unit 130 executes step S102 in response to, for example, a command input by the user.
  • step S103 the process confirmation unit 114 confirms whether or not the process to be executed is a dispensing operation.
  • the controller 100 executes step S114.
  • step S114 the robot control unit 130 controls the robot 10 to execute the process.
  • step S115 the controller 100 proceeds with the process to step S115 described later.
  • step S ⁇ b> 104 the robot control unit 130 controls the arm 13 ⁇ / b> B so that the container 80 is disposed on the container holding unit 62.
  • the robot control unit 130 controls the arm 13B so as to remove the cap.
  • step S105 the robot control unit 130 controls the arm 13A so as to start conveyance of the dispenser 30 to the container 80 side.
  • step S106 the controller 100 executes step S106.
  • step S ⁇ b> 106 the interrupt unit 112 checks whether or not the reference data for the dispensing work to be executed is registered in the reference data storage unit 152. If it is determined that the reference data is registered, the controller 100 advances the process to step S112 described later.
  • step S ⁇ b> 107 the interrupt unit 112 acquires an image from the camera 40.
  • step S108 based on the image acquired in step S107, the interrupt unit 112 determines whether or not the distal end portion 30a has reached the reference data registration position.
  • the reference data registration position means a position that falls within the field of view of the camera 40 above the liquid level SF1.
  • the interrupt unit 112 repeats steps S107 and S108 until the tip 30a reaches the reference data registration position.
  • step S109 If it is determined in step S108 that the tip 30a has reached the reference data registration position, the controller 100 executes step S109.
  • step S ⁇ b> 109 the interrupt unit 112 outputs a command to stop the transport of the dispenser 30 to the robot control unit 130.
  • the robot control unit 130 controls the robot 10 to stop the transport of the dispenser 30 in response to a command from the interrupt unit 112.
  • the interrupt unit 112 stops the robot 10 after the tip 30a enters the field of view of the camera 40 when the reference data is not registered.
  • step S110 the reference data registration unit 113 performs registration of reference data.
  • step S ⁇ b> 111 the interrupt unit 112 outputs a command for resuming conveyance of the dispenser 30 to the robot control unit 130.
  • the robot control unit 130 controls the robot 10 so as to resume conveyance of the dispenser 30 in response to a command from the interrupt unit 112.
  • the reference data registration unit 113 performs registration of the reference data when the interrupt unit 112 stops the robot 10, and the interrupt unit 112 resumes the operation of the robot 10 after the registration of the reference data.
  • step S112 the robot control unit 130 controls the arm 13A so as to place the dispenser 30 at the suction start position.
  • the starting position of the suction is set in advance at a position having a predetermined depth from the liquid level SF1, for example.
  • step S113 the robot controller 130 and the dispenser controller 140 respectively control the robot 10 and the dispenser 30 so as to execute the dispensing operation.
  • step S115 the robot control unit 130 determines whether or not the execution of all processes has been completed. When it is determined that the execution of all the processes has not been completed, the controller 100 executes Step S116. In step S116, the reference data registration unit 113 shifts the execution target to the next step. Thereafter, the controller 100 returns the process to step S103. Thereby, stopping the robot 10 when the reference data is not registered is executed by the interrupt unit 112 for each dispensing operation. Each time the interrupt unit 112 stops the robot 10, the reference data registration unit 113 executes registration of reference data corresponding to the dispensing operation scheduled to be executed next.
  • step S115 If it is determined in step S115 that the execution of all processes has been completed, the controller 100 ends the process. This completes the protocol construction procedure.
  • step S ⁇ b> 201 the backlight control unit 125 turns on the backlight 50, and the reference data registration unit 113 displays a reference data setting screen on the monitor 71 of the console 70.
  • step S202 the reference data registration unit 113 acquires a first analysis region for searching the tip 30a outside the liquid C1 in the image from the console 70, and registers this as reference data in the reference data storage unit 152. To do.
  • step S203 the reference data registration unit 113 acquires a second analysis region for searching for the liquid level SF1 in the image from the console 70, and registers this as reference data in the reference data storage unit 152.
  • step S204 the reference data registration unit 113 acquires a third analysis region for searching the boundary portion BD1 in the image from the console 70, and registers this as reference data in the reference data storage unit 152.
  • the execution order of steps S202 to S204 can be changed as appropriate.
  • the reference data registration unit 113 may sequentially execute acquisition of the second analysis region, acquisition of the third analysis region, and acquisition of the first analysis region.
  • FIG. 11 is a diagram illustrating an analysis area setting screen. This screen displays the image captured by the camera 40 and the analysis region input to the input device 72 by the user in an overlapping manner.
  • An analysis area A1 in FIG. 11 indicates an area input for setting the first analysis area.
  • the analysis region A1 is set so as to include the tip portion 30a outside the liquid C1.
  • the analysis area A2 indicates an area input for setting the second analysis area.
  • the analysis region A2 is set so as to include the liquid level SF1.
  • the analysis area A3 indicates an area input for setting the third analysis area.
  • the analysis region A3 is set so as to include the boundary portion BD1.
  • the reference data registration unit 113 registers the analysis region A1 as the first analysis region in the reference data storage unit 152, registers the analysis region A2 as the second analysis region in the reference data storage unit 152, and sets the analysis region A3 as the first analysis region.
  • the third analysis area is registered in the reference data storage unit 152.
  • step S205 the reference data registration unit 113 acquires the image pattern of the tip portion 30a and registers it in the reference data storage unit 152 as reference data.
  • FIG. 12 is a diagram illustrating an image pattern registration screen.
  • This screen displays an image in the vicinity of the distal end portion 30a and a frame line P1 input to the input device 72 by the user in an overlapping manner.
  • This screen may be an enlarged display of the analysis area A1 in FIG.
  • a frame line P1 designates an area to be used as an image pattern.
  • the reference data registration unit 113 registers the image of the area surrounded by the frame line P1 in the reference data storage unit 152 as an image pattern of the tip portion 30a.
  • step S ⁇ b> 206 the reference data registration unit 113 outputs a command to insert the tip portion 30 a into the liquid C ⁇ b> 1 to the robot control unit 130.
  • the robot control unit 130 controls the robot 10 to lower the dispenser 30 and insert the tip 30a into the liquid C1.
  • Step S207 the reference data registration unit 113 acquires the image pattern of the tip portion 30a as in step S205, and registers this as reference data in the reference data storage unit 152. As described above, the reference data registration unit 113 registers the image pattern of the tip 30a outside the liquid C1 and the image pattern of the tip 30a in the liquid C1 as reference data. Thereafter, the backlight control unit 125 turns off the backlight 50.
  • reference data registration unit 113 illustrated the case where the first analysis region, the second analysis region, the third analysis region, and the image pattern of the tip 30a inside and outside the liquid C1 are registered as reference data, It is not limited to this.
  • the reference data registration unit 113 may register only a part of the reference data exemplified above.
  • the reference data may be any data as long as it is necessary for the control of the robot 10. Therefore, the reference data registration unit 113 may register reference data different from those exemplified above. Good.
  • Dispensing Control Execution Procedure (1) Overall Configuration Next, a dispensing control procedure executed by the controller 100 will be described as an example of a control method.
  • FIG. 13 shows a control procedure when the liquid C1 in the container 80 is transferred to another container 80 as an example of the dispensing operation.
  • the controller 100 first executes step S301.
  • step S ⁇ b> 301 the container arrangement control unit 131 controls the arm 13 ⁇ / b> B so that the container 80 is arranged on the container holding unit 62.
  • the container arrangement control unit 131 controls the arm 13B so as to remove the cap.
  • step S302 the robot control unit 130 controls the arm 13A so as to place the distal end portion 30a of the dispenser 30 at a position for image acquisition.
  • the image acquisition position means a position that falls within the field of view of the camera 40 above the liquid level SF1.
  • the backlight control unit 125 turns on the backlight 50, and the image processing unit 120 acquires an image from the camera 40.
  • This image includes at least the tip 30a, a part of the liquid level SF1, and a part of the non-dispensing object C2.
  • step S303 the image processing unit 120 acquires the position information of the liquid surface SF1 and the position information of the tip 30a based on the image acquired in step S302.
  • the image processing unit 120 acquires information on the second analysis region from the reference data storage unit 152, and acquires position information on the liquid level SF1 from within the second analysis region.
  • the image processing unit 120 detects a linear portion passing through the second analysis region, and acquires the position as position information of the liquid surface SF1.
  • the image processing unit 120 acquires the first analysis region information and the image pattern of the tip 30a outside the liquid C1 from the reference data storage unit 152, and based on the image pattern, the position information of the tip 30a is first. Obtain from within the analysis area.
  • the image processing unit 120 acquires the position of a portion that matches the image pattern of the tip portion 30a as position information of the tip portion 30a in the first analysis region.
  • the image processing unit 120 may further acquire position information of the boundary part BD1.
  • the image processing unit 120 acquires information on the third analysis region from the reference data storage unit 152, and acquires position information on the boundary portion BD1 from within the third analysis region.
  • the image processing unit 120 detects a linear portion passing through the third analysis region, and acquires the position as position information of the boundary portion BD1.
  • step S304 the dispenser arrangement control unit 132 controls the arm 13A so that the distal end 30a is arranged at the suction start position OP1 (see FIG. 16A). Specifically, the dispenser arrangement control unit 132 moves based on the position information of the tip part 30a and the position information of the liquid level SF1 acquired in step S303 to move the tip part 30a at the start position OP1. Is calculated, and the arm 13A is controlled to move the tip 30a by the amount of movement.
  • the start position OP1 is set in advance to a position at a predetermined depth (hereinafter referred to as “reference depth”) DP1 from the liquid level SF1.
  • the reference depth DP1 is set in advance so as to satisfy the following conditions, for example.
  • Condition 1-1) The depth is small compared to the depth from the liquid level SF1 to the boundary portion BD1.
  • Condition 1-2) The tip 30a can be maintained in the liquid C1 even if a position control error occurs.
  • step S305 the dispenser control unit 140 and the descent control unit 133 control the dispenser 30 and the robot 10 so as to perform the suction of the liquid C1.
  • the dispenser controller 140 controls the dispenser controller 140 so that the liquid C1 is sucked from the container 80.
  • the descent controller 133 sucks the liquid into the dispenser 30
  • the dispenser 30 is based on the position information on the tip 30a, the position information on the liquid surface SF1, and the position information on the boundary BD1.
  • the robot 10 is controlled to move down.
  • the backlight control unit 125 turns off the backlight 50.
  • step S306 the dispenser arrangement control unit 132 controls the arm 13A so as to pull out the tip 30a from the container 80.
  • step S307 the container arrangement control unit 131 controls the arm 13B so as to replace the container 80 of the container holding unit 62 with another container 80.
  • step S308 the dispenser arrangement control unit 132 controls the arm 13A so as to arrange the tip part 30a at the discharge start position.
  • the discharge start position is set in advance to a position in the container 80.
  • step S309 the dispenser controller 140 controls the dispenser controller 140 so that the liquid C1 is discharged into the container 80.
  • step S ⁇ b> 310 the dispenser arrangement control unit 132 controls the arm 13 ⁇ / b> A so that the distal end portion 30 a is pulled out from the container 80. This completes the dispensing operation.
  • step S401 the dispenser control unit 140 controls the dispenser 30 so as to start suction of the liquid C1 in the container 80.
  • step S ⁇ b> 402 the image processing unit 120 acquires an image from the camera 40.
  • This image includes at least the tip 30a, a part of the liquid level SF1, and a part of the non-dispensing object C2.
  • step S403 the image processing unit 120 acquires the position information of the liquid surface SF1, the position information of the boundary portion BD1, and the position information of the tip portion 30a based on the image acquired in step S402.
  • the image processing unit 120 acquires information on the second analysis region from the reference data storage unit 152, and acquires position information on the liquid level SF1 from within the second analysis region.
  • the image processing unit 120 detects a linear portion passing through the second analysis region, and acquires the position as position information of the liquid surface SF1.
  • the image processing unit 120 acquires information on the third analysis region from the reference data storage unit 152, and acquires position information on the boundary portion BD1 from within the third analysis region.
  • the image processing unit 120 detects a linear portion passing through the third analysis region, and acquires the position as position information of the boundary portion BD1.
  • the image processing unit 120 acquires the image pattern of the tip 30a in the liquid C1 from the reference data storage unit 152, and based on the image pattern of the tip 30a, the position information of the tip 30a from the second analysis region. get.
  • the image processing unit 120 acquires the position of a portion that matches the image pattern of the tip portion 30a as position information of the tip portion 30a in the second analysis region.
  • step S404 the inclination detection unit 137 detects the inclination of the boundary part BD1 based on the image acquired in step S402.
  • the inclination detection unit 137 may detect the inclination of the boundary part BD1 based on the position information of the boundary part BD1 acquired by the image processing unit 120.
  • step S405 the target position setting unit 136 sets the final target position GL1 (see FIG. 16B) based on the position information of the boundary part BD1 acquired in step S403.
  • the target position setting unit 136 sets the final target position GL1 above the position of the boundary part BD1.
  • the target position setting unit 136 sets the final target position GL1 so that the distance between the final target position GL1 and the boundary part BD1 in the vertical direction becomes a predetermined vertical offset value VO1.
  • the vertical offset value VO1 is set in advance so as to satisfy the following condition, for example.
  • Condition 2-1) The depth is small compared to the depth from the liquid level SF1 to the boundary portion BD1.
  • Condition 2-2) The tip 30a does not reach the boundary BD1 even if a position control error occurs.
  • the target position setting unit 136 uses the center position of the container 80 (for example, the central axis CL1 of the side wall 81) as a reference.
  • the position shifted in the direction of decreasing the inclination of BD1 is set as the final target position GL1 (see FIG. 17B).
  • the target position setting unit 136 sets the final target position GL1 so that the horizontal distance between the final target position GL1 and the central axis CL1 of the container 80 becomes a predetermined horizontal offset value HO1.
  • the horizontal offset value HO1 is set in advance so as to satisfy the following condition, for example.
  • the dispenser 30 does not interfere with the side wall 81 of the container 80. Also in this case, the target position setting unit 136 sets the final target position GL1 so that the distance between the final target position GL1 and the boundary portion BD1 in the vertical direction becomes the predetermined vertical offset value VO2.
  • the vertical offset value VO2 is also set in advance so as to satisfy the same condition as the vertical offset value VO1.
  • step S406 the image processing unit 120 acquires an image from the camera 40 as in step S402.
  • step S407 the image processing unit 120 acquires the position information of the liquid surface SF1, the position information of the boundary part BD1, and the position information of the tip part 30a, as in step S403.
  • step S408 the inclination detection unit 137 detects the inclination of the boundary part BD1 as in step S404.
  • the first mode control unit 133a controls the robot 10 so as to lower the tip portion 30a following the lowering of the liquid level SF1 by lowering the dispenser 30 by the arm 13A (hereinafter, referred to as “the first mode control unit 133a”). This control is referred to as “first mode lowering control”).
  • the first mode control unit 133a performs the first mode lowering control based on the position information of the liquid level SF1 and the position information of the tip part 30a. Specifically, the first mode control unit 133a executes the first mode lowering control so that the depth from the liquid level SF1 to the tip 30a is maintained at a value close to the reference depth DP1 (FIG. 16 ( b)).
  • the reference distance setting unit 134 sets the reference distance RF1 (see FIG. 16B).
  • the reference distance setting unit 134 may be configured to increase the reference distance RF1 as the moving speed of the distal end portion 30a increases.
  • the reference distance setting unit 134 may be configured to set the reference distance RF1 to a value proportional to the descending speed of the distal end portion 30a.
  • the descending speed of the tip portion 30a can be calculated based on, for example, the difference between the position information of the tip portion 30a acquired this time and the position information of the tip portion 30a acquired last time. It is also possible to calculate the descending speed based on the average value of the differences calculated over a plurality of times.
  • step S411 the boundary monitoring unit 135 determines whether or not the boundary part BD1 has changed based on the position information of the boundary part BD1 acquired in step S407. If no change is detected at the boundary in step S411, the controller 100 advances the process to step S413.
  • step S412 the target position setting unit 136 sets the final target position GL1 in the same manner as in step S405, based on the position information of the boundary part BD1 acquired in step S407. That is, the target position setting unit 136 updates the final target position GL1 based on the position information of the boundary part BD1 when the robot 10 moves the dispenser 30 downward. Further, the target position setting unit 136 updates the final target position GL1 when the boundary monitoring unit 135 detects a change in the boundary part BD1.
  • step S413 the switching unit 133c determines whether the distance from the tip 30a to the final target position GL1 (hereinafter referred to as “first remaining distance”) LD1 is smaller than the reference distance RF1 set in advance in step S410. Determine whether or not.
  • first remaining distance the distance from the tip 30a to the final target position GL1 (hereinafter referred to as “first remaining distance”) LD1 is smaller than the reference distance RF1 set in advance in step S410. Determine whether or not.
  • the controller 100 returns the process to step S405. Thereby, the control by the first mode control unit 133a is continued.
  • step S414 the switching unit 133c switches the control by the first mode control unit 133a to the control by the second mode control unit 133b.
  • step S413 and S414 the switching unit 133c switches the control by the first mode control unit 133a to the control by the second mode control unit 133b in response to the leading end 30a approaching the final target position GL1. .
  • step S415 the image processing unit 120 acquires an image from the camera 40 as in step S402.
  • step S416 the image processing unit 120 acquires the position information of the liquid level SF1, the position information of the boundary part BD1, and the position information of the tip part 30a as in step S403.
  • step S417 the inclination detection unit 137 further detects the inclination of the boundary part BD1 as in step S404.
  • step S4108 the second mode control unit 133b controls the robot 10 so that the tip 30a is brought close to the final target position GL1 by lowering the dispenser 30 with the arm 13A (hereinafter, this control is referred to as “first control”). "Two-mode descent control").
  • the second mode control unit 133b may perform control to suppress overshooting as compared to the first mode control unit 133a.
  • the first mode control unit 133a may perform control to increase responsiveness compared to the second mode control unit 133b.
  • feedforward control that compensates for delay in image processing is performed, and in the control by the second mode control unit 133b, the feedforward control is not performed. Is mentioned.
  • the control by the first mode control unit 133a there is a configuration in which the gain for the deviation is set higher than the control by the second mode control unit 133b.
  • Step S419 the controller 100 executes Step S419 similar to Step S411.
  • the boundary monitoring unit 135 determines whether there is a change in the boundary part BD1 based on the position information of the boundary part BD1 acquired in step S416. If no change is detected in the boundary portion BD1 in step S419, the controller 100 advances the process to step S421.
  • Step S419 when a change is detected in the boundary portion BD1, the controller 100 executes Step S420 similar to Step S412.
  • the target position setting unit 136 updates the final target position GL1 based on the position information of the boundary part BD1 acquired in step S416.
  • Step S421 the second mode control unit 133b detects whether or not the first remaining distance LD1 is equal to or less than zero. When it is determined that the first remaining distance LD1 is greater than zero (see FIG. 16C), the controller 100 returns the process to step S415. Thereby, the control by the second mode control unit 133b is continued.
  • Step S422 the controller 100 executes Step S422.
  • the second mode control unit 133b controls the robot 10 to stop the lowering of the dispenser 30.
  • the descent control of the dispenser 30 by the descent control unit 133 is completed.
  • the lowering control unit 133 controls the robot 10 to lower the tip 30a to the final target position GL1 by lowering the tip 30a following the lowering of the liquid level SF1. To do.
  • step S423 the dispenser control unit 140 controls the dispenser 30 so as to stop the suction of the liquid C1 (see FIG. 16 (e)). Thereafter, the backlight control unit 125 turns off the backlight 50. This completes the suction procedure.
  • the controller 100 is configured so that the boundary BD1 can be inclined with respect to the liquid level SF1 (for example, when the boundary BD1 is inclined with respect to the central axis CL1 of the container 80).
  • the suction procedure of step S305 may be executed in a state where the container 80 is tilted in a direction in which the boundary portion BD1 is gently inclined with respect to the liquid level SF1.
  • the lowering control unit 133 controls the robot 10 so as to lower the distal end portion 30a of the dispenser 30 in an oblique direction corresponding to the inclination of the container 80 (FIGS. 19A to 19). d)).
  • Lowering the distal end portion 30 a in an oblique direction corresponding to the inclination of the container 80 means lowering the distal end portion 30 a so as not to contact the side wall 81 of the container 80.
  • the lowering control unit 133 may control the robot 10 so as to lower the distal end portion 30a along the inclined central axis CL1 of the container 80.
  • the controller 100 sets, as the final target position GL1, a position shifted in the direction of decreasing the inclination of the boundary portion BD1 with respect to the central axis CL1 of the container 80, and gently reduces the inclination of the boundary portion BD1 with respect to the liquid surface SF1. It may be configured to perform only one of making the container 80 tilted in the direction to be performed, or may be configured to perform both of these in combination.
  • the container placement control unit 131 controls the robot 10 so as to place the container 80 on the container holding unit 62
  • the tilt control unit 138 controls the robot 10 so that the container 80 is tilted by tilting the rack 60. Also good.
  • the container placement control unit 131 may control the robot 10 so that the container 80 is placed on the container holding unit 62.
  • the container 80 may be disposed so as to be inclined in a direction in which the inclination of the boundary portion BD1 with respect to the liquid surface SF1 becomes gentle before being transported from outside the field of view of the camera 40 into the field of view.
  • the container placement control unit 131 may control the robot 10 so that the container 80 is transported from outside the field of view of the camera 40 and placed on the container holding unit 62 while maintaining the tilt of the container 80. Good.
  • the controller 100 uses the stopper 67 to maintain the inclination of the rack 60 constant.
  • the robot 10 may be controlled so as to maintain the above. For example, the controller 100 raises the upper portion 65a of the handle 65 with the arm 13B and tilts the support plate 61A, and the arm 13A tilts the stopper 67 toward the hinge 66 and fits the edge of the support plate 61A into the groove portion 67b.
  • the robot 10 may be controlled so as to be included (see FIG. 20).
  • the edge of the support plate 61A is fitted into the groove 67b, the inclination of the rack 60 is maintained by the stopper 67, so that the handle 65 and the stopper 67 can be released from the arms 13A and 13B.
  • the arm 13A it is possible to cause the arm 13A to perform the operation of arranging the dispenser 30 at the position for image acquisition.
  • the upper portion of the container 80 is closed with a cap, it is possible to cause the arm 13B to perform the operation of removing the cap.
  • the dispenser 30 is a manual type, the dispenser 30 can be operated by cooperation of the arms 13A and 13B.
  • the stopper 67 the arms 13A and 13B can be used for a wider range of work.
  • the controller 100 may execute in the middle of step S305 that the container 80 is tilted in a direction in which the boundary of the boundary portion BD1 with respect to the liquid level SF1 becomes gentle.
  • the tilt control unit 138 may control the robot 10 so that the container 80 is tilted by tilting the rack 60 while the robot 10 is lowering the distal end portion 30a (hereinafter referred to as “tilt control”). Called).
  • the tilt control unit 138 may control the robot 10 so that the container 80 is tilted in accordance with the leading end 30a approaching the final target position GL1.
  • FIG. 18 is a flowchart illustrating the tilt control procedure.
  • the controller 100 first executes step S501.
  • step S501 the tilt control unit 138 determines the distance from the liquid level SF1 to the boundary part BD1 (hereinafter referred to as “second remaining distance”) based on the position information acquired in any of steps S403, S406, and S414. .) Wait until LD2 becomes smaller than the reference distance RF3 (see FIGS. 21A and 21B).
  • the reference distance RF3 is set in advance so that the tilting of the container 80 and the dispenser 30 is started before the liquid level SF1 reaches the boundary BD1.
  • step S502 the controller 100 executes steps S502 to S506.
  • the inclination detection unit 137 detects the inclination angle ⁇ of the boundary part BD1 with respect to the liquid level SF1 based on the image acquired in any of steps S402, S405, and S413 (see FIG. 21C).
  • the inclination angle ⁇ can be calculated, for example, by complementing the shape of the boundary portion BD1 with the wire diameter.
  • step S503 the tilt control unit 138 sets a target tilt angle RF5 corresponding to the tilt angle ⁇ .
  • the tilt control unit 138 sets the target tilt angle RF5 to a value equal to the tilt angle ⁇ .
  • step S504 the tilt control unit 138 controls the robot 10 to start tilting the container 80 and the dispenser 30 (see FIGS. 21D and 21E).
  • the tilt control unit 138 controls the robot 10 to tilt the container 80 by tilting the rack 60 by raising the upper portion 65a of the handle 65 by the arm 13B (see FIG. 22).
  • the rack 60 tilts around an axis along the direction in which the camera 40, the container 80, and the backlight 50 are arranged.
  • the tilt control unit 138 controls the robot 10 so that the dispenser 30 is tilted by the arm 13A in accordance with the tilt of the container 80.
  • step S505 the tilt control unit 138 waits for the tilt angle of the container 80 and the dispenser 30 to be equal to or greater than the target tilt angle RF5.
  • step S506 the tilt control unit 138 controls the robot 10 so as to stop the tilt of the container 80 and the dispenser 30.
  • the tilt angle ⁇ is determined substantially uniformly depending on the characteristics of the centrifuge and may be handled as a constant. In such a case, step S502 for detecting the tilt angle ⁇ may be omitted. 4). Effects of this embodiment
  • the dispensing system 1 includes the robot 10 that moves the dispenser 30 for sucking the liquid C1 to be dispensed, the tip 30a of the dispenser 30, and the liquid C1.
  • the camera 40 for capturing an image including the liquid level SF1 and the non-dispensing object C2 positioned below the liquid level SF1, the position information of the liquid level SF1, and the liquid C1 based on the image.
  • the image processing unit 120 that acquires the position information of the boundary portion BD1 between the non-dispensing object C2 and the position information of the tip portion 30a of the dispenser 30 and the liquid C1 are sucked into the dispenser 30.
  • a lowering control unit 133 that controls the robot 10 to lower the dispenser 30; Is provided.
  • this dispensing system 1 it is possible to keep the tip 30a at a shallow position from the liquid surface SF1 by lowering the tip 30a based on the positional relationship between the liquid level SF1 and the tip 30a. Thereby, the liquid adhering to the outer periphery of the front-end
  • tip part 30a is reduced.
  • the tip portion 30a By lowering the tip portion 30a based on the positional relationship between the boundary portion BD1 and the tip portion 30a, the tip portion 30a can be brought closer to the boundary portion BD1. Thereby, the liquid C1 is sufficiently sucked.
  • the tip portion 30a can be maintained in the liquid, and the occurrence of idle suction (gas suction) can be suppressed. Therefore, more reliable dispensing work can be executed.
  • the position information of the tip 30a, the position information of the liquid surface SF1, and the position information of the boundary part BD1 are acquired for each dispensing operation based on the image information. Since the position information of the liquid surface SF1 and the position information of the boundary portion BD1 are likely to vary, a more reliable dispensing operation can be executed by acquiring these pieces of information for each dispensing operation.
  • the chip 32 is detachable from the main body 31, the position of the tip 30 a relative to the main body 31 is likely to vary. For this reason, the effect of acquiring the positional information on the tip portion 30a, the positional information on the liquid level SF1, and the positional information on the boundary portion BD1 for each dispensing operation becomes more remarkable.
  • the dispensing system 1 may further include a target position setting unit 136 that sets the final target position GL1 based on the position information of the boundary BD1, and the lowering control unit 133 follows the lowering of the liquid level SF1.
  • the robot 10 may be controlled such that the tip 30a of the dispenser 30 is lowered and the tip 30a of the dispenser 30 is lowered to the final target position GL1.
  • the tip part 30a can be more reliably maintained at a shallow position from the liquid level SF1.
  • the tip part 30a can be brought closer to the boundary part BD1 more reliably. Therefore, more reliable dispensing work can be executed.
  • the dispensing system 1 only needs to lower the dispenser 30 based on the position information of the tip portion 30a, the position information of the liquid level SF1, and the position information of the boundary portion BD1, so that the target It is not essential to further include the position setting unit 136, to lower the tip part 30a following the lowering of the liquid level SF1, and to lower the tip part 30a to the final target position GL1.
  • the target position setting unit 136 may update the final target position GL1 based on the position information of the boundary part BD1 when the robot 10 lowers the dispenser 30. In this case, since the final target position GL1 can be updated according to the movement of the boundary portion BD1 even when the position of the boundary portion BD1 varies, the tip portion 30a can be brought closer to the boundary portion BD1 more reliably. It becomes possible. Therefore, more reliable dispensing work can be executed. However, it is not essential to update the final target position GL1 by the target position setting unit 136.
  • the dispensing system 1 may further include a boundary monitoring unit 135 that detects a change in the boundary part BD1 based on the image, and the target position setting unit 136 detects a change in the boundary part BD1 by the boundary monitoring unit 135.
  • the final target position GL1 may be updated based on the position information of the boundary portion BD1.
  • the calculation load can be reduced by updating the final target position GL1 only when a change is detected in the boundary portion BD1.
  • the target position setting unit 136 may be configured to update the final target position GL1 every time the position information of the boundary part BD1 is acquired.
  • the lowering control unit 133 includes a first mode control unit 133a that controls the robot 10 to lower the tip part 30a of the dispenser 30 following the lowering of the liquid level SF1, and a tip part 30a of the dispenser 30.
  • the second mode control unit 133b that controls the robot 10 to move down to the final target position GL1, and the control by the first mode control unit 133a as the tip 30a of the dispenser 30 approaches the final target position GL1.
  • a switching unit 133c that switches to control by the second mode control unit 133b.
  • priority is given to following the liquid level SF1, so that the tip 30a can be more reliably kept at a shallow position from the liquid level SF1.
  • the first mode control unit 133a performs control to increase responsiveness compared to the second mode control unit 133b
  • the second mode control unit 133b performs control to suppress overshoot compared to the first mode control unit 133a. May be.
  • the delay of the tip 30a with respect to the lowering of the liquid level SF1 is reduced, so that the position of the tip 30a can be kept at a shallower position from the liquid level SF1.
  • the second mode control unit 133b the amount of overshoot with respect to the final target position GL1 is reduced, so that the tip 30a can be brought closer to the boundary BD1 more reliably. Therefore, more reliable dispensing work can be executed.
  • the switching unit 133c may switch the control by the first mode control unit 133a to the control by the second mode control unit 133b as the remaining distance LD1 becomes smaller than the preset reference distance RF1. In this case, switching from the first mode control unit 133a to the second mode control unit 133b can be more reliably performed by simplifying the determination criterion.
  • the criterion for switching is not limited to this.
  • the dispensing system 1 may further include a reference distance setting unit 134 that increases the reference distance RF1 as the moving speed of the tip 30a of the dispenser 30 increases.
  • a reference distance setting unit 134 that increases the reference distance RF1 as the moving speed of the tip 30a of the dispenser 30 increases.
  • the descending control unit 133 is configured so that the tip of the dispenser 30 corresponds to the inclination of the container 80 in a state where the liquid C1 and the non-dispensing object C2 are accommodated in the inclined container 80 in the field of view of the camera 40.
  • the robot 10 may be controlled so that 30a is lowered in an oblique direction. In this case, it is possible to perform the suction of the liquid C1 in a state where the container 80 is inclined so that the inclination of the boundary portion BD1 with respect to the liquid level SF1 is gentle as compared with the case where the container 80 is upright.
  • the dispensing system 1 conveys the container 80 from the outside of the field of view of the camera 40 while maintaining the state where the container 80 is inclined in a direction in which the inclination of the boundary BD1 with respect to the liquid level SF1 is moderated. You may further provide the container arrangement
  • a tilt control unit 138 for controlling the robot 10 so as to tilt the container 80 in a direction in which the tilt of the boundary part BD1 with respect to the liquid level SF1 may be further provided.
  • the container 80 can be tilted according to the state of the boundary portion BD1.
  • the dispensing system 1 further includes an inclination detection unit 137 that detects the inclination of the boundary part BD1 with respect to the liquid surface SF1 based on the image, and the tilt control unit 138 detects the inclination of the boundary part BD1 by the inclination detection unit 137.
  • the robot 80 tilts the container 80 and the dispenser 30 in a direction in which the inclination of the boundary BD1 becomes gentle as the tip 30a of the dispenser 30 approaches the final target position GL1. 10 may be controlled.
  • the container 80 is tilted after the liquid C1 in the container 80 is reduced by suction, the leakage of the liquid C1 due to the tilting of the container 80 can be prevented more reliably.
  • the tilt control unit 138 may control the robot 10 to tilt the container 80 and the dispenser 30 before the liquid level SF1 reaches the boundary BD1. In this case, the fluctuation of the boundary portion BD1 is more reliably suppressed. Thereby, since the position of the final target position GL1 is further stabilized, the tip portion 30a can be brought closer to the boundary portion BD1 more reliably.
  • the dispensing system 1 may include a double-armed robot 10 having first and second arms 13A and 13B.
  • the lowering control unit 133 controls the robot 10 so as to lower the dispenser 30 by the first arm 13A, and the tilt control unit 138 tilts the dispenser 30 by the first arm 13A, and the second arm
  • the robot 10 may be controlled so that the container 80 is tilted by 13B.
  • the two-arm robot 10 can be effectively used, and the suction procedure involving the tilting of the container 80 and the dispenser 30 can be made efficient.
  • the robot 10 is of the double arm type.
  • the dispensing system 1 may include a device that tilts the container 80 separately from the robot 10.
  • the tilt detector 137 may detect the tilt angle ⁇ of the boundary BD1 with respect to the liquid level SF1 based on the image.
  • the tilt control unit 138 may control the robot 10 to tilt the container 80 and the dispenser 30 at the target tilt angle RF5 corresponding to the tilt angle ⁇ .
  • the fluctuation of the boundary portion BD1 is more reliably suppressed.
  • the tip 30a can be brought closer to the boundary BD1 more reliably. Therefore, more reliable dispensing work can be executed.
  • the target position setting unit 136 sets the position shifted in the direction of decreasing the inclination of the boundary part BD1 with respect to the center position of the container 80 as the final target. You may set as position GL1. In this case, the tip portion 30a can be advanced to a deeper position in the container 80, and more liquid C1 can be sucked (see FIGS. 17B to 17E). Therefore, more reliable dispensing work can be executed. However, it is not indispensable to set the position shifted in the direction in which the boundary portion BD1 is inclined downward with respect to the center position as the final target position GL1.
  • the dispensing system 1 may further include a rack 60 that holds both the camera 40 and the container 80.
  • the lowering control unit 133 may control the robot 10 to lower the distal end portion 30a of the dispenser 30 in an oblique direction in a state where the inclination of the container 80 is maintained by the rack 60.
  • the container 80 is more reliably maintained within the field of view of the camera 40 even when the container 80 is tilted.
  • the distance between the camera 40 and the container 80 is stabilized, blurring of the image is suppressed. Therefore, since the acquisition of various position information based on the image can be more reliably executed, a more reliable dispensing operation can be executed. However, it is not essential to provide the rack 60.
  • the dispensing system 1 may further include a rack 60 that holds both the camera 40 and the container 80.
  • the tilt control unit 138 may control the robot 10 so that the container 80 is tilted by tilting the rack 60.
  • the container 80 is more reliably kept within the field of view of the camera 40.
  • the distance between the camera 40 and the container 80 is stabilized, blurring of the image is suppressed. Therefore, since the acquisition of various position information based on the image can be more reliably executed, a more reliable dispensing operation can be executed. However, it is not essential to provide the rack 60.
  • the dispensing system 1 may further include a backlight 50 that irradiates the container 80 with light.
  • the backlight 50 may be held on the rack 60 together with the camera 40 and the container 80 in an arrangement in which the container 80 is sandwiched between the backlight 40 and the camera 40.
  • the backlight 50 since the backlight 50 is also tilted together with the container 80, acquisition of various position information based on the image can be more reliably performed. Therefore, more reliable dispensing work can be executed. However, it is not essential to provide the backlight 50.
  • the backlight 50 may emit red visible light. In this case, the detection sensitivity of the liquid level SF1 and the boundary portion BD1 in image processing can be increased.
  • a backlight control unit 125 that turns off the backlight 50 in at least a part of the time zone when the camera 40 is not capturing an image may be further provided. In this case, the lighting time of the backlight 50 can be reduced and the burden on the operator's eyes can be reduced.
  • the dispensing system 1 includes a console 70 for registering reference data for dispensing work performed by the robot 10, and the tip 30a of the dispenser 30 within the field of view of the camera 40 when the reference data is not registered.
  • An interrupt unit 112 for stopping the robot 10 after entering and restarting the operation of the robot 10 after registration of the reference data, and a screen for setting reference data when the interrupt unit 112 stops the robot 10 May be further provided on the console 70, and a reference data registration unit 113 for acquiring and registering reference data from the console 70.
  • the operation of the robot 10 is temporarily interrupted by the interrupt unit 112, and the reference data registration unit 113.
  • the dispensing system 1 may further include a process setting unit 111 that sets a work process of the robot 10 including a plurality of types of dispensing work.
  • the interrupt unit 112 executes stopping the robot 10 when the reference data is not registered for each dispensing operation, and the reference data registering unit 113 is configured so that the interrupt unit 112 stops the robot 10 every time. Next, reference data corresponding to the dispensing operation scheduled to be executed may be acquired and registered. In this case, even when an operation program including a plurality of types of dispensing operations is constructed, reference data for each dispensing operation can be appropriately set during the operation of the robot 10.
  • the reference data registration unit 113 registers the image pattern of the tip 30a of the dispenser 30 as reference data, and the image processing unit 120 uses the image pattern of the tip 30a of the dispenser 30 based on the image pattern. You may acquire the positional information on the front-end
  • the reference data registration unit 113 may register the image pattern of the tip 30a of the dispenser 30 outside the liquid C1 and the image pattern of the tip 30a of the dispenser 30 in the liquid C1. In this case, by properly using the image pattern outside the liquid C1 and the image pattern inside the liquid C1, it is possible to improve the accuracy of the position information of the distal end portion 30a.
  • the reference data registration unit 113 searches for the first analysis region for searching the tip 30a of the dispenser 30 outside the liquid C1 in the image and the liquid level SF1 in the image as reference data.
  • the second analysis region and the third analysis region for searching the boundary portion BD1 in the image may be further registered.
  • the image processing unit 120 acquires the position information of the tip 30a of the dispenser 30 from the first or second analysis region, acquires the position information of the liquid level SF1 from the second analysis region,
  • the position information of the boundary portion BD1 may be acquired from within the analysis region. In this case, by limiting the search area for position information, it is possible to further increase the processing speed and position information.
  • the controller 100 may be configured to calculate subsequent position information based on the position information after the position information is once acquired by the image processing unit 120.
  • the dispenser 30 is not limited to an electric pipette.
  • the dispenser 30 may be a syringe, for example.
  • the controller 100 may control the robot 10 such that either the arm 13A or 13B grips the outer cylinder of the syringe and the other arm 13A or 13B pushes and pulls the syringe plunger.
  • This disclosure can be used for a dispensing system.
  • tilt detection unit 138 ... tilt control unit, BD1 ... Boundary portion, C1 ... liquid to be dispensed, C2 ... non-dispensable object, CL ... center position, GL1 ... final target position, RF1 ... reference distance, .theta .... inclination angle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Analytical Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biotechnology (AREA)
  • Wood Science & Technology (AREA)
  • Organic Chemistry (AREA)
  • Zoology (AREA)
  • General Engineering & Computer Science (AREA)
  • Sustainable Development (AREA)
  • Microbiology (AREA)
  • Medicinal Chemistry (AREA)
  • Genetics & Genomics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Clinical Laboratory Science (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Manipulator (AREA)
  • Automatic Analysis And Handling Materials Therefor (AREA)

Abstract

分注システム(1)は、分注対象の液体(C1)を吸引するための分注器(30)を移動させるロボット(10)と、少なくとも、分注器(30)の先端部(30a)と、液体(C1)の液面(SF1)と、液面(SF1)よりも下方に位置する非分注対象物(C2)とを含む画像を撮像するためのカメラ(40)と、上記画像に基づいて、液面(SF1)の位置情報と、液体(C1)と非分注対象物(C2)との間の境界部(BD1)の位置情報と、分注器(30)の先端部(30a)の位置情報とを取得する画像処理部(120)と、液体(C1)を分注器(30)内に吸引する際に、先端部(30a)の位置情報と、液面(SF1)の位置情報と、境界部(BD1)の位置情報とに基づいて、分注器(30)を下降させるようにロボット(10)を制御する降下制御部(133)と、を備える。

Description

分注システム、コントローラ及び制御方法
 本開示は、分注システム、コントローラ及び制御方法に関する。
 特許文献1には、チップと、チップ内に検体を吸引し、又はチップ内の検体を排出する液送動力装置と、チップ搬送機構と、検体の液面位置を検出する検出手段と、検体の吸引時に、検体の液面位置に基づいて、チップの先端と検体の液面とが接触状態を維持するように、液送動力装置及びチップ搬送機構を制御する制御装置とを備える給排ロボットが開示されている。
特開2005-304303号公報
 本開示は、より確実な分注作業を実行可能な分注システム、分注方法、制御装置及び制御方法を提供することを目的とする。
 本開示に係る分注システムは、分注対象の液体を吸引するための分注器を移動させるロボットと、少なくとも、分注器の先端部と、液体の液面と、液面よりも下方に位置する非分注対象物とを含む画像を撮像するためのカメラと、画像に基づいて、液面の位置情報と、液体と非分注対象物との間の境界部の位置情報と、分注器の先端部の位置情報とを取得する画像処理部と、液体を分注器内に吸引する際に、先端部の位置情報と、液面の位置情報と、境界部の位置情報とに基づいて、分注器を下降させるようにロボットを制御する降下制御部と、を備える。
 本開示に係る分注システムは、分注対象の液体を吸引するための分注器を移動させるロボットと、少なくとも、分注器の先端部と、液体の液面と、液面よりも下方に位置する非分注対象物とを含む画像を撮像するためのカメラと、画像に基づいて、液面の位置情報と、液体と非分注対象物との間の境界部の位置情報と、分注器の先端部の位置情報とを取得すること、液体を分注器内に吸引する際に、先端部の位置情報と、液面の位置情報と、境界部の位置情報とに基づいて、分注器を下降させるようにロボットを制御すること、を実行するように構成された回路と、を備える。
 本開示に係るコントローラは、分注対象の液体を吸引するための分注器の先端部と、液体の液面と、液面よりも下方に位置する非分注対象物とを少なくとも含む画像から、液面の位置情報と、液体と非分注対象物との間の境界部の位置情報と、分注器の先端部の位置情報とを取得する画像処理部と、液体を分注器内に吸引する際に、先端部の位置情報と、液面の位置情報と、境界部の位置情報とに基づいて、分注器を下降させるようにロボットを制御する降下制御部と、を備える。
 本開示に係る制御方法は、分注対象の液体を吸引するための分注器の先端部と、液体の液面と、液面よりも下方に位置する非分注対象物とを少なくとも含む画像から、液面の位置情報と、液体と非分注対象物との間の境界部の位置情報と、分注器の先端部の位置情報とを取得すること、液体を分注器内に吸引する際に、先端部の位置情報と、液面の位置情報と、境界部の位置情報とに基づいて、分注器を下降させるようにロボットを制御すること、を含む。
 本開示によれば、より確実な分注作業が実行可能である。
分注システムの構成を示す模式図である。 マイクロチューブの側面図である。 ラックの斜視図である。 ラックの側面図である。 プロトコル構築部の機能ブロック図である。 ロボット制御部の機能ブロック図である。 コントローラのハードウェア構成図である。 プロトコル構築手順を示すフローチャートである。 プロトコルの設定例を示す図である。 基準データ取得手順を示すフローチャートである。 解析領域の設定画面を例示する図である。 画像パターンの登録画面を例示する図である。 分注制御手順の概要を示すフローチャートである。 吸引時の制御手順を示すフローチャートである。 吸引時の制御手順を示すフローチャートである。 吸引時のマイクロチューブを模式的に示す側面図である。 吸引時のマイクロチューブを模式的に示す側面図である。 傾動制御手順を示すフローチャートである。 吸引時のマイクロチューブを模式的に示す側面図である。 チューブラックを傾動させているロボットを示す斜視図である。 吸引時のマイクロチューブを模式的に示す側面図である。 チューブラックを傾動させているロボットを示す斜視図である。
1.分注システム
 分注システム1は、容器80内に収容された液体を選択的に取り出す分注作業を行うためのものである。容器80は、分注システム1による作業の対象物を収容する。容器80は、可視光又は特定の波長の光を透過可能な材質で形成される。容器80は、例えばマイクロチューブであり、筒状の側壁81と底部82とを有する(図2(a)及び図2(b)参照)。側壁81の下側部分81aは、底部82側に向かうに従って窄まるテーパ形状を有する。容器80は、このようなマイクロチューブに限られず、対象物を収容可能であり、可視光又は特定の波長の光を透過可能であればどのような形状であってもよい。
 容器80に収容される対象物は、遠心分離等により、分注対象の液体C1と、非分注対象物C2とに分離され、液体C1は液面SF1を形成し、非分注対象物C2は液面SF1よりも下方に位置する。非分注対象物C2の例としては、例えば固形の沈殿物又は液体C1から分離した液体等が挙げられる。非分注対象物C2が液体である場合、液体C1と非分注対象物C2との境界部BD1は液面SF1に対して平行となる(図2(a)参照)。非分注対象物C2が固形の沈殿物である場合、境界部BD1は液面SF1に対して傾斜する場合がある(図2(b)参照)。
 境界部BD1は、容器80の外部から視認可能となっている。例えば、容器80を透過可能な光の透過性が、液体C1と非分注対象物C2とで異なっていれば、境界部BD1が視認可能となる。容器80を透過可能な光の屈折率が、液体C1と非分注対象物C2とで異なっていても境界部BD1は視認可能となる。
 分注システム1は、非分注対象物C2を容器80内に残した状態で、分注対象の液体C1を容器80内から取り出し、他の容器80への移し替え等を行う。なお、非分注対象物C2は、液体C1を分注する工程において「非分注対象」であるに過ぎない。分注システム1は、上記液体C1を分注した後の工程において、非分注対象物C2自体を更に分注する場合もある。以下、分注システム1の各構成要素について説明する。
(1)ロボット10及びカメラ40
 図1に示すように、分注システム1は、ロボット10とカメラ40とを備える。ロボット10は、分注器30を移動させる作業等に用いられる。分注器30は、分注対象の液体C1を吸引する。分注器30としては、特定の信号又は特定の操作により自動で液体の吸引・吐出を行う電動のピペット又はシリンジが挙げられる。分注器30は電動式でなくてもよく、例えば手動式のシリンジ又はピペットであってもよい。この場合、後述するように、双腕型のロボット10の両腕によって分注器30を操作してもよい。このように、分注器30は、液体C1を吸引可能であればどのようなものであってもよいが、以下では分注器30が電動ピペットである場合を例示する。
 分注器30は、本体部31とチップ32とを有する。本体部31は、例えば電動ポンプを内蔵し、指令入力に応じて動作する。チップ32は、本体部31に対して着脱自在に取り付けられている。チップ32は、例えば先尖りの筒形状を有し、分注器30の先端部30aをなす。分注器30は、本体部31によりチップ32内を減圧することで、先端部30aから液体を吸引し、チップ32内を加圧することで先端部30aから液体を吐出する。
 ロボット10は、分注器30を移動させる作業を実行可能であればどのようなものであってもよい。ロボット10は、単腕型であってもよいし、双腕型であってもよい。図1は双腕型のロボット10を例示する。このロボット10は、胴部11と、肩部12と、第一のアーム13Aと、第二のアーム13Bとを有する。胴部11は床面に対して起立する。肩部12は、胴部11の上部に取り付けられており、鉛直な軸線回りに回動可能となっている。アーム13A,13Bは、例えばシリアルリンク型の多関節アームであり、肩部12の両端部にそれぞれ取り付けられている。アーム13A,13Bの端部には、把持機構14が設けられている。把持機構14は、例えば複数の指部15を有するロボットハンドであり、指部15を開閉することで様々な作業対象物を把持する。
 カメラ40は、少なくとも、分注器30の先端部30aと、液体C1の液面SF1と、非分注対象物C2とを含む画像を撮像する。カメラ40は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を有し、指令入力に応じて画像を撮像し、当該画像のデータを出力する。
(2)テーブル
 分注システム1は、テーブル20を更に備えてもよい。テーブル20は、ロボット10に併設されており、ロボット10による作業対象物を支持する。
(3)ラック
 分注システム1は、ラック60を更に備えてもよい。ラック60は、カメラ40及び容器80を共に保持する。ラック60は、保持対象物同士の位置関係を維持可能であればどのようなものであってもよい。以下、図1及び図3を参照し、ラック60の具体的な構造を例示する。ラック60は、支持板61A,61Bと、容器保持部62と、カメラ保持部63と、取っ手65とを有する。支持板61A,61Bは矩形状を呈し、その一辺において互いに回転可能となるように連結されている。例えば支持板61A,61Bの一辺同士がヒンジ66を介して連結されている。支持板61A,61Bは、例えば支持板61Aが支持板61Bの上に重なり、ヒンジ66がロボット10の逆側となるようにテーブル20上に配置される。支持板61Bは、ボルト締結等によってテーブル20に固定されていてもよい。支持板61Bがテーブル20に固定された状態においても、支持板61Aはヒンジ66の中心軸回りに回転可能である。
 容器保持部62、カメラ保持部63及びライト保持部64は支持板61A上に設けられている。容器保持部62は、容器80を保持する。例えば容器保持部62は、側壁81が支持板61Aに対して垂直になるように容器80を保持する。
 カメラ保持部63は、容器80内の液体C1の液面SF1の少なくとも一部と、非分注対象物C2の少なくとも一部と、容器80内に挿入された先端部30aとを含む画像を撮像できる姿勢にてカメラ40を保持する。カメラ保持部63は、例えばヒンジ66に沿う方向にて容器保持部62に並ぶように配置されていてもよい。この場合、容器保持部62とライト保持部64とが並ぶ方向に沿う軸線まわりに支持板61Aを回転させることが可能となる。
 取っ手65は、例えば支持板61A上においてヒンジ66の逆側に設けられている。ヒンジ66がロボット10の逆側に位置する場合、取っ手65はロボット10側に位置する。取っ手65は、支持板61Aから上方に突出しており、その上部65aはヒンジ66の逆側に張り出している。取っ手65の上部65aを上下動させることにより、ヒンジ66まわりに支持板61Aを回転させ、ラック60を傾けることが可能である。なお、「ラック60を傾ける」とは、ラック60の一部又は全体を傾けることにより、ラック60の保持対象物を傾けることを意味する。
 ラック60は、ストッパ67を更に有してもよい。ストッパ67は、ラック60の傾きを一定に保つ部材である。例えば、ストッパ67は、支持板61B上においてヒンジ66の逆側に設けられている。ストッパ67は支持板61Bから上方に突出しており、その上部67aはヒンジ66の逆側に張り出している。ストッパ67は、ヒンジ66側に面する溝部67bを有する。溝部67bには、支持板61Aの縁部を嵌め込むことが可能である。
 ストッパ67は、ヒンジ66に対して溝部67bを近接・離間させるように回転可能となっている。例えば図4(a)に示すように、ストッパ67の基部は、ヒンジ66に平行なヒンジ68を介して支持板61Bに接続されている。図4(b)に示すように、支持板61Aを回転させた状態でストッパ67をヒンジ66側に倒し、支持板61Aの縁部を溝部67b内に嵌め込むと、支持板61Aが拘束される。これにより、ラック60の傾きが一定に保たれる。
(3)バックライト
 分注システム1は、バックライト50を更に有してもよい。バックライト50は、少なくともカメラ40による撮像範囲に光を照射する。バックライト50が照射する光は、容器80を透過可能であり、カメラ40により検出可能であればよい。例えばバックライト50は、赤色の可視光を照射するものであってもよい。バックライト50の光源としては、例えばLED(Light Emitting Diode)等が挙げられる。
 バックライト50は、カメラ40との間に容器80を挟む配置にて、カメラ40及び容器80と共にラック60に保持されてもよい。例えばラック60は、カメラ保持部63との間に容器保持部62を挟む配置にて、支持板61A上に設けられたライト保持部64を更に有してもよい。ライト保持部64は、容器80側に光を出射する姿勢にてバックライト50を保持する。
(9)コントローラ
 分注システム1は、コントローラ100を更に備える。コントローラ100は、少なくとも、カメラ40により撮像された画像に基づいて、液面SF1の位置情報と、境界部BD1の位置情報と、分注器30の先端部30aの位置情報とを取得すること、液体C1を分注器30内に吸引する際に、先端部30aの位置情報と、液面SF1の位置情報と、境界部BD1の位置情報とに基づいて、分注器30を下降させるようにロボット10を制御すること、を実行するように構成されている。
 コントローラ100は、ユーザインタフェースとしてコンソール70を有してもよい。コンソール70は、モニタ71と、キーボード等の入力デバイス72とを有する。コンソール70は、モニタ及び入力デバイスが一体化したタッチパネルであってもよい。
 コントローラ100は、上述した処理を実行するように構成されていればどのようなものであってもよいが、以下では、図1及び図5~図7を参照し、コントローラ100の構成を詳細に例示する。コントローラ100は、機能モジュールとして、プロトコル構築部110と、画像処理部120と、バックライト制御部125と、ロボット制御部130と、分注器制御部140と、工程記憶部151と、基準データ記憶部152とを有する。
 プロトコル構築部110は、複数種類の分注作業を含むロボット10の作業工程を設定して工程記憶部151に登録し、分注作業用の基準データを基準データ記憶部152に登録する。基準データは、ロボット10の制御に必要なデータであり、画像処理用のデータを含む。画像処理用のデータとしては、例えば画像認識用の画像パターンが挙げられる。
 画像処理部120は、カメラ40により撮像された画像及び基準データ記憶部152に登録された基準データに基づいて、液面SF1の位置情報と、境界部BD1の位置情報と、先端部30aの位置情報とを取得する。
 バックライト制御部125は、バックライト50のオン・オフを切り替える。例えば、バックライト制御部125は、カメラ40による撮像が行われない時間帯の少なくとも一部においてバックライトを消灯させる。これによりオペレータの眼の負担を軽減できる。
 ロボット制御部130は、画像処理部120により取得された位置情報と、工程記憶部151に登録された作業工程とに基づいてロボット10を制御する。
 分注器制御部140は、工程記憶部151に登録された作業工程に基づき、ロボット10の制御に同期して分注器30を制御する。例えば分注器30が電動式である場合、分注器制御部140は、分注器30による吸引をオン・オフさせる。分注器制御部140は、分注器30自体を制御するのに代えて、分注器30のオン・オフスイッチを操作するようにロボット10を制御してもよい。また、分注器30が手動式である場合、分注器制御部140は、分注器30を操作するようにロボット10を制御してもよい。例えば分注器30が手動式のシリンジである場合、分注器制御部140は、アーム13A,13Bのいずれか一方によってシリンジの外筒を把持し、アーム13A,13Bの他方によってシリンジのプランジャを押し引きするようにロボット10を制御してもよい。
 図5に示すように、プロトコル構築部110は、工程設定部111と、工程確認部114と、割込部112と、基準データ登録部113とを有する。
 工程設定部111は、複数種類の分注作業を含むロボット10の作業工程を設定する。具体的に、工程設定部111は、複数種類の分注作業を含むロボット10の作業工程をコンソール70から取得し、工程記憶部151に登録する。このようにコンソール70は、作業工程を登録するためのユーザインタフェースとして機能する。
 工程確認部114は、ロボット制御部130が実行しようとする作業内容を確認する。
 割込部112は、基準データが未登録である分注作業をロボット10が実行しようとするときに、ロボット制御部130を介してロボット10を停止させ、当該基準データの登録後にロボット10の動作を再開させる。
 基準データ登録部113は、割込部112がロボット10を停止させているときに、基準データの設定用の画面をコンソール70に表示し、コンソール70から基準データを取得して登録する。このようにコンソール70は、基準データを登録するためのユーザインタフェースとしても機能する。
 図6に示すように、ロボット制御部130は、容器配置制御部131と、分注器配置制御部132と、降下制御部133と、基準距離設定部134と、境界監視部135と、目標位置設定部136と、傾斜検出部137と、傾動制御部138とを有する。
 容器配置制御部131は、容器80をカメラ40の視野内に配置するようにロボット10を制御する。一例として、容器配置制御部131は、容器80を容器保持部62に配置するようにアーム13Bを制御する。分注器配置制御部132は、分注器30を吸引又は吐出の開始位置に配置するようにアーム13Aを制御する。
 降下制御部133は、液体C1を分注器30内に吸引する際に、先端部30aの位置情報と、液体C1の位置情報と、境界部BD1の位置情報とに基づいて、分注器30を下降させるようにロボット10を制御する。
 降下制御部133は、第一モード制御部133aと、第二モード制御部133bと、切替部133cとを有する。第一モード制御部133aは、液体C1の下降に追従して先端部30aを下降させるようにロボット10を制御する。第二モード制御部133bは、先端部30aを最終目標位置まで下降させるようにロボット10を制御する。最終目標位置は、境界部BD1の位置情報に基づいて予め設定される。切替部133cは、先端部30aが最終目標位置に近付くのに応じて第一モード制御部133aによる制御を第二モード制御部133bによる制御に切り替える。一例として、切替部133cは、予め設定された基準距離に比べ、先端部30aから最終目標位置までの距離が小さくなるのに応じて、第一モード制御部133aによる制御を第二モード制御部133bによる制御に切り替える。
 基準距離設定部134は、上記基準距離を設定する。境界監視部135は、カメラ40により撮像された画像に基づいて、境界部BD1の変化を検出する。目標位置設定部136は、境界部BD1の位置情報に基づいて最終目標位置を設定する。
 傾斜検出部137は、カメラ40により撮像された画像に基づいて、液面SF1に対する境界部BD1の傾斜を検出する。なお、液面SF1に対する境界部BD1の傾斜は、境界部BD1が容器80の中心軸線に対して傾斜した状態で、容器80が直立してその中心軸線が鉛直となっている場合に生じ得る。傾動制御部138は、液面SF1に対する境界部BD1の傾斜が緩やかになる方向に容器80を傾けるようにロボット10を制御する。傾動制御部138は、傾斜検出部137により境界部BD1の傾斜が検出された場合に、先端部30aが最終目標位置に近付くのに応じて、容器80と分注器30とを、境界部BD1の傾斜が緩やかになる方向に傾けるようにロボット10を制御してもよい。
 なお、コントローラ100のハードウェアは必ずしも上述した機能ブロックに分かれている必要はない。コントローラ100のハードウェア構成としては、図7に示すように、例えばプロセッサ101と、メモリ102と、ストレージ103と、入出力ポート104と、ドライバ105とを有する回路が挙げられる。ドライバ105は、ロボット10のアクチュエータを制御するための回路である。入出力ポート104は、カメラ40及びコンソール70との間でデータの入出力を行い、吸引又は吐出のオン・オフ指令を分注器30に出力し、ロボット10のアクチュエータに対する駆動指令をドライバ105に出力する。プロセッサ101は、メモリ102及びストレージ103の少なくとも一方と協働してプログラムを実行することで、上述したコントローラ100の各機能を構成する。カメラ40、コンソール70及びコントローラ100は、ハードウェア上において一体であってもよく、互いに分かれていてもよい。また、コントローラ100が複数のハードウェアに分かれていてもよい。分かれたハードウェア同士は、有線及び無線のいずれで接続されていてもよく、接続方式に制限はない。
 このため、コントローラ100の回路は、カメラ40により撮像された画像に基づいて、液面SF1の位置情報と、境界部BD1の位置情報と、先端部30aの位置情報とを取得すること、液体C1を分注器30内に吸引する際に、先端部30aの位置情報と、液面SF1の位置情報と、境界部BD1の位置情報とに基づいて、分注器30を下降させるようにロボット10を制御すること、を実行するように構成されている。
 コントローラ100のハードウェア構成は、必ずしもプログラムの実行により各機能モジュールを構成するものに限られない。例えばコントローラ100は、専用の論理回路により又はこれを集積したASIC(Application Specific Integrated Circuit)により各機能を構成するものであってもよい。
2.プロトコル構築手順
(1)全体構成
 続いて、プロトコル構築方法の一例として、コントローラ100によるプロトコルの構築手順について説明する。
 図8に示すように、コントローラ100は、まずステップS101を実行する。
ステップS101では、工程設定部111が、複数種類の分注作業を含むロボット10の作業工程を設定する。工程設定部111は、複数種類の分注作業を含むロボット10の作業工程をコンソール70から取得し、工程記憶部151に登録する。
 図9は、作業工程の設定例を例示する図である。この作業工程は、ステップS01~S23を有する。ステップS01は、細胞等のサンプルを収容した第一の容器80に第一の試薬を注入し、例えばボルテックスミキサー等によって容器80の内容物を撹拌する工程である。ステップS02は、遠心分離等により、第一の容器80の内容物を分注対象の液体C1と非分注対象物C2とに分離する工程である。ステップS03は、第一の容器80内の分注対象の液体C1を取り出して第二の容器80に移し替える工程である。
 ステップS11は、液体C1を収容した第二の容器80に第二の試薬を注入し、例えばボルテックスミキサー等によって容器80の内容物を撹拌する工程である。ステップS12は、遠心分離等により、第二の容器80の内容物を分注対象の液体C1と非分注対象物C2とに分離する工程である。ステップS13は、第二の容器80内の分注対象の液体C1を排出する工程である。
 ステップS21は、残留した非分注対象物C2を収容した第二の容器80に第三の試薬を注入し、例えばボルテックスミキサー等によって容器80の内容物を撹拌する工程である。ステップS22は、遠心分離などにより、第二の容器80の内容物を分注対象の液体C1と非分注対象物C2とに分離する工程である。ステップS23は、第二の容器80内の分注対象の液体C1を排出し、容器80内に残留した非分注対象物C2を回収する工程である。なお、図9の作業工程においては、ステップS03,S13及びS23が分注作業に相当する。
 図8に戻り、コントローラ100は、次にステップS102を実行する。ステップS102では、ロボット制御部130が、ステップS101において設定された工程の実行を開始するようにロボット10を制御する。ロボット制御部130は、例えばユーザによる指令入力に応じてステップS102を実行する。
 次に、コントローラ100は、ステップS103を実行する。ステップS103では、実行対象の工程が分注作業であるか否かを工程確認部114が確認する。実行対象の工程が分注作業ではない場合、コントローラ100はステップS114を実行する。ステップS114では、ロボット制御部130が、当該工程を実行するようにロボット10を制御する。次に、コントローラ100は、処理を後述のステップS115に進める。
 実行対象の工程が分注作業である場合、コントローラ100はステップS104,S105を実行する。ステップS104では、ロボット制御部130が、容器80を容器保持部62に配置するようにアーム13Bを制御する。容器80の上部がキャップで塞がれている場合、ロボット制御部130は、キャップの除去も行うようにアーム13Bを制御する。ステップS105では、ロボット制御部130が、容器80側に分注器30の搬送を開始するようにアーム13Aを制御する。
 次に、コントローラ100はステップS106を実行する。ステップS106では、実行対象の分注作業用の基準データが基準データ記憶部152に登録されているか否かを割込部112が確認する。基準データが登録されていると判定した場合、コントローラ100は、後述のステップS112に処理を進める。
 基準データが登録されていないと判定した場合、コントローラ100はステップS107,S108を実行する。ステップS107では、割込部112がカメラ40から画像を取得する。ステップS108では、ステップS107において取得した画像に基づいて、先端部30aが基準データ登録用の位置に到達したか否かを割込部112が判定する。基準データ登録用の位置とは、液面SF1よりも上方において、カメラ40の視野内に入る位置を意味する。割込部112は、先端部30aが基準データ登録用の位置に到達するまでステップS107,S108を繰り返す。
 ステップS108において、先端部30aが基準データ登録用の位置に到達したと判定すると、コントローラ100はステップS109を実行する。ステップS109では、割込部112が、分注器30の搬送を停止させる指令をロボット制御部130に出力する。ロボット制御部130は、割込部112からの指令に応じて、分注器30の搬送を停止するようにロボット10を制御する。このように、割込部112は、基準データが未登録である場合に、先端部30aがカメラ40の視野内に入った後にロボット10を停止させる。
 次に、コントローラ100はステップS110,S111を実行する。ステップS110では、基準データ登録部113が基準データの登録を実行する。ステップS111では、割込部112が、分注器30の搬送を再開させる指令をロボット制御部130に出力する。ロボット制御部130は、割込部112からの指令に応じて、分注器30の搬送を再開するようにロボット10を制御する。このように、基準データ登録部113は、割込部112がロボット10を停止させているときに基準データの登録を実行し、割込部112は、基準データの登録後にロボット10の動作を再開させる。
 次に、コントローラ100はステップS112,S113を実行する。ステップS112では、ロボット制御部130が、分注器30を吸引の開始位置に配置するようにアーム13Aを制御する。吸引の開始位置は、例えば液面SF1から所定深さの位置に予め設定される。ステップS113では、ロボット制御部130及び分注器制御部140が、分注作業を実行するようにロボット10及び分注器30をそれぞれ制御する。
 次に、コントローラ100はステップS115を実行する。ステップS115では、全工程の実行が完了したか否かをロボット制御部130が判定する。全工程の実行が完了していないと判定した場合、コントローラ100は、ステップS116を実行する。ステップS116では、基準データ登録部113が実行対象を次の工程に移行させる。その後、コントローラ100は処理をステップS103に戻す。これにより、基準データが未登録である場合にロボット10を停止させることが、割込部112によって分注作業ごとに実行される。また、割込部112がロボット10を停止させる度に、次に実行予定の分注作業に対応する基準データの登録が基準データ登録部113によって実行される。
 ステップS115において、全工程の実行が完了したと判定した場合、コントローラ100は処理を終了する。以上でプロトコル構築手順が完了する。
(2)基準データ登録手順
 続いて、ステップS110における基準データの登録手順について詳細に説明する。
 図10に示すように、コントローラ100は、まずステップS201を実行する。ステップS201では、バックライト制御部125がバックライト50を点灯させ、基準データ登録部113が、基準データの設定用の画面をコンソール70のモニタ71に表示する。
 次に、コントローラ100は、ステップS202~S204を実行する。ステップS202では、基準データ登録部113が、液体C1外における先端部30aを画像内で探索するための第一の解析領域をコンソール70から取得し、これを基準データとして基準データ記憶部152に登録する。ステップS203では、基準データ登録部113が、液面SF1を画像内で探索するための第二の解析領域をコンソール70から取得し、これを基準データとして基準データ記憶部152に登録する。ステップS204では、基準データ登録部113が、境界部BD1を画像内で探索するための第三の解析領域をコンソール70から取得し、これを基準データとして基準データ記憶部152に登録する。なお、ステップS202~S204の実行順序は適宜変更可能である。例えば、基準データ登録部113は、第二の解析領域の取得、第三の解析領域の取得、第一の解析領域の取得を順に実行してもよい。
 図11は、解析領域の設定画面を例示する図である。この画面は、カメラ40により撮像された画像と、ユーザにより入力デバイス72に入力された解析領域とを重ねて表示するものである。図11中の解析領域A1は第一の解析領域の設定用に入力された領域を示している。この解析領域A1は、液体C1外における先端部30aを含むように設定されている。解析領域A2は第二の解析領域の設定用に入力された領域を示している。この解析領域A2は、液面SF1を含むように設定されている。解析領域A3は第三の解析領域の設定用に入力された領域を示している。この解析領域A3は、境界部BD1を含むように設定されている。基準データ登録部113は、解析領域A1を第一の解析領域として基準データ記憶部152に登録し、解析領域A2を第二の解析領域として基準データ記憶部152に登録し、解析領域A3を第三の解析領域として基準データ記憶部152に登録する。
 図10に戻り、コントローラ100は、次にステップS205を実行する。ステップS205では、基準データ登録部113が、先端部30aの画像パターンを取得し、これを基準データとして基準データ記憶部152に登録する。
 図12は、画像パターンの登録画面を例示する図である。この画面は、先端部30aの近傍の画像と、ユーザにより入力デバイス72に入力された枠線P1とを重ねて表示するものである。この画面は、図11における解析領域A1内を拡大表示したものであってもよい。枠線P1は、画像パターンとして使用する領域を指定するものである。基準データ登録部113は、枠線P1により囲まれる領域の画像を先端部30aの画像パターンとして基準データ記憶部152に登録する。
 図10に戻り、コントローラ100は、次にステップS206を実行する。ステップS206では、基準データ登録部113が、先端部30aを液体C1内に挿入させる指令をロボット制御部130に出力する。ロボット制御部130は、基準データ登録部113からの指令に応じて、分注器30を下降させてその先端部30aを液体C1内に挿入させるようにロボット10を制御する。
 次に、コントローラ100はステップS207を実行する。ステップS207では、基準データ登録部113が、ステップS205と同様に先端部30aの画像パターンを取得し、これを基準データとして基準データ記憶部152に登録する。このように、基準データ登録部113は、液体C1外における先端部30aの画像パターンと、液体C1中における先端部30aの画像パターンとを基準データとして登録する。その後、バックライト制御部125はバックライト50を消灯させる。
 以上で基準データの登録手順が完了する。なお、基準データ登録部113が、第一の解析領域、第二の解析領域、第三の解析領域、及び液体C1内外における先端部30aの画像パターンを基準データとして登録する場合を例示したが、これに限られない。基準データ登録部113は、以上に例示した基準データの一部のみを登録してもよい。また、基準データは、ロボット10の制御に必要なデータであればどのようなものであってもよいので、基準データ登録部113は以上に例示したものとは別の基準データを登録してもよい。
3.分注制御の実行手順
(1)全体構成
 続いて、制御方法の一例として、コントローラ100により実行される分注制御手順について説明する。
 図13は、分注作業の一例として、容器80内の液体C1を他の容器80に移し替える際の制御手順を示している。図13に示すように、コントローラ100は、まずステップS301を実行する。ステップS301では、容器配置制御部131が、容器80を容器保持部62に配置するようにアーム13Bを制御する。容器80の上部がキャップで塞がれている場合、容器配置制御部131は、キャップの除去も行うようにアーム13Bを制御する。
 次に、コントローラ100は、ステップS302~S304を実行する。ステップS302では、ロボット制御部130が、分注器30の先端部30aを画像取得用の位置に配置するようにアーム13Aを制御する。画像取得用の位置とは、液面SF1よりも上方において、カメラ40の視野内に入る位置を意味する。その後、バックライト制御部125がバックライト50を点灯させ、画像処理部120がカメラ40から画像を取得する。この画像は、少なくとも、先端部30aと、液面SF1の一部と、非分注対象物C2の一部とを含む。
 ステップS303では、画像処理部120が、ステップS302において取得した画像に基づいて、液面SF1の位置情報と、先端部30aの位置情報とを取得する。画像処理部120は、第二の解析領域の情報を基準データ記憶部152から取得し、液面SF1の位置情報を第二の解析領域内から取得する。一例として、画像処理部120は、第二の解析領域内を通る線状部分を検出し、その位置を液面SF1の位置情報として取得する。画像処理部120は、第一の解析領域の情報及び液体C1外における先端部30aの画像パターンを基準データ記憶部152から取得し、当該画像パターンに基づいて、先端部30aの位置情報を第一の解析領域内から取得する。一例として、画像処理部120は、第一の解析領域内において、先端部30aの画像パターンに一致する部分の位置を先端部30aの位置情報として取得する。画像処理部120は、更に境界部BD1の位置情報を取得してもよい。この場合、画像処理部120は、第三の解析領域の情報を基準データ記憶部152から取得し、境界部BD1の位置情報を第三の解析領域内から取得する。一例として、画像処理部120は、第三の解析領域内を通る線状部分を検出し、その位置を境界部BD1の位置情報として取得する。
 ステップS304では、分注器配置制御部132が、先端部30aを吸引の開始位置OP1(図16(a)参照)に配置するようにアーム13Aを制御する。具体的に、分注器配置制御部132は、ステップS303において取得された先端部30aの位置情報及び液面SF1の位置情報に基づいて、先端部30aを開始位置OP1に配置するための移動量を算出し、当該移動量にて先端部30aを移動させるようにアーム13Aを制御する。開始位置OP1は、例えば、液面SF1から所定深さ(以下、「基準深さ」という。)DP1の位置に予め設定される。基準深さDP1は、例えば以下の条件を満たすように予め設定される。
  条件1-1)液面SF1から境界部BD1までの深さに比較して微少であること。
  条件1-2)位置制御の誤差が生じても先端部30aを液体C1内に維持できること。
 次に、コントローラ100はステップS305を実行する。ステップS305では、分注器制御部140及び降下制御部133が、液体C1の吸引を実行するように分注器30及びロボット10をそれぞれ制御する。分注器制御部140は、液体C1を容器80内から吸引するように分注器制御部140を制御する。降下制御部133は、液体を分注器30内に吸引する際に、先端部30aの位置情報と、液面SF1の位置情報と、境界部BD1の位置情報とに基づいて、分注器30を下降させるようにロボット10を制御する。分注器30の下降が完了すると、バックライト制御部125がバックライト50を消灯させる。
 次に、コントローラ100はステップS306を実行する。ステップS306では、分注器配置制御部132が、先端部30aを容器80内から引き抜くようにアーム13Aを制御する。
 次に、コントローラ100はステップS307を実行する。ステップS307では、容器配置制御部131が、容器保持部62の容器80を他の容器80に交換するようにアーム13Bを制御する。
 次に、コントローラ100はステップS308を実行する。ステップS308では、分注器配置制御部132が、先端部30aを吐出の開始位置に配置するようにアーム13Aを制御する。吐出の開始位置は、例えば、容器80内の位置に予め設定される。
 次に、コントローラ100はステップS309を実行する。ステップS309では、分注器制御部140が、液体C1を容器80内に吐出するように分注器制御部140を制御する。
 次に、コントローラ100はステップS310を実行する。ステップS310では、分注器配置制御部132が、先端部30aを容器80内から引き抜くようにアーム13Aを制御する。以上で分注作業が完了する。
(2)吸引制御手順
 続いて、ステップS305における吸引手順について詳細に説明する。
 図14に示すように、コントローラ100は、まずステップS401を実行する。ステップS401では、分注器制御部140が、容器80内の液体C1の吸引を開始するように分注器30を制御する。
 次に、コントローラ100はステップS402を実行する。ステップS402では、画像処理部120がカメラ40から画像を取得する。この画像は、少なくとも、先端部30aと、液面SF1の一部と、非分注対象物C2の一部とを含む。
 次に、コントローラ100はステップS403,S404を実行する。ステップS403では、画像処理部120が、ステップS402において取得した画像に基づいて、液面SF1の位置情報と、境界部BD1の位置情報と、先端部30aの位置情報とを取得する。画像処理部120は、第二の解析領域の情報を基準データ記憶部152から取得し、液面SF1の位置情報を第二の解析領域内から取得する。一例として、画像処理部120は、第二の解析領域内を通る線状部分を検出し、その位置を液面SF1の位置情報として取得する。画像処理部120は、第三の解析領域の情報を基準データ記憶部152から取得し、境界部BD1の位置情報を第三の解析領域内から取得する。一例として、画像処理部120は、第三の解析領域内を通る線状部分を検出し、その位置を境界部BD1の位置情報として取得する。画像処理部120は、液体C1内における先端部30aの画像パターンを基準データ記憶部152から取得し、先端部30aの画像パターンに基づいて、先端部30aの位置情報を第二の解析領域内から取得する。一例として、画像処理部120は、第二の解析領域内において、先端部30aの画像パターンに一致する部分の位置を先端部30aの位置情報として取得する。
 ステップS404では、ステップS402において取得された画像に基づいて、傾斜検出部137が境界部BD1の傾斜を検出する。傾斜検出部137は、画像処理部120により取得された境界部BD1の位置情報に基づいて境界部BD1の傾斜を検出してもよい。
 次に、コントローラ100はステップS405を実行する。ステップS405では、目標位置設定部136が、ステップS403において取得された境界部BD1の位置情報に基づいて最終目標位置GL1(図16(b)参照)を設定する。一例として、目標位置設定部136は、最終目標位置GL1を境界部BD1の位置に比べて上に設定する。また、目標位置設定部136は、最終目標位置GL1と境界部BD1との鉛直方向における距離が所定の垂直オフセット値VO1となるように最終目標位置GL1を設定する。垂直オフセット値VO1は、例えば以下の条件を満たすように予め設定される。
  条件2-1)液面SF1から境界部BD1までの深さに比較して微少であること。
  条件2-2)位置制御の誤差が生じても先端部30aが境界部BD1に到達しないこと。
 目標位置設定部136は、ステップS404において傾斜検出部137により境界部BD1の傾斜が検出された場合には、容器80の中心位置(例えば、側壁81の中心軸線CL1)を基準にして、境界部BD1の傾斜を下る方向にずれた位置を最終目標位置GL1として設定する(図17(b)参照)。一例として、目標位置設定部136は、最終目標位置GL1と容器80の中心軸線CL1との水平方向における距離が所定の水平オフセット値HO1となるように最終目標位置GL1を設定する。水平オフセット値HO1は、例えば以下の条件を満たすように予め設定される。
  条件3-1)分注器30が容器80の側壁81に干渉しないこと。
この場合においても、目標位置設定部136は、最終目標位置GL1と境界部BD1との鉛直方向における距離が所定の垂直オフセット値VO2となるように最終目標位置GL1を設定する。垂直オフセット値VO2も垂直オフセット値VO1と同様の条件を満たすように予め設定される。
 次に、コントローラ100はステップS406~S411を実行する。ステップS406では、画像処理部120が、ステップS402と同様にカメラ40から画像を取得する。ステップS407では、画像処理部120が、ステップS403と同様に液面SF1の位置情報と、境界部BD1の位置情報と、先端部30aの位置情報とを取得する。ステップS408では、傾斜検出部137が、ステップS404と同様に境界部BD1の傾斜を検出する。
 ステップS409では、アーム13Aにより分注器30を下降させることで、液面SF1の下降に追従して先端部30aを下降させるように、第一モード制御部133aがロボット10を制御する(以下、この制御を「第一モードの下降制御」という。)。第一モード制御部133aは、液面SF1の位置情報と、先端部30aの位置情報とに基づいて第一モードの下降制御を実行する。具体的に、第一モード制御部133aは、液面SF1から先端部30aまでの深さが基準深さDP1に近い値に保たれるように第一モードの下降制御を実行する(図16(b)参照)。
 ステップS410では、基準距離設定部134が基準距離RF1を設定する(図16(b)参照)。基準距離設定部134は、先端部30aの移動速度が大きくなるのに応じて基準距離RF1を大きくするように構成されていてもよい。一例として、基準距離設定部134は、基準距離RF1を先端部30aの下降速度に比例する値に設定するように構成されていてもよい。先端部30aの下降速度は、例えば今回取得された先端部30aの位置情報と、前回取得された先端部30aの位置情報との差分に基づいて算出可能である。また、複数回に亘って算出された上記差分の平均値に基づいて下降速度を算出することも可能である。
 ステップS411では、境界監視部135が、ステップS407において取得された境界部BD1の位置情報に基づいて、境界部BD1の変化の有無を判定する。ステップS411において境界部に変化が検出されない場合、コントローラ100は処理をステップS413に進める。
 ステップS411において境界部BD1に変化が検出された場合、コントローラ100はステップS412を実行する。ステップS412では、目標位置設定部136が、ステップS407において取得された境界部BD1の位置情報に基づいて、ステップS405と同様にして最終目標位置GL1を設定する。すなわち目標位置設定部136は、ロボット10が分注器30を下降させているときに、境界部BD1の位置情報に基づいて最終目標位置GL1を更新する。また、目標位置設定部136は、境界監視部135により境界部BD1の変化が検出され場合に最終目標位置GL1を更新する。
 次に、コントローラ100はステップS413を実行する。ステップS413では、切替部133cが、ステップS410において予め設定された基準距離RF1に比べ、先端部30aから最終目標位置GL1までの距離(以下、「第一の残距離」という。)LD1が小さいか否かを判定する。第一の残距離LD1が基準距離RF1以上であると判定した場合(図16(b)参照)、コントローラ100は処理をステップS405に戻す。これにより、第一モード制御部133aによる制御が継続される。
 第一の残距離LD1が基準距離RF1未満であると判定した場合(図16(c)参照)、コントローラ100は処理をステップS414に進める。図15に示すように、ステップS414では、切替部133cが、第一モード制御部133aによる制御を第二モード制御部133bによる制御に切り替える。ステップS413,S414にて例示されるように、切替部133cは、先端部30aが最終目標位置GL1に近付くのに応じて第一モード制御部133aによる制御を第二モード制御部133bによる制御に切り替える。
 次に、コントローラ100はステップS415~S418を実行する。ステップS415では、画像処理部120が、ステップS402と同様にカメラ40から画像を取得する。ステップS416では、画像処理部120が、ステップS403と同様に液面SF1の位置情報と、境界部BD1の位置情報と、先端部30aの位置情報とを取得する。ステップS417では、傾斜検出部137が、ステップS404と同様に境界部BD1の傾斜を更に検出する。
 ステップS418では、アーム13Aにより分注器30を下降させることで、先端部30aを最終目標位置GL1に近付けるように、第二モード制御部133bがロボット10を制御する(以下、この制御を「第二モードの下降制御」という。)。
 なお、第二モード制御部133bは、第一モード制御部133aに比べてオーバーシュートを抑制する制御を行ってもよい。一方第一モード制御部133aは、第二モード制御部133bに比べて応答性を高める制御を行ってもよい。このような構成の一例として、第一モード制御部133aによる制御においては、画像処理における遅れを補償するフィードフォワード制御を行い、第二モード制御部133bによる制御においては当該フィードフォワード制御を行わないものが挙げられる。このような構成の他の例として、第一モード制御部133aによる制御においては、第二モード制御部133bによる制御に比べて偏差に対するゲインを高く設定するものも挙げられる。
 次に、コントローラ100は、ステップS411と同様のステップS419を実行する。ステップS419では、境界監視部135が、ステップS416において取得された境界部BD1の位置情報に基づいて境界部BD1の変化の有無を判定する。ステップS419において境界部BD1に変化が検出されない場合、コントローラ100は処理をステップS421に進める。
 ステップS419において、境界部BD1に変化が検出された場合、コントローラ100は、ステップS412と同様のステップS420を実行する。ステップS420では、目標位置設定部136が、ステップS416において取得された境界部BD1の位置情報に基づいて最終目標位置GL1を更新する。
 次に、コントローラ100はステップS421を実行する。ステップS421では、第二モード制御部133bが、第一の残距離LD1がゼロ以下であるか否かを検出する。第一の残距離LD1がゼロより大きいと判定した場合(図16(c)参照)、コントローラ100は処理をステップS415に戻す。これにより、第二モード制御部133bによる制御が継続される。
 第一の残距離LD1がゼロ以下であると判定した場合(図16(d)参照)、コントローラ100はステップS422を実行する。ステップS422では、第二モード制御部133bが、分注器30の下降を停止させるようにロボット10を制御する。これにより、降下制御部133による分注器30の降下制御が完了する。ステップS406~S422において例示されるように、降下制御部133は、液面SF1の下降に追従して先端部30aを下降させ、最終目標位置GL1まで先端部30aを下降させるようにロボット10を制御する。
 次に、コントローラ100はステップS423を実行する。ステップS423では、分注器制御部140が、液体C1の吸引を停止するように分注器30を制御する(図16(e)参照)。その後、バックライト制御部125がバックライト50を消灯させる。以上で吸引手順が完了する。
(3)吸引制御手順の変形例
 コントローラ100は、液面SF1に対して境界部BD1が傾斜し得る場合(例えば容器80の中心軸線CL1に対して境界部BD1が傾斜している場合)に、液面SF1に対する境界部BD1の傾斜を緩やかにする方向に容器80が傾いた状態で、ステップS305の吸引手順を実行してもよい。この場合、ステップS305では、降下制御部133が、容器80の傾きに対応して分注器30の先端部30aを斜め方向に下降させるようにロボット10を制御する(図19(a)~(d)参照)。容器80の傾きに対応して先端部30aを斜め方向に下降させるとは、容器80の側壁81に接しないように先端部30aを下降させることを意味する。例えば降下制御部133は、容器80の傾いた中心軸線CL1に沿って先端部30aを下降させるようにロボット10を制御してもよい。
 コントローラ100は、容器80の中心軸線CL1を基準にして、境界部BD1の傾斜を下る方向にずれた位置を最終目標位置GL1として設定すること、及び液面SF1に対する境界部BD1の傾斜を緩やかにする方向に容器80が傾いた状態とすることのいずれか一方のみを行うように構成されていてもよいし、これらの両方を組み合わせて行うように構成されていてもよい。
 液面SF1に対する境界部BD1の傾斜を緩やかにする方向に容器80が傾いた状態とするタイミング及び手法に特に制限はない。例えば、容器80を容器保持部62に配置するように容器配置制御部131がロボット10を制御した後に、ラック60を傾けることで容器80を傾けるように傾動制御部138がロボット10を制御してもよい。
 ラック60を傾けるように傾動制御部138がロボット10を制御した後に、容器80を容器保持部62に配置するように容器配置制御部131がロボット10を制御してもよい。
 容器80は、カメラ40の視野外から視野内に搬送される前に、液面SF1に対する境界部BD1の傾斜を緩やかにする方向に傾けて配置されている場合もある。例えば容器80が傾いた状態で遠心分離機内に配置される場合、遠心分離の実行後の容器80内では、容器80が直立する場合に比べ、液面SF1に対する境界部BD1の傾斜が緩やかとなる。このような場合、容器配置制御部131は、容器80の傾きを維持しながら、当該容器80をカメラ40の視野外から搬送し、容器保持部62に配置するようにロボット10を制御してもよい。
 液面SF1に対する境界部BD1の境界を緩やかにする方向に容器80が傾いた状態とすることをステップS305に先立って実行する場合、コントローラ100は、ストッパ67を利用してラック60の傾きを一定に保つようにロボット10を制御してもよい。例えばコントローラ100は、アーム13Bにより取っ手65の上部65aを上昇させて支持板61Aを傾けた状態で、アーム13Aによりストッパ67をヒンジ66側に倒し、支持板61Aの縁部を溝部67b内に嵌め込むようにロボット10を制御してもよい(図20参照)。
 支持板61Aの縁部が溝部67b内に嵌り込むと、ラック60の傾きがストッパ67により保たれるので、取っ手65及びストッパ67をアーム13A,13Bから解放することが可能となる。このため、分注器30を画像取得用の位置に配置する作業をアーム13Aに実行させることが可能となる。また、容器80の上部がキャップにより塞がれている場合には、当該キャップを除去する作業をアーム13Bに実行させることも可能となる。更に、分注器30が手動式である場合には、アーム13A,13Bの協調により分注器30を操作することも可能となる。このように、ストッパ67を利用することで、アーム13A,13Bをより幅広い作業に活用し得る。
 コントローラ100は、液面SF1に対する境界部BD1の境界を緩やかにする方向に容器80が傾いた状態とすることをステップS305の途中で実行してもよい。例えば傾動制御部138は、ロボット10が先端部30aを下降させている途中において、ラック60を傾けることで容器80を傾けるようにロボット10を制御してもよい(以下、これを「傾動制御」という)。一例として、傾動制御部138は、先端部30aが最終目標位置GL1に近付くのに応じて容器80を傾けるようにロボット10を制御してもよい。
 図18は、傾動制御手順を例示するフローチャートである。図18に示すように、コントローラ100は、まずステップS501を実行する。ステップS501では、傾動制御部138が、ステップS403,S406,S414のいずれかにおいて取得された位置情報に基づいて、液面SF1から境界部BD1までの距離(以下、「第二の残距離」という。)LD2が基準距離RF3に比べて小さくなるのを待機する(図21(a)及び(b)参照)。基準距離RF3は、液面SF1が境界部BD1に到達する前に、容器80及び分注器30の傾動が開始されるように予め設定される。
 第二の残距離LD2が基準距離RF3に比べて小さくなると(図21(c)参照)、コントローラ100はステップS502~S506を実行する。ステップS502では、傾斜検出部137が、ステップS402,S405、S413のいずれかにおいて取得された画像に基づいて、液面SF1に対する境界部BD1の傾斜角度θを検出する(図21(c)参照)。傾斜角度θは、例えば境界部BD1の形状を線径補完することで算出可能である。
 ステップS503では、傾動制御部138が、傾斜角度θに対応する目標傾動角度RF5を設定する。一例として、傾動制御部138は、目標傾動角度RF5を傾斜角度θに等しい値に設定する。
 ステップS504では、傾動制御部138が、容器80及び分注器30の傾動を開始するようにロボット10を制御する(図21(d)及び(e)参照)。一例として、傾動制御部138は、アーム13Bにより取っ手65の上部65aを上昇させてラック60を傾けることで、容器80を傾けるようにロボット10を制御する(図22参照)。これにより、カメラ40と、容器80と、バックライト50とが並ぶ方向に沿う軸線まわりにラック60が傾動する。また、傾動制御部138は、容器80の傾動に合わせて、アーム13Aにより分注器30を傾けるようにロボット10を制御する。
 ステップS505では、容器80及び分注器30の傾動角度が目標傾動角度RF5以上となるのを傾動制御部138が待機する。ステップS506では、容器80及び分注器30の傾動を停止させるように傾動制御部138がロボット10を制御する。
 以上で傾動制御手順が完了する。なお、傾斜角度θは遠心分離器の特性等により略一様に定まり、定数として扱うことが可能な場合もある。このような場合、傾斜角度θを検出するステップS502を省略してもよい。
4.本実施形態の効果
 以上に説明したように、分注システム1は、分注対象の液体C1を吸引するための分注器30を移動させるロボット10と、少なくとも、分注器30の先端部30aと、液体C1の液面SF1と、液面SF1よりも下方に位置する非分注対象物C2とを含む画像を撮像するためのカメラ40と、上記画像に基づいて、液面SF1の位置情報と、液体C1と非分注対象物C2との間の境界部BD1の位置情報と、分注器30の先端部30aの位置情報とを取得する画像処理部120と、液体C1を分注器30内に吸引する際に、先端部30aの位置情報と、液面SF1の位置情報と、境界部BD1の位置情報とに基づいて、分注器30を下降させるようにロボット10を制御する降下制御部133と、を備える。
 この分注システム1によれば、液面SF1と先端部30aとの位置関係に基づいて先端部30aを下降させることで、先端部30aを液面SF1から浅い位置に保つことが可能となる。これにより、先端部30aの外周に付着してしまう液体が削減される。境界部BD1と先端部30aとの位置関係に基づいて先端部30aを下降させることで、先端部30aを境界部BD1に近付けることが可能となる。これにより、液体C1が十分に吸引される。また、液面SF1及び境界部BD1に合わせて先端部30aを移動させることにより、先端部30aを液体内に維持し、空吸い(気体の吸引)の発生を抑制できる。従って、より確実な分注作業を実行可能である。
 先端部30aの位置情報と、液面SF1の位置情報と、境界部BD1の位置情報とは、画像情報に基づいて分注作業ごとに取得される。液面SF1の位置情報及び境界部BD1の位置情報はばらつきやすいので、これらの情報を分注作業ごとに取得することによって更に確実な分注作業を実行できる。
 なお、本実施形態においては、チップ32が本体部31に対して着脱自在となっているため、本体部31に対する先端部30aの位置もばらつき易い。このため、先端部30aの位置情報と、液面SF1の位置情報と、境界部BD1の位置情報とを分注作業ごとに取得することの効果がより顕著なものとなっている。
 分注システム1は、境界部BD1の位置情報に基づいて最終目標位置GL1を設定する目標位置設定部136を更に備えてもよく、降下制御部133は、液面SF1の下降に追従して分注器30の先端部30aを下降させ、最終目標位置GL1まで分注器30の先端部30aを下降させるようにロボット10を制御してもよい。液面SF1の下降に追従して先端部30aを下降させることで、先端部30aをより確実に液面SF1から浅い位置に保つことが可能となる。更に、境界部BD1から最終目標位置GL1を求めることで、先端部30aをより確実に境界部BD1に近付けることが可能となる。従って、より確実な分注作業を実行可能である。但し、分注システム1は、先端部30aの位置情報と、液面SF1の位置情報と、境界部BD1の位置情報とに基づいて、分注器30を下降させるものであればよいので、目標位置設定部136を更に備えること、液面SF1の下降に追従して先端部30aを下降させること、最終目標位置GL1まで先端部30aを下降させることは必須ではない。
 目標位置設定部136は、ロボット10が分注器30を下降させているときに、境界部BD1の位置情報に基づいて最終目標位置GL1を更新してもよい。この場合、境界部BD1の位置に変動が生じたときであっても、境界部BD1の動きに応じて最終目標位置GL1を更新できるので、先端部30aをより確実に境界部BD1に近付けることが可能となる。従って、より確実な分注作業を実行可能である。但し、目標位置設定部136により最終目標位置GL1を更新することは必須ではない。
 分注システム1は、上記画像に基づいて、境界部BD1の変化を検出する境界監視部135を更に備えてもよく、目標位置設定部136は、境界監視部135により境界部BD1の変化が検出された場合に、境界部BD1の位置情報に基づいて最終目標位置GL1を更新してもよい。この場合、境界部BD1に変化が検出されたときに限定して最終目標位置GL1の更新を行うことで、演算負荷を軽減できる。但し、境界部BD1に変化が検出されたときに限定して最終目標位置GL1を更新することは必須ではない。目標位置設定部136は、境界部BD1の位置情報を取得する度に最終目標位置GL1を更新するように構成されていてもよい。
 降下制御部133は、液面SF1の下降に追従して分注器30の先端部30aを下降させるようにロボット10を制御する第一モード制御部133aと、分注器30の先端部30aを最終目標位置GL1まで下降させるようにロボット10を制御する第二モード制御部133bと、分注器30の先端部30aが最終目標位置GL1に近付くのに応じて第一モード制御部133aによる制御を第二モード制御部133bによる制御に切り替える切替部133cと、を有してもよい。この場合、第一モード制御部133aによる下降制御では、液面SF1への追従を優先することで、先端部30aをより確実に液面SF1から浅い位置に保つことが可能となる。第二モード制御部133bによる下降制御では、最終目標位置GL1までの下降を優先することで、先端部30aをより確実に境界部BD1に近付けることが可能となる。従って、より確実な分注作業を実行可能である。
但し、降下制御部133による制御を、第一モード制御部133aによる制御と第二モード制御部133bによる制御の二段階に分けることは必須ではない。
 第一モード制御部133aは、第二モード制御部133bに比べて応答性を高める制御を行い、第二モード制御部133bは、第一モード制御部133aに比べてオーバーシュートを抑制する制御を行ってもよい。この場合、第一モード制御部133aによる下降制御では、液面SF1の下降に対する先端部30aの遅れが削減されるので、先端部30aの位置を液面SF1からより浅い位置に保つことが可能となる。第二モード制御部133bによる下降制御では、最終目標位置GL1に対する行き過ぎ量が削減されるので、先端部30aをより確実に境界部BD1に近付けることが可能となる。従って、より確実な分注作業を実行可能である。但し、第一モード制御部133aによる制御と、第二モード制御部133bによる制御とで応答性等を変更することは必須ではない。
 切替部133cは、予め設定された基準距離RF1に比べ残距離LD1が小さくなるのに応じて、第一モード制御部133aによる制御を第二モード制御部133bによる制御に切り替えてもよい。この場合、判定基準の単純化により、第一モード制御部133aから第二モード制御部133bへの切り替えをより確実に実行できる。但し、切り替えの判定基準はこれに限られない。
 分注システム1は、分注器30の先端部30aの移動速度が大きくなるのに応じて基準距離RF1を大きくする基準距離設定部134を更に備えてもよい。この場合、先端部30aの移動速度が大きくなるのに応じて第二モード制御部133bによる制御への切り替えタイミングを早めることで、最終目標位置GL1における先端部30aの停止をより確実に実現できる。従って、より確実な分注作業を実現できる。なお、本実施形態においては、側壁81の下側部分81aが先窄まりのテーパ形状を呈しているので、液面SF1が底部82に近付くにつれて液面SF1の下降速度が大きくなる。このため、移動速度が大きくなるのに応じて基準距離RF1を大きくする構成の効果がより顕著なものとなっている。但し、先端部30aの移動速度が大きくなるのに応じて基準距離RF1を大きくすることは必須ではない。
 降下制御部133は、液体C1及び非分注対象物C2が、カメラ40の視野内において傾いた容器80に収容された状態にて、容器80の傾きに対応して分注器30の先端部30aを斜め方向に下降させるようにロボット10を制御してもよい。この場合、容器80が直立している場合に比べて、液面SF1に対する境界部BD1の傾斜を緩やかにするように容器80を傾けた状態にて液体C1の吸引を実行できる。液面SF1に対する境界部BD1の傾斜を緩やかにすると、傾斜した境界部BD1の上側部分と液面SF1とが接触し難くなるので、境界部BD1の変動が抑制される。これにより、最終目標位置GL1の位置が安定するので、先端部30aをより確実に境界部BD1に近付けることが可能となる。従って、より確実な分注作業を実行可能である。但し、吸引作業の実行に際して容器80が傾いた状態とすることは必須ではない。
 分注システム1は、液面SF1に対する境界部BD1の傾斜を緩やかにする方向に容器80が傾いた状態を維持しながら、当該容器80をカメラ40の視野外から搬送し、カメラ40の視野内に配置するようにロボット10を制御する容器配置制御部131を更に備えてもよい。この場合、境界部BD1の変動をより確実に抑制できる。
 カメラ40の視野内において、液面SF1に対する境界部BD1の傾斜を緩やかにする方向に容器80を傾けるようにロボット10を制御する傾動制御部138を更に備えてもよい。この場合、境界部BD1の状態に応じて容器80を傾けることができる。
 分注システム1は、上記画像に基づいて、液面SF1に対する境界部BD1の傾斜を検出する傾斜検出部137を更に備え、傾動制御部138は、傾斜検出部137により境界部BD1の傾斜が検出された場合に、分注器30の先端部30aが最終目標位置GL1に近付くのに応じて、容器80と分注器30とを、境界部BD1の傾斜が緩やかになる方向に傾けるようにロボット10を制御してもよい。この場合、吸引により容器80内の液体C1が減った後に容器80が傾けられるので、容器80の傾動による液体C1の漏出をより確実に防止できる。
 傾動制御部138は、液面SF1が境界部BD1に到達する前に、容器80及び分注器30を傾けるようにロボット10を制御してもよい。この場合、境界部BD1の変動がより確実に抑制される。これにより、最終目標位置GL1の位置が更に安定するので、先端部30aをより確実に境界部BD1に近付けることが可能となる。
 分注システム1は、第一及び第二のアーム13A,13Bを有する双腕型のロボット10を備えてもよい。降下制御部133は、第一のアーム13Aにより分注器30を下降させるようにロボット10を制御し、傾動制御部138は、第一のアーム13Aにより分注器30を傾け、第二のアーム13Bにより容器80を傾けるようにロボット10を制御してもよい。この場合、双腕型のロボット10を有効活用し、容器80及び分注器30の傾動を伴う吸引手順を効率化できる。但し、ロボット10が双腕型であることは必須ではない。例えば分注システム1は、容器80を傾動させる装置をロボット10とは別に備えていてもよい。
 傾斜検出部137は、上記画像に基づいて、液面SF1に対する境界部BD1の傾斜角度θを検出してもよい。傾動制御部138は、傾斜角度θに対応する目標傾動角度RF5にて容器80及び分注器30を傾けるようにロボット10を制御してもよい。この場合、境界部BD1の変動がより確実に抑制される。これにより、最終目標位置GL1の位置が更に安定するので、先端部30aをより確実に境界部BD1に近付けられる。従って、より確実な分注作業を実行可能である。但し、目標傾動角度RF5を傾斜角度θに対応させることは必須ではない。
 目標位置設定部136は、傾斜検出部137により境界部BD1の傾斜が検出された場合には、容器80の中心位置を基準にして、境界部BD1の傾斜を下る方向にずれた位置を最終目標位置GL1として設定してもよい。この場合、容器80内のより深い位置まで先端部30aを進入させ、より多くの液体C1を吸引できる(図17(b)~図17(e)参照)。従って、より確実な分注作業を実行可能である。但し、中心位置を基準にして、境界部BD1の傾斜を下る方向にずれた位置を最終目標位置GL1とすることは必須ではない。
 分注システム1は、カメラ40及び容器80を共に保持するラック60を更に備えてもよい。降下制御部133は、容器80の傾きがラック60により維持された状態で分注器30の先端部30aを斜め方向に下降させるようにロボット10を制御してもよい。この場合、容器80及びカメラ40の位置関係が安定するので、容器80が傾いた状態においても、容器80がより確実にカメラ40の視野内に保たれる。また、カメラ40及び容器80の間の距離が安定するので、画像のピンボケが抑制される。従って、画像に基づく各種位置情報の取得をより確実に実行できるので、より確実な分注作業を実行可能である。但し、ラック60を備えることは必須ではない。
 分注システム1は、カメラ40及び容器80を共に保持するラック60を更に備えてもよい。傾動制御部138は、ラック60を傾けることで容器80を傾けるようにロボット10を制御してもよい。この場合、カメラ40が容器80と共に傾動するので、容器80がより確実にカメラ40の視野内に保たれる。また、カメラ40及び容器80の間の距離が安定するので、画像のピンボケが抑制される。従って、画像に基づく各種位置情報の取得をより確実に実行できるので、より確実な分注作業を実行可能である。但し、ラック60を備えることは必須ではない。
 分注システム1は、容器80に光を照射するバックライト50を更に備えてもよい。バックライト50は、カメラ40との間に容器80を挟む配置にて、カメラ40及び容器80と共にラック60に保持されていてもよい。この場合、バックライト50も容器80と共に傾動するので、画像に基づく各種位置情報の取得をより確実に実行できる。従って、より確実な分注作業を実行可能である。但し、バックライト50を備えることは必須ではない。
 バックライト50は赤色の可視光を照射してもよい。この場合、画像処理における液面SF1及び境界部BD1の検出感度を高めることができる。
 カメラ40による撮像が行われていない時間帯の少なくとも一部においてバックライト50を消灯させるバックライト制御部125を更に備えてもよい。この場合、バックライト50の点灯時間を少なくし、オペレータの眼の負担を軽減できる。
 分注システム1は、ロボット10による分注作業用の基準データを登録するためのコンソール70と、基準データが未登録である場合に、分注器30の先端部30aがカメラ40の視野内に入った後にロボット10を停止させ、当該基準データの登録後にロボット10の動作を再開させる割込部112と、割込部112がロボット10を停止させているときに、基準データの設定用の画面をコンソール70に表示し、コンソール70から基準データを取得して登録する基準データ登録部113と、を更に備えてもよい。この場合、ロボット10の動作中においても、次に実行する分注作業用の基準データが未登録である場合には、割込部112によってロボット10の動作が一時中断され、基準データ登録部113により基準データが登録された後にロボット10の動作が再開される。このため、予め基準データの登録作業を行っていなかったとしても、ロボット10の動作中に適宜登録できる。従って、ロボット10の動作プログラムを容易に構築できる。但し、このような登録機能を備えることは必須ではない。
 分注システム1は、複数種類の分注作業を含むロボット10の作業工程を設定する工程設定部111を更に備えてもよい。割込部112は、基準データが未登録である場合にロボット10を停止させることを分注作業ごとに実行し、基準データ登録部113は、割込部112がロボット10を停止させる度に、次に実行予定の分注作業に対応する基準データを取得して登録してもよい。この場合、複数種類の分注作業を含む動作プログラムを構築する場合であっても、分注作業ごとの基準データをロボット10の動作中に適宜設定できる。
 基準データ登録部113は、基準データとして、分注器30の先端部30aの画像パターンを登録し、画像処理部120は、分注器30の先端部30aの画像パターンに基づいて分注器30の先端部30aの位置情報を取得してもよい。この場合、パターンマッチングにより、先端部30aの位置情報を容易且つ迅速に取得できる。
 基準データ登録部113は、液体C1外における分注器30の先端部30aの画像パターンと、液体C1中における分注器30の先端部30aの画像パターンとを登録してもよい。この場合、液体C1外における画像パターンと、液体C1内における画像パターンとを使い分けることで、先端部30aの位置情報の精度を向上させることができる。
 基準データ登録部113は、基準データとして、液体C1外における分注器30の先端部30aを上記画像内で探索するための第一の解析領域と、液面SF1を上記画像内で探索するための第二の解析領域と、境界部BD1を上記画像内で探索するための第三の解析領域とを更に登録してもよい。画像処理部120は、第一又は第二の解析領域内から分注器30の先端部30aの位置情報を取得し、第二の解析領域内から液面SF1の位置情報を取得し、第三の解析領域内から境界部BD1の位置情報を取得してもよい。この場合、位置情報の探索領域を制限することで、処理の更なる高速化及び位置情報の更なる高精度化を図ることができる。
 以上、実施形態について説明したが、本発明は必ずしも上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で様々な変更が可能である。
液体C1の吸引に際してロボット10が分注器30を下降させるときに、画像の取得及び各種位置情報の取得を繰り返すことは必須ではない。例えば、コントローラ100は、画像処理部120により各種位置情報を一度取得した後には、当該位置情報を基準にして以降の位置情報を算出するように構成されていてもよい。
分注器30は電動ピペットに限られない。分注器30は、例えばシリンジであってもよい。この場合、コントローラ100は、アーム13A,13Bのいずれか一方によってシリンジの外筒を把持し、アーム13A,13Bの他方によってシリンジのプランジャを押し引きするようにロボット10を制御してもよい。
 本開示は、分注システムに利用可能である。
 1…分注システム、10…ロボット、13A…第一のアーム、13B…第二のアーム、30…分注器、30a…先端部、40…カメラ、50…バックライト、60…ラック、70…コンソール(ユーザインタフェース)、80…容器、100…コントローラ、111…工程設定部、112…割込部、113…基準データ登録部、120…画像処理部、133…降下制御部、133a…第一モード制御部、133b…第二モード制御部、133c…切替部、134…基準距離設定部、135…境界監視部、136…目標位置設定部、137…傾斜検出部、138…傾動制御部、BD1…境界部、C1…分注対象の液体、C2…非分注対象物、CL…中心位置、GL1…最終目標位置、RF1…基準距離、θ…傾斜角度。

Claims (30)

  1.  分注対象の液体を吸引するための分注器を移動させるロボットと、
     少なくとも、前記分注器の先端部と、前記液体の液面と、前記液面よりも下方に位置する非分注対象物とを含む画像を撮像するためのカメラと、
     前記画像に基づいて、前記液面の位置情報と、前記液体と前記非分注対象物との間の境界部の位置情報と、前記分注器の先端部の位置情報とを取得する画像処理部と、
     前記液体を前記分注器内に吸引する際に、前記先端部の位置情報と、前記液面の位置情報と、前記境界部の位置情報とに基づいて、前記分注器を下降させるように前記ロボットを制御する降下制御部と、を備える分注システム。
  2.  前記境界部の位置情報に基づいて最終目標位置を設定する目標位置設定部を更に備え、
     前記降下制御部は、前記液面の下降に追従して前記分注器の先端部を下降させ、前記最終目標位置まで前記分注器の先端部を下降させるようにロボットを制御する、請求項1記載の分注システム。
  3.  前記目標位置設定部は、前記ロボットが前記分注器を下降させているときに、前記境界部の位置情報に基づいて前記最終目標位置を更新する、請求項2記載の分注システム。
  4.  前記画像に基づいて、前記境界部の変化を検出する境界監視部を更に備え、
     前記目標位置設定部は、前記境界監視部により前記境界部の変化が検出された場合に、前記境界部の位置情報に基づいて前記最終目標位置を更新する、請求項3記載の分注システム。
  5.  前記降下制御部は、
     前記液面の下降に追従して前記分注器の先端部を下降させるように前記ロボットを制御する第一モード制御部と、
     前記分注器の先端部を前記最終目標位置まで下降させるように前記ロボットを制御する第二モード制御部と、
     前記分注器の先端部が前記最終目標位置に近付くのに応じて前記第一モード制御部による制御を前記第二モード制御部による制御に切り替える切替部と、を有する請求項2~4のいずれか一項記載の分注システム。
  6.  前記第一モード制御部は、前記第二モード制御部に比べて応答性を高める制御を行い、前記第二モード制御部は、前記第一モード制御部に比べてオーバーシュートを抑制する制御を行う、請求項5記載の分注システム。
  7.  前記切替部は、予め設定された基準距離に比べ、前記分注器の先端部から前記最終目標位置までの距離が小さくなるのに応じて、前記第一モード制御部による制御を前記第二モード制御部による制御に切り替える、請求項5又は6記載の分注システム。
  8.  前記分注器の先端部の移動速度が大きくなるのに応じて前記基準距離を大きくする基準距離設定部を更に備える、請求項7記載の分注システム。
  9.  前記降下制御部は、前記液体及び前記非分注対象物が、前記カメラの視野内において傾いた容器に収容された状態にて、前記容器の傾きに対応して前記分注器の先端部を斜め方向に下降させるように前記ロボットを制御する、請求項2~8のいずれか一項記載の分注システム。
  10.  前記液面に対する前記境界部の傾斜を緩やかにする方向に前記容器が傾いた状態を維持しながら、当該容器を前記カメラの視野外から搬送し、前記カメラの視野内に配置するように前記ロボットを制御する容器配置制御部を更に備える、請求項9記載の分注システム。
  11.  前記カメラの視野内において、前記液面に対する前記境界部の傾斜を緩やかにする方向に前記容器を傾けるように前記ロボットを制御する傾動制御部を更に備える、請求項9記載の分注システム。
  12.  前記画像に基づいて、前記液面に対する前記境界部の傾斜を検出する傾斜検出部を更に備え、
     前記傾動制御部は、前記傾斜検出部により前記境界部の傾斜が検出された場合に、前記分注器の先端部が前記最終目標位置に近付くのに応じて、前記容器を傾けるように前記ロボットを制御する、請求項11記載の分注システム。
  13.  前記傾動制御部は、前記液面が前記境界部に到達する前に、前記容器を傾けるようにロボットを制御する、請求項12記載の分注システム。
  14.  第一及び第二のアームを有する双腕型の前記ロボットを備え、
     前記降下制御部は、前記第一のアームにより前記分注器を下降させるように前記ロボットを制御し、
     前記傾動制御部は、前記第二のアームにより前記容器を傾けるように前記ロボットを制御する、請求項12又は13記載の分注システム。
  15.  前記傾斜検出部は、前記画像に基づいて、前記液面に対する前記境界部の傾斜角度を検出し、
     前記傾動制御部は、前記傾斜角度に対応する角度にて前記容器を傾けるように前記ロボットを制御する、請求項12~14のいずれか一項記載の分注システム。
  16.  前記目標位置設定部は、前記傾斜検出部により前記境界部の傾斜が検出された場合には、前記容器の中心位置を基準にして、前記境界部の傾斜を下る方向にずれた位置を前記最終目標位置として設定する、請求項12~15のいずれか一項記載の分注システム。
  17.  前記カメラ及び前記容器を共に保持するラックを更に備え、
     前記降下制御部は、前記容器の傾きが前記ラックにより維持された状態で前記分注器の先端部を前記斜め方向に下降させるように前記ロボットを制御する、請求項9~16のいずれか一項記載の分注システム。
  18.  前記カメラ及び前記容器を共に保持するラックを更に備え、
     前記傾動制御部は、前記ラックを傾けることで前記容器を傾けるように前記ロボットを制御する、請求項11~15のいずれか一項記載の分注システム。
  19.  前記カメラとの間に前記容器を挟む配置にて、前記カメラ及び前記容器と共に前記ラックに保持され、前記容器に光を照射するバックライトを更に備える、請求項17又は18記載の分注システム。
  20.  前記バックライトは赤色の可視光を照射する、請求項19記載の分注システム。
  21.  前記カメラによる撮像が行われていない時間帯の少なくとも一部において前記バックライトを消灯させるバックライト制御部を更に備える、請求項19又は20記載の分注システム。
  22.  前記画像に基づいて、前記液面に対する前記境界部の傾斜を検出する傾斜検出部を更に備え、
     前記目標位置設定部は、前記傾斜検出部により前記境界部の傾斜が検出された場合には、前記液体及び前記非分注対象物を収容した容器の中心位置を基準にして、前記境界部の傾斜を下る方向にずれた位置を前記最終目標位置として設定する、請求項2~8のいずれか一項記載の分注システム。
  23.  前記ロボットによる分注作業用の基準データを登録するためのユーザインタフェースと、
     前記基準データが未登録である場合に、前記分注器の先端部が前記カメラの視野内に入った後に前記ロボットを停止させ、当該基準データの登録後に前記ロボットの動作を再開させる割込部と、
     前記割込部が前記ロボットを停止させているときに、前記基準データの設定用の画面を前記ユーザインタフェースに表示し、前記ユーザインタフェースから前記基準データを取得して登録する基準データ登録部と、
     を更に備える請求項1~22のいずれか一項記載の分注システム。
  24.  複数種類の分注作業を含む前記ロボットの作業工程を設定する工程設定部を更に備え、
     前記割込部は、前記基準データが未登録である場合に前記ロボットを停止させることを前記分注作業ごとに実行し、
     前記基準データ登録部は、前記割込部が前記ロボットを停止させる度に、次に実行予定の前記分注作業に対応する前記基準データを取得して登録する請求項23記載の分注システム。
  25.  前記基準データ登録部は、前記基準データとして、前記分注器の先端部の画像パターンを登録し、
     前記画像処理部は、前記分注器の先端部の画像パターンに基づいて前記分注器の先端部の位置情報を取得する、請求項23又は24記載の分注システム。
  26.  前記基準データ登録部は、液体外における前記分注器の先端部の画像パターンと、液体中における前記分注器の先端部の画像パターンとを登録する、請求項25記載の分注システム。
  27.  前記基準データ登録部は、前記基準データとして、液体外における前記分注器の先端部を前記画像内で探索するための第一の解析領域と、前記液面を前記画像内で探索するための第二の解析領域と、前記境界部を前記画像内で探索するための第三の解析領域とを更に登録し、
     前記画像処理部は、前記画像における前記第一又は第二の解析領域内から前記分注器の先端部の位置情報を取得し、前記第二の解析領域内から前記液面の位置情報を取得し、前記第三の解析領域内から前記境界部の位置情報を取得する、請求項25又は26記載の分注システム。
  28.  分注対象の液体を吸引するための分注器を移動させるロボットと、
     少なくとも、前記分注器の先端部と、前記液体の液面と、前記液面よりも下方に位置する非分注対象物とを含む画像を撮像するためのカメラと、
     前記画像に基づいて、前記液面の位置情報と、前記液体と前記非分注対象物との間の境界部の位置情報と、前記分注器の先端部の位置情報とを取得すること、前記液体を前記分注器内に吸引する際に、前記先端部の位置情報と、前記液面の位置情報と、前記境界部の位置情報とに基づいて、前記分注器を下降させるように前記ロボットを制御すること、を実行するように構成された回路と、を備える分注システム。
  29.  分注対象の液体を吸引するための分注器の先端部と、前記液体の液面と、前記液面よりも下方に位置する非分注対象物とを少なくとも含む画像から、前記液面の位置情報と、前記液体と前記非分注対象物との間の境界部の位置情報と、前記分注器の先端部の位置情報とを取得する画像処理部と、
     前記液体を前記分注器内に吸引する際に、前記先端部の位置情報と、前記液面の位置情報と、前記境界部の位置情報とに基づいて、前記分注器を下降させるようにロボットを制御する降下制御部と、を備えるコントローラ。
  30.  分注対象の液体を吸引するための分注器の先端部と、前記液体の液面と、前記液面よりも下方に位置する非分注対象物とを少なくとも含む画像から、前記液面の位置情報と、前記液体と前記非分注対象物との間の境界部の位置情報と、前記分注器の先端部の位置情報とを取得すること、
     前記液体を前記分注器内に吸引する際に、前記先端部の位置情報と、前記液面の位置情報と、前記境界部の位置情報とに基づいて、前記分注器を下降させるようにロボットを制御すること、を含む制御方法。
PCT/JP2015/063515 2015-05-11 2015-05-11 分注システム、コントローラ及び制御方法 WO2016181466A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
PCT/JP2015/063515 WO2016181466A1 (ja) 2015-05-11 2015-05-11 分注システム、コントローラ及び制御方法
JP2015152910A JP6536263B2 (ja) 2015-05-11 2015-07-31 分注用のラック及び分注システム
EP15891896.1A EP3296069B1 (en) 2015-05-11 2015-07-31 Dispensing system, controller, and control method
PCT/JP2015/071887 WO2016181572A1 (ja) 2015-05-11 2015-07-31 分注システム、コントローラ及び制御方法
JP2017517582A JP6492273B2 (ja) 2015-05-11 2015-07-31 分注システム、コントローラ及び制御方法
US15/146,291 US10837977B2 (en) 2015-05-11 2016-05-04 Rack for dispensing and dispensing system
US15/806,339 US10697991B2 (en) 2015-05-11 2017-11-08 Dispensing system, and dispensing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/063515 WO2016181466A1 (ja) 2015-05-11 2015-05-11 分注システム、コントローラ及び制御方法

Publications (1)

Publication Number Publication Date
WO2016181466A1 true WO2016181466A1 (ja) 2016-11-17

Family

ID=57247840

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2015/063515 WO2016181466A1 (ja) 2015-05-11 2015-05-11 分注システム、コントローラ及び制御方法
PCT/JP2015/071887 WO2016181572A1 (ja) 2015-05-11 2015-07-31 分注システム、コントローラ及び制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/071887 WO2016181572A1 (ja) 2015-05-11 2015-07-31 分注システム、コントローラ及び制御方法

Country Status (4)

Country Link
US (1) US10697991B2 (ja)
EP (1) EP3296069B1 (ja)
JP (2) JP6536263B2 (ja)
WO (2) WO2016181466A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110114460A (zh) 2016-10-28 2019-08-09 Nrl制药股份有限公司 乳铁蛋白/白蛋白融合蛋白质及其制备方法
JP2018176295A (ja) * 2017-04-03 2018-11-15 川崎重工業株式会社 ロボット及びその動作方法
WO2019064752A1 (ja) * 2017-09-28 2019-04-04 日本電産株式会社 ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム
WO2019064751A1 (ja) * 2017-09-28 2019-04-04 日本電産株式会社 ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム
JP2019117071A (ja) * 2017-12-26 2019-07-18 川崎重工業株式会社 分注方法
CN113519209B (zh) * 2019-01-04 2023-01-24 捷普有限公司 提供电路板组件底部填充物分配器的设备、***和方法
JP7071301B2 (ja) * 2019-01-25 2022-05-18 株式会社日立ハイテク 生体試料検出装置
JP7204587B2 (ja) * 2019-06-17 2023-01-16 株式会社東芝 物体ハンドリング制御装置、物体ハンドリング装置、物体ハンドリング方法および物体ハンドリングプログラム
KR20210033197A (ko) * 2019-09-18 2021-03-26 엘지전자 주식회사 액체통에 담긴 액체의 수위를 산출하는 로봇 및 방법
JP6725930B1 (ja) * 2020-04-08 2020-07-22 株式会社エクサウィザーズ 液体秤量方法、制御装置、コンピュータプログラム及び学習方法
JP2022011167A (ja) * 2020-06-29 2022-01-17 澁谷工業株式会社 液体吸引排出装置
EP4296684A1 (en) * 2022-06-20 2023-12-27 Tecan Trading AG Liquid interface estimation for liquid aspiration

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005304303A (ja) * 2004-04-16 2005-11-04 Olympus Corp 給排ロボットおよび自動培養装置
JP2013072806A (ja) * 2011-09-28 2013-04-22 Aoi Seiki Kk 検査前処理装置、検査前処理方法、及び検体処理装置

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4730435A (en) * 1986-04-07 1988-03-15 Aqua-Chem, Inc. Sterile docking system for filling IV bags
US5341854A (en) * 1989-09-28 1994-08-30 Alberta Research Council Robotic drug dispensing system
US5366896A (en) * 1991-07-30 1994-11-22 University Of Virginia Alumni Patents Foundation Robotically operated laboratory system
US5337919A (en) * 1993-02-11 1994-08-16 Dispensing Technologies, Inc. Automatic dispensing system for prescriptions and the like
US5431201A (en) * 1993-12-03 1995-07-11 Technology 2000 Incororated Robotic admixture system
US5534222A (en) * 1995-07-11 1996-07-09 Purity Packaging A Division Of Great Pacific Enterprises Method for sterilizing internal surfaces of an edible liquid packaging machine
US6048086A (en) * 1995-08-10 2000-04-11 Valerino, Sr.; Fred M. Parenteral products automatic system (PPAS) with an oral/solid interface
US20010056311A1 (en) * 1997-09-25 2001-12-27 Fred M. Valerino Automatic empty carrier storage, retrieval and distribuition system
US5805454A (en) * 1995-08-10 1998-09-08 Valerino, Sr.; Fred M. Parenteral products automation system (PPAS)
US5797515A (en) * 1995-10-18 1998-08-25 Adds, Inc. Method for controlling a drug dispensing system
US5786598A (en) * 1996-05-22 1998-07-28 Purepulse Technologies, Inc. Sterilization of packages and their contents using high-intensity, short-duration pulses of incoherent, polychromatic light in a broad spectrum
US5925885A (en) * 1996-05-22 1999-07-20 Purepulse Technologies, Inc. Parametric control in pulsed light sterilization of packages and their contents
EP0882500A1 (en) * 1996-10-30 1998-12-09 Sumitomo Chemical Company Limited Synthesis experiment automating system, liquid separating treating apparatus and reaction vessel
EP2295988A2 (en) * 1996-12-31 2011-03-16 High Throughput Genomics, Inc. Multiplexed molecular analysis apparatus and its fabrication method
US6066294A (en) * 1997-08-21 2000-05-23 Ethicon, Inc. Multi-compartment sterilization system
US5941867A (en) * 1997-07-15 1999-08-24 Kao; Ti Formulation of pharmaceutical solutions in free fall
US6213853B1 (en) * 1997-09-10 2001-04-10 Speedfam-Ipec Corporation Integral machine for polishing, cleaning, rinsing and drying workpieces
US6902703B2 (en) * 1999-05-03 2005-06-07 Ljl Biosystems, Inc. Integrated sample-processing system
US6037598A (en) * 1998-01-28 2000-03-14 Tetra Laval Holdings & Finance, Sa Arrangement on an ultraviolet sterilization system
JP2004525673A (ja) * 2000-12-14 2004-08-26 ユーブイ−ソルーションズ・エルエルシー 小型の物品を迅速に滅菌する方法及び装置
CA2461312C (en) * 2001-09-24 2015-12-01 Scott Laboratories, Inc. Methods and apparatuses for assuring quality and safety of drug administration and medical products and kits
US6604903B2 (en) * 2001-11-30 2003-08-12 Forhealth Technologies, Inc. Automated drug vial safety cap removal
US7228198B2 (en) * 2002-08-09 2007-06-05 Mckesson Automation Systems, Inc. Prescription filling apparatus implementing a pick and place method
US6832844B2 (en) * 2002-12-03 2004-12-21 Field Controls, L.L.C. Ultraviolet lamp assembly
US7753085B2 (en) * 2002-12-03 2010-07-13 Forhealth Technologies, Inc. Automated drug preparation apparatus including automated drug reconstitution
US6915823B2 (en) * 2002-12-03 2005-07-12 Forhealth Technologies, Inc. Automated apparatus and process for reconstitution and delivery of medication to an automated syringe preparation apparatus
US7875245B2 (en) * 2003-05-14 2011-01-25 Dako Denmark A/S Method and apparatus for automated pre-treatment and processing of biological samples
AU2004258218B2 (en) * 2003-07-18 2009-05-21 Bio-Rad Laboratories, Inc. System and method for multi-analyte detection
US7488451B2 (en) 2003-09-15 2009-02-10 Millipore Corporation Systems for particle manipulation
US7570443B2 (en) * 2003-09-19 2009-08-04 Applied Biosystems, Llc Optical camera alignment
US20060024690A1 (en) * 2003-09-19 2006-02-02 Kao H P Normalization of data using controls
US20050226779A1 (en) * 2003-09-19 2005-10-13 Oldham Mark F Vacuum assist for a microplate
JP2005201882A (ja) * 2003-12-16 2005-07-28 Olympus Corp 使い捨てチップの先端検出方法と使い捨てチップを用いた分注装置
CN1965223A (zh) 2004-03-02 2007-05-16 丹麦达科有限公司 用于生物学着色仪的试剂传送***、释放设备和容器
US7343943B2 (en) * 2004-05-13 2008-03-18 Forhealth Technologies, Inc. Medication dose underfill detection system and application in an automated syringe preparing system
US7128105B2 (en) * 2004-04-07 2006-10-31 Forhealth Technologies, Inc. Device for reconstituting a drug vial and transferring the contents to a syringe in an automated matter
US7163035B2 (en) * 2004-05-13 2007-01-16 Forhealth Technologies, Inc. Automated use of a vision system to detect foreign matter in reconstituted drugs before transfer to a syringe
US7017623B2 (en) * 2004-06-21 2006-03-28 Forhealth Technologies, Inc. Automated use of a vision system to unroll a label to capture and process drug identifying indicia present on the label
US7726514B2 (en) * 2004-07-07 2010-06-01 Rxmedic Systems, Inc. Automated article dispensation mechanism
US7783383B2 (en) * 2004-12-22 2010-08-24 Intelligent Hospital Systems Ltd. Automated pharmacy admixture system (APAS)
US20060157507A1 (en) * 2004-12-30 2006-07-20 Chang Byeong S Multi-functional container closure delivery system
US20080305012A1 (en) * 2005-12-21 2008-12-11 Hans Camenisch Method and Device For Checking Whether a Liquid Transfer Has Been Successful
US7876935B2 (en) 2006-01-30 2011-01-25 Protedyne Corporation Sample processing apparatus with a vision system
US20100092683A1 (en) * 2006-09-22 2010-04-15 Clondiag Gmbh Dispenser device for and a method of dispensing a substance onto a substrate
US20080227663A1 (en) 2007-01-19 2008-09-18 Biodot, Inc. Systems and methods for high speed array printing and hybridization
EP2148206B1 (en) 2008-07-25 2015-11-18 F.Hoffmann-La Roche Ag A laboratory system for handling sample tube racks, an alignmemt element for sample tube racks and a rack tray receiver assembly
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP2010096643A (ja) * 2008-10-17 2010-04-30 Hitachi High-Technologies Corp 分注装置、及びそれを用いた検体処理装置,自動分析装置
JP2010197047A (ja) * 2009-02-20 2010-09-09 Beckman Coulter Inc 分注方法、分析装置および分析装置
BRPI1012878A2 (pt) * 2009-05-15 2016-04-05 Bio Merieux Inc sistema e métodos para a rápida identificação e/ou caracterização de um agente microbiano em uma amostra
EP2752245A3 (en) * 2010-07-23 2016-08-24 Beckman Coulter, Inc. System Or Method Of Including Analytical Units
CN103282781B (zh) 2010-11-23 2015-10-14 安德鲁联合有限公司 用于移液管的可编程操纵的设备和方法
JP5709678B2 (ja) 2011-07-14 2015-04-30 パナソニックヘルスケアホールディングス株式会社 分注装置
WO2013016034A1 (en) * 2011-07-22 2013-01-31 Constitution Medical, Inc. Fluid sample preparation systems and methods
US9404864B2 (en) 2013-03-13 2016-08-02 Denovo Sciences, Inc. System for imaging captured cells
US10012664B2 (en) * 2011-09-25 2018-07-03 Theranos Ip Company, Llc Systems and methods for fluid and component handling
US9810704B2 (en) * 2013-02-18 2017-11-07 Theranos, Inc. Systems and methods for multi-analysis
FR2987896B1 (fr) 2012-03-08 2014-04-25 Noviloire Automate d'analyse medicale et procede correspondant
JP6170917B2 (ja) * 2012-06-25 2017-07-26 協和メデックス株式会社 容器把持装置
US9962728B2 (en) 2012-09-20 2018-05-08 Te Connectivity Corporation Fluid dispensing machine and method of dispensing fluid
US20140112829A1 (en) 2012-10-22 2014-04-24 Qiagen Gaithersburg, Inc. Tube strip handling and heating apparatus
CN110243653A (zh) * 2012-11-01 2019-09-17 莱卡生物***墨尔本私人有限公司 流体输送***
US8912007B2 (en) * 2013-01-22 2014-12-16 Tecan Trading Ag Optical measuring apparatus and method for the analysis of samples contained in liquid drops
US9488576B2 (en) * 2013-01-22 2016-11-08 Tecan Trading Ag Optical measuring apparatus and method for the analysis of samples contained in liquid drops
JP5928435B2 (ja) * 2013-11-01 2016-06-01 株式会社安川電機 ロボットシステム、検査方法および被検査物の生産方法
WO2015066342A1 (en) * 2013-11-04 2015-05-07 Siemens Healthcare Diagnostics Inc. Methods and apparatus for determining aspiration and/or dispensing volume and/or pipette positioning
EP3101428B1 (en) * 2014-01-27 2021-07-07 Hitachi High-Tech Corporation Automatic analytical apparatus
US10837977B2 (en) * 2015-05-11 2020-11-17 Kabushiki Kaisha Yaskawa Denki Rack for dispensing and dispensing system
US10099240B2 (en) * 2015-10-15 2018-10-16 The Boeing Company Apparatuses and systems for applying glutinous substances

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005304303A (ja) * 2004-04-16 2005-11-04 Olympus Corp 給排ロボットおよび自動培養装置
JP2013072806A (ja) * 2011-09-28 2013-04-22 Aoi Seiki Kk 検査前処理装置、検査前処理方法、及び検体処理装置

Also Published As

Publication number Publication date
EP3296069B1 (en) 2020-09-02
EP3296069A1 (en) 2018-03-21
JP2016212077A (ja) 2016-12-15
US10697991B2 (en) 2020-06-30
JPWO2016181572A1 (ja) 2018-03-15
JP6536263B2 (ja) 2019-07-03
WO2016181572A1 (ja) 2016-11-17
JP6492273B2 (ja) 2019-04-03
EP3296069A4 (en) 2019-03-13
US20180238923A1 (en) 2018-08-23

Similar Documents

Publication Publication Date Title
WO2016181466A1 (ja) 分注システム、コントローラ及び制御方法
US10837977B2 (en) Rack for dispensing and dispensing system
JP6029971B2 (ja) 検体分析装置およびピアサーの位置調整方法
US20150127157A1 (en) Robot system, method for inspection, and method for producing inspection object
JP5850625B2 (ja) 分析装置及び位置確認方法
EP1652583A1 (en) Pipette tip rack and pipette tip assembly
EP2889627B1 (en) Sample analyzing apparatus
JP2008026051A (ja) 生化学自動分析装置
US20160291306A1 (en) Cell imaging apparatus and cell imaging method
EP3112027B1 (en) Specimen processing apparatus for genetic testing
EP3220149A1 (en) Specimen measurement device and specimen measurement method
JP2019035624A (ja) 検査システムおよび検査システムの起動方法
US11327088B2 (en) Automatic analyzer
JP2009025249A (ja) 分注装置および自動分析装置
JP2009074870A (ja) 検体分析用液体吸入装置および検体分析装置
JP2009074874A (ja) 検体分析用液体吸入装置および検体分析装置
JP2006349502A (ja) 自動分注装置及び自動分注方法
US11933804B2 (en) Automatic analyzer
JP2017207298A (ja) 自動分析装置
JP2018044925A (ja) 自動分析装置
JP7399681B2 (ja) 培養操作装置
US20220113332A1 (en) Automated analysis device
US20230236213A1 (en) Automatic sample injection device
JPS63111437A (ja) 分注装置
JP6829438B2 (ja) 点着量測定システム、点着量測定方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15891792

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15891792

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP