JP7188140B2 - manipulation system - Google Patents

manipulation system Download PDF

Info

Publication number
JP7188140B2
JP7188140B2 JP2019015041A JP2019015041A JP7188140B2 JP 7188140 B2 JP7188140 B2 JP 7188140B2 JP 2019015041 A JP2019015041 A JP 2019015041A JP 2019015041 A JP2019015041 A JP 2019015041A JP 7188140 B2 JP7188140 B2 JP 7188140B2
Authority
JP
Japan
Prior art keywords
image
binary image
unit
manipulation system
binary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019015041A
Other languages
Japanese (ja)
Other versions
JP2020122894A (en
Inventor
尚史 倉持
ハウス リチャード
伸明 田中
秀樹 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NSK Ltd
Original Assignee
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NSK Ltd filed Critical NSK Ltd
Priority to JP2019015041A priority Critical patent/JP7188140B2/en
Publication of JP2020122894A publication Critical patent/JP2020122894A/en
Application granted granted Critical
Publication of JP7188140B2 publication Critical patent/JP7188140B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Image Analysis (AREA)

Description

本発明は、マニピュレーションシステムに関する。 The present invention relates to manipulation systems.

バイオ医薬品は細胞を原料として製造される。原料となる細胞は、単一細胞に由来していることが求められる。このため、培養液中から特定の細胞を選別し回収することが必要となる。特許文献1には、細胞を吸引するマニピュレータを有する細胞採取装置が記載されている。 Biopharmaceuticals are manufactured using cells as raw materials. The raw material cells are required to be derived from a single cell. Therefore, it is necessary to select and recover specific cells from the culture medium. Patent Document 1 describes a cell harvesting device having a manipulator for aspirating cells.

特開2013-169185号公報JP 2013-169185 A

マニピュレータを有する細胞採取装置では、画像処理により細胞を自動で検出する際に、光源から照射される光の状態によって細胞の正しい形状を検出することができず、細胞を誤検出する場合がある。 In a cell harvesting device with a manipulator, when cells are automatically detected by image processing, the correct shape of the cells cannot be detected depending on the state of the light emitted from the light source, and cells may be detected incorrectly.

本発明は、上記に鑑みてなされたものであり、微小対象物の検出精度を向上させることで、微小対象物を1個ずつ採取することが可能なマニピュレーションシステムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a manipulation system capable of picking up minute objects one by one by improving detection accuracy of minute objects.

一態様に係るマニピュレーションシステムは、管状器具を用いて微小対象物を採取するマニピュレーションシステムであって、前記管状器具と、前記管状器具が取り付けられるマニピュレータと、前記微小対象物を収容するための容器が載置される試料ステージと、前記試料ステージの上方に配置される第1顕微鏡と、前記第1顕微鏡を介して第1画像を撮像する第1撮像装置と、コントローラと、を備え、前記コントローラは、前記第1画像に基づいて、第1しきい値以上の輝度を有する複数の明部を表示する第1バイナリ画像と、第2しきい値以下の輝度を有する複数の暗部を表示する第2バイナリ画像とを作成し、前記第1バイナリ画像と前記第2バイナリ画像とを重ね合わせて第3バイナリ画像を作成する画像処理部と、前記第3バイナリ画像において、前記明部と前記暗部とが組み合わされた検出部分に基づいて前記微小対象物の位置を検出する位置検出部と、を有する。 A manipulation system according to one aspect is a manipulation system for extracting a micro-object using a tubular instrument, comprising: the tubular instrument; a manipulator to which the tubular instrument is attached; and a container for containing the micro-object. A sample stage to be mounted, a first microscope arranged above the sample stage, a first imaging device that captures a first image via the first microscope, and a controller, wherein the controller is , based on the first image, a first binary image displaying a plurality of bright areas having luminance equal to or greater than a first threshold; and a second binary image displaying a plurality of dark areas having luminance equal to or less than a second threshold. an image processing unit that creates a binary image and superimposes the first binary image and the second binary image to create a third binary image; a position detection unit that detects the position of the minute object based on the combined detection parts.

これによれば、マニピュレーションシステムは、微小対象物の明部及び暗部を検出して、2つのバイナリ画像を組み合わせることで、明部及び暗部のいずれか一方のみで微小対象物を検出する場合に比べて、微小対象物の形状及び大きさを精度よく検出することができる。これにより、マニピュレーションシステムは、微小対象物を1個ずつ採取することができる。 According to this, the manipulation system detects the bright part and the dark part of the minute object, and combines the two binary images, which makes it possible to detect the minute object in only one of the bright part and the dark part. Therefore, the shape and size of a minute object can be detected with high accuracy. Thereby, the manipulation system can pick up the minute objects one by one.

望ましい態様として、前記コントローラは、前記微小対象物の基準バイナリ画像を記憶する記憶部を有し、前記位置検出部は、前記第3バイナリ画像の前記検出部分と、前記基準バイナリ画像とを比較して、前記微小対象物を検出する。これによれば、マニピュレーションシステムは、基準バイナリ画像とは異なる形状の微小対象物や、異なる大きさの微小対象物を、採取対象から除去することができる。 Preferably, the controller has a storage unit that stores a reference binary image of the minute object, and the position detection unit compares the detected portion of the third binary image with the reference binary image. to detect the minute object. According to this, the manipulation system can remove micro-objects having different shapes and different sizes from the reference binary image from the object to be collected.

望ましい態様として、マニピュレーションシステムは、前記第1画像の輝度に基づいて、前記第1しきい値と、前記第1しきい値よりも小さい輝度を示す前記第2しきい値とを設定するしきい値設定部を有する。これによれば、第1バイナリ画像の明部と、第2バイナリ画像の暗部とが、それぞれ異なるしきい値で検出される。このため、第1顕微鏡の視野中の輝度が、測定環境等により変化した場合でも、マニピュレーションシステムは、良好に明部及び暗部を検出することができる。すなわち、マニピュレーションシステムは、環境の変化に対するロバスト性を向上させることができる。 Preferably, the manipulation system sets the first threshold value and the second threshold value indicating a brightness value less than the first threshold value based on the brightness of the first image. It has a value setting section. According to this, the bright portion of the first binary image and the dark portion of the second binary image are detected with different threshold values. Therefore, even if the luminance in the field of view of the first microscope changes due to the measurement environment or the like, the manipulation system can detect the bright and dark areas satisfactorily. That is, the manipulation system can improve robustness against environmental changes.

望ましい態様として、前記画像処理部は、前記第1画像を輝度のみで表示したグレースケール画像に変換し、前記グレースケール画像に基づいて前記第1バイナリ画像及び前記第2バイナリ画像を作成する。これによれば、カラー画像を用いる場合に比べて画像処理部が行う画像処理の負荷を抑制することができる。 Preferably, the image processing unit converts the first image into a grayscale image that displays only luminance, and creates the first binary image and the second binary image based on the grayscale image. According to this, the load of the image processing performed by the image processing section can be suppressed compared to the case of using a color image.

望ましい態様として、前記画像処理部は、前記第1バイナリ画像において、複数の前記明部をそれぞれ拡大し、前記第2バイナリ画像において、複数の前記暗部をそれぞれ拡大する。これによれば、マニピュレーションシステムは、第3バイナリ画像において明部と暗部とが組み合わされた場合に、明部と暗部との間に隙間が生じることを抑制することができる。したがって、位置検出部は、1組の明部と暗部とを1つの微小対象物として検出することができる。 Preferably, the image processing section enlarges the plurality of bright portions in the first binary image, and enlarges the plurality of dark portions in the second binary image. According to this, the manipulation system can suppress the occurrence of a gap between the bright portion and the dark portion when the bright portion and the dark portion are combined in the third binary image. Therefore, the position detection section can detect a pair of bright and dark portions as one minute object.

望ましい態様として、前記位置検出部は、前記管状器具の端部の位置及び延在方向を検出し、前記画像処理部は、前記第3バイナリ画像のうち、前記管状器具の端部と隣り合う部分領域を切り取って、前記部分領域で画像処理を行う。これによれば、画像処理部が行う画像処理や、位置検出部が行うパターンマッチングの負荷を抑制することができる。 Preferably, the position detection section detects the position and extending direction of the end of the tubular instrument, and the image processing section detects a portion of the third binary image adjacent to the end of the tubular instrument. A region is cut out and image processing is performed on the partial region. According to this, the load of the image processing performed by the image processing unit and the pattern matching performed by the position detection unit can be suppressed.

望ましい態様として、マニピュレーションシステムは、さらに、前記管状器具に対して前記試料ステージを相対的に移動させる駆動装置を有し、前記コントローラは、前記位置検出部が前記微小対象物を検出しなかった場合に、前記駆動装置により前記試料ステージを移動させる。これによれば、第1画像に微小対象物が存在しない場合に、容器内の異なる領域で微小対象物を検出することができる。 As a desirable aspect, the manipulation system further includes a driving device that moves the sample stage relative to the tubular instrument, and the controller controls the movement of the micro-object when the position detection unit does not detect the micro-object. Then, the sample stage is moved by the driving device. According to this, when the minute object does not exist in the first image, the minute object can be detected in a different region inside the container.

本発明によれば、微小対象物の検出精度を向上させることで、微小対象物を1個ずつ採取することが可能なマニピュレーションシステムを提供することができる。 According to the present invention, it is possible to provide a manipulation system capable of picking up minute objects one by one by improving detection accuracy of minute objects.

図1は、第1実施形態に係るマニピュレーションシステムの構成例を示す斜視図である。FIG. 1 is a perspective view showing a configuration example of the manipulation system according to the first embodiment. 図2は、図1に示すマニピュレーションシステムの一部を拡大して示す斜視図である。2 is an enlarged perspective view of a portion of the manipulation system shown in FIG. 1; FIG. 図3は、第1実施形態に係るマニピュレーションシステムの構成例を示す模式図である。FIG. 3 is a schematic diagram showing a configuration example of the manipulation system according to the first embodiment. 図4は、第1実施形態に係るマニピュレーションシステムの構成例を示すブロック図である。FIG. 4 is a block diagram showing a configuration example of the manipulation system according to the first embodiment. 図5は、検出部の構成例を示すブロック図である。FIG. 5 is a block diagram showing a configuration example of a detection unit. 図6は、記憶部の構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of a storage unit; 図7は、表示部の画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of a screen of a display unit; 図8は、第1実施形態に係る採取用ピペットの構成例を示す側面図である。FIG. 8 is a side view showing a configuration example of the collection pipette according to the first embodiment. 図9は、採取用ピペットの先端部を拡大して示す図である。FIG. 9 is an enlarged view of the tip of the sampling pipette. 図10は、第1実施形態に係るマニピュレーションシステムの細胞検出シーケンスの一例を示すフローチャートである。10 is a flowchart showing an example of a cell detection sequence of the manipulation system according to the first embodiment; FIG. 図11は、第1画像を輝度のみで表示したグレースケール画像の一例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a grayscale image in which the first image is displayed only with luminance. 図12は、図11に示す領域A1の細胞を拡大して示す模式図である。FIG. 12 is a schematic diagram showing enlarged cells in region A1 shown in FIG. 図13は、細胞及び背景の輝度の分布を模式的に示すグラフである。FIG. 13 is a graph schematically showing luminance distributions of cells and background. 図14は、第1バイナリ画像の一例を示す模式図である。FIG. 14 is a schematic diagram showing an example of the first binary image. 図15は、第2バイナリ画像の一例を示す模式図である。FIG. 15 is a schematic diagram showing an example of the second binary image. 図16は、第1バイナリ画像において、小さい明部を除去した画像の一例を示す模式図である。FIG. 16 is a schematic diagram showing an example of an image from which a small bright portion is removed in the first binary image. 図17は、第2バイナリ画像において、小さい暗部を除去した画像の一例を示す模式図である。FIG. 17 is a schematic diagram showing an example of an image from which small dark portions are removed in the second binary image. 図18は、第1バイナリ画像において、明部を拡大した画像の一例を示す模式図である。FIG. 18 is a schematic diagram showing an example of an image in which a bright portion is enlarged in the first binary image. 図19は、第2バイナリ画像において、暗部を拡大した画像の一例を示す模式図である。FIG. 19 is a schematic diagram showing an example of an image obtained by enlarging a dark portion in the second binary image. 図20は、第3バイナリ画像の一例を示す模式図である。FIG. 20 is a schematic diagram showing an example of the third binary image. 図21は、図20に示す第3バイナリ画像の部分領域において、検出部分をさらに拡大した画像の一例を示す模式図である。21 is a schematic diagram showing an example of an image in which the detection portion is further enlarged in the partial area of the third binary image shown in FIG. 20. FIG. 図22は、図21に示す部分領域の画像において、部分領域の外周と接する検出部分を除去した画像の一例を示す模式図である。FIG. 22 is a schematic diagram showing an example of an image obtained by removing a detection portion in contact with the outer periphery of the partial area in the image of the partial area shown in FIG. 21 . 図23は、細胞の基準バイナリ画像を示す模式図である。FIG. 23 is a schematic diagram showing a reference binary image of cells. 図24は、細胞の検出結果を表示する第1画像の一例を示す模式図である。FIG. 24 is a schematic diagram showing an example of a first image displaying a cell detection result. 図25は、第2実施形態に係るマニピュレーションシステムの細胞検出シーケンスの一例を示すフローチャートである。FIG. 25 is a flow chart showing an example of a cell detection sequence of the manipulation system according to the second embodiment. 図26は、変形例に係る検出部分の一例を示す模式図である。FIG. 26 is a schematic diagram showing an example of a detection portion according to a modification.

以下、発明を実施するための形態(以下、実施形態という)につき図面を参照しつつ詳細に説明する。なお、下記の実施形態により本発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、下記実施形態で開示した構成要素は適宜組み合わせることが可能である。 EMBODIMENT OF THE INVENTION Hereinafter, it demonstrates in detail, referring drawings for the form (henceforth embodiment) for implementing invention. In addition, the present invention is not limited by the following embodiments. In addition, components in the following embodiments include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that fall within a so-called equivalent range. Furthermore, the constituent elements disclosed in the following embodiments can be combined as appropriate.

(第1実施形態)
図1は、第1実施形態に係るマニピュレーションシステムの構成例を示す斜視図である。図2は、図1に示すマニピュレーションシステムの一部を拡大して示す斜視図である。図3は、第1実施形態に係るマニピュレーションシステムの構成例を示す模式図である。図1から図3に示すマニピュレーションシステム100は、容器38に収容された複数個の微小対象物のうちから、所望の微小対象物を1個ずつ分取する装置である。微小対象物は、例えば細胞である。
(First embodiment)
FIG. 1 is a perspective view showing a configuration example of the manipulation system according to the first embodiment. 2 is an enlarged perspective view of a portion of the manipulation system shown in FIG. 1; FIG. FIG. 3 is a schematic diagram showing a configuration example of the manipulation system according to the first embodiment. A manipulation system 100 shown in FIGS. 1 to 3 is a device for picking up desired micro-objects one by one from a plurality of micro-objects housed in a container 38 . A microscopic object is, for example, a cell.

図1から図3に示すように、マニピュレーションシステム100は、基台1と、採取用ピペット10と、ピペット保持部15と、マニピュレータ20と、試料ステージ30と、第1撮像装置45を有する第1顕微鏡ユニット40と、コントローラ50と、第2撮像装置65を有する第2顕微鏡ユニット60と、第3撮像装置75と、ジョイスティック57と、入力部58と、表示部80と、を備える。なお、本実施形態では、試料ステージ30の載置面30aに平行な一方向をX軸方向とする。載置面30aに平行で、かつ、X軸方向と直交する方向をY軸方向とする。載置面30aの法線方向をZ軸方向とする。例えば、載置面30aが鉛直方向と直交する水平面となるように、基台1の配置が調整されている。 As shown in FIGS. 1 to 3, the manipulation system 100 includes a base 1, a sampling pipette 10, a pipette holder 15, a manipulator 20, a sample stage 30, and a first imaging device 45. A microscope unit 40 , a controller 50 , a second microscope unit 60 having a second imaging device 65 , a third imaging device 75 , a joystick 57 , an input section 58 and a display section 80 are provided. In this embodiment, one direction parallel to the mounting surface 30a of the sample stage 30 is defined as the X-axis direction. A direction parallel to the mounting surface 30a and orthogonal to the X-axis direction is defined as a Y-axis direction. Let the normal direction of the mounting surface 30a be the Z-axis direction. For example, the placement of the base 1 is adjusted so that the mounting surface 30a is a horizontal plane perpendicular to the vertical direction.

採取用ピペット10は、細胞を採取するための管状器具である。例えば、採取用ピペット10は針状であり、その材質は例えばガラスである。採取用ピペット10の先端には、細胞を採取するための開口部が設けられている。採取用ピペット10の詳細は、後で図8及び図9を参照しながら説明する。 A collection pipette 10 is a tubular instrument for collecting cells. For example, the sampling pipette 10 is needle-shaped and made of glass, for example. The tip of the collection pipette 10 is provided with an opening for collecting cells. Details of the sampling pipette 10 will be described later with reference to FIGS. 8 and 9. FIG.

ピペット保持部15は、採取用ピペット10を保持するための管状器具である。ピペット保持部15の材質は、例えばガラス又は金属である。ピペット保持部15の一端は、採取用ピペット10に連結している。また、ピペット保持部15の他端は、マニピュレータ20が有する電動マイクロポンプ29に接続されている。ピペット保持部15及び採取用ピペット10の内部圧力は、電動マイクロポンプ29から供給される圧力Pにより減圧又は増圧される。採取用ピペット10の内部圧力が常圧よりも低いとき、採取用ピペット10は先端の開口部から細胞を吸引して採取することができる。また、採取用ピペット10の内部圧力が常圧よりも高いとき、採取用ピペット10は、採取した細胞を採取用ピペット10の先端の開口部から外部へ吐出(放出)することができる。ピペット保持部15は、後述の連結部28を介してマニピュレータ20に連結されている。 The pipette holder 15 is a tubular device for holding the sampling pipette 10 . The material of the pipette holder 15 is, for example, glass or metal. One end of the pipette holder 15 is connected to the collection pipette 10 . The other end of the pipette holder 15 is connected to the electric micropump 29 of the manipulator 20 . The internal pressure of the pipette holder 15 and the sampling pipette 10 is reduced or increased by the pressure P supplied from the electric micropump 29 . When the internal pressure of the sampling pipette 10 is lower than the normal pressure, the sampling pipette 10 can aspirate cells from the opening at the tip to sample them. Further, when the internal pressure of the sampling pipette 10 is higher than normal pressure, the sampling pipette 10 can eject (release) the sampled cells from the opening at the tip of the sampling pipette 10 to the outside. The pipette holding portion 15 is connected to the manipulator 20 via a connecting portion 28 which will be described later.

マニピュレータ20は、ピペット保持部15及び採取用ピペット10をX軸方向、Y軸方向及びZ軸方向に移動させるための装置である。 The manipulator 20 is a device for moving the pipette holder 15 and the sampling pipette 10 in the X-axis direction, the Y-axis direction and the Z-axis direction.

図3に示すように、マニピュレータ20は、X軸テーブル21と、Y軸テーブル22と、Z軸テーブル23と、駆動装置26、27と、連結部28、71(図1参照)と、電動マイクロポンプ29と、を備える。X軸テーブル21は、駆動装置26が駆動することによって、X軸方向に移動する。Y軸テーブル22は、駆動装置26が駆動することによって、Y軸方向に移動する。Z軸テーブル23は、駆動装置27が駆動することによって、Z軸方向に移動する。駆動装置26、27と、電動マイクロポンプ29は、コントローラ50に接続されている。 As shown in FIG. 3, the manipulator 20 includes an X-axis table 21, a Y-axis table 22, a Z-axis table 23, driving devices 26 and 27, connecting portions 28 and 71 (see FIG. 1), an electric micro a pump 29; The X-axis table 21 is moved in the X-axis direction by being driven by the driving device 26 . The Y-axis table 22 is moved in the Y-axis direction by being driven by the driving device 26 . The Z-axis table 23 is moved in the Z-axis direction by being driven by the driving device 27 . Drives 26 , 27 and electric micropump 29 are connected to controller 50 .

マニピュレータ20において、Z軸テーブル23はY軸テーブル22上に取り付けられている。これにより、ピペット保持部15及び採取用ピペット10は、Y軸テーブル22の移動にしたがって、Y軸テーブル22と同じ距離だけY軸方向に移動することができる。さらに、Y軸テーブル22はX軸テーブル21上に取り付けられている。これにより、ピペット保持部15及び採取用ピペット10は、X軸テーブル21の移動にしたがって、X軸テーブル21と同じ距離だけX軸方向に移動することができる。また、ピペット保持部15及び採取用ピペット10は、Z軸テーブル23の移動にしたがって、Z軸テーブル23と同じ距離だけZ軸方向に移動することができる。 In manipulator 20 , Z-axis table 23 is mounted on Y-axis table 22 . As a result, the pipette holder 15 and the sampling pipette 10 can move in the Y-axis direction by the same distance as the Y-axis table 22 as the Y-axis table 22 moves. Furthermore, the Y-axis table 22 is mounted on the X-axis table 21 . As a result, the pipette holder 15 and the sampling pipette 10 can be moved in the X-axis direction by the same distance as the X-axis table 21 as the X-axis table 21 moves. In addition, the pipette holder 15 and the sampling pipette 10 can move in the Z-axis direction by the same distance as the Z-axis table 23 as the Z-axis table 23 moves.

図3に示すように、試料ステージ30は、容器38を支持する。例えば、試料ステージ30の載置面30aに容器38が載置される。容器38は、例えば、ディッシュ又はウェルプレートである。試料ステージ30は、X軸ステージ31と、Y軸ステージ32と、駆動装置36と、を備える。X軸ステージ31は、駆動装置36が駆動することによって、X軸方向に移動する。Y軸ステージ32は、駆動装置36が駆動することによって、Y軸方向に移動する。X軸ステージ31はY軸ステージ32上に取り付けられている。駆動装置36は、コントローラ50に接続されている。 As shown in FIG. 3, sample stage 30 supports container 38 . For example, the container 38 is mounted on the mounting surface 30 a of the sample stage 30 . Container 38 is, for example, a dish or well plate. The sample stage 30 includes an X-axis stage 31 , a Y-axis stage 32 and a drive device 36 . The X-axis stage 31 is moved in the X-axis direction by being driven by the driving device 36 . The Y-axis stage 32 is moved in the Y-axis direction by being driven by the driving device 36 . The X-axis stage 31 is mounted on the Y-axis stage 32 . Drive 36 is connected to controller 50 .

なお、図3では、試料ステージ30の平面視による形状(以下、平面形状)が円形の場合を示しているが、試料ステージ30の平面形状は円形に限定されず、例えば矩形でもよい。また、図3では、容器38の平面形状が円形の場合を示しているが、容器38の平面形状は円形に限定されない。図1に示すように、容器38の平面形状は、例えば矩形でもよい。また、図1及び図3では、試料ステージ30上に1個の容器38が載置されている場合を示しているが、試料ステージ30上に載置される容器38の数は1個に限定されず複数個でもよい。 Although FIG. 3 shows a case where the sample stage 30 has a circular shape in plan view (hereinafter referred to as a planar shape), the planar shape of the sample stage 30 is not limited to a circular shape, and may be rectangular, for example. Moreover, although FIG. 3 shows the case where the container 38 has a circular planar shape, the planar shape of the container 38 is not limited to a circular shape. As shown in FIG. 1, the planar shape of the container 38 may be rectangular, for example. 1 and 3 show the case where one container 38 is placed on the sample stage 30, the number of containers 38 placed on the sample stage 30 is limited to one. may be multiple.

第1顕微鏡ユニット40は、試料ステージ30の上方に配置されている。第1顕微鏡ユニット40は、第1顕微鏡41と、第1撮像装置45と、試料ステージ30の載置面30aに向けて光を照射する光源(図示せず)とを有する。図2に示すように、第1顕微鏡41は、鏡筒411と、対物レンズ412と、駆動装置414(図3参照)とを有する。第1顕微鏡41は、対物レンズ412が容器38の上方に位置する実体顕微鏡である。第1顕微鏡ユニット40の鏡筒411は、駆動装置414が駆動することによって、Z軸方向に移動する。これにより、第1顕微鏡41は、焦点位置を調節することができる。対物レンズ412は、所望の倍率に合わせて複数種類が用意されていてもよい。第1撮像装置45は、第1顕微鏡41を介して、採取用ピペット10の先端をZ軸方向から撮像することができる。なお、第1顕微鏡ユニット40は、図示しない接眼レンズを備えてもよい。 The first microscope unit 40 is arranged above the sample stage 30 . The first microscope unit 40 has a first microscope 41 , a first imaging device 45 , and a light source (not shown) that emits light toward the mounting surface 30 a of the sample stage 30 . As shown in FIG. 2, the first microscope 41 has a lens barrel 411, an objective lens 412, and a driving device 414 (see FIG. 3). The first microscope 41 is a stereomicroscope with an objective lens 412 located above the container 38 . The lens barrel 411 of the first microscope unit 40 is moved in the Z-axis direction by being driven by the driving device 414 . Thereby, the first microscope 41 can adjust the focal position. A plurality of types of the objective lens 412 may be prepared according to the desired magnification. The first imaging device 45 can image the tip of the collection pipette 10 from the Z-axis direction via the first microscope 41 . Note that the first microscope unit 40 may include an eyepiece (not shown).

図1に示す連結部28は、ピペット保持部15をマニピュレータ20に連結している。また、第1顕微鏡ユニット40の鏡筒411は、連結部71によりマニピュレータ20に連結されている。これにより、鏡筒411がZ軸方向へ移動すると、これと一緒にマニピュレータ20、ピペット保持部15及び採取用ピペット10もZ軸方向へ移動する。連結部28、71は、例えば金属製である。連結部28、71は、例えばZ軸テーブル23に取り付けられている。 A connection 28 shown in FIG. 1 connects the pipette holder 15 to the manipulator 20 . Also, the lens barrel 411 of the first microscope unit 40 is connected to the manipulator 20 by a connecting portion 71 . As a result, when the lens barrel 411 moves in the Z-axis direction, the manipulator 20, the pipette holder 15, and the sampling pipette 10 also move in the Z-axis direction. The connecting portions 28 and 71 are made of metal, for example. The connecting portions 28 and 71 are attached to the Z-axis table 23, for example.

第2顕微鏡ユニット60は、試料ステージ30の側方に配置されている。第2顕微鏡ユニット60は、第2顕微鏡61と、第2撮像装置65とを有する。図2に示すように、第2顕微鏡61は、鏡筒611と、対物レンズ612と、駆動装置613(図1参照)と、を有する。対物レンズ612は、駆動装置613が駆動することによって、Y軸方向に移動する。これにより、第2顕微鏡61は、焦点位置を調節することができる。第2撮像装置65は、第2顕微鏡61を介して、採取用ピペット10の先端をY軸方向から撮像することができる。第2顕微鏡ユニット60は、固定具3を介して基台1に固定されている。第1撮像装置45及び第2撮像装置65は、例えば、CMOSイメージセンサ又はCCDイメージセンサ等の固体撮像素子を有する。 The second microscope unit 60 is arranged on the side of the sample stage 30 . The second microscope unit 60 has a second microscope 61 and a second imaging device 65 . As shown in FIG. 2, the second microscope 61 has a lens barrel 611, an objective lens 612, and a driving device 613 (see FIG. 1). The objective lens 612 is moved in the Y-axis direction by being driven by the driving device 613 . Thereby, the second microscope 61 can adjust the focal position. The second imaging device 65 can image the tip of the collection pipette 10 from the Y-axis direction via the second microscope 61 . The second microscope unit 60 is fixed to the base 1 via the fixture 3 . The 1st imaging device 45 and the 2nd imaging device 65 have solid-state imaging devices, such as a CMOS image sensor or a CCD image sensor, for example.

第3撮像装置75は、固定具4を介して基台1に固定されている。固定具4は、X軸方向及びY軸方向に動くことができ、Z軸方向に延伸することができる。これにより、第3撮像装置75は、X軸方向、Y軸方向及びZ軸方向とそれぞれ交差する、試料ステージ30の斜め上方向から、試料ステージ30側を撮像することができる。 The third imaging device 75 is fixed to the base 1 via the fixture 4 . The fixture 4 can move in the X-axis direction and the Y-axis direction, and can extend in the Z-axis direction. Thereby, the third imaging device 75 can image the sample stage 30 side from an obliquely upward direction of the sample stage 30 that intersects with the X-axis direction, the Y-axis direction, and the Z-axis direction.

図3に示す入力部58は、キーボードやタッチパネル等である。ジョイスティック57及び入力部58は、コントローラ50に接続されている。オペレータは、ジョイスティック57及び入力部58を介して、コントローラ50にコマンドを入力することができる。 The input unit 58 shown in FIG. 3 is a keyboard, a touch panel, or the like. The joystick 57 and input section 58 are connected to the controller 50 . An operator can input commands to the controller 50 via the joystick 57 and the input unit 58 .

次に、コントローラ50の機能について、図4を参照して説明する。図4は、第1実施形態に係るマニピュレーションシステムの構成例を示すブロック図である。コントローラ50は、演算手段としてのCPU(中央演算処理装置)及び記憶手段としてのハードディスク、RAM(Random Access Memory)、ROM(Read Only Memory)等のハードウェア資源を備える。 Next, functions of the controller 50 will be described with reference to FIG. FIG. 4 is a block diagram showing a configuration example of the manipulation system according to the first embodiment. The controller 50 includes hardware resources such as a CPU (Central Processing Unit) as computing means, a hard disk as storage means, a RAM (Random Access Memory), and a ROM (Read Only Memory).

図4に示すように、コントローラ50は、その機能として、画像入力部51a、画像出力部51b、画像処理部52、検出部53、画像編集部54、制御部55及び記憶部56を有する。画像入力部51a、画像出力部51b、画像処理部52、検出部53、画像編集部54及び制御部55は、上記の演算手段により実現される。記憶部56は、上記の記憶手段により実現される。コントローラ50は、記憶部56に格納されたプログラムに基づいて各種の演算を行い、演算結果にしたがって制御部55が各種の制御を行うように駆動信号を出力する。 As shown in FIG. 4, the controller 50 has an image input section 51a, an image output section 51b, an image processing section 52, a detection section 53, an image editing section 54, a control section 55 and a storage section 56 as its functions. The image input unit 51a, the image output unit 51b, the image processing unit 52, the detection unit 53, the image editing unit 54, and the control unit 55 are implemented by the above computing means. The storage unit 56 is implemented by the storage means described above. The controller 50 performs various calculations based on the programs stored in the storage unit 56, and outputs drive signals so that the control unit 55 performs various controls according to the calculation results.

制御部55は、第1顕微鏡ユニット40の駆動装置414と、マニピュレータ20の駆動装置26、27及び電動マイクロポンプ29と、試料ステージ30の駆動装置36と、第2顕微鏡ユニット60の駆動装置613とを制御する。制御部55は、駆動装置414、26、27、36、613に駆動信号Vz1、Vxy2、Vz2、Vxy3、Vy4(図3参照)をそれぞれ供給する。また、制御部55は、電動マイクロポンプ29に駆動信号Vmp(図3参照)を供給する。なお、制御部55は、必要に応じて設けられたドライバやアンプ等を介して、駆動信号Vz1、Vxy2、Vz2、Vxy3、Vy4、Vmpをそれぞれ供給してもよい。 The control unit 55 controls the driving device 414 of the first microscope unit 40, the driving devices 26 and 27 and the electric micropump 29 of the manipulator 20, the driving device 36 of the sample stage 30, and the driving device 613 of the second microscope unit 60. to control. The controller 55 supplies drive signals Vz1, Vxy2, Vz2, Vxy3 and Vy4 (see FIG. 3) to the drive devices 414, 26, 27, 36 and 613, respectively. The control unit 55 also supplies the electric micropump 29 with a drive signal Vmp (see FIG. 3). Note that the control unit 55 may supply the drive signals Vz1, Vxy2, Vz2, Vxy3, Vy4, and Vmp through drivers, amplifiers, and the like provided as necessary.

第1撮像装置45から出力される第1画像信号Vpix1(図3参照)と、第2撮像装置65から出力される第2画像信号Vpix2(図3参照)と、第3撮像装置75から出力される第3画像信号Vpix3(図3参照)は、画像入力部51aにそれぞれ入力される。画像処理部52は、画像入力部51aから第1画像信号Vpix1、第2画像信号Vpix2、第3画像信号Vpix3を受け取って、画像処理を行う。画像出力部51bは、画像処理部52で画像処理された画像情報を記憶部56及び表示部80へ出力する。 The first image signal Vpix1 (see FIG. 3) output from the first imaging device 45, the second image signal Vpix2 (see FIG. 3) output from the second imaging device 65, and the output from the third imaging device 75 The third image signal Vpix3 (see FIG. 3) is input to the image input unit 51a. The image processing unit 52 receives the first image signal Vpix1, the second image signal Vpix2, and the third image signal Vpix3 from the image input unit 51a and performs image processing. The image output unit 51 b outputs the image information image-processed by the image processing unit 52 to the storage unit 56 and the display unit 80 .

例えば、第1画像信号Vpix1には、第1顕微鏡41を通して第1撮像装置45が撮像した第1画像811(図7参照)と、その撮像時刻とが含まれている。第1画像811は動画である。同様に、第2画像信号Vpix2には、第2顕微鏡61を通して第2撮像装置65が撮像した第2画像812(図7参照)と、その撮像時刻とが含まれている。第2画像812も動画である。第3画像信号Vpix3には、第3撮像装置75が撮像した第3画像813(図7参照)と、その撮像時刻とが含まれている。第3画像813も動画である。 For example, the first image signal Vpix1 includes a first image 811 (see FIG. 7) captured by the first imaging device 45 through the first microscope 41 and its imaging time. The first image 811 is a moving image. Similarly, the second image signal Vpix2 includes a second image 812 (see FIG. 7) captured by the second imaging device 65 through the second microscope 61 and its imaging time. The second image 812 is also a moving image. The third image signal Vpix3 includes the third image 813 (see FIG. 7) imaged by the third imaging device 75 and its imaging time. The third image 813 is also a moving image.

また、第1画像811、第2画像812及び第3画像813は、それぞれカラー画像又はグレー画像である。グレー画像は、白色及び黒色と、白色と黒色の中間色である灰色を含む画像である。グレー画像は、灰色に複数の階調を有する。階調とは、色や明るさの濃淡の段階数のことである。 Also, the first image 811, the second image 812, and the third image 813 are color images or gray images, respectively. A gray image is an image containing white, black, and gray that is an intermediate color between white and black. A gray image has multiple shades of gray. Gradation is the number of steps of color and brightness.

画像処理部52は、細胞の検出を容易にするために、第1画像811又は第2画像812の少なくとも一方について、画像の拡大や2値化等の画像処理をする。画像の2値化とは、カラー画像又はグレー画像(以下、元画像)を、濃淡がなく、白色と黒色としかない2値画像(binary image)に変換することである。画像処理部52は、第1画像811又は第2画像812の少なくとも一方について、元画像を拡大した拡大画像や、元画像を2値化した2値画像を作成する。また、画像処理部52は、元画像を拡大し、2値化した拡大2値画像を作成してもよい。画像処理部52は、拡大画像、2値画像、拡大2値画像の少なくとも1種類以上を画像情報として、検出部53と画像編集部54とに出力する。 The image processing unit 52 performs image processing such as image enlargement and binarization on at least one of the first image 811 and the second image 812 in order to facilitate cell detection. Binarization of an image means converting a color image or a gray image (hereinafter referred to as an original image) into a binary image having only white and black without shading. For at least one of the first image 811 and the second image 812, the image processing unit 52 creates an enlarged image obtained by enlarging the original image or a binary image obtained by binarizing the original image. Further, the image processing unit 52 may enlarge the original image and create an enlarged binary image by binarizing the original image. The image processing unit 52 outputs at least one of an enlarged image, a binary image, and an enlarged binary image to the detection unit 53 and the image editing unit 54 as image information.

検出部53は、画像処理部52から画像情報を受け取り、受け取った画像情報に基づいて、細胞の位置や個数を自動で検出する。そして、検出部53は検出結果を画像編集部54及び制御部55に出力する。なお、本開示において「自動」とは、装置が作業者の判断を介さずに動作することを意味する。 The detection unit 53 receives image information from the image processing unit 52 and automatically detects the position and number of cells based on the received image information. The detection unit 53 then outputs the detection result to the image editing unit 54 and the control unit 55 . In the present disclosure, "automatic" means that the device operates without operator's judgment.

図5は、検出部の構成例を示すブロック図である。図5に示すように、検出部53は、その機能として、位置検出部531と、距離検出部532と、個数検出部533と、輝度検出部534と、しきい値設定部535とを有する。位置検出部531は、画像処理部52によって画像処理された第1画像811又は第2画像812に基づいて、細胞ce(図7参照)の位置を自動で検出する。また、位置検出部531は、画像処理部52によって画像処理された第1画像811又は第2画像812に基づいて、採取用ピペット10の先端部103の位置を検出する。 FIG. 5 is a block diagram showing a configuration example of a detection unit. As shown in FIG. 5, the detection unit 53 has, as its functions, a position detection unit 531, a distance detection unit 532, a number detection unit 533, a luminance detection unit 534, and a threshold value setting unit 535. The position detection unit 531 automatically detects the positions of the cells ce (see FIG. 7) based on the first image 811 or the second image 812 image-processed by the image processing unit 52 . Further, the position detection section 531 detects the position of the tip portion 103 of the sampling pipette 10 based on the first image 811 or the second image 812 image-processed by the image processing section 52 .

距離検出部532は、位置検出部531によって検出された細胞ceと先端部103の開口部103a(後述の図9参照)との離隔距離を自動で検出する。個数検出部533は、画像処理部52によって画像処理された第1画像811又は第2画像812に基づいて、細胞ceの個数を自動で検出する。画像処理部52によって画像処理された画像として、例えば、拡大画像、2値画像及び拡大2値画像の少なくとも1種類以上が挙げられる。位置検出部531、距離検出部532及び個数検出部533の各検出結果は、画像編集部54及び制御部55にそれぞれ出力される。 The distance detection unit 532 automatically detects the separation distance between the cell ce detected by the position detection unit 531 and the opening 103a of the tip 103 (see FIG. 9 described later). The number detection unit 533 automatically detects the number of cells ce based on the first image 811 or the second image 812 image-processed by the image processing unit 52 . Examples of images that have undergone image processing by the image processing unit 52 include at least one or more of an enlarged image, a binary image, and an enlarged binary image. The detection results of the position detection unit 531, the distance detection unit 532, and the number detection unit 533 are output to the image editing unit 54 and the control unit 55, respectively.

輝度検出部534は、画像処理部52によって画像処理された第1画像811に基づいて、第1画像811の輝度L-BGを検出する。輝度L-BGは、第1画像811全体における輝度の平均値である。しきい値設定部535は、輝度検出部534によって検出された輝度L-BGに基づいて、第1しきい値L-TH1及び第2しきい値L-TH2を設定する。第1しきい値L-TH1及び第2しきい値L-TH2は、画像処理部52が2値画像(第1バイナリ画像811A(図14参照)及び第2バイナリ画像811B(図15参照))を作成する際の輝度の基準値である。輝度L-BG、第1しきい値L-TH1及び第2しきい値L-TH2は、例えば、大津の二値化処理によって自動で設定される。 The luminance detection unit 534 detects the luminance L-BG of the first image 811 based on the first image 811 image-processed by the image processing unit 52 . Luminance L-BG is the average value of luminance in the entire first image 811 . The threshold value setting unit 535 sets the first threshold value L-TH1 and the second threshold value L-TH2 based on the luminance L-BG detected by the luminance detection unit 534. FIG. The first threshold value L-TH1 and the second threshold value L-TH2 are obtained by the image processing unit 52 from binary images (first binary image 811A (see FIG. 14) and second binary image 811B (see FIG. 15)). This is the reference value of luminance when creating The luminance L-BG, the first threshold L-TH1 and the second threshold L-TH2 are automatically set by Otsu's binarization process, for example.

画像編集部54は、第1画像信号Vpix1、第2画像信号Vpix2、第3画像信号Vpix3を、撮像時刻に基づいて互いに関連付けして、編集画像信号Vpix4を作成する。編集画像信号Vpix4には、編集画像が含まれている。編集画像は、互いに同じ時刻に撮像された第1画像811、第2画像812及び第3画像813を並べて表示する動画である。編集画像において、第1画像811、第2画像812及び第3画像813はそれぞれ、元画像でもよいし、元画像を画像処理した拡大画像、2値画像又は拡大2値画像であってもよい。画像出力部51bは、第1画像信号Vpix1、第2画像信号Vpix2、第3画像信号Vpix3及び編集画像信号Vpix4を記憶部56に出力する。 The image editing unit 54 associates the first image signal Vpix1, the second image signal Vpix2, and the third image signal Vpix3 with each other based on the imaging time to create an edited image signal Vpix4. The edited image signal Vpix4 contains an edited image. An edited image is a moving image in which a first image 811, a second image 812, and a third image 813 captured at the same time are displayed side by side. In the edited image, each of the first image 811, the second image 812, and the third image 813 may be the original image, or may be an enlarged image obtained by performing image processing on the original image, a binary image, or an enlarged binary image. The image output unit 51b outputs the first image signal Vpix1, the second image signal Vpix2, the third image signal Vpix3, and the edited image signal Vpix4 to the storage unit 56. FIG.

また、画像編集部54は、検出部53から細胞ceの検出結果を受信する。検出部53が細胞の位置を検出した場合、画像編集部54は、その検出結果を編集画像に反映させてもよい。例えば、画像編集部54は、画像処理部52から受け取った拡大画像、2値画像又は拡大2値画像において、検出部53が検出した細胞ceの位置を矢印で自動で示したり、検出部53が検出した細胞の位置を枠線で自動で囲んだりしてもよい。 The image editing unit 54 also receives the detection result of the cells ce from the detecting unit 53 . When the detection unit 53 detects the position of the cell, the image editing unit 54 may reflect the detection result in the edited image. For example, the image editing unit 54 automatically indicates with an arrow the position of the cell ce detected by the detecting unit 53 in the enlarged image, the binary image, or the enlarged binary image received from the image processing unit 52. The position of the detected cell may be automatically surrounded by a frame line.

図6は、記憶部の構成例を示すブロック図である。図6に示すように、記憶部56は、その機能として、マニピュレーションシステム100を動作させるためのプログラムを記憶したプログラム記憶部56aと、画像信号を記憶する画像記憶部56bとを有する。画像記憶部56bは、第1画像信号Vpix1を記憶する第1画像記憶部561と、第2画像信号Vpix2を記憶する第2画像記憶部562と、第3画像信号Vpix3を記憶する第3画像記憶部563と、編集画像信号Vpix4を記憶する編集画像記憶部564と、基準バイナリ画像ce-r(図23参照)を記憶する基準画像記憶部565と、を有する。第1画像記憶部561は、画像処理部52が作成した、拡大画像、2値画像、拡大2値画像の少なくとも1種類以上を一時的に記憶してもよい。 FIG. 6 is a block diagram illustrating a configuration example of a storage unit; As shown in FIG. 6, the storage unit 56 has, as its functions, a program storage unit 56a storing a program for operating the manipulation system 100 and an image storage unit 56b storing image signals. The image storage unit 56b includes a first image storage unit 561 that stores the first image signal Vpix1, a second image storage unit 562 that stores the second image signal Vpix2, and a third image storage unit that stores the third image signal Vpix3. 563, an edited image storage unit 564 for storing the edited image signal Vpix4, and a reference image storage unit 565 for storing the reference binary image cer (see FIG. 23). The first image storage unit 561 may temporarily store at least one or more of the enlarged image, the binary image, and the enlarged binary image created by the image processing unit 52 .

画像出力部51bは、第1画像信号Vpix1、第2画像信号Vpix2、第3画像信号Vpix3及び編集画像信号Vpix4のうち、少なくとも1つ以上の画像信号を表示部80に出力する。 The image output unit 51b outputs at least one or more image signals to the display unit 80 among the first image signal Vpix1, the second image signal Vpix2, the third image signal Vpix3, and the edited image signal Vpix4.

表示部80は、例えば液晶パネル等である。表示部80は、コントローラ50に接続されている。表示部80は、種々の文字情報や画像等を画面に表示する。図7は、表示部の画面の一例を示す図である。図7は、表示部80の画面81に編集画像が表示されている場合を例示している。編集画像では、互いに同じタイミングで撮像された第1画像811、第2画像812、第3画像813が並んで配置されている。表示部80は、編集画像をリアルタイム又はほぼリアルタイムで表示してもよいし、編集画像記憶部564に記憶されている編集画像を読み出して再生表示してもよい。 The display unit 80 is, for example, a liquid crystal panel or the like. The display unit 80 is connected to the controller 50 . The display unit 80 displays various character information, images, etc. on the screen. FIG. 7 is a diagram illustrating an example of a screen of a display unit; FIG. 7 illustrates a case where an edited image is displayed on the screen 81 of the display section 80. As shown in FIG. In the edited image, a first image 811, a second image 812, and a third image 813 captured at the same timing are arranged side by side. The display unit 80 may display the edited image in real time or substantially in real time, or may read out and display the edited image stored in the edited image storage unit 564 .

オペレータがジョイスティック57又は入力部58を操作することによって、画面81に表示される画像を切り替えることが可能である。また、オペレータがジョイスティック57又は入力部58を操作することによって、画面81に表示される編集画像(動画)を一時停止させることが可能である。また、プログラム記憶部56a(図6参照)が記憶しているプログラムに基づいて、制御部55(図4参照)が所定の画像を画面81に自動で表示させたり、画面81に表示される画像を自動で切り替えたりしてもよい。 The operator can switch images displayed on the screen 81 by operating the joystick 57 or the input unit 58 . Further, the operator can temporarily stop the edited image (moving image) displayed on the screen 81 by operating the joystick 57 or the input unit 58 . Further, based on the program stored in the program storage unit 56a (see FIG. 6), the control unit 55 (see FIG. 4) automatically displays a predetermined image on the screen 81, or displays an image displayed on the screen 81. may be switched automatically.

また、画面81に表示される画像は、編集画像に限定されることはなく、第1画像811、第2画像812又は第3画像813のみでもよい。また、画面に表示される画像は、元画像に限定されることはなく、画像処理部52によって画像処理された画像(例えば、拡大画像、2値画像及び拡大2値画像の少なくとも1種以上)であってもよい。例えば、画面81に表示される画像は、図11に示すグレースケール画像811Gや、図14から図19に示す第1バイナリ画像811A及び第2バイナリ画像811Bや、図20に示す第3バイナリ画像811C等であってもよい。 Also, the image displayed on the screen 81 is not limited to the edited image, and may be the first image 811, the second image 812, or the third image 813 only. Also, the image displayed on the screen is not limited to the original image, and is an image processed by the image processing unit 52 (for example, at least one of an enlarged image, a binary image, and an enlarged binary image). may be For example, the images displayed on the screen 81 include a grayscale image 811G shown in FIG. 11, a first binary image 811A and a second binary image 811B shown in FIGS. 14 to 19, and a third binary image 811C shown in FIG. etc.

図8は、実施形態1に係る採取用ピペットの構成例を示す側面図である。図8に示すように、採取用ピペット10は、2段に屈曲した形状のガラス針である。具体的には、採取用ピペット10は、平面視で、管状の中央部101と、中央部101の一端に接続する管状の後方部102と、中央部101の他端に接続する管状の先端部103と、を有する。後方部102は、ピペット保持部15によって保持される側の部位である。先端部103は、細胞等の微小対象物を採取する側の部位である。 8 is a side view showing a configuration example of the sampling pipette according to Embodiment 1. FIG. As shown in FIG. 8, the sampling pipette 10 is a glass needle bent in two stages. Specifically, the sampling pipette 10 includes, in plan view, a tubular central portion 101, a tubular rear portion 102 connected to one end of the central portion 101, and a tubular tip portion connected to the other end of the central portion 101. 103 and . The rear portion 102 is a portion held by the pipette holding portion 15 . The distal end portion 103 is a portion on the side for collecting minute objects such as cells.

中央部101と後方部102との間には第1屈曲部104が存在する。中央部101と先端部103との間には第2屈曲部105が存在する。中央部101の長手方向と後方部102の長手方向は互いに交差している。中央部101の長手方向と先端部103の長手方向も互いに交差している。後方部102の長手方向と先端部103の長手方向は互いに平行又はほぼ平行である。例えば、中央部101の長手方向と後方部102の長手方向とが成す鈍角の角度(以下、第1屈曲部104の屈曲角度)をθ1とする。中央部101の長手方向と先端部103の長手方向とが成す鈍角の角度(以下、第2屈曲部105の屈曲角度)をθ2とする。第1屈曲部104の屈曲角度θ1と第2屈曲部105の屈曲角度θ2との差の絶対値|θ1-θ2|は、0°以上5°未満である。 A first bent portion 104 exists between the central portion 101 and the rear portion 102 . A second bent portion 105 exists between the central portion 101 and the tip portion 103 . The longitudinal direction of the central portion 101 and the longitudinal direction of the rear portion 102 intersect each other. The longitudinal direction of the central portion 101 and the longitudinal direction of the tip portion 103 also intersect each other. The longitudinal direction of the rear portion 102 and the longitudinal direction of the tip portion 103 are parallel or substantially parallel to each other. For example, the obtuse angle formed by the longitudinal direction of the central portion 101 and the longitudinal direction of the rear portion 102 (hereinafter referred to as the bending angle of the first bending portion 104) is θ1. An obtuse angle formed by the longitudinal direction of the central portion 101 and the longitudinal direction of the tip portion 103 (hereinafter referred to as the bending angle of the second bent portion 105) is θ2. The absolute value |θ1−θ2| of the difference between the bending angle θ1 of the first bending portion 104 and the bending angle θ2 of the second bending portion 105 is 0° or more and less than 5°.

また、中央部101の長手方向の長さをL1とし、後方部102の長手方向の長さをL2とし、先端部103の長手方向の長さをL3としたとき、L3<L1、かつ、L3<L2である。これによれば、採取用ピペット10の先端部である先端部103を容器38内に配置することが容易である。 Further, when the longitudinal length of the central portion 101 is L1, the longitudinal length of the rear portion 102 is L2, and the longitudinal length of the tip portion 103 is L3, then L3<L1 and L3. <L2. According to this, it is easy to dispose the tip portion 103 which is the tip portion of the sampling pipette 10 in the container 38 .

中央部101を、中央部101の長手方向と直交する平面で切断した形状は円形である。同様に、後方部102を、後方部102の長手方向と直交する平面で切断した形状は円形である。先端部103を、先端部103の長手方向と直交する平面で切断した形状は円形である。後方部102の外径をφ21とし、先端部103の外径をφ31としたとき、φ21>φ31である。また、中央部101の外径φ11は、第1屈曲部104の側から第2屈曲部105の側に向かって小さくなっている。 The shape obtained by cutting the central portion 101 along a plane orthogonal to the longitudinal direction of the central portion 101 is circular. Similarly, the shape obtained by cutting the rear portion 102 along a plane orthogonal to the longitudinal direction of the rear portion 102 is circular. The tip portion 103 is cut in a plane perpendicular to the longitudinal direction of the tip portion 103 and has a circular shape. When the outer diameter of the rear portion 102 is φ21 and the outer diameter of the tip portion 103 is φ31, φ21>φ31. Also, the outer diameter φ11 of the central portion 101 decreases from the first bent portion 104 side toward the second bent portion 105 side.

例えば、中央部101は、第1屈曲部104と第2屈曲部105との間に、外径が大きく変化する狭窄部106を有する。中央部101において、狭窄部106と第1屈曲部104との間に位置する第1部位101aよりも、狭窄部106と第2屈曲部105との間に位置する第2部位101bの方が、外径φ11が小さい。また、第2部位101bの長手方向の長さL1’は、先端部103の長手方向の長さL3よりも長い。 For example, the central portion 101 has a constriction 106 between the first bend 104 and the second bend 105 that has a large change in outer diameter. In the central portion 101, the second portion 101b located between the constricted portion 106 and the second bent portion 105 is more flexible than the first portion 101a located between the constricted portion 106 and the first bent portion 104. Outer diameter φ11 is small. In addition, the longitudinal length L1' of the second portion 101b is longer than the longitudinal length L3 of the distal end portion 103. As shown in FIG.

図9は、第1実施形態に係る採取用ピペットの先端部を拡大して示す図である。図9に示すように、先端部103の先端には開口部103aが設けられている。開口部103aと第2屈曲部105との間で、先端部103の内径φ32の大きさはほぼ一定である。採取用ピペット10の採取対象である細胞ceの直径をφceとしたとき、φ32はφceよりも数μm程度大きいことが好ましい。これにより、採取用ピペット10は、細胞ceを先端部103の内側に導入することができる。 FIG. 9 is an enlarged view of the tip of the sampling pipette according to the first embodiment. As shown in FIG. 9, the distal end of the distal end portion 103 is provided with an opening 103a. Between the opening 103a and the second bent portion 105, the size of the inner diameter φ32 of the tip portion 103 is substantially constant. Assuming that the diameter of the cell ce to be collected by the collecting pipette 10 is φce, φ32 is preferably larger than φce by several μm. This allows the collection pipette 10 to introduce the cells ce inside the tip portion 103 .

次に、マニピュレーションシステム100の細胞ceの検出動作について説明する。図10は、第1実施形態に係るマニピュレーションシステムの細胞検出シーケンスの一例を示すフローチャートである。 Next, the detection operation of the cell ce of the manipulation system 100 will be described. 10 is a flowchart showing an example of a cell detection sequence of the manipulation system according to the first embodiment; FIG.

図10に示す動作シーケンスでは、容器38は液体39と複数個の細胞ceとを収容している(図7参照)。図10に示すように、マニピュレーションシステム100は、第1顕微鏡41の焦点を採取用ピペット10の先端部103にそれぞれ自動で合わせる(ステップST11)。例えば、オペレータはジョイスティック57又は入力部58(図3参照)を操作して、コントローラ50(図3参照)に細胞ceの自動検出を実行するように指示する。 In the operation sequence shown in FIG. 10, container 38 contains liquid 39 and a plurality of cells ce (see FIG. 7). As shown in FIG. 10, the manipulation system 100 automatically focuses the first microscope 41 on the tip 103 of the sampling pipette 10 (step ST11). For example, the operator operates the joystick 57 or the input unit 58 (see FIG. 3) to instruct the controller 50 (see FIG. 3) to automatically detect cells ce.

この指示を受けて、コントローラ50の制御部55(図3参照)は、駆動装置414に駆動信号Vz1(図3参照)を出力して、対物レンズ412をZ軸方向に動かす。これにより、第1顕微鏡ユニット40は、第1顕微鏡41の焦点を採取用ピペット10の先端部103に合わせる。 Upon receiving this instruction, the control unit 55 (see FIG. 3) of the controller 50 outputs a drive signal Vz1 (see FIG. 3) to the drive device 414 to move the objective lens 412 in the Z-axis direction. Thereby, the first microscope unit 40 focuses the first microscope 41 on the tip 103 of the sampling pipette 10 .

次に、マニピュレーションシステム100は、第1顕微鏡41の焦点を、容器38に収容されている細胞ceに自動で合わせる。例えば、マニピュレーションシステム100は、第1顕微鏡ユニット40を容器38の底面に向けて下降させ、第1顕微鏡41の焦点を複数の細胞ceに自動で合わせる。上述したように、第1顕微鏡ユニット40と、採取用ピペット10を保持するピペット保持部15とは、連結部28、71を介して互いに固定されている。このため、採取用ピペット10も、第1顕微鏡ユニット40と一体となって容器38の底面に向けて下降する。 Next, the manipulation system 100 automatically focuses the first microscope 41 on the cell ce housed in the container 38 . For example, the manipulation system 100 lowers the first microscope unit 40 toward the bottom surface of the container 38 and automatically focuses the first microscope 41 on the plurality of cells ce. As described above, the first microscope unit 40 and the pipette holder 15 that holds the sampling pipette 10 are fixed to each other via the joints 28 and 71 . Therefore, the sampling pipette 10 also descends toward the bottom surface of the container 38 integrally with the first microscope unit 40 .

次に、第1撮像装置45は、第1顕微鏡41を介して第1画像811を撮像する。画像処理部52は、第1画像811の情報である第1画像信号Vpix1を受け取って、第1画像811から輝度のパラメータのみを抽出した画像(グレースケール画像811G)に変換する(ステップST12)。これにより、画像処理部52が行う画像処理の負荷を抑制することができ、2値化処理や拡大処理等を良好に行うことができる。 Next, the first imaging device 45 captures the first image 811 through the first microscope 41 . The image processing unit 52 receives the first image signal Vpix1, which is the information of the first image 811, and converts the first image 811 into an image (grayscale image 811G) in which only luminance parameters are extracted (step ST12). As a result, the load of image processing performed by the image processing unit 52 can be suppressed, and binarization processing, enlargement processing, and the like can be performed satisfactorily.

図11は、第1画像を輝度のみで表示したグレースケール画像の一例を示す模式図である。図11に示すように、第1顕微鏡41の焦点が細胞ceに合うとき、採取用ピペット10の先端部103は容器38の内部に位置する。グレースケール画像811Gには、多数の細胞ceと、採取用ピペット10の先端部103が撮像されている。 FIG. 11 is a schematic diagram showing an example of a grayscale image in which the first image is displayed only with luminance. As shown in FIG. 11, when the first microscope 41 is focused on the cell ce, the tip 103 of the collecting pipette 10 is positioned inside the container 38 . A large number of cells ce and the tip 103 of the collection pipette 10 are imaged in the grayscale image 811G.

次に、輝度検出部534及びしきい値設定部535(図5参照)は、輝度の第1しきい値L-TH1及び第2しきい値L-TH2を設定する(ステップST13)。 Next, the luminance detection section 534 and the threshold setting section 535 (see FIG. 5) set the first threshold L-TH1 and the second threshold L-TH2 of luminance (step ST13).

輝度検出部534は、グレースケール画像811G全体の輝度L-BGを検出する。輝度L-BGは、グレースケール画像811G全体の輝度の平均値である。輝度L-BGは、例えば、大津の二値化処理によって自動的に設定される。しきい値設定部535は、輝度検出部534が検出した背景の輝度L-BGの情報を受け取って、第1しきい値L-TH1及び第2しきい値L-TH2を設定する。 The luminance detection unit 534 detects the luminance L-BG of the entire grayscale image 811G. The luminance L-BG is the average luminance of the entire grayscale image 811G. The luminance L-BG is automatically set by Otsu's binarization process, for example. The threshold value setting unit 535 receives the information of the background luminance L-BG detected by the luminance detection unit 534 and sets the first threshold value L-TH1 and the second threshold value L-TH2.

図12は、図11に示す領域A1の細胞を拡大して示す模式図である。図12に示すように、第1顕微鏡41で観察される細胞ceには、光源から照射される光の状態に応じて影が生じる。このため、1つの細胞ceは、明部ce-aと暗部ce-bとを有する。 FIG. 12 is a schematic diagram showing enlarged cells in region A1 shown in FIG. As shown in FIG. 12, the cells ce observed with the first microscope 41 are shaded according to the state of the light emitted from the light source. Therefore, one cell ce has a bright portion ce-a and a dark portion ce-b.

図13は、細胞及び背景の輝度の分布を模式的に示すグラフである。図13は、図12に示すXIII-XIII’に沿った輝度の分布を模式的に示している。図13に示すように、明部ce-aは背景の輝度L-BGよりも大きい輝度を有する。また、暗部ce-bは背景の輝度L-BGよりも小さい輝度を有する。 FIG. 13 is a graph schematically showing luminance distributions of cells and background. FIG. 13 schematically shows the luminance distribution along XIII-XIII' shown in FIG. As shown in FIG. 13, the bright portion ce-a has a luminance higher than the background luminance L-BG. Also, the dark portion ce-b has a luminance lower than the background luminance L-BG.

しきい値設定部535は、背景の輝度L-BGに基づいて、輝度L-BGよりも大きい輝度を示す第1しきい値L-TH1と、輝度L-BGよりも小さい輝度を示す第2しきい値L-TH2とを設定する。すなわち、第2しきい値L-TH2は、第1しきい値L-TH1よりも小さい輝度を示す。第1しきい値L-TH1及び第2しきい値L-TH2は、例えば大津の二値化処理によって自動的に設定される。 Based on the luminance L-BG of the background, the threshold setting unit 535 sets a first threshold L-TH1 indicating luminance higher than the luminance L-BG and a second threshold L-TH1 indicating luminance lower than the luminance L-BG. A threshold value L-TH2 is set. That is, the second threshold L-TH2 indicates a luminance lower than the first threshold L-TH1. The first threshold L-TH1 and the second threshold L-TH2 are automatically set by Otsu's binarization process, for example.

このように、異なる輝度を示す第1しきい値L-TH1及び第2しきい値L-TH2を自動的に設定することにより、第1顕微鏡41の視野における輝度が、測定環境等により変化した場合でも、マニピュレーションシステム100は、良好に明部ce-a及び暗部ce-bを検出することができる。すなわち、マニピュレーションシステム100は、環境の変化に対するロバスト性を向上させることができる。 Thus, by automatically setting the first threshold value L-TH1 and the second threshold value L-TH2 indicating different luminance, the luminance in the field of view of the first microscope 41 changes depending on the measurement environment and the like. Even in this case, the manipulation system 100 can successfully detect the bright portion ce-a and the dark portion ce-b. That is, the manipulation system 100 can improve robustness against environmental changes.

次に、画像処理部52は、第1しきい値L-TH1及び第2しきい値L-TH2の情報を受け取って、グレースケール画像811Gの画像処理を行う。具体的には、画像処理部52は、グレースケール画像811Gから第1しきい値L-TH1以上の輝度の部分を抽出して、第1バイナリ画像811Aを作成する(ステップST14)。図14は、第1バイナリ画像の一例を示す模式図である。図14に示すように、第1バイナリ画像811Aにおいて、細胞ceのうち、第1しきい値L-TH1以上の輝度を有する明部ce-aが白表示となり、第1しきい値L-TH1よりも小さい輝度を有する暗部ce-b及び背景が黒表示となる。 Next, the image processing unit 52 receives the information of the first threshold value L-TH1 and the second threshold value L-TH2 and performs image processing on the grayscale image 811G. Specifically, the image processing unit 52 extracts a portion of luminance equal to or higher than the first threshold value L-TH1 from the grayscale image 811G to create the first binary image 811A (step ST14). FIG. 14 is a schematic diagram showing an example of the first binary image. As shown in FIG. 14, in the first binary image 811A, among the cells ce, bright portions ce-a having luminance equal to or higher than the first threshold value L-TH1 are displayed in white. The dark portion ce-b and the background having a luminance smaller than ce-b are displayed in black.

同様に、画像処理部52は、グレースケール画像811Gから第2しきい値L-TH2以下の輝度の部分を抽出して、第2バイナリ画像811Bを作成する(ステップST15)。図15は、第2バイナリ画像の一例を示す模式図である。図15に示すように、第2バイナリ画像811Bにおいて、細胞ceのうち、第2しきい値L-TH2以下の輝度を有する暗部ce-bが白表示となり、第2しきい値L-TH2よりも大きい輝度を有する明部ce-a及び背景が黒表示となる。つまり、第2バイナリ画像811Bは、暗い部分が白表示となり明るい部分が黒表示となる、反転画像として作成される。なお、画像処理部52による第1バイナリ画像811A及び第2バイナリ画像811Bの作成順は、逆であってもよい。 Similarly, the image processing unit 52 extracts a portion of luminance equal to or lower than the second threshold value L-TH2 from the grayscale image 811G to create a second binary image 811B (step ST15). FIG. 15 is a schematic diagram showing an example of the second binary image. As shown in FIG. 15, in the second binary image 811B, of the cells ce, the dark portions ce-b having a luminance equal to or lower than the second threshold L-TH2 are displayed in white, and the luminance is lower than the second threshold L-TH2. The bright portion ce-a having the highest luminance and the background are displayed in black. That is, the second binary image 811B is created as an inverted image in which dark portions are displayed in white and bright portions are displayed in black. Note that the order in which the first binary image 811A and the second binary image 811B are created by the image processing unit 52 may be reversed.

次に、画像処理部52は、第1バイナリ画像811A及び第2バイナリ画像811Bから小さい明部ce-a及び暗部ce-bを除去する(ステップST16)。図16は、第1バイナリ画像において、小さい明部を除去した画像の一例を示す模式図である。画像処理部52は、複数の明部ce-aのうち所定の面積以下の明部ce-aを第1バイナリ画像811Aから除去する。図16に示す第1バイナリ画像811Aでは、図14に示す第1バイナリ画像811Aと比較して、例えば領域A3において複数の小さい明部ce-aが除去されている。 Next, the image processing unit 52 removes small bright portions ce-a and small dark portions ce-b from the first binary image 811A and the second binary image 811B (step ST16). FIG. 16 is a schematic diagram showing an example of an image from which a small bright portion is removed in the first binary image. The image processing unit 52 removes, from the first binary image 811A, the bright portions ce-a having a predetermined area or less among the plurality of bright portions ce-a. In the first binary image 811A shown in FIG. 16, compared with the first binary image 811A shown in FIG. 14, for example, a plurality of small bright portions ce-a are removed in the area A3.

図17は、第2バイナリ画像において、小さい暗部を除去した画像の一例を示す模式図である。画像処理部52は、複数の暗部ce-bのうち所定の面積以下の暗部ce-bを第2バイナリ画像811Bから除去する。図17に示す第2バイナリ画像811Bでは、図15に示す第2バイナリ画像811Bと比較して、例えば領域A4及び領域A5等において複数の小さい暗部ce-bが除去されている。ここで、複数の小さい明部ce-a及び複数の小さい暗部ce-bの除去は、公知の方法により処理される。 FIG. 17 is a schematic diagram showing an example of an image from which small dark portions are removed in the second binary image. The image processing unit 52 removes dark portions ce-b having a predetermined area or less among the plurality of dark portions ce-b from the second binary image 811B. In the second binary image 811B shown in FIG. 17, as compared with the second binary image 811B shown in FIG. 15, a plurality of small dark portions ce-b are removed in areas A4 and A5, for example. Here, the removal of the plurality of small bright portions ce-a and the plurality of small dark portions ce-b is processed by a known method.

このように、画像処理部52が、明らかに小さい明部ce-a及び暗部ce-bを除去することにより、マニピュレーションシステム100は、細胞ce以外の異物等を、採取対象として誤検出することを抑制することができる。 In this manner, the image processing unit 52 removes the clearly small bright portion ce-a and dark portion ce-b, thereby preventing the manipulation system 100 from erroneously detecting foreign matter other than the cell ce as an object to be collected. can be suppressed.

次に、画像処理部52は、第1バイナリ画像811A及び第2バイナリ画像811Bにおいて、各明部及び暗部を拡大する(ステップST17)。図18は、第1バイナリ画像において、明部を拡大した画像の一例を示す模式図である。図19は、第2バイナリ画像において、暗部を拡大した画像の一例を示す模式図である。図18及び図19に示すように、画像処理部52は、第1バイナリ画像811Aにおいて、複数の明部ce-aをそれぞれ拡大し、第2バイナリ画像811Bにおいて、複数の暗部ce-bをそれぞれ拡大する。 Next, the image processing unit 52 enlarges each bright portion and dark portion in the first binary image 811A and the second binary image 811B (step ST17). FIG. 18 is a schematic diagram showing an example of an image in which a bright portion is enlarged in the first binary image. FIG. 19 is a schematic diagram showing an example of an image obtained by enlarging a dark portion in the second binary image. As shown in FIGS. 18 and 19, the image processing unit 52 enlarges each of the plurality of bright portions ce-a in the first binary image 811A, and enlarges each of the plurality of dark portions ce-b in the second binary image 811B. Expanding.

拡大された明部ce-ae及び拡大された暗部ce-beは、それぞれ、拡大前の明部ce-a及び拡大前の暗部ce-bに対して、面積比で3倍以上4倍以下程度に拡大される。また、拡大された明部ce-ae及び拡大された暗部ce-beの重心位置は、それぞれ、拡大前の明部ce-a及び拡大前の暗部ce-bの重心位置と一致している。なお、拡大された明部ce-ae及び拡大された暗部ce-beの倍率は、採取対象の細胞ce-dの形状、大きさ、第1しきい値L-TH1、第2しきい値L-TH2あるいは観察環境に応じて適宜設定することができる。 The enlarged bright portion ce-ae and the enlarged dark portion ce-be have an area ratio of about 3 to 4 times the area ratio of the unenlarged bright portion ce-a and the unenlarged dark portion ce-b, respectively. is expanded to Also, the center positions of the enlarged bright portion ce-ae and the enlarged dark portion ce-be match the center positions of the unenlarged bright portion ce-a and the unenlarged dark portion ce-b, respectively. The magnification of the enlarged bright portion ce-ae and the enlarged dark portion ce-be is determined by the shape and size of the cells ce-d to be collected, the first threshold value L−TH1, and the second threshold value L -TH2 can be appropriately set according to the viewing environment.

次に、画像処理部52は、第1バイナリ画像811Aと第2バイナリ画像811Bとを重ね合わせて第3バイナリ画像811Cを作成する(ステップST18)。図20は、第3バイナリ画像の一例を示す模式図である。図20に示すように、第3バイナリ画像811Cにおいて、複数の検出部分ce-cが形成される。複数の検出部分ce-cは、それぞれ、明部ce-ae(図18参照)と暗部ce-be(図19参照)とが組み合わされることで、明部ce-aeの外縁の一部と暗部ce-beの外縁の一部とが重なりあって、1つの連続した白表示として形成される。 Next, the image processing unit 52 superimposes the first binary image 811A and the second binary image 811B to create a third binary image 811C (step ST18). FIG. 20 is a schematic diagram showing an example of the third binary image. As shown in FIG. 20, multiple detection portions ce-c are formed in the third binary image 811C. A plurality of detection portions ce-c are formed by combining bright portions ce-ae (see FIG. 18) and dark portions ce-be (see FIG. 19), respectively. Part of the outer edge of ce-be overlaps to form one continuous white display.

上述したステップST17において、画像処理部52が複数の明部ce-a及び複数の暗部ce-bをそれぞれ拡大する画像処理を行っている。このため、第3バイナリ画像811Cの各検出部分ce-cにおいて、拡大された明部ce-aeと拡大された暗部ce-beとの間に隙間sp(図26参照)が生じることを抑制することができる。したがって、位置検出部531は、1組の明部ce-aeと暗部ce-beとを1つの細胞ceとして検出することができる。また、明部ce-aeと暗部ce-beとの間に隙間sp(図26参照)がないので、位置検出部531は、後述するテンプレートマッチングや形状マッチングにおいて、検出精度を向上させることができる。 In step ST17 described above, the image processing section 52 performs image processing for enlarging the plurality of bright portions ce-a and the plurality of dark portions ce-b. Therefore, in each detection portion ce-c of the third binary image 811C, the occurrence of a gap sp (see FIG. 26) between the enlarged bright portion ce-ae and the enlarged dark portion ce-be is suppressed. be able to. Therefore, the position detection unit 531 can detect a pair of bright part ce-ae and dark part ce-be as one cell ce. In addition, since there is no gap sp (see FIG. 26) between the bright portion ce-ae and the dark portion ce-be, the position detection section 531 can improve detection accuracy in template matching and shape matching, which will be described later. .

次に、画像処理部52は、図20に示す第3バイナリ画像811Cの部分領域Bを切り取り、部分領域Bにおいてさらに検出部分ce-cを拡大する(ステップST19)。図21は、図20に示す第3バイナリ画像の部分領域において、検出部分をさらに拡大した画像の一例を示す模式図である。図20に示す部分領域Bは、先端部103の左側に位置する矩形状の領域である。言い換えると、部分領域Bは、第3バイナリ画像811Cのうち、先端部103の延在方向で、先端部103の端部103fと隣り合う領域である。 Next, the image processing section 52 cuts out the partial area B of the third binary image 811C shown in FIG. 20, and further enlarges the detection portion ce-c in the partial area B (step ST19). 21 is a schematic diagram showing an example of an image in which the detection portion is further enlarged in the partial area of the third binary image shown in FIG. 20. FIG. A partial area B shown in FIG. 20 is a rectangular area located on the left side of the tip portion 103 . In other words, the partial region B is a region adjacent to the end portion 103f of the tip portion 103 in the extending direction of the tip portion 103 in the third binary image 811C.

これによれば、画像処理部52は、第3バイナリ画像811Cのうち部分領域Bで画像処理を行うことで、画像処理の負荷を抑制することができ、また、位置検出部531によるテンプレートマッチングや形状マッチングの負荷を抑制することができる。 According to this, the image processing unit 52 can reduce the image processing load by performing image processing on the partial area B of the third binary image 811C, and the template matching by the position detection unit 531, The load of shape matching can be suppressed.

図21に示すように、画像処理部52が、検出部分ce-cをさらに拡大することで、近い位置に存在する複数の検出部分ce-cがつながり、1つの連続した検出部分グループce-xとなる。これにより、位置検出部531によるテンプレートマッチングや形状マッチングで、検出部分グループce-xを採取対象の細胞ce-dから除去することができる。これにより、マニピュレーションシステム100は、採取用ピペット10により細胞ceを採取する際に、近い位置に存在する複数の細胞ceを同時に採取することを抑制できる。 As shown in FIG. 21, the image processing unit 52 further enlarges the detected portion ce-c, so that a plurality of detected portions ce-c present at close positions are connected to form one continuous detected portion group ce-x. becomes. As a result, the detection portion group ce-x can be removed from the sampled cell ce-d by template matching or shape matching by the position detection unit 531 . As a result, the manipulation system 100 can suppress simultaneous collection of a plurality of cells ce present at close positions when collecting the cells ce with the collection pipette 10 .

図22は、図21に示す部分領域の画像において、部分領域の外周と接する検出部分を除去した画像の一例を示す模式図である。画像処理部52は、複数の検出部分ce-cのうち、部分領域Bの外周に接する検出部分ce-yを部分領域Bから除去する。検出部分ce-yは、部分領域Bの画像の外側の領域において、どのような形状、大きさとなっているか不明であり、また、他の検出部分ce-cとつながって検出部分グループce-xを構成しているかどうかも不明である。このため、マニピュレーションシステム100は、検出部分ce-yを部分領域Bから除去することで、細胞ceの検出精度を向上させることができる。 FIG. 22 is a schematic diagram showing an example of an image obtained by removing a detection portion in contact with the outer periphery of the partial area in the image of the partial area shown in FIG. 21 . The image processing unit 52 removes from the partial region B the detected portion ce-y that is in contact with the outer periphery of the partial region B, among the plurality of detected portions ce-c. The shape and size of the detected portion ce-y are unknown in the area outside the image of the partial region B, and are connected to other detected portions ce-c to form the detected portion group ce-x. It is also unclear whether it constitutes Therefore, the manipulation system 100 removes the detection portion ce-y from the partial region B, thereby improving the detection accuracy of the cell ce.

次に、位置検出部531は、図22に示す部分領域Bの画像情報を受け取って、検出部分ce-cの画像と基準バイナリ画像とを比較して細胞ceの位置を検出する(ステップST20)。図23は、細胞の基準バイナリ画像を示す模式図である。基準バイナリ画像ce-rは標準的な細胞ceについて、上述したステップST14からステップST19の画像処理を施した場合のバイナリ画像である。基準バイナリ画像ce-rは記憶部56の基準画像記憶部565にあらかじめ記憶される。また、記憶部56は、複数の基準バイナリ画像ce-rを保持していてもよい。 Next, the position detection section 531 receives the image information of the partial region B shown in FIG. 22, compares the image of the detection portion ce-c with the reference binary image, and detects the position of the cell ce (step ST20). . FIG. 23 is a schematic diagram showing a reference binary image of cells. The reference binary image ce-r is a binary image obtained by subjecting the standard cell ce to the above-described image processing from steps ST14 to ST19. The reference binary image ce-r is pre-stored in the reference image storage section 565 of the storage section 56 . Also, the storage unit 56 may hold a plurality of reference binary images cer.

位置検出部531は、例えばテンプレートマッチングや形状マッチングにより、部分領域Bの各検出部分ce-cと基準バイナリ画像ce-rとを比較する。そして、位置検出部531は、各検出部分ce-cと、基準バイナリ画像ce-rとの類似度を演算する。位置検出部531は、類似度が所定の基準値以上の検出部分ce-cの位置を検出し、この検出部分ce-cに対応する細胞ceを採取対象の細胞ce-dとして選択する。 The position detection unit 531 compares each detected portion ce-c of the partial area B with the reference binary image cer by template matching or shape matching, for example. Then, the position detection unit 531 calculates the degree of similarity between each detection portion ce-c and the reference binary image ce-r. The position detection unit 531 detects the position of the detection portion ce-c whose degree of similarity is equal to or greater than a predetermined reference value, and selects the cell ce corresponding to this detection portion ce-c as the cell ce-d to be collected.

また位置検出部531は、類似度が所定の基準値よりも小さい検出部分ce-cに対応する細胞ceを非採取対象の細胞ce-nとして選択する。例えば、一部に欠けや凹部を有する検出部分ce-cや、基準バイナリ画像ce-rと大きさが異なる検出部分ce-cや、検出部分グループce-x等は、類似度が所定の基準値よりも小さくなり、採取対象から除去される。 In addition, the position detection unit 531 selects the cell ce corresponding to the detection portion ce-c whose degree of similarity is smaller than a predetermined reference value as the non-collecting target cell ce-n. For example, a detected portion ce-c having a chipped portion or a concave portion, a detected portion ce-c having a size different from that of the reference binary image ce-r, a detected portion group ce-x, and the like are similar to a predetermined reference. It becomes smaller than the value and is removed from the collection target.

図24は、細胞の検出結果を表示する第1画像の一例を示す模式図である。図24に示す第1画像811において、画像編集部54は、画像処理部52から受け取った第1画像811と、検出部53から受け取った検出結果に基づいて、採取対象の細胞ce-dを枠で囲んで示している。また、画像編集部54は、非採取対象の細胞ce-nには枠を付けずに示している。 FIG. 24 is a schematic diagram showing an example of a first image displaying a cell detection result. In the first image 811 shown in FIG. 24, the image editing unit 54 frames the cell ce-d to be collected based on the first image 811 received from the image processing unit 52 and the detection result received from the detecting unit 53. It is shown enclosed in . In addition, the image editing unit 54 does not frame the cells ce-n that are not to be collected.

コントローラ50の制御部55は、位置検出部531から採取対象の細胞ce-dの位置情報を受け取って、採取用ピペット10や各駆動装置を駆動させることで、自動で1つずつ採取対象の細胞ce-dを採取することができる。また、上述した細胞検出シーケンスにしたがって、近い位置に配置された複数の細胞ceや、接触する複数の細胞ceや、形状等が異なる細胞ceは、採取対象の細胞ce-dから除去されている。このように、マニピュレーションシステム100は、細胞ceの検出精度を向上させることで、細胞ceを1個ずつ採取することが可能である。 The control unit 55 of the controller 50 receives the position information of the cells ce-d to be collected from the position detection unit 531, and drives the collection pipette 10 and each driving device to automatically detect the cells to be collected one by one. ce-d can be taken. In addition, according to the cell detection sequence described above, a plurality of cells ce arranged in close proximity, a plurality of cells ce in contact, and cells ce with different shapes, etc. are removed from the cells ce-d to be collected. . In this way, the manipulation system 100 can collect the cells ce one by one by improving the detection accuracy of the cells ce.

なお、図10及び図11から図24に示す検出動作は、適宜変更することができる。例えば、図10に示すステップST19及び図20から図22において、画像処理部52は、第3バイナリ画像811Cについて、部分領域Bを切り取らずに、第3バイナリ画像811Cの全体でステップST19及びステップST20の処理を実行してもよい。 Note that the detection operations shown in FIGS. 10 and 11 to 24 can be changed as appropriate. For example, in step ST19 and FIGS. 20 to 22 shown in FIG. 10, the image processing unit 52 does not cut the partial region B of the third binary image 811C, and performs step ST19 and step ST20 on the entire third binary image 811C. may be performed.

以上説明したように、第1実施形態に係るマニピュレーションシステム100は、採取用ピペット10(管状器具)を用いて細胞ce(微小対象物)を採取するマニピュレーションシステム100であって、採取用ピペット10と、マニピュレータ20と、試料ステージ30と、第1顕微鏡41と、第1撮像装置45と、コントローラ50と、を備える。マニピュレータ20は、採取用ピペット10が取り付けられる。試料ステージ30は、細胞ceを収容するための容器38が載置される。第1顕微鏡41は、試料ステージ30の上方に配置される。第1撮像装置45は、第1顕微鏡41を介して第1画像811を撮像する。コントローラ50は、画像処理部52と、位置検出部531とを有する。画像処理部52は、第1画像811に基づいて、第1しきい値L-TH1以上の輝度を有する複数の明部ce-aを表示する第1バイナリ画像811Aと、第2しきい値L-TH2以下の輝度を有する複数の暗部ce-bを表示する第2バイナリ画像811Bとを作成し、第1バイナリ画像811Aと第2バイナリ画像811Bとを重ね合わせて第3バイナリ画像811Cを作成する。位置検出部531は、第3バイナリ画像811Cにおいて、明部ce-aと暗部cebとが組み合わされた検出部分ce-cに基づいて細胞ceの位置を検出する。 As described above, the manipulation system 100 according to the first embodiment is a manipulation system 100 that collects cells ce (microscopic objects) using the collection pipette 10 (tubular instrument). , a manipulator 20 , a sample stage 30 , a first microscope 41 , a first imaging device 45 , and a controller 50 . A collection pipette 10 is attached to the manipulator 20 . A container 38 for containing cells ce is placed on the sample stage 30 . The first microscope 41 is arranged above the sample stage 30 . The first imaging device 45 captures the first image 811 through the first microscope 41 . The controller 50 has an image processing section 52 and a position detection section 531 . Based on the first image 811, the image processing unit 52 generates a first binary image 811A displaying a plurality of bright areas ce-a having luminance equal to or higher than the first threshold value L-TH1, and a second threshold value L - creating a second binary image 811B displaying a plurality of dark areas ce-b having a brightness of TH2 or less, and superimposing the first binary image 811A and the second binary image 811B to create a third binary image 811C; . The position detection unit 531 detects the position of the cell ce based on the detection portion ce-c, which is a combination of the bright portion ce-a and the dark portion ceb, in the third binary image 811C.

これによれば、マニピュレーションシステム100は、細胞ceの明部ce-a及び暗部ce-bを検出して、2つのバイナリ画像を組み合わせることで、明部ce-a及び暗部ce-bのいずれか一方のみで細胞ceを検出する場合に比べて、細胞ceの形状及び大きさを精度よく検出することができる。例えば、マニピュレーションシステム100は、隣接する2つの細胞ceを、離れた細胞ceであると誤検出することを抑制できる。また、マニピュレーションシステム100は、隣接する2つの細胞ceを、1つの細胞ceであると誤検出することを抑制できる。これにより、マニピュレーションシステム100は、隣接する2つの細胞ceを採取対象から除去することで、細胞ceを1個ずつ採取することができる。 According to this, the manipulation system 100 detects the bright part ce-a and the dark part ce-b of the cell ce, and combines the two binary images to determine which of the bright part ce-a and the dark part ce-b The shape and size of the cells ce can be detected with higher accuracy than when the cells ce are detected using only one of them. For example, the manipulation system 100 can suppress false detection of two adjacent cells ce as distant cells ce. Further, the manipulation system 100 can suppress erroneous detection of two adjacent cells ce as one cell ce. Thereby, the manipulation system 100 can collect cells ce one by one by removing two adjacent cells ce from the collection target.

また、コントローラ50は、細胞ceの基準バイナリ画像ce-rを記憶する記憶部56を有する。位置検出部531は、第3バイナリ画像811Cの検出部分ce-cと、基準バイナリ画像ce-rとを比較して、細胞ceを検出する。これによれば、マニピュレーションシステム100は、基準バイナリ画像ce-rとは異なる形状の細胞ceや、異なる大きさの細胞ceを、採取対象から除去することができる。 The controller 50 also has a storage unit 56 that stores the reference binary image ce-r of the cell ce. The position detector 531 compares the detected portion ce-c of the third binary image 811C with the reference binary image ce-r to detect the cell ce. According to this, the manipulation system 100 can remove cells ce with different shapes and sizes from the reference binary image ce-r from the object to be collected.

また、コントローラ50は、しきい値設定部535を有する。しきい値設定部535は、第1画像811の背景の輝度L-BGに基づいて、第1しきい値L-TH1と、第1しきい値L-TH1よりも小さい輝度を示す第2しきい値L-TH2とを設定する。これによれば、第1バイナリ画像811Aの明部ce-aと、第2バイナリ画像811Bの暗部ce-bとが、それぞれ異なるしきい値で検出される。このため、第1顕微鏡41の視野中の輝度が、測定環境等により変化した場合でも、マニピュレーションシステム100は、良好に明部ce-a及び暗部ce-bを検出することができる。すなわち、マニピュレーションシステム100は、環境の変化に対するロバスト性を向上させることができる。 The controller 50 also has a threshold setting section 535 . Threshold value setting unit 535 calculates a first threshold value L-TH1 and a second threshold value indicating a luminance lower than first threshold value L-TH1 based on luminance L-BG of the background of first image 811. Set a threshold L-TH2. According to this, the bright portion ce-a of the first binary image 811A and the dark portion ce-b of the second binary image 811B are detected with different threshold values. Therefore, even if the luminance in the field of view of the first microscope 41 changes due to the measurement environment or the like, the manipulation system 100 can satisfactorily detect the bright portion ce-a and the dark portion ce-b. That is, the manipulation system 100 can improve robustness against environmental changes.

また、画像処理部52は、第1画像811を輝度のみで表示したグレースケール画像811Gに変換し、グレースケール画像811Gに基づいて第1バイナリ画像811A及び第2バイナリ画像811Bを作成する。これによれば、カラー画像を用いる場合に比べて、画像処理部52が行う画像処理の負荷を抑制することができる。 Further, the image processing unit 52 converts the first image 811 into a grayscale image 811G that is displayed only in luminance, and creates a first binary image 811A and a second binary image 811B based on the grayscale image 811G. According to this, the load of the image processing performed by the image processing unit 52 can be suppressed as compared with the case of using a color image.

また、画像処理部52は、第1バイナリ画像811Aにおいて、複数の明部ce-aをそれぞれ拡大し、第2バイナリ画像811Bにおいて、複数の暗部ce-bをそれぞれ拡大する。これによれば、マニピュレーションシステム100は、第3バイナリ画像811Cにおいて明部ce-aと暗部ce-bとが組み合わされた場合に、明部ce-aと暗部ce-bとの間に隙間spが生じることを抑制することができる。したがって、位置検出部531は、1組の明部ce-aと暗部ce-bとを1つの細胞ce(検出部分ce-c)として検出することができる。 Further, the image processing unit 52 enlarges each of the plurality of bright portions ce-a in the first binary image 811A, and enlarges each of the plurality of dark portions ce-b in the second binary image 811B. According to this, when the light portion ce-a and the dark portion ce-b are combined in the third binary image 811C, the manipulation system 100 allows the gap sp can be suppressed. Therefore, the position detection section 531 can detect a pair of bright portion ce-a and dark portion ce-b as one cell ce (detection portion ce-c).

また、位置検出部531は、採取用ピペット10の端部103fの位置及び延在方向を検出し、画像処理部52は、第3バイナリ画像811Cのうち、採取用ピペット10の端部103fと隣り合う部分領域Bを切り取って、部分領域Bで画像処理を行う。これによれば、画像処理部52が行う画像処理や、位置検出部531が行うパターンマッチングの負荷を抑制することができる。 Further, the position detection unit 531 detects the position and extension direction of the end 103f of the sampling pipette 10, and the image processing unit 52 detects the position adjacent to the end 103f of the sampling pipette 10 in the third binary image 811C. The matching partial area B is cut out, and image processing is performed on the partial area B. According to this, the load of the image processing performed by the image processing unit 52 and the pattern matching performed by the position detection unit 531 can be suppressed.

(第2実施形態)
図25は、第2実施形態に係るマニピュレーションシステムの細胞検出シーケンスの一例を示すフローチャートである。図25に示すように、マニピュレーションシステム100において、コントローラ50が有する画像処理部52、位置検出部531、しきい値設定部535等は、第1実施形態と同様に、ステップST11からステップST20を実行する。
(Second embodiment)
FIG. 25 is a flow chart showing an example of a cell detection sequence of the manipulation system according to the second embodiment. As shown in FIG. 25, in the manipulation system 100, the image processing unit 52, the position detection unit 531, the threshold value setting unit 535, and the like included in the controller 50 execute steps ST11 to ST20 as in the first embodiment. do.

位置検出部531は、第3バイナリ画像811Cの部分領域Bにおいて、採取対象の細胞ce-dが存在するかどうかを検出する(ステップST21)。採取対象の細胞ce-dが存在する場合(ステップST21、Yes)、マニピュレーションシステム100は、採取対象の細胞ce-dの採取を実行する(ステップST22)。 The position detection unit 531 detects whether or not the cell ce-d to be collected exists in the partial area B of the third binary image 811C (step ST21). If the cells ce-d to be collected exist (step ST21, Yes), the manipulation system 100 collects the cells ce-d to be collected (step ST22).

採取対象の細胞ce-dが存在しない場合(ステップST21、No)、コントローラ50の制御部55は、駆動装置36により試料ステージ30を移動させる(ステップST23)。そして、第1撮像装置45は、前回の検出動作とは異なる領域で、第1顕微鏡41を介して第1画像811を撮像する。マニピュレーションシステム100は、新たに撮像された第1画像811に基づいてステップST11からステップST20を繰り返し実行する。 When the cells ce-d to be collected do not exist (step ST21, No), the control section 55 of the controller 50 causes the driving device 36 to move the sample stage 30 (step ST23). Then, the first imaging device 45 captures the first image 811 via the first microscope 41 in a region different from the previous detection operation. The manipulation system 100 repeatedly executes steps ST11 to ST20 based on the newly captured first image 811 .

第2実施形態によれば、マニピュレーションシステム100は、第1画像811に採取対象の細胞ce-dが存在しない場合に、容器38内の異なる領域で細胞ceを検出することができる。 According to the second embodiment, the manipulation system 100 can detect the cells ce in different regions within the container 38 when the first image 811 does not contain the cells ce-d to be harvested.

図26は、変形例に係る検出部分の一例を示す模式図である。図26は、第1実施形態において、画像処理部52が、図10のステップST17に示した画像処理を省略した場合の第3バイナリ画像811Caの一部分を示す。画像処理部52が、複数の明部ce-a及び複数の暗部ce-bをそれぞれ拡大する画像処理を行わないので、図26に示すように、明部ce-a及び暗部ce-bを組み合わせた場合、明部ce-aと暗部ce-bとの間に隙間spが生じる。この場合であっても、位置検出部531は、隙間spを含む明部ce-a及び暗部ce-bを1つの画像として認識することで、細胞ceの検出が可能である。 FIG. 26 is a schematic diagram showing an example of a detection portion according to a modification. FIG. 26 shows a portion of the third binary image 811Ca when the image processing section 52 omits the image processing shown in step ST17 of FIG. 10 in the first embodiment. Since the image processing unit 52 does not perform image processing for enlarging the plurality of bright portions ce-a and the plurality of dark portions ce-b, as shown in FIG. In this case, a gap sp is generated between the bright portion ce-a and the dark portion ce-b. Even in this case, the position detection unit 531 can detect the cell ce by recognizing the bright portion ce-a and the dark portion ce-b including the gap sp as one image.

10 採取用ピペット
15 ピペット保持部
20 マニピュレータ
26、27、36、414、613 駆動装置
29 電動マイクロポンプ
30 試料ステージ
38 容器
40 第1顕微鏡ユニット
41 第1顕微鏡
45 第1撮像装置
50 コントローラ
52 画像処理部
53 検出部
531 位置検出部
535 しきい値設定部
80 表示部
100 マニピュレーションシステム
103 先端部
811 第1画像
811A 第1バイナリ画像
811B 第2バイナリ画像
811C 第3バイナリ画像
812 第2画像
813 第3画像
ce 細胞
ce-a 明部
ce-b 暗部
ce-c 検出部分
ce-d 採取対象の細胞
ce-n 非採取対象の細胞
L-TH1 第1しきい値
L-TH2 第2しきい値
L-BG 輝度
10 sampling pipette 15 pipette holder 20 manipulators 26, 27, 36, 414, 613 drive device 29 electric micropump 30 sample stage 38 container 40 first microscope unit 41 first microscope 45 first imaging device 50 controller 52 image processor 53 detection unit 531 position detection unit 535 threshold setting unit 80 display unit 100 manipulation system 103 tip 811 first image 811A first binary image 811B second binary image 811C third binary image 812 second image 813 third image ce Cell ce-a Light area ce-b Dark area ce-c Detected area ce-d Cell to be collected ce-n Cell not to be collected L-TH1 First threshold L-TH2 Second threshold L-BG Luminance

Claims (6)

管状器具を用いて微小対象物を採取するマニピュレーションシステムであって、
前記管状器具と、
前記管状器具が取り付けられるマニピュレータと、
前記微小対象物を収容するための容器が載置される試料ステージと、
前記試料ステージの上方に配置される第1顕微鏡と、
前記第1顕微鏡を介して第1画像を撮像する第1撮像装置と、
コントローラと、を備え、
前記コントローラは、
前記第1画像に基づいて、第1しきい値以上の輝度を有する複数の明部を表示する第1バイナリ画像と、第2しきい値以下の輝度を有する複数の暗部を表示する第2バイナリ画像とを作成し、前記第1バイナリ画像と前記第2バイナリ画像とを重ね合わせて第3バイナリ画像を作成する画像処理部と、
前記第3バイナリ画像において、前記明部と前記暗部とが組み合わされた検出部分に基づいて前記微小対象物の位置を検出する位置検出部と、を有し、
前記第3バイナリ画像には、複数の前記微小対象物のそれぞれに対応する複数の前記検出部分が形成され、
前記位置検出部は、前記管状器具の端部の位置及び延在方向を検出し、
前記画像処理部は、前記第3バイナリ画像のうち、前記管状器具の前記延在方向で、前記端部と隣り合う部分領域を切り取って、前記部分領域で画像処理を行い、
前記位置検出部は、複数の前記検出部分のうち、前記部分領域の複数の前記検出部分に基づいて前記微小対象物の位置を検出する
マニピュレーションシステム。
A manipulation system for picking up a micro-object using a tubular instrument,
the tubular device;
a manipulator to which the tubular instrument is attached;
a sample stage on which a container for accommodating the micro object is mounted;
a first microscope arranged above the sample stage;
a first imaging device that captures a first image via the first microscope;
a controller;
The controller is
Based on the first image, a first binary image displaying a plurality of bright areas having luminance equal to or greater than a first threshold and a second binary image displaying a plurality of dark areas having luminance equal to or less than a second threshold. an image processing unit that creates an image and superimposes the first binary image and the second binary image to create a third binary image;
a position detection unit that detects the position of the minute object based on a detection portion that is a combination of the bright portion and the dark portion in the third binary image ;
forming a plurality of the detection portions corresponding to each of the plurality of micro-objects in the third binary image;
The position detection unit detects the position and extension direction of the end of the tubular instrument,
The image processing unit cuts out a partial region adjacent to the end portion in the extending direction of the tubular device from the third binary image, and performs image processing on the partial region,
The position detection section detects the position of the minute object based on a plurality of the detection portions of the partial area among the plurality of detection portions.
manipulation system.
前記コントローラは、前記微小対象物の基準バイナリ画像を記憶する記憶部を有し、
前記位置検出部は、前記第3バイナリ画像の前記検出部分と、前記基準バイナリ画像とを比較して、前記微小対象物を検出する
請求項1に記載のマニピュレーションシステム。
The controller has a storage unit that stores a reference binary image of the minute object,
The manipulation system according to claim 1, wherein the position detection section compares the detection portion of the third binary image with the reference binary image to detect the minute object.
前記コントローラは、前記第1画像の輝度に基づいて、前記第1しきい値と、前記第1しきい値よりも小さい輝度を示す前記第2しきい値とを設定するしきい値設定部を有する
請求項1又は請求項2に記載のマニピュレーションシステム。
The controller comprises a threshold value setting unit that sets the first threshold value and the second threshold value indicating a brightness value smaller than the first threshold value, based on the brightness of the first image. 3. A manipulation system according to claim 1 or claim 2.
前記画像処理部は、前記第1画像を輝度のみで表示したグレースケール画像に変換し、前記グレースケール画像に基づいて前記第1バイナリ画像及び前記第2バイナリ画像を作成する
請求項1から請求項3のいずれか1項に記載のマニピュレーションシステム。
1 to 1, wherein the image processing unit converts the first image into a grayscale image that displays only luminance, and creates the first binary image and the second binary image based on the grayscale image. 4. The manipulation system according to any one of 3.
前記画像処理部は、前記第1バイナリ画像において、複数の前記明部をそれぞれ拡大し、前記第2バイナリ画像において、複数の前記暗部をそれぞれ拡大する
請求項1から請求項4のいずれか1項に記載のマニピュレーションシステム。
5. The image processing unit enlarges each of the plurality of bright portions in the first binary image, and enlarges each of the plurality of dark portions in the second binary image. The manipulation system described in .
さらに、前記管状器具に対して前記試料ステージを相対的に移動させる駆動装置を有し、
前記コントローラは、前記位置検出部が前記微小対象物を検出しなかった場合に、前記駆動装置により前記試料ステージを移動させる
請求項1から請求項のいずれか1項に記載のマニピュレーションシステム。
further comprising a driving device for relatively moving the sample stage with respect to the tubular instrument;
The manipulation system according to any one of claims 1 to 5 , wherein the controller causes the drive device to move the sample stage when the position detection unit does not detect the minute object.
JP2019015041A 2019-01-31 2019-01-31 manipulation system Active JP7188140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019015041A JP7188140B2 (en) 2019-01-31 2019-01-31 manipulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019015041A JP7188140B2 (en) 2019-01-31 2019-01-31 manipulation system

Publications (2)

Publication Number Publication Date
JP2020122894A JP2020122894A (en) 2020-08-13
JP7188140B2 true JP7188140B2 (en) 2022-12-13

Family

ID=71992659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019015041A Active JP7188140B2 (en) 2019-01-31 2019-01-31 manipulation system

Country Status (1)

Country Link
JP (1) JP7188140B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004361085A (en) 2003-05-30 2004-12-24 Toshiba Corp Visual examination device
JP2017071020A (en) 2015-10-07 2017-04-13 日本精工株式会社 Manipulation system, rotary actuator, and driving method of manipulation system
CN108447072A (en) 2018-02-05 2018-08-24 山东大学 A kind of image partition method and system of crystal grain

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004361085A (en) 2003-05-30 2004-12-24 Toshiba Corp Visual examination device
JP2017071020A (en) 2015-10-07 2017-04-13 日本精工株式会社 Manipulation system, rotary actuator, and driving method of manipulation system
CN108447072A (en) 2018-02-05 2018-08-24 山东大学 A kind of image partition method and system of crystal grain

Also Published As

Publication number Publication date
JP2020122894A (en) 2020-08-13

Similar Documents

Publication Publication Date Title
US9562215B2 (en) Microscope apparatus and cell culture apparatus
US20200200531A1 (en) Distance determination of a sample plane in a microscope system
JP5145487B2 (en) Observation program and observation apparatus
EP2441827A1 (en) Technique for determining the state of a cell mass, image processing program and image processing device using said technique, and method for producing a cell mass
WO2009157530A1 (en) Embryo-monitoring apparatus
JP6160187B2 (en) Analysis device, analysis program, and analysis system
JP2014149177A (en) Defect inspection device and defect inspection method
WO2017150194A1 (en) Image processing device, image processing method, and program
JP2006209698A (en) Target tracking device, microscope system and target tracking program
EP4130843A9 (en) Microscope system, projection unit, and sperm sorting assistance method
US8965098B2 (en) Cell-image analyzing apparatus
JP7188140B2 (en) manipulation system
JP5769559B2 (en) Image processing apparatus, image processing program, robot apparatus, and image processing method
JP4874069B2 (en) Confocal microscope
JP7183828B2 (en) manipulation system
JP2023036742A (en) Manipulation system and driving method of manipulation system
JP5530126B2 (en) Three-dimensional cell image analysis system and three-dimensional cell image analyzer used therefor
US11235317B2 (en) Tubular instrument and manipulation system
JP4630106B2 (en) Corneal endothelial cell image processing device
JP7035487B2 (en) Manipulation system
JP2001211875A (en) Device for collecting fine bodies and method of collecting the same
JP6312410B2 (en) Alignment apparatus, microscope system, alignment method, and alignment program
JP5491817B2 (en) Thin film sample position recognition system in electron microscope
JP7238434B2 (en) MANIPULATION SYSTEM AND METHOD FOR DRIVING MANIPULATION SYSTEM
JP2003149121A (en) Scanning probe microscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R150 Certificate of patent or registration of utility model

Ref document number: 7188140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150