JP7304508B2 - Information processing system and information processing program - Google Patents

Information processing system and information processing program Download PDF

Info

Publication number
JP7304508B2
JP7304508B2 JP2019042036A JP2019042036A JP7304508B2 JP 7304508 B2 JP7304508 B2 JP 7304508B2 JP 2019042036 A JP2019042036 A JP 2019042036A JP 2019042036 A JP2019042036 A JP 2019042036A JP 7304508 B2 JP7304508 B2 JP 7304508B2
Authority
JP
Japan
Prior art keywords
image
marker
eye
control unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019042036A
Other languages
Japanese (ja)
Other versions
JP2020137103A (en
Inventor
浩紀 升本
仁志 田淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thinkout Co Ltd
Original Assignee
Thinkout Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thinkout Co Ltd filed Critical Thinkout Co Ltd
Priority to JP2019042036A priority Critical patent/JP7304508B2/en
Publication of JP2020137103A publication Critical patent/JP2020137103A/en
Application granted granted Critical
Publication of JP7304508B2 publication Critical patent/JP7304508B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、識別の困難な対象物を識別する情報処理システムおよび情報処理プログラムに関する。 The present invention relates to an information processing system and an information processing program for identifying objects that are difficult to identify.

白内障などの眼の疾患を治療するには、眼の手術を行うことが一般的である。眼の手術を行う際、医療従事者は、患者の顔をドレープで覆い、手術を行う眼をドレープの開口から露出させる(非特許文献1参照)。 Eye surgery is commonly performed to treat eye diseases such as cataracts. When performing eye surgery, medical personnel cover the patient's face with a drape and expose the eye to be operated on through the opening of the drape (see Non-Patent Document 1).

https://www.tsukazaki-hp.jp/care/ophthalmology/aihttps://www. tsukazaki-hp. jp/care/ophthalmology/ai

患者の顔がドレープで覆われている場合、ドレープから露出している眼が左眼か右眼か識別が難しいことがある。そのため、医療従事者は、手術を行わない方の眼が誤って露出しているときに、手術を行う方の眼が露出していると誤認してしまう可能性がある。このような誤認の問題は、医療の現場以外の現場においても、起こり得る問題である。従って、識別の困難な対象物を識別することの可能な情報処理システムおよび情報処理プログラムを提供することが望ましい。 When the patient's face is draped, it can be difficult to distinguish whether the eye exposed through the drape is the left or right eye. Therefore, when the non-operating eye is erroneously exposed, the medical staff may misunderstand that the operating eye is exposed. Such a problem of misidentification is a problem that can occur even in sites other than medical sites. Therefore, it is desirable to provide an information processing system and an information processing program capable of identifying objects that are difficult to identify.

本発明の一実施形態に係る第1の情報処理システムは、取得部と、表示部とを備えている。取得部は、識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する。表示部は、取得部で取得された位置情報に基づいて生成したマーカを撮像画像に重ね合わせた画像を表示する。 A first information processing system according to an embodiment of the present invention includes an acquisition section and a display section. The acquisition unit acquires the position information of the identification target or the region including the identification target in the captured image by performing object detection on the segmentation image obtained from the captured image including the identification target. The display unit displays an image in which the marker generated based on the position information acquired by the acquisition unit is superimposed on the captured image.

本発明の一実施形態に係る第2の情報処理システムは、取得部と、合成部とを備えている。取得部は、識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する。合成部は、取得部で取得された位置情報に基づいて生成したマーカを、光学系によって形成される、識別対象を含む術野の像に重ね合わせる。 A second information processing system according to one embodiment of the present invention includes an acquisition unit and a synthesis unit. The acquisition unit acquires the position information of the identification target or the region including the identification target in the captured image by performing object detection on the segmentation image obtained from the captured image including the identification target. The synthesizing unit superimposes the marker generated based on the position information acquired by the acquiring unit on the image of the surgical field including the identification target formed by the optical system.

本発明の一実施形態に係る第3の情報処理システムは、取得部と、送信部とを備えている。取得部は、識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する。送信部は、取得部で取得された位置情報を、表示部を備えた情報処理装置に送信する。 A third information processing system according to an embodiment of the present invention includes an acquisition section and a transmission section. The acquisition unit acquires the position information of the identification target or the region including the identification target in the captured image by performing object detection on the segmentation image obtained from the captured image including the identification target. The transmission unit transmits the position information acquired by the acquisition unit to the information processing device provided with the display unit.

本発明の一実施形態に係る第1の情報処理プログラムは、以下の2つのステップをコンピュータに実行させる。
(1)識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する取得ステップ
(2)取得ステップで取得された位置情報に基づいて生成したマーカを撮像画像に重ね合わせた画像を表示するための映像信号を生成する生成ステップ
A first information processing program according to an embodiment of the present invention causes a computer to execute the following two steps.
(1) Acquisition step of acquiring position information of an identification target or a region including an identification target in a captured image by performing object detection on a segmentation image obtained from a captured image including the identification target (2) Acquisition step A generation step of generating a video signal for displaying an image in which the marker generated based on the position information obtained in step is superimposed on the captured image

本発明の一実施形態に係る第2の情報処理プログラムは、以下の2つのステップをコンピュータに実行させる。
(1)識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する取得ステップ
(2)取得ステップで取得された位置情報に基づいて生成したマーカを、光学系によって形成される、識別対象を含む術野の像に重ね合わせるための投射光生成用の映像信号を生成する生成ステップ
A second information processing program according to an embodiment of the present invention causes a computer to execute the following two steps.
(1) Acquisition step of acquiring position information of an identification target or a region including an identification target in a captured image by performing object detection on a segmentation image obtained from a captured image including the identification target (2) Acquisition step A generation step of generating a video signal for generating projection light for superimposing the marker generated based on the position information acquired in step on the image of the operative field including the identification target formed by the optical system

本発明の一実施形態に係る第3の情報処理プログラムは、以下の2つのステップをコンピュータに実行させる。
(1)識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報を取得する取得ステップ
(2)取得ステップで取得された位置情報を、表示部を備えた情報処理装置に送信する送信ステップ
A third information processing program according to an embodiment of the present invention causes a computer to execute the following two steps.
(1) Acquisition step of acquiring position information of an identification target or a region including an identification target in a captured image by performing object detection on a segmentation image obtained from a captured image including the identification target (2) Acquisition step A transmission step of transmitting the position information acquired in to an information processing device equipped with a display unit

本発明の一実施形態に係る第1の情報処理システム、第2の情報処理システム、第3の情報処理システム、第1の情報処理プログラム、第2の情報処理プログラムおよび第3の情報処理プログラムでは、識別対象を含む撮像画像から得られたSegmentation画像に対して物体検出を行うことにより、識別対象もしくは識別対象を含む領域の、撮像画像における位置情報が取得される。これにより、例えば、取得された位置情報に基づいて生成したマーカを、撮像画像に重ね合わせた画像を表示したり、光学系によって形成される、識別対象を含む術野の像に重ね合わせたりすることが可能となる。その結果、識別対象を識別するのに必要な要素を撮像画像に確実に含ませることができるので、識別の困難な対象物を識別することができる。 In the first information processing system, the second information processing system, the third information processing system, the first information processing program, the second information processing program, and the third information processing program according to one embodiment of the present invention, By performing object detection on the segmentation image obtained from the captured image including the identification target, the position information of the identification target or the region including the identification target in the captured image is obtained. As a result, for example, the marker generated based on the acquired position information is displayed as an image superimposed on the captured image, or superimposed on the image of the surgical field including the identification target formed by the optical system. becomes possible. As a result, it is possible to reliably include the elements necessary for identifying the identification target in the captured image, so that the difficult-to-identify target can be identified.

撮像領域の位置調整用のマーカが重ね合わされた術野画像の一例を表す図である。FIG. 10 is a diagram showing an example of an operating field image on which markers for position adjustment of an imaging region are superimposed; 撮像領域の位置調整用のマーカが重ね合わされた術野画像の一例を表す図である。FIG. 10 is a diagram showing an example of an operating field image on which markers for position adjustment of an imaging region are superimposed; 本発明の第1の実施の形態に係る左右眼識別システムの概略構成の一例を表す図である。1 is a diagram showing an example of a schematic configuration of a left/right eye identification system according to a first embodiment of the present invention; FIG. 図3の左右眼識別システムの機能ブロックの一例を表す図である。4 is a diagram showing an example of functional blocks of the left/right eye identification system of FIG. 3; FIG. サーバ装置のメモリに記憶された画像データの一例を表す図である。FIG. 3 is a diagram showing an example of image data stored in a memory of a server device; FIG. Segmentation画像の一例を表す図である。It is a figure showing an example of a Segmentation image. 図4の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。5 is a flow chart showing an example of left/right eye identification procedures in the left/right eye identification system of FIG. 4; 図6のSegmentation画像から得られるDetection画像の一例を表す図である。FIG. 7 is a diagram showing an example of a detection image obtained from the segmentation image of FIG. 6; FIG. 図3の表示面に表示される画像の一例を表す図である。4 is a diagram showing an example of an image displayed on the display surface of FIG. 3; FIG. 図3の表示面に表示される画像の一例を表す図である。4 is a diagram showing an example of an image displayed on the display surface of FIG. 3; FIG. 図3の表示面に表示される画像の一例を表す図である。4 is a diagram showing an example of an image displayed on the display surface of FIG. 3; FIG. 図3の表示面に表示される画像の一例を表す図である。4 is a diagram showing an example of an image displayed on the display surface of FIG. 3; FIG. 図3の表示面に表示される画像の一例を表す図である。4 is a diagram showing an example of an image displayed on the display surface of FIG. 3; FIG. 図3の表示面に表示される画像の一例を表す図である。4 is a diagram showing an example of an image displayed on the display surface of FIG. 3; FIG. 図4の左右眼識別システムの機能ブロックの一変形例を表す図である。FIG. 5 is a diagram showing a modified example of the functional blocks of the left/right eye identification system of FIG. 4; 図15の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。FIG. 16 is a flow chart showing an example of left and right eye identification procedures in the left and right eye identification system of FIG. 15; FIG. 図3の左右眼識別システムの概略構成の一変形例を表す図である。FIG. 4 is a diagram showing a modified example of the schematic configuration of the right and left eye identification system of FIG. 3; 図17の左右眼識別システムの機能ブロックの一例を表す図である。FIG. 18 is a diagram showing an example of functional blocks of the left/right eye identification system of FIG. 17; 図18の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。FIG. 19 is a flow chart showing an example of left and right eye identification procedures in the left and right eye identification system of FIG. 18; FIG. 図3の左右眼識別システムの概略構成の一変形例を表す図である。FIG. 4 is a diagram showing a modified example of the schematic configuration of the right and left eye identification system of FIG. 3; 図20の左右眼識別システムの機能ブロックの一例を表す図である。FIG. 21 is a diagram showing an example of functional blocks of the left/right eye identification system of FIG. 20; 図20の左右眼識別システムの機能ブロックの一例を表す図である。FIG. 21 is a diagram showing an example of functional blocks of the left/right eye identification system of FIG. 20; 図3の左右眼識別システムの概略構成の一変形例を表す図である。FIG. 4 is a diagram showing a modified example of the schematic configuration of the right and left eye identification system of FIG. 3; 図23の左右眼識別システムの機能ブロックの一例を表す図である。FIG. 24 is a diagram showing an example of functional blocks of the left/right eye identification system of FIG. 23; 本発明の第2の実施の形態に係る左右眼識別システムの概略構成の一例を表す図である。FIG. 10 is a diagram showing an example of a schematic configuration of a left/right eye identification system according to a second embodiment of the present invention; 図25の左右眼識別システムの機能ブロックの一例を表す図である。FIG. 26 is a diagram showing an example of functional blocks of the left/right eye identification system of FIG. 25; 図26の投射部から出射される画像の一例を表す図である。FIG. 27 is a diagram showing an example of an image projected from the projection unit of FIG. 26; 図26の投射部から出射される画像の一例を表す図である。FIG. 27 is a diagram showing an example of an image projected from the projection unit of FIG. 26; 図26の投射部から出射される画像の一例を表す図である。FIG. 27 is a diagram showing an example of an image projected from the projection unit of FIG. 26; 図26の投射部から出射される画像の一例を表す図である。FIG. 27 is a diagram showing an example of an image projected from the projection unit of FIG. 26; 図26の投射部から出射される画像の一例を表す図である。FIG. 27 is a diagram showing an example of an image projected from the projection unit of FIG. 26; 図25の接眼部で視認される画像の一例を表す図である。FIG. 26 is a diagram showing an example of an image visually recognized through the eyepiece of FIG. 25; 図26の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。FIG. 27 is a flow chart showing an example of left and right eye identification procedures in the left and right eye identification system of FIG. 26; FIG. 図26の左右眼識別システムの機能ブロックの一変形例を表す図である。FIG. 27 is a diagram showing a modified example of the functional blocks of the left/right eye identification system of FIG. 26; 図34の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。FIG. 35 is a flow chart showing an example of a left/right eye identification procedure in the left/right eye identification system of FIG. 34; FIG. 図25の左右眼識別システムの概略構成の一変形例を表す図である。FIG. 26 is a diagram showing a modified example of the schematic configuration of the right and left eye identification system of FIG. 25; 図36の左右眼識別システムの機能ブロックの一例を表す図である。FIG. 37 is a diagram showing an example of functional blocks of the left/right eye identification system of FIG. 36; 図37の左右眼識別システムにおける左右眼識別手順の一例を表す流れ図である。FIG. 38 is a flow chart showing an example of a left/right eye identification procedure in the left/right eye identification system of FIG. 37; FIG.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。以下の説明は本発明の一具体例であって、本発明は以下の態様に限定されるものではない。また、本発明は、各図に示す各構成要素の配置や寸法、寸法比などについても、それらに限定されるものではない。また、以下の説明において、上下、左右、前後等の方向は、特に言及しない限り医療従事者側から見た方向とする。なお、上下方向については、後述の対物レンズから術野に向かう方向を下方とし、これの反対方向を上方とする。一般に患者は仰向け状態で手術を受けるので、上下方向と垂直方向とは同じになる。なお、説明は、以下の順序で行う。
1.発明の背景
2.第1の実施の形態(図1~図14)
Segmentation画像の生成や左右眼識別をサーバ装置で行い、
明るさ判定、ピント判定、Detection画像の生成および位置判定を情報 処理装置で行う例
3.第1の実施の形態の変形例
変形例A(図15、図16)
明るさ判定、ピント判定、Detection画像の生成および位置判定もサー バ装置で行う例(情報処理装置がインターフェースとして機能する例)
変形例B(図17~図19)
サーバ装置を省略した例
変形例C(図20~図22)
第1の実施の形態および変形例Aにおいて、
情報処理装置とサーバ装置との通信とは異なる通信で、撮像画像を情報処理装置 に送信する例
変形例D(図23、図24)
変形例Cにおいてサーバ装置を省略した例
4.第2の実施の形態(図25~図33)
Segmentation画像の生成や左右眼識別をサーバ装置で行い、
明るさ判定、ピント判定、Detection画像の生成および位置判定をカメ ラ付き情報処理装置で行う例
5.第2の実施の形態の変形例
変形例E(図34、図35)
明るさ判定、ピント判定、Detection画像の生成および位置判定もサー バ装置で行う例
(カメラ付き情報処理装置がインターフェースとして機能する例)
変形例F(図36~図38)
サーバ装置を省略した例
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. The following description is a specific example of the present invention, and the present invention is not limited to the following aspects. In addition, the present invention is not limited to the arrangement, dimensions, dimensional ratios, etc. of each component shown in each drawing. Further, in the following description, directions such as up and down, left and right, and front and back are directions viewed from the side of medical staff unless otherwise specified. As for the vertical direction, the direction from the objective lens, which will be described later, toward the surgical field is defined as downward, and the opposite direction is defined as upward. Since the patient generally undergoes surgery in the supine position, the up-down direction is the same as the vertical direction. In addition, description is given in the following order.
1. Background of the Invention 2 . First embodiment (Figs. 1 to 14)
Generation of segmentation images and identification of left and right eyes are performed by the server device,
3. An example in which brightness determination, focus determination, detection image generation, and position determination are performed by an information processing apparatus. Modified example of the first embodiment Modified example A (Figs. 15 and 16)
Example in which brightness determination, focus determination, detection image generation, and position determination are also performed by the server device (example in which the information processing device functions as an interface)
Modification B (Figs. 17-19)
Example in which the server device is omitted Modification C (Figs. 20 to 22)
In the first embodiment and modification A,
An example of transmitting a captured image to an information processing device through communication different from the communication between the information processing device and the server device Modification D (FIGS. 23 and 24)
4. Example in which the server device is omitted from modification C; Second embodiment (Figs. 25 to 33)
Generation of segmentation images and identification of left and right eyes are performed by the server device,
5. An example in which an information processing apparatus with a camera performs brightness determination, focus determination, detection image generation, and position determination. Modification of Second Embodiment Modification E (FIGS. 34 and 35)
Example in which brightness judgment, focus judgment, detection image generation, and position judgment are also performed by the server device (an example in which an information processing device with a camera functions as an interface)
Modification F (Figs. 36-38)
Example in which the server unit is omitted

<1.発明の背景>
図1、図2は、撮像領域の位置調整用のマーカMcが重ね合わされた術野画像Ia(撮像画像)の一例を表したものである。図1、図2に記載の術野画像Iaには、本発明の一実施の形態に係る左右眼識別システム(以下、単に「左右眼識別システム」と称する。)における識別対象である眼10が含まれている。眼10は、眼球11と、涙丘12とを含んで構成されている。涙丘12は、眼10のうち、鼻に近い端部(目頭)に存在している。図1、図2に記載の術野画像Iaは、例えば、医療従事者が患者の頭の傍に立ち、患者の頭上に設置された顕微鏡を覗いたときの術野の様子に対応している。従って、図1に示したように、術野画像Iaに対して物体検出(Detection)を行うことにより得られた画像(Detection画像Ib)の中に、涙丘12や目頭が含まれている場合には、例えば、Detection画像Ibの枠をマーカとして術野画像Iaに重ね合わせて表示することによって、医療従事者は、眼10全体が撮像領域内に入っているか否かを直感的に把握することができる。この場合、医療従事者が、マーカが術野画像Iaにおける所定の領域内に位置するように撮像領域を調整することで、眼10全体が術野画像Iaにおける所定の領域内に入るので、術野画像Iaに写っている眼10が左眼であるか、右眼であるかを左右眼識別システムにおいて正しく識別することが可能となる。
<1. Background of the Invention>
1 and 2 show an example of an operating field image Ia (captured image) on which a marker Mc for position adjustment of the imaging region is superimposed. In the operative field image Ia shown in FIGS. 1 and 2, an eye 10 to be identified in a left/right eye identification system (hereinafter simply referred to as a "right/left eye identification system") according to an embodiment of the present invention is shown. include. The eye 10 includes an eyeball 11 and a lacrimal hill 12 . The lacrimal dunes 12 are present at the end (inner corner) of the eye 10 near the nose. The operative field image Ia shown in FIGS. 1 and 2 corresponds to the state of the operative field when, for example, a medical worker stands by the patient's head and looks through a microscope installed above the patient's head. . Therefore, as shown in FIG. 1, when an image (Detection image Ib) obtained by performing object detection (Detection) on the surgical field image Ia includes the lacrimal hill 12 and the inner corner of the eye. For example, by superimposing the frame of the detection image Ib on the operative field image Ia as a marker, the medical staff can intuitively grasp whether or not the entire eye 10 is within the imaging area. be able to. In this case, the medical staff adjusts the imaging area so that the marker is positioned within the predetermined area in the surgical field image Ia, and the entire eye 10 is within the predetermined area in the surgical field image Ia. It is possible to correctly identify whether the eye 10 reflected in the field image Ia is the left eye or the right eye in the left/right eye identification system.

ところが、実際に、術野画像Iaに対して物体検出を行うと、例えば、図2に示したように、Detection画像Ibには、眼球11が含まれるが、涙丘12や目頭が含まれない。そのため、図2に示したように、Detection画像Ibの枠をマーカとして術野画像Iaに重ね合わせて表示した場合に、医療従事者が、眼10全体が撮像領域内に入っているか否かを直感的に把握することが難しいことがある。この場合、医療従事者が、マーカが術野画像Iaにおける所定の領域内に位置するように撮像領域を調整したとしても、眼10の一部が術野画像Iaにおける所定の領域から外れてしまい、術野画像Iaに写っている眼10が左眼であるか、右眼であるかを左右眼識別システムにおいて正しく識別することができないおそれがある。そこで、本発明では、Detection画像Ibの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)が確実に含まれるようにする手法を提案する。 However, when object detection is actually performed on the operative field image Ia, for example, as shown in FIG. . Therefore, as shown in FIG. 2, when the frame of the detection image Ib is used as a marker and displayed so as to be superimposed on the operative field image Ia, the medical staff can check whether the entire eye 10 is within the imaging region. It can be difficult to grasp intuitively. In this case, even if the medical staff adjusts the imaging area so that the marker is positioned within the predetermined area in the surgical field image Ia, part of the eye 10 is outside the predetermined area in the surgical field image Ia. There is a possibility that the left/right eye identification system cannot correctly identify whether the eye 10 reflected in the operative field image Ia is the left eye or the right eye. Therefore, the present invention proposes a technique for ensuring that the detection image Ib includes elements that facilitate identification of the left and right eyes (for example, the lacrimal hills 12 and the inner corner of the eye).

<2.第1の実施の形態>
[構成]
図3は、本発明の第1の実施の形態に係る左右眼識別システム100の概略構成の一例を表したものである。左右眼識別システム100は、本発明の「情報処理システム」の一具体例に相当する。図4は、左右眼識別システム100の機能ブロックの一例を表したものである。図3には、医療従事者が術野を拡大して視認するための眼科手術用顕微鏡システム200が、左右眼識別システム100とともに例示されている。本実施の形態において、術野は、患者400の顔のうち、患者400の顔に被せたドレープ600の開口610内に露出している領域である。術野には、手術を行う眼が含まれている。患者400は、手術台300に仰向け状態で寝ており、患者400の身体には、シーツ500が被されており、患者400の顔にはドレープ600が被されている。
<2. First Embodiment>
[composition]
FIG. 3 shows an example of a schematic configuration of the left/right eye identification system 100 according to the first embodiment of the present invention. The left/right eye identification system 100 corresponds to a specific example of the "information processing system" of the present invention. FIG. 4 shows an example of functional blocks of the left/right eye identification system 100. As shown in FIG. FIG. 3 illustrates an ophthalmic surgical microscope system 200 for magnifying and visualizing an operative field by medical personnel, together with a left/right eye identification system 100 . In the present embodiment, the operative field is a region of the patient's 400 face that is exposed in the opening 610 of the drape 600 placed over the patient's 400 face. The operative field includes the eye on which the surgery is performed. A patient 400 is lying on his back on an operating table 300 , his body is covered with a sheet 500 , and his face is covered with a drape 600 .

(眼科手術用顕微鏡システム200)
眼科手術用顕微鏡システム200は、例えば、支柱210と、第1アーム220と、第2アーム230と、駆動装置240と、医療従事者用顕微鏡250と、フットスイッチ260とを備えている。
(Microscope system 200 for ophthalmic surgery)
The ophthalmic surgical microscope system 200 includes, for example, a post 210 , a first arm 220 , a second arm 230 , a drive device 240 , a medical personnel microscope 250 and a foot switch 260 .

支柱210は、眼科手術用顕微鏡システム200の全体を支持する。支柱210の上端には、第1アーム220の一端が接続されている。第1アーム220の他端には、第2アーム230の一端が接続されている。第2アーム230の他端には、駆動装置240が接続されている。医療従事者用顕微鏡250は、駆動装置240により懸架されている。左右眼識別システム100に用いられるカメラ120が、医療従事者用顕微鏡250に付設されている。フットスイッチ260は、各種操作を医療従事者等の足で行うために用いられる。駆動装置240は、医療従事者等による操作に応じて、医療従事者用顕微鏡250とカメラ120とを上下方向および水平方向に3次元的に移動させる。 Support 210 supports the entire ophthalmic surgical microscope system 200 . One end of the first arm 220 is connected to the upper end of the support 210 . One end of the second arm 230 is connected to the other end of the first arm 220 . A driving device 240 is connected to the other end of the second arm 230 . Medical personnel microscope 250 is suspended by drive 240 . The camera 120 used in the left/right eye identification system 100 is attached to the microscope 250 for medical personnel. The foot switch 260 is used to perform various operations with the foot of a medical worker or the like. The driving device 240 vertically and horizontally three-dimensionally moves the medical staff microscope 250 and the camera 120 according to the operation by the medical staff.

医療従事者用顕微鏡250は、各種光学系や駆動系などを収納する鏡筒部251と、左右一対の接眼部252とを有している。医療従事者は、接眼部252を覗き込んで、鏡筒部251を介して術野を両眼で観察する。鏡筒部251は、例えば、対物レンズと、照明光学系と、観察光学系と、撮影光学系とを含んで構成されている。観察光学系は、対物レンズに連結される光学系であり、撮影光学系は、カメラ120に連結される光学系である。 A microscope 250 for medical personnel has a lens barrel section 251 that accommodates various optical systems, drive systems, and the like, and a pair of left and right eyepiece sections 252 . The medical staff looks into the eyepiece 252 and observes the surgical field with both eyes through the lens barrel 251 . The lens barrel section 251 includes, for example, an objective lens, an illumination optical system, an observation optical system, and a photographing optical system. The observation optical system is an optical system connected to the objective lens, and the photographing optical system is an optical system connected to the camera 120 .

照明光学系は、対物レンズを介して術野を照明する。観察光学系は、照明光学系により照明されている術野を、対物レンズを介して医療従事者用顕微鏡250により観察するために用いられる。観察光学系は、左右一対設けられており、右側の観察光学系は、右側の接眼部252に連結され、左側の観察光学系は、左側の接眼部252に連結されている。右側の観察光学系には、例えば、ビームスプリッタが設けられており、術野から右側の観察光学系を導光する光の一部がビームスプリッタによって撮影光学系に導かれる。 The illumination optical system illuminates the surgical field through the objective lens. The observation optical system is used to observe the surgical field illuminated by the illumination optical system with the medical staff microscope 250 through the objective lens. A pair of left and right observation optical systems are provided. The right observation optical system is connected to the right eyepiece 252 , and the left observation optical system is connected to the left eyepiece 252 . The right observation optical system is provided with, for example, a beam splitter, and part of the light that is guided from the surgical field to the right observation optical system is guided to the imaging optical system by the beam splitter.

(左右眼識別システム100)
左右眼識別システム100は、例えば、情報処理装置110と、カメラ120と、サーバ装置130とを備えている。情報処理装置110およびサーバ装置130は、ネットワーク140を介して接続されている。情報処理装置110は、ネットワーク140を介してサーバ装置130と通信することができるように構成されている。サーバ装置130は、ネットワーク140を介して情報処理装置110と通信することができるように構成されている。情報処理装置110およびカメラ120は、ネットワーク140を介して接続されている。情報処理装置110は、ネットワーク140を介してカメラ120と通信することができるように構成されている。カメラ120は、ネットワーク140を介して情報処理装置110と通信することができるように構成されている。
(Left/right eye identification system 100)
The left/right eye identification system 100 includes, for example, an information processing device 110, a camera 120, and a server device . Information processing device 110 and server device 130 are connected via network 140 . Information processing device 110 is configured to be able to communicate with server device 130 via network 140 . Server device 130 is configured to be able to communicate with information processing device 110 via network 140 . Information processing device 110 and camera 120 are connected via network 140 . Information processing device 110 is configured to be able to communicate with camera 120 via network 140 . Camera 120 is configured to be able to communicate with information processing apparatus 110 via network 140 .

ネットワーク140は、例えば、インターネットで標準的に利用されている通信プロトコル(TCP/IP)を用いて通信を行うネットワークである。ネットワーク140は、例えば、そのネットワーク独自の通信プロトコルを用いて通信を行うセキュアなネットワークであってもよい。ネットワーク140は、例えば、インターネット、イントラネット、または、ローカルエリアネットワークである。ネットワーク140と、情報処理装置110、サーバ装置130またはカメラ120との接続は、例えば、イーサネット等の有線LAN(Local Area Network)であってもよいし、Wi-Fi等の無線LANや、携帯電話回線などであってもよい。 The network 140 is, for example, a network that performs communication using a communication protocol (TCP/IP) that is standardly used on the Internet. Network 140 may be, for example, a secure network that communicates using its own communication protocol. Network 140 is, for example, the Internet, an intranet, or a local area network. The connection between the network 140 and the information processing device 110, the server device 130, or the camera 120 may be, for example, a wired LAN (Local Area Network) such as Ethernet, a wireless LAN such as Wi-Fi, or a mobile phone. It may be a line or the like.

情報処理装置110は、例えば、制御部111、メモリ112、表示部113、入力部114およびネットワークIF(Interface)115を含んで構成されている。本実施の形態において、制御部111は、本発明の「取得部」の一具体例に相当する。表示部113は、本発明の「表示部」の一具体例に相当する。制御部111は、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit)などを含んで構成され、例えば、メモリ112に記憶されたウェブブラウザプログラムや、オペレーティングシステムなど(図示せず)を実行する。制御部111は、さらに、例えば、メモリ112に記憶されたプログラム112Aを実行する。プログラム112Aは、本発明の「情報処理プログラム」の一具体例に相当する。プログラム112Aは、術野に含まれる眼の種類(左眼または右眼)を識別するための一連の手順を制御部111に実行させる。プログラム112Aが制御部111に実行させる一連の手順については、後に詳述する。 The information processing apparatus 110 includes, for example, a control unit 111 , a memory 112 , a display unit 113 , an input unit 114 and a network IF (Interface) 115 . In this embodiment, the control unit 111 corresponds to a specific example of the "acquisition unit" of the present invention. The display section 113 corresponds to a specific example of the "display section" of the present invention. The control unit 111 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and executes, for example, a web browser program stored in the memory 112, an operating system, and the like (not shown). The control unit 111 further executes a program 112A stored in the memory 112, for example. The program 112A corresponds to one specific example of the "information processing program" of the present invention. The program 112A causes the controller 111 to execute a series of procedures for identifying the type of eye (left eye or right eye) included in the surgical field. A series of procedures that the program 112A causes the control unit 111 to execute will be described in detail later.

メモリ112は、制御部111によって実行されるプログラム(例えば、ウェブブラウザプログラムや、オペレーティングシステム)などを記憶している。メモリ112は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等によって構成される。メモリ112は、さらに、プログラム112Aを記憶している。 The memory 112 stores programs executed by the control unit 111 (for example, a web browser program and an operating system). The memory 112 is configured by, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), an auxiliary storage device (such as a hard disk), and the like. Memory 112 also stores program 112A.

表示部113は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等の表示装置からなる。表示部113は、制御部111からの映像信号に基づく画像を表示面110Aに表示する。入力部114は、外部(例えば、ユーザ)からの指示を受け付け、受け付けた指示を制御部111に出力する。入力部114は、例えば、ボタンやダイヤルなどを含む機械的な入力インターフェースであってもよいし、マイクロフォンなどを含む音声入力インターフェースであってもよい。入力部114は、例えば、情報処理装置110の表示面110Aに設けられたタッチパネルであってもよい。ネットワークIF115は、ネットワーク140を介してサーバ装置130と通信するための通信インターフェースである。 The display unit 113 is, for example, a display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel. Display unit 113 displays an image based on the video signal from control unit 111 on display surface 110A. Input unit 114 receives an instruction from the outside (for example, a user) and outputs the received instruction to control unit 111 . The input unit 114 may be, for example, a mechanical input interface including buttons and dials, or a voice input interface including a microphone. The input unit 114 may be, for example, a touch panel provided on the display surface 110A of the information processing device 110 . Network IF 115 is a communication interface for communicating with server device 130 via network 140 .

カメラ120は、例えば、CCD(Charge Coupled Device)イメージセンサもしくはCMOS(Complementary metal-oxide-semiconductor)イメージセンサを含んで構成されている。カメラ120は、例えば、情報処理装置110による制御に従って撮像を行い、それにより得られた画像(術野画像Ia)を、ネットワーク140を介して情報処理装置110に出力する。 The camera 120 includes, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary metal-oxide-semiconductor) image sensor. The camera 120 , for example, performs imaging under the control of the information processing device 110 and outputs the resulting image (operative field image Ia) to the information processing device 110 via the network 140 .

サーバ装置130は、例えば、制御部131、Segmentation学習モデル132、左右眼識別学習モデル133、メモリ134およびネットワークIF135などを含んで構成されている。左右眼識別学習モデル133は、本発明の「識別部」の一具体例に相当する。制御部131は、CPUおよびGPUなどを含んで構成され、例えば、メモリ134に記憶されたウェブサーバプログラムや、オペレーティングシステムなどを実行する。制御部131は、さらに、例えば、左右眼識別学習モデル133で得られた識別結果などを、ネットワークIF135を介して情報処理装置110に送信する。 The server device 130 includes, for example, a control unit 131, a segmentation learning model 132, a left/right eye identification learning model 133, a memory 134, a network IF 135, and the like. The left/right eye identification learning model 133 corresponds to a specific example of the "identification section" of the present invention. The control unit 131 includes a CPU, a GPU, and the like, and executes, for example, a web server program stored in the memory 134, an operating system, and the like. Further, the control unit 131 transmits, for example, the identification result obtained by the left/right eye identification learning model 133 to the information processing apparatus 110 via the network IF 135 .

ネットワークIF135は、ネットワーク140を介して情報処理装置110と通信するための通信インターフェースである。メモリ134は、制御部131によって実行されるプログラム(例えば、ウェブサーバプログラムや、オペレーティングシステム)などを記憶する。メモリ134は、例えば、RAM、ROM、補助記憶装置(ハードディスク等)等によって構成される。メモリ134には、さらに、複数の画像データ134A、複数の画像データ134Bおよび複数の手術データ134Cが記憶されている。 Network IF 135 is a communication interface for communicating with information processing apparatus 110 via network 140 . The memory 134 stores programs executed by the control unit 131 (for example, a web server program and an operating system). The memory 134 is composed of, for example, a RAM, a ROM, an auxiliary storage device (such as a hard disk), and the like. The memory 134 further stores a plurality of image data 134A, a plurality of image data 134B and a plurality of surgical data 134C.

各画像データ134Aは、Segmentation学習モデル132に対して入力される2種類の学習データのうちの1つであるとともに、左右眼識別学習モデル133に対して入力される2種類の学習データのうちの1つである。各画像データ134Aは、例えば、図1、図2に示したような、カメラ120で得られた術野画像Iaである。各画像データ134Bは、Segmentation学習モデル132に対して入力される2種類の学習データのうちの1つであり、例えば、図5に示したような、各画像データ134Aのピクセルが示す意味がラベル付けされたSegmentation画像である。なお、図5に示した画像データ134Bは、眼領域Raであるとラベル付けされたピクセルと、周辺領域Rbであるとラベル付けされたピクセルとによって構成されている。各手術データ134Cは、患者の手術データであり、例えば、患者氏名、患者ID、病名、手術日時、術眼(左眼、右眼)、術式、担当医などを含んでいる。 Each image data 134A is one of two types of learning data input to the segmentation learning model 132 and one of two types of learning data input to the left/right eye identification learning model 133. is one. Each image data 134A is, for example, an operating field image Ia obtained by the camera 120 as shown in FIGS. Each image data 134B is one of two types of learning data input to the segmentation learning model 132. For example, as shown in FIG. It is a Segmentation image attached. Note that the image data 134B shown in FIG. 5 is composed of pixels labeled as the eye region Ra and pixels labeled as the peripheral region Rb. Each surgical data 134C is patient surgical data, and includes, for example, patient name, patient ID, disease name, surgery date and time, operated eye (left eye, right eye), surgical procedure, doctor in charge, and the like.

Segmentation学習モデル132は、学習プロセスでは、一組の画像データ134A,134Bを学習データとして機械学習を行う。Segmentation学習モデル132は、機械学習の結果、画像データ134Aと画像データ134Bとの対応関係についての情報を学習結果として生成し、保有する。Segmentation学習モデル132は、変換プロセスでは、カメラ120で得られた術野画像Iaが入力されると、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。 In the learning process, the segmentation learning model 132 performs machine learning using a set of image data 134A and 134B as learning data. As a result of machine learning, the segmentation learning model 132 generates and stores information about the correspondence between the image data 134A and the image data 134B as a learning result. In the conversion process, the segmentation learning model 132, when the surgical field image Ia obtained by the camera 120 is input, uses the learning result to convert the surgical field image Ia into the segmentation image Ic (see FIG. 6).

左右眼識別学習モデル133は、学習プロセスでは、画像データ134Aと、画像データ134Aに含まれる眼の種類(左眼または右眼)とを学習データとして機械学習を行う。左右眼識別学習モデル133は、機械学習の結果、画像データ134Aと、眼の種類との対応関係についての情報を学習結果として生成し、保有する。左右眼識別学習モデル133は、識別プロセスでは、術野画像Iaを取得すると、学習結果を利用して、術野画像Iaに含まれる眼の種類(左眼または右眼)を識別する。 In the learning process, the left/right eye identification learning model 133 performs machine learning using the image data 134A and the eye type (left eye or right eye) included in the image data 134A as learning data. As a result of machine learning, the left/right eye identification learning model 133 generates and stores information on the correspondence relationship between the image data 134A and the type of eye as a learning result. In the identification process, when the surgical field image Ia is obtained, the left/right eye identification learning model 133 uses the learning result to identify the eye type (left eye or right eye) included in the surgical field image Ia.

[動作]
次に、本実施の形態に係る左右眼識別システム100の動作の一例について説明する。
[motion]
Next, an example of the operation of left/right eye identification system 100 according to the present embodiment will be described.

(機械学習)
ユーザは、入力部114を介して、Segmentation学習モデル132に対して学習開始を指示する。すると、Segmentation学習モデル132は、学習プロセスを実行する。具体的には、Segmentation学習モデル132は、メモリ134に記憶された複数組の画像データ134Aおよび画像データ134Bを学習データとして、機械学習を行う。Segmentation学習モデル132は、機械学習の結果、画像データ134Aと画像データ134Bとの対応関係についての情報を学習結果として生成し、保有する。このようにして、Segmentation学習モデル132による機械学習が終了する。
(machine learning)
The user instructs the segmentation learning model 132 to start learning via the input unit 114 . The Segmentation learning model 132 then performs a learning process. Specifically, the segmentation learning model 132 performs machine learning using a plurality of sets of image data 134A and image data 134B stored in the memory 134 as learning data. As a result of machine learning, the segmentation learning model 132 generates and stores information about the correspondence between the image data 134A and the image data 134B as a learning result. In this way, machine learning by the Segmentation learning model 132 ends.

次に、ユーザは、入力部114を介して、左右眼識別学習モデル133に対して学習開始を指示する。すると、左右眼識別学習モデル133は、学習プロセスを実行する。具体的には、左右眼識別学習モデル133は、メモリ134に記憶された複数の画像データ134Aのサムネイルおよび識別子とともに、各画像データ134Aに対する眼の種類(左眼、右眼)の入力要請を情報処理装置110に送信する。なお、通信速度等の問題がない場合には、左右眼識別学習モデル133は、サムネイルではなくオリジナルの画像データ134Aを情報処理装置110に送信してもよい。情報処理装置110は、左右眼識別学習モデル133から、複数の画像データ134Aのサムネイルおよび識別子とともに、各画像データ134Aに対する眼の種類(左眼、右眼)の入力要請を受信すると、受信した複数の画像データ134Aのサムネイルを表示部113に表示するとともに、ユーザに対して眼の種類(左眼、右眼)の入力を促す表示を表示部113に表示する。ユーザは、表示部113の表示に従い、画像データ134Aごとに、眼の種類(左眼、右眼)を入力部114に入力する。入力部114は、ユーザから入力された、画像データ134Aごとの眼の種類(左眼、右眼)を、画像データ134Aの識別子とともに左右眼識別学習モデル133に送信する。左右眼識別学習モデル133は、情報処理装置110から、画像データ134Aごとの眼の種類(左眼、右眼)を、画像データ134Aの識別子とともに受信すると、眼の種類(左眼、右眼)と、画像データ134Aの識別子との対応関係を生成し、保有する。このようにして、左右眼識別学習モデル133による機械学習が終了する。 Next, the user instructs the left/right eye identification learning model 133 to start learning via the input unit 114 . The left/right eye identification learning model 133 then executes a learning process. More specifically, the right/left eye identification learning model 133 receives thumbnails and identifiers of the plurality of image data 134A stored in the memory 134 and an input request for the type of eye (left eye, right eye) for each image data 134A. Send to processing device 110 . If there is no problem such as communication speed, the left/right eye identification learning model 133 may transmit the original image data 134A to the information processing apparatus 110 instead of the thumbnails. When information processing apparatus 110 receives an input request for the type of eye (left eye, right eye) for each image data 134A along with thumbnails and identifiers of a plurality of image data 134A from left/right eye identification learning model 133, information processing apparatus 110 receives a request to input the type of eye (left eye, right eye) for each image data 134A. A thumbnail of the image data 134A is displayed on the display unit 113, and a display prompting the user to input the type of eye (left eye, right eye) is displayed on the display unit 113. FIG. The user inputs the eye type (left eye, right eye) to the input section 114 for each image data 134A according to the display on the display section 113 . The input unit 114 transmits the eye type (left eye, right eye) for each image data 134A input by the user to the left/right eye identification learning model 133 together with the identifier of the image data 134A. When left/right eye identification learning model 133 receives the type of eye (left eye, right eye) for each image data 134A from information processing device 110 together with the identifier of image data 134A, the type of eye (left eye, right eye) is received. , and the identifier of the image data 134A is generated and stored. In this way, the machine learning by the left/right eye identification learning model 133 ends.

(左右眼識別)
図7は、左右眼識別システム100における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112Aの起動を指示する。すると、情報処理装置110(制御部111)は、メモリ112からプログラム112Aを読み出して、制御部111にロードする。プログラム112Aがロードされた制御部111は、左右眼の識別をするための一連の手順を実行する。具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを情報処理装置110に送信する。
(Left and right eye identification)
FIG. 7 is a flowchart showing an example of left/right eye identification procedures in left/right eye identification system 100 . First, the user instructs the start of left/right eye identification via the input unit 114 . The user instructs to start the program 112A via the input unit 114, for example. Then, the information processing device 110 (control unit 111 ) reads the program 112 A from the memory 112 and loads it into the control unit 111 . The control unit 111 loaded with the program 112A executes a series of procedures for identifying left and right eyes. Specifically, first, control unit 111 outputs an imaging instruction to camera 120 . The camera 120 takes an image of the inside of the opening of the drape 600 in accordance with the imaging instruction, and transmits the resulting surgical field image Ia to the information processing apparatus 110 .

情報処理装置110(制御部111)は、受信した術野画像Iaに対して明るさ判定を行う。情報処理装置110(制御部111)は、例えば、術野画像IaをHSVに変換し、変換により得られた各ピクセルのV値が所定の範囲外にある場合には、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示する。情報処理装置110(制御部111)は、例えば、得られた各ピクセルのV値が所定の範囲内にある場合には、ピント判定を実施する。情報処理装置110(制御部111)は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示する。情報処理装置110(制御部111)は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像Iaをサーバ装置130に送信する。 The information processing device 110 (control unit 111) performs brightness determination on the received surgical field image Ia. For example, the information processing device 110 (control unit 111) converts the operative field image Ia into HSV, and if the V value of each pixel obtained by the conversion is outside a predetermined range, the operative field image Ia is bright. The display unit 113 displays that the brightness is insufficient or the brightness is too high. The information processing device 110 (control unit 111) performs focus determination, for example, when the obtained V value of each pixel is within a predetermined range. For example, the information processing apparatus 110 (control unit 111) performs Laplacian differentiation on the operative field image Ia, and when the score obtained thereby is below a predetermined threshold, the operative field image Ia is out of focus. The presence is displayed on the display unit 113 . The information processing device 110 (control unit 111) transmits the operative field image Ia to the server device 130, for example, when the derived score is equal to or greater than a predetermined threshold.

サーバ装置130が情報処理装置110から術野画像Iaを受信すると、Segmentation学習モデル132が変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを情報処理装置110に送信する。情報処理装置110(制御部111)は、受信したSegmentation画像Icに対して、物体検出を行う。情報処理装置110(制御部111)は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 When the server device 130 receives the surgical field image Ia from the information processing device 110, the Segmentation learning model 132 executes the conversion process. Specifically, the segmentation learning model 132 uses the learning result to convert the surgical field image Ia into the segmentation image Ic (see FIG. 6). The segmentation learning model 132 transmits the segmentation image Ic obtained by conversion to the information processing device 110 . The information processing device 110 (control unit 111) performs object detection on the received segmentation image Ic. For example, as shown in FIG. 8, the information processing device 110 (control unit 111) cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the segmentation image Ic. . An image obtained in this manner is referred to as a Detection image Id.

情報処理装置110(制御部111)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。情報処理装置110(制御部111)は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報とする。つまり、情報処理装置110(制御部111)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The information processing device 110 (control unit 111) uses the position information of the obtained detection image Id in the operating field image Ia as the position information of the region including the eye to be identified in the operating field image Ia. The information processing apparatus 110 (control unit 111), for example, takes the position information of the outer edge portion of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the information processing apparatus 110 (control unit 111) acquires position information of a region including the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

なお、情報処理装置110(制御部111)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。情報処理装置110(制御部111)は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、後述のマーカMcの位置情報としてもよい。この場合、情報処理装置110(制御部111)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The information processing apparatus 110 (control unit 111) may use the position information of the obtained detection image Id in the operating field image Ia as the position information of the eye to be identified in the operating field image Ia. The information processing apparatus 110 (control unit 111) may use, for example, the position information of the outer edge portion of the eye area Ra of the obtained detection image Id in the operating field image Ia as the position information of the marker Mc, which will be described later. In this case, the information processing apparatus 110 (control unit 111) acquires position information of the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

情報処理装置110(制御部111)は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを術野画像Iaに重ね合わせた画像(マーカ画像Ie)を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図9に示したように、制御部111からの映像信号に基づいて、術野画像IaにマーカMcを重ね合わせた画像(マーカ画像Ie)を表示面110Aに表示する。 After generating the marker Mc based on the acquired position information, the information processing apparatus 110 (control unit 111) displays an image (marker image Ie) in which the generated marker Mc is superimposed on the surgical field image Ia. A signal is generated and output to the display unit 113 . For example, as shown in FIG. 9, the display unit 113 displays an image (marker image Ie) in which the marker Mc is superimposed on the surgical field image Ia on the display surface 110A based on the video signal from the control unit 111. .

左右眼識別システム100は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、表示面110Aに表示された画像を参照しながら、カメラ120の撮像領域を微調整する。情報処理装置110(制御部111)は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、情報処理装置110(制御部111)は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図10に示したように、「顕微鏡位置がずれています。」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、情報処理装置110(制御部111)は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left/right eye identification system 100 periodically performs a series of procedures from the imaging instruction to the marker Mc display described above. At this time, the medical staff finely adjusts the imaging area of the camera 120 while referring to the image displayed on the display surface 110A. The information processing apparatus 110 (the control unit 111) determines whether the position of the marker Mc protrudes from the predetermined area in the surgical field image Ia each time, for example, the above-described series of procedures from the imaging instruction to the display of the marker Mc is executed. determine whether As a result, when the position of the marker Mc protrudes from the predetermined area in the surgical field image Ia, the information processing apparatus 110 (control unit 111), for example, determines whether the position of the marker Mc is in the predetermined area in the surgical field image Ia. A video signal is generated for displaying an image including information indicating that the image is protruding from the display unit 113 and is output to the display unit 113 . The display unit 113 displays, on the display surface 110A, an image including information indicating that the position of the marker Mc is out of a predetermined area in the surgical field image Ia, and the surgical field image Ia. For example, as shown in FIG. 10, the display unit 113 displays on the display surface 110A an image including a status ST such as "the position of the microscope is shifted", a marker Mc, and an operating field image Ia. . Note that the information processing apparatus 110 (control unit 111) uses a method other than image display on the display surface 110A (for example, sound, patrol lamp lighting, etc.) to move the position of the marker Mc out of the predetermined area in the surgical field image Ia. You may want to inform your healthcare provider that you are

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、情報処理装置110(制御部111)は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図11に示したように、「顕微鏡位置OK」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、情報処理装置110(制御部111)は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc is within the predetermined area in the operative field image Ia, the information processing device 110 (control unit 111) determines that the position of the marker Mc is within the predetermined area in the operative field image Ia. A video signal for displaying an image indicating that there is an image is generated and output to the display unit 113 . The display unit 113, for example, based on the video signal from the control unit 111, includes information indicating that the position of the marker Mc is within a predetermined area in the operative field image Ia, and the operative field image Ia. An image is displayed on the display surface 110A. For example, as shown in FIG. 11, the display unit 113 displays an image including a status ST such as "microscope position OK", a marker Mc, and an operating field image Ia on the display surface 110A. Note that the information processing apparatus 110 (control unit 111) uses a method other than image display on the display surface 110A (for example, sound, patrol lamp lighting, etc.) to ensure that the position of the marker Mc is within a predetermined area in the operating field image Ia. You may want to let your healthcare provider know.

情報処理装置110(制御部111)は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、サーバ装置130内の左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRを情報処理装置110に送信する。制御部111は、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図12に示したように、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図12に示したように、識別結果DRを術野画像Ia上に重ね合わせて表示してもよいし、例えば、図13に示したように、識別結果DRを術野画像Iaとは別の領域に表示してもよい。 The information processing device 110 (control unit 111), when the position of the marker Mc is within a predetermined region in the operative field image Ia, sets the left and right eye identification learning model 133 in the server device 130 to the left and right eye Output an identification indication. When the left/right eye identification learning model 133 receives the left/right eye identification instruction, the left/right eye identification learning model 133 performs the identification process. Specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye included in the detection image Ib. More specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye type (left eye, right eye) included in the detection image Ib. The left/right eye identification learning model 133 transmits the identification result DR to the information processing device 110 . The control unit 111 generates a video signal for displaying an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia on the display surface 110A, and outputs the video signal to the display unit 113 . For example, as shown in FIG. 12, the display unit 113 displays an image including the status ST, the identification result DR, the marker Mc, and the operative field image Ia based on the video signal from the control unit 111. 110A. For example, as shown in FIG. 12, the display unit 113 may display the identification result DR superimposed on the surgical field image Ia, or, for example, as shown in FIG. It may be displayed in an area different from the wild image Ia.

医療従事者は、表示面110Aに表示された識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR displayed on the display surface 110A, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye, and whether it is the eye to be operated on. can be confirmed. In this way, left and right eye identification is performed.

情報処理装置110(制御部111)は、さらに、例えば、メモリ134に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較する。情報処理装置110(制御部111)は、その比較結果CRと、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図14に示したように、制御部111からの映像信号に基づいて、比較結果CRと、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、図14には、比較結果CRとして、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとが一致したときの表示が例示されている。 The information processing device 110 (control unit 111) further reads, for example, surgical data 134C corresponding to the patient 400 from a plurality of surgical data 134C stored in the memory 134, The operated eye is compared with the identification result DR. The information processing device 110 (control unit 111) outputs a video signal for displaying an image including the comparison result CR, the status ST, the identification result DR, the marker Mc, and the surgical field image Ia on the display surface 110A. It is generated and output to display unit 113 . For example, as shown in FIG. 14, the display unit 113 displays the comparison result CR, the status ST, the identification result DR, the marker Mc, and the operative field image Ia based on the video signal from the control unit 111. The image containing the image is displayed on the display surface 110A. Note that FIG. 14 exemplifies display when the operated eye included in the read surgery data 134C matches the identification result DR as the comparison result CR.

[効果]
次に、本実施の形態に係る左右眼識別システム100の効果について説明する。
[effect]
Next, the effects of the left/right eye identification system 100 according to the present embodiment will be described.

白内障などの眼の疾患を治療するには、眼の手術を行うことが一般的である。眼の手術を行う際、医療従事者は、患者の顔をドレープで覆い、手術を行う眼をドレープの開口から露出させる。患者の顔がドレープで覆われている場合、ドレープから露出している眼が左眼か右眼か識別が難しいことがある。そのため、医療従事者は、手術を行わない方の眼が誤って露出しているときに、手術を行う方の眼が露出していると誤認してしまう可能性がある。 Eye surgery is commonly performed to treat eye diseases such as cataracts. When performing eye surgery, medical personnel cover the patient's face with a drape and expose the eye being operated on through an opening in the drape. When the patient's face is draped, it can be difficult to distinguish whether the eye exposed through the drape is the left or right eye. Therefore, when the non-operating eye is erroneously exposed, the medical staff may misunderstand that the operating eye is exposed.

一方、本実施の形態では、識別対象である眼を含む術野画像Iaから得られたSegmentation画像Icに対して物体検出を行うことにより、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報が取得される。さらに、本実施の形態では、取得された位置情報に基づいて生成したマーカMcを術野画像Iaに重ね合わせた画像(マーカ画像Ie)が表示される。これにより、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 On the other hand, in the present embodiment, by performing object detection on the Segmentation image Ic obtained from the operative field image Ia including the eye to be identified, the eye to be identified or the eye including the eye to be identified is detected. Positional information of the region in the surgical field image Ia is acquired. Furthermore, in the present embodiment, an image (marker image Ie) in which a marker Mc generated based on the acquired position information is superimposed on the surgical field image Ia is displayed. This allows the marker Mc to reliably include an element (for example, the lacrimal gland 12 and the inner corner of the eye) that facilitates identification of the left and right eyes. As a result, the medical staff adjusts the imaging area of the camera 120 so that the marker Mc is positioned within a predetermined area in the operative field image Ia, so that the eye captured in the operative field image Ia is the left eye. or the right eye can be correctly identified in the left/right eye identification system 100 . Therefore, it is possible to identify eye types that are difficult to identify.

また、本実施の形態では、左右眼識別学習モデル133による識別結果DRが表示部113の表示面110Aに表示される。また、本実施の形態では、術野画像Iaとともに、左右眼識別学習モデル133による識別結果DRが表示部113の表示面110Aに表示される。これにより、見過ごしの無い確実な確認作業を行うことができる。 Further, in the present embodiment, the identification result DR obtained by the left/right eye identification learning model 133 is displayed on the display surface 110A of the display unit 113 . Further, in the present embodiment, the identification result DR by the left/right eye identification learning model 133 is displayed on the display surface 110A of the display unit 113 together with the operative field image Ia. As a result, it is possible to perform reliable confirmation work without overlooking.

また、本実施の形態では、Segmentation画像Icに対して物体検出を行うことにより、Segmentation画像IcからDetection画像Idが切り出された後、切り出されたDetection画像Idの、術野画像Iaにおける位置情報が、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報となる。これにより、術野画像Iaに対して、単純に物体検出を行い、それにより得られたDetection画像に基づいて、識別対象である眼の、術野画像Iaにおける位置情報を導出した場合と比べて、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 Further, in the present embodiment, by performing object detection on the segmentation image Ic, after the detection image Id is clipped from the segmentation image Ic, the position information of the clipped detection image Id in the surgical field image Ia is , position information of the eye to be identified, or a region including the eye to be identified, in the surgical field image Ia. As a result, compared to the case where object detection is simply performed on the surgical field image Ia, and the position information of the eye to be identified in the surgical field image Ia is derived based on the resulting detection image. , the marker Mc can certainly include an element (for example, the lacrimal gland 12 or the inner corner of the eye) that facilitates identification of the left and right eyes. As a result, the medical staff adjusts the imaging area of the camera 120 so that the marker Mc is positioned within a predetermined area in the operative field image Ia, so that the eye captured in the operative field image Ia is the left eye. or the right eye can be correctly identified in the left/right eye identification system 100 . Therefore, it is possible to identify eye types that are difficult to identify.

また、本実施の形態では、マーカMcが術野画像Iaにおける所定の領域からはみ出している場合には、マーカMcが所定の領域からはみ出していることを意味する情報(例えば、ステータスST)を含む画像が表示部113の表示面110Aに表示される。これにより、医療従事者に対して、カメラ120の撮像領域の微調整が必要なことを確実に知らせることができる。 In addition, in the present embodiment, when the marker Mc protrudes from the predetermined area in the surgical field image Ia, information indicating that the marker Mc protrudes from the predetermined area (for example, status ST) is included. An image is displayed on the display surface 110A of the display unit 113 . Accordingly, it is possible to reliably notify the medical staff that fine adjustment of the imaging area of the camera 120 is required.

また、本実施の形態では、マーカMcが術野画像Iaにおける所定の領域内に収まっているときに得られた術野画像Iaをサーバ装置130に送信した後、左右眼の識別結果をサーバ装置130から受信するネットワークIF115が情報処理装置110に設けられている。これにより、Segmentation学習モデル132や左右眼識別学習モデル133などで行われる負荷の大きな処理を、情報処理装置110とは別の装置(サーバ装置130)に担わせることができる。その結果、例えば、手術室ごとに設置した各情報処理装置110が1つのサーバ装置130を共有することができるので、左右眼識別システム100を手術室ごとに設置する場合と比べて、左右眼識別システム100の設置コストを低減することができる。 Further, in the present embodiment, after the surgical field image Ia obtained when the marker Mc is within a predetermined region in the surgical field image Ia is transmitted to the server device 130, the left and right eye identification results are sent to the server device. A network IF 115 that receives data from 130 is provided in the information processing apparatus 110 . As a result, a device (server device 130 ) different from the information processing device 110 can handle heavy-load processing performed by the segmentation learning model 132 , the left/right eye identification learning model 133 , and the like. As a result, for example, each information processing device 110 installed in each operating room can share one server device 130. Therefore, compared to the case where the right and left eye identification system 100 is installed in each operating room, it is possible to identify right and left eyes. The installation cost of system 100 can be reduced.

また、本実施の形態では、ネットワークIF115において、カメラ120から送信された術野画像Iaが受信される。これにより、カメラ120との通信用に、ネットワークIF115とは別個のネットワークIFを設ける必要がないので、情報処理装置110として廉価なものを用いることができる。その結果、左右眼識別システム100のコストを低減することができる。 Further, in the present embodiment, the network IF 115 receives the surgical field image Ia transmitted from the camera 120 . As a result, it is not necessary to provide a network IF separate from the network IF 115 for communication with the camera 120, so that an inexpensive device can be used as the information processing device 110. FIG. As a result, the cost of the left/right eye identification system 100 can be reduced.

<3.第1の実施の形態の変形例>
次に、第1実施の形態に係る左右眼識別システム100の変形例について説明する。
<3. Modification of First Embodiment>
Next, a modification of the left/right eye identification system 100 according to the first embodiment will be described.

[[変形例A]]
図15は、上記実施の形態に係る左右眼識別システム100の機能ブロックの一変形例を表したものである。本変形例に係る情報処理装置110は、メモリ112に、プログラム112Aの代わりに、プログラム112Bを記憶している。本変形例に係るサーバ装置130は、メモリ134に、さらに、プログラム134Dを記憶している。プログラム134Dは、本発明の「識別プログラム」の一具体例に相当する。
[[Modification A]]
FIG. 15 shows a modified example of functional blocks of the left/right eye identification system 100 according to the above embodiment. Information processing apparatus 110 according to this modification stores program 112B in memory 112 instead of program 112A. The server device 130 according to this modification further stores a program 134D in the memory 134. FIG. The program 134D corresponds to one specific example of the "identification program" of the present invention.

プログラム112Bは、情報処理装置110を左右眼識別システム100におけるユーザーインターフェースとして機能させるための手順を制御部111に実行させる。プログラム134Dは、術野に含まれる眼の種類(左眼または右眼)を識別するための一連の手順を制御部131に実行させる。 The program 112</b>B causes the control unit 111 to execute a procedure for causing the information processing device 110 to function as a user interface in the left/right eye identification system 100 . The program 134D causes the controller 131 to execute a series of procedures for identifying the type of eye (left eye or right eye) included in the operative field.

(左右眼識別)
図16は、本変形例に係る左右眼識別システム100における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112B,134Dの起動を指示する。すると、情報処理装置110(制御部111)は、メモリ112からプログラム112Bを読み出して、制御部111にロードする。プログラム112Bがロードされた制御部111は、情報処理装置110を左右眼識別システム100におけるユーザーインターフェースとして機能させるための手順を実行する。サーバ装置130(制御部131)は、メモリ134からプログラム134Dを読み出して、制御部131にロードする。プログラム134Dがロードされた制御部131は、左右眼の識別をするための一連の手順を実行する。
(Left and right eye identification)
FIG. 16 is a flow chart showing an example of the left/right eye identification procedure in the left/right eye identification system 100 according to this modification. First, the user instructs the start of left/right eye identification via the input unit 114 . The user instructs the activation of the programs 112B and 134D via the input unit 114, for example. Then, the information processing device 110 (control unit 111 ) reads the program 112 B from the memory 112 and loads it into the control unit 111 . The control unit 111 loaded with the program 112B executes a procedure for causing the information processing device 110 to function as a user interface in the left/right eye identification system 100 . Server device 130 (control unit 131 ) reads program 134 D from memory 134 and loads it into control unit 131 . The control unit 131 loaded with the program 134D executes a series of procedures for identifying left and right eyes.

具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを情報処理装置110に送信する。 Specifically, first, control unit 111 outputs an imaging instruction to camera 120 . The camera 120 takes an image of the inside of the opening of the drape 600 in accordance with the imaging instruction, and transmits the resulting surgical field image Ia to the information processing apparatus 110 .

情報処理装置110(制御部111)は、受信した術野画像Iaをサーバ装置130に送信する。サーバ装置130(制御部131)は、受信した術野画像Iaに対して明るさ判定を行う。サーバ装置130(制御部131)は、例えば、術野画像IaをHSVに変換し、変換により得られた各ピクセルのV値が所定の範囲外にある場合には、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示させる信号を情報処理装置110に送信する。情報処理装置110は、サーバ装置130からの信号に基づいて、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示する。 The information processing device 110 (control unit 111 ) transmits the received surgical field image Ia to the server device 130 . The server device 130 (control unit 131) performs brightness determination on the received surgical field image Ia. For example, the server device 130 (control unit 131) converts the operative field image Ia into HSV, and if the V value of each pixel obtained by the conversion is outside a predetermined range, the operative field image Ia is A signal is transmitted to the information processing device 110 to cause the display unit 113 to display that the brightness is insufficient or too bright. Based on the signal from the server device 130, the information processing device 110 displays on the display unit 113 that the operative field image Ia is insufficiently bright or too bright.

サーバ装置130(制御部131)は、例えば、得られた各ピクセルのV値が所定の範囲内にある場合には、ピント判定を実施する。サーバ装置130(制御部131)は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示させる信号を情報処理装置110に送信する。情報処理装置110は、サーバ装置130からの信号に基づいて、術野画像Iaのピントがずれていることを表示部113に表示する。サーバ装置130(制御部131)は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像IaをSegmentation学習モデル132に入力する。 The server device 130 (control unit 131) performs focus determination, for example, when the obtained V value of each pixel is within a predetermined range. The server device 130 (control unit 131) performs, for example, Laplacian differentiation on the operative field image Ia, and if the resulting score is below a predetermined threshold, the operative field image Ia is out of focus. A signal is transmitted to the information processing apparatus 110 to cause the display unit 113 to display the fact. Based on the signal from the server device 130, the information processing device 110 displays on the display unit 113 that the surgical field image Ia is out of focus. The server device 130 (control unit 131) inputs the surgical field image Ia to the segmentation learning model 132, for example, when the derived score is equal to or greater than a predetermined threshold.

Segmentation学習モデル132は、術野画像Iaが入力されると、変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを制御部131に入力する。制御部131は、入力されたSegmentation画像Icに対して、物体検出を行う。制御部131は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 The Segmentation learning model 132 executes a conversion process when the surgical field image Ia is input. Specifically, the segmentation learning model 132 uses the learning result to convert the surgical field image Ia into the segmentation image Ic (see FIG. 6). The segmentation learning model 132 inputs the segmentation image Ic obtained by conversion to the control unit 131 . The control unit 131 performs object detection on the input segmentation image Ic. For example, as shown in FIG. 8, the control unit 131 cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the segmentation image Ic. An image obtained in this manner is referred to as a Detection image Id.

制御部131は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。制御部131は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報とする。つまり、制御部131は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The control unit 131 uses the position information of the obtained detection image Id in the operating field image Ia as the position information of the region including the eye to be identified in the operating field image Ia. The control unit 131 uses, for example, the position information of the outer edge portion of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the control unit 131 acquires the position information of the region including the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

なお、制御部131は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。制御部131は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、制御部131は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 Note that the control unit 131 may use the position information of the obtained detection image Id in the operating field image Ia as the position information of the eye to be identified in the operating field image Ia. For example, the control unit 131 may use the position information of the outer edge portion of the eye area Ra of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. In this case, the control unit 131 acquires the position information of the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

制御部131は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを術野画像Iaに重ね合わせた画像(マーカ画像Ie)を情報処理装置110に送信する。情報処理装置110(制御部111)は、受信したマーカ画像Ieを含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図9に示したように、制御部111からの映像信号に基づいて、術野画像IaにマーカMcを重ね合わせた画像を表示面110Aに表示する。 After generating the marker Mc based on the acquired position information, the control unit 131 transmits to the information processing apparatus 110 an image (marker image Ie) in which the generated marker Mc is superimposed on the surgical field image Ia. The information processing device 110 (control unit 111 ) generates a video signal for displaying an image including the received marker image Ie, and outputs the video signal to the display unit 113 . For example, as shown in FIG. 9, based on the video signal from the control unit 111, the display unit 113 displays an image in which the marker Mc is superimposed on the operative field image Ia on the display surface 110A.

左右眼識別システム100は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、表示面110Aに表示された画像を参照しながら、カメラ120の撮像領域を微調整する。サーバ装置130(制御部131)は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、サーバ装置130(制御部131)は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を情報処理装置110に送信する。情報処理装置110(制御部111)は、受信した情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図10に示したように、「顕微鏡位置がずれています。」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、情報処理装置110(制御部111)は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left/right eye identification system 100 periodically performs a series of procedures from the imaging instruction to the marker Mc display described above. At this time, the medical staff finely adjusts the imaging area of the camera 120 while referring to the image displayed on the display surface 110A. For example, every time the server device 130 (control unit 131) executes the above-described series of procedures from the imaging instruction to the display of the marker Mc, whether or not the position of the marker Mc protrudes from the predetermined region in the surgical field image Ia. judge. As a result, when the position of the marker Mc protrudes from the predetermined area in the operating field image Ia, the server apparatus 130 (control unit 131), for example, Information indicating the protruding portion is transmitted to the information processing device 110 . Information processing device 110 (control unit 111 ) generates a video signal for displaying an image including the received information, and outputs the video signal to display unit 113 . For example, based on the video signal from the control unit 111, the display unit 113 displays information indicating that the position of the marker Mc in the operative field image Ia protrudes from a predetermined region, the marker Mc, and the operative field image Ia. and is displayed on the display surface 110A. For example, as shown in FIG. 10, the display unit 113 displays on the display surface 110A an image including a status ST such as "the position of the microscope is shifted", a marker Mc, and an operating field image Ia. . Note that the information processing apparatus 110 (control unit 111) uses a method other than image display on the display surface 110A (for example, sound, patrol lamp lighting, etc.) to move the position of the marker Mc out of the predetermined area in the surgical field image Ia. You may want to inform your healthcare provider that you are

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、サーバ装置130(制御部131)は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す情報を情報処理装置110に送信する。情報処理装置110(制御部111)は、受信した情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、情報処理装置110(制御部111)は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc is within the predetermined area in the operative field image Ia, the server apparatus 130 (control unit 131) determines that the position of the marker Mc is within the predetermined area in the operative field image Ia. Information indicating that is transmitted to the information processing apparatus 110 . Information processing device 110 (control unit 111 ) generates a video signal for displaying an image including the received information, and outputs the video signal to display unit 113 . For example, based on the video signal from the control unit 111, the display unit 113 displays information indicating that the position of the marker Mc is within a predetermined region in the operative field image Ia, the marker Mc, and the operative field image. An image including Ia is displayed on the display surface 110A. Note that the information processing apparatus 110 (control unit 111) uses a method other than image display on the display surface 110A (for example, sound, patrol lamp lighting, etc.) to ensure that the position of the marker Mc is within a predetermined area in the operating field image Ia. You may want to let your healthcare provider know.

サーバ装置130(制御部131)は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果を制御部131に送信する。制御部131は、識別結果DRを情報処理装置110に送信する。制御部111は、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図12に示したように、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図12に示したように、識別結果DRを術野画像Ia上に重ね合わせて表示してもよいし、例えば、図13に示したように、識別結果DRを術野画像Iaとは別の領域に表示してもよい。 The server device 130 (control unit 131) outputs a left/right eye identification instruction to the left/right eye identification learning model 133 when the position of the marker Mc is within a predetermined area in the surgical field image Ia. When the left/right eye identification learning model 133 receives the left/right eye identification instruction, the left/right eye identification learning model 133 performs the identification process. Specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye included in the detection image Ib. More specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye type (left eye, right eye) included in the detection image Ib. The left/right eye identification learning model 133 transmits the identification result to the control unit 131 . Control unit 131 transmits identification result DR to information processing apparatus 110 . The control unit 111 generates a video signal for displaying an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia on the display surface 110A, and outputs the video signal to the display unit 113 . For example, as shown in FIG. 12, the display unit 113 displays an image including the status ST, the identification result DR, the marker Mc, and the operative field image Ia based on the video signal from the control unit 111. 110A. For example, as shown in FIG. 12, the display unit 113 may display the identification result DR superimposed on the surgical field image Ia, or, for example, as shown in FIG. It may be displayed in an area different from the wild image Ia.

医療従事者は、表示面110Aに表示された識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR displayed on the display surface 110A, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye, and whether it is the eye to be operated on. can be confirmed. In this way, left and right eye identification is performed.

情報処理装置110(制御部111)は、さらに、例えば、メモリ134に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較し、その比較結果CRを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図14に示したように、制御部111からの映像信号に基づいて、比較結果CRと、識別結果DRと、ステータスSTと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、図14には、比較結果CRとして、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとが一致したときの表示が例示されている。 The information processing device 110 (control unit 111) further reads, for example, surgical data 134C corresponding to the patient 400 from a plurality of surgical data 134C stored in the memory 134, The subject eye is compared with the identification result DR, a video signal for displaying an image including the comparison result CR on the display surface 110A is generated, and output to the display unit 113. FIG. For example, as shown in FIG. 14, the display unit 113 displays an image including the comparison result CR, the identification result DR, the status ST, and the surgical field image Ia based on the video signal from the control unit 111. It is displayed on the surface 110A. Note that FIG. 14 exemplifies display when the operated eye included in the read surgery data 134C matches the identification result DR as the comparison result CR.

本変形例では、サーバ装置130において、識別対象である眼を含む術野画像Iaから得られたSegmentation画像Icに対して物体検出を行うことにより、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報が取得される。さらに、本変形例では、取得された位置情報に基づいて生成したマーカMcを術野画像Iaに重ね合わせた画像(マーカ画像Ie)が情報処理装置110に送信される。これにより、情報処理装置110において、マーカ画像Ieを表示することができるので、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 In this modification, in the server device 130, object detection is performed on the segmentation image Ic obtained from the operative field image Ia including the eye to be identified. is acquired in the surgical field image Ia. Furthermore, in this modification, an image (marker image Ie) in which the marker Mc generated based on the acquired position information is superimposed on the surgical field image Ia is transmitted to the information processing apparatus 110 . Accordingly, since the marker image Ie can be displayed in the information processing device 110, it is possible to reliably include elements (for example, the lacrimal hills 12 and the inner corner of the eye) that facilitate identification of the left and right eyes in the marker Mc. can. As a result, the medical staff adjusts the imaging area of the camera 120 so that the marker Mc is positioned within a predetermined area in the operative field image Ia, so that the eye captured in the operative field image Ia is the left eye. or the right eye can be correctly identified in the left/right eye identification system 100 . Therefore, it is possible to identify eye types that are difficult to identify.

また、本変形例では、Segmentation画像Icに対して物体検出を行うことにより、Segmentation画像IcからDetection画像Idが切り出された後、切り出されたDetection画像Idの、術野画像Iaにおける位置情報が、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報となる。これにより、術野画像Iaに対して、単純に物体検出を行い、それにより得られたDetection画像に基づいて、識別対象である眼の、術野画像Iaにおける位置情報を導出した場合と比べて、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 Further, in this modification, by performing object detection on the segmentation image Ic, after the detection image Id is clipped from the segmentation image Ic, the position information of the clipped detection image Id in the surgical field image Ia is: This is the positional information of the eye to be identified or the region containing the eye to be identified in the surgical field image Ia. As a result, compared to the case where object detection is simply performed on the surgical field image Ia, and the position information of the eye to be identified in the surgical field image Ia is derived based on the resulting detection image. , the marker Mc can certainly include an element (for example, the lacrimal gland 12 or the inner corner of the eye) that facilitates identification of the left and right eyes. As a result, the medical staff adjusts the imaging area of the camera 120 so that the marker Mc is positioned within a predetermined area in the operative field image Ia, so that the eye captured in the operative field image Ia is the left eye. or the right eye can be correctly identified in the left/right eye identification system 100 . Therefore, it is possible to identify eye types that are difficult to identify.

[[変形例B]]
上記実施の形態において、例えば、図17に示したように、サーバ装置130が省略されるとともに、情報処理装置110がサーバ装置130の機能を備えていてもよい。このとき、情報処理装置110は、例えば、図18に示したように、Segmentation学習モデル132および左右眼識別学習モデル133を備えるとともに、複数の画像データ134A、複数の画像データ134Bおよび複数の手術データ134Cをメモリ112に記憶している。
[[Modification B]]
In the above embodiment, for example, as shown in FIG. 17, the server device 130 may be omitted and the information processing device 110 may have the functions of the server device 130 . At this time, the information processing apparatus 110 includes, for example, a Segmentation learning model 132 and a left/right eye identification learning model 133, as shown in FIG. 134C is stored in memory 112 .

(左右眼識別)
図19は、本変形例に係る左右眼識別システム100における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112Aの起動を指示する。すると、情報処理装置110(制御部111)は、メモリ112からプログラム112Aを読み出して、制御部111にロードする。プログラム112Aがロードされた制御部111は、左右眼の識別をするための一連の手順を実行する。
(Left and right eye identification)
FIG. 19 is a flow chart showing an example of the left/right eye identification procedure in the left/right eye identification system 100 according to this modification. First, the user instructs the start of left/right eye identification via the input unit 114 . The user instructs to start the program 112A via the input unit 114, for example. Then, the information processing device 110 (control unit 111 ) reads the program 112 A from the memory 112 and loads it into the control unit 111 . The control unit 111 loaded with the program 112A executes a series of procedures for identifying left and right eyes.

具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを情報処理装置110に送信する。 Specifically, first, control unit 111 outputs an imaging instruction to camera 120 . The camera 120 takes an image of the inside of the opening of the drape 600 in accordance with the imaging instruction, and transmits the resulting surgical field image Ia to the information processing apparatus 110 .

制御部111は、受信した術野画像Iaに対して明るさ判定を行う。制御部111は、例えば、術野画像IaをHSVに変換し、変換により得られた各ピクセルのV値が所定の範囲外にある場合には、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示する。 The control unit 111 performs brightness determination on the received surgical field image Ia. For example, the control unit 111 converts the operative field image Ia into HSV, and if the V value of each pixel obtained by the conversion is outside a predetermined range, the operative field image Ia is insufficiently bright or too bright. The presence is displayed on the display unit 113 .

制御部111は、例えば、得られた各ピクセルのV値が所定の範囲内にある場合には、ピント判定を実施する。制御部111は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示する。制御部111は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像IaをSegmentation学習モデル132に入力する。 For example, when the obtained V value of each pixel is within a predetermined range, the control unit 111 performs focus determination. For example, the control unit 111 performs Laplacian differentiation on the operative field image Ia, and if the resulting score is below a predetermined threshold, the display unit 113 indicates that the operative field image Ia is out of focus. to display. For example, when the derived score is equal to or greater than a predetermined threshold, the control unit 111 inputs the operative field image Ia to the segmentation learning model 132 .

Segmentation学習モデル132は、術野画像Iaが入力されると、変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを制御部111に入力する。制御部111は、入力されたSegmentation画像Icに対して、物体検出を行う。制御部111は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 The Segmentation learning model 132 executes a conversion process when the surgical field image Ia is input. Specifically, the segmentation learning model 132 uses the learning result to convert the surgical field image Ia into the segmentation image Ic (see FIG. 6). The segmentation learning model 132 inputs the segmentation image Ic obtained by conversion to the control unit 111 . The control unit 111 performs object detection on the input segmentation image Ic. For example, as shown in FIG. 8, the control unit 111 cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the segmentation image Ic. An image obtained in this manner is referred to as a Detection image Id.

制御部111は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。制御部111は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報をマーカMcの位置情報とする。つまり、制御部111は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The control unit 111 uses the position information of the obtained detection image Id in the operating field image Ia as the position information of the region including the eye to be identified in the operating field image Ia. The control unit 111 uses, for example, the position information of the outer edge portion of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the control unit 111 acquires the position information of the region including the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

なお、制御部111は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。制御部111は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、制御部111は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 Note that the control unit 111 may use the position information of the obtained detection image Id in the operating field image Ia as the position information of the eye to be identified in the operating field image Ia. For example, the control unit 111 may use the position information of the outer edge portion of the eye area Ra of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. In this case, the control unit 111 acquires the position information of the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

制御部111は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを術野画像Iaに重ね合わせた画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図9に示したように、制御部111からの映像信号に基づいて、術野画像IaにマーカMcを重ね合わせた画像を表示面110Aに表示する。 After generating the marker Mc based on the acquired position information, the control unit 111 generates a video signal for displaying an image in which the generated marker Mc is superimposed on the surgical field image Ia, and outputs the video signal to the display unit 113. . For example, as shown in FIG. 9, based on the video signal from the control unit 111, the display unit 113 displays an image in which the marker Mc is superimposed on the operative field image Ia on the display surface 110A.

左右眼識別システム100は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、表示面110Aに表示された画像を参照しながら、カメラ120の撮像領域を微調整する。制御部111は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、制御部111は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図10に示したように、「顕微鏡位置がずれています。」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、制御部111は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left/right eye identification system 100 periodically performs a series of procedures from the imaging instruction to the marker Mc display described above. At this time, the medical staff finely adjusts the imaging area of the camera 120 while referring to the image displayed on the display surface 110A. For example, the control unit 111 determines whether or not the position of the marker Mc protrudes from a predetermined area in the surgical field image Ia each time the above-described series of procedures from the imaging instruction to the marker Mc display are executed. As a result, when the position of the marker Mc protrudes from the predetermined region in the surgical field image Ia, the control unit 111 detects that the position of the marker Mc protrudes from the predetermined region in the surgical field image Ia, for example. A video signal for displaying an image including meaningful information is generated and output to the display unit 113 . For example, based on the video signal from the control unit 111, the display unit 113 displays an image including the operative field image Ia and information indicating that the position of the marker Mc is out of a predetermined region in the operative field image Ia. is displayed on the display surface 110A. For example, as shown in FIG. 10, the display unit 113 displays on the display surface 110A an image including a status ST such as "the position of the microscope is shifted", a marker Mc, and an operating field image Ia. . Note that the control unit 111 detects that the position of the marker Mc in the operative field image Ia is out of the predetermined region by a method other than displaying the image on the display surface 110A (for example, by sound, or by turning on a patrol lamp). You can let people know.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、制御部111は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図11に示したように、「顕微鏡位置OK」といったようなステータスSTと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、制御部111は、表示面110Aへの画像表示以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc is within the predetermined area in the operating field image Ia, the control unit 111 displays an image indicating that the position of the marker Mc is within the predetermined area in the operating field image Ia. A video signal for display is generated and output to the display unit 113 . For example, based on the video signal from the control unit 111, the display unit 113 displays information indicating that the position of the marker Mc is within a predetermined region in the operative field image Ia, the marker Mc, and the operative field image. An image including Ia is displayed on the display surface 110A. For example, as shown in FIG. 11, the display unit 113 displays an image including a status ST such as "microscope position OK", a marker Mc, and an operating field image Ia on the display surface 110A. Note that the control unit 111 notifies the medical staff that the position of the marker Mc is within a predetermined region in the surgical field image Ia by a method other than displaying the image on the display surface 110A (for example, sound, lighting of a patrol lamp, etc.). may inform

制御部111は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRを制御部111に入力する。制御部111は、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図12に示したように、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcと、術野画像Iaとを含む画像を表示面110Aに表示する。表示部113は、例えば、図12に示したように、識別結果DRを術野画像Ia上に重ね合わせて表示してもよいし、例えば、図13に示したように、識別結果DRを術野画像Iaとは別の領域に表示してもよい。 The control unit 111 outputs a left/right eye identification instruction to the left/right eye identification learning model 133 when the position of the marker Mc is within a predetermined area in the surgical field image Ia. When the left/right eye identification learning model 133 receives the left/right eye identification instruction, the left/right eye identification learning model 133 performs the identification process. Specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye included in the detection image Ib. More specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye type (left eye, right eye) included in the detection image Ib. The left/right eye identification learning model 133 inputs the identification result DR to the control unit 111 . The control unit 111 generates a video signal for displaying an image including the status ST, the identification result DR, the marker Mc, and the surgical field image Ia on the display surface 110A, and outputs the video signal to the display unit 113 . For example, as shown in FIG. 12, the display unit 113 displays an image including the status ST, the identification result DR, the marker Mc, and the operative field image Ia based on the video signal from the control unit 111. 110A. For example, as shown in FIG. 12, the display unit 113 may display the identification result DR superimposed on the surgical field image Ia, or, for example, as shown in FIG. It may be displayed in an area different from the wild image Ia.

医療従事者は、表示面110Aに表示された識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR displayed on the display surface 110A, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye, and whether it is the eye to be operated on. can be confirmed. In this way, left and right eye identification is performed.

制御部111は、さらに、例えば、メモリ112に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較し、その比較結果CRを表示面110Aに表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、図14に示したように、制御部111からの映像信号に基づいて、比較結果CRと、識別結果DRと、ステータスSTと、術野画像Iaとを含む画像を表示面110Aに表示する。なお、図14には、比較結果CRとして、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとが一致したときの表示が例示されている。 Further, the control unit 111 further reads, for example, the surgery data 134C corresponding to the patient 400 from among the plurality of surgery data 134C stored in the memory 112, and the operated eye and the identification result included in the read surgery data 134C. DR is compared, and a video signal for displaying the comparison result CR on the display surface 110A is generated and output to the display unit 113. FIG. For example, as shown in FIG. 14, the display unit 113 displays an image including the comparison result CR, the identification result DR, the status ST, and the surgical field image Ia based on the video signal from the control unit 111. It is displayed on the surface 110A. Note that FIG. 14 exemplifies display when the operated eye included in the read surgery data 134C matches the identification result DR as the comparison result CR.

本変形例では、情報処理装置110が上記実施の形態に係るサーバ装置130の機能を備えている。これにより、情報処理装置110とカメラ120を用意し、これらをネットワーク140に接続するだけで、左右眼識別を行うことができる。従って、サーバ装置130が不要な分だけ、左右眼識別システム100を設置する手間を削減することができる。 In this modification, the information processing device 110 has the functions of the server device 130 according to the above embodiment. Thus, by simply preparing the information processing device 110 and the camera 120 and connecting them to the network 140, it is possible to identify the left and right eyes. Therefore, the trouble of installing the left/right eye identification system 100 can be reduced by the amount that the server device 130 is not required.

[[変形例C]]
上記実施の形態において、例えば、図20、図21に示したように、情報処理装置110とカメラ120との通信が、ネットワーク140とは別のネットワーク150を介して行われてもよい。また、上記変形例Aにおいて、例えば、図20、図22に示したように、情報処理装置110とカメラ120との通信が、ネットワーク140とは別のネットワーク150を介して行われてもよい。このとき、ネットワーク150は、例えば、Bluetooth(登録商標)などの近距離無線通信であってもよい。このような構成となっている場合であっても、上記実施の形態と同様の効果を有している。
[[Modification C]]
In the above embodiment, for example, as shown in FIGS. 20 and 21, communication between the information processing device 110 and the camera 120 may be performed via a network 150 different from the network 140. FIG. Further, in Modification A described above, for example, as shown in FIGS. 20 and 22 , communication between the information processing apparatus 110 and the camera 120 may be performed via a network 150 different from the network 140 . At this time, the network 150 may be, for example, short-range wireless communication such as Bluetooth (registered trademark). Even with such a configuration, the same effects as those of the above-described embodiment are obtained.

[[変形例D]]
上記実施の形態において、例えば、図23、図24に示したように、情報処理装置110が、サーバ装置130の機能を備え、さらに、情報処理装置110とカメラ120との通信が、ネットワーク150を介して行われてもよい。このとき、情報処理装置110は、Segmentation学習モデル132および左右眼識別学習モデル133を備えるとともに、複数の画像データ134A、複数の画像データ134Bおよび複数の手術データ134Cをメモリ112に格納している。また、情報処理装置110は、ネットワーク150を介してカメラ120と通信を行うネットワークIF116を有している。
[[Modification D]]
In the above embodiments, for example, as shown in FIGS. 23 and 24, the information processing device 110 has the functions of the server device 130, and communication between the information processing device 110 and the camera 120 is performed via the network 150. may be done via At this time, the information processing apparatus 110 includes a segmentation learning model 132 and a left/right eye identification learning model 133, and stores a plurality of image data 134A, a plurality of image data 134B, and a plurality of surgical data 134C in the memory 112. The information processing apparatus 110 also has a network IF 116 that communicates with the camera 120 via the network 150 .

本変形例において、ネットワーク150がBluetooth(登録商標)などの近距離無線通信である場合、上記実施の形態と比べて、情報処理装置110とカメラ120との通信の確立が容易となる。 In this modification, when network 150 is short-range wireless communication such as Bluetooth (registered trademark), establishing communication between information processing apparatus 110 and camera 120 is easier than in the above embodiment.

<4.第2の実施の形態>
[構成]
図25は、本発明の第2の実施の形態に係る左右眼識別システム700の概略構成の一例を表したものである。左右眼識別システム700は、本発明の「情報処理システム」の一具体例に相当する。図26は、左右眼識別システム700の機能ブロックの一例を表したものである。図25には、医療従事者が術野を拡大して視認するための眼科手術用顕微鏡システム200が、左右眼識別システム700とともに例示されている。
<4. Second Embodiment>
[composition]
FIG. 25 shows an example of a schematic configuration of a left/right eye identification system 700 according to the second embodiment of the present invention. The left/right eye identification system 700 corresponds to a specific example of the "information processing system" of the present invention. FIG. 26 shows an example of functional blocks of the left/right eye identification system 700. As shown in FIG. FIG. 25 illustrates an ophthalmic surgical microscope system 200 for magnifying and visualizing an operative field by medical personnel, together with a left/right eye identification system 700 .

(左右眼識別システム700)
左右眼識別システム700は、例えば、カメラ付き情報処理装置160と、サーバ装置130とを備えている。カメラ付き情報処理装置160およびサーバ装置130は、ネットワーク140を介して接続されている。カメラ付き情報処理装置160は、ネットワーク140を介してサーバ装置130と通信することができるように構成されている。サーバ装置130は、ネットワーク140を介してカメラ付き情報処理装置160と通信することができるように構成されている。
(Left/right eye identification system 700)
The left/right eye identification system 700 includes, for example, an information processing device 160 with a camera and a server device 130 . Camera-equipped information processing device 160 and server device 130 are connected via network 140 . Camera-equipped information processing device 160 is configured to be able to communicate with server device 130 via network 140 . Server device 130 is configured to be able to communicate with camera-equipped information processing device 160 via network 140 .

カメラ付き情報処理装置160は、例えば、制御部111、メモリ112、入力部114、ネットワークIF115、投射部117およびカメラ120を含んで構成されている。投射部117は、接眼部252に連結されており、制御部111からの映像信号に基づいて生成した映像光を、接眼部252に入射させる。 The camera-equipped information processing device 160 includes, for example, a control unit 111, a memory 112, an input unit 114, a network IF 115, a projection unit 117, and a camera 120. FIG. The projection unit 117 is connected to the eyepiece unit 252 and causes image light generated based on the image signal from the control unit 111 to enter the eyepiece unit 252 .

投射部117によって生成される映像光は、例えば、図27、図28に示したように、マーカMcと、ステータスSTとを含む画像を生成する光束であってもよい。投射部117によって生成される映像光は、例えば、図29、図30に示したように、マーカMcと、ステータスSTと、識別結果DRとを含む画像を生成する光束であってもよい。このとき、投射部117によって生成される映像光において、例えば、図29に示したように、識別結果DRがマーカMcに重ね合わされていてもよいし、例えば、図30に示したように、識別結果DRがマーカMcとは別の箇所に配置されていてもよい。投射部117によって生成される映像光は、例えば、図31に示したように、マーカMcと、ステータスSTと、識別結果DRと、比較結果CRとを含む画像を生成する光束であってもよい。 The image light generated by the projection unit 117 may be, for example, a luminous flux that generates an image including the marker Mc and the status ST as shown in FIGS. 27 and 28 . The image light generated by the projection unit 117 may be, for example, a luminous flux that generates an image including the marker Mc, the status ST, and the identification result DR as shown in FIGS. 29 and 30 . At this time, in the image light generated by the projection unit 117, for example, the identification result DR may be superimposed on the marker Mc as shown in FIG. The result DR may be placed at a different location than the marker Mc. The image light generated by the projection unit 117 may be, for example, a luminous flux that generates an image including the marker Mc, the status ST, the identification result DR, and the comparison result CR, as shown in FIG. .

接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。つまり、接眼部252は、ステータスST、識別結果DRまたは比較結果CRと、マーカMcとを、観察光学系によって形成される、術野の像とともに表示する。その結果、医療従事者は、例えば、図32に示したような画像を視認する。なお、図32には、マーカMcが術野の像に重ね合わせて表示されるとともに、ステータスST、識別結果DRおよび比較結果CRが術野の像とは別個に(つまり術野の像には重ね合わさないで)表示されている場合が例示されている。なお、ステータスST、識別結果DRおよび比較結果CRが術野の像に重ね合わせて表示されてもよい。 The image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. That is, the eyepiece 252 displays the status ST, the identification result DR or the comparison result CR, and the marker Mc together with the image of the surgical field formed by the observation optical system. As a result, the medical staff visually recognizes an image as shown in FIG. 32, for example. In FIG. 32, the marker Mc is superimposed on the image of the operative field, and the status ST, the identification result DR, and the comparison result CR are displayed separately from the image of the operative field (that is, on the image of the operative field). A case where the images are displayed without being superimposed is exemplified. Note that the status ST, the identification result DR, and the comparison result CR may be displayed superimposed on the image of the surgical field.

(左右眼識別)
図33は、左右眼識別システム700における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112Aの起動を指示する。すると、カメラ付き情報処理装置160(制御部111)は、メモリ112からプログラム112Aを読み出して、制御部111にロードする。プログラム112Aがロードされた制御部111は、左右眼の識別をするための一連の手順を実行する。具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを制御部111に出力する。
(Left and right eye identification)
FIG. 33 is a flow chart showing an example of left/right eye identification procedure in left/right eye identification system 700 . First, the user instructs the start of left/right eye identification via the input unit 114 . The user instructs to start the program 112A via the input unit 114, for example. Then, the camera-equipped information processing apparatus 160 (control unit 111 ) reads the program 112 A from the memory 112 and loads it into the control unit 111 . The control unit 111 loaded with the program 112A executes a series of procedures for identifying left and right eyes. Specifically, first, control unit 111 outputs an imaging instruction to camera 120 . The camera 120 takes an image of the inside of the opening of the drape 600 in accordance with the imaging instruction, and outputs the resulting surgical field image Ia to the control unit 111 .

制御部111は、カメラ120から入力された術野画像Iaに対して明るさ判定を行う。制御部111は、例えば、術野画像IaをHSVに変換し、変換により得られた各ピクセルのV値が所定の範囲外にある場合には、術野画像Iaが明るさ不足もしくは明る過ぎであることを表示部113に表示する。制御部111は、例えば、得られた各ピクセルのV値が所定の範囲内にある場合には、ピント判定を実施する。制御部111は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示する。情報処理装置110(制御部111)は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像Iaをサーバ装置130に送信する。 The control unit 111 performs brightness determination on the surgical field image Ia input from the camera 120 . For example, the control unit 111 converts the operative field image Ia into HSV, and if the V value of each pixel obtained by the conversion is outside a predetermined range, the operative field image Ia is insufficiently bright or too bright. The presence is displayed on the display unit 113 . For example, when the obtained V value of each pixel is within a predetermined range, the control unit 111 performs focus determination. For example, the control unit 111 performs Laplacian differentiation on the operative field image Ia, and if the resulting score is below a predetermined threshold, the display unit 113 indicates that the operative field image Ia is out of focus. to display. The information processing device 110 (control unit 111) transmits the operative field image Ia to the server device 130, for example, when the derived score is equal to or greater than a predetermined threshold.

サーバ装置130がカメラ付き情報処理装置160から術野画像Iaを受信すると、Segmentation学習モデル132が変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icをカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、受信したSegmentation画像Icに対して、物体検出を行う。カメラ付き情報処理装置160(制御部111)は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 When the server device 130 receives the surgical field image Ia from the camera-equipped information processing device 160, the Segmentation learning model 132 executes the conversion process. Specifically, the segmentation learning model 132 uses the learning result to convert the surgical field image Ia into the segmentation image Ic (see FIG. 6). The segmentation learning model 132 transmits the segmentation image Ic obtained by conversion to the information processing device 160 with camera. The camera-equipped information processing device 160 (control unit 111) performs object detection on the received segmentation image Ic. For example, as shown in FIG. 8, the camera-equipped information processing apparatus 160 (control unit 111) extracts a rectangular area including the eye area Ra from the segmentation image Ic (for example, a rectangular area in contact with the eye area Ra). cut out. An image obtained in this manner is referred to as a Detection image Id.

カメラ付き情報処理装置160(制御部111)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。カメラ付き情報処理装置160(制御部111)は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報とする。つまり、カメラ付き情報処理装置160(制御部111)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The camera-equipped information processing apparatus 160 (control unit 111) sets the position information of the obtained detection image Id in the operating field image Ia as the position information of the region including the eye to be identified in the operating field image Ia. The camera-equipped information processing apparatus 160 (control unit 111), for example, takes the position information of the outer edge portion of the obtained detection image Id in the operating field image Ia as the position information of the marker Mc. That is, the camera-equipped information processing apparatus 160 (control unit 111) acquires the position information of the region including the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

なお、カメラ付き情報処理装置160(制御部111)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。カメラ付き情報処理装置160(制御部111)は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、カメラ付き情報処理装置160(制御部111)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The camera-equipped information processing apparatus 160 (control unit 111) may use the position information of the obtained detection image Id in the operating field image Ia as the position information of the eye to be identified in the operating field image Ia. The camera-equipped information processing apparatus 160 (control unit 111) may use, for example, the position information of the outer edge portion of the eye area Ra of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. In this case, the camera-equipped information processing apparatus 160 (control unit 111) acquires position information of the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

カメラ付き情報処理装置160(制御部111)は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、マーカMcを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、術野の像にマーカMcが重ね合わされた画像を視認する。つまり、接眼部252は、マーカMcを、観察光学系によって形成される、術野の像に重ね合わせて表示する。 After generating the marker Mc based on the acquired position information, the camera-equipped information processing device 160 (control unit 111) generates a video signal for generating image light including the generated marker Mc, and outputs the signal to the projection unit 117. Output. The projection unit 117 generates image light including the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which the marker Mc is superimposed on the image of the surgical field. That is, the eyepiece 252 displays the marker Mc superimposed on the image of the surgical field formed by the observation optical system.

左右眼識別システム700は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、接眼部252を介して見える視野(術野)の像を参照しながら、カメラ120の撮像領域を微調整する。カメラ付き情報処理装置160(制御部111)は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、カメラ付き情報処理装置160(制御部111)は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に図27に示した像が重ね合わされた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left/right eye identification system 700 periodically performs a series of procedures from the imaging instruction to the marker Mc display described above. At this time, the medical staff finely adjusts the imaging area of the camera 120 while referring to the image of the visual field (operative field) seen through the eyepiece 252 . For example, every time the camera-equipped information processing apparatus 160 (control unit 111) executes the above-described series of procedures from the imaging instruction to the display of the marker Mc, the position of the marker Mc protrudes from the predetermined area in the surgical field image Ia. determine whether or not there is As a result, when the position of the marker Mc in the operating field image Ia protrudes from the predetermined area, the information processing apparatus 160 with camera (the control unit 111), for example, determines that the position of the marker Mc in the operating field image Ia is a predetermined area. A video signal is generated for generating video light including information indicating that it is protruding from the area of , and is output to the projection unit 117 . Based on the video signal from the control unit 111, the projection unit 117 generates video light including the marker Mc and information indicating that the position of the marker Mc is out of a predetermined area in the surgical field image Ia. , to the eyepiece 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which the image shown in FIG. 27 is superimposed on the image of the operative field, for example. Note that the camera-equipped information processing apparatus 160 (control unit 111) performs the surgical operation by a method other than displaying the marker Mc in the field of view (operative field) that can be seen through the eyepiece unit 252 (for example, sound, patrol lamp lighting, etc.). The medical staff may be informed that the position of the marker Mc is out of the predetermined area in the field image Ia.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、カメラ付き情報処理装置160(制御部111)は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを意味する情報を含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に図28に示した像が重ね合わされた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc is within the predetermined area in the operative field image Ia, the information processing apparatus 160 with camera (control unit 111) determines that the position of the marker Mc is within the predetermined area in the operative field image Ia. A video signal is generated for generating video light containing information indicating that it is inside, and is output to the projection unit 117 . Based on the video signal from the control unit 111, the projection unit 117 generates video light including the marker Mc and information indicating that the position of the marker Mc is within a predetermined area in the surgical field image Ia. and emitted to the eyepiece 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which the image shown in FIG. 28 is superimposed on the image of the operative field, for example. Note that the camera-equipped information processing apparatus 160 (control unit 111) performs the surgical operation by a method other than displaying the marker Mc in the field of view (operative field) that can be seen through the eyepiece unit 252 (for example, sound, patrol lamp lighting, etc.). The medical staff may be notified that the position of the marker Mc is within a predetermined area in the field image Ia.

カメラ付き情報処理装置160(制御部111)は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、サーバ装置130内の左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRをカメラ付き情報処理装置160に送信する。制御部111は、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図29または図30に示した像が重ね合わされた画像を視認する。 When the position of the marker Mc is within a predetermined area in the operative field image Ia, the camera-equipped information processing device 160 (control unit 111) instructs the left and right eye identification learning model 133 in the server device 130 to: Output left and right eye identification instructions. When the left/right eye identification learning model 133 receives the left/right eye identification instruction, the left/right eye identification learning model 133 performs the identification process. Specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye included in the detection image Ib. More specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye type (left eye, right eye) included in the detection image Ib. The left/right eye identification learning model 133 transmits the identification result DR to the information processing device 160 with camera. Control unit 111 generates a video signal for generating video light including status ST, identification result DR, and marker Mc, and outputs the video signal to projection unit 117 . The projection unit 117 generates image light including the status ST, the identification result DR, and the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which, for example, the image shown in FIG. 29 or 30 is superimposed on the image of the operative field.

医療従事者は、接眼部252を介して見える視野(術野)の像内の識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR in the image of the visual field (operative field) seen through the eyepiece 252, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye. As a result, it is possible to confirm whether or not the eye is an eye to be operated on. In this way, left and right eye identification is performed.

カメラ付き情報処理装置160(制御部111)は、さらに、例えば、メモリ134に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較する。カメラ付き情報処理装置160(制御部111)は、その比較結果CRと、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、比較結果CRと、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、図32に示したように、比較結果CRと、識別結果DRと、ステータスSTと、マーカMcとを、接眼部252を介して見える視野(術野)の像内に視認する。 The camera-equipped information processing device 160 (the control unit 111) further reads, for example, the surgical data 134C corresponding to the patient 400 from among the plurality of surgical data 134C stored in the memory 134, and stores the read surgical data 134C. The included eye to be operated is compared with the identification result DR. Camera-equipped information processing device 160 (control unit 111) generates a video signal for generating video light including the comparison result CR, status ST, identification result DR, and marker Mc, and sends it to projection unit 117. Output. The projection unit 117 generates image light including the comparison result CR, the status ST, the identification result DR, and the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, for example, as shown in FIG. 32, the medical staff can view the comparison result CR, the identification result DR, the status ST, and the marker Mc through the eyepiece 252 in the visual field (operative field). visible in the image of

[効果]
次に、本実施の形態に係る左右眼識別システム700の効果について説明する。
[effect]
Next, the effect of left/right eye identification system 700 according to the present embodiment will be described.

本実施の形態では、識別対象である眼を含む術野画像Iaから得られたSegmentation画像Icに対して物体検出を行うことにより、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報が取得される。さらに、本実施の形態では、取得された位置情報に基づいて生成したマーカMcを、観察光学系によって形成される、術野の像に重ね合わせて表示する。これにより、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが観察光学系によって形成される、術野の像における所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 In the present embodiment, by performing object detection on the segmentation image Ic obtained from the operative field image Ia including the eye to be identified, the eye to be identified or the area including the eye to be identified is detected. , the position information in the operating field image Ia is acquired. Furthermore, in the present embodiment, the marker Mc generated based on the acquired position information is superimposed and displayed on the image of the surgical field formed by the observation optical system. This allows the marker Mc to reliably include an element (for example, the lacrimal gland 12 and the inner corner of the eye) that facilitates identification of the left and right eyes. As a result, the medical staff adjusts the imaging region of the camera 120 so that the marker Mc is positioned within a predetermined region in the image of the operative field formed by the observation optical system, thereby capturing the image in the operative field image Ia. The left/right eye identification system 100 can correctly identify whether the eye being viewed is the left eye or the right eye. Therefore, it is possible to identify eye types that are difficult to identify.

また、本実施の形態では、医療従事者用顕微鏡250において、識別結果DRが、観察光学系によって形成される、術野の像に重ね合わせて表示される。また、本実施の形態では、医療従事者用顕微鏡250において、マーカMcとともに、識別結果DRが、観察光学系によって形成される、術野の像に重ね合わせて表示される。これにより、見過ごしの無い確実な確認作業を行うことができる。 Further, in the present embodiment, the identification result DR is superimposed and displayed on the image of the surgical field formed by the observation optical system in the microscope for medical staff 250 . Further, in the present embodiment, in microscope 250 for medical staff, together with marker Mc, identification result DR is displayed superimposed on the image of the surgical field formed by the observation optical system. As a result, it is possible to perform reliable confirmation work without overlooking.

また、本実施の形態では、Segmentation画像Icに対して物体検出を行うことにより、Segmentation画像IcからDetection画像Idが切り出された後、切り出されたDetection画像Idの、術野画像Iaにおける位置情報が、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報となる。これにより、術野画像Iaに対して、単純に物体検出を行い、それにより得られたDetection画像に基づいて、識別対象である眼の、術野画像Iaにおける位置情報を導出した場合と比べて、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが観察光学系によって形成される、術野の像における所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 Further, in the present embodiment, by performing object detection on the segmentation image Ic, after the detection image Id is clipped from the segmentation image Ic, the position information of the clipped detection image Id in the surgical field image Ia is , position information of the eye to be identified, or a region including the eye to be identified, in the surgical field image Ia. As a result, compared to the case where object detection is simply performed on the surgical field image Ia, and the position information of the eye to be identified in the surgical field image Ia is derived based on the resulting detection image. , the marker Mc can certainly include an element (for example, the lacrimal gland 12 or the inner corner of the eye) that facilitates identification of the left and right eyes. As a result, the medical staff adjusts the imaging region of the camera 120 so that the marker Mc is positioned within a predetermined region in the image of the operative field formed by the observation optical system, thereby capturing the image in the operative field image Ia. The left/right eye identification system 100 can correctly identify whether the eye being viewed is the left eye or the right eye. Therefore, it is possible to identify eye types that are difficult to identify.

また、本実施の形態では、マーカMcが観察光学系によって形成される、術野の像における所定の領域からはみ出している場合には、マーカMcと、マーカMcが所定の領域からはみ出していることを意味する情報(例えば、ステータスST)とを含む画像が、観察光学系によって形成される、術野の像に重ね合わされる。これにより、医療従事者に対して、カメラ120の撮像領域の微調整が必要なことを確実に知らせることができる。 Further, in the present embodiment, when the marker Mc protrudes from the predetermined region in the image of the surgical field formed by the observation optical system, the marker Mc and the marker Mc protrude from the predetermined region. (for example, status ST) is superimposed on the image of the operative field formed by the observation optical system. Accordingly, it is possible to reliably notify the medical staff that fine adjustment of the imaging area of the camera 120 is required.

また、本実施の形態では、マーカMcが術野画像Iaにおける所定の領域内に収まっているときに得られた術野画像Iaをサーバ装置130に送信した後、左右眼の識別結果をサーバ装置130から受信するネットワークIF115がカメラ付き情報処理装置160に設けられている。これにより、Segmentation学習モデル132や左右眼識別学習モデル133などで行われる負荷の大きな処理を、カメラ付き情報処理装置160とは別の装置(サーバ装置130)に担わせることができる。その結果、例えば、手術室ごとに設置した各カメラ付き情報処理装置160が1つのサーバ装置130を共有することができるので、左右眼識別システム700を手術室ごとに設置する場合と比べて、左右眼識別システム700の設置コストを低減することができる。 Further, in the present embodiment, after the surgical field image Ia obtained when the marker Mc is within a predetermined region in the surgical field image Ia is transmitted to the server device 130, the left and right eye identification results are sent to the server device. A network IF 115 that receives data from 130 is provided in the camera-equipped information processing apparatus 160 . As a result, a device (server device 130) other than the camera-equipped information processing device 160 can handle heavy-load processing performed by the segmentation learning model 132, the left/right eye identification learning model 133, and the like. As a result, for example, each camera-equipped information processing device 160 installed in each operating room can share one server device 130. Therefore, compared to the case where the right and left eye identification system 700 is installed in each operating room, The installation cost of the eye identification system 700 can be reduced.

<5.第2の実施の形態の変形例>
次に、第2の実施の形態に係る左右眼識別システム700の変形例について説明する。
<5. Modification of Second Embodiment>
Next, a modification of the left/right eye identification system 700 according to the second embodiment will be described.

[[変形例E]]
図34は、第2の実施の形態に係る左右眼識別システム700の機能ブロックの一変形例を表したものである。本変形例に係るカメラ付き情報処理装置160は、メモリ112に、プログラム112Aの代わりに、プログラム112Bを記憶している。本変形例に係るサーバ装置130は、メモリ134に、さらに、プログラム134Dを記憶している。
[[Modification E]]
FIG. 34 shows a modification of the functional blocks of the left/right eye identification system 700 according to the second embodiment. The camera-equipped information processing apparatus 160 according to this modified example stores a program 112B in the memory 112 instead of the program 112A. The server device 130 according to this modification further stores a program 134D in the memory 134. FIG.

プログラム112Bは、カメラ付き情報処理装置160を左右眼識別システム100におけるユーザーインターフェースとして機能させるための手順を制御部111に実行させる。プログラム134Dは、術野に含まれる眼の種類(左眼または右眼)を識別するための一連の手順を制御部131に実行させる。 The program 112B causes the control unit 111 to execute a procedure for causing the camera-equipped information processing device 160 to function as a user interface in the left/right eye identification system 100 . The program 134D causes the controller 131 to execute a series of procedures for identifying the type of eye (left eye or right eye) included in the operative field.

(左右眼識別)
図35は、本変形例に係る左右眼識別システム700における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112B,134Dの起動を指示する。すると、カメラ付き情報処理装置160(制御部111)は、メモリ112からプログラム112Bを読み出して、制御部111にロードする。プログラム112Bがロードされた制御部111は、カメラ付き情報処理装置160を左右眼識別システム700におけるユーザーインターフェースとして機能させるための手順を実行する。サーバ装置130(制御部131)は、メモリ134からプログラム134Dを読み出して、制御部131にロードする。プログラム134Dがロードされた制御部131は、左右眼の識別をするための一連の手順を実行する。
(Left and right eye identification)
FIG. 35 is a flow chart showing an example of the left/right eye identification procedure in the left/right eye identification system 700 according to this modification. First, the user instructs the start of left/right eye identification via the input unit 114 . The user instructs the activation of the programs 112B and 134D via the input unit 114, for example. Then, the camera-equipped information processing apparatus 160 (control unit 111 ) reads the program 112 B from the memory 112 and loads it into the control unit 111 . The control unit 111 loaded with the program 112B executes a procedure for causing the camera-equipped information processing device 160 to function as a user interface in the left/right eye identification system 700 . Server device 130 (control unit 131 ) reads program 134 D from memory 134 and loads it into control unit 131 . The control unit 131 loaded with the program 134D executes a series of procedures for identifying left and right eyes.

具体的には、まず、カメラ付き情報処理装置160(制御部111)は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを制御部111に出力する。 Specifically, the camera-equipped information processing apparatus 160 (control unit 111 ) first outputs an imaging instruction to the camera 120 . The camera 120 takes an image of the inside of the opening of the drape 600 in accordance with the imaging instruction, and outputs the resulting surgical field image Ia to the control unit 111 .

カメラ付き情報処理装置160(制御部111)は、カメラ120から入力された術野画像Iaをサーバ装置130に送信する。サーバ装置130(制御部131)は、受信した術野画像Iaに対して明るさ判定を行う。サーバ装置130(制御部131)は、例えば、術野画像Iaの各ピクセルの明るさの平均値を導出し、導出した平均値が所定の閾値を下回る場合には、術野画像Iaが明るさ不足であることを表示部113に表示させる信号をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160は、サーバ装置130からの信号に基づいて、術野画像Iaが明るさ不足であることを表示部113に表示する。 The camera-equipped information processing device 160 (control unit 111 ) transmits the operative field image Ia input from the camera 120 to the server device 130 . The server device 130 (control unit 131) performs brightness determination on the received surgical field image Ia. The server device 130 (control unit 131), for example, derives the average value of the brightness of each pixel of the surgical field image Ia, and if the derived average value is below a predetermined threshold, the surgical field image Ia is A signal is transmitted to the camera-equipped information processing apparatus 160 to cause the display unit 113 to display the shortage. The camera-equipped information processing device 160 displays on the display unit 113 that the surgical field image Ia is insufficient in brightness based on the signal from the server device 130 .

サーバ装置130(制御部131)は、例えば、導出した平均値が所定の範囲内にある場合には、ピント判定を実施する。サーバ装置130(制御部131)は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示させる信号をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160は、サーバ装置130からの信号に基づいて、術野画像Iaのピントがずれていることを表示部113に表示する。サーバ装置130(制御部131)は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像IaをSegmentation学習モデル132に入力する。 The server device 130 (control unit 131) performs focus determination, for example, when the derived average value is within a predetermined range. The server device 130 (control unit 131) performs, for example, Laplacian differentiation on the operative field image Ia, and if the resulting score is below a predetermined threshold, the operative field image Ia is out of focus. A signal for displaying the fact on the display unit 113 is transmitted to the camera-equipped information processing apparatus 160 . The camera-equipped information processing apparatus 160 displays on the display unit 113 that the surgical field image Ia is out of focus based on the signal from the server apparatus 130 . The server device 130 (control unit 131) inputs the surgical field image Ia to the segmentation learning model 132, for example, when the derived score is equal to or greater than a predetermined threshold.

Segmentation学習モデル132は、術野画像Iaが入力されると、変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを制御部131に入力する。制御部131は、入力されたSegmentation画像Icに対して物体検出を行う。制御部131は、例えば、図10に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 The Segmentation learning model 132 executes a conversion process when the surgical field image Ia is input. Specifically, the segmentation learning model 132 uses the learning result to convert the surgical field image Ia into the segmentation image Ic (see FIG. 6). The segmentation learning model 132 inputs the segmentation image Ic obtained by conversion to the control unit 131 . The control unit 131 performs object detection on the input segmentation image Ic. For example, as shown in FIG. 10, the control unit 131 cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the segmentation image Ic. An image obtained in this manner is referred to as a Detection image Id.

サーバ装置130(制御部131)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。サーバ装置130(制御部131)は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報とする。つまり、サーバ装置130(制御部131)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The server device 130 (control unit 131) sets the position information of the obtained detection image Id in the operating field image Ia as the position information of the region including the eye to be identified in the operating field image Ia. The server device 130 (control unit 131) uses, for example, the position information of the outer edge portion of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. In other words, the server device 130 (control unit 131) acquires the position information of the region including the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

なお、サーバ装置130(制御部131)は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。サーバ装置130(制御部131)は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、サーバ装置130(制御部131)は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 The server device 130 (control unit 131) may use the position information of the obtained detection image Id in the operating field image Ia as the position information of the eye to be identified in the operating field image Ia. The server device 130 (control unit 131) may use, for example, the position information of the outer edge portion of the eye area Ra of the obtained detection image Id in the operating field image Ia as the position information of the marker Mc. In this case, the server device 130 (control unit 131) acquires the position information of the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

サーバ装置130(制御部131)は、取得した位置情報をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160は、サーバ装置130からの位置情報をに基づいてマーカMcを生成した後、生成したマーカMcを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、マーカMcを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像にマーカMcが重ね合わされた画像を視認する。このとき、マーカMcの位置や大きさは、制御部111から投射部117に入射される映像信号によって規定される。つまり、接眼部252は、マーカMcを、観察光学系によって形成される、術野の像に重ね合わせて表示する。 The server device 130 (control unit 131) transmits the acquired position information to the information processing device 160 with camera. After generating the marker Mc based on the position information from the server device 130 , the camera-equipped information processing device 160 generates a video signal for generating video light including the generated marker Mc, and outputs the video signal to the projection unit 117 . do. The projection unit 117 generates image light including the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which the marker Mc is superimposed on the image of the operative field, for example. At this time, the position and size of the marker Mc are defined by the video signal incident on the projection section 117 from the control section 111 . That is, the eyepiece 252 displays the marker Mc superimposed on the image of the surgical field formed by the observation optical system.

左右眼識別システム700は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、接眼部252を介して見える視野(術野)の像を参照しながら、カメラ120の撮像領域を微調整する。サーバ装置130(制御部131)は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、サーバ装置130(制御部131)は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、受信した情報を含む画像を表示するための映像信号を生成し、表示部113に出力する。表示部113は、例えば、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図27に示した像を重ね合わせた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left/right eye identification system 700 periodically performs a series of procedures from the imaging instruction to the marker Mc display described above. At this time, the medical staff finely adjusts the imaging area of the camera 120 while referring to the image of the visual field (operative field) seen through the eyepiece 252 . For example, every time the server device 130 (control unit 131) executes the above-described series of procedures from the imaging instruction to the display of the marker Mc, whether or not the position of the marker Mc protrudes from the predetermined region in the surgical field image Ia. judge. As a result, when the position of the marker Mc protrudes from the predetermined area in the operating field image Ia, the server device 130 (control unit 131), for example, Information indicating protruding is transmitted to the camera-equipped information processing apparatus 160 . Camera-equipped information processing device 160 (control unit 111 ) generates a video signal for displaying an image including the received information, and outputs the video signal to display unit 113 . For example, based on the video signal from the control unit 111, the display unit 113 displays video light including the marker Mc and information indicating that the position of the marker Mc is out of a predetermined area in the surgical field image Ia. It is generated and emitted to the eyepiece 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which, for example, the image shown in FIG. 27 is superimposed on the image of the surgical field. Note that the camera-equipped information processing apparatus 160 (control unit 111) performs the surgical operation by a method other than displaying the marker Mc in the field of view (operative field) that can be seen through the eyepiece unit 252 (for example, sound, patrol lamp lighting, etc.). The medical staff may be informed that the position of the marker Mc is out of the predetermined area in the field image Ia.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、サーバ装置130(制御部131)は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す情報をカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、受信した情報を含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図28に示した像を重ね合わせた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc is within the predetermined area in the operative field image Ia, the server apparatus 130 (control unit 131) determines that the position of the marker Mc is within the predetermined area in the operative field image Ia. Information indicating that is transmitted to the information processing apparatus 160 with a camera. Camera-equipped information processing device 160 (control unit 111 ) generates a video signal for generating video light including the received information, and outputs the video signal to projection unit 117 . Based on the video signal from the control unit 111, the projection unit 117 generates video light including the marker Mc and information indicating that the position of the marker Mc is within a predetermined area in the surgical field image Ia. and emitted to the eyepiece 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which, for example, the image shown in FIG. 28 is superimposed on the image of the surgical field. Note that the camera-equipped information processing apparatus 160 (control unit 111) performs the surgical operation by a method other than displaying the marker Mc in the field of view (operative field) that can be seen through the eyepiece unit 252 (for example, sound, patrol lamp lighting, etc.). The medical staff may be notified that the position of the marker Mc is within a predetermined area in the field image Ia.

サーバ装置130(制御部131)は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRを制御部131に送信する。サーバ装置130(制御部131)は、識別結果DRをカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図29または図30に示した像を重ね合わせた画像を視認する。 The server device 130 (control unit 131) outputs a left/right eye identification instruction to the left/right eye identification learning model 133 when the position of the marker Mc is within a predetermined area in the surgical field image Ia. When the left/right eye identification learning model 133 receives the left/right eye identification instruction, the left/right eye identification learning model 133 performs the identification process. Specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye included in the detection image Ib. More specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye type (left eye, right eye) included in the detection image Ib. The left/right eye identification learning model 133 transmits the identification result DR to the control unit 131 . The server device 130 (control unit 131) transmits the identification result DR to the information processing device 160 with camera. Camera-equipped information processing device 160 (control unit 111 ) generates a video signal for generating video light including status ST, identification result DR, and marker Mc, and outputs the video signal to projection unit 117 . The projection unit 117 generates image light including the status ST, the identification result DR, and the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which, for example, the image shown in FIG. 29 or 30 is superimposed on the image of the surgical field.

医療従事者は、接眼部252を介して見える視野(術野)の像内の識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR in the image of the visual field (operative field) seen through the eyepiece 252, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye. As a result, it is possible to confirm whether or not the eye is an eye to be operated on. In this way, left and right eye identification is performed.

サーバ装置130(制御部131)は、さらに、例えば、メモリ134に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較し、その比較結果CRをカメラ付き情報処理装置160に送信する。カメラ付き情報処理装置160(制御部111)は、ステータスSTと、比較結果CRと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、比較結果CRと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図31に示した像を重ね合わせた画像を視認する。 Server device 130 (control unit 131) further reads, for example, surgical data 134C corresponding to patient 400 from among a plurality of surgical data 134C stored in memory 134, and surgical data 134C included in read surgical data 134C. The eye is compared with the identification result DR, and the comparison result CR is transmitted to the camera-equipped information processing device 160 . Camera-equipped information processing device 160 (control unit 111) generates a video signal for generating video light including status ST, comparison result CR, identification result DR, and marker Mc, and outputs the video signal to projection unit 117. do. The projection unit 117 generates image light including the status ST, the comparison result CR, the identification result DR, and the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which the image shown in FIG. 31 is superimposed on the image of the operative field, for example.

本変形例では、サーバ装置130において、識別対象である眼を含む術野画像Iaから得られたSegmentation画像Icに対して物体検出を行うことにより、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報が取得される。さらに、本変形例では、取得された位置情報がカメラ付き情報処理装置160に送信される。これにより、カメラ付き情報処理装置160において、位置情報に基づいたマーカMcを術野の像に重ね合わせて表示することができるので、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが観察光学系によって形成される、術野の像における所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 In this modification, in the server device 130, object detection is performed on the segmentation image Ic obtained from the operative field image Ia including the eye to be identified. is acquired in the surgical field image Ia. Furthermore, in this modified example, the acquired position information is transmitted to the information processing apparatus 160 with a camera. As a result, in the camera-equipped information processing apparatus 160, the marker Mc based on the positional information can be superimposed and displayed on the image of the surgical field. For example, the lacrimal mound 12 and inner corner of the eye) can be reliably included. As a result, the medical staff adjusts the imaging region of the camera 120 so that the marker Mc is positioned within a predetermined region in the image of the operative field formed by the observation optical system, thereby capturing the image in the operative field image Ia. The left/right eye identification system 100 can correctly identify whether the eye being viewed is the left eye or the right eye. Therefore, it is possible to identify eye types that are difficult to identify.

また、本変形例では、Segmentation画像Icに対して物体検出を行うことにより、Segmentation画像IcからDetection画像Idが切り出された後、切り出されたDetection画像Idの、術野画像Iaにおける位置情報が、識別対象である眼、もしくは識別対象である眼を含む領域の、術野画像Iaにおける位置情報となる。これにより、術野画像Iaに対して、単純に物体検出を行い、それにより得られたDetection画像に基づいて、識別対象である眼の、術野画像Iaにおける位置情報を導出した場合と比べて、マーカMcの中に、左右眼の識別を容易にする要素(例えば涙丘12や目頭)を確実に含ませることができる。その結果、医療従事者が、マーカMcが術野画像Iaにおける所定の領域内に位置するようにカメラ120の撮像領域を調整することにより、術野画像Iaに写っている眼が左眼であるか、右眼であるかを左右眼識別システム100において正しく識別することができる。従って、識別の困難な眼の種類を識別することができる。 Further, in this modification, by performing object detection on the segmentation image Ic, after the detection image Id is clipped from the segmentation image Ic, the position information of the clipped detection image Id in the surgical field image Ia is: This is the positional information of the eye to be identified or the region containing the eye to be identified in the surgical field image Ia. As a result, compared to the case where object detection is simply performed on the surgical field image Ia, and the position information of the eye to be identified in the surgical field image Ia is derived based on the resulting detection image. , the marker Mc can certainly include an element (for example, the lacrimal gland 12 or the inner corner of the eye) that facilitates identification of the left and right eyes. As a result, the medical staff adjusts the imaging area of the camera 120 so that the marker Mc is positioned within a predetermined area in the operative field image Ia, so that the eye captured in the operative field image Ia is the left eye. or the right eye can be correctly identified in the left/right eye identification system 100 . Therefore, it is possible to identify eye types that are difficult to identify.

[[変形例F]]
第2の実施の形態において、例えば、図36に示したように、サーバ装置130が省略されるとともに、カメラ付き情報処理装置160がサーバ装置130の機能を備えていてもよい。このとき、カメラ付き情報処理装置160は、例えば、図37に示したように、Segmentation学習モデル132、左右眼識別学習モデル133を備えるとともに、複数の画像データ134A、複数の画像データ134Bおよび複数の手術データ134Cをメモリ112に記憶している。
[[Modification F]]
In the second embodiment, for example, as shown in FIG. 36, the server device 130 may be omitted and the camera-equipped information processing device 160 may have the functions of the server device 130 . At this time, the camera-equipped information processing apparatus 160, for example, as shown in FIG. Operation data 134C is stored in memory 112. FIG.

(左右眼識別)
図38は、本変形例に係る左右眼識別システム700における左右眼識別手順の一例を表す流れ図である。まず、ユーザは、入力部114を介して、左右眼識別の開始を指示する。ユーザは、例えば、入力部114を介して、プログラム112Aの起動を指示する。すると、カメラ付き情報処理装置160(制御部111)は、メモリ112からプログラム112Aを読み出して、制御部111にロードする。プログラム112Aがロードされた制御部111は、左右眼の識別をするための一連の手順を実行する。
(Left and right eye identification)
FIG. 38 is a flow chart showing an example of the left/right eye identification procedure in the left/right eye identification system 700 according to this modification. First, the user instructs the start of left/right eye identification via the input unit 114 . The user instructs to start the program 112A via the input unit 114, for example. Then, the camera-equipped information processing apparatus 160 (control unit 111 ) reads the program 112 A from the memory 112 and loads it into the control unit 111 . The control unit 111 loaded with the program 112A executes a series of procedures for identifying left and right eyes.

具体的には、まず、制御部111は、撮像指示をカメラ120に出力する。カメラ120は、撮像指示に従ってドレープ600の開口内を撮像し、それにより得られた術野画像Iaを制御部111に送信する。 Specifically, first, control unit 111 outputs an imaging instruction to camera 120 . The camera 120 takes an image of the inside of the opening of the drape 600 in accordance with the imaging instruction, and transmits the resulting surgical field image Ia to the control unit 111 .

制御部111は、受信した術野画像Iaに対して明るさ判定を行う。制御部111は、例えば、術野画像Iaの各ピクセルの明るさの平均値を導出し、導出した平均値が所定の閾値を下回る場合には、術野画像Iaが明るさ不足であることを表示部113に表示する。 The control unit 111 performs brightness determination on the received surgical field image Ia. For example, the control unit 111 derives the average value of the brightness of each pixel of the surgical field image Ia, and if the derived average value is below a predetermined threshold, it indicates that the surgical field image Ia is insufficient in brightness. Displayed on the display unit 113 .

制御部111は、例えば、導出した平均値が所定の閾値以上の場合には、ピント判定を実施する。制御部111は、例えば、術野画像Iaに対してラプラシアン微分を行い、それにより得られたスコアが所定の閾値を下回る場合には、術野画像Iaのピントがずれていることを表示部113に表示する。制御部111は、例えば、導出したスコアが所定の閾値以上の場合には、術野画像IaをSegmentation学習モデル132に入力する。 For example, when the derived average value is equal to or greater than a predetermined threshold value, the control unit 111 performs focus determination. For example, the control unit 111 performs Laplacian differentiation on the operative field image Ia, and if the resulting score is below a predetermined threshold, the display unit 113 indicates that the operative field image Ia is out of focus. to display. For example, when the derived score is equal to or greater than a predetermined threshold, the control unit 111 inputs the operative field image Ia to the segmentation learning model 132 .

Segmentation学習モデル132は、術野画像Iaが入力されると、変換プロセスを実行する。具体的には、Segmentation学習モデル132は、学習結果を利用して、術野画像IaをSegmentation画像Icに変換する(図6参照)。Segmentation学習モデル132は、変換により得られたSegmentation画像Icを制御部131に入力する。制御部111は、入力されたSegmentation画像Icに対して、物体検出を行う。制御部111は、例えば、図8に示したように、Segmentation画像Icから、眼領域Raを含む矩形状の領域(例えば、眼領域Raに接する矩形状の領域)を切り出す。このようにして得られた画像を、Detection画像Idとする。 The Segmentation learning model 132 executes a conversion process when the surgical field image Ia is input. Specifically, the segmentation learning model 132 uses the learning result to convert the surgical field image Ia into the segmentation image Ic (see FIG. 6). The segmentation learning model 132 inputs the segmentation image Ic obtained by conversion to the control unit 131 . The control unit 111 performs object detection on the input segmentation image Ic. For example, as shown in FIG. 8, the control unit 111 cuts out a rectangular region including the eye region Ra (for example, a rectangular region in contact with the eye region Ra) from the segmentation image Ic. An image obtained in this manner is referred to as a Detection image Id.

制御部111は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼を含む領域の、術野画像Iaにおける位置情報とする。制御部111は、例えば、得られたDetection画像Idの外縁部分の、術野画像Iaにおける位置情報をマーカMcの位置情報とする。つまり、制御部111は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼を含む領域の、術野画像Iaにおける位置情報を取得する。 The control unit 111 uses the position information of the obtained detection image Id in the operating field image Ia as the position information of the region including the eye to be identified in the operating field image Ia. The control unit 111 uses, for example, the position information of the outer edge portion of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. That is, the control unit 111 acquires the position information of the region including the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

なお、制御部111は、得られたDetection画像Idの、術野画像Iaにおける位置情報を、識別対象である眼の、術野画像Iaにおける位置情報としてもよい。制御部111は、例えば、得られたDetection画像Idの眼領域Raの外縁部分の、術野画像Iaにおける位置情報を、マーカMcの位置情報としてもよい。この場合、制御部111は、Segmentation画像Icに対して物体検出を行うことにより、識別対象である眼の、術野画像Iaにおける位置情報を取得する。 Note that the control unit 111 may use the position information of the obtained detection image Id in the operating field image Ia as the position information of the eye to be identified in the operating field image Ia. For example, the control unit 111 may use the position information of the outer edge portion of the eye area Ra of the obtained detection image Id in the surgical field image Ia as the position information of the marker Mc. In this case, the control unit 111 acquires the position information of the eye to be identified in the surgical field image Ia by performing object detection on the segmentation image Ic.

制御部111は、取得した位置情報に基づいてマーカMcを生成した後、生成したマーカMcを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、マーカMcを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像にマーカMcが重ね合わされた画像を視認する。このとき、マーカMcの位置や大きさは、制御部111から投射部117に入射される映像信号によって規定される。つまり、接眼部252は、マーカMcを、観察光学系によって形成される、術野の像に重ね合わせて表示する。 After generating the marker Mc based on the acquired position information, the control unit 111 generates a video signal for generating image light including the generated marker Mc, and outputs the video signal to the projection unit 117 . The projection unit 117 generates image light including the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which the marker Mc is superimposed on the image of the operative field, for example. At this time, the position and size of the marker Mc are defined by the video signal incident on the projection section 117 from the control section 111 . That is, the eyepiece 252 displays the marker Mc superimposed on the image of the surgical field formed by the observation optical system.

左右眼識別システム100は、上述した撮像指示からマーカMc表示までの一連の手順を定期的に行う。このとき、医療従事者は、接眼部252を介して見える視野(術野)の像を参照しながら、カメラ120の撮像領域を微調整する。制御部111は、例えば、上述した撮像指示からマーカMc表示までの一連の手順を実行するたびに、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出しているか否かを判定する。その結果、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出している場合には、制御部111は、例えば、術野画像IaにおいてマーカMcの位置が所定の領域からはみ出していることを意味する情報を含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に図27に示した像を重ね合わせた画像を視認する。なお、制御部111は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域から外れていることを医療従事者に知らせてもよい。 The left/right eye identification system 100 periodically performs a series of procedures from the imaging instruction to the marker Mc display described above. At this time, the medical staff finely adjusts the imaging area of the camera 120 while referring to the image of the visual field (operative field) seen through the eyepiece 252 . For example, the control unit 111 determines whether or not the position of the marker Mc protrudes from a predetermined area in the surgical field image Ia each time the above-described series of procedures from the imaging instruction to the marker Mc display are executed. As a result, when the position of the marker Mc protrudes from the predetermined region in the surgical field image Ia, the control unit 111 detects that the position of the marker Mc protrudes from the predetermined region in the surgical field image Ia, for example. Image light including meaningful information is generated and emitted to the eyepiece 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which the image shown in FIG. 27 is superimposed on the image of the operative field, for example. Note that the control unit 111 can display the position of the marker Mc in the surgical field image Ia by a method other than displaying the marker Mc in the field of view (operative field) visible through the eyepiece unit 252 (for example, sound, patrol lamp lighting, etc.). is out of the defined area.

一方、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、制御部111は、術野画像IaにおいてマーカMcの位置が所定の領域内にあることを示す情報を含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを意味する情報と、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に図28に示した像を重ね合わせた画像を視認する。なお、カメラ付き情報処理装置160(制御部111)は、接眼部252を介して見える視野(術野)にマーカMcを表示する以外の方法(例えば、音や、パトランプ点灯など)で、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっていることを医療従事者に知らせてもよい。 On the other hand, when the position of the marker Mc is within the predetermined area in the operative field image Ia, the control unit 111 outputs information indicating that the position of the marker Mc is within the predetermined area in the operative field image Ia. A video signal for generating video light including the light is generated and output to the projection unit 117 . Based on the video signal from the control unit 111, the projection unit 117 generates video light including the marker Mc and information indicating that the position of the marker Mc is within a predetermined area in the surgical field image Ia. and emitted to the eyepiece 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which, for example, the image shown in FIG. 28 is superimposed on the image of the surgical field. Note that the camera-equipped information processing apparatus 160 (control unit 111) performs the surgical operation by a method other than displaying the marker Mc in the field of view (operative field) that can be seen through the eyepiece unit 252 (for example, sound, patrol lamp lighting, etc.). The medical staff may be notified that the position of the marker Mc is within a predetermined area in the field image Ia.

制御部111は、術野画像IaにおいてマーカMcの位置が所定の領域内に収まっている場合には、左右眼識別学習モデル133に対して、左右眼識別指示を出力する。左右眼識別学習モデル133が左右眼識別指示を受信すると、左右眼識別学習モデル133が識別プロセスを実行する。具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の識別を行う。より具体的には、左右眼識別学習モデル133は、学習結果を利用して、Detection画像Ibに含まれる眼の種類(左眼、右眼)を識別する。左右眼識別学習モデル133は、識別結果DRを制御部111に入力する。制御部111は、ステータスSTと、識別結果DRと、マーカMcと含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図29または図30に示した像を重ね合わせた画像を視認する。 The control unit 111 outputs a left/right eye identification instruction to the left/right eye identification learning model 133 when the position of the marker Mc is within a predetermined area in the surgical field image Ia. When the left/right eye identification learning model 133 receives the left/right eye identification instruction, the left/right eye identification learning model 133 performs the identification process. Specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye included in the detection image Ib. More specifically, the left/right eye identification learning model 133 uses the learning result to identify the eye type (left eye, right eye) included in the detection image Ib. The left/right eye identification learning model 133 inputs the identification result DR to the control unit 111 . The control unit 111 generates a video signal for generating video light including the status ST, the identification result DR, and the marker Mc, and outputs the video signal to the projection unit 117 . The projection unit 117 generates image light including the status ST, the identification result DR, and the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which, for example, the image shown in FIG. 29 or 30 is superimposed on the image of the operative field.

医療従事者は、接眼部252を介して見える視野(術野)の像内の識別結果DRを見ることで、ドレープ600の開口610内に露出している眼が右眼か左眼か、ひいては手術対象の眼であるか否かを確認することができる。このようにして、左右眼識別が行われる。 By looking at the identification result DR in the image of the visual field (operative field) seen through the eyepiece 252, the medical staff can determine whether the eye exposed in the opening 610 of the drape 600 is the right eye or the left eye. As a result, it is possible to confirm whether or not the eye is an eye to be operated on. In this way, left and right eye identification is performed.

制御部111は、さらに、例えば、メモリ112に記憶された複数の手術データ134Cの中から、患者400に該当する手術データ134Cを読み出し、読み出したおよび手術データ134Cに含まれる術眼と、識別結果DRとを比較する。制御部111は、ステータスSTと、比較結果CRと、識別結果DRと、マーカMcとを含む映像光を生成するための映像信号を生成し、投射部117に出力する。投射部117は、制御部111からの映像信号に基づいて、ステータスSTと、比較結果CRと、識別結果DRと、マーカMcとを含む映像光を生成し、接眼部252に出射する。その結果、接眼部252に入射された映像光と、術野から観察光学系を導光する光とが、接眼部252において合成され、医療従事者の眼に入射する。その結果、医療従事者は、例えば、術野の像に、図31に示した像を重ね合わせた画像を視認する。 Further, the control unit 111 further reads, for example, the surgery data 134C corresponding to the patient 400 from among the plurality of surgery data 134C stored in the memory 112, and the operated eye and the identification result included in the read surgery data 134C. Compare with DR. Control unit 111 generates a video signal for generating video light including status ST, comparison result CR, identification result DR, and marker Mc, and outputs the video signal to projection unit 117 . The projection unit 117 generates image light including the status ST, the comparison result CR, the identification result DR, and the marker Mc based on the image signal from the control unit 111 and emits it to the eyepiece unit 252 . As a result, the image light incident on the eyepiece 252 and the light guided from the surgical field to the observation optical system are synthesized in the eyepiece 252 and enter the eyes of the medical staff. As a result, the medical staff visually recognizes an image in which the image shown in FIG. 31 is superimposed on the image of the operative field, for example.

本変形例では、カメラ付き情報処理装置160が上記第2の実施の形態に係るサーバ装置130の機能を備えている。これにより、カメラ付き情報処理装置160を用意するだけで、左右眼識別を行うことができる。従って、サーバ装置130が不要な分だけ、左右眼識別システム700を設置する手間を削減することができる。 In this modification, an information processing device 160 with a camera has the functions of the server device 130 according to the second embodiment. As a result, it is possible to identify the left and right eyes simply by preparing the information processing device 160 with a camera. Therefore, the trouble of installing the left/right eye identification system 700 can be reduced by the amount that the server device 130 is not required.

以上、実施の形態およびその変形例を挙げて本発明を説明したが、本発明は実施の形態等に限定されるものではなく、種々変形が可能である。実施の形態等では、本発明は眼の手術に適用されていたが、識別の困難な対象物を識別する必要のある分野に好適に適用可能である。なお、本明細書中に記載された効果は、あくまで例示である。本発明の効果は、本明細書中に記載された効果に限定されるものではない。本発明が、本明細書中に記載された効果以外の効果を持っていてもよい。 Although the present invention has been described above with reference to the embodiments and modifications thereof, the present invention is not limited to the embodiments and the like, and various modifications are possible. Although the present invention has been applied to eye surgery in the embodiments and the like, it can be suitably applied to fields where it is necessary to identify difficult-to-identify objects. It should be noted that the effects described in this specification are merely examples. The effects of the present invention are not limited to the effects described herein. The present invention may have advantages other than those described herein.

10…眼、11…眼球、12…涙丘、100…左右眼識別システム、110…情報処理装置、110A…表示面、111…制御部、112…メモリ、112A,112B…プログラム、113…表示部、114…入力部、115,116…ネットワークIF、117…投射部、120…カメラ、130…サーバ装置、131…制御部、132…Segmentation学習モデル、133…左右眼識別学習モデル、134…メモリ、134A,134B…画像データ、134C…手術データ、134D…プログラム、135…ネットワークIF、140,150…ネットワーク、160…カメラ付き情報処理装置、200…眼科手術用顕微鏡システム、210…支柱、220…第1アーム、230…第2アーム、240…駆動装置、250…医療従事者用顕微鏡、251…鏡筒部、252…接眼部、260…フットスイッチ、300…手術台、400…患者、500…シーツ、600…ドレープ、610…開口、700…左右眼識別システム、CR…比較結果、DR…識別結果、Ia…術野画像、Ib…Detection画像、Ic…Segmentation画像、Id…Detection画像、Mc…マーカ、Ra…眼領域、Rb…周辺領域、ST…ステータス。 DESCRIPTION OF SYMBOLS 10... Eye, 11... Eyeball, 12... Lacrimal dune, 100... Right-and-left eye identification system, 110... Information processing apparatus, 110A... Display surface, 111... Control part, 112... Memory, 112A, 112B... Program, 113... Display part , 114... input unit, 115, 116... network IF, 117... projection unit, 120... camera, 130... server device, 131... control unit, 132... segmentation learning model, 133... right and left eye identification learning model, 134... memory, 134A, 134B... Image data 134C... Surgery data 134D... Program 135... Network IF 140, 150... Network 160... Information processing device with camera 200... Microscope system for ophthalmic surgery 210... Prop 220... Third DESCRIPTION OF SYMBOLS 1 arm, 230... 2nd arm, 240... Driving device, 250... Microscope for medical staff, 251... Lens tube part, 252... Eyepiece part, 260... Foot switch, 300... Operating table, 400... Patient, 500... Sheet, 600... Drape, 610... Opening, 700... Right and left eye identification system, CR... Comparison result, DR... Identification result, Ia... Operating field image, Ib... Detection image, Ic... Segmentation image, Id... Detection image, Mc... Marker, Ra... Eye area, Rb... Peripheral area, ST... Status.

Claims (4)

眼球および涙丘を含む眼領域を含む撮像画像から得られたSegmentation画像に対して前記眼領域の検出を行うことにより、前記眼領域を含む領域の、前記撮像画像における位置情報を取得し、取得した前記位置情報をマーカの位置情報とする取得部と、
前記取得部で取得された前記位置情報に基づいて生成したマーカを、前記眼領域を囲む ように前記撮像画像に重ね合わせた合成画像を表示する表示部と
を備え
前記表示部は、前記マーカが前記撮像画像からはみ出している場合には、前記合成画像と して、さらに、前記マーカが前記撮像画像からはみ出していることを意味する情報を含む 画像を表示する
情報処理システム。
By detecting the eye region in the segmentation image obtained from the captured image including the eye region including the eyeball and the lacrimal gland , the position information of the region including the eye region in the captured image is acquired and acquired. an acquisition unit that uses the obtained position information as position information of a marker ;
a display unit that displays a composite image in which a marker generated based on the position information acquired by the acquisition unit is superimposed on the captured image so as to surround the eye region ,
When the marker protrudes from the captured image, the display unit further displays an image including information indicating that the marker protrudes from the captured image as the synthesized image.
Information processing system.
眼球および涙丘を含む眼領域を含む撮像画像から得られたSegmentation画像に対して前記眼領域の検出を行うことにより、前記眼領域を含む領域の、前記撮像画像における位置情報を取得し、取得した前記位置情報をマーカの位置情報とする取得部と、
前記取得部で取得された前記位置情報に基づいて生成したマーカを、光学系によって形成される、前記眼領域を含む視野の像に、前記眼領域を囲むように重ね合わせる合成部と
を備え
前記合成部は、前記マーカが前記撮像画像からはみ出している場合には、前記マーカと、 前記マーカが前記撮像画像からはみ出していることを意味する情報と、前記視野の像とを 含む像を生成する
情報処理システム。
By detecting the eye region in the segmentation image obtained from the captured image including the eye region including the eyeball and the lacrimal gland , the position information of the region including the eye region in the captured image is acquired and acquired. an acquisition unit that uses the obtained position information as position information of a marker ;
a synthesizing unit that superimposes a marker generated based on the position information acquired by the acquisition unit on an image of a field of view including the eye region formed by an optical system so as to surround the eye region ;
When the marker protrudes from the captured image, the synthesizing unit generates an image including the marker, information indicating that the marker protrudes from the captured image, and an image of the field of view. do
Information processing system.
前記マーカが前記撮像画像内に収まっているときに得られた前記撮像画像を外部機器に送信し、前記撮像画像に含まれる前記眼領域の識別結果を前記外部機器から受信する通信部を更に備えた
請求項1または請求項に記載の情報処理システム。
a communication unit that transmits the captured image obtained when the marker is within the captured image to an external device, and receives from the external device an identification result of the eye region included in the captured image; The information processing system according to claim 1 or 2 , further comprising:
前記マーカが前記撮像画像内に収まっているときに得られた前記撮像画像に含まれる前記眼領域内の眼が右眼か左眼かの識別を行う識別部を更に備えた
請求項または請求項に記載の情報処理システム。
2. The apparatus according to claim 1 , further comprising an identification unit that identifies whether the eye in the eye region included in the captured image obtained when the marker is within the captured image is a right eye or a left eye. Item 3. The information processing system according to item 2 .
JP2019042036A 2019-02-19 2019-02-19 Information processing system and information processing program Active JP7304508B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019042036A JP7304508B2 (en) 2019-02-19 2019-02-19 Information processing system and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019042036A JP7304508B2 (en) 2019-02-19 2019-02-19 Information processing system and information processing program

Publications (2)

Publication Number Publication Date
JP2020137103A JP2020137103A (en) 2020-08-31
JP7304508B2 true JP7304508B2 (en) 2023-07-07

Family

ID=72263754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042036A Active JP7304508B2 (en) 2019-02-19 2019-02-19 Information processing system and information processing program

Country Status (1)

Country Link
JP (1) JP7304508B2 (en)

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002238860A (en) 2001-02-22 2002-08-27 Canon Inc Ophthalmological device and eye image display method
JP2003298887A (en) 2002-03-29 2003-10-17 Matsushita Electric Ind Co Ltd Eye image pickup device
JP2006136714A (en) 2004-10-26 2006-06-01 Carl Zeiss Surgical Gmbh Microscopic inspection system for surgical operation and method to perform surgical operation of eye
JP2006235921A (en) 2005-02-24 2006-09-07 Hitachi Ltd Vehicle number recognition apparatus, and method for adjusting electric lens of vehicle number recognition apparatus
JP2007532148A (en) 2004-02-19 2007-11-15 ヴィズイクス・インコーポレーテッド Method and system for distinguishing left and right eye images
JP2008178672A (en) 2006-12-19 2008-08-07 Fujifilm Corp Method and apparatus for using probabilistic atlas for feature removal/positioning
JP2008219696A (en) 2007-03-07 2008-09-18 Casio Comput Co Ltd Camera apparatus, camera apparatus control program and camera apparatus control method
JP2008244804A (en) 2007-03-27 2008-10-09 Fujifilm Corp Image-taking device and method, and control program
JP2010122934A (en) 2008-11-20 2010-06-03 Sony Corp Image processing apparatus, image processing method, and program
JP2012152469A (en) 2011-01-27 2012-08-16 Nidek Co Ltd Ophthalmic surgical microscope
JP2013213872A (en) 2012-03-30 2013-10-17 Sony Corp Information processing apparatus, information processing method and program
JP2013254437A (en) 2012-06-08 2013-12-19 Pfu Ltd Image processing apparatus, image reading device, image processing method, and image processing program
JP2014110883A (en) 2012-10-30 2014-06-19 Canon Inc Image processor and image processing method
JP2015195923A (en) 2014-03-31 2015-11-09 株式会社ニデック Ophthalmic laser surgery device
JP2016013233A (en) 2014-07-01 2016-01-28 富士通株式会社 Output control method, image processing system, output control program, and information processing apparatus
JP2016126242A (en) 2015-01-07 2016-07-11 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2014233469A5 (en) 2013-06-03 2016-07-14
WO2016125366A1 (en) 2015-02-05 2016-08-11 株式会社リコー Image processing device, image processing system, and image processing method
JP2016202351A (en) 2015-04-17 2016-12-08 健司 三木 Medical support system, medical support method, image processing apparatus, control method and control program thereof
JP2016214781A (en) 2015-05-26 2016-12-22 ソニー株式会社 Surgery system, image processing device, and method
JP2017099757A (en) 2015-12-03 2017-06-08 キヤノン株式会社 Image processing device and image processing method
JP2017139628A (en) 2016-02-03 2017-08-10 キヤノン株式会社 Communication device, communication system, communication method and computer program
JP6434666B1 (en) 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program
JP2019022580A (en) 2017-07-24 2019-02-14 ソニー株式会社 Surgery system, information processing method and information processor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11285471A (en) * 1999-02-22 1999-10-19 Nikon Corp Ophthalmologic device
JP6236882B2 (en) 2013-06-03 2017-11-29 株式会社ニデック Laser therapy device

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002238860A (en) 2001-02-22 2002-08-27 Canon Inc Ophthalmological device and eye image display method
JP2003298887A (en) 2002-03-29 2003-10-17 Matsushita Electric Ind Co Ltd Eye image pickup device
JP2007532148A (en) 2004-02-19 2007-11-15 ヴィズイクス・インコーポレーテッド Method and system for distinguishing left and right eye images
JP2006136714A (en) 2004-10-26 2006-06-01 Carl Zeiss Surgical Gmbh Microscopic inspection system for surgical operation and method to perform surgical operation of eye
JP2006235921A (en) 2005-02-24 2006-09-07 Hitachi Ltd Vehicle number recognition apparatus, and method for adjusting electric lens of vehicle number recognition apparatus
JP2008178672A (en) 2006-12-19 2008-08-07 Fujifilm Corp Method and apparatus for using probabilistic atlas for feature removal/positioning
JP2008219696A (en) 2007-03-07 2008-09-18 Casio Comput Co Ltd Camera apparatus, camera apparatus control program and camera apparatus control method
JP2008244804A (en) 2007-03-27 2008-10-09 Fujifilm Corp Image-taking device and method, and control program
JP2010122934A (en) 2008-11-20 2010-06-03 Sony Corp Image processing apparatus, image processing method, and program
JP2012152469A (en) 2011-01-27 2012-08-16 Nidek Co Ltd Ophthalmic surgical microscope
JP2013213872A (en) 2012-03-30 2013-10-17 Sony Corp Information processing apparatus, information processing method and program
JP2013254437A (en) 2012-06-08 2013-12-19 Pfu Ltd Image processing apparatus, image reading device, image processing method, and image processing program
JP2014110883A (en) 2012-10-30 2014-06-19 Canon Inc Image processor and image processing method
JP2014233469A5 (en) 2013-06-03 2016-07-14
JP2015195923A (en) 2014-03-31 2015-11-09 株式会社ニデック Ophthalmic laser surgery device
JP2016013233A (en) 2014-07-01 2016-01-28 富士通株式会社 Output control method, image processing system, output control program, and information processing apparatus
JP2016126242A (en) 2015-01-07 2016-07-11 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2016125366A1 (en) 2015-02-05 2016-08-11 株式会社リコー Image processing device, image processing system, and image processing method
JP2016202351A (en) 2015-04-17 2016-12-08 健司 三木 Medical support system, medical support method, image processing apparatus, control method and control program thereof
JP2016214781A (en) 2015-05-26 2016-12-22 ソニー株式会社 Surgery system, image processing device, and method
JP2017099757A (en) 2015-12-03 2017-06-08 キヤノン株式会社 Image processing device and image processing method
JP2017139628A (en) 2016-02-03 2017-08-10 キヤノン株式会社 Communication device, communication system, communication method and computer program
JP2019022580A (en) 2017-07-24 2019-02-14 ソニー株式会社 Surgery system, information processing method and information processor
JP6434666B1 (en) 2018-02-26 2018-12-05 京セラ株式会社 Electronic device, control method and program

Also Published As

Publication number Publication date
JP2020137103A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
JP4861540B2 (en) Medical equipment
JP6693507B2 (en) Information processing apparatus, information processing method, and information processing system
JP6574939B2 (en) Display control device, display control method, display control system, and head-mounted display
US20180263710A1 (en) Medical imaging apparatus and surgical navigation system
EP3449859B1 (en) Control device, control method and surgical system
JP6950707B2 (en) Information processing equipment and methods, and programs
US11653826B2 (en) Medical observation system, control method, and program in which illumination light is controlled in accordance with a usage state of an image sensor
JP7363767B2 (en) Image processing device, image processing method, and program
JPWO2018168261A1 (en) CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
JPWO2018221068A1 (en) Information processing apparatus, information processing method, and information processing program
JP6723843B2 (en) Ophthalmic equipment
JP7304508B2 (en) Information processing system and information processing program
US20190281233A1 (en) Image processing device, setting method, and program
JP6892540B2 (en) Ophthalmic equipment
US20210152747A1 (en) Control device, external device, medical observation system, control method, display method, and program
CN104679226B (en) Contactless medical control system, method and Medical Devices
JPWO2018142993A1 (en) Light emission control device, light emission control method, program, light emission device, and imaging device
JP6895277B2 (en) Ophthalmic observation device and its operation method
JP7042029B2 (en) Ophthalmic observation device and its operation method
US20220190524A1 (en) Cable and notification method
JP7160042B2 (en) Image processing device, image processing method and image processing program
WO2020009127A1 (en) Medical observation system, medical observation device, and medical observation device driving method
JP6895278B2 (en) Ophthalmic observation device and its operation method
WO2020084999A1 (en) Image processing device, image processing method, and program
JP6617766B2 (en) Medical observation system, display control system, and display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220426

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220907

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221230

A917 Reason for reinstatement of right to file examination request

Free format text: JAPANESE INTERMEDIATE CODE: A917

Effective date: 20230508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7304508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150