CN117062280A - 一种神经外科自助式手术灯自动跟随*** - Google Patents
一种神经外科自助式手术灯自动跟随*** Download PDFInfo
- Publication number
- CN117062280A CN117062280A CN202311039098.7A CN202311039098A CN117062280A CN 117062280 A CN117062280 A CN 117062280A CN 202311039098 A CN202311039098 A CN 202311039098A CN 117062280 A CN117062280 A CN 117062280A
- Authority
- CN
- China
- Prior art keywords
- doctor
- network
- operating lamp
- actor
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 claims abstract description 12
- 230000000694 effects Effects 0.000 claims abstract description 6
- 230000009471 action Effects 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 26
- 238000005286 illumination Methods 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 10
- 238000001356 surgical procedure Methods 0.000 claims description 10
- 238000013461 design Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 7
- 238000011084 recovery Methods 0.000 claims description 7
- 238000002789 length control Methods 0.000 claims description 6
- 238000012423 maintenance Methods 0.000 claims description 6
- 230000003449 preventive effect Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000004092 self-diagnosis Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000007774 longterm Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000004387 environmental modeling Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000015654 memory Effects 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 19
- 238000012360 testing method Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008713 feedback mechanism Effects 0.000 description 2
- 230000009347 mechanical transmission Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 241000288105 Grus Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F21—LIGHTING
- F21V—FUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
- F21V14/00—Controlling the distribution of the light emitted by adjustment of elements
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F21—LIGHTING
- F21V—FUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
- F21V21/00—Supporting, suspending, or attaching arrangements for lighting devices; Hand grips
- F21V21/14—Adjustable mountings
- F21V21/15—Adjustable mountings specially adapted for power operation, e.g. by remote control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B45/00—Circuit arrangements for operating light-emitting diodes [LED]
- H05B45/20—Controlling the colour of the light
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
- H05B47/125—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/175—Controlling the light source by remote control
- H05B47/19—Controlling the light source by remote control via wireless transmission
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F21—LIGHTING
- F21W—INDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
- F21W2131/00—Use or application of lighting devices or systems not provided for in codes F21W2102/00-F21W2121/00
- F21W2131/20—Lighting for medical use
- F21W2131/205—Lighting for medical use for operating theatres
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
Abstract
本发明提供一种神经外科自助式手术灯自动跟随***,属于手术用具技术领域;包括手术灯主体、定位***以及跟随控制***,其中,所述定位***包括:安装在手术灯主体上的位置传感器和安装在医生头部或手部的定位标签,用于监测医生的位置并将其相对于手术灯的位置信息实时发送至跟随控制***;跟随控制***用于根据接收到的医生位置信息,通过驱动手术灯主体,使其自动调整到医生视线所在位置。本发明,能够满足神经外科手术的高要求,提供更好的手术条件,从而改善医生的工作环境和提高患者的治疗效果。
Description
技术领域
本发明涉及手术用具技术领域,特别涉及一种神经外科自助式手术灯自动跟随***。
背景技术
神经外科手术对操作精度有极高的要求,其中手术灯的光线照射对于医生获得清晰视野起着至关重要的作用。在传统的设置下,手术灯的调整常常依赖于第三方操作员,这往往会造成灯光移动的延迟,同时操作员对于医生具体需要的照射效果理解可能存在误差,从而影响到手术效率和效果。为了解决这一问题,提出一种能够实时跟随医生操作,精准调整光照位置和光照强度的神经外科自助式手术灯自动跟随***变得十分必要。
这种自助式手术灯自动跟随***能够高效解决传统手术灯照射不精准、调节延时、且不能跟随医生操作实时调整的问题,进一步解决了手术灯不能根据具体手术过程进行变焦照射的问题,因此,本申请提供了一种神经外科自助式手术灯自动跟随***来满足需求。
发明内容
本发明要解决的技术问题是提供一种神经外科自助式手术灯自动跟随***以解决现有的手术灯照射不精准、调节延时、且不能跟随医生操作实时调整的问题。
为解决上述技术问题,本发明提供如下技术方案:
一种神经外科自助式手术灯自动跟随***,包括手术灯主体、定位***以及跟随控制***,其中,所述定位***包括:安装在手术灯主体上的位置传感器和安装在医生头部或手部的定位标签,用于监测医生的位置并将其相对于手术灯的位置信息实时发送至跟随控制***;跟随控制***用于根据接收到的医生位置信息,通过驱动手术灯主体,使其自动调整到医生视线所在位置。
优选地,所述位置传感器用于接收定位标签发出信号,位置传感器包括光学传感器或射频传感器。
优选地,所述定位***还包括至少两个3D摄像头,通过构建三维空间坐标系,更精确地获取医生头部或手部的位置信息,具体通过以下步骤实现:
摄像头定位与标定:两个摄像头安装在手术室内固定再手术灯主体两侧,且两个摄像头的相对位置和朝向通过标定精确确定,以建立本地坐标系;
立体视觉匹配:摄像头捕获到场景图像后,找出图像中与定位标签相关的特征点,进行立体匹配;
三维重建:当两个摄像头视图中找到了匹配的特征点,使用该匹配点在空间中重建出一个三维模型;
定位标签跟踪:在构建的三维坐标系中,***持续地监测并更新定位标签的位置,对每一帧图像执行特征提取、匹配和重建过程,以实时地获取医生头部或手部的位置信息。
优选地,所述跟随控制***采用长短期记忆网络(LSTM)的深度学习算法,通过收集并学习医生在历史手术中的操作习惯,预测医生的行动轨迹,并根据预测结果调整手术灯的位置,在自动跟随***中,医生的动作被视为时间序列数据,LSTM被用于预测医生接下来可能的动作;
在LSTM中包括遗忘门(forget gate)、输入门(input gate)、输出门(outputgate),共同决定信息的流动;
输入为X_t(当前时间的输入)和H_(t-1)(上一时刻的隐状态),输出为H_t(当前时间的隐状态),以下是LSTM的表现公式:
遗忘门:F_t=σ(W_f·[H_(t-1),X_t]+b_f)
输入门:I_t=σ(W_i·[H_(t-1),X_t]+b_i)
候选细胞状态:
更新细胞状态:C_t=F_t*C_(t-1)+I_t*□_t
输出门:O_t=σ(W_o[H_(t-1),X_t]+b_o)
更新隐状态:H_t=O_t*tanh(C_t)
其中,σ表示sigmoid函数,[H_(t-1),X_t]表示将H_(t-1)和X_t进行拼接,W和b分别为权重矩阵和偏置,*表示元素乘法;
X_t为医生的当前动作,C_t和H_t分别表示***对医生未来动作的内部状态和预测,通过训练LSTM模型,学习根据医生的过去和当前动作预测其未来动作,根据该预测来调整手术灯的位置。
优选地,所述跟随控制***还包括人工智能助手,语音识别医生的指令,以进一步精细控制手术灯的位置和光照强度。
优选地,手术灯主体采用高效能LED灯,配备色温调整模块,用于根据医生的需求实时调整色温,以提供需求的不同视觉效果。
优选地,还包括通信模块,所述跟随控制***通过通信模块与医院的信息***通过无线网络进行连接,实时上传和同步手术过程的信息,该信息包括手术灯的位置和光照强度,医生头部和手部的位置,以及任何通过位置传感器和定位标签获取的信息。
优选地,所述跟随控制***还包括故障检测模块,用于检测***的运行状态,及时发现并处理问题,故障检测模块包括硬件部件的工作状态和软件过程的运行情况,
硬件监测:故障检测模块持续监控手术灯主体,位置传感器,定位标签和通信模块硬件部件的工作状态;
软件监测:故障检测模块负责监视软件过程的运行情况,包括深度学习算法的运行,数据的收集和处理以及与医院信息***的通信;
预防性维护:故障检测模块还执行预防性维护任务,通过对***长期运行的数据进行分析,模块预测可能出现的问题,并提前进行干预;
自我诊断和恢复:发生故障时,***进行自我诊断,并尝试自动恢复。
优选地,所述手术灯主体还包括灯光焦距控制模块,用于调整光照的聚焦程度,所述灯光焦距控制模块基于Actor-Critic模型,具体包括
环境建模和状态定义:在该模型中,环境定义为手术室,状态包括医生的位置,手术时间点以及手术灯的当前光照强度,聚焦程度参数;
动作定义:动作定义为手术灯的聚焦程度的调整,在给定的状态下,Actor网络产生一个连续动作值,该值代表手术灯聚焦程度的调整;
奖励函数设计:奖励函数基于手术效率和医生的反馈;
网络结构和训练:Actor-Critic模型中,Actor网络和Critic网络基于深度神经网络实现,训练过程中,根据医生的历史手术数据进行模型训练,Actor网络通过最大化Critic网络给出的奖励并更新策略,而Critic网络则通过比较预期奖励和实际奖励更新价值函数;
模型应用:手术过程中,***实时获取医生的位置和手术时间点,然后输入到Actor网络中,Actor网络输出动作值,该动作值决定手术灯的聚焦程度的调整,进而根据该动作值调整手术灯的聚焦程度;
该模型具体运行如下:
Actor网络函数A(s,θ_a),其中s表示当前状态,θ_a为Actor网络的参数,该函数输出一个动作a,该动作对于改变环境状态是最优的,状态s包括医生的位置,手术时间点,以及手术灯的当前参数;
Critic网络函数C(s,a,θ_c),其中s和a分别表示当前状态和由Actor选择的动作,θ_c表示Critic网络的参数,该函数输出一个值v,该值代表在状态s下,执行动作a的期望回报;
网络更新:Actor和Critic的网络参数θ_a和θ_c会根据以下公式进行更新:
Actor的参数更新:
Critic的参数更新:
其中,α和β是学习率,R是实际回报,和/>是Actor和Critic网络的梯度;
模型应用:在给定当前状态s的情况下,使用Actor网络A(s,θ_a)来选择动作a,然后用Critic网络C(s,a,θ_c)来评价这个动作的效果,进而使用上式更新网络的参数,优化策略。
本发明与现有技术相比,至少具有如下有益效果:
上述方案中,提高手术效率:***能够实时监测医生的操作位置,自动调整手术灯的照射位置和光照强度,减少了手术过程中的中断,提高了手术效率。
提升手术精度:通过精确的光照,医生可以更清晰地观察到手术部位,从而提高手术的精度。
提高***运行稳定性:***内设有故障检测模块,可以及时发现并处理问题,保证***的稳定运行。
提升定位精度:通过3D摄像头构建三维空间坐标系,更精确地获取医生头部或手部的位置信息,进一步提高定位的准确性。
精准地响应并提供适应医生手术需求的光线聚焦度:***基于强化学习的Actor-Critic模型,能够智能地调整手术灯的聚焦程度,实现根据手术操作的具体需要,进行实时的光线聚焦度调整,在进行大范围手术操作时,***能识别出这个需要,并相应地调整手术灯的光线扩散照射较宽范围。而在医生进行精细小范围的手术操作,比如割除等操作时,***能及时调整手术灯的光线,将焦点集中在操作点上,实现自动智能变焦,这种智能调整光线聚焦度的***,能够准确地适应手术操作的变化,提供最适合手术需要的照明条件,极大地提高了手术的效率。同时,***还能减轻医生的负担,使他们能更专注于手术操作,提高手术的准确性和安全性。
附图说明
并入本文中并且构成说明书的部分的附图示出了本公开的实施例,并且与说明书一起进一步用来对本公开的原理进行解释,并且使相关领域技术人员能够实施和使用本公开。
图1为本发明实施例的***逻辑示意图;
图2为本发明实施例的三维构建流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明提供的一种神经外科自助式手术灯自动跟随***进行详细描述。同时在这里做以说明的是,为了使实施例更加详尽,下面的实施例为最佳、优选实施例,对于一些公知技术本领域技术人员也可采用其他替代方式而进行实施;而且附图部分仅是为了更具体的描述实施例,而并不旨在对本发明进行具体的限定。
需要指出的是,在说明书中提到“一个实施例”、“实施例”、“示例性实施例”、“一些实施例”等指示所述的实施例可以包括特定特征、结构或特性,但未必每个实施例都包括该特定特征、结构或特性。另外,在结合实施例描述特定特征、结构或特性时,结合其它实施例(无论是否明确描述)实现这种特征、结构或特性应在相关领域技术人员的知识范围内。
通常,可以至少部分从上下文中的使用来理解术语。例如,至少部分取决于上下文,本文中使用的术语“一个或多个”可以用于描述单数意义的任何特征、结构或特性,或者可以用于描述复数意义的特征、结构或特性的组合。另外,术语“基于”可以被理解为不一定旨在传达一组排他性的因素,而是可以替代地,至少部分地取决于上下文,允许存在不一定明确描述的其他因素。
可以理解的是,本公开中的“在……上”、“在……之上”和“在……上方”的含义应当以最宽方式被解读,以使得“在……上”不仅表示“直接在”某物“上”而且还包括在某物“上”且其间有居间特征或层的含义,并且“在……之上”或“在……上方”不仅表示“在”某物“之上”或“上方”的含义,而且还可以包括其“在”某物“之上”或“上方”且其间没有居间特征或层的含义。
此外,诸如“在…之下”、“在…下方”、“下部”、“在…之上”、“上部”等空间相关术语在本文中为了描述方便可以用于描述一个元件或特征与另一个或多个元件或特征的关系,如在附图中示出的。空间相关术语旨在涵盖除了在附图所描绘的取向之外的在设备使用或操作中的不同取向。设备可以以另外的方式被定向,并且本文中使用的空间相关描述词可以类似地被相应解释。
如图1和图2所示的,本发明的实施例提供一种神经外科自助式手术灯自动跟随***,包括手术灯主体、定位***以及跟随控制***,其中,所述定位***包括:安装在手术灯主体上的位置传感器和安装在医生头部或手部的定位标签,用于监测医生的位置并将其相对于手术灯的位置信息实时发送至跟随控制***;跟随控制***用于根据接收到的医生位置信息,通过驱动手术灯主体,使其自动调整到医生视线所在位置;此***特别设计用于神经外科手术,实现手术灯的自动精确跟随,提高手术的精度和效率。
位置传感器用于接收定位标签发出信号,位置传感器包括光学传感器或射频传感器,例如,若使用光学传感器,它能够通过测量从定位标签反射回来的光的强度和角度来确定定位标签的位置,无论何种类型的位置传感器,它都应具备高精度和快速响应的特性,以满足神经外科手术的要求。
定位标签用于发出可被位置传感器接收并解析的信号,以实时监测医生的位置。定位标签可以根据所使用的位置传感器类型而选择不同的工作方式。例如,如果使用光学传感器,定位标签可能会使用反射材料制作,以提高光学传感器的检测效率;如果使用射频传感器,则定位标签会发出特定频率的射频信号。无论何种类型的定位标签,其都应轻便且不影响医生的操作,同时具有足够的信号强度以确保位置的准确传输。
通过位置传感器和定位标签的配合,神经外科自助式手术灯自动跟随***可以实时精确地监测医生的位置,使手术灯可以自动且准确地对医生的操作进行跟随,提高手术的精度和效率。
定位***还包括至少两个3D摄像头,通过构建三维空间坐标系,更精确地获取医生头部或手部的位置信息,具体通过以下步骤实现:
摄像头定位与标定:两个摄像头安装在手术室内固定再手术灯主体两侧,且两个摄像头的相对位置和朝向通过标定精确确定,以建立本地坐标系;
立体视觉匹配:摄像头捕获到场景图像后,找出图像中与定位标签相关的特征点,进行立体匹配,立体匹配的目的是找出两个摄像头视图中的相同特征点,这对于后续的三维重建是必要的;
三维重建:当两个摄像头视图中找到了匹配的特征点,使用该匹配点在空间中重建出一个三维模型,这个过程通常包括计算这些点的深度信息,将二维图像信息转化为三维空间坐标,这就完成了三维空间坐标系的构建;
定位标签跟踪:在构建的三维坐标系中,***持续地监测并更新定位标签的位置,对每一帧图像执行特征提取、匹配和重建过程,以实时地获取医生头部或手部的位置信息;
以上就是使用3D摄像头***构建三维空间坐标系的大致过程。需要注意的是,这个过程需要依赖于高效的计算平台和先进的算法支持,以保证***的实时性和精确性。同时,根据手术室的具体环境和需求,还可能需要做一些定制化的设计和优化。
跟随控制***的具体驱动形式是由***接收到医生位置信息后,实现对手术灯主体的精确控制。这需要使用电机驱动,以便实现灵活的移动和精确的定位。具体来说,这可能涉及以下几个部分:
电机驱动:在手术灯自动跟随***中,可能会使用步进电机或伺服电机,这些电机在旋转精度、控制方式和性能上有所不同。步进电机能提供确定的旋转角度,因此在需要精确旋转或定位的场合比较常见。而伺服电机则更适合需要快速响应和大力矩的应用场合。
控制电路:电机的驱动需要通过特定的控制电路来完成。控制电路接收跟随控制***的信号,然后将其转换为电机驱动信号,控制电机的旋转。控制电路的设计需要考虑到信号转换的精度、稳定性和响应速度。
机械传动结构:电机的旋转需要通过一种机械传动结构转化为手术灯的移动。这种结构可能包括齿轮、皮带、丝杠等,不同的结构对应着不同的传动效率和精度。
反馈机制:为了实现更精确的控制,跟随控制***可能还包含一个反馈机制。比如,可以通过安装在手术灯上的位置传感器,实时监测手术灯的实际位置,并将其反馈给控制***,以实现闭环控制。
以上就是跟随控制***的一种可能的具体驱动形式。需要注意的是,这个驱动形式的设计需要考虑到很多因素,包括但不限于手术灯的重量、移动范围、响应速度和精度要求等。实际的驱动形式可能会根据手术灯的具体设计和使用场合进行优化。深度学习在许多领域都表现出了强大的性能,包括计算机视觉、自然语言处理、推荐***等。在我们这个神经外科手术灯自动跟随***中,深度学习可以被用于提高***对医生动作的预测准确性,从而使手术灯能更精确地对医生的动作进行跟随。
一种可能的算法是循环神经网络(RNN)及其变体,如长短期记忆网络(LSTM)和门控循环单元(GRU)。这些网络都能够处理序列数据,如时间序列或文本等。在我们的***中,医生的动作可以被视为一种时间序列,因此RNN及其变体是很好的选择。
具体来说,可以让网络接收一段时间内医生动作的历史数据,并预测下一步医生可能的动作。预测的动作可以被转换为手术灯应该移动到的位置,然后通过电机驱动***实现这个移动。为了训练这个网络,可以在手术过程中收集医生动作和手术灯移动位置的数据,然后使用这些数据进行监督学习。
跟随控制***采用长短期记忆网络(LSTM)的深度学习算法,通过收集并学习医生在历史手术中的操作习惯,预测医生的行动轨迹,并根据预测结果调整手术灯的位置,在自动跟随***中,医生的动作被视为时间序列数据,LSTM被用于预测医生接下来可能的动作;
在LSTM中包括遗忘门(forget gate)、输入门(input gate)、输出门(outputgate),共同决定信息的流动;
输入为X_t(当前时间的输入)和H_(t-1)(上一时刻的隐状态),输出为H_t(当前时间的隐状态),以下是LSTM的表现公式:
遗忘门:F_t=σ(W_f·[H_(t-1),X_t]+b_f)
输入门:I_t=σ(W_i·[H_(t-1),X_t]+b_i)
候选细胞状态:
更新细胞状态:C_t=F_t*C_(t-1)+I_t*□_t
输出门:O_t=σ(W_o[H_(t-1),X_t]+b_o)
更新隐状态:H_t=O_t*tanh(C_t)
其中,σ表示sigmoid函数,[H_(t-1),X_t]表示将H_(t-1)和X_t进行拼接,W和b分别为权重矩阵和偏置,*表示元素乘法;
X_t为医生的当前动作(例如,通过位置传感器捕获的头部或手部位置信息),C_t和H_t分别表示***对医生未来动作的内部状态和预测,通过训练LSTM模型,学习根据医生的过去和当前动作预测其未来动作,根据该预测来调整手术灯的位置。
跟随控制***还包括人工智能助手,语音识别医生的指令,以进一步精细控制手术灯的位置和光照强度。
手术灯主体采用高效能LED灯,配备色温调整模块,用于根据医生的需求实时调整色温,以提供需求的不同视觉效果。
还包括通信模块,跟随控制***通过通信模块与医院的信息***(如HIS,即医院信息管理***)通过无线网络进行连接,实时上传和同步手术过程的信息,该信息包括手术灯的位置和光照强度,医生头部和手部的位置,以及任何通过位置传感器和定位标签获取的信息;通过这种连接,手术过程的信息可以被实时录入到医院的数据库中,为后期数据的统计和分析提供便利。例如,数据分析师可以分析手术过程中手术灯的移动和光照强度变化情况,以评估***的性能和效率。他们也可以通过分析医生的移动习惯,优化深度学习算法,使得***更好地适应医生的手术习惯。
此外,实时上传的手术信息还可以用于远程监控。例如,医院的管理人员可以在任何时间查看当前正在进行的手术的实时信息,以确保手术的顺利进行。也可以为紧急情况下的远程医疗咨询提供数据支持。
此外,手术过程的信息也可以被存储为电子病历的一部分,供未来查阅。例如,如果需要回顾手术过程,或者进行手术效果的评估和学习,这些详细的手术过程数据将是非常有价值的资源。
总的来说,跟随控制***与医院信息***的实时无线连接将极大地提高手术过程的信息化程度,为医疗服务提供了重要的数据支持,有助于提高医疗质量和效率。
跟随控制***还包括故障检测模块,用于检测***的运行状态,及时发现并处理问题,故障检测模块包括硬件部件的工作状态和软件过程的运行情况,
硬件监测:故障检测模块持续监控手术灯主体,位置传感器,定位标签和通信模块硬件部件的工作状态,例如,检测手术灯的运动是否正常,光源是否稳定,传感器是否准确地收集数据,通信模块是否正常发送和接收数据等。如果检测到任何异常,***会立即发出警告,并尽可能详细地描述问题的性质和可能的解决方法。
软件监测:故障检测模块负责监视软件过程的运行情况,包括深度学习算法的运行,数据的收集和处理以及与医院信息***的通信,如果***发现任何软件错误,例如算法无法正确运行,数据丢失或通信故障,***会立即记录这些问题,并尝试自动恢复。
预防性维护:故障检测模块还执行预防性维护任务,通过对***长期运行的数据进行分析,模块预测可能出现的问题,并提前进行干预,例如,如果数据显示手术灯的某个部件在一段时间内的性能逐渐下降,***可以***这个部件可能会出现故障,并提醒相关人员进行检查或更换。
自我诊断和恢复:发生故障时,***进行自我诊断,并尝试自动恢复,例如,如果检测到硬件故障,***可以尝试重启该硬件部件;如果检测到软件故障,***可以尝试重新加载或更新出问题的软件模块。
通过这四个主要功能,故障检测模块可以有效地监控和维护***的运行状态,保证***的稳定性和可靠性,以满足神经外科手术对设备性能的高要求。
所述手术灯主体还包括灯光焦距控制模块,用于调整光照的聚焦程度,所述灯光焦距控制模块基于Actor-Critic模型,具体包括
环境建模和状态定义:在该模型中,环境定义为手术室,状态包括医生的位置,手术时间点以及手术灯的当前光照强度,聚焦程度参数;
动作定义:动作定义为手术灯的聚焦程度的调整,在给定的状态下,Actor网络产生一个连续动作值,该值代表手术灯聚焦程度的调整;
奖励函数设计:奖励函数基于手术效率和医生的反馈,例如,如果医生的手术效率提高,或者医生的反馈是积极的,那么***将会得到一个正的奖励。反之,如果手术效率下降,或者医生的反馈是消极的,那么***将会得到一个负的奖励;
网络结构和训练:Actor-Critic模型中,Actor网络和Critic网络基于深度神经网络实现,训练过程中,根据医生的历史手术数据进行模型训练,Actor网络通过最大化Critic网络给出的奖励并更新策略,而Critic网络则通过比较预期奖励和实际奖励更新价值函数;
模型应用:手术过程中,***实时获取医生的位置和手术时间点,然后输入到Actor网络中,Actor网络输出动作值,该动作值决定手术灯的聚焦程度的调整,进而根据该动作值调整手术灯的聚焦程度;
此外,该***可以通过与医院信息***的无线网络连接,实时上传和同步手术过程的信息,从而进一步提高手术效率和安全性。同时,通过持续监控和学习医生的手术行为,该***还能自我优化并提高自己的性能。
在实施中,我们需要确保手术过程的数据收集完整且准确,并且需要在合规的情况下,确保患者和医生的隐私保护。我们还需要进行大量的训练和测试,以确保模型的效果和稳定性;
该模型具体运行如下:
Actor网络函数A(s,θ_a),其中s表示当前状态,θ_a为Actor网络的参数,该函数输出一个动作a,该动作对于改变环境状态是最优的,状态s包括医生的位置,手术时间点,以及手术灯的当前参数;
Critic网络函数C(s,a,θ_c),其中s和a分别表示当前状态和由Actor选择的动作,θ_c表示Critic网络的参数,该函数输出一个值v,该值代表在状态s下,执行动作a的期望回报;
网络更新:Actor和Critic的网络参数θ_a和θ_c会根据以下公式进行更新:
Actor的参数更新:
Critic的参数更新:
其中,α和β是学习率,R是实际回报,和/>是Actor和Critic网络的梯度;
模型应用:在给定当前状态s的情况下,使用Actor网络A(s,θ_a)来选择动作a,然后用Critic网络C(s,a,θ_c)来评价这个动作的效果,进而使用上式更新网络的参数,优化策略;
这个模型基于强化学习的思想,通过在环境中不断尝试和学习,逐渐找到对于特定任务最优的策略。在这个问题中,任务是调整手术灯的聚焦程度,以提供最佳的照明条件,通过使用这个模型,我们可以根据医生的位置和手术时间点,自动地调整手术灯的聚焦程度。
对本发明的***进行测试,测试过程如下:
***集成与调试:首先将所有的硬件设备(如手术灯主体、位置传感器、定位标签、3D摄像头、通信模块等)和软件***(包括定位***、跟随控制***和故障检测模块等)进行集成,并进行必要的调试以确保***的正常运行。
模型训练:收集医生在手术过程中的动作数据,并用这些数据训练LSTM模型,训练的目标是使模型能够根据医生的历史动作和当前动作预测其未来的动作。
***测试:在非实际手术的模拟环境下,测试***的功能,例如,让医生模拟手术操作,测试手术灯是否能准确地跟随医生的动作。
实际应用评估:在实际手术过程中,应用这个***,并记录手术过程的数据,包括手术灯的位置和光照强度、医生头部和手部的位置。
分析:
模型评估:通过比较LSTM模型预测的医生动作和医生实际的动作,评估模型的预测精度。
***效能评估:通过分析实际手术过程的数据,评估***的性能,例如,看手术灯是否能准确及时地跟随医生的动作,光照强度和焦距是否能满足手术的需要,***是否稳定运行,有无出现故障。
医生反馈:询问使用***的医生关于***性能的反馈,以评估***的实用性。
以下表格是基于***测试和实际应用评估的数据:
在上述表格中,我们可以看到神经外科自助式手术灯自动跟随***在测试阶段和实际应用阶段的表现,这种比较有助于我们了解该***的性能是否满足预期,并对其进行进一步改进,以下是对这个表格的分析:
灯光跟随精度:在实际应用阶段比测试阶段提高了5个百分点。这可能是由于在真实环境中,***学习并适应了医生的行为模式,从而提高了精度。
色温调整准确性和焦距调整准确性:在实际应用阶段都有所提高,这是因为***根据真实手术环境进行了自我调整和优化。
LSTM预测精度:在实际应用阶段比测试阶段提高了5个百分点,说明在复杂的真实环境中,基于长短期记忆网络(LSTM)的深度学习算法能够有效地预测医生的行动轨迹。
故障发生率:在实际应用阶段下降了2个百分点,这是一个积极的趋势,表明***的稳定性在长期使用中有所提高。
医生满意度:达到了92%,这是一个很高的满意度,表明大多数医生对这个***的表现感到满意。
AI助手识别准确率:在实际应用阶段提高了4个百分点,表明AI助手能有效地识别和理解医生的指令。
总的来说,这个神经外科自助式手术灯自动跟随***在实际应用中的表现优于测试阶段,这表明***能够有效地从实际应用中学习和优化,实现更好的表现。
本发明提供的技术方案,提高手术效率:***能够实时监测医生的操作位置,自动调整手术灯的照射位置和光照强度,减少了手术过程中的中断,提高了手术效率。
提升手术精度:通过精确的光照,医生可以更清晰地观察到手术部位,从而提高手术的精度。
提高***运行稳定性:***内设有故障检测模块,可以及时发现并处理问题,保证***的稳定运行。
提升定位精度:通过3D摄像头构建三维空间坐标系,更精确地获取医生头部或手部的位置信息,进一步提高定位的准确性。
方便后期数据统计和分析:跟随控制***能够与医院的信息***进行无线连接,实时传输手术过程的信息,以方便后期数据的统计和分析。
本发明涵盖任何在本发明的精髓和范围上做的替代、修改、等效方法以及方案。为了使公众对本发明有彻底的了解,在以下本发明优选实施例中详细说明了具体的细节,而对本领域技术人员来说没有这些细节的描述也可以完全理解本发明。另外,为了避免对本发明的实质造成不必要的混淆,并没有详细说明众所周知的方法、过程、流程、元件和电路等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读取存储介质中,如:ROM/RAM、磁碟、光盘等。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种神经外科自助式手术灯自动跟随***,其特征在于,包括手术灯主体、定位***以及跟随控制***;
所述定位***包括:安装在手术灯主体上的位置传感器和安装在医生头部或手部的定位标签,用于监测医生的位置并将其相对于手术灯的位置信息实时发送至跟随控制***;
跟随控制***用于根据接收到的医生位置信息,通过驱动手术灯主体,使其自动调整到医生视线所在位置。
2.根据权利要求1所述的神经外科自助式手术灯自动跟随***,其特征在于,所述位置传感器用于接收定位标签发出信号,位置传感器包括光学传感器或射频传感器。
3.根据权利要求2所述的神经外科自助式手术灯自动跟随***,其特征在于,所述定位***还包括至少两个3D摄像头,通过构建三维空间坐标系,更精确地获取医生头部或手部的位置信息,具体通过以下步骤实现:
摄像头定位与标定:两个摄像头安装在手术室内固定在手术灯主体两侧,且两个摄像头的相对位置和朝向通过标定精确确定,以建立本地坐标系;
立体视觉匹配:摄像头捕获到场景图像后,找出图像中与定位标签相关的特征点,进行立体匹配;
三维重建:当两个摄像头视图中找到了匹配的特征点,使用该匹配的特征点在空间中重建出一个三维模型;
定位标签跟踪:在构建的三维坐标系中,***持续地监测并更新定位标签的位置,对每一帧图像执行特征提取、匹配和重建过程,以实时地获取医生头部或手部的位置信息。
4.根据权利要求1所述的神经外科自助式手术灯自动跟随***,其特征在于,所述跟随控制***采用长短期记忆网络(LSTM)的深度学习算法,通过收集并学习医生在历史手术中的操作习惯,预测医生的行动轨迹,并根据预测结果调整手术灯的位置,在自动跟随***中,医生的动作被视为时间序列数据,LSTM被用于预测医生接下来可能的动作;
在LSTM中包括遗忘门(forget gate)、输入门(input gate)、输出门(output gate),共同决定信息的流动;
输入为X_t(当前时间的输入)和H_(t-1)(上一时刻的隐状态),输出为H_t(当前时间的隐状态),以下是LSTM的表现公式:
遗忘门:F_t=σ(W_f·[H_(t-1),X_t]+b_f)
输入门:I_t=σ(W_i·[H_(t-1),X_t]+b_i)
候选细胞状态:
更新细胞状态:C_t=F_t*C_(t-1)+I_t*□_t
输出门:O_t=σ(W_o[H_(t-1),X_t]+b_o)
更新隐状态:H_t=O_t*tanh(C_t)
其中,σ表示sigmoid函数,[H_(t-1),X_t]表示将H_(t-1)和X_t进行拼接,W和b分别为权重矩阵和偏置,*表示元素乘法;
X_t为医生的当前动作,C_t和H_t分别表示***对医生未来动作的内部状态和预测,通过训练LSTM模型,学习根据医生的过去和当前动作预测其未来动作,根据该预测来调整手术灯的位置。
5.根据权利要求1所述的神经外科自助式手术灯自动跟随***,其特征在于,所述跟随控制***还包括人工智能助手,语音识别医生的指令,以进一步精细控制手术灯的位置和光照强度。
6.根据权利要求1所述的神经外科自助式手术灯自动跟随***,其特征在于,手术灯主体采用高效能LED灯,配备色温调整模块,用于根据医生的需求实时调整色温,以提供需求的不同视觉效果。
7.根据权利要求1所述的神经外科自助式手术灯自动跟随***,其特征在于,还包括通信模块,所述跟随控制***通过通信模块与医院的信息***通过无线网络进行连接,实时上传和同步手术过程的信息,该信息包括手术灯的位置和光照强度,医生头部和手部的位置,以及任何通过位置传感器和定位标签获取的信息。
8.根据权利要求7所述的神经外科自助式手术灯自动跟随***,其特征在于,所述跟随控制***还包括故障检测模块,用于检测***的运行状态,及时发现并处理问题,故障检测模块包括硬件部件的工作状态和软件过程的运行情况,
硬件监测:故障检测模块持续监控手术灯主体,位置传感器,定位标签和通信模块硬件部件的工作状态;
软件监测:故障检测模块负责监视软件过程的运行情况,包括深度学习算法的运行,数据的收集和处理以及与医院信息***的通信;
预防性维护:故障检测模块还执行预防性维护任务,通过对***长期运行的数据进行分析,模块预测可能出现的问题,并提前进行干预;
自我诊断和恢复:发生故障时,***进行自我诊断,并尝试自动恢复。
9.根据权利要求6所述的神经外科自助式手术灯自动跟随***,其特征在于,所述手术灯主体还包括灯光焦距控制模块,用于调整光照的聚焦程度,所述灯光焦距控制模块基于Actor-Critic模型,具体包括
环境建模和状态定义:在该模型中,环境定义为手术室,状态包括医生的位置,手术时间点以及手术灯的当前光照强度,聚焦程度参数;
动作定义:动作定义为手术灯的聚焦程度的调整,在给定的状态下,Actor网络产生一个连续动作值,该值代表手术灯聚焦程度的调整;
奖励函数设计:奖励函数基于手术效率和医生的反馈;
网络结构和训练:Actor-Critic模型中,Actor网络和Critic网络基于深度神经网络实现,训练过程中,根据医生的历史手术数据进行模型训练,Actor网络通过最大化Critic网络给出的奖励并更新策略,而Critic网络则通过比较预期奖励和实际奖励更新价值函数;
模型应用:手术过程中,***实时获取医生的位置和手术时间点,然后输入到Actor网络中,Actor网络输出动作值,该动作值决定手术灯的聚焦程度的调整,进而根据该动作值调整手术灯的聚焦程度;
该模型具体运行如下:
Actor网络函数A(s,θ_a),其中s表示当前状态,θ_a为Actor网络的参数,该函数输出一个动作a,该动作对于改变环境状态是最优的,状态s包括医生的位置,手术时间点,以及手术灯的当前参数;
Critic网络函数C(s,a,θ_c),其中s和a分别表示当前状态和由Actor选择的动作,θ_c表示Critic网络的参数,该函数输出一个值v,该值代表在状态s下,执行动作a的期望回报;
网络更新:Actor和Critic的网络参数θ_a和θ_c会根据以下公式进行更新:
Actor的参数更新:
Critic的参数更新:
其中,α和β是学习率,R是实际回报,和/>是Actor和Critic网络的梯度;
模型应用:在给定当前状态s的情况下,使用Actor网络A(s,θ_a)来选择动作a,然后用Critic网络C(s,a,θ_c)来评价这个动作的效果,进而使用上式更新网络的参数,优化策略。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311039098.7A CN117062280B (zh) | 2023-08-17 | 2023-08-17 | 一种神经外科自助式手术灯自动跟随*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311039098.7A CN117062280B (zh) | 2023-08-17 | 2023-08-17 | 一种神经外科自助式手术灯自动跟随*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117062280A true CN117062280A (zh) | 2023-11-14 |
CN117062280B CN117062280B (zh) | 2024-03-08 |
Family
ID=88665874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311039098.7A Active CN117062280B (zh) | 2023-08-17 | 2023-08-17 | 一种神经外科自助式手术灯自动跟随*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117062280B (zh) |
Citations (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060142740A1 (en) * | 2004-12-29 | 2006-06-29 | Sherman Jason T | Method and apparatus for performing a voice-assisted orthopaedic surgical procedure |
KR20080086143A (ko) * | 2007-03-22 | 2008-09-25 | 한양대학교 산학협력단 | 위치추적 기능을 사용한 수술용 조명로봇시스템과 이를 구비한 수술실 및 위치추적 기능을 사용한 조명로봇 위치이동방법 |
CN103337094A (zh) * | 2013-06-14 | 2013-10-02 | 西安工业大学 | 一种应用双目摄像机实现运动三维重建的方法 |
CN103971378A (zh) * | 2014-05-29 | 2014-08-06 | 福州大学 | 一种混合视觉***中全景图像的三维重建方法 |
CN107062074A (zh) * | 2017-04-12 | 2017-08-18 | 成都迅德科技有限公司 | 一种带麦克风的可调焦距手术灯 |
WO2017175232A1 (en) * | 2016-04-07 | 2017-10-12 | M.S.T. Medical Surgery Technologies Ltd. | Vocally activated surgical control system |
CN108024839A (zh) * | 2015-08-13 | 2018-05-11 | 卡尔莱宾格医疗技术有限责任两合公司 | 具有声控的外科手术灯的手柄装置及手术灯 |
CN108549237A (zh) * | 2018-05-16 | 2018-09-18 | 华南理工大学 | 基于深度增强学习的预观控制仿人机器人步态规划方法 |
CN109089365A (zh) * | 2018-10-30 | 2018-12-25 | 成都大学附属医院 | 一种智能调节手术灯的控制***及方法 |
CN109636062A (zh) * | 2018-12-25 | 2019-04-16 | 湖北工业大学 | 一种基于大数据分析的学生行为分析方法及*** |
CN110288661A (zh) * | 2019-06-19 | 2019-09-27 | 深圳市睿智龙电子科技有限公司 | 手术灯的位置调整方法、装置、计算机设备和存储介质 |
CN110989576A (zh) * | 2019-11-14 | 2020-04-10 | 北京理工大学 | 速差滑移转向车辆的目标跟随及动态障碍物避障控制方法 |
CN111631719A (zh) * | 2020-05-21 | 2020-09-08 | 北京城市***工程研究中心 | 一种用于预测老年人跌倒风险的方法 |
CN112389436A (zh) * | 2020-11-25 | 2021-02-23 | 中汽院智能网联科技有限公司 | 基于改进lstm神经网络的安全性自动驾驶换道轨迹规划方法 |
CN112435503A (zh) * | 2020-10-30 | 2021-03-02 | 江苏大学 | 一种辨识高危行人意图的智能汽车主动避撞方法 |
CN112509125A (zh) * | 2020-12-14 | 2021-03-16 | 广州迦恩科技有限公司 | 一种基于人工标志物和立体视觉的三维重建方法 |
CN112883738A (zh) * | 2021-03-23 | 2021-06-01 | 西南交通大学 | 基于神经网络和自注意力机制的医学实体关系抽取方法 |
CN113111581A (zh) * | 2021-04-09 | 2021-07-13 | 重庆邮电大学 | 结合时空因素和基于图神经网络的lstm轨迹预测方法 |
CN113254197A (zh) * | 2021-04-30 | 2021-08-13 | 西安电子科技大学 | 一种基于深度强化学习的网络资源调度方法及*** |
CN113269963A (zh) * | 2021-05-20 | 2021-08-17 | 东南大学 | 一种基于强化学习的网联车辆信号灯控路口经济通行方法 |
CN113573284A (zh) * | 2021-06-21 | 2021-10-29 | 吉林大学 | 大规模机器类通信基于机器学习的随机接入退避方法 |
CN113763723A (zh) * | 2021-09-06 | 2021-12-07 | 武汉理工大学 | 基于强化学习与动态配时的交通信号灯控制***及方法 |
CN115033022A (zh) * | 2022-06-28 | 2022-09-09 | 华南理工大学 | 面向移动平台基于专家经验的ddpg无人机降落方法 |
CN115311405A (zh) * | 2021-05-06 | 2022-11-08 | 珠海市迪谱医疗科技有限公司 | 一种双目内窥镜的三维重建方法 |
CN115665941A (zh) * | 2022-11-04 | 2023-01-31 | 浙江大学医学院附属第一医院 | 一种视线跟随手术照明灯及视线跟随方法 |
CN116259175A (zh) * | 2022-12-30 | 2023-06-13 | 北京邮电大学 | 一种面向多样化动态信号灯模式的车速推荐方法及装置 |
WO2023123906A1 (zh) * | 2021-12-31 | 2023-07-06 | 深圳云天励飞技术股份有限公司 | 交通信号灯控制方法及相关设备 |
CN116513273A (zh) * | 2023-01-03 | 2023-08-01 | 南京工业大学 | 基于深度强化学习的列车运行调度优化方法 |
-
2023
- 2023-08-17 CN CN202311039098.7A patent/CN117062280B/zh active Active
Patent Citations (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060142740A1 (en) * | 2004-12-29 | 2006-06-29 | Sherman Jason T | Method and apparatus for performing a voice-assisted orthopaedic surgical procedure |
KR20080086143A (ko) * | 2007-03-22 | 2008-09-25 | 한양대학교 산학협력단 | 위치추적 기능을 사용한 수술용 조명로봇시스템과 이를 구비한 수술실 및 위치추적 기능을 사용한 조명로봇 위치이동방법 |
CN103337094A (zh) * | 2013-06-14 | 2013-10-02 | 西安工业大学 | 一种应用双目摄像机实现运动三维重建的方法 |
CN103971378A (zh) * | 2014-05-29 | 2014-08-06 | 福州大学 | 一种混合视觉***中全景图像的三维重建方法 |
CN108024839A (zh) * | 2015-08-13 | 2018-05-11 | 卡尔莱宾格医疗技术有限责任两合公司 | 具有声控的外科手术灯的手柄装置及手术灯 |
WO2017175232A1 (en) * | 2016-04-07 | 2017-10-12 | M.S.T. Medical Surgery Technologies Ltd. | Vocally activated surgical control system |
CN109863553A (zh) * | 2016-04-07 | 2019-06-07 | M.S.T.医学外科技术有限公司 | 声音激活的手术控制*** |
CN107062074A (zh) * | 2017-04-12 | 2017-08-18 | 成都迅德科技有限公司 | 一种带麦克风的可调焦距手术灯 |
CN108549237A (zh) * | 2018-05-16 | 2018-09-18 | 华南理工大学 | 基于深度增强学习的预观控制仿人机器人步态规划方法 |
CN109089365A (zh) * | 2018-10-30 | 2018-12-25 | 成都大学附属医院 | 一种智能调节手术灯的控制***及方法 |
CN109636062A (zh) * | 2018-12-25 | 2019-04-16 | 湖北工业大学 | 一种基于大数据分析的学生行为分析方法及*** |
CN110288661A (zh) * | 2019-06-19 | 2019-09-27 | 深圳市睿智龙电子科技有限公司 | 手术灯的位置调整方法、装置、计算机设备和存储介质 |
CN110989576A (zh) * | 2019-11-14 | 2020-04-10 | 北京理工大学 | 速差滑移转向车辆的目标跟随及动态障碍物避障控制方法 |
CN111631719A (zh) * | 2020-05-21 | 2020-09-08 | 北京城市***工程研究中心 | 一种用于预测老年人跌倒风险的方法 |
CN112435503A (zh) * | 2020-10-30 | 2021-03-02 | 江苏大学 | 一种辨识高危行人意图的智能汽车主动避撞方法 |
CN112389436A (zh) * | 2020-11-25 | 2021-02-23 | 中汽院智能网联科技有限公司 | 基于改进lstm神经网络的安全性自动驾驶换道轨迹规划方法 |
CN112509125A (zh) * | 2020-12-14 | 2021-03-16 | 广州迦恩科技有限公司 | 一种基于人工标志物和立体视觉的三维重建方法 |
CN112883738A (zh) * | 2021-03-23 | 2021-06-01 | 西南交通大学 | 基于神经网络和自注意力机制的医学实体关系抽取方法 |
CN113111581A (zh) * | 2021-04-09 | 2021-07-13 | 重庆邮电大学 | 结合时空因素和基于图神经网络的lstm轨迹预测方法 |
CN113254197A (zh) * | 2021-04-30 | 2021-08-13 | 西安电子科技大学 | 一种基于深度强化学习的网络资源调度方法及*** |
CN115311405A (zh) * | 2021-05-06 | 2022-11-08 | 珠海市迪谱医疗科技有限公司 | 一种双目内窥镜的三维重建方法 |
CN113269963A (zh) * | 2021-05-20 | 2021-08-17 | 东南大学 | 一种基于强化学习的网联车辆信号灯控路口经济通行方法 |
CN113573284A (zh) * | 2021-06-21 | 2021-10-29 | 吉林大学 | 大规模机器类通信基于机器学习的随机接入退避方法 |
CN113763723A (zh) * | 2021-09-06 | 2021-12-07 | 武汉理工大学 | 基于强化学习与动态配时的交通信号灯控制***及方法 |
WO2023123906A1 (zh) * | 2021-12-31 | 2023-07-06 | 深圳云天励飞技术股份有限公司 | 交通信号灯控制方法及相关设备 |
CN115033022A (zh) * | 2022-06-28 | 2022-09-09 | 华南理工大学 | 面向移动平台基于专家经验的ddpg无人机降落方法 |
CN115665941A (zh) * | 2022-11-04 | 2023-01-31 | 浙江大学医学院附属第一医院 | 一种视线跟随手术照明灯及视线跟随方法 |
CN116259175A (zh) * | 2022-12-30 | 2023-06-13 | 北京邮电大学 | 一种面向多样化动态信号灯模式的车速推荐方法及装置 |
CN116513273A (zh) * | 2023-01-03 | 2023-08-01 | 南京工业大学 | 基于深度强化学习的列车运行调度优化方法 |
Non-Patent Citations (2)
Title |
---|
MINGRUI YU; JAIJUN CHAI; YISHENG LV; GANG XIONG: "An effective deep reinforcement learning approach for adaptive traffic signal control", 2020 CHINESE AUTOMATION CONGRESS (CAC), 29 January 2021 (2021-01-29), pages 6419 - 6425 * |
李峦;陈英革;王小英;: "一种基于机器学习的自然调光LED节能灯", 电脑知识与技术, no. 05 * |
Also Published As
Publication number | Publication date |
---|---|
CN117062280B (zh) | 2024-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11442429B2 (en) | Systems and methods for advance anomaly detection in a discrete manufacturing process with a task performed by a human-robot team | |
US20200226751A1 (en) | Surgical workflow and activity detection based on surgical videos | |
CN110163485A (zh) | 一种机房巡检*** | |
CN108879440A (zh) | 基于可穿戴增强现实显示终端和云平台的智能检修***及方法 | |
US20220046161A1 (en) | Image acquisition method and apparatus, device, and storage medium | |
CN102348101A (zh) | 一种考场智能监控***和方法 | |
CN109120889A (zh) | 一种实验室质量控制管理***及方法 | |
CN111046943A (zh) | 变电站隔离刀闸状态自动识别方法及*** | |
CN116127790A (zh) | 工业机器人预测性维护管理方法及*** | |
DE102020133445A1 (de) | Kameraorchestrierungstechnologie zum verbessern von automatischer personenidentifizierung | |
CN115620888A (zh) | 基于数字孪生的手术机器人监测方法、装置及*** | |
CN117062280B (zh) | 一种神经外科自助式手术灯自动跟随*** | |
Diethe et al. | Releasing ehealth analytics into the wild: lessons learnt from the sphere project | |
KR102415912B1 (ko) | 개인정보 보호 기능을 갖는 인공지능 생활 모니터링 시스템 | |
Zou et al. | Evaluation of operation state for operators in NPP Main control room using human behavior recognition | |
CA3175773A1 (en) | Machine-learning based surgical instrument recognition system and method to trigger events in operating room workflows | |
CN117111660A (zh) | 一种无人值守智能粮仓***及方法 | |
CN116690605A (zh) | 一种用于消防控制中心的智能值班机器人 | |
US20220383652A1 (en) | Monitoring Animal Pose Dynamics from Monocular Images | |
Wang et al. | Guided activity prediction for minimally invasive surgery safety improvement in the internet of medical things | |
CN110675950B (zh) | 一种基于物联网云平台的瘫痪病人智能看护*** | |
US20240112466A1 (en) | System and method for analyzing periodic task | |
CN116091027A (zh) | 电力设备检修方法、装置及*** | |
KR102541215B1 (ko) | Vr 영상을 이용한 수중생물 모니터링 장치와 방법 | |
Rill et al. | Cognitive modeling approach for dealing with challenges in cyber-physical systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |