CN117649933B - 在线问诊辅助方法、装置、电子设备和存储介质 - Google Patents

在线问诊辅助方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN117649933B
CN117649933B CN202311611987.6A CN202311611987A CN117649933B CN 117649933 B CN117649933 B CN 117649933B CN 202311611987 A CN202311611987 A CN 202311611987A CN 117649933 B CN117649933 B CN 117649933B
Authority
CN
China
Prior art keywords
probability
patient
expression
target
expression label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311611987.6A
Other languages
English (en)
Other versions
CN117649933A (zh
Inventor
谢方敏
周峰
郭陟
伍世志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Fangzhou Information Technology Co ltd
Original Assignee
Guangzhou Fangzhou Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Fangzhou Information Technology Co ltd filed Critical Guangzhou Fangzhou Information Technology Co ltd
Priority to CN202311611987.6A priority Critical patent/CN117649933B/zh
Publication of CN117649933A publication Critical patent/CN117649933A/zh
Application granted granted Critical
Publication of CN117649933B publication Critical patent/CN117649933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本发明公开了一种在线问诊辅助方法、装置、电子设备和存储介质,包括:获取就诊患者的就诊目标科室ID,加载与就诊目标科室ID匹配的微表情识别模型,获取就诊患者的视频数据,将视频数据输入微表情识别模型中得到就诊患者的表情标签,根据表情标签和就诊目标科室ID确定辅助文本,并在医生终端显示辅助文本,通过辅助文本辅助医生对就诊患者进行问诊,使得医生在有限的问诊时间内可以通过就诊患者的语音描述和就诊患者的表情进行问诊,能够获取到就诊患者准确有效的信息,在一定程度上辅助提高医生对就诊患者问诊的准确度,以及提高在线问诊的效率。

Description

在线问诊辅助方法、装置、电子设备和存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种在线问诊辅助方法、装置、电子设备和存储介质。
背景技术
在线问诊是在线医疗的重要环节,在线问诊中就诊患者和医生通过视频对话交流,即就诊患者在远端,医生通过语音对话和视频图像对患者进行诊断。
在线问诊的过程中,医生更多的是通过就诊患者的语音描述进行诊断,比如,就诊患者通过语音描述疼痛的程度,这有可能导致就诊患者对疼痛程度描述过轻或过重,又或者在语音沟通过程中,医生无法通过语音了解就诊患者对语音沟通内容的理解和接受程度,并且语音沟通时间有限,医生在整个在线问诊过程难以获得准确有效的信息,影响医生对就诊患者病症的判断。
发明内容
本发明提供了一种在线问诊辅助方法、装置、电子设备和存储介质,以解决在线问诊通过语音沟通难以获得准确有效的信息,影响医生对就诊患者病症的判断的问题。
第一方面,本发明提供了一种在线问诊辅助方法,包括:
获取就诊患者的就诊目标科室ID;
加载与所述就诊目标科室ID匹配的微表情识别模型;
获取所述就诊患者的视频数据;
将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的表情标签;
根据所述表情标签和所述就诊目标科室ID确定辅助文本,并在医生终端显示所述辅助文本。
可选的,所述微表情识别模型通过以下方式训练:
对EfficientDet-lite0模型进行剪枝处理,并将剪枝处理后的模型作为微表情识别模型;
将EfficentDet-b6模型确定为教师模型;
获取训练数据集;
采用所述训练数据集训练所述EfficentDet-b6模型;
在所述EfficentDet-b6模型训练完成后,采用所述EfficentDet-b6模型和所述训练数据集训练所述微表情识别模型。
可选的,将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的目标表情标签,包括:
计算所述视频数据中相邻两帧视频图像的相似度;
将相似度小于预设阈值的两帧视频图像确定为目标视频图像;
将所述目标视频图像输入所述微表情识别模型中,得到所述就诊患者的各个表情标签的第一概率;
基于所述第一概率确定所述就诊患者的目标表情标签。
可选的,在将所述目标视频图像输入所述微表情识别模型中之前,还包括:
对所述目标视频图像进行图像增强处理,得到增强处理后的目标视频图像。
可选的,在基于所述第一概率确定所述就诊患者的目标表情标签之前,还包括:
从所述视频数据中提取所述就诊患者的语音数据;
将所述语音数据分别输入预置的频率识别模型和语音识别模型中,得到所述就诊患者的各个表情标签的第二概率和第三概率,所述频率识别模型用于基于所述语音数据的频率识别所述就诊患者的表情标签,所述语音识别模型用于将所述语音数据转换为文本后识别所述就诊患者的表情标签;
所述基于所述第一概率确定所述就诊患者的目标表情标签,包括:
针对每个表情标签,根据所述表情标签的第一概率、第二概率和第三概率计算所述表情标签的目标概率;
将目标概率最高的表情标签确定为所述就诊患者的目标表情标签。
可选的,根据所述表情标签的第一概率、第二概率和第三概率计算所述表情标签的目标概率,包括:
基于所述就诊目标科室ID确定所述微表情识别模型的第一权重、所述频率识别模型的第二权重以及所述语音识别模型的第三权重;
计算所述第一概率与所述第一权重的第一乘积、第二概率与所述第二权重的第二乘积、第三概率与所述第三权重的第三乘积;
计算所述第一乘积、第二乘积、第三乘积的和值,作为所述表情标签的目标概率。
可选的,根据所述表情标签和所述就诊目标科室ID确定辅助文本,并在医生终端显示所述辅助文本,包括:
在预置的文本库中,查找与所述表情标签和所述就诊目标科室ID匹配的文本作为辅助文本,并在医生终端显示所述辅助文本。
第二方面,本发明提供了一种在线问诊辅助装置,包括:
目标科室ID获取模块,用于获取就诊患者的就诊目标科室ID;
微表情识别模型加载模块,用于加载与所述就诊目标科室ID匹配的微表情识别模型;
视频数据获取模块,用于获取所述就诊患者的视频数据;
表情标签识别模块,用于将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的表情标签;
辅助文本确定和显示模块,用于根据所述表情标签和所述就诊目标科室ID确定辅助文本,并在医生终端显示所述辅助文本。
第三方面,本发明提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明第一方面任一项所述的在线问诊辅助方法。
第四方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明第一方面任一项所述的在线问诊辅助方法。
本发明实施例在线问诊时,加载与就诊患者的就诊目标科室ID匹配的微表情识别模型,在获取就诊患者的视频数据后,将视频数据输入微表情识别模型中识别就诊患者的表情标签,并根据表情标签和就诊目标科室ID确定辅助文本,通过辅助文本辅助医生对就诊患者进行问诊,使得医生在有限的问诊时间内可以通过就诊患者的语音描述和就诊患者的表情进行问诊,能够获取到就诊患者准确有效的信息,在一定程度上辅助提高医生对就诊患者问诊的准确度,以及提高在线问诊的效率。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种在线问诊辅助方法的流程图;
图2是本发明实施例二提供的一种在线问诊辅助方法的流程图;
图3是本发明实施例三提供的一种在线问诊辅助装置的结构示意图;
图4是本发明实施例四提供的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
实施例一
图1为本发明实施例一提供的一种在线问诊辅助方法的流程图,本实施例可适用于在线问诊时识别就诊患者的微表情以辅助医生问诊的情况,该方法可以由在线问诊辅助装置来执行,该在线问诊辅助装置可以采用硬件和/或软件的形式实现,并配置于电子设备中。如图1所示,该在线问诊辅助方法包括:
S101、获取就诊患者的就诊目标科室ID。
本实施例应用于在线医疗的场景,在线医疗场景中,就诊患者与医生通过视频通信,就诊患者通过语音描述病症,医生通过语音问询就诊患者的相关信息。其中,就诊科室包括医疗领域中常用分类的各种科室,比如儿科、发热科、骨科、精神科、疼痛科等等,各个科室可以设置有科室ID,就诊患者可以在预约时选择就诊科室,将就诊患者所选择的就诊科室确定为就诊目标科室,并获取该就诊目标科室的ID,将就诊目标科室ID与就诊患者的唯一身份标识信息关联存储,比如,将就诊患者的预约号、身份证、医疗***、电话号码中的至少一项与就诊目标科室ID关联存储,在就诊患者上线并与医生视频连线时,通过就诊患者的身份标识信息查找就诊目标科室ID,该就诊目标科室ID为就诊患者所问诊的科室的ID。
在另一个实施例中,也可以通过确定医生所属的科室,将该科室ID确定为与医生视频连线进行问诊的就诊患者的就诊目标科室ID。
S102、加载与就诊目标科室ID匹配的微表情识别模型。
本实施例可以预先训练各个科室的微表情识别模型,并将每个科室的科室ID与微表情识别模型关联存储在模型库中,示例性的,对于骨科,可以通过采集骨科问诊过程中的视频图像,对视频图像中的就诊患者标注平静、愉快、痛苦等表情标签后,通过视频图像训练用于骨科问诊的微表情识别模型,并将骨科ID作为索引,将微表情识别模型存储在模型库中。
在确定就诊患者的就诊目标科室ID后,可以在模型库中查找与就诊目标科室ID匹配的微表情识别模型,并加载该微表情识别模型。
S103、获取就诊患者的视频数据。
在线问诊时,就诊患者登录患者端客户端,医生登录医生端客户端,比如患者端客户端安装在就诊患者的手机上,建立在线问诊后,患者端客户端与医生端客户端网络连接,就诊患者的手机上的摄像头和麦克风对就诊患者采集视频数据,该视频数据包括图像数据和语音数据,视频数据通过网络发送到医生端客户端。
S104、将视频数据输入微表情识别模型中,得到就诊患者的表情标签。
在获取到视频数据后,可以从视频数据中提取视频图像,并将视频图像输入到所加载的微表情识别模型中,以识别出就诊患者的表情标签,该表情标签表示就诊患者的表情状态。
S105、根据表情标签和就诊目标科室ID确定辅助文本,并在医生终端显示辅助文本。
本实施例可以为每个就诊目标科室下的每个表情标签预置多条辅助文本,在确定就诊患者的表情标签后,可以先获取就诊目标科室ID查找为就诊目标科室预置多个表情标签的辅助文本,再从多个辅助文本中查找就诊患者的表情标签对应的辅助文本,将辅助文本显示在医生终端的显示屏上,以使得医生参考辅助文本对就诊患者进行问诊,实现了医生根据就诊患者的微表情进行问诊,以获得就诊患者更多、更准确有效的信息,从而辅助诊断。
本发明实施例在线问诊时,加载与就诊患者的就诊目标科室ID匹配的微表情识别模型,在获取就诊患者的视频数据后,将视频数据输入微表情识别模型中识别就诊患者的表情标签,并根据表情标签和就诊目标科室ID确定辅助文本,通过辅助文本辅助医生对就诊患者进行问诊,使得医生在有限的问诊时间内可以通过就诊患者的语音描述和就诊患者的表情进行问诊,能够获取到就诊患者准确有效的信息,在一定程度上辅助提高医生对就诊患者问诊的准确度,以及提高在线问诊的效率。
实施例二
图2为本发明实施例二提供的一种在线问诊辅助方法的流程图,本发明实施例在上述实施例一的基础上进行优化,如图2所示,该在线问诊辅助方法包括:
S201、获取就诊患者的就诊目标科室ID。
就诊患者可以在预约时选择就诊科室,将就诊患者所选择的就诊科室确定为就诊目标科室,从而可以获取到就诊患者的就诊目标科室ID。
S202、加载与就诊目标科室ID匹配的微表情识别模型。
本实施例可以预先训练各个科室的微表情识别模型,并将每个科室的科室ID与微表情识别模型关联存储在模型库中,通过就诊目标科室ID可以查找并加载与就诊目标科室ID匹配的微表情识别模型。
在一个实施例中,可以通过蒸馏训练方法训练微表情识别模型,具体的,可以对EfficientDet-lite0模型进行剪枝处理,并将剪枝处理后的模型作为微表情识别模型,将EfficentDet-b6模型确定为教师模型,获取训练数据集,采用训练数据集训练EfficentDet-b6模型,在EfficentDet-b6模型训练完成后,采用EfficentDet-b6模型和训练数据集训练微表情识别模型。
具体的,训练数据集可以是标注了表情标签的训练图像,EfficientDet可以是可扩展的高效的目标检测器系列,该系列的目标检测器可以包括多个网络层,本实施例以EfficientDet-lite0模型为基础,通过剪枝去掉若干网络层后作为微表情识别模型,比如去掉最后的5个卷积层,使得模型大小缩小50%,提高推理速度,为了保证剪枝处理后的微表情识别模型的准确度,以EfficentDet-b6模型为教师模型,微表情识别模型作为学生模型,通过数据集训练教师模型后,通过蒸馏训练学生模型,具体可参考现有的模型训练中的蒸馏训练方法,在此不再详述,在另一个示例中,在训练教师模型后,可以将教师模型中相应网络层的模型参数复制给学生模型,然后采用训练数据集训练学生模型,一方面,可以提高学生模型的训练效率,另一方面,可以提高学生模型的精度。
在另一个实施例中,也可以对现有的各种目标检测网络进行剪枝处理得到微表情识别模型后,直接采用训练数据集训练微表情识别模型。
本实施例通过对现有的检测模型进行剪枝处理再进行训练,使得微表情识别模型结构精简,推理速度提高,可以快速准确识别就诊患者的表情标签,提高在线问诊的实时性,以使得医生可以参考微表情及时对就诊患者进行问诊。
S203、获取就诊患者的视频数据。
在线问诊时,可以通过就诊患者的手机上的摄像头和麦克风对就诊患者采集视频数据,该视频数据包括图像数据和语音数据,视频数据通过网络发送到医生端客户端。
S204、计算视频数据中相邻两帧视频图像的相似度,将相似度小于预设阈值的两帧视频图像确定为目标视频图像。
在一个实施例中,可以将相邻两帧视频图像的每个像素点的像素值进行差值计算,并计算多个差值的平均值得到相邻两帧视频图像的相似度。
在另一个实施例中,可以将两帧视频图像输入预置的相似度识别模型中,得到两帧视频图像的相似度,本实施例对计算两帧视频图像的相似度的方式不做限制。
若两帧视频图像的相似度越小,说明两帧视频图像差异越大,就诊患者越有可能表情发生变化,则将相邻的两帧视频图像确定为目标视频图像,反之,若两帧视频图像的相似度越大,说明两帧视频图像差异小,就诊患者可能无表情变化,无需对差异小的视频图像识别表情。
需要说明的是,上述的视频图像可以是从视频数据中提出的就诊患者的脸部图像,当然,也可以是就诊患者的上半身图像或者全身图像。
本实施例通过计算相邻两帧视频帧的相似度筛选出目标视频图像,可以减少微表情识别模型的图像输入数量,避免对相似度较大的视频图像重新识别,提高了识别就诊患者的表情标签的实时性。
S205、将目标视频图像输入微表情识别模型中,得到就诊患者的各个表情标签的第一概率。
在确定目标视频图像后,可以对目标视频图像进行图像增强处理,得到增强处理后的目标视频图像,其中,增强处理可以是对视频图像进行超分辨率(Super Resolution)增强,以通过算法将低分辨率的图像增强处理为高分辨率的图像,在一个示例中,可以对目标视频图像进行清晰度、亮度、对比度等增强处理,在另一个示例中,还可以将视频图像输入stablediffusion模型的img2img功能模块中,得到增强处理后的目标视频图像,stablediffusion模型是一种生成图像的模型,stablediffusion模型可以对已有的图像进行增强处理,生成高质量、高分辨率的图像,通过图像增强处理可以将网络传输压缩后的低分辨率图像增强处理为高分辨率图像,以通过高分辨率图像识别就诊患者的微表情。
将目标视频图像输入微表情识别模型中后,可以得到就诊患者的各个表情标签的第一概率,示例性的,微表情识别模型为多分类模型,输出就诊患者属于多个表情标签的第一概率,其中,表情标签表示就诊患者的表情状态。
S206、从视频数据中提取就诊患者的语音数据。
本实施例的视频数据包括视频图像数据和语音数据,该语音数据为所录制的就诊患者在问诊时的语音数据,可以从视频数据的音频文件中提取就诊患者的语音数据。
S207、将语音数据分别输入预置的频率识别模型和语音识别模型中,得到就诊患者的各个表情标签的第二概率和第三概率。
本实施例中,频率识别模型用于基于语音数据的频率识别就诊患者的表情标签,语音识别模型用于将语音数据转换为文本后识别就诊患者的表情标签。
其中,在训练频率识别模型时,可以采用各种表情对应的语音数据对频率识别模型进行训练,以使得频率识别模型通过语音数据中就诊患者的语速、音量、声调等语音特征学习到识别各种表情的能力,比如,对于焦虑表情,通常说话较少、声调发抖,对于激动表情,通常说话时语速较快、声调较高等,通过将语音数据输入频率识别模型中,识别就诊患者的各个表情标签的第二概率。
语音识别模型用于将语音数据转换为文本后,通过文本的语义识别就诊患者的表情,示例性的,表达焦虑的文本可以包括“睡不着”、“失眠”、“没胃口”等,在将语音转换为文本后,通过文本识别就诊患者的各个表情标签的第三概率。
S208、针对每个表情标签,根据表情标签的第一概率、第二概率和第三概率计算表情标签的目标概率。
在一个实施例中,对于同一个表情标签,可以计算该表情标签的第一概率、第二概率和第三概率的平均值,作为该表情标签的目标概率。
在另一个实施例中,基于就诊目标科室ID确定微表情识别模型的第一权重、频率识别模型的第二权重以及语音识别模型的第三权重,比如,对于骨科,就诊患者的疼痛通常表现在脸上,微表情识别模型可以设置更大的权重,频率识别模型和语音识别模型可以设置更小的权重,而对于精神科,就诊患者的语音更能反映就诊患者的状态,可以将频率识别模型和语音识别模型的权重设置得更大,而微表情识别模型的权重设置得更小,具体可以根据就诊科室不同为各个模型设置不同权重。
在确定微表情识别模型的第一权重、频率识别模型的第二权重以及语音识别模型的第三权重的权重后,可以计算第一概率与第一权重的第一乘积、第二概率与第二权重的第二乘积、第三概率与第三权重的第三乘积,并计算第一乘积、第二乘积、第三乘积的和值,作为表情标签的目标概率。
本实施例通过微表情识别模型、频率识别模型以及语音识别模型设置权重,并识别就诊患者的各个表情标签的概率后,通过加权求和计算各个表情标签的目标概率,实现了从视觉、听觉、语义多维度信息识别就诊患者的表情标签,所识别的表情标签的准确度更高。
S209、将目标概率最高的表情标签确定为就诊患者的目标表情标签。
在计算各个表情标签的目标概率后,可以将目标概率最高的表情标签确定为就诊患者的目标表情标签,在另一个实施例中,还可以按照目标概率从高到低进行排序,将排序在前的N个表情标签确定为目标表情标签,比如将排序在前的3个表情标签确定为目标表情标签。
S210、根据表情标签和就诊目标科室ID确定辅助文本,并在医生终端显示辅助文本。
在一个实施例中,可以在文本库中存储每个就诊目标科室下的每个表情标签预置多条辅助文本,在确定就诊患者的表情标签后,可以在预置的文本库中查找与表情标签和就诊目标科室ID匹配的文本作为辅助文本,并在医生终端显示辅助文本,以使得医生参考辅助文本对就诊患者进行问诊,实现了医生根据就诊患者的微表情进行问诊,以获得就诊患者更多、更准确有效的信息,从而辅助诊断。
本实施例加载与就诊患者的就诊目标科室ID匹配的微表情识别模型,将就诊患者的视频数据输入微表情识别模型中,得到就诊患者的各个表情标签的第一概率,并从视频数据中提取就诊患者的语音数据,将语音数据分别输入预置的频率识别模型和语音识别模型中,得到就诊患者的各个表情标签的第二概率和第三概率,针对每个表情标签,根据表情标签的第一概率、第二概率和第三概率计算表情标签的目标概率,将目标概率最高的表情标签确定为就诊患者的目标表情标签,根据表情标签和就诊目标科室ID确定辅助文本,并在医生终端显示辅助文本,通过辅助文本辅助医生对就诊患者进行问诊,使得医生在有限的问诊时间内可以通过就诊患者的语音描述和就诊患者的表情进行问诊,能够获取到就诊患者准确有效的信息,在一定程度上辅助提高医生对就诊患者问诊的准确度,以及提高在线问诊的效率。
实施例三
图3为本发明实施例三提供的一种在线问诊辅助装置的结构示意图。
如图3所示,该在线问诊辅助装置包括:
目标科室ID获取模块301,用于获取就诊患者的就诊目标科室ID;
微表情识别模型加载模块302,用于加载与所述就诊目标科室ID匹配的微表情识别模型;
视频数据获取模块303,用于获取所述就诊患者的视频数据;
表情标签识别模块304,用于将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的表情标签;
辅助文本确定和显示模块305,用于根据所述表情标签和所述就诊目标科室ID确定辅助文本,并在医生终端显示所述辅助文本。
可选的,所述微表情识别模型通过以下模块训练:
模型剪枝模块,用于对EfficientDet-lite0模型进行剪枝处理,并将剪枝处理后的模型作为微表情识别模型;
教师模型确定模块,用于将EfficentDet-b6模型确定为教师模型;
训练数据集获取模块,用于获取训练数据集;
教师模型训练模块,用于采用所述训练数据集训练所述EfficentDet-b6模型;
微表情识别模型训练模块,用于在所述EfficentDet-b6模型训练完成后,采用所述EfficentDet-b6模型和所述训练数据集训练所述微表情识别模型。
可选的,所述表情标签识别模块304包括:
相似度计算单元,用于计算所述视频数据中相邻两帧视频图像的相似度;
目标视频图像确定单元,用于将相似度小于预设阈值的两帧视频图像确定为目标视频图像;
第一表情识别单元,用于将所述目标视频图像输入所述微表情识别模型中,得到所述就诊患者的各个表情标签的第一概率;
目标表情标签确定单元,用于基于所述第一概率确定所述就诊患者的目标表情标签。
可选的,所述表情标签识别模块304还包括:
图像增强处理单元,用于对所述目标视频图像进行图像增强处理,得到增强处理后的目标视频图像。
可选的,所述表情标签识别模块304还包括:
语音数据提取单元,用于从所述视频数据中提取所述就诊患者的语音数据;
第二表情识别单元,用于将所述语音数据分别输入预置的频率识别模型和语音识别模型中,得到所述就诊患者的各个表情标签的第二概率和第三概率,所述频率识别模型用于基于所述语音数据的频率识别所述就诊患者的表情标签,所述语音识别模型用于将所述语音数据转换为文本后识别所述就诊患者的表情标签;
所述目标表情标签确定单元包括:
概率计算子单元,用于针对每个表情标签,根据所述表情标签的第一概率、第二概率和第三概率计算所述表情标签的目标概率;
目标表情标签确定子单元,用于将目标概率最高的表情标签确定为所述就诊患者的目标表情标签。
可选的,所述概率计算子单元包括:
权重确定子单元,用于基于所述就诊目标科室ID确定所述微表情识别模型的第一权重、所述频率识别模型的第二权重以及所述语音识别模型的第三权重;
权值计算子单元,用于计算所述第一概率与所述第一权重的第一乘积、第二概率与所述第二权重的第二乘积、第三概率与所述第三权重的第三乘积;
概率计算子单元,用于计算所述第一乘积、第二乘积、第三乘积的和值,作为所述表情标签的概率。
可选的,所述辅助文本确定和显示模块305包括:
辅助文本查找和显示单元,用于在预置的文本库中,查找与所述表情标签和所述就诊目标科室ID匹配的文本作为辅助文本,并在医生终端显示所述辅助文本。
本发明实施例所提供的在线问诊辅助装置可执行本发明任意实施例所提供的在线问诊辅助方法,具备执行方法相应的功能模块和有益效果。
实施例四
图4示出了可以用来实施本发明的实施例的电子设备40的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图4所示,电子设备40包括至少一个处理器41,以及与至少一个处理器41通信连接的存储器,如只读存储器(ROM)42、随机访问存储器(RAM)43等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器41可以根据存储在只读存储器(ROM)42中的计算机程序或者从存储单元48加载到随机访问存储器(RAM)43中的计算机程序,来执行各种适当的动作和处理。在RAM 43中,还可存储电子设备40操作所需的各种程序和数据。处理器41、ROM 42以及RAM 43通过总线44彼此相连。输入/输出(I/O)接口45也连接至总线44。
电子设备40中的多个部件连接至I/O接口45,包括:输入单元46,例如键盘、鼠标等;输出单元47,例如各种类型的显示器、扬声器等;存储单元48,例如磁盘、光盘等;以及通信单元49,例如网卡、调制解调器、无线通信收发机等。通信单元49允许电子设备40通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器41可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器41的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器41执行上文所描述的各个方法和处理,例如在线问诊辅助方法。
在一些实施例中,在线问诊辅助方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元48。在一些实施例中,计算机程序的部分或者全部可以经由ROM 42和/或通信单元49而被载入和/或安装到电子设备40上。当计算机程序加载到RAM 43并由处理器41执行时,可以执行上文描述的在线问诊辅助方法的一个或多个步骤。备选地,在其他实施例中,处理器41可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行在线问诊辅助方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的***和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (6)

1.一种在线问诊辅助装置,其特征在于,包括:
目标科室ID获取模块,用于获取就诊患者的就诊目标科室ID;
微表情识别模型加载模块,用于加载与所述就诊目标科室ID匹配的微表情识别模型;
视频数据获取模块,用于获取所述就诊患者的视频数据;
表情标签识别模块,用于将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的表情标签;
辅助文本确定和显示模块,用于根据所述表情标签和所述就诊目标科室ID确定辅助文本,并在医生终端显示所述辅助文本;
所述表情标签识别模块包括:
相似度计算单元,用于计算所述视频数据中相邻两帧视频图像的相似度;
目标视频图像确定单元,用于将相似度小于预设阈值的两帧视频图像确定为目标视频图像;
第一表情识别单元,用于将所述目标视频图像输入所述微表情识别模型中,得到所述就诊患者的各个表情标签的第一概率;
目标表情标签确定单元,用于基于所述第一概率确定所述就诊患者的目标表情标签;
所述表情标签识别模块还包括:
语音数据提取单元,用于从所述视频数据中提取所述就诊患者的语音数据;
第二表情识别单元,用于将所述语音数据分别输入预置的频率识别模型和语音识别模型中,得到所述就诊患者的各个表情标签的第二概率和第三概率,所述频率识别模型用于基于所述语音数据的频率识别所述就诊患者的表情标签,所述语音识别模型用于将所述语音数据转换为文本后识别所述就诊患者的表情标签;
所述目标表情标签确定单元包括:
概率计算子单元,用于针对每个表情标签,根据所述表情标签的第一概率、第二概率和第三概率计算所述表情标签的目标概率;
目标表情标签确定子单元,用于将目标概率最高的表情标签确定为所述就诊患者的目标表情标签;
所述概率计算子单元包括:
权重确定子单元,用于基于所述就诊目标科室ID确定所述微表情识别模型的第一权重、所述频率识别模型的第二权重以及所述语音识别模型的第三权重;
权值计算子单元,用于计算所述第一概率与所述第一权重的第一乘积、第二概率与所述第二权重的第二乘积、第三概率与所述第三权重的第三乘积;
概率计算子单元,用于计算所述第一乘积、第二乘积、第三乘积的和值,作为所述表情标签的概率。
2.根据权利要求1所述的在线问诊辅助装置,其特征在于,所述微表情识别模型通过以下模块训练:
模型剪枝模块,用于对EfficientDet-lite0模型进行剪枝处理,并将剪枝处理后的模型作为微表情识别模型;
教师模型确定模块,用于将EfficentDet-b6模型确定为教师模型;
训练数据集获取模块,用于获取训练数据集;
教师模型训练模块,用于采用所述训练数据集训练所述EfficentDet-b6模型;
微表情识别模型训练模块,用于在所述EfficentDet-b6模型训练完成后,采用所述EfficentDet-b6模型和所述训练数据集训练所述微表情识别模型。
3.根据权利要求1所述的在线问诊辅助装置,其特征在于,所述表情标签识别模块还包括:
图像增强处理单元,用于对所述目标视频图像进行图像增强处理,得到增强处理后的目标视频图像。
4.根据权利要求1-3任一项所述的在线问诊辅助装置,其特征在于,所述辅助文本确定和显示模块包括:
辅助文本查找和显示单元,用于在预置的文本库中,查找与所述表情标签和所述就诊目标科室ID匹配的文本作为辅助文本,并在医生终端显示所述辅助文本。
5.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器执行如下步骤:
获取就诊患者的就诊目标科室ID;
加载与所述就诊目标科室ID匹配的微表情识别模型;
获取所述就诊患者的视频数据;
将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的表情标签;
根据所述表情标签和所述就诊目标科室ID确定辅助文本,并在医生终端显示所述辅助文本;
将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的目标表情标签,包括:
计算所述视频数据中相邻两帧视频图像的相似度;
将相似度小于预设阈值的两帧视频图像确定为目标视频图像;
将所述目标视频图像输入所述微表情识别模型中,得到所述就诊患者的各个表情标签的第一概率;
从所述视频数据中提取所述就诊患者的语音数据;
将所述语音数据分别输入预置的频率识别模型和语音识别模型中,得到所述就诊患者的各个表情标签的第二概率和第三概率,所述频率识别模型用于基于所述语音数据的频率识别所述就诊患者的表情标签,所述语音识别模型用于将所述语音数据转换为文本后识别所述就诊患者的表情标签;
针对每个表情标签,根据所述表情标签的第一概率、第二概率和第三概率计算所述表情标签的目标概率;
将目标概率最高的表情标签确定为所述就诊患者的目标表情标签;
根据所述表情标签的第一概率、第二概率和第三概率计算所述表情标签的目标概率,包括:
基于所述就诊目标科室ID确定所述微表情识别模型的第一权重、所述频率识别模型的第二权重以及所述语音识别模型的第三权重;
计算所述第一概率与所述第一权重的第一乘积、第二概率与所述第二权重的第二乘积、第三概率与所述第三权重的第三乘积;
计算所述第一乘积、第二乘积、第三乘积的和值,作为所述表情标签的目标概率。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现如下步骤:
获取就诊患者的就诊目标科室ID;
加载与所述就诊目标科室ID匹配的微表情识别模型;
获取所述就诊患者的视频数据;
将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的表情标签;
根据所述表情标签和所述就诊目标科室ID确定辅助文本,并在医生终端显示所述辅助文本;
将所述视频数据输入所述微表情识别模型中,得到所述就诊患者的目标表情标签,包括:
计算所述视频数据中相邻两帧视频图像的相似度;
将相似度小于预设阈值的两帧视频图像确定为目标视频图像;
将所述目标视频图像输入所述微表情识别模型中,得到所述就诊患者的各个表情标签的第一概率;
从所述视频数据中提取所述就诊患者的语音数据;
将所述语音数据分别输入预置的频率识别模型和语音识别模型中,得到所述就诊患者的各个表情标签的第二概率和第三概率,所述频率识别模型用于基于所述语音数据的频率识别所述就诊患者的表情标签,所述语音识别模型用于将所述语音数据转换为文本后识别所述就诊患者的表情标签;
针对每个表情标签,根据所述表情标签的第一概率、第二概率和第三概率计算所述表情标签的目标概率;
将目标概率最高的表情标签确定为所述就诊患者的目标表情标签;
根据所述表情标签的第一概率、第二概率和第三概率计算所述表情标签的目标概率,包括:
基于所述就诊目标科室ID确定所述微表情识别模型的第一权重、所述频率识别模型的第二权重以及所述语音识别模型的第三权重;
计算所述第一概率与所述第一权重的第一乘积、第二概率与所述第二权重的第二乘积、第三概率与所述第三权重的第三乘积;
计算所述第一乘积、第二乘积、第三乘积的和值,作为所述表情标签的目标概率。
CN202311611987.6A 2023-11-28 2023-11-28 在线问诊辅助方法、装置、电子设备和存储介质 Active CN117649933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311611987.6A CN117649933B (zh) 2023-11-28 2023-11-28 在线问诊辅助方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311611987.6A CN117649933B (zh) 2023-11-28 2023-11-28 在线问诊辅助方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN117649933A CN117649933A (zh) 2024-03-05
CN117649933B true CN117649933B (zh) 2024-05-28

Family

ID=90044517

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311611987.6A Active CN117649933B (zh) 2023-11-28 2023-11-28 在线问诊辅助方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN117649933B (zh)

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529125A (zh) * 2016-10-20 2017-03-22 山东中创软件工程股份有限公司 一种远程诊疗***
CN109830280A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 心理辅助分析方法、装置、计算机设备和存储介质
CN110600127A (zh) * 2019-09-23 2019-12-20 上海市精神卫生中心(上海市心理咨询培训中心) 通过视频激发面部表情实现认知障碍筛查功能的视频采集分析***及其方法
CN112634943A (zh) * 2020-12-18 2021-04-09 深圳赛安特技术服务有限公司 视频问诊的界面更新方法、装置、电子设备及存储介质
CN214068359U (zh) * 2020-12-29 2021-08-27 杭州医典智能科技有限公司 一种针对抑郁症患者的智能问诊机器人
CN113436723A (zh) * 2021-06-23 2021-09-24 康键信息技术(深圳)有限公司 视频问诊方法、装置、设备及存储介质
CN114821735A (zh) * 2022-05-12 2022-07-29 国网河南省电力公司信息通信公司 一种基于人脸识别和语音识别的智能储物柜
CN114898860A (zh) * 2022-03-22 2022-08-12 合肥工业大学 基于跨模态transformer的多模态焦虑症检测方法和***
CN115440370A (zh) * 2022-07-26 2022-12-06 上海市卫生健康委员会 一种基于医疗知识图谱的动态临床诊疗辅助***
JP2023048799A (ja) * 2021-09-28 2023-04-07 株式会社オンラインマスター オンライン診療を含む診療システム
CN116153515A (zh) * 2023-03-07 2023-05-23 山东第一医科大学附属省立医院(山东省立医院) 基于问诊信息的心血管患者心理状况评价方法及***
CN116230234A (zh) * 2023-03-20 2023-06-06 河北工业大学 多模态特征一致性心理健康异常识别方法及***
CN116343302A (zh) * 2023-03-29 2023-06-27 四川大学华西医院 一种基于机器视觉的微表情分类识别***
CN116665278A (zh) * 2023-06-09 2023-08-29 平安科技(深圳)有限公司 微表情识别方法、装置、计算机设备及存储介质
CN116720525A (zh) * 2023-05-31 2023-09-08 平安科技(深圳)有限公司 基于问诊数据的疾病辅助分析方法、装置、设备及介质
CN116759075A (zh) * 2023-07-06 2023-09-15 平安科技(深圳)有限公司 心理障碍问诊方法、装置、设备及介质
CN116824670A (zh) * 2023-06-28 2023-09-29 平安科技(深圳)有限公司 基于微表情的问诊辅助方法、装置、设备及介质
CN116884149A (zh) * 2023-07-20 2023-10-13 中国工商银行股份有限公司 多模态信息分析的方法、装置、电子设备和介质
CN117764740A (zh) * 2023-07-18 2024-03-26 平安科技(深圳)有限公司 健康保险智能风控方法、装置、设备及介质
CN117877660A (zh) * 2024-01-11 2024-04-12 天津艾迪研医药科技有限公司 基于语音识别的医学报告获取方法及***

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210076002A1 (en) * 2017-09-11 2021-03-11 Michael H Peters Enhanced video conference management
EP4109322A1 (en) * 2021-06-23 2022-12-28 Tata Consultancy Services Limited System and method for statistical subject identification from input data

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529125A (zh) * 2016-10-20 2017-03-22 山东中创软件工程股份有限公司 一种远程诊疗***
CN109830280A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 心理辅助分析方法、装置、计算机设备和存储介质
CN110600127A (zh) * 2019-09-23 2019-12-20 上海市精神卫生中心(上海市心理咨询培训中心) 通过视频激发面部表情实现认知障碍筛查功能的视频采集分析***及其方法
CN112634943A (zh) * 2020-12-18 2021-04-09 深圳赛安特技术服务有限公司 视频问诊的界面更新方法、装置、电子设备及存储介质
CN214068359U (zh) * 2020-12-29 2021-08-27 杭州医典智能科技有限公司 一种针对抑郁症患者的智能问诊机器人
CN113436723A (zh) * 2021-06-23 2021-09-24 康键信息技术(深圳)有限公司 视频问诊方法、装置、设备及存储介质
JP2023048799A (ja) * 2021-09-28 2023-04-07 株式会社オンラインマスター オンライン診療を含む診療システム
CN114898860A (zh) * 2022-03-22 2022-08-12 合肥工业大学 基于跨模态transformer的多模态焦虑症检测方法和***
CN114821735A (zh) * 2022-05-12 2022-07-29 国网河南省电力公司信息通信公司 一种基于人脸识别和语音识别的智能储物柜
CN115440370A (zh) * 2022-07-26 2022-12-06 上海市卫生健康委员会 一种基于医疗知识图谱的动态临床诊疗辅助***
CN116153515A (zh) * 2023-03-07 2023-05-23 山东第一医科大学附属省立医院(山东省立医院) 基于问诊信息的心血管患者心理状况评价方法及***
CN116230234A (zh) * 2023-03-20 2023-06-06 河北工业大学 多模态特征一致性心理健康异常识别方法及***
CN116343302A (zh) * 2023-03-29 2023-06-27 四川大学华西医院 一种基于机器视觉的微表情分类识别***
CN116720525A (zh) * 2023-05-31 2023-09-08 平安科技(深圳)有限公司 基于问诊数据的疾病辅助分析方法、装置、设备及介质
CN116665278A (zh) * 2023-06-09 2023-08-29 平安科技(深圳)有限公司 微表情识别方法、装置、计算机设备及存储介质
CN116824670A (zh) * 2023-06-28 2023-09-29 平安科技(深圳)有限公司 基于微表情的问诊辅助方法、装置、设备及介质
CN116759075A (zh) * 2023-07-06 2023-09-15 平安科技(深圳)有限公司 心理障碍问诊方法、装置、设备及介质
CN117764740A (zh) * 2023-07-18 2024-03-26 平安科技(深圳)有限公司 健康保险智能风控方法、装置、设备及介质
CN116884149A (zh) * 2023-07-20 2023-10-13 中国工商银行股份有限公司 多模态信息分析的方法、装置、电子设备和介质
CN117877660A (zh) * 2024-01-11 2024-04-12 天津艾迪研医药科技有限公司 基于语音识别的医学报告获取方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于互联网的远程视频诊疗服务***方案实现;马锡坤;计算机应用与软件;20130415;第30卷(第04期);208-210 *

Also Published As

Publication number Publication date
CN117649933A (zh) 2024-03-05

Similar Documents

Publication Publication Date Title
CN112906502B (zh) 目标检测模型的训练方法、装置、设备以及存储介质
EP3872652B1 (en) Method and apparatus for processing video, electronic device, medium and product
CN113345577B (zh) 诊疗辅助信息的生成方法、模型训练方法、装置、设备以及存储介质
CN116110566A (zh) 一种数据处理方法、装置及设备
CN113827240B (zh) 情绪分类方法和情绪分类模型的训练方法、装置及设备
CN117373602A (zh) 病历生成方法和装置
CN111383138A (zh) 餐饮数据处理方法、装置、计算机设备和存储介质
CN115248890B (zh) 用户兴趣画像的生成方法、装置、电子设备以及存储介质
CN113869253A (zh) 活体检测方法、训练方法、装置、电子设备及介质
CN117038099A (zh) 医疗类术语标准化方法以及装置
CN115457329B (zh) 图像分类模型的训练方法、图像分类方法和装置
CN117649933B (zh) 在线问诊辅助方法、装置、电子设备和存储介质
CN115526882A (zh) 一种医学图像的分类方法、装置、设备及存储介质
CN114201607B (zh) 一种信息处理的方法和装置
CN113033179B (zh) 知识获取方法、装置、电子设备及可读存储介质
CN112542244B (zh) 辅助信息的生成方法、相关装置及计算机程序产品
CN114783597A (zh) 多类疾病诊断的诊断方法及装置、电子设备和存储介质
CN116110574B (zh) 一种基于神经网络实现的眼科智能问诊方法和装置
CN113657102B (zh) 信息抽取方法、装置、设备及存储介质
CN113807413B (zh) 对象的识别方法、装置、电子设备
CN116469576B (zh) 纠纷事件识别方法、装置、电子设备和计算机可读介质
CN115497633B (zh) 一种数据处理方法、装置、设备及存储介质
WO2022178934A1 (zh) 健康检测方法、装置、设备及存储介质
CN108710697B (zh) 用于生成信息的方法和装置
CN117747036A (zh) 基于大模型的病历生成方法、病历的大模型的生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant