CN111144359A - 一种展品评价装置和方法及展品推送方法 - Google Patents
一种展品评价装置和方法及展品推送方法 Download PDFInfo
- Publication number
- CN111144359A CN111144359A CN201911406923.6A CN201911406923A CN111144359A CN 111144359 A CN111144359 A CN 111144359A CN 201911406923 A CN201911406923 A CN 201911406923A CN 111144359 A CN111144359 A CN 111144359A
- Authority
- CN
- China
- Prior art keywords
- exhibit
- recognition module
- evaluation
- module
- processing platform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 25
- 230000009471 action Effects 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims abstract description 8
- 230000008921 facial expression Effects 0.000 claims abstract description 4
- 230000000694 effects Effects 0.000 claims description 33
- 230000003993 interaction Effects 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000013210 evaluation model Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 206010035148 Plague Diseases 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种展品评价装置和方法及展品推送方法,包括若干个摄像头、语音识别模块、线上数据采集模块、大数据处理平台,摄像头设置在展品周围,其包括人脸识别模块和肢体语言识别模块,人脸识别模块用于识别人面对展品时的面部表情;肢体语言识别模块用于获取游客对展品各区域的操作动作;语音识别模块用于对观众的语音进行抓取和识别,识别出其中关于评价的语音;线上数据采集模块对线上数据进行采集,语音识别模块、人脸识别模块、肢体语言识别模块、线上数据采集模块将各模块采集的数据传输给大数据处理平台,大数据处理平台对各模块传输的数据进行处理输出展品评价结果。本发明能够改善展览展示中的互动及用户体验。
Description
技术领域
本发明属于展览展示行业领域,更具体地说,涉及一种展品评价装置和方法及展品推送方法。
背景技术
20世纪70年代末,伴随着“科学春天”和“科普春天”的到来,我国的科技馆建设得到了蓬勃发展。展厅面积的扩容、展品种类的增多、管理模式的改进,一系列演变所带来的是众多科技馆突破传统管理方式过渡到了采用条码识别、互联网络、软件技术的自动化管理模式。虽然使用了许多现代化技术,但还是有许多问题困扰着科技馆的有效管理。
随着我国科技馆事业的蓬勃发展,各地新建、改建和扩建的科技馆,都不可避免地遇到展品问题。展品的质量很大程度上决定了科技馆的生机与活力,决定了科技馆的教育目的能否真正落实。对科技馆展品质量进行评价是一项具有重要意义的事,对全国科技馆事业的健康发展具有导向作用。因此,展品是科技馆工作的基础,目前对科技馆展品的评价缺少统一标准和流程,从评价方式来看,多为单维的客户评价,尚未实现多维度的全自动智能评价,评价结果不够客观。
物联网即传感网,被称为继计算机、互联网之后,世界信息产业的第三次浪潮。物联网技术的出现及应用对科技馆提升自动化管理能力、实现人性化服务、提升工作效率等方面将产生巨大影响;另外,科技馆、博物馆等场馆现已成为相关领域的学术研究热点,这些均为科技馆展品评价提供了新的研究思路和技术支撑。
但当前科技馆展品评价主要存在以下问题:以客户评价为主要手段和结果,缺少智能化的评价能力,技术应用相对薄弱,导致评价方式单一、评价维度单薄、评价响应周期长(问卷)、评价结果不够客观,客户参与度、满意度较低等等。
发明内容
1.要解决的问题
针对现有科技馆展览馆的客户参与度较低、评价结果不客观等问题,本发明提供一种展品评价装置和方法及展品推送方法。
2.技术方案
为了解决上述问题,本发明所采用的技术方案如下:一种展品评价装置,包括若干个摄像头、语音识别模块、线上数据采集模块、大数据处理平台,所述摄像头设置在展品周围,其包括人脸识别模块和肢体语言识别模块,人脸识别模块用于识别人面对展品时的面部表情;肢体语言识别模块用于获取游客对展品各区域的操作动作;语音识别模块用于对观众的语音进行抓取和识别,识别出其中关于评价的语音;线上数据采集模块对线上数据进行采集,语音识别模块、人脸识别模块、肢体语言识别模块、线上数据采集模块将各模块采集的数据传输给大数据处理平台,大数据处理平台对各模块传输的数据进行处理输出展品评价结果。本技术方案通过对人像、声音、体态等数据的采集、分析和处理,能实现对展品的多维度评价,提高对参观者评价数据的实用度,提高大数据使用价值,进而改善展览展示中的互动以及用户体验。
进一步地,所述的语音识别模块还包括声纹识别模块。声纹识别模块用于在采集多人的语音时进行识别,保证被采集参观者的语音独立录入不受噪声干扰。
本发明同时提供一种展品评价方法,包括以下步骤:
S1、大数据处理平台接收语音识别模块、人脸识别模块、肢体语言识别模块和线上数据采集模块的数据;
S2、大数据处理平台对S1中各模块数据进行处理,得出展品评价结果R=α1*n1+α2*n2+ α3*n3+α4*n4+α5*n5+α6*n6+α7*n7,其中,n1+n2+n3+n4+n5+n6+n7=1,0<n1<1,0<n2<1,0<n3<1,0<n4<1,0<n5<1,0<n6<1,0<n7<1;α1=当日参观次数/入场总人数,α2为操作频次,α3为声音评价结果,α3=0、1、2、3或4,α4为主观留言评价数据,α4=0、1、2、3或4,α5=线上点击次数/线上访问人数;α6=线上活动参与次数/线上活动参与人数;α7=线下活动参与次数/线下活动参与人数。
进一步地,所述步骤S2中的α4包括语音识别模块输入的评价语音和评价器输入的评价。
本发明还提供一种展品评价推送方法,包括以下步骤:
S1、大数据处理平台接收语音识别模块、人脸识别模块、肢体语言识别模块和线上数据采集模块的数据;
S2、大数据处理平台对S1中各模块数据进行处理,得出展品评价结果R=α1*n1+α2*n2+ α3*n3+α4*n4+α5*n5+α6*n6+α7*n7,其中,n1+n2+n3+n4+n5+n6+n7=1,0<n1<1,0<n2<1,0<n3<1,0<n4<1,0<n5<1,0<n6<1,0<n7<1;α1=当日参观次数/入场总人数,α2为操作频次,α3为声音评价结果,α3=0、1、2、3或4,α4为主观留言评价数据,α4=0、1、2、3或4,α5=线上点击次数/线上访问人数;α6=线上活动参与次数/线上活动参与人数;α7=线下活动参与次数/线下活动参与人数;
S3、获取展品的评价结果排名,根据排名推送展品信息。具体的推送形式可表现为在展览馆的官网上的排名,或者在微信公众号上的优先推送等等。
3.有益效果
相比于现有技术,本发明的有益效果为:
(1)本发明通过对人像、声音、体态等数据的采集、分析、处理,能实现对展品的多维度评价,提高对参观者评价数据的实用度,提高大数据使用价值,改善展览展示中的互动以及用户体验,最终推动场馆业务、展品质量和展示度不断提升;
(2)本发明结构简单,设计合理,易于制造。
附图说明
图1为本发明的逻辑框图。
具体实施方式
下面结合具体实施例对本发明进一步进行描述。
如图1所示,本发明包括若干个摄像头、语音识别模块、线上数据采集模块、大数据处理平台,所述摄像头设置在展品周围,其包括人脸识别模块和肢体语言识别模块,人脸识别模块用于识别游客面对展品时的面部表情,比如大笑、微笑等表情;肢体语言识别模块用于获取游客对展品各区域的操作动作,比如驻足观看、触摸等;语音识别模块用于对观众的语音进行抓取和识别,识别出其中关于评价的语音;线上数据采集模块对线上数据进行采集,语音识别模块、人脸识别模块、肢体语言识别模块、线上数据采集模块将各模块采集的数据传输给大数据处理平台,大数据处理平台对各模块传输的数据进行处理输出展品评价结果。
具体实施时,在展品附近安置摄像头,设置一定区域,定义进入该区域的人流即为参观展品的游客,通过摄像头中的人脸识别模块和肢体语言识别模块记录人群移动情况。摄像头通过检测人头、背景,识别路过该展品的人流量,从游客进入摄像监控区域开始、至离开该监控区域,α1表示展品热度值,α1=当日参观次数/入场总人数;通过热度分析,能帮助了解最受欢迎的展品及展品的摆放位置对参观者的影响,展品热度值α1作为展品评价的重要指标,回传至大数据平台。另外,摄像头种的肢体语言识别模块会自动识别参观者的行为动作,包括驻足位置、触摸展品的区域、体验展品的某项功能。
肢体语音识别模块用于检测和抓取游客触摸展品某块区域、体验展品某项功能(区域) 的数据,获取游客的行为类型,如驻足观看次数a1、触摸次数a2、深度使用次数a3等,所谓深度使用是指游客对某些具有互动功能的展品进行互动,得到游客的操作频次α2,α2=a1*k1+a2*k2+a3*k3,其中,k1+k2+k3=1,且0≤k1≤1,0≤k2≤1,0≤k3≤1,具体实施时,可根据展览馆的实际需求设定k1,k2和k3的值,比如对于某些不允许触摸的展品,可将触摸次数a2、深度使用次数a3的权值均设为0,将驻足观看次数a1的权值k1设为1;而对于某些具备互动功能的展品,可将深度使用次数a3的权值k3的权值加大,比如设为0.7,将触摸次数a2的权值k2设为0.2,将驻足观看次数a1的权值k1设为0.1,然后通过公式α2=a1*k1+a2* k2+a3*k3得到操作频次α2的值,并将α2传输至大数据处理平台,α2的意义在于通过采集游客对展品的操作频次,获取游客的参与度,从而便于展品摆放方案的优化,提高展品呈现度。在本实施例中,“深度使用”=触摸时长超过20s;“驻足观看”=停留在展品区域20s以内,但未触摸展品。同时,摄像头还抓取用户线下活动参与情况评价数据α7,所谓的线下活动指的是游客在参观展品的过程中对某一展品进行评价、和展品进行互动等与展品有关的评价活动,α7=线下活动参与次数/线下活动参与人数。
语音识别模块采集参观者的声音数据,通过语音转文字将参观者的对话由语音转化为文字,通过声纹识别模块在采集多人的语音时进行识别,保证被采集参观者的语音是独立录入不受噪声干扰的。在管理后台配置专业词汇库,对专业词汇进行语义定义并组合成多种语义识别模型。语音转化为文字后,根据用户语言习惯和语义识别模型的相似度大小,反馈出的多个语义识别结果并确认最终的语义识别结果,获得声音评价结果α3。
参观者的主观留言评价数据α4,该数据包括2个来源,第一种是通过外置话筒、录音设备采集的语音数据α4’,外置话筒或录音设备接收声音后,首先需要通过语音识别模块中的声纹识别模块,区分不同人的声音,将声音分为多轨;其次,根据预先设置的关键词,如:我觉得、我感觉、我认为等等,通过语义识别,抓取关键词,评估该句是否为有效语音,如清晰度不够或为无关语音,则自动舍弃,如为有效语音,则进一步评测该句评论是“褒义”还是贬义;第二种是通过打分器录入的评价数据α4”,分为0、1、2、3、4,由游客通过展品旁的评价器录入。主观留言评价数据α4=α4’*m1+α4”*m2,其中,m1+m2=1,且0<m1<1, 0<m2<1。展览馆可根据硬件设施的具体情况设置m1和m2的具体权值,比如有的展览馆可能话筒、录音设备配置得比较齐全,则可以适当将m1的权值加大,m2的权值变小,比如m1=0.7, m2=0.3;而对于展品旁的评价器配置得比较齐全的展览馆来说,则可以适当将m1的权值加大, m2的权值变小,比如m1=0.3,m2=0.7。
线上数据采集模块采集参观者的线上点击动作并进行标记、归类和数据统计,线上点击动作是指在展览馆的官网上对展品进行点赞等点击动作,α5=某展品线上点击次数/线上访问人数;同时线上数据采集模块还采集参观者线上活动参与情况评价数据α6,线上活动参与情况指的是参观者在展览馆的官网上参与点击、点赞的频次;α6=线上活动参与次数/线上活动参与人数。
将各个模块获取的数据回传至大数据处理平台,大数据处理平台对S1中各模块数据进行处理,得出展品评价结果R=α1*n1+α2*n2+α3*n3+α4*n4+α5*n5+α6*n6+α7*n7,其中, n1+n2+n3+n4+n5+n6+n7=1,且0<n1<1,0<n2<1,0<n3<1,0<n4<1,0<n5<1,0<n6<1,0<n7<1;α1为展品热度值,α1=当日参观次数/入场总人数,当日参观次数指的是当日参观某一展品的次数,入场总人数则是当日进展览馆的总人数;α2为操作频次;α3为声音评价结果,通过抓取游客的语音关键词然后根据模型比对出结果,α3=0、1、2、3或4,其中0表示没有评价或评价结果无效,1表示评价为“差”,2表示评价为“中”,3表示评价为“良”,4表示评价为“优”;α4为主观留言评价数据,α4=0、1、2、3或4,其中0表示没有留言评价或留言评价结果无效,1表示留言评价为“差”,2表示留言评价为“中”,3表示留言评价为“良”, 4表示留言评价为“优”;α5表示线上人均点击次数,α5=线上点击次数/线上访问人数,线上点击次数指的是针对某个展品的线上点击次数,线上访问人数指的是访问展览馆的官网等的总人数;α6表示线上活动参与情况评价数据,α6=线上活动参与次数/线上活动参与人数,线上活动参与次数是针对某个展品的线上活动参与次数,线上活动参与人数则指的是参与线上活动的总人数;α7表示线下活动参与情况评价数据,α7=线下活动参与次数/线下活动参与人数,线下活动参与次数是针对某个展品的线下活动参与次数,线下活动参与人数则指的是线下活动的总人数。需要注意的是,本发明在具体实施时可根据展出的类型来设定n1、n2、 n3、n4、n5、n6、n7的取值,如互动类展品类评价模型可定义操作频次α2为高权值指标项因子,主观留言评价数据α4为低指标项因子,这时可相应将n2的权值加大、n4的权值变小,比如n1=0.1、n2=0.4、n3=0.1、n4=0.1、n5=0.1、n6=0.1、n7=0.1;若为观赏类展品类评价模型的主观留言评价数据α4为高权值指标项因子,操作频次α2为低权值指标项因子;则这时可相应将n4的权值加大、n2的权值变小,比如n1=0.1、n2=0.1、n3=0.1、n4=0.4、n5=0.1、n6=0.1、 n7=0.1;如此便可以根据展品的具体情况对展品进行比较客观的评价。然后根据展品的评价结果排名推送展品信息。具体的推送形式可表现为在展览馆的官网上的排名,或者在微信公众号上的推送等等。
Claims (5)
1.一种展品评价装置,其特征在于:包括若干个摄像头、语音识别模块、线上数据采集模块、大数据处理平台,所述摄像头设置在展品周围,其包括人脸识别模块和肢体语言识别模块,人脸识别模块用于识别人面对展品时的面部表情;肢体语言识别模块用于获取游客对展品各区域的操作动作;语音识别模块用于对观众的语音进行抓取和识别,识别出其中关于评价的语音;线上数据采集模块对线上数据进行采集,语音识别模块、人脸识别模块、肢体语言识别模块、线上数据采集模块将各模块采集的数据传输给大数据处理平台,大数据处理平台对各模块传输的数据进行处理输出展品评价结果。
2.根据权利要求1所述的展品评价装置,其特征在于:所述的语音识别模块还包括声纹识别模块。
3.一种展品评价方法,其特征在于:包括以下步骤:
S1、大数据处理平台接收语音识别模块、人脸识别模块、肢体语言识别模块和线上数据采集模块的数据;
S2、大数据处理平台对S1中各模块数据进行处理,得出展品评价结果R=α1*n1+α2*n2+α3*n3+α4*n4+α5*n5+α6*n6+α7*n7,其中,n1+n2+n3+n4+n5+n6+n7=1,且0<n1<1,0<n2<1,0<n3<1,0<n4<1,0<n5<1,0<n6<1,0<n7<1;α1=当日参观次数/入场总人数,α2为操作频次,α3为声音评价结果,α3=0、1、2、3或4,α4为主观留言评价数据,α4=0、1、2、3或4,α5=线上点击次数/线上访问人数;α6=线上活动参与次数/线上活动参与人数;α7=线下活动参与次数/线下活动参与人数。
4.根据权利要求3所述的展品评价方法,其特征在于:所述步骤S2中的α4包括语音识别模块输入的评价语音和评价器输入的评价。
5.一种展品评价推送方法,其特征在于:包括以下步骤:
S1、大数据处理平台接收语音识别模块、人脸识别模块、肢体语言识别模块和线上数据采集模块的数据;
S2、大数据处理平台对S1中各模块数据进行处理,得出展品评价结果R=α1*n1+α2*n2+α3*n3+α4*n4+α5*n5+α6*n6+α7*n7,其中,n1+n2+n3+n4+n5+n6+n7=1,且0<n1<1,0<n2<1,0<n3<1,0<n4<1,0<n5<1,0<n6<1,0<n7<1;α1=当日参观次数/入场总人数,α2为操作频次,α3为声音评价结果,α3=0、1、2、3或4,α4为主观留言评价数据,α4=0、1、2、3或4,α5=线上点击次数/线上访问人数;α6=线上活动参与次数/线上活动参与人数;α7=线下活动参与次数/线下活动参与人数;
S3、获取展品的评价结果排名,根据排名推送展品信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911406923.6A CN111144359B (zh) | 2019-12-31 | 2019-12-31 | 一种展品评价装置和方法及展品推送方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911406923.6A CN111144359B (zh) | 2019-12-31 | 2019-12-31 | 一种展品评价装置和方法及展品推送方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111144359A true CN111144359A (zh) | 2020-05-12 |
CN111144359B CN111144359B (zh) | 2023-06-30 |
Family
ID=70522432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911406923.6A Active CN111144359B (zh) | 2019-12-31 | 2019-12-31 | 一种展品评价装置和方法及展品推送方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111144359B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112750213A (zh) * | 2020-12-29 | 2021-05-04 | 深圳市顺易通信息科技有限公司 | 一种停车服务信息推送方法、装置、设备及介质 |
CN113312507A (zh) * | 2021-05-28 | 2021-08-27 | 成都威爱新经济技术研究院有限公司 | 一种基于物联网的数字展厅智能管理方法及*** |
CN115190324A (zh) * | 2022-06-30 | 2022-10-14 | 广州市奥威亚电子科技有限公司 | 线上线下互动直播热度的确定方法、装置及设备 |
CN116957633A (zh) * | 2023-09-19 | 2023-10-27 | 武汉创知致合科技有限公司 | 一种基于智能家居场景的产品设计用户体验评价方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010091675A (ja) * | 2008-10-06 | 2010-04-22 | Mitsubishi Electric Corp | 音声認識装置 |
CN105046601A (zh) * | 2015-07-09 | 2015-11-11 | 传成文化传媒(上海)有限公司 | 用户数据处理方法和*** |
CN106056310A (zh) * | 2016-06-17 | 2016-10-26 | 维朗(北京)网络技术有限公司 | 一种科普馆展品展示效果的智能推送评估***及方法 |
CN106682637A (zh) * | 2016-12-30 | 2017-05-17 | 深圳先进技术研究院 | 一种展品吸引度的分析方法及*** |
CN107122399A (zh) * | 2017-03-16 | 2017-09-01 | 中国科学院自动化研究所 | 基于公共文化知识图谱平台的综合推荐*** |
CN107832370A (zh) * | 2017-10-27 | 2018-03-23 | 上海享岭网络科技有限公司 | 一种移动电子显示虚拟展览间***以及构建方法 |
CN107945175A (zh) * | 2017-12-12 | 2018-04-20 | 百度在线网络技术(北京)有限公司 | 图像的评价方法、装置、服务器及存储介质 |
CN109359628A (zh) * | 2018-11-28 | 2019-02-19 | 上海风语筑展示股份有限公司 | 一种展会大数据采集分析平台 |
US20190108196A1 (en) * | 2017-10-09 | 2019-04-11 | Qentinel Oy | Predicting quality of an information system using system dynamics modelling and machine learning |
CN109658310A (zh) * | 2018-11-30 | 2019-04-19 | 安徽振伟展览展示有限公司 | 一种用于展厅展馆智能识别*** |
CN110545297A (zh) * | 2018-05-28 | 2019-12-06 | 上海驿卓通信科技有限公司 | 一种展览馆多信息数据分析与展示*** |
-
2019
- 2019-12-31 CN CN201911406923.6A patent/CN111144359B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010091675A (ja) * | 2008-10-06 | 2010-04-22 | Mitsubishi Electric Corp | 音声認識装置 |
CN105046601A (zh) * | 2015-07-09 | 2015-11-11 | 传成文化传媒(上海)有限公司 | 用户数据处理方法和*** |
CN106056310A (zh) * | 2016-06-17 | 2016-10-26 | 维朗(北京)网络技术有限公司 | 一种科普馆展品展示效果的智能推送评估***及方法 |
CN106682637A (zh) * | 2016-12-30 | 2017-05-17 | 深圳先进技术研究院 | 一种展品吸引度的分析方法及*** |
CN107122399A (zh) * | 2017-03-16 | 2017-09-01 | 中国科学院自动化研究所 | 基于公共文化知识图谱平台的综合推荐*** |
US20190108196A1 (en) * | 2017-10-09 | 2019-04-11 | Qentinel Oy | Predicting quality of an information system using system dynamics modelling and machine learning |
CN107832370A (zh) * | 2017-10-27 | 2018-03-23 | 上海享岭网络科技有限公司 | 一种移动电子显示虚拟展览间***以及构建方法 |
CN107945175A (zh) * | 2017-12-12 | 2018-04-20 | 百度在线网络技术(北京)有限公司 | 图像的评价方法、装置、服务器及存储介质 |
CN110545297A (zh) * | 2018-05-28 | 2019-12-06 | 上海驿卓通信科技有限公司 | 一种展览馆多信息数据分析与展示*** |
CN109359628A (zh) * | 2018-11-28 | 2019-02-19 | 上海风语筑展示股份有限公司 | 一种展会大数据采集分析平台 |
CN109658310A (zh) * | 2018-11-30 | 2019-04-19 | 安徽振伟展览展示有限公司 | 一种用于展厅展馆智能识别*** |
Non-Patent Citations (2)
Title |
---|
Y.KITANO等: "Face-recognition based on higher-order local auto correlation feature for Sound Spot control" * |
常晓月: "展览会品牌形象评价指标体系研究" * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112750213A (zh) * | 2020-12-29 | 2021-05-04 | 深圳市顺易通信息科技有限公司 | 一种停车服务信息推送方法、装置、设备及介质 |
CN112750213B (zh) * | 2020-12-29 | 2022-06-14 | 深圳市顺易通信息科技有限公司 | 一种停车服务信息推送方法、装置、设备及介质 |
CN113312507A (zh) * | 2021-05-28 | 2021-08-27 | 成都威爱新经济技术研究院有限公司 | 一种基于物联网的数字展厅智能管理方法及*** |
CN115190324A (zh) * | 2022-06-30 | 2022-10-14 | 广州市奥威亚电子科技有限公司 | 线上线下互动直播热度的确定方法、装置及设备 |
CN115190324B (zh) * | 2022-06-30 | 2023-08-29 | 广州市奥威亚电子科技有限公司 | 线上线下互动直播热度的确定方法、装置及设备 |
CN116957633A (zh) * | 2023-09-19 | 2023-10-27 | 武汉创知致合科技有限公司 | 一种基于智能家居场景的产品设计用户体验评价方法 |
CN116957633B (zh) * | 2023-09-19 | 2023-12-01 | 武汉创知致合科技有限公司 | 一种基于智能家居场景的产品设计用户体验评价方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111144359B (zh) | 2023-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111144359A (zh) | 一种展品评价装置和方法及展品推送方法 | |
Kossaifi et al. | Sewa db: A rich database for audio-visual emotion and sentiment research in the wild | |
Song et al. | Spectral representation of behaviour primitives for depression analysis | |
Cabrera-Quiros et al. | The MatchNMingle dataset: a novel multi-sensor resource for the analysis of social interactions and group dynamics in-the-wild during free-standing conversations and speed dates | |
US11783645B2 (en) | Multi-camera, multi-sensor panel data extraction system and method | |
US10909386B2 (en) | Information push method, information push device and information push system | |
Soleymani et al. | Analysis of EEG signals and facial expressions for continuous emotion detection | |
Mariooryad et al. | Exploring cross-modality affective reactions for audiovisual emotion recognition | |
CN109460737A (zh) | 一种基于增强式残差神经网络的多模态语音情感识别方法 | |
JP2008262046A (ja) | 会議可視化システム、会議可視化方法、及び集計処理サーバ | |
CN116484318B (zh) | 一种演讲训练反馈方法、装置及存储介质 | |
CN109902912B (zh) | 一种基于性格特征的个性化图像美学评价方法 | |
Jin et al. | Attention-block deep learning based features fusion in wearable social sensor for mental wellbeing evaluations | |
CN113822192A (zh) | 一种基于Transformer的多模态特征融合的在押人员情感识别方法、设备及介质 | |
Hung et al. | Detecting conversing groups with a single worn accelerometer | |
Gupta et al. | Analysis of engagement behavior in children during dyadic interactions using prosodic cues | |
Hilliard et al. | A technique for continuous measurement of body movement from video | |
Tzirakis et al. | Real-world automatic continuous affect recognition from audiovisual signals | |
CN114242235A (zh) | 一种基于多层级关键特征行为的孤独症患者画像方法 | |
Cabrera-Quiros et al. | Multimodal self-assessed personality estimation during crowded mingle scenarios using wearables devices and cameras | |
Chen et al. | Soundingactions: Learning how actions sound from narrated egocentric videos | |
CN112905811A (zh) | 一种基于学生课堂行为分析的教学音视频推送方法及*** | |
CN112016350A (zh) | 一种就餐满意度评估方法、装置及存储介质 | |
JP6659011B2 (ja) | 検索システム、データ収集装置および検索プログラム | |
CN113688685B (zh) | 基于交互场景下的手语识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |