CN109543517A - 一种计算机视觉人工智能应用方法及*** - Google Patents
一种计算机视觉人工智能应用方法及*** Download PDFInfo
- Publication number
- CN109543517A CN109543517A CN201811203698.1A CN201811203698A CN109543517A CN 109543517 A CN109543517 A CN 109543517A CN 201811203698 A CN201811203698 A CN 201811203698A CN 109543517 A CN109543517 A CN 109543517A
- Authority
- CN
- China
- Prior art keywords
- trunk
- image
- artificial intelligence
- computer vision
- inclined degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
- G08B21/043—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0476—Cameras to detect unsafe condition, e.g. video cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Gerontology & Geriatric Medicine (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Human Computer Interaction (AREA)
- Psychology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种计算机视觉人工智能应用方法,包括:安装深度摄像头在所需监测的区域;通过***界面启动***,***自动连接kinect;通过深度摄像头实时检测视野范围内的所有人体的躯干倾斜程度,获取骨骼图像;根据获取的骨骼图像,计算躯干与地面所成角度;根据躯干与地面所成角度,与预设阈值进行比较;自动保存相应时刻的深度图、骨骼图和所有骨骼点的三维坐标到指定目录下,当躯干与地面所成角度超过阈值,发出预警。本发明创新地通过监测躯干倾斜程度进行摔倒预警,能够实现减少摔倒发生的目的。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种计算机视觉人工智能应用方法及***。
背景技术
计算机视觉是指采用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等计算机视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。计算机视觉主要分别四个步骤:图像获取、图像校正、立体匹配和三维重建。一般情况下,人类通过双眼来获得图像,双眼可近似为平行排列,在观察同一场景时,左眼获得左边的场景信息多一些,在左视网膜偏右,而右眼获得右边的场景信息多一些,在右视网膜偏左。同一场景点在左视网膜上和右视网膜上的图像点位置差即为视差,是感知物体深度的重要信息。计算机视觉获取图像的原理与人类相似,是通过不同位置上的相机来获取不同的图像,左摄像机拍摄的图像称为左图像,右摄像机拍摄的图像称为右图像。左图像得到左边的场景信息多一些,右图像得到右边的场景信息多一些。在图像获取过程中,有许多因素会导致图像失真,如成像***的象差、畸变、带宽有限等造成的图像失真;由于成像器件拍摄姿态和扫描非线性引起的图像几何失真;由于运动模糊、辐射失真、引入噪声等造成的图像失真。在两幅或多幅不同位置下拍摄的且对应同一场景的图像中,建立匹配基元之间关系的过程称为立体匹配。例如在双目立体匹配中,匹配基元选择像素,然后获得对应于同一场景的两个图像中匹配像素的位置差别,即视差。将视差按比例转换到0-255之间,以灰度图的形式显示出来,即为视差图。根据立体匹配得到的像素的视差,如果已知照相机的内外参数,则根据摄像机几何关系得到场景中物体的深度信息,进而得到场景中物体的三维坐标。
人工智能是研究人类智能活动的规律,构造具有一定智能的人工***,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些行为的基本理论、方法和技术。人工智能的原理为:计算机会通过传感器或人工输入的方式来收集关于某个情景的事实,计算机将此信息与已存储的信息进行比较,以确定它的含义。计算机会根据收集到的信息计算各种可能的动作,预测哪种动作的效果最好。
Kinect骨骼跟踪采用TOF技术。红外发射器主动投射经调制的近红外光线,红外光纤找到视野里的物体上就会发生反射,红外相机接收反射回来的红外线,采用TOF技术测量深度,计算光的时间差(通常通过相位差来进行计算),根据可得物体的深度(即物体到深度相机的距离)。微软将侦测到的3D深度图像,转换到骨架追踪***。Kinect寻找图像中较可能是人体的物体,然后对景深图像(机器学***滑输出以及处理闭塞关节等特殊事件。
在现有技术中,一般通过检测躯干下降高度和速度来检测是否发生摔倒,缺少通过监测数据来预警跌倒的相关方法及***。
发明内容
本发明的目的在于克服现有技术的不足,提供一种计算机视觉人工智能应用方法。本发明基于姿态检测,针对老人等弱势群体,通过检测其躯干的倾斜程度来进行判断并给出预警,预防跌倒事件的发生。
本发明的目的能够通过以下技术方案实现:
一种计算机视觉人工智能应用方法,具体步骤包括:
安装深度摄像头在所需监测的区域;通过***界面启动***,***自动连接kinect;
通过深度摄像头实时检测视野范围内的所有人体的躯干倾斜程度,获取骨骼图像;
根据获取的骨骼图像,计算躯干与地面所成角度;
根据躯干与地面所成角度,与预设阈值进行比较;
自动保存相应时刻的深度图、骨骼图和所有骨骼点的三维坐标到指定目录下,当躯干与地面所成角度超过阈值,发出预警。
具体地,本发明监测视野范围内所有的人体数不能超过6个。
具体地,保存的深度图为bmp格式,保存的骨骼图为bmp格式,保存的骨骼点三维坐标为txt格式。
进一步地,可以通过界面中的选择文件夹按钮来指定所需要保存的目录。
进一步地,界面右侧包含一个文本显示框,用于实时显示躯干倾斜程度。
本发明的另一目的在于提供一种计算机视觉人工智能应用***。
本发明的另一目的能够通过以下技术方案实现:
一种计算机视觉人工智能应用***,包括数据处理模块、数据采集模块、显示模块以及预警模块。
所述数据采集模块为kinect深度摄像头,用于自动监测视野范围内所有人体,实时监测其躯干倾斜程度;
所述数据处理模块,用于对采集的人体躯干倾斜程度数据进行处理,根据数据制作相应时刻的深度图、骨骼图以及所有骨骼点的三维坐标;
所述显示模块包括***界面,用于通过界面来启动***;界面左边的图像显示框用于实时显示深度图像;界面右边的图像显示框用于实时显示骨骼图像;
所述预警模块,用于当处理模块检测到倾斜程度超过某一阈值时,自动给出预警,或者在摔倒后通知相关人员进行处理。
本发明相较于现有技术,具有以下的有益效果:
本发明针对生活工作中的危险行为,如弯腰、取高出物件等躯干倾斜影响身体平衡导致容易发生摔倒的行为,进行检测及预警,减少摔倒的发生。即使是在摔倒后,本***也能够及时通知相关人员进行处理。本发明创新地通过监测躯干倾斜程度进行摔倒预警,能够实现减少摔倒发生的目的。
附图说明
图1是本发明装置结构示意图;
图2是本发明方法的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示为一种计算机视觉人工智能应用方法的流程图,具体步骤包括:
(1)安装深度摄像头在所需监测的区域;通过***界面启动***,***自动连接kinect;
(2)通过深度摄像头实时检测视野范围内的所有人体的躯干倾斜程度,获取骨骼图像;
(3)根据获取的骨骼图像,计算躯干与地面所成角度;
(4)根据躯干与地面所成角度,与预设阈值进行比较;
(5)自动保存相应时刻的深度图、骨骼图和所有骨骼点的三维坐标到指定目录下,当躯干与地面所成角度超过阈值,发出预警。
具体地,本发明监测视野范围内所有的人体数不能超过6个。
具体地,保存的深度图为bmp格式,保存的骨骼图为bmp格式,保存的骨骼点三维坐标为txt格式。
进一步地,可以通过界面中的选择文件夹按钮来指定所需要保存的目录。
进一步地,界面右侧包含一个文本显示框,用于实时显示躯干倾斜程度。
如图2所示为一种计算机视觉人工智能应用***的结构图,所述***包括数据处理模块、数据采集模块、显示模块以及预警模块。
所述数据采集模块为kinect深度摄像头,用于自动监测视野范围内所有人体,实时监测其躯干倾斜程度;
所述数据处理模块,用于对采集的人体躯干倾斜程度数据进行处理,根据数据制作相应时刻的深度图、骨骼图以及所有骨骼点的三维坐标;
所述显示模块包括***界面,用于通过界面来启动***;界面左边的图像显示框用于实时显示深度图像;界面右边的图像显示框用于实时显示骨骼图像;
所述预警模块,用于当处理模块检测到倾斜程度超过某一阈值时,自动给出预警,或者在摔倒后通知相关人员进行处理。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.一种计算机视觉人工智能应用方法,其特征在于,具体步骤包括:
安装深度摄像头在所需监测的区域;通过***界面启动***,***自动连接kinect;
通过深度摄像头实时检测视野范围内的所有人体的躯干倾斜程度,获取骨骼图像;
根据获取的骨骼图像,计算躯干与地面所成角度;
根据躯干与地面所成角度,与预设阈值进行比较;
自动保存相应时刻的深度图、骨骼图和所有骨骼点的三维坐标到指定目录下,当躯干与地面所成角度超过阈值,发出预警。
2.根据权利要求1所述的一种计算机视觉人工智能应用方法,其特征在于,所述方法中保存的深度图为bmp格式,保存的骨骼图为bmp格式,保存的骨骼点三维坐标为txt格式。
3.根据权利要求1所述的一种计算机视觉人工智能应用方法,其特征在于,所述自动保存的深度图、骨骼图以及三位坐标可以通过界面中的选择文件夹按钮来指定所需要保存的目录。
4.一种用于实现权利要求1-3的计算机视觉人工智能应用***,其特征在于,所述***包括数据处理模块、数据采集模块、显示模块以及预警模块;
所述数据采集模块为kinect深度摄像头,用于自动监测视野范围内所有人体,实时监测其躯干倾斜程度;
所述数据处理模块,用于对采集的人体躯干倾斜程度数据进行处理,根据数据制作相应时刻的深度图、骨骼图以及所有骨骼点的三维坐标;
所述显示模块包括***界面,用于通过界面来启动***;界面左边的图像显示框用于实时显示深度图像;界面右边的图像显示框用于实时显示骨骼图像;
所述预警模块,用于当处理模块检测到倾斜程度超过某一阈值时,自动给出预警,或者在摔倒后通知相关人员进行处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811203698.1A CN109543517A (zh) | 2018-10-16 | 2018-10-16 | 一种计算机视觉人工智能应用方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811203698.1A CN109543517A (zh) | 2018-10-16 | 2018-10-16 | 一种计算机视觉人工智能应用方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109543517A true CN109543517A (zh) | 2019-03-29 |
Family
ID=65843926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811203698.1A Pending CN109543517A (zh) | 2018-10-16 | 2018-10-16 | 一种计算机视觉人工智能应用方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109543517A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104932A (zh) * | 2020-02-03 | 2020-05-05 | 北京都是科技有限公司 | 一种摔倒检测***、方法及图像处理器 |
CN114419842A (zh) * | 2021-12-31 | 2022-04-29 | 浙江大学台州研究院 | 一种基于人工智能的辅助用户至智能马桶的跌倒报警方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1874497A (zh) * | 2006-05-30 | 2006-12-06 | 浙江工业大学 | 基于全方位计算机视觉的独居老人家庭安保装置 |
CN105335696A (zh) * | 2015-08-26 | 2016-02-17 | 湖南信息职业技术学院 | 一种基于3d异常步态行为检测识别的智能助老机器人及实现方法 |
CN105719429A (zh) * | 2014-07-29 | 2016-06-29 | 吴诗蕊 | 一种基于Kinect的跌倒检测及报警***及其操作方法 |
CN107194967A (zh) * | 2017-06-09 | 2017-09-22 | 南昌大学 | 基于Kinect深度图像的人体摔倒检测方法及装置 |
-
2018
- 2018-10-16 CN CN201811203698.1A patent/CN109543517A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1874497A (zh) * | 2006-05-30 | 2006-12-06 | 浙江工业大学 | 基于全方位计算机视觉的独居老人家庭安保装置 |
CN105719429A (zh) * | 2014-07-29 | 2016-06-29 | 吴诗蕊 | 一种基于Kinect的跌倒检测及报警***及其操作方法 |
CN105335696A (zh) * | 2015-08-26 | 2016-02-17 | 湖南信息职业技术学院 | 一种基于3d异常步态行为检测识别的智能助老机器人及实现方法 |
CN107194967A (zh) * | 2017-06-09 | 2017-09-22 | 南昌大学 | 基于Kinect深度图像的人体摔倒检测方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104932A (zh) * | 2020-02-03 | 2020-05-05 | 北京都是科技有限公司 | 一种摔倒检测***、方法及图像处理器 |
CN114419842A (zh) * | 2021-12-31 | 2022-04-29 | 浙江大学台州研究院 | 一种基于人工智能的辅助用户至智能马桶的跌倒报警方法及装置 |
CN114419842B (zh) * | 2021-12-31 | 2024-05-10 | 浙江大学台州研究院 | 基于人工智能的辅助用户至马桶的跌倒报警方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6690041B2 (ja) | 三次元物体上の注視点決定方法及び装置 | |
US11030455B2 (en) | Pose recognition method, device and system for an object of interest to human eyes | |
CN107004275B (zh) | 确定实物至少一部分的3d重构件空间坐标的方法和*** | |
CN106843507B (zh) | 一种虚拟现实多人互动的方法及*** | |
CA2620619C (en) | Capturing and processing facial motion data | |
EP2064676B1 (en) | A method and system for three-dimensional model acquisition | |
CN103099602B (zh) | 基于光学识别的体质检测方法与*** | |
Duchowski et al. | 3-D eye movement analysis | |
KR20150117553A (ko) | 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체 | |
KR101471488B1 (ko) | 시선 추적 장치 및 방법 | |
CN113808160B (zh) | 视线方向追踪方法和装置 | |
CN110598590A (zh) | 基于多视角相机的紧密交互人体姿态估计方法及装置 | |
Munn et al. | 3D point-of-regard, position and head orientation from a portable monocular video-based eye tracker | |
EP1627294A2 (en) | A man-machine interface based on 3-d positions of the human body | |
CN107861625A (zh) | 基于3d空间模型的视线跟踪***及方法 | |
CN109035307B (zh) | 基于自然光双目视觉的设定区域目标追踪方法及*** | |
CN106840112A (zh) | 一种利用自由空间视线凝视点测量的空间几何量测量方法 | |
CN102932638B (zh) | 基于计算机建模的3d视频监控方法 | |
CN101581874A (zh) | 基于多摄像机采集的远程沉浸协同工作装置 | |
CN108205314A (zh) | 基于立体视觉匹配的机器人导航装置及*** | |
CN108881885A (zh) | 深度处理*** | |
CN109213138A (zh) | 一种避障方法、装置及*** | |
CN109543517A (zh) | 一种计算机视觉人工智能应用方法及*** | |
Štrbac et al. | Kinect in neurorehabilitation: computer vision system for real time hand and object detection and distance estimation | |
CN111489392A (zh) | 多人环境下单个目标人体运动姿态捕捉方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190329 |