CN117690194B - 一种多源ai生物多样性观测的方法和采集*** - Google Patents
一种多源ai生物多样性观测的方法和采集*** Download PDFInfo
- Publication number
- CN117690194B CN117690194B CN202311681124.6A CN202311681124A CN117690194B CN 117690194 B CN117690194 B CN 117690194B CN 202311681124 A CN202311681124 A CN 202311681124A CN 117690194 B CN117690194 B CN 117690194B
- Authority
- CN
- China
- Prior art keywords
- gps
- unmanned ship
- beidou
- imu
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 25
- 230000033001 locomotion Effects 0.000 claims abstract description 18
- 241001465754 Metazoa Species 0.000 claims abstract description 14
- 238000004891 communication Methods 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims description 42
- 230000005856 abnormality Effects 0.000 claims description 29
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 9
- 230000001133 acceleration Effects 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000009472 formulation Methods 0.000 abstract description 2
- 239000000203 mixture Substances 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- DMBHHRLKUKUOEG-UHFFFAOYSA-N diphenylamine Chemical group C=1C=CC=CC=1NC1=CC=CC=C1 DMBHHRLKUKUOEG-UHFFFAOYSA-N 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Landscapes
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
本申请提供一种多源AI生物多样性观测的方法和采集***,属于生态智能科技领域以及生物多样性观测领域,采集***包括:无人船和边缘服务器,***中的无人船包括:水面可旋转运动摄像相机、水下可旋转运动摄像相机、音频采集装置、通信天线、中控单元、北斗/GPS定位单元、IMU单元和存储单元;***中的边缘服务器进行动植物的AI识别。本申请可以利用人工智能、高精定位获取高质量的生物观测数据,为生物多样性评估提供重要参数、并为生物多样性的科学保护措施和政策制定提供依据。
Description
技术领域
本申请涉及生态智能科技领域以及生物观测领域,尤其涉及生物多样性的观测方法和采集***。
背景技术
无人船作为智能机器人中的一个分支,无人船一般包括:智能驾驶、图像采集与传输等功能,其具有体积小,成本低,机动性好,可以搭载不同传感器等优点,因此采用无人船进行生态环境生物多样性的信息观测和采集是非常可行的方向。但现有的无人船在观测采集中普遍存在几个问题:1采集参数不完备。采集的数据仅包含采集目标视频或者音频数据,而不包含环境参数,如实时地理位置信息等,也不包括实时时间信息等,导致后续分析数据时,缺失必要信息;2定位不精准。内陆无人船往往工作在内陆河流、水库和小型湖泊等区域,地形狭小且相对海洋较为复杂,在靠近水岸的时候,由于楼房或树木的遮挡,北斗或者GPS信号容易丢失,从而导致定位失效或者不精准的问题。
发明内容
本申请的目的是为了解决现有技术中上述的问题,本申请提供了多源AI进行生物多样性观测的方法和采集***,可以利用人工智能、高精定位获取高质量的生物观测数据,为生物多样性评估提供重要参数、并为生物多样性的科学保护措施和政策制定提供依据。
为了实现上述目的,本申请提出一种多源AI进行生物多样性观测的采集***,采集***包括:无人船和边缘服务器,***中的无人船包括:水面可旋转运动摄像相机、水下可旋转运动摄像相机、音频采集装置、通信天线、中控单元、北斗/GPS定位单元、IMU单元和存储单元;在无人船的上表面固定连接通信天线,天线上方连接水面可旋转运动摄像相机,鱼眼镜头固定安装在运动摄像相机上,调整相机云台可使得鱼眼镜头调整拍摄方位,无人船腔体前方在左右两侧分别固定安装一个水下可旋转运动摄像相机,水下可旋转运动摄像相机突出于腔体之外,鱼眼镜头安装在水下可旋转运动摄像相机上,调整水下可旋转运动摄像相机可使得鱼眼镜头朝下,音频采集装置安装在无人船后方,北斗/GPS定位单元和IMU单元实现融合定位,中控单元与存储单元、北斗/GPS定位单元、IMU单元、无人船的控制***和运动摄像相机的控制***连接;***中的边缘服务器进行动植物的AI识别。
在一些实施方案中,采用北斗/GPS/IMU的融合定位方式,将北斗或者GPS的经纬度坐标(lat,lon)转换到二维平面坐标(x斗/GPS,y斗/GPS),将IMU的位姿数据转换为二维平面坐标(x和,y和)。
在一些实施方案中,北斗/GPS/IMU的融合坐标(x融合,y融合),通过将北斗或者GPS的经纬度坐标与IMU的位姿数据进行融合得到,即如下公式所示:
x融合= αx斗/GPS + βx和 (5)
y融合= αy斗/GPS + βy和 (6)
其中α+β=1(7)
其中,α和β分别是经纬度坐标的权重和IMU位姿数据的权重。
在一些实施方案中,当北斗/GPS的工作状态异常时,即北斗/GPS定位失效时,进入以IMU为主,北斗/GPS为辅的定位模式,此时权值的动态更新以IMU的更新周期进行更新,也即β异常=1/[1+κ(t当前-tIMU刷新)],其中t当前是当前时间,tIMU刷新是最近一次IMU的刷新时间,κ是时间衰减速度系数,此时α异常=1-β异常。即如下公式:
x融合= α异常x斗/GPS + β异常x和 (8)
y融合= α异常y斗/GPS + β异常y和 (9)
其中
α异常 =1-β异常 (11)。
在一些实施方案中,当北斗/GPS的工作状态正常时,即北斗/GPS定位有效时,进入以GPS为主,IMU为辅的定位模式,此时权值的动态更新以北斗/GPS的更新周期进行更新,也即α正常=1/[1+κ(t当前-t斗/GPS刷新)],其中t当前是当前时间,t斗/GPS刷新是最近一次北斗/GPS的刷新时间,κ是时间衰减速度系数,此时β正常=1-α正常。即如下公式:
x融合= α正常x斗/GPS + β正常x和 (12)
y融合= α正常y斗/GPS + β正常y和 (13)
其中
β正常 =1-α正常 (15)。
在一些实施方案中,经过墨卡托转换将北斗/GPS的二维曲面经纬度坐标转换到二维平面直角坐标,即通过公式(1)和公式(2)实现球形坐标纬度lat、经度lon到直角平面横坐标x和纵坐标y的变换:
x斗/GPS=lat (1)
在一些实施方案中,基于滑动加权滤波算法对IMU输出的位姿数据进行预处理,得到无人船在x和y方向上的位姿数据,根据上述位姿数据构建五维向量:x方向的线加速度和角速度、y方向的线加速度和角速度以及航向角,将上述五维数据作为神经网络模型的输入向量;然后基于训练好的神经网络模型对x和y方向上的相对位移和(x和,y和)进行预测,并将预测的结果作为神经网络模型的输出:
x和=∑Δxi (3)
y和=∑Δyi (4)。
本申请还提供一种多源AI生物多样性的采集方法,使用如权利要求1-7任一项所述采集***,包括:(1)数据采集:通过水面可旋转运动摄像相机以及音频采集装置对水面动植物进行视频采集,采集的视频图像中添加无人船当时的融合定位信息以及当时的时间信息作为属性信息,通过水下可旋转运动摄像相机对水下的动植物进行视频采集,采集的视频图像中添加无人船当时的融合定位信息以及当时的时间信息作为属性信息;(2)数据传输:将步骤(1)中采集的水面视频以及水下视频数据及其属性信息,通过通信天线传输至云中边缘服务器上进行存储;(3)动植物识别:边缘服务器还对接收的视频进行动植物识别;(4)识别结果上报:如果所述识别结果中有与岸基控制单元设定的目标对象相匹配的识别结果时,将识别到目标对象的识别相关的结果以及对应的无人船的定位信息通过预定的方式上报给指定接收装置;(5)计算夹角:当识别到目标对象后,边缘服务器计算目标对象的方位信息,将该目标对象的方位信息发送给无人船的中控单元;(6)调整无人船姿态:中控单元根据接收到的目标对象的方位信息以及无人船的当前定位信息计算目标对象与无人船的夹角,并根据该夹角确定无人船的航向,通过下位机控制无人船的差速转向运动,并在无人船姿态调整后驱动无人船朝向目标对象方位移动;(7)目标对象采集:在抵达目标位置后,进行目标追踪和视频对准并采集和保存目标对象的视频图像和音频数据。
在一些实施方案中,中控单元在接收到目标对象的方位信息并调整好无人船航向姿态后,调整水面可旋转运动摄像相机上云台,使云台上的鱼眼镜头朝向对准目标对象方位。
本申请具有如下优点:
(1)本申请使用了北斗/GPS/IMU的融合定位方式,能够克服无人船复杂采集环境中物体遮挡以及信号失效等问题;
(2)为了精确定位无人船的位置,本申请创造性地提出了动态权值调节的定位融合计算方法,综合考虑定位信号刷新频率和定位精度等因素,对融合的多源定位信息进行动态融合,从而有效缓解了固定权值所带来的定位误差较大的问题;
(3)本申请提出附加定位以及时间信息到视频属性中的方案,有效地保证了生物多样性研究中针对珍稀物种目标对象的习性等方面的观测和分析。
附图说明
图1所示为本申请的无人船的结构示意图;
图2所示为本申请多源AI生物多样性观测采集的方法流程。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部。
本申请所用无人船质量约130kg,长约2.8m,宽约1.5m,续航能力约20km,船速在0~1.5m/s范围内可调,通信距离超过10km。无人船电源使用24V和12V锂电池组,分别为推进***和主控及传感器***供电。无人船具备自主巡航、远程操控等模式,无人船自主巡航模式下,一般根据其工作地点、目标方位、运行要求合理规划航行路径或者按照岸基控制单元发送的期望航向、GPS位点和航线等完成自动巡航。
本申请所述的多源AI生物多样性观测的采集***,如图1所示,包括:无人船和边缘服务器,***中的无人船包括:水面可旋转运动摄像相机(2)、水下可旋转运动摄像相机(5)、音频采集装置(3)、通信天线(1)、中控单元(4)、北斗/GPS定位单元、IMU单元和存储单元;在无人船的上表面固定连接通信天线(1),天线(1)上方连接水面可旋转运动摄像相机(2),鱼眼镜头固定安装在水面可旋转运动摄像相机(2)上,调整相机云台可使得鱼眼镜头调整拍摄方位,无人船腔体下方在左右两侧分别固定安装一个水下可旋转运动摄像相机(5),鱼眼镜头安装在水下可旋转运动摄像相机(5)上,调整水下可旋转运动摄像相机(5)云台可使得鱼眼镜头朝下,音频采集装置(3)安装在无人船后方,北斗/GPS定位单元和IMU单元实现融合定位,中控单元(4)与存储单元、北斗/GPS定位单元、IMU单元、无人船的控制***和运动摄像相机的控制***连接;***中的边缘服务器根据接收到的无人船采集的多源信息进行动植物的AI识别。
无人船在驶向目标的过程中需要采集无人船的经纬度信息,用来定位无人船当前经纬度信息的就是北斗或者GPS。GPS的定位精度为5米,北斗的定位精度也差不多5米,定位精度高。无人船在驶向目标鱼群的过程中虽然可以使用GPS了解当前位置的经纬度信息,但是北斗和GPS更新的频率较低,约为1~10Hz之间。无人船所处环境多为内陆河流、水库和小型湖泊等区域,这些区域地形复杂、空间狭小且常有遮挡,北斗/GPS信号容易丢失,北斗/GPS信号丢失的情况下,使用IMU等自体传感器完成地理位置定位估算。IMU(Inertialmeasurementunit)是惯性测量单元,更新频率高达1KHz,包含陀螺仪、加速度计和磁强计。陀螺仪用三个轴测量无人船的角速度,以计算船体的姿态;加速度计测量无人船的加速度和位置;磁强计(M-Sensor),也称为地磁和磁传感器,用于测试无人船当前磁场的强度和方向,通过上述数据可以推算出无人船自身所处位置,但IMU中陀螺仪和加速度计随时间增加会累积误差,单独的IMU不适合长时间使用。因此,本申请无人船使用多传感器融合的方式完成自身定位,即采用北斗/GPS/IMU的融合定位方式,实现无人船的准确实时定位。
GPS输出是地球坐标系下的经纬度信息(latitude,longitude),“北斗”卫星导航模块中所获得的卫星数据如经度(longitude)、纬度(latitude)、移动速度、海拔等也是基于地球的球形坐标系的,而无人船所在坐标系是二维平面坐标系(x,y),经纬度信息不合适无人船使用,因此,需要将经纬度信息转换到二维平面直角坐标系。本申请根据地球球形坐标系到墨卡托二维平面直角坐标系转换的墨卡托转换算法,把从“北斗”卫星导航模块中所获得的卫星经纬度数据或者GPS全球定位***中获取的经纬度数据(lat,lon),进行坐标转换,转化为二维平面直角坐标(x斗/GPS,y斗/GPS)。坐标转换的主要流程是把北斗/GPS的二维曲面经纬度坐标,经过墨卡托转换算法变为二维平面直角坐标,即通过公式(1)和公式(2)实现球形坐标纬度lat、经度lon到平面坐标横坐标x和纵坐标y的变换。
x斗/GPS=lat (1)
y斗/GPS=ln(tan(π/4+lon/2)) (2)
IMU单元输出的位姿数据包括加速度、角速度和航向角等,同样需要转换为二维直角坐标的表达形式。本申请采用AI方式进行转换。首先基于滑动加权滤波算法对IMU输出的位姿数据进行预处理,得到无人船在x和y方向上的位姿数据,分别为x方向的线加速度和角速度、y方向的线加速度和角速度以及航向角共五维数据,之后将这五维数据作为神经网络模型的输入向量;然后基于训练好的神经网络模型对x和y方向上的相对位移和(x和,y和)进行预测,并将预测的结果作为神经网络模型的输出。
x和=∑Δxi (3)
y和=∑Δyi (4)
将以上北斗/GPS定位数据和IMU的位姿数据进行加权融合后得到二维平面坐标的定位数据,记为(x融合,y融合)。
X融合=αx斗/GPS+βx和 (5)
y融合=αy斗/GPS+βy和 (6)
其中α+β=1(7)
考虑到定位在刷新时刻较为精确,而无论北斗/GPS还是IMU都存在随时间移动导致的定位偏移/偏差问题,为了解决上述问题,本申请采用根据距离刷新时间的间隔对定位置信度进行衰减的动态加权更新方法进行定位数据的加权融合。具体地,当北斗/GPS的工作状态异常时,即北斗/GPS定位失效时,进入以IMU为主,北斗/GPS为辅的定位模式,此时权值的动态更新以IMU的更新周期进行更新,也即β异常=1/[1+κ(t当前-tIMU刷新)],其中t当前是当前时间,tIMU刷新是最近一次IMU的刷新时间,κ是时间衰减速度系数,此时α异常=1-β异常。即如下公式:
x融合=α异常x斗/GPS+β异常x和 (8)
y融合=α异常y斗/GPS+β异常y和 (9)
其中
α异常=1-β异常(11)
当北斗/GPS的工作状态正常时,即北斗/GPS定位有效时,进入以GPS为主,IMU为辅的定位模式,此时权值的动态更新以北斗/GPS的更新周期进行更新,也即α正常=1/[1+κ(t当前-t斗/GPS刷新)],其中t当前是当前时间,t斗/GPS刷新是最近一次北斗/GPS的刷新时间,κ是时间衰减速度系数,此时β正常=1-α正常。即如下公式:
x融合=α正常x斗/GPS+β正常x和 (12)
y融合=α正常y斗/GPS+β正常y和 (13)
其中
β正常=1-α正常 (15)
基于上述多源AI生物多样性观测的采集***进行多源信息采集的方法,如图2所示,具体包括:
(1)通过水面可旋转运动摄像相机(2)以及音频采集装置(3)对水面动植物进行视频采集,采集的视频图像中添加无人船当时的融合定位信息以及当时的时间信息等作为属性信息,便于后续研究分析或者数据回溯等处理。通过水下可旋转运动摄像相机(5)对水下的动植物进行视频采集,采集的视频图像中添加无人船当时的融合定位信息以及当时的时间信息等作为属性信息。
(2)按照一定的时间间隔,将步骤(1)中采集的水面视频以及水下视频数据及其属性信息,如定位信息、时间信息、文件大小等信息,通过通信天线(1)传输至云中边缘服务器上进行存储,此外,边缘服务器还对接收的视频进行动植物识别,其中对于水面视频可以采用视频音频分离,分别进行AI识别后进行相互验证或者对两者的结果进行综合后,得到动植物识别结果。
(3)边缘服务器在接收到无人船上传的数据后存储至指定存储空间后,对接收到的所述数据进行完整性验证,并在校验无误后,发送确认信息给无人船,此时无人船根据确认信息将成功上传的文件进行本地删除,以防止存储空间溢出问题。
(4)如果所述识别结果中有与岸基控制单元设定的目标对象相匹配的结果时,将识别到目标对象的识别相关的结果,如包含目标对象的图像帧等以及对应的无人船的定位等信息通过预定的方式上报给指定接收装置。
(5)当识别到目标对象后,边缘服务器计算目标对象的方位信息,将该目标对象的方位信息发送给无人船的中控单元;所述目标对象方位信息的计算,是边缘服务器结合音频中声学定位以及无人船的实时融合定位等信息计算得到,实现了声-船的协同计算以及声-光的协同验证,使得目标对象的方位信息更准确。
(6)中控单元(4)根据接收到的目标对象的方位信息以及无人船的当前定位信息计算目标对象与无人船的夹角,并根据该夹角确定无人船的航向,通过下位机控制无人船的差速转向运动,并在无人船姿态调整后驱动无人船朝向目标对象方位移动,同时调整水面可旋转运动摄像相机上云台,使云台上的鱼眼镜头朝向对准目标对象方位。
(7)在抵达目标位置后,进行目标追踪和视频对准并采集和保存目标对象的视频图像和音频数据。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,尽管参照前述实施例对本申请进行了详细的说明,对于本领域技术人员来说,其依然可以对前述各实施例所记载的技术方案进行改进,或者对其中部分技术特征进行等同替换。凡在本申请的精神和原则之内,所作的任何修改、等同替换,均应包含在本申请的保护范围之内。
Claims (7)
1.一种多源AI生物多样性观测的采集***,其特征在于,***包括:无人船和边缘服务器,***中的无人船包括:水面可旋转运动摄像相机、水下可旋转运动摄像相机、音频采集装置、通信天线、中控单元、北斗/GPS定位单元、IMU单元和存储单元;在无人船的上表面固定连接通信天线,天线上方连接水面可旋转运动摄像相机,鱼眼镜头固定安装在水面可旋转运动摄像相机上,调整水面可旋转运动摄像相机云台可使得鱼眼镜头调整拍摄方位,无人船腔体下方在左右两侧分别固定安装一个水下可旋转运动摄像相机,鱼眼镜头安装在水下可旋转运动摄像相机上,调整水下可旋转运动摄像相机云台可使得鱼眼镜头朝下,音频采集装置安装在无人船后方,北斗/GPS定位单元和IMU单元实现融合定位,中控单元与存储单元、北斗/GPS定位单元、IMU单元、无人船的控制***和运动摄像相机的控制***连接;***中的边缘服务器根据接收到的无人船采集的多源信息进行动植物的AI识别;
采用北斗/GPS/IMU的融合定位方式,将北斗或者GPS的经纬度坐标(lat,lon)转换到二维平面坐标(x斗/GPS,y斗/GPS),将IMU的位姿数据转换为二维平面坐标(x和,y和);
北斗/GPS/IMU的融合坐标(x融合,y融合),通过将北斗或者GPS的经纬度坐标与IMU的位姿数据进行加权融合得到;
当北斗/GPS的工作状态异常时,即北斗/GPS定位失效时,进入以IMU为主,北斗/GPS为辅的定位模式,此时权值的动态更新以IMU的更新周期进行更新,也即β异常=1/[1+κ(t当前-tIMU刷新)],其中t当前是当前时间,tIMU刷新是最近一次IMU的刷新时间,κ是时间衰减速度系数,此时α异常=1-β异常,α异常和异常β分别是北斗/GPS的工作状态异常时,经纬度坐标的权重和IMU位姿数据的权重,即如下公式:
x融合=α异常x斗/GPS+β异常x和(8)
y融合=α异常y斗/GPS+β异常y和(9)
其中
α异常=1-β异常(11)。
2.根据权利要求1所述的采集***,其特征在于,当北斗/GPS的工作状态正常时,即北斗/GPS定位有效时,进入以GPS为主,IMU为辅的定位模式,此时权值的动态更新以北斗/GPS的更新周期进行更新,也即α正常=1/[1+κ(t当前-t斗/GPS刷新)],其中t当前是当前时间,t斗/GPS刷新是最近一次北斗/GPS的刷新时间,κ是时间衰减速度系数,此时β正常=1-α正常,α正常和β正常分别是北斗/GPS的工作状态正常时,经纬度坐标的权重和IMU位姿数据的权重即如下公式:
x融合=α正常x斗/GPS+β正常x和(12)
y融合=α正常y斗/GPS+β正常y和(13)
其中
β正常=1-α正常(15)。
3.根据权利要求1所述的采集***,其特征在于,经过墨卡托转换将北斗/GPS的二维曲面经纬度坐标转换到二维平面直角坐标,即通过公式(1)和公式(2)实现球形坐标纬度lat、经度lon到直角平面横坐标x和纵坐标y的变换:
x斗/GPS=lat(1)
y斗/GPS=ln(tan(π/4+lon/2))(2)。
4.根据权利要求1所述的采集***,其特征在于,基于滑动加权滤波算法对IMU输出的位姿数据进行预处理,得到无人船在x和y方向上的位姿数据,根据上述位姿数据构建五维向量:x方向的线加速度和角速度、y方向的线加速度和角速度以及航向角,将上述五维数据作为神经网络模型的输入向量;然后基于训练好的神经网络模型对x和y方向上的相对位移和(x和,y和)进行预测,并将预测的结果作为神经网络模型的输出。
5.一种多源AI生物多样性的采集方法,使用如权利要求1-4任一项所述采集***,其特征在于,包括:(1)数据采集:通过水面可旋转运动摄像相机以及音频采集装置对水面动植物进行视频采集,采集的视频图像中添加无人船当时的融合定位信息以及当时的时间信息作为属性信息,通过水下可旋转运动摄像相机对水下的动植物进行视频采集,采集的视频图像中添加无人船当时的融合定位信息以及当时的时间信息作为属性信息;(2)数据传输:将步骤(1)中采集的水面视频以及水下视频数据及其属性信息,通过通信天线传输至云中边缘服务器上进行存储;(3)动植物识别:边缘服务器还对接收的视频进行动植物识别;(4)识别结果上报:如果所述识别结果中有与岸基控制单元设定的目标对象相匹配的识别结果时,将识别到目标对象的识别相关的结果以及对应的无人船的定位信息通过预定的方式上报给指定接收装置。
6.根据权利要求5所述的采集方法,其特征在于,还包括:(5)计算夹角:当识别到目标对象后,边缘服务器计算目标对象的方位信息,将该目标对象的方位信息发送给无人船的中控单元;(6)调整无人船姿态:中控单元根据接收到的目标对象的方位信息以及无人船的当前定位信息计算目标对象与无人船的夹角,并根据该夹角确定无人船的航向,通过下位机控制无人船的差速转向运动,并在无人船姿态调整后驱动无人船朝向目标对象方位移动;(7)目标对象采集:在抵达目标位置后,进行目标追踪和视频对准并采集和保存目标对象的视频图像和音频数据。
7.根据权利要求5所述的采集方法,其特征在于,中控单元在接收到目标对象的方位信息并调整好无人船航向姿态后,调整水面可旋转运动摄像相机上云台,使云台上的鱼眼镜头朝向对准目标对象方位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311681124.6A CN117690194B (zh) | 2023-12-08 | 2023-12-08 | 一种多源ai生物多样性观测的方法和采集*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311681124.6A CN117690194B (zh) | 2023-12-08 | 2023-12-08 | 一种多源ai生物多样性观测的方法和采集*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117690194A CN117690194A (zh) | 2024-03-12 |
CN117690194B true CN117690194B (zh) | 2024-06-07 |
Family
ID=90131207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311681124.6A Active CN117690194B (zh) | 2023-12-08 | 2023-12-08 | 一种多源ai生物多样性观测的方法和采集*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117690194B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100456041B1 (ko) * | 2004-07-28 | 2004-11-10 | (주)지앤제이 | 위성측위 환경정보 수집용 장치 |
CN106873578A (zh) * | 2017-04-27 | 2017-06-20 | 南通大学 | 无人作业智能船装置及控制*** |
CN108303988A (zh) * | 2018-03-28 | 2018-07-20 | 大连海事大学 | 一种无人船的目标识别追踪***及其工作方法 |
CN207908979U (zh) * | 2018-03-28 | 2018-09-25 | 大连海事大学 | 一种无人船的目标识别追踪*** |
CN110243358A (zh) * | 2019-04-29 | 2019-09-17 | 武汉理工大学 | 多源融合的无人车室内外定位方法及*** |
CN111897350A (zh) * | 2020-07-28 | 2020-11-06 | 谈斯聪 | 一种水下机器人装置、水下调控管理最优化***及方法 |
CN113124864A (zh) * | 2021-04-19 | 2021-07-16 | 江苏虹湾威鹏信息技术有限公司 | 一种采用机器视觉和惯导融合的水面导航方法 |
CN113985419A (zh) * | 2021-10-22 | 2022-01-28 | 中国科学院合肥物质科学研究院 | 水面机器人协同障碍物检测及避障方法及*** |
CN114046792A (zh) * | 2022-01-07 | 2022-02-15 | 陕西欧卡电子智能科技有限公司 | 一种无人船水面定位与建图方法、装置及相关组件 |
CN115236714A (zh) * | 2022-05-24 | 2022-10-25 | 芯跳科技(广州)有限公司 | 多源数据融合定位方法、装置、设备及计算机存储介质 |
CN116448100A (zh) * | 2023-03-10 | 2023-07-18 | 华南理工大学 | 一种多传感器融合的近岸无人船slam方法 |
CN116540696A (zh) * | 2023-04-13 | 2023-08-04 | 北京工业大学 | 一种基于ros的无人船多传感器融合的多模态避障*** |
CN116642468A (zh) * | 2023-05-31 | 2023-08-25 | 交通运输部天津水运工程科学研究所 | 基于无人机航空摄影和无人船水上水下一体化扫描方法 |
CN117075158A (zh) * | 2023-08-23 | 2023-11-17 | 哈尔滨工业大学 | 基于激光雷达的无人变形运动平台的位姿估计方法及*** |
-
2023
- 2023-12-08 CN CN202311681124.6A patent/CN117690194B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100456041B1 (ko) * | 2004-07-28 | 2004-11-10 | (주)지앤제이 | 위성측위 환경정보 수집용 장치 |
CN106873578A (zh) * | 2017-04-27 | 2017-06-20 | 南通大学 | 无人作业智能船装置及控制*** |
CN108303988A (zh) * | 2018-03-28 | 2018-07-20 | 大连海事大学 | 一种无人船的目标识别追踪***及其工作方法 |
CN207908979U (zh) * | 2018-03-28 | 2018-09-25 | 大连海事大学 | 一种无人船的目标识别追踪*** |
CN110243358A (zh) * | 2019-04-29 | 2019-09-17 | 武汉理工大学 | 多源融合的无人车室内外定位方法及*** |
CN111897350A (zh) * | 2020-07-28 | 2020-11-06 | 谈斯聪 | 一种水下机器人装置、水下调控管理最优化***及方法 |
CN113124864A (zh) * | 2021-04-19 | 2021-07-16 | 江苏虹湾威鹏信息技术有限公司 | 一种采用机器视觉和惯导融合的水面导航方法 |
CN113985419A (zh) * | 2021-10-22 | 2022-01-28 | 中国科学院合肥物质科学研究院 | 水面机器人协同障碍物检测及避障方法及*** |
CN114046792A (zh) * | 2022-01-07 | 2022-02-15 | 陕西欧卡电子智能科技有限公司 | 一种无人船水面定位与建图方法、装置及相关组件 |
CN115236714A (zh) * | 2022-05-24 | 2022-10-25 | 芯跳科技(广州)有限公司 | 多源数据融合定位方法、装置、设备及计算机存储介质 |
WO2023226155A1 (zh) * | 2022-05-24 | 2023-11-30 | 芯跳科技(广州)有限公司 | 多源数据融合定位方法、装置、设备及计算机存储介质 |
CN116448100A (zh) * | 2023-03-10 | 2023-07-18 | 华南理工大学 | 一种多传感器融合的近岸无人船slam方法 |
CN116540696A (zh) * | 2023-04-13 | 2023-08-04 | 北京工业大学 | 一种基于ros的无人船多传感器融合的多模态避障*** |
CN116642468A (zh) * | 2023-05-31 | 2023-08-25 | 交通运输部天津水运工程科学研究所 | 基于无人机航空摄影和无人船水上水下一体化扫描方法 |
CN117075158A (zh) * | 2023-08-23 | 2023-11-17 | 哈尔滨工业大学 | 基于激光雷达的无人变形运动平台的位姿估计方法及*** |
Non-Patent Citations (1)
Title |
---|
基于北斗卫星导航***的林区智能巡检测绘***研究;赵燕东;涂佳炎;;农业机械学报;20180523(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117690194A (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Whitcomb et al. | Advances in underwater robot vehicles for deep ocean exploration: Navigation, control, and survey operations | |
Chutia et al. | A review of underwater robotics, navigation, sensing techniques and applications | |
CN108227751A (zh) | 一种无人机的降落方法及*** | |
CN109911188A (zh) | 非卫星导航定位环境的桥梁检测无人机*** | |
CN111090283B (zh) | 一种无人艇组合定位定向方法和*** | |
US11396354B2 (en) | Covert underwater navigation via polarimetry | |
CN111829512A (zh) | 一种基于多传感器数据融合的auv导航定位方法及*** | |
CN109144105A (zh) | 一种船底智能水下清洗机器人、控制***及控制方法 | |
US20230400302A1 (en) | Systems and methods for measuring water capacity of polar lakes | |
CN101556154B (zh) | 定位及路径地图生成***及其数据采集分析方法 | |
CN111857176A (zh) | 一种gps无人机控制方法 | |
CN114046777A (zh) | 适用于大范围浅海珊瑚礁制图的水下光学成像***及方法 | |
CN117690194B (zh) | 一种多源ai生物多样性观测的方法和采集*** | |
CN114659496B (zh) | 一种用于船载北斗一体机倾斜监测的方法 | |
CN110954097A (zh) | 一种用于机器人组合的导航定位方法 | |
Quraishi et al. | Easily deployable underwater acoustic navigation system for multi-vehicle environmental sampling applications | |
CN115479605A (zh) | 基于空间目标定向观测的高空长航时无人机自主导航方法 | |
Romeo et al. | Navigation is key to AUV missions | |
Ballard | Mapping the mid-ocean ridge | |
Papalia et al. | SARA, an autonomous underwater vehicle for researches in Antarctica | |
y Alvarado et al. | A coastal distributed autonomous sensor network | |
Bachmann et al. | Design and evaluation of an integrated GPS/INS system for shallow-water AUV navigation | |
Conte et al. | Data gathering in underwater archaeology by means of a remotely operated vehicle | |
CN114018255B (zh) | 一种水下滑翔机的智能组合导航方法、***、设备和介质 | |
KR102682319B1 (ko) | 해양 발전소의 구조물 모니터링을 위한 무인수상선의 제어 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |