CN112863183A - 一种交通流数据融合方法及*** - Google Patents

一种交通流数据融合方法及*** Download PDF

Info

Publication number
CN112863183A
CN112863183A CN202110048773.7A CN202110048773A CN112863183A CN 112863183 A CN112863183 A CN 112863183A CN 202110048773 A CN202110048773 A CN 202110048773A CN 112863183 A CN112863183 A CN 112863183A
Authority
CN
China
Prior art keywords
sub
traffic flow
area
target object
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110048773.7A
Other languages
English (en)
Other versions
CN112863183B (zh
Inventor
袁伟评
王升哲
李纪奎
吴江流
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Shangqiao Information Technology Co ltd
Original Assignee
Shenzhen Shangqiao Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Shangqiao Information Technology Co ltd filed Critical Shenzhen Shangqiao Information Technology Co ltd
Priority to CN202110048773.7A priority Critical patent/CN112863183B/zh
Publication of CN112863183A publication Critical patent/CN112863183A/zh
Application granted granted Critical
Publication of CN112863183B publication Critical patent/CN112863183B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明涉及一种交通流数据融合方法及***,该方法具体是:检测预选定路段的交通流时,同时采用毫米波检测技术及视频图像检测技术,进而,将视频图像检测技术所对应的显示区域、毫米波检测技术所对应的显示区域分别等分成多个第一子区域、多个第二子区域,进而,根据实时路况,人工标定各个第一子区域所对应的第二子区域,完成标定后,根据实时坐标、第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算横向偏移值和纵向偏移值,进而,根据横向偏移值、纵向偏移值、第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置。既能大幅提高融合速度,又提升了交通流信息的完整性。

Description

一种交通流数据融合方法及***
技术领域
本发明涉及智能交通技术领域,更具体地说,涉及一种交通流数据融合方法及***。
背景技术
交通流信息是反映城市道路交通运行情况的重要参数。获取全面的、丰富的、实时的交通流信息,一方面,可以让交通规划部门和交通管理部门精准掌握道路运行现状,及时进行交通疏导和信号控制;另一方面,为后续道路交通发展决策提供了科学依据。因而,如何获取交通流信息成为必须解决的关键问题;目前,多是在下列方式中择一使用:
毫米波雷达,其受天气影响比较小、观察距离远(可达200多米),但在拥堵或车辆静止时,容易丢失目标;
视频检测,道路顺畅、拥堵时,都能准确检测到目标,但受天气影响比较大,尤其是在雾霾天、雪天或雨天时;
故而,想要获取更为完整的交通流信息,需要融合毫米波雷达及视频检测两种技术,但两种检测数据如何融合是一直未被解决的难题。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种交通流数据融合方法,以及一种交通流数据融合***。
本发明解决其技术问题所采用的技术方案是:
一方面,提供了一种交通流数据融合方法,其中,包括如下步骤:
检测预选定路段的交通流时,同时采用毫米波检测技术及视频图像检测技术;
将视频图像检测技术所对应的显示区域、毫米波检测技术所对应的显示区域分别等分成多个第一子区域、多个第二子区域,其中,第一子区域和第二子区域,二者均为矩形且总份数相同,取第一子区域上横坐标和纵坐标都最大的角点为第一基准点、第二子区域上与第一基准点对应的角点为第二基准点;
根据实时路况,人工标定各个第一子区域所对应的第二子区域;
完成标定后,根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值;
根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置。
优选的,计算融合显示时目标物的横向偏移值和纵向偏移值的步骤,包括:
根据K1=A1/A2、K2=A3/A4分别获取横向偏移值K1、纵向偏移值K2,其中,A2是第一子区域所含像素的总列数、A1是沿着自左向右的方向,目标物在当前第一子区域中所排的像素列数、A4是第一子区域所含像素的总行数、A3是沿着自上向下的方向,目标物在当前第一子区域中所排的像素行数;
获取毫米波检测技术下目标物的融合位置的步骤包括:
记融合位置的横坐标为X1、纵坐标为Y1
若K1=K2=1,则根据X1=X2、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,X2为与当前第一基准点对应的第二基准点的横坐标,Y2为与当前第一基准点对应的第二基准点的纵坐标;
若K1=1、K2≠1,则根据X1=X2、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标,其中,W为第二子区域的宽度;
若K1≠1、K2=1,则根据X1=X2-L*K1、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,L为第二子区域的长度;
若K1≠1、K2≠1,则根据X1=X2-L*K1、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标。
优选的,第一子区域的总份数为100乘100。
另一方面,提供了一种交通流数据融合***,基于上述的一种交通流数据融合方法,其中,包括:
基于毫米波的交通流量检测***,用于检测预选定路段的交通流;
基于视频图像的交通流检测***,用于检测预选定路段的交通流;
处理器,用于根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值;还用于根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置;所述基于毫米波的交通流量检测***、所述基于视频图像的交通流检测***,均与所述处理器通讯连接。
优选的,所述处理器具体用于:
根据K1=A1/A2、K2=A3/A4分别获取横向偏移值K1、纵向偏移值K2,其中,A2是第一子区域所含像素的总列数、A1是沿着自左向右的方向,目标物在当前第一子区域中所排的像素列数、A4是第一子区域所含像素的总行数、A3是沿着自上向下的方向,目标物在当前第一子区域中所排的像素行数;以及
记融合位置的横坐标为X1、纵坐标为Y1
若K1=K2=1,则根据X1=X2、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,X2为与当前第一基准点对应的第二基准点的横坐标,Y2为与当前第一基准点对应的第二基准点的纵坐标;
若K1=1、K2≠1,则根据X1=X2、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标,其中,W为第二子区域的宽度;
若K1≠1、K2=1,则根据X1=X2-L*K1、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,L为第二子区域的长度;
若K1≠1、K2≠1,则根据X1=X2-L*K1、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标。
优选的,第一子区域的总份数为100乘100。
本发明的有益效果在于:检测预选定路段的交通流时,同时采用毫米波检测技术及视频图像检测技术,进而,将视频图像检测技术所对应的显示区域、毫米波检测技术所对应的显示区域分别等分成多个第一子区域、多个第二子区域,其中,第一子区域和第二子区域,二者均为矩形且总份数相同,取第一子区域上横坐标和纵坐标都最大的角点为第一基准点、第二子区域上与第一基准点对应的角点为第二基准点,进而,根据实时路况,人工标定各个第一子区域所对应的第二子区域,完成标定后,根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值,进而,根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置。前述方法中,先标定了毫米波检测技术中第二子区域和视频图像检测技术中所有第一子区域的映射关系,又计算了融合显示时目标物的横向偏移值和纵向偏移值,后续对两种数据进行融合时,既能大幅提高融合速度,又提升了交通流信息的完整性,且毫米波检测技术下目标物在笛卡尔坐标系中的位置,即为目标物的真实位置。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将结合附图及实施例对本发明作进一步说明,下面描述中的附图仅仅是本发明的部分实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图:
图1是本发明实施例一提供的一种交通流数据融合方法的流程图;
图2是使用本发明实施例一所提供方法时与视频图像检测技术对应的示意图(K为目标物);
图3是使用本发明实施例一所提供方法时与毫米波检测技术对应的示意图(K为目标物);
图4是本发明实施例二提供的一种交通流数据融合***的组成示意图。
具体实施方式
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明的部分实施例,而不是全部实施例。基于本发明的实施例,本领域普通技术人员在没有付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
实施例一
本发明实施例提供了一种交通流数据融合方法,如图1至图3所示,包括如下步骤:
步骤S1:检测预选定路段的交通流时,同时采用毫米波检测技术及视频图像检测技术。
本实施中,同时采用两种技术进行检测,可以确保同一时刻下既可以看到视频图像检测技术所对应的显示区域,又可以看到毫米波检测技术所对应的显示区域,以便后续进行第一子区域的标定。其中,毫米波检测技术下,目标体的位置都是以雷达为原点的笛卡尔坐标进行标定的,视频图像检测技术下,目标体的位置是以图像左上角为原点、图像中像素的行数和列数进行标定的。
步骤S2:将视频图像检测技术所对应的显示区域、毫米波检测技术所对应的显示区域分别等分成多个第一子区域180、多个第二子区域181,其中,第一子区域和第二子区域,二者均为矩形且总份数相同,取第一子区域上横坐标和纵坐标都最大的角点为第一基准点182、第二子区域上与第一基准点对应的角点为第二基准点183。
本实施中,与标定视频图像检测技术下每个像素点的映射关系相比,对整体区域进行等分,进而标定各个第一子区域的映射关系,可以大幅降低数据存储量及数据处理量,有利于降低使用成本、提高响应速度。
步骤S3:根据实时路况,人工标定各个第一子区域所对应的第二子区域。
本实施中,同一时刻下同一目标物会显示在某一第一子区域上、某一第二子区域上,则该第一子区域对应的就是该第二子区域。
步骤S4:完成标定后,根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值。
步骤S5:根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置。
其中,计算融合显示时目标物的横向偏移值和纵向偏移值具体包括:
根据K1=A1/A2、K2=A3/A4分别获取横向偏移值K1、纵向偏移值K2,其中,A2是第一子区域所含像素的总列数、A1是沿着自左向右的方向,目标物在当前第一子区域中所排的像素列数、A4是第一子区域所含像素的总行数、A3是沿着自上向下的方向,目标物在当前第一子区域中所排的像素行数;
获取毫米波检测技术下目标物的融合位置的步骤包括:
记融合位置的横坐标为X1、纵坐标为Y1
若K1=K2=1,则根据X1=X2、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,X2为与当前第一基准点对应的第二基准点的横坐标,Y2为与当前第一基准点对应的第二基准点的纵坐标;
若K1=1、K2≠1,则根据X1=X2、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标,其中,W为第二子区域的宽度;
若K1≠1、K2=1,则根据X1=X2-L*K1、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,L为第二子区域的长度;
若K1≠1、K2≠1,则根据X1=X2-L*K1、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标。
其中,第一子区域的总份数为100乘100。
作为示例的,第一子区域包含20行、20列像素,目标物坐标为(35,
35),目标物所在第一子区域的第一基准点的坐标为(40,40),则A1为15,A2为15,K1=15/20=0.75,K2=15/20=0.75。
本实施例所提供方法具体是:检测预选定路段的交通流时,同时采用毫米波检测技术及视频图像检测技术,进而,将视频图像检测技术所对应的显示区域、毫米波检测技术所对应的显示区域分别等分成多个第一子区域、多个第二子区域,其中,第一子区域和第二子区域,二者均为矩形且总份数相同,取第一子区域上横坐标和纵坐标都最大的角点为第一基准点、第二子区域上与第一基准点对应的角点为第二基准点,进而,根据实时路况,人工标定各个第一子区域所对应的第二子区域,完成标定后,根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值,进而,根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置。前述方法中,先标定了毫米波检测技术中第二子区域和视频图像检测技术中所有第一子区域的映射关系,又计算了融合显示时目标物的横向偏移值和纵向偏移值,后续对两种数据进行融合时,既能大幅提高融合速度,又提升了交通流信息的完整性,且毫米波检测技术下目标物在笛卡尔坐标系中的位置,即为目标物的真实位置。
实施例二
本发明实施例提供了一种交通流数据融合***,基于实施例一所提供的一种交通流数据融合方法,如图4所示,***包括:
基于毫米波的交通流量检测***10,用于检测预选定路段的交通流;
基于视频图像的交通流检测***11,用于检测预选定路段的交通流;
处理器12,用于根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值;还用于根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置;基于毫米波的交通流量检测***、基于视频图像的交通流检测***,均与处理器通讯连接。
其中,处理器具体用于:
根据K1=A1/A2、K2=A3/A4分别获取横向偏移值K1、纵向偏移值K2,其中,A2是第一子区域所含像素的总列数、A1是沿着自左向右的方向,目标物在当前第一子区域中所排的像素列数、A4是第一子区域所含像素的总行数、A3是沿着自上向下的方向,目标物在当前第一子区域中所排的像素行数;以及
记融合位置的横坐标为X1、纵坐标为Y1
若K1=K2=1,则根据X1=X2、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,X2为与当前第一基准点对应的第二基准点的横坐标,Y2为与当前第一基准点对应的第二基准点的纵坐标;
若K1=1、K2≠1,则根据X1=X2、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标,其中,W为第二子区域的宽度;
若K1≠1、K2=1,则根据X1=X2-L*K1、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,L为第二子区域的长度;
若K1≠1、K2≠1,则根据X1=X2-L*K1、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标。
其中,第一子区域的总份数为100乘100。
本实施例所提供***的具体工作过程为:基于毫米波的交通流量检测***和基于视频图像的交通流检测***同时检测预选定路段的交通流时,进而,将视频图像检测技术所对应的显示区域、毫米波检测技术所对应的显示区域分别等分成多个第一子区域、多个第二子区域,其中,第一子区域和第二子区域,二者均为矩形且总份数相同,取第一子区域上横坐标和纵坐标都最大的角点为第一基准点、第二子区域上与第一基准点对应的角点为第二基准点,进而,根据实时路况,人工标定各个第一子区域所对应的第二子区域,完成标定后,处理器根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值,进而,处理器还根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置。前述方法中,先标定了毫米波检测技术中第二子区域和视频图像检测技术中所有第一子区域的映射关系,又计算了融合显示时目标物的横向偏移值和纵向偏移值,后续对两种数据进行融合时,既能大幅提高融合速度,又提升了交通流信息的完整性,且毫米波检测技术下目标物在笛卡尔坐标系中的位置,即为目标物的真实位置。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (6)

1.一种交通流数据融合方法,其特征在于,包括如下步骤:
检测预选定路段的交通流时,同时采用毫米波检测技术及视频图像检测技术;
将视频图像检测技术所对应的显示区域、毫米波检测技术所对应的显示区域分别等分成多个第一子区域、多个第二子区域,其中,第一子区域和第二子区域,二者均为矩形且总份数相同,取第一子区域上横坐标和纵坐标都最大的角点为第一基准点、第二子区域上与第一基准点对应的角点为第二基准点;
根据实时路况,人工标定各个第一子区域所对应的第二子区域;
完成标定后,根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值;
根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置。
2.根据权利要求1所述的一种交通流数据融合方法,其特征在于,计算融合显示时目标物的横向偏移值和纵向偏移值的步骤,包括:
根据K1=A1/A2、K2=A3/A4分别获取横向偏移值K1、纵向偏移值K2,其中,A2是第一子区域所含像素的总列数、A1是沿着自左向右的方向,目标物在当前第一子区域中所排的像素列数、A4是第一子区域所含像素的总行数、A3是沿着自上向下的方向,目标物在当前第一子区域中所排的像素行数;
获取毫米波检测技术下目标物的融合位置的步骤包括:
记融合位置的横坐标为X1、纵坐标为Y1
若K1=K2=1,则根据X1=X2、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,X2为与当前第一基准点对应的第二基准点的横坐标,Y2为与当前第一基准点对应的第二基准点的纵坐标;
若K1=1、K2≠1,则根据X1=X2、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标,其中,W为第二子区域的宽度;
若K1≠1、K2=1,则根据X1=X2-L*K1、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,L为第二子区域的长度;
若K1≠1、K2≠1,则根据X1=X2-L*K1、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标。
3.根据权利要求1所述的一种交通流数据融合方法,其特征在于,第一子区域的总份数为100乘100。
4.一种交通流数据融合***,基于权利要求1-3任一所述的一种交通流数据融合方法,其特征在于,包括:
基于毫米波的交通流量检测***,用于检测预选定路段的交通流;
基于视频图像的交通流检测***,用于检测预选定路段的交通流;
处理器,用于根据视频图像检测技术下目标物的实时坐标、目标物所在第一子区域的第一基准点的坐标、第一子区域所含像素的总行数、第一子区域所含像素的总列数,计算融合显示时目标物的横向偏移值和纵向偏移值;还用于根据横向偏移值、纵向偏移值、与当前第一基准点对应的第二基准点的坐标、第二子区域的长度和宽度,获取毫米波检测技术下目标物的融合位置;所述基于毫米波的交通流量检测***、所述基于视频图像的交通流检测***,均与所述处理器通讯连接。
5.根据权利要求4所述的一种交通流数据融合***,其特征在于,所述处理器具体用于:
根据K1=A1/A2、K2=A3/A4分别获取横向偏移值K1、纵向偏移值K2,其中,A2是第一子区域所含像素的总列数、A1是沿着自左向右的方向,目标物在当前第一子区域中所排的像素列数、A4是第一子区域所含像素的总行数、A3是沿着自上向下的方向,目标物在当前第一子区域中所排的像素行数;以及
记融合位置的横坐标为X1、纵坐标为Y1
若K1=K2=1,则根据X1=X2、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,X2为与当前第一基准点对应的第二基准点的横坐标,Y2为与当前第一基准点对应的第二基准点的纵坐标;
若K1=1、K2≠1,则根据X1=X2、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标,其中,W为第二子区域的宽度;
若K1≠1、K2=1,则根据X1=X2-L*K1、Y1=Y2分别获取融合位置的横坐标、纵坐标,其中,L为第二子区域的长度;
若K1≠1、K2≠1,则根据X1=X2-L*K1、Y1=Y2+W*K2分别获取融合位置的横坐标、纵坐标。
6.根据权利要求4所述的一种交通流数据融合***,其特征在于,第一子区域的总份数为100乘100。
CN202110048773.7A 2021-01-14 2021-01-14 一种交通流数据融合方法及*** Active CN112863183B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110048773.7A CN112863183B (zh) 2021-01-14 2021-01-14 一种交通流数据融合方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110048773.7A CN112863183B (zh) 2021-01-14 2021-01-14 一种交通流数据融合方法及***

Publications (2)

Publication Number Publication Date
CN112863183A true CN112863183A (zh) 2021-05-28
CN112863183B CN112863183B (zh) 2022-04-08

Family

ID=76005997

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110048773.7A Active CN112863183B (zh) 2021-01-14 2021-01-14 一种交通流数据融合方法及***

Country Status (1)

Country Link
CN (1) CN112863183B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100141508A1 (en) * 2008-12-10 2010-06-10 Us Government As Represented By The Secretary Of The Army Method and system for forming an image with enhanced contrast and/or reduced noise
CN103324936A (zh) * 2013-05-24 2013-09-25 北京理工大学 一种基于多传感器融合的车辆下边界检测方法
CN106340046A (zh) * 2016-08-19 2017-01-18 中国电子科技集团公司第二十八研究所 一种基于图像化地理信息的雷达目标位置分析方法
CN109543600A (zh) * 2018-11-21 2019-03-29 成都信息工程大学 一种实现可行驶区域检测方法及***和应用
CN109615870A (zh) * 2018-12-29 2019-04-12 南京慧尔视智能科技有限公司 一种基于毫米波雷达和视频的交通检测***
CN110390695A (zh) * 2019-06-28 2019-10-29 东南大学 一种基于ros的激光雷达、摄像头的融合标定***及标定方法
CN110532896A (zh) * 2019-08-06 2019-12-03 北京航空航天大学 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法
CN110775052A (zh) * 2019-08-29 2020-02-11 浙江零跑科技有限公司 一种基于视觉与超声波感知融合的自动泊车方法
CN110929692A (zh) * 2019-12-11 2020-03-27 中国科学院长春光学精密机械与物理研究所 一种基于多传感器信息融合的三维目标检测方法及装置
CN111652097A (zh) * 2020-05-25 2020-09-11 南京莱斯电子设备有限公司 一种图像毫米波雷达融合目标检测方法
CN111914715A (zh) * 2020-07-24 2020-11-10 廊坊和易生活网络科技股份有限公司 一种基于仿生视觉的智能车目标实时检测与定位方法
CN112101361A (zh) * 2020-11-20 2020-12-18 深圳佑驾创新科技有限公司 针对鱼眼图像的目标检测方法、装置、设备和存储介质
CN112215306A (zh) * 2020-11-18 2021-01-12 同济大学 一种基于单目视觉与毫米波雷达融合的目标检测方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100141508A1 (en) * 2008-12-10 2010-06-10 Us Government As Represented By The Secretary Of The Army Method and system for forming an image with enhanced contrast and/or reduced noise
CN103324936A (zh) * 2013-05-24 2013-09-25 北京理工大学 一种基于多传感器融合的车辆下边界检测方法
CN106340046A (zh) * 2016-08-19 2017-01-18 中国电子科技集团公司第二十八研究所 一种基于图像化地理信息的雷达目标位置分析方法
CN109543600A (zh) * 2018-11-21 2019-03-29 成都信息工程大学 一种实现可行驶区域检测方法及***和应用
CN109615870A (zh) * 2018-12-29 2019-04-12 南京慧尔视智能科技有限公司 一种基于毫米波雷达和视频的交通检测***
CN110390695A (zh) * 2019-06-28 2019-10-29 东南大学 一种基于ros的激光雷达、摄像头的融合标定***及标定方法
CN110532896A (zh) * 2019-08-06 2019-12-03 北京航空航天大学 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法
CN110775052A (zh) * 2019-08-29 2020-02-11 浙江零跑科技有限公司 一种基于视觉与超声波感知融合的自动泊车方法
CN110929692A (zh) * 2019-12-11 2020-03-27 中国科学院长春光学精密机械与物理研究所 一种基于多传感器信息融合的三维目标检测方法及装置
CN111652097A (zh) * 2020-05-25 2020-09-11 南京莱斯电子设备有限公司 一种图像毫米波雷达融合目标检测方法
CN111914715A (zh) * 2020-07-24 2020-11-10 廊坊和易生活网络科技股份有限公司 一种基于仿生视觉的智能车目标实时检测与定位方法
CN112215306A (zh) * 2020-11-18 2021-01-12 同济大学 一种基于单目视觉与毫米波雷达融合的目标检测方法
CN112101361A (zh) * 2020-11-20 2020-12-18 深圳佑驾创新科技有限公司 针对鱼眼图像的目标检测方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN112863183B (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
CN108519605B (zh) 基于激光雷达和摄像机的路沿检测方法
CN110852342B (zh) 一种路网数据的获取方法、装置、设备及计算机存储介质
CN103617412B (zh) 实时车道线检测方法
CN111652097B (zh) 一种图像毫米波雷达融合目标检测方法
CN109284674B (zh) 一种确定车道线的方法及装置
CN110415277B (zh) 基于光流和卡尔曼滤波的多目标追踪方法、***、装置
CN109791598A (zh) 用于识别地面标记的图像处理方法以及地面标记检测***
CN107590470B (zh) 一种车道线检测方法及装置
CN111932537B (zh) 对象形变检测方法、装置、计算机设备和存储介质
CN108280450A (zh) 一种基于车道线的高速公路路面检测方法
CN112307810B (zh) 一种视觉定位效果自检方法及车载终端
CN108171695A (zh) 一种基于图像处理的高速公路路面检测方法
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN106127787A (zh) 一种基于逆投影变换的相机标定方法
US20220254062A1 (en) Method, device and storage medium for road slope predicating
CN109753841B (zh) 车道线识别方法和装置
CN104167109A (zh) 车辆位置的检测方法和检测装置
CN115797454B (zh) 一种鸟瞰图视角下多摄像机融合感知方法及装置
CN111681259A (zh) 基于无Anchor机制检测网络的车辆跟踪模型建立方法
CN111768332A (zh) 一种车载环视实时3d全景图像的拼接方法及图形采集装置
WO2024017003A1 (zh) 基于算法融合的车辆汇入检测方法、装置及设备
WO2022166606A1 (zh) 一种目标检测方法及装置
CN112817006B (zh) 一种车载智能道路病害检测方法及***
CN112255604B (zh) 一种雷达数据准确性的判断方法、装置及计算机设备
TW202215007A (zh) 預測道路屬性之方法、資料處理系統及電腦可執行代碼

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant