CN113492829B - 数据处理的方法和装置 - Google Patents
数据处理的方法和装置 Download PDFInfo
- Publication number
- CN113492829B CN113492829B CN202010269727.5A CN202010269727A CN113492829B CN 113492829 B CN113492829 B CN 113492829B CN 202010269727 A CN202010269727 A CN 202010269727A CN 113492829 B CN113492829 B CN 113492829B
- Authority
- CN
- China
- Prior art keywords
- parking
- state
- vehicle
- image
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title abstract description 26
- 238000000034 method Methods 0.000 claims abstract description 125
- 239000011159 matrix material Substances 0.000 claims abstract description 121
- 238000012545 processing Methods 0.000 claims abstract description 83
- 238000001514 detection method Methods 0.000 claims abstract description 64
- 238000004590 computer program Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 description 42
- 230000009466 transformation Effects 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000007526 fusion splicing Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/28—Wheel speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种数据处理的方法和装置,可以应用在自动泊车领域。该方法包括:获取车载摄像头拍摄的图像;确定待检测目标;根据待检测目标在图像中的位置确定待检测目标在图像中对应的特征区域;基于图像和轮速计信息确定第一泊车状态;在预存的单应性矩阵集合中,确定与第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵;根据第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果。本申请提供的数据处理的方法,根据泊车时不同的精度要求,利用特定的泊车状态对应的特定的单应性矩阵,对该特定的泊车状态对应的待检测目标在图像中的特征区域的图像信息进行处理。可以提升泊车精度和成功率。
Description
技术领域
本申请涉及自动驾驶领域,更为具体的,涉及在自动泊车过程中的一种数据处理的方法。
背景技术
随着科技的进步和人工智能的发展,人们对汽车驾驶的智能网联水平,以及汽车智能辅助驾驶的期望越来越高,由此而诞生了各种各样的汽车智能辅助驾驶功能,例如车载环视***等。
车载环视***的工作原理是:通过多个安装在车身不同位置的摄像头(例如鱼眼摄像机)分别进行拍摄,从而得到汽车前后左右多个不同方位视角的图像,然后将这些图像利用单应性矩阵进行俯视变换,将俯视变换后的图像进行全景拼接得到车载环视图。然后利用神经网络对车载环视图的车位、障碍物等进行检测,基于检测结果进行泊车等。
自动泊车场景中,泊车精度对摄像头拍摄的图像精度有着很高的要求。泊车过程的不同状态,对于距离车体不同位置的区域有着不同的感知精度需求。但是,目前对于车载环视图中的任意一个区域而言,距离车体不同的区域的精度是不同的,某一个确定的泊车状态对应的区域的检测精度很有可能满足不了该泊车状态对该区域的精度需求,会降低泊车成功率,甚至发生交通事故。
发明内容
本申请提供了一种数据处理的方法和装置,应用在自动驾驶领域,可以提升泊车成功率,进一步的降低交通事故的发生率。
第一方面,提供了一种数据处理的方法,该方法可以应用在自动泊车场景中,该方法的执行主体可以是集成在移动设备(例如汽车等)上的自动泊车装置(***)、驾驶辅助装置或者驾驶辅助***,或者,还可以是移动设备上的芯片或者集成电路,例如,该芯片可以是车载处理器等中的芯片。移动设备可以包括车辆、飞机等可以通过人的操作移动空间位置的设备。该方法包括:获取车载摄像头拍摄的图像;确定待检测目标;根据待检测目标在该图像中的位置确定待检测目标在该图像中对应的特征区域;基于该图像和轮速计信息确定第一泊车状态;在预存的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵;根据该第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果。
第一方面提供的数据处理的方法,根据泊车时不同的精度要求,预先配置或者预定义多个单应性矩阵,不同的单应性矩阵对应不同的泊车状态,在确定泊车状态后,利用该泊车状态对应的特定的单应性矩阵,对该泊车状态对应的待检测目标在图像中的特征区域的图像信息进行处理,从而得到检测结果。对图像中的待检测目标所在的特征区域可以进行更好的参数约束,提高该特征区域的检测精度以及位置精度,从而可以提升泊车成功率。
可选的,待检测目标包括车位、障碍物等。
可选的,在确定了泊车状态对应的特征区域后,由于此时对于车载环视图中其他区域并没有检测要求,可以降低其他区域图像的分辨率或者直接不输出其他区域的图像,将车载芯片的算力开销用于特征区域的单应性矩阵的参数配置及图像的生成。
可选的,在得到车载环视图后,可以基于神经网络确定车载环视图中的待检测目标的位置等信息。
可选的,可以根据车载环视图(图像)、轮速计信息、车姿信息、车辆规划控制等信息,确定第一泊车状态。
可选的,单应性矩阵集合、单应性矩阵与泊车状态之间的对应关系可以是预先配置或者预定义的。
可选的,可以根据待检测目标距离车体的不同距离,确定不同的特征区域。
可选的,可以利用预先配置好(或者默认的)的单应性矩阵对车载摄像头拍摄的图像进行俯视变换,得到摄像机图片对应的俯视图片,然后通过四路俯视图中重合区的对应图像关系,依靠图像的融合拼接算法将四路摄像机俯视图进行图像拼接,得到车载环视图。
在第一方面一种可能的实现方式中,该方法还包括:在预存的多个超声波雷达的收发状态参数集合中,确定与该第一泊车状态对应的第一收发状态参数,该第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种。在该实现方式中,根据泊车时不同的精度要求,预先配置或者预定义多个超声波雷达的收发状态参数集合,根据不同的泊车状态确定对应的多个超声波雷达的收发状态参数。利用该多个超声波雷达的收发状态参数获取多个超声波雷达得到的数据进行泊车,可以提升泊车精度和成功率。
单发多收可以理解为:同一时间,有一个超声波雷达进行发送和接收,其他多个超声波雷达进行接收。单发单收可以理解为:同一时间,有一个超声波雷达进行发送和接收。多发多收可以理解为:同一时间,有多个超声波雷达进行发送和接收。
可选的,多个超声波雷达可以为车身后方有4个UPA雷达。
在第一方面一种可能的实现方式中,该第一泊车状态为车位搜寻状态或者车辆泊入状态。
可选的,第一泊车状态还可以为其他的泊车状态,例如为:远端车位搜寻状态、近端车位搜寻状态等。
在第一方面一种可能的实现方式中,该第一泊车状态为该车位搜寻状态时,该第一单应性矩阵为远端单应性矩阵,该待检测目标在该图像中对应的特征区域为第一特征区域;该第一泊车状态为该车辆泊入状态时,该第一单应性矩阵为近端单应性矩阵,该待检测目标在该图像中对应的特征区域为第二特征区域;其中,第一特征区域内的待检测目标距离车体的距离大于第二特征区域内的待检测目标距离车体的距离。在该实现方式中,根据泊车状态的不同进行动态的单应性矩阵配置,在泊车过程中根据泊车状态的不同启用一个单应性矩阵进行图像处理,并且,可以降低其他区域图像的分辨率或者直接不输出其他区域的图像,降低车载芯片的算力开销及能耗,提高计算效率。
在第一方面一种可能的实现方式中,该第一泊车状态为车位搜寻状态时,该第一收发状态参数为单发单收;该第一泊车状态为车辆泊入状态时,该第一收发状态参数为单发多收或者多发多收。在该实现方式中,在满足泊车要求的情况下,可以降低算力开销。
在第一方面一种可能的实现方式中,该方法还包括:根据不同的泊车环境,调整该特征区域的大小。在该实现方式中,可以得到更高的检测精度以及位置精度,进一步的提高泊车精度。
在第一方面一种可能的实现方式中,该泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境中的至少一种。
在第一方面一种可能的实现方式中,该检测目标包括:车位或者障碍物中的至少一种。
第二方面,提供了一种数据处理的方法,该方法可以应用在自动泊车场景中,该方法的执行主体可以是集成在移动设备(例如汽车等)上的自动泊车装置(***)、驾驶辅助装置或者驾驶辅助***,或者,还可以是移动设备上的芯片或者集成电路,例如,该芯片可以是车载处理器等中的芯片。移动设备可以包括车辆、飞机等可以通过人的操作移动空间位置的设备。该方法包括:获取车载摄像头拍摄的图像;基于该图像和轮速计信息确定第一泊车状态;在预存的多个超声波雷达的收发状态参数集合中,确定与该第一泊车状态对应的第一收发状态参数,该第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种;利用该第一收发状态参数获取多个超声波雷达得到的数据进行泊车。
第二方面提供的数据处理的方法,根据泊车时不同的精度要求,预先配置或者预定义多个超声波雷达的收发状态参数集合,根据不同的泊车状态确定对应的多个超声波雷达的收发状态参数。利用该多个超声波雷达的收发状态参数获取多个超声波雷达得到的数据进行泊车,可以提升泊车精度和成功率。
可选的,多个超声波雷达的收发状态参数集合、多个超声波雷达的收发状态参数与泊车状态之间的对应关系可以是预先配置或者预定义的。
在第二方面一种可能的实现方式中,该第一泊车状态为车位搜寻状态或者非车辆泊入状态时的其他泊车状态时,该多个超声波雷达的收发状态参数为单发单收。该第一泊车状态为车辆泊入状态时,该多个超声波雷达的收发状态参数为单发多收或者多发多收。
在第二方面一种可能的实现方式中,该方法还可以包括:确定待检测目标;根据该待检测目标在该图像中的位置确定该待检测目标在该图像中对应的特征区域;在预存的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵;根据该第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果。
可选的,可以根据待检测目标距离车体的不同距离,确定不同的特征区域。
在第二方面一种可能的实现方式中,该第一泊车状态为该车位搜寻状态时,该第一单应性矩阵为远端单应性矩阵,该待检测目标在该图像中对应的特征区域为第一特征区域;该第一泊车状态为该车辆泊入状态时,该第一单应性矩阵为近端单应性矩阵,该待检测目标在该图像中对应的特征区域为第二特征区域;其中,第一特征区域内的待检测目标距离车体的距离大于第二特征区域内的待检测目标距离车体的距离。
可选的,可以根据待检测目标距离车体的不同距离,确定不同的特征区域。
在第二方面一种可能的实现方式中,该方法还包括:根据不同的泊车环境,调整该特征区域的大小。
在第二方面一种可能的实现方式中,该泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境中的至少一种。
可选的,待检测目标包括车位、障碍物等。
可选的,在确定了泊车状态对应的特征区域后,由于此时对于车载环视图中其他区域并没有检测要求,可以降低其他区域图像的分辨率或者直接不输出其他区域的图像,将车载芯片的算力开销用于特征区域的单应性矩阵的参数配置及图像的生成。
可选的,在得到车载环视图后,可以基于神经网络确定车载环视图中的待检测目标的位置等信息。
可选的,可以根据车载环视图(图像)、轮速计信息、车姿信息、车辆规划控制等信息,确定第一泊车状态。
可选的,单应性矩阵集合、单应性矩阵与泊车状态之间的对应关系可以是预先配置或者预定义的。
第三方面,提供了一种数据处理的装置,该装置包括用于执行以上第一方面或第一方面的任意可能的实现方式中的各个步骤的单元或者模块。例如,该装置包括:传感器感知模块和路径规划模块。
第四方面,提供了一种数据处理的装置,该装置包括用于执行以上第二方面或第二方面的任意可能的实现方式中的各个步骤的单元或者模块。例如,该装置包括:传感器感知模块和路径规划模块。
第五方面,提供了一种数据处理的装置,该装置包括至少一个处理器和存储器,该至少一个处理器用于执行以上第一方面或第一方面的任意可能的实现方式中的方法。
第六方面,提供了一种数据处理的装置,该装置包括至少一个处理器和存储器,该至少一个处理器用于执行以上第二方面或第二方面的任意可能的实现方式中的方法。
第七方面,提供了一种数据处理的装置,该装置包括至少一个处理器和接口电路,该至少一个处理器用于执行以上第一方面或第一方面的任意可能的实现方式中的方法。
第八方面,提供了一种数据处理的装置,该装置包括至少一个处理器和接口电路,该至少一个处理器用于执行以上第二方面或第二方面的任意可能的实现方式中的方法。
第九方面,提供了一种移动设备,该移动设备包括:上述第三方面、第五方面或者第七方面提供的数据处理的装置,和/或,上述第四方面、第六方面或者第八方面提供的数据处理的装置。可选的,移动设备可以为汽车、飞机等。
第十方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序在被处理器执行时,用于执行第一方面或第一方面的任意可能的实现方式中的方法,或者执行第二方面或第二方面的任意可能的实现方式中的方法。
第十一方面,提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当该计算机程序被执行时,用于执行第一方面或第一方面的任意可能的实现方式中的方法,或者执行第二方面或第二方面的任意可能的实现方式中的方法。
第十二方面,提供了一种芯片或者集成电路,该芯片或者集成电路包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有该芯片或者集成电路的设备执行第一方面或第一方面的任意可能的实现方式中的方法,或者执行第二方面或第二方面的任意可能的实现方式中的方法。可选的,该芯片可以为车载处理器中的芯片。
本申请实施例提供的数据处理的方法和装置,在泊车场景中,通过预先配置或者预定义多个单应性矩阵,不同的单应性矩阵对应着车载摄像头获取的图像中的不同区域。在确定泊车状态后,利用该泊车状态对应的特定的单应性矩阵,对该泊车状态对应的待检测目标在车载摄像头获取的图像中的特征区域的图像信息进行处理,从而得到检测结果,基于检测结果进行泊车。在同等算力和性能开销下,对不同的泊车状态对应的图像中的待检测目标所在的区域可以进行更好的参数约束,提高该区域的检测精度以及位置精度,提升泊车成功率。
附图说明
图1是安装在车身周围的4个鱼眼摄像机拍摄的分别拍摄到的图片。
图2是在车载中控大屏上显示的车辆周边环境全景俯视图(车载环视图)。
图3是车载环视图中的不同区域的示意图。
图4是利用神经网络检测车载环视图中的车位的示意图。
图5是安装在车体周围的12个超声波雷达的示意图。
图6是本申请实施例提供的一例数据处理的方法的示意性流程图。
图7是本申请实施例提供的一例侧方车位时的车辆搜寻过程的示意图。
图8是本申请实施例提供的一例后方车位时车辆泊入过程的示意图。
图9是本申请实施例提供的另一例数据处理的方法的示意性流程图。
图10是本申请实施例提供的一例斜向车位、雨天情况下特征区域的示意图。
图11是本申请实施例提供的一例斜向车位、晴天情况下特征区域的示意图。
图12是本申请实施例提供的另一例数据处理的方法的示意性流程图。
图13是本申请实施例提供的又一例数据处理的方法的示意性流程图。
图14是本申请实施例提供的数据处理的装置的示意性框图。
图15是本申请实施例提供的另一例数据处理的装置的示意性框图。
图16是本申请实施例提供的又一例数据处理的装置的示意性框图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
另外,本申请的各个方面或特征可以实现成方法、装置或使用标准编程和/或工程技术的制品。本申请中使用的术语“制品”涵盖可从任何计算机可读器件、载体或介质访问的计算机程序。例如,计算机可读介质可以包括,但不限于:磁存储器件(例如,硬盘、软盘或磁带等),光盘(例如,压缩盘(compact disc,CD)、数字通用盘(digital versatile disc,DVD)等),智能卡和闪存器件(例如,可擦写可编程只读存储器(erasable programmableread-only memory,EPROM)、卡、棒或钥匙驱动器等)。另外,本文描述的各种存储介质可代表用于存储信息的一个或多个设备和/或其它机器可读介质。术语“机器可读介质”可包括但不限于,无线信道和能够存储、包含和/或承载指令和/或数据的各种其它介质。
随着科技的进步和人工智能的发展,人们对汽车驾驶的智能网联水平,以及汽车智能辅助驾驶的期望越来越高,由此而诞生了各种各样的汽车智能辅助驾驶功能,例如车载环视***等。车载环视***是通过全景环视摄像头,用户可以360°全方位无死角的在车载中控大屏上观看车辆周边环境全景俯视图,以保障行车安全。
车载环视***的工作原理是:通过多个安装在车身不同位置的广角摄像机(例如鱼眼摄像机)分别进行拍摄,从而得到汽车前后左右多个不同方位视角的图像,然后将这些图像拼接起来得到全景环视图像。例如,图1所示的为安装在车身周围的4个鱼眼摄像机拍摄的分别拍摄到的图片。图2所示的为在车载中控大屏上显示的车辆周边环境全景俯视图。
目前,车载环视图(或者也可以称为全景俯视图)的生成步骤主要包括:
畸变校正:通过对鱼眼摄像机进行标定,得到鱼眼摄像机的内参及畸变系数,及相对于标定物的外参。根据得到的参数及鱼眼畸变模型通过校正方法得到校正过后的鱼眼摄像机拍摄的图片。其中,相机的标定指相机通过拍摄特定的位置不同的标定物(如黑白棋盘格),得到相机的内参,畸变参数及外参等相机信息的过程。
俯视变换:通过求解单应性矩阵完成俯视变换,得到校正后的鱼眼摄像机图片对应的俯视图片。
全景拼接:通过四路俯视图中重合区的对应图像关系,依靠图像的融合拼接算法将四路鱼眼摄像机俯视图进行图像拼接,得到环视图。
车载环视图的生成整个流程为从鱼眼摄像机原始图片到环视图的像素坐标转换,通过该流程可以得到鱼眼摄像机原始图片到俯视图图片的像素映射关系。
其中,在计算机视觉中,平面的单应性被定义为一个平面到另外一个平面的投影映射。通过原图及目标图上的四组对应点,可以求解得到对应的单应性矩阵,完成图像的透视变换。可以理解,如果在原图上选择的四个特征点一旦确定,则这四个特征点对应的单应性矩阵也就随之确定,利用这个单应性矩阵,便可以实现原图上的像素点到目标图上对应的像素点的映射。在原图上选择的特征点不同,构造出的单应性矩阵也就不同。
在车载环视***中,通过车载摄像头拍摄的原图像上四组以上特征点的图像坐标,和在目标图像上对应特征点的世界位置坐标,构造单应性矩阵完成俯视变换。并且,由于基于车载环视图的测距是通过相机外参的标定,在经过俯视变换以及全景拼接后,还可得到车载环视图上每一个像素点对应的真实世界中的位置信息。
图3所示的为得到的车载环视图中的不同区域的示意图。如图3所示的,一共包括8个区域,8个区域的相对位置为车辆的位置,8个区域分别为左前、前、右前、左、右、左后、后、右后。其中,前区域、左区域、后区域、右区域由分别由安装在车体前、左、后、右位置上的鱼眼摄像机拍摄的图片进行俯视变换后得到,对于重合区域左前,由左摄像机和前摄像机拍摄的图片进行俯视变换及拼接得到。重合区域左后,由左摄像机和后摄像机拍摄的图片进行俯视变换及拼接得到。重合区域右前,由右摄像机和前摄像机拍摄的图片进行俯视变换及拼接得到。重合区域右后,由右摄像机和后摄像机拍摄的图片进行俯视变换及拼接得到。对于每个鱼眼摄像机,均采用一个单应性矩阵进行俯视变换。由于单个单应性矩阵只对标定时选择的四个特征点所在的平面具有良好的精度。目前,对于鱼眼摄像机拍摄的图片,均利用图像近端的四个特征点确定单应性矩阵,利用这个单应性矩阵完成这个鱼眼摄像机得到的整个图片的俯视转换。
在得到车载环视图后,还可以进一步的基于神经网络检测车载环视图中目标对象,目标对象可以包括停车位标记、地锁、路沿等。例如,在自动泊车场景下,神经网络的目标检测对象之一为停车位标记,通过检测到的车载环视图中的停车位标记及后处理可以得到车位信息。停车位标记是指在地面上绘制的图形,用于指示停车的有效区域。基于停车位标记的方法,通过识别安装在车辆上的摄像机获取的图像序列中的可视停车位标记来找到停车位,因此其性能不依赖于相邻车辆的存在或姿态。例如,图4中的(a)图为利用神经网络检测车载环视图中的后方车位的示意图。图4中的(b)图为利用神经网络检测车载环视图中的侧方车位的示意图。
神经网络在车载环视图中上的检测结果,表示检测目标在图上的位置。通过车载环视***可以得到图片像素坐标与真实世界坐标的关系,可以得到检测目标(例如车位)在真实世界中的位置。
除了识别停车位之外,根据神经网络的样本集的不同,神经网络可以依据不同的样本集得到不同的训练模型,对不同的目标进行检测,得到相应的检测结果。例如,障碍物的检测、人的检测、其他物体的检测等。
通常,车载芯片中的车载传感器感知模块基于环视图,利用神经网络进行停车位或者障碍物等的检测。车载传感器与车载芯片通过物理电路连接。车载传感器例如包括车载摄像机(或者也可以称为摄像头)、车载雷达等。神经网络可以得到检测目标的种类以及检测目标在环视图中的图像位置信息。通过图像坐标与世界坐标的转换(车载环视***中可以得到对应的转换关系),输出检测到的车位以及其世界位置信息。传感器感知模块将车位及其世界位置信息传递给车载芯片中的路径规划模块。路径规划模块即可根据得到的车位信息进行泊车路径规划。在泊车过程中,根据事先规划好的路径,轮速计及传感器感知模块输出的实时信息,可以实时得到泊车状态信息。其中,泊车状态信息指的是在自动泊车中,不同的泊车过程,如车位搜寻过程,车辆泊入过程等等。从而进行自动泊车。
可见,泊车时车辆路径的规划精度决定于传感器感知模块输出的目标种类及位置信息的准确度。而对于不同的泊车状态,待检测目标(例如车位、障碍物等)在环视图中的区域(或者位置)是不同的,待检测目标在环视图中所在的区域可以称为特征区域或者敏感区域。即不同的泊车状态对应的特征区域是不同的,对于某一个特定的泊车状态,对与该泊车状态对应的特征区域具有较高的检测精度的要求。但是,目前对于车载环视***中环视图而言,一个车载摄像头仅采用一个单应性矩阵进行俯视变换。这个单应性矩阵在标定时是采用图像近端的四个特征点确定的,只对标定时的特征点所在的平面具有较好的精度,即对图像近端具有较好的精度,对于图像远端的精度很差,造成对于图像远端的测距的误差较大。并且,同时由于标定时地面平整度、相机畸变、泊车环境等的影响,实际使用中单个单应性矩阵的参数配置对重合区和远端的标定结果都不理想。也就是说,对于不同的泊车状态,其对应的单应性矩阵是相同的,不能满足不同泊车状态对于不同特征区域的检测精度要求。例如,当停车位在环视图中远端时,由于环视图是利用图像近端的四个特征点确定单应性矩阵进行处理的,因此,对于图像远端的精度很差,会造成停车精度较差,会严重的影响了传感器感知模块输出的目标种类及位置信息的准确度,从而造成泊车精度的降低。
除了上述的鱼眼摄像机外,在车身上还可以安装多个车载超声波雷达,例如,如图5所示的通过安装在车体周围的12个超声波雷达进行车体周围的障碍物检测等,常见的超声波雷达分为两种:
安装在汽车前后保险杠上的,用于测量前后障碍物的超声波泊车雷达,也可以称为超声波泊车辅助(ultrasonic parking assist,UPA)雷达。
安装在汽车侧向的车身上,用于测量侧方障碍物的超声波雷达,也可称为自动泊车辅助(Auto Parking Assist,APA)超声波雷达。
在泊车的过程中,主要使用车身后方的四个UPA超声波雷达进行泊车过程中车尾到障碍物的距离检测。在泊车的过程中,使用的车身后方的4个UPA雷达在倒车过程中实行单收单发的操作。表1所示的为泊车时车身后方的4个超声波雷达收发情况。表1中,TX表示发送,RX表示接收。即在同一时间,只有一个超声波雷达进行发送和接收,其他3个超声波雷达均不工作。换句话说,在泊车时,使车身后方的4个UPA雷达在同一时间只有一个开启并工作,剩余的三个处于关闭状态。其中,每个UPA超声波雷达收发时间约为40ms。
表1车尾超声波雷达编号以及收发情况
在泊车过程中在接近障碍物时对于距离精度有很高的要求,由于超声波为扇形波,单发单收会导致距离障碍物距离较近时,返回测距信息的实时性和准确性不能满足要求,从而也会造成泊车精度的降低。
基于上述问题,本申请提供了一种数据处理的方法,通过预先配置或者预定义多个单应性矩阵,不同的单应性矩阵对应不同的泊车状态,也就是说,不同的单应性矩阵对应着车载摄像头获取的图像中的不同区域。在确定泊车状态后,利用该泊车状态对应的特定的单应性矩阵,对该泊车状态对应的待检测目标在车载摄像头获取的图像中的特征区域的图像信息进行处理,从而得到检测结果,基于检测结果进行泊车。在同等算力和性能开销下,对不同的泊车状态对应的图像中的待检测目标所在的区域可以进行更好的参数约束,提高该区域的检测精度以及位置精度,提升泊车成功率。
本申请提供的数据处理的方法,可以应用在对于移动设备自动泊车的场景中。在本申请实施例中,移动设备可以包括车辆、飞机等可以通过人的操作移动空间位置的设备。本申请对于移动设备的具体形态不作限制。
下面结合图6详细说明本申请提供的数据处理的方法,图6是本申请一个实施例的数据处理的方法200的示意性流程图。
应理解,本申请提供的数据处理的方法的执行主体可以是集成在移动设备(以汽车为例)上的泊车装置,例如,该泊车装置可以为驾驶辅助装置、驾驶辅助模块(单元)或者驾驶辅助***,或者,该泊车装置可以集成在驾驶辅助装置、驾驶辅助模块(单元)或者驾驶辅助***中。或者,本申请提供的数据处理的方法的执行主体还可以是汽车上的芯片或者集成电路,例如,该芯片可以是车载处理器等中的芯片。或者,本申请提供的数据处理的方法的执行主体还可以是汽车,该汽车上集成有上述的芯片或者集成电路。
可选的,该驾驶辅助装置或者驾驶辅助***还可以包括:先进驾驶员辅助***(Advanced Driver Assistant System,ADAS)、自动驾驶(Autonomous Driving,AD)***、或者包括至少一个驾驶辅助功能的驾驶辅助***中的至少一个。本申请在此不作限制。作为示例而非限定,执行方法的执行主体也可以是应用于该驾驶辅助装置或者驾驶辅助***的芯片、芯片***、或处理器等。
还应理解,下文的描述中,将以汽车为例说明本申请提供的数据处理的方法。可以理解的是,该方法还可以应用在其他移动设备上。本申请在此不作限制。
如图6所示,图6中示出的方法200可以包括S210至S260。下面结合图6详细说明方法200中的各个步骤。
S210,获取车载摄像头拍摄的图像。
S220,确定待检测目标。
S230,根据该待检测目标在该图像中的位置确定该待检测目标在该图像中对应的特征区域。
S240。基于该图像和轮速计信息确定第一泊车状态。
S250,在预存的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵。
S260,根据该第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果。
在S210中,在车辆泊车的过程中,车载摄像头可以实时的拍摄车辆周围的图像。例如,图1所示为安装在车身周围的4个鱼眼摄像机拍摄的分别拍摄到的图片,获取该车载摄像头拍摄的图像(或者图片)后,利用预先配置好(或者默认的)的单应性矩阵对车载摄像头拍摄的图像进行俯视变换,得到摄像机图片对应的俯视图片,然后通过四路俯视图中重合区的对应图像关系,依靠图像的融合拼接算法将四路摄像机俯视图进行图像拼接,得到车载环视图。
在S220中,在得到车载环视图后,可以进一步基于神经网络确定车载环视图中的待检测目标,待检测目标可以包括停车为标记(车位)、障碍物(例如地锁、路沿等),本申请实施例对于待检测目标的具体类型不作限制。以停车为标记为例说明,通过检测到的车载环视图中的停车位标记及后处理可以得到车位信息。车位信息例如可以包括:车位类型(侧向车位或者后方车位等)、车位在图像中位置等。
在S230中,可以根据待检测目标(例如车位)在车载环视图中距离车体的距离,确定待检测目标(例如车位)在车载环视图中位置,进而确定待检测目标在该车载环视图中所在的特征区域,换句话说,不同的特征区域内的待检测目标距离车体的距离是不同的。在本申请实施例中,特征区域也可以称为敏感区域,敏感区域可以理解为不同的泊车状态中,传感器感知模块对于环视图中目标检测区域,即在该泊车状态中,检测目标(例如车位、障碍物等)集中在此敏感区域中。
由于不同的泊车状态对应的待检测目标在该图像(例如为车载环视图)中距离车体的距离是不同的。例如,当前泊车状态(即第一泊车状态)为车辆搜寻过程时,待检测目标在该图像(例如为车载环视图)中可能在右侧或者左侧距离车中轴2m距离的区域。当前泊车状态为车辆泊入状态时,待检测目标在该图像(例如为车载环视图)中可能在车体四周2m内的区域。换句话说,不同的泊车状态对应的待检测目标在该图像(例如为车载环视图)中的位置也是不同的,不同的泊车状态对应的待检测目标在该图像(例如为车载环视图)中所在的区域也是不同的。因此,不同的泊车状态对应的特征区域是不同的,在泊车状态发生变化时,对应的特征区域也会发生变化,因而对应的单应性矩阵也会发生变化。
在S240中,根据该车载环视图、轮速计信息、车姿信息、车辆规划控制等信息,可以确定泊车状态(第一泊车状态)。可选的,第一泊车状态可以为车位搜寻状态或者车辆泊入状态。应该理解,在本申请实施例中,第一泊车状态还可以为更多种其他的泊车状态,例如,远端车位搜寻状态、近端车位搜寻状态等。本申请实施例在此不作限制。
在S250中,可以在预存的或者预定义的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵。其中,单应性矩阵集合包括多个单应性矩阵,不同的泊车状态对应不同的单应性矩阵。由于不同的泊车状态对应的待检测目标在该图像(例如为车载环视图)中距离车体的距离是不同的,换句话说,可以根据待检测目标距离车体的不同距离,确定不同的特征区域。例如,第一泊车状态对应第一单应性矩阵,在第一泊车状态时,待检测目标在该图像(例如为车载环视图)中距离车体的距离为L1,待检测目标在该图像中所在的区域为第一特征区域。第二泊车状态对应第二单应性矩阵,在第二泊车状态时,待检测目标在该图像(例如为车载环视图)中距离车体的距离为L2,待检测目标在该图像中所在的区域为第二特征区域其中,L1不等于L2。即不同的特征区对应不同的单应性矩阵。可选的,该图像(例如车载环视图)中可以包括多个特征区域。
例如,在自动泊车场景中,泊车***对于距离车体不同位置的区域有着不同的感知精度需求。假设将该车载环视图分成不同的区域,每一个区域在该车载环视图中距离车体的距离是不同的。即对于车身的多个摄像机进行俯视变换后的图像,和车体距离不同的区域,是通过不同区域内的特征点标定得到不同的单应性矩阵。在确定了待检测目标(例如车位)在该车载环视图中所在的特征区域后,可以进一步确定泊车状态,从而可以确定泊车状态对应的单应性矩阵,即确定了该特征区域对应的单应性矩阵。例如,车辆泊入状态对应的特征区域为距离车体较近的距离(小于或者等于预设的阈值)区域,车辆泊入状态对应近端单应性矩阵。车位搜寻过程对应的特征区域为距离车体较远的距离(大于预设的阈值)区域,车位搜寻过程对应远端端单应性矩阵。应该理解的是,在本申请实施例中,还以存在其他更多种不同的泊车状态,不同的泊车状态对应的特征区域在车载环视图中与车体的距离不同。换句话说,可以将车载环视图划分为更多个特征区域,每一个特征区域对应不同的单应性矩阵。
由于车载环视图是由多个摄像头拍摄的图像经过俯视变换和全景拼接得到的,即对于每个摄像头拍摄的图像而言,在该图像中和车体距离不同的区域通过不同区域内的特征点标定得到不同的单应性矩阵。换句话说,不同区域可以利用不同的单应性矩阵进行俯视变换。不同的单应性矩阵在确定时,在摄像头拍摄的图像上选择的特征点也是不同的,例如,对于一个摄像头拍摄的图像而言,可以利用图像近端的四个特征点确定近端单应性矩阵,利用图像远端端的四个特征点确定远端单应性矩阵。应该理解,根据精度要求可以对该图像中与车体的距离进行更多划分,即每个摄像头可以对应两个以上的更多的单应性矩阵,利用该多个单应性矩阵对该摄像头拍摄的图像中的不同区域进行处理。
在S260中,在确定了与第一泊车状态对应的第一单应性矩阵后,可以利用该第一单应性矩阵对第一特征区域内的图像信息进行处理得到检测结果,第一特征区域可以理解为第一泊车状态对应的待检测目标在车载环视图中所在的区域。例如,利用第一该单应性矩阵对该第一特征区域的图像进行俯视变换,得到对应的俯视图片,然后通过四路俯视图中重合区的对应图像关系,依靠图像的融合拼接算法将四路摄像机俯视图进行图像拼接,得到新的车载环视图。基于该新的车载环视图,利用神经网络检测该新的车载环视图中车位以及障碍物等,进行泊车路径规划以及后续的泊车。
本申请提供的数据处理的方法,根据泊车时不同的精度要求,预先配置或者预定义多个单应性矩阵,不同的单应性矩阵对应不同的泊车状态,在确定泊车状态后,利用该泊车状态对应的特定的单应性矩阵,对该泊车状态对应的待检测目标在图像中的特征区域的图像信息进行处理,从而得到检测结果。对图像中的待检测目标所在的特征区域可以进行更好的参数约束,提高该特征区域的检测精度以及位置精度,从而可以提升泊车成功率。
应该理解,在本申请实施例中,在确定了泊车状态对应的特征区域后,由于此时对于环视图中其他区域并没有检测要求,可以降低其他区域图像的分辨率或者直接不输出其他区域的图像,将车载芯片的算力开销用于特征区域的单应性矩阵的参数配置及图像的生成。
下面结合具体的例子进行说明。
在泊车过程中,车载芯片中的传感器感知模块检测到泊车过程中的检测目标(例如车位、障碍物等)时,输出检测信息到车载芯片中的路径规划模块,检测信息包括目标种类和世界位置等。例如,传感器感知模块基于车载环视***生成的环视图,通过预先训练好的神经网络模型,可以针对环视图中的停车位进行检测。利用神经网络可以得到检测目标的种类以及检测目标在环视图中的图像位置信息。通过图像坐标与世界坐标的转换,输出检测到的车位以及其世界位置信息给路径规划模块。
路径规划模块获取当前泊车状态信息,例如为车位搜寻过程或者车辆泊入过程等。例如、路径规划模块可以根据来自于轮速计的信息、车位以及其世界位置信息、车辆规划控制或者其他信息来源,确定当前泊车状态信息。并将泊车状态信息发送给传感器感知模块。
传感器感知模块接收该泊车状态信息,根据不同的泊车状态信息,动态配置不同的单应性矩阵,同时根据配置后的单应性矩阵输出检测结果给路径规划模块。
例如,如果车辆在车位一侧行驶时,路径规划模块判断当前泊车状态为车辆搜寻过程,如图7所示的,图7所示的为侧方车位时的车辆搜寻过程的示意图。在这种情况下,传感器感知模块检测到车位在车体右侧并将特征区域(也可以称为敏感区域)定为右侧距离车中轴1~3m距离的区域(如图7内白框所示),单应性矩阵配置为该车辆搜寻过程对应的单应性矩阵。同时提高该特征区域图像分辨率。除该特征区域外的其他区域,降低分辨率或者不输出其图像,直到该泊车状态解除。
车辆在选择完停车位后,路径规划模块判断当前泊车状态为车辆泊入过程。此时传感器感知模块检测到泊入车位为该车位,如图8所示的,图8所示的为后方车位时车辆泊入过程的示意图。传感器感知模块将特征区域定为车体四周2m内的区域(如图8中的白框所示),单应性矩阵配置为该车辆泊入过程对应的单应性矩阵,同时提高该特征区域分辨率。除该特征区域外的其他区域,降低分辨率或者不输出其图像,直到该泊车状态解除。
可选的,在本申请实施例中,可以将车载环视图划分为多个不同的特征区域,任意两个特征区域内分别存在的待检测目标距离车体距离不相同。假设根据精度要求,将车载环视图分为第一特征区域和第二特征区域,第一特征区域内的待检测目标距离车体的距离大于第二特征区域内的待检测目标距离车体的距离。当该泊车状态为车位搜寻状态时,待检测目标在该图像中的特征区域为第一特征区域,车位搜寻状态对应远端单应性矩阵。当该泊车状态为车辆泊入状态时,待检测目标在该图像中的特征区域为第二特征区域,车辆泊入状态对应远端单应性矩阵。即该第一特征区域对应远端单应性矩阵,该第二特征区域对应近端单应性矩阵。例如,上述的例子中,图7中白红框所示特征区域的可以为第一特征区域,图8中的白框所示特征区域可以为第二特征区域。不同的特征区域对应不同的单应性矩阵。
本申请提供的数据处理的方法。根据泊车状态的不同进行动态的单应性矩阵配置,在泊车过程中根据泊车状态的不同启用一个单应性矩阵进行图像处理,并且,可以降低其他区域图像的分辨率或者直接不输出其他区域的图像,降低车载芯片的算力开销及能耗,提高计算效率。
在本申请一些可能的实现方式中,如图9所示的,图9是本申请一些实施例中的数据处理的方法的示意性流程图,在图6所示的方法步骤的基础上,该方法200还包括:S231。
S231,根据不同的泊车环境,调整该特征区域的大小。
图9所示的步骤S210至S260可以参考上述对S210至S260的相关描述,为了简洁,这里不再赘述。
具体而言,例如,车载芯片中传感器感知模块可以得到的不同泊车环境。可选的,在本申请实施例中,该泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境以及其他类型的泊车环境中的至少一种。传感器感知模块可以根据不同泊车环境,动态调节特征区域的范围及大小。在根据泊车状态确定单应性矩阵后,利用该单应性矩阵对该特征区域中的图像信息进行处理,得到检测结果。例如包括车位类型和世界位置信息等,根据该检测结果进行泊车。
下面以不同天气下情况下,泊车状态为车位搜寻过程为例进行说明。
如图10所示的为斜向车位,路径规划模块判断当前泊车状态信息为车位搜寻过程,传感器感知模块判断天气情况为雨天,此时将特征区域调整为右侧距离车中轴1~4m的区域内。
如图11所示的为与图10相同的斜向车位,当路径规划模块判断当前泊车状态信息为车位搜寻过程,传感器感知模块判断天气情况为晴天,此时将特征区域调整为右侧距离车中轴1.2~3m的区域内。
通过根据不同的泊车环境,调整该特征区域的大小,可以得到更高的检测精度以及位置精度,进一步的提高泊车精度。
在本申请一些可能的实现方式中,如图12所示的,图12是本申请一些实施例中的数据处理的方法的示意性流程图,在图6所示的方法步骤的基础上,该方法200还包括:S270。
S270,在预存的多个超声波雷达的收发状态参数集合中,确定与该第一泊车状态对应的第一收发状态参数,该第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种。
图12所示的步骤S210至S260可以参考上述对S210至S260的相关描述,为了简洁,这里不再赘述。
由于在车身上可以安装多个车载超声波雷达,在泊车的过程中,主要使用车身后方的四个UPA超声波雷达进行泊车过程中车尾到障碍物的距离检测。在泊车时,车身后方的4个UPA雷达在同一时间只有一个开启并工作,即为单发单收的工作状态。在泊车接近障碍物时对于距离精度有很高的要求,由于超声波为扇形波,单发单收会导致距离障碍物距离较近时,返回测距信息的实时性和准确性不能满足要求,从而也会造成泊车精度的降低。
因此,在S270中,在确定了当前的泊车状态(即第一泊车状态)后,可以在预存的多个超声波雷达的收发状态参数集合中,确定与当前泊车状态对应的多个超声波雷达的第一收发状态参数。可选的,多个超声波雷达可以为车身后方的4个UPA雷达。该多个超声波雷达的收发状态参数集合中包括:单发多收、单发单收以及多发多收。第一收发状态参数可以为:单发多收、单发单收或者多发多收中的任意一种。之后,便可以利用该第一收发状态参数获取多个超声波雷达得到的数据或者信息,根据该数据或者信息进行泊车。
其中,单发多收可以理解为:同一时间,有一个超声波雷达进行发送和接收,其他多个超声波雷达进行接收。单发单收可以理解为:同一时间,有一个超声波雷达进行发送和接收。多发多收可以理解为:同一时间,有多个超声波雷达进行发送和接收。
例如,假设车身后方有4个UPA雷达,不同的泊车状态对应4个UPA雷达的不同收发状态。表2所示的为一例车身后方的4个超声波雷达单发多收的情况。TX表示发送,RX表示接收。
表2车尾超声波雷达编号以及收发情况
应该理解,表2只是示例性的示出了超声波雷达单发多收的情况,对超声波雷达的个数以及进行发送和接收的超声波雷达为哪一个超声波雷达不构成限制。
可选的,在本申请实施例中,泊车状态为车位搜寻状态或者非车辆泊入状态的其他泊车状态时,该多个超声波雷达的收发状态参数为单发单收。由于车位搜寻状态或者非车辆泊入状态的其他泊车状态对于距离精度不是很高,将多个超声波雷达的收发状态参数配置为单发单收,在满足泊车要求的情况下,可以降低算力开销。
泊车状态为车辆泊入状态时,该多个超声波雷达的收发状态参数为单发多收或者多发多收。由于车辆泊入状态对于距离精度比较高,将多个超声波雷达的收发状态参数配置为单发多收或者多发多收,可以短时间内加大功率,实现多个超声波的同时收发,增大实时信息传输量及距离精度,从而可以提高泊车精度。
应理解,多个超声波雷达的收发状态参数集合、多个超声波雷达的收发状态参数与泊车状态之间的对应关系可以是预先配置或者预定义的。
本申请提供的数据处理的方法,根据泊车时不同的精度要求,预先配置或者预定义单应性矩阵集合以及多个超声波雷达的收发状态参数集合。不同的单应性矩阵对应不同的泊车状态,不同的收发状态对应不同的泊车状态。在确定泊车状态后,利用该泊车状态对应的特定的单应性矩阵,对该泊车状态对应的待检测目标在图像中的特征区域的图像信息进行处理,从而得到检测结果。并且,利用该泊车状态对应的多个超声波雷达的收发状态参数得到多个超声波雷达的数据,根据该检测结果和多个超声波雷达的数据进行泊车,可以提升泊车精度和成功率。
本申请还提供了一种数据处理的方法,下面结合图13详细说明本申请提供的数据处理的方法,图13是本申请一个实施例的数据处理的方法300的示意性流程图。
如图13所示,图13中示出的方法300可以包括S310至S340。下面结合图13详细说明方法300中的各个步骤。
S310,获取车载摄像头拍摄的图像。
S320,基于该图像和轮速计信息确定第一泊车状态。
S330,在预存的多个超声波雷达的收发状态参数集合中,确定与该第一泊车状态对应的第一收发状态参数,该第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种。
S340,利用该第一收发状态参数获取多个超声波雷达得到的数据进行泊车。
本申请提供的数据处理的方法,根据泊车时不同的精度要求,预先配置或者预定义多个超声波雷达的收发状态参数集合,根据不同的泊车状态确定对应的多个超声波雷达的收发状态参数。利用该多个超声波雷达的收发状态参数获取多个超声波雷达得到的数据进行泊车,可以提升泊车精度和成功率。
应理解,多个超声波雷达的收发状态参数集合、多个超声波雷达的收发状态参数与泊车状态之间的对应关系可以是预先配置或者预定义的。
可选的,在本申请实施例中,该第一泊车状态为车位搜寻状态或者非车辆泊入状态时的其他泊车状态时,该多个超声波雷达的收发状态参数为单发单收。
该第一泊车状态为车辆泊入状态时,该多个超声波雷达的收发状态参数为单发多收或者多发多收。
对于S310至S340的具体描述,可以参考方法200中对于S210、S240、以及S270的描述,为了简洁,这里不再赘述。
可选的,该方法300还可以包括:
确定待检测目标;
根据该待检测目标在该图像中的位置确定该待检测目标在该图像中对应的特征区域;
在预存的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵。
根据该第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果。
可选的,作为一种可能的实现方式,该第一泊车状态为该车位搜寻状态时,该第一单应性矩阵为远端单应性矩阵,该待检测目标在该图像中对应的特征区域为第一特征区域;
该第一泊车状态为该车辆泊入状态时,该第一单应性矩阵为近端单应性矩阵,该待检测目标在该图像中对应的特征区域为第二特征区域;
第一特征区域内的待检测目标距离车体的距离大于第二特征区域内的待检测目标距离车体的距离。
可选的,作为一种可能的实现方式,该方法300还包括:
根据不同的泊车环境,调整该特征区域的大小。
可选的,作为一种可能的实现方式,该泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境中的至少一种。
应理解,上述各个可能的实现方式的具体描述可以参考方法200中相关的实施例中的描述,为了简洁,这里不再赘述。
还应理解,上述只是为了帮助本领域技术人员更好地理解本申请实施例,而非要限制本申请实施例的范围。本领域技术人员根据所给出的上述示例,显然可以进行各种等价的修改或变化,例如,上述方法200和方法300的各个实施例中某些步骤可以是不必须的,或者可以新加入某些步骤等。或者上述任意两种或者任意多种实施例的组合。这样的修改、变化或者组合后的方案也落入本申请实施例的范围内。
还应理解,上文对本申请实施例的描述着重于强调各个实施例之间的不同之处,未提到的相同或相似之处可以互相参考,为了简洁,这里不再赘述。
还应理解,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
还应理解,本申请实施例中,“预先设定”、“预先定义”可以通过在设备(例如,包括终端和网络设备)中预先保存相应的代码、表格或其他可用于指示相关信息的方式来实现,本申请对于其具体的实现方式不做限定。
还应理解,本申请实施例中的方式、情况、类别以及实施例的划分仅是为了描述的方便,不应构成特别的限定,各种方式、类别、情况以及实施例中的特征在不矛盾的情况下可以相结合。
还应理解,在本申请的各个实施例中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述具有一致性、且可以相互引用,不同的实施例中的技术特征根据其内在的逻辑关系可以组合形成新的实施例。
以上结合图1至图13对本申请实施例的数据处理的方法做了详细说明。以下,结合图14至图16对本申请实施例数据处理的装置进行详细说明。
图14示出了本申请实施例的数据处理的装置400的示意性框图,该装置400可以对应上述方法200或者方法300描述的移动设备(例如汽车),也可以是应用于移动设备上的芯片、组件、集成电路、车载处理器等中的芯片等。并且,该装置400中各模块或单元分别用于执行上述方法200或者方法300中所执行的各动作或处理过程。
如图14所示,该装置400包括处理模块(单元)410,可选的,该装置还可以包括收发模块(单元)420,收发模块420用于在处理模块410的驱动下执行具体的信号收发。
在一种可能的实现方式中,处理模块410用于:
获取车载摄像头拍摄的图像;
确定待检测目标;
根据该待检测目标在该图像中的位置确定该待检测目标在该图像中对应的特征区域;
基于该图像和轮速计信息确定第一泊车状态;
在预存的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵;
根据该第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果。
本申请提供的数据处理的装置,根据泊车时不同的精度要求,预先配置或者预定义多个单应性矩阵,不同的单应性矩阵对应不同的泊车状态,在确定泊车状态后,利用该泊车状态对应的特定的单应性矩阵,对该泊车状态对应的待检测目标在图像中的特征区域的图像信息进行处理,从而得到检测结果。对图像中的待检测目标所在的特征区域可以进行更好的参数约束,提高该特征区域的检测精度以及位置精度,从而可以提升泊车成功率。
可选的,在本申请的一些实施例中,该处理模块410还用于:
在预存的多个超声波雷达的收发状态参数集合中,确定与该第一泊车状态对应的第一收发状态参数,该第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种。
可选的,在本申请的一些实施例中,该第一泊车状态为车位搜寻状态或者车辆泊入状态。
可选的,在本申请的一些实施例中,该第一泊车状态为该车位搜寻状态时,该第一单应性矩阵为远端单应性矩阵,该待检测目标在该图像中对应的特征区域为第一特征区域;
该第一泊车状态为该车辆泊入状态时,该第一单应性矩阵为近端单应性矩阵,该待检测目标在该图像中对应的特征区域为第二特征区域;
其中,第一特征区域内的待检测目标距离车体的距离大于第二特征区域内的待检测目标距离车体的距离。
可选的,在本申请的一些实施例中,该第一泊车状态为车位搜寻状态时,该第一收发状态参数为单发单收;
该第一泊车状态为车辆泊入状态时,该多第一收发状态参数为单发多收或者多发多收。
可选的,在本申请的一些实施例中,该处理模块410还用于:
根据不同的泊车环境,调整该特征区域的大小。
可选的,在本申请的一些实施例中,该泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境中的至少一种。
在一种可能的实现方式中,处理模块410用于:
获取车载摄像头拍摄的图像。
基于该图像和轮速计信息确定第一泊车状态。
在预存的多个超声波雷达的收发状态参数集合中,确定与该第一泊车状态对应的第一收发状态参数,该第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种。
利用该第一收发状态参数获取多个超声波雷达得到的数据进行泊车。
本申请提供的数据处理的装置,根据泊车时不同的精度要求,预先配置或者预定义多个超声波雷达的收发状态参数集合,根据不同的泊车状态确定对应的多个超声波雷达的收发状态参数。利用该多个超声波雷达的收发状态参数获取多个超声波雷达得到的数据进行泊车,可以提升泊车精度和成功率。
可选的,在本申请的一些实施例中,该第一泊车状态为车位搜寻状态或者非车辆泊入状态时的其他泊车状态时,该多个超声波雷达的收发状态参数为单发单收。
该第一泊车状态为车辆泊入状态时,该多个超声波雷达的收发状态参数为单发多收或者多发多收。
可选的,在本申请的一些实施例中,该处理模块410还用于:
确定待检测目标;
根据该待检测目标在该图像中的位置确定该待检测目标在该图像中对应的特征区域;
在预存的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵。
根据该第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果。
可选的,作为一种可能的实现方式,该第一泊车状态为该车位搜寻状态时,该第一单应性矩阵为远端单应性矩阵,该待检测目标在该图像中对应的特征区域为第一特征区域;
该第一泊车状态为该车辆泊入状态时,该第一单应性矩阵为近端单应性矩阵,该待检测目标在该图像中对应的特征区域为第二特征区域;
其中,第一特征区域内的待检测目标距离车体的距离大于第二特征区域内的待检测目标距离车体的距离。
可选的,作为一种可能的实现方式,该处理模块410还用于:
根据不同的泊车环境,调整该特征区域的大小。
可选的,作为一种可能的实现方式,该泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境中的至少一种。
应理解,装置400中各模块(单元)执行上述相应步骤的具体过程请参照前文中结合方法200、和方法300以及图6至图13中相关实施例中的描述,为了简洁,这里不加赘述。
可选的,收发模块420可以包括接收模块(单元)和发送模块(单元),用于执行前述方法200和方法300中的各个实施例接收信息和发送信息的步骤。
进一步的,该装置400还可以该存储模块(单元)。收发模块420可以是收发器、输入/输出接口或接口电路。存储模块用于存储收发模块单元420和处理模块410执行的指令。收发模块420、处理模块510和存储模块相互耦合,存储模块存储指令,处理模块410用于执行存储模块存储的指令,收发模块420用于在处理模块410的驱动下执行具体的信号收发。
应理解,收发模块420可以是收发器、输入/输出接口或接口电路。存储模块可以是存储器。处理模块410可由处理器实现。如图15所示,该数据处理的装置500可以包括处理器610、存储器620和收发器630。
图14所示的数据处理的装置400或图15所示的数据处理的装置500能够实现前述方法200、方法300中的实施例以及图6至图13所示的实施例中执行的步骤。类似的描述可以参考前述对应的方法中的描述。为避免重复,这里不再赘述。
还应理解,图14所示的数据处理的装置400或图15所示的数据处理的装置500可以为集成在移动设备(例如汽车等)上的驾驶辅助装置或者驾驶辅助***,或者,还可以为移动设备上的芯片或者集成电路,例如,该芯片可以是车载处理器等中的芯片。该数据处理的装置上集成有上述的芯片或者集成电路等。本申请实施例在此不做限制。
图16示出了本申请实施例提供的另一例数据处理的装置600的示意性框图,该数据处理的装置600可以是应用于移动设备(例如汽车)上的芯片、组件、集成电路、车载处理器等中的芯片等。并且,该数据处理的装置600中各模块或单元分别用于执行上述方法200和方法300所执行的各动作或处理过程。
如图16所示,该数据处理的装置600包括传感器感知模块610和路径规划模块620。可选的,感器感知模块610和路径规划模块620可以集成在车载芯片上,感器感知模块610和路径规划模块620之间存在通信连接。
在一种可能的实现方式中,
传感器感知模块610用于:
获取车载摄像头拍摄的图像;
确定待检测目标;
根据该待检测目标在该图像中的位置确定待检测目标在该图像中对应的特征区域;
将该待检测目标在该图像中的位置、该图像发送给该路径规划模块620。
路径规划模块620用于:基于该图像和轮速计等信息确定第一泊车状态;
将该第一泊车状态发送给传感器感知模块610;
传感器感知模块610还用于:在预存的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵;
根据该第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果;
将该图像信息处理后得到检测结果发送给路径规划模块620;
路径规划模块620还用于:根据该图像信息处理后得到检测结果进行泊车路径规划。
本申请提供的数据处理的装置,根据泊车时不同的精度要求,预先配置或者预定义多个单应性矩阵,不同的单应性矩阵对应不同的泊车状态,路径规划模块在确定泊车状态后,将该泊车状态发送给感器感知模块,感器感知模块利用该泊车状态对应的特定的单应性矩阵,对该泊车状态对应的待检测目标在图像中的特征区域的图像信息进行处理,从而得到检测结果。路径规划模块可以检测结果进行泊车路径规划。因此,对图像中的待检测目标所在的特征区域可以进行更好的参数约束,提高该特征区域的检测精度以及位置精度,从而可以提升泊车成功率。
可选的,在本申请的一些实施例中,传感器感知模块610还用于:
在预存的多个超声波雷达的收发状态参数集合中,确定与该第一泊车状态对应的第一收发状态参数,该第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种。
可选的,在本申请的一些实施例中,该第一泊车状态为车位搜寻状态或者车辆泊入状态。
可选的,在本申请的一些实施例中,该第一泊车状态为该车位搜寻状态时,该第一单应性矩阵为远端单应性矩阵,该待检测目标在该图像中对应的特征区域为第一特征区域;
该第一泊车状态为该车辆泊入状态时,该第一单应性矩阵为近端单应性矩阵,该待检测目标在该图像中对应的特征区域为第二特征区域;
其中,第一特征区域内的待检测目标距离车体的距离大于第二特征区域内的待检测目标距离车体的距离。
可选的,在本申请的一些实施例中,该第一泊车状态为车位搜寻状态时,该第一收发状态参数为单发单收;
该第一泊车状态为车辆泊入状态时,该多第一收发状态参数为单发多收或者多发多收。
可选的,在本申请的一些实施例中,该传感器感知模块610还用于:
根据不同的泊车环境,调整该特征区域的大小。
可选的,在本申请的一些实施例中,该泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境中的至少一种。
在另一种可能的实现方式中,
传感器感知模块610还用于:
确定待检测目标;
根据该待检测目标在该图像中的位置确定该待检测目标在该图像中对应的特征区域;
将该待检测目标在该图像中的位置、该图像发送给该路径规划模块620;
传感器感知模块610还用于:在预存的单应性矩阵集合中,确定与该第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵;
根据该第一单应性矩阵对该特征区域的图像信息进行处理得到检测结果;
将该图像信息处理后得到检测结果发送给路径规划模块620;
路径规划模块620还用于:根据该图像信息处理后得到检测结果进行泊车路径规划。
应理解,装置600中各模块(单元)执行上述相应步骤的具体过程请参照前文中结合方法200以及方法300中相关实施例中的描述,为了简洁,这里不加赘述。
应理解,本申请实施例中,该处理器可以为中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random accessmemory,RAM)可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行该计算机指令或计算机程序时,全部或部分地产生按照本申请实施例的流程或功能。该计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
本申请实施例还提供了一种计算机可读介质,用于存储计算机程序代码,该计算机程序包括用于执行上述方法200或者方法300中本申请实施例的数据处理的方法的指令。该可读介质可以是只读存储器(read-only memory,ROM)或随机存取存储器(randomaccess memory,RAM),本申请实施例对此不做限制。
本申请还提供了一种计算机程序产品,该计算机程序产品包括指令,当该指令被执行时,以使得该数据处理的装置分别执行对应于上述方法200或者方法300中的操作。
本申请实施例还提供了一种***芯片,该***芯片包括:处理单元和通信单元,该处理单元,例如可以是处理器,该通信单元例如可以是输入/输出接口、管脚或电路等。该处理单元可执行计算机指令,以使该通信装置内的芯片执行上述本申请实施例提供的任一种数据处理的方法。
可选地,上述本申请实施例中提供的任意一种装置可以包括该***芯片。
可选地,该计算机指令被存储在存储单元中。
可选地,该存储单元为该芯片内的存储单元,如寄存器、缓存等,该存储单元还可以是该终端内的位于该芯片外部的存储单元,如ROM或可存储静态信息和指令的其他类型的静态存储设备,RAM等。其中,上述任一处提到的处理器,可以是一个CPU,微处理器,ASIC,或一个或多个用于控制上述的数据处理的方法的程序执行的集成电路。该处理单元和该存储单元可以解耦,分别设置在不同的物理设备上,通过有线或者无线的方式连接来实现该处理单元和该存储单元的各自的功能,以支持该***芯片实现上述实施例中的各种功能。或者,该处理单元和该存储器也可以耦合在同一个设备上。
可以理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random accessmemory,RAM)可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
在本申请中可能出现的对各种消息/信息/设备/网元/***/装置/动作/操作/流程/概念等各类客体进行了赋名,可以理解的是,这些具体的名称并不构成对相关客体的限定,所赋名称可随着场景,语境或者使用习惯等因素而变更,对本申请中技术术语的技术含义的理解,应主要从其在技术方案中所体现/执行的功能和技术效果来确定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (19)
1.一种数据处理的方法,其特征在于,包括:
获取车载摄像头拍摄的图像;
确定待检测目标;
根据所述待检测目标在所述图像中的位置确定所述待检测目标在所述图像中对应的特征区域;
基于所述图像和轮速计信息确定第一泊车状态;
在预存的单应性矩阵集合中,确定与所述第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵;
根据所述第一单应性矩阵对所述特征区域的图像信息进行处理得到检测结果。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在预存的多个超声波雷达的收发状态参数集合中,确定与所述第一泊车状态对应的第一收发状态参数,所述第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种。
3.根据权利要求2所述的方法,其特征在于,
所述第一泊车状态为车位搜寻状态或者车辆泊入状态。
4.根据权利要求3所述的方法,其特征在于,
所述第一泊车状态为所述车位搜寻状态时,所述第一单应性矩阵为远端单应性矩阵,所述待检测目标在所述图像中对应的特征区域为第一特征区域;
所述第一泊车状态为所述车辆泊入状态时,所述第一单应性矩阵为近端单应性矩阵,所述待检测目标在所述图像中对应的特征区域为第二特征区域;
其中,所述第一特征区域内的待检测目标距离车体的距离大于所述第二特征区域内的待检测目标距离车体的距离。
5.根据权利要求2至4中任一项所述的方法,其特征在于,
所述第一泊车状态为车位搜寻状态时,所述第一收发状态参数为单发单收;
所述第一泊车状态为车辆泊入状态时,所述第一收发状态参数为单发多收或者多发多收。
6.根据权利要求1至4中任一项所述的方法,其特征在于,所述方法还包括:
根据不同的泊车环境,调整所述特征区域的大小。
7.根据权利要求6所述的方法,其特征在于,
所述泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境中的至少一种。
8.根据权利要求1至4中任一项所述的方法,其特征在于,所述待检测目标包括:车位或者障碍物中的至少一种。
9.一种数据处理的装置,其特征在于,包括:处理模块,所述处理模块用于:
获取车载摄像头拍摄的图像;
确定待检测目标;
根据所述待检测目标在所述图像中的位置确定所述待检测目标在所述图像中对应的特征区域;
基于所述图像和轮速计信息确定第一泊车状态;
在预存的单应性矩阵集合中,确定与所述第一泊车状态对应的第一单应性矩阵,其中,不同的泊车状态对应不同的单应性矩阵;
根据所述第一单应性矩阵对所述特征区域的图像信息进行处理得到检测结果。
10.根据权利要求9所述的装置,其特征在于,所述处理模块还用于:
在预存的多个超声波雷达的收发状态参数集合中,确定与所述第一泊车状态对应的第一收发状态参数,所述第一收发状态参数为:单发多收、单发单收或者多发多收中任意一种。
11.根据权利要求10所述的装置,其特征在于,
所述第一泊车状态为车位搜寻状态或者车辆泊入状态。
12.根据权利要求11所述的装置,其特征在于,
所述第一泊车状态为所述车位搜寻状态时,所述第一单应性矩阵为远端单应性矩阵,所述待检测目标在所述图像中对应的特征区域为第一特征区域;
所述第一泊车状态为所述车辆泊入状态时,所述第一单应性矩阵为近端单应性矩阵,所述待检测目标在所述图像中对应的特征区域为第二特征区域;
其中,所述第一特征区域内的待检测目标距离车体的距离大于所述第二特征区域内的待检测目标距离车体的距离。
13.根据权利要求10至12中任一项所述的装置,其特征在于,
所述第一泊车状态为车位搜寻状态时,所述第一收发状态参数为单发单收;
所述第一泊车状态为车辆泊入状态时,所述第一收发状态参数为单发多收或者多发多收。
14.根据权利要求9至12中任一项所述的装置,其特征在于,所述处理模块还用于:
根据不同的泊车环境,调整所述特征区域的大小。
15.根据权利要求14所述的装置,其特征在于,
所述泊车环境包括:泊车时的天气情况、泊车时的地面情况、泊车时的车辆周围环境中的至少一种。
16.根据权利要求9至12中任一项所述的装置,其特征在于,所述待检测目标包括:车位或者障碍物中的至少一种。
17.一种数据处理的装置,其特征在于,所述装置包括至少一个处理器,所述至少一个处理器与至少一个存储器耦合:
所述至少一个处理器,用于执行所述至少一个存储器中存储的计算机程序或指令,以使得所述装置执行如权利要求1至8中任一项所述的数据处理的方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序或指令,当计算机读取并执行所述计算机程序或指令时,使得计算机执行如权利要求1至8中任一项所述的数据处理的方法。
19.一种芯片,其特征在于,包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行如权利要求1至8中任一项所述的数据处理的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010269727.5A CN113492829B (zh) | 2020-04-08 | 2020-04-08 | 数据处理的方法和装置 |
CN202210978848.6A CN115447568A (zh) | 2020-04-08 | 2020-04-08 | 数据处理的方法和装置 |
EP21785001.5A EP4119408A4 (en) | 2020-04-08 | 2021-03-01 | DATA PROCESSING METHOD AND DEVICE |
PCT/CN2021/078430 WO2021203868A1 (zh) | 2020-04-08 | 2021-03-01 | 数据处理的方法和装置 |
US17/960,494 US20230049561A1 (en) | 2020-04-08 | 2022-10-05 | Data processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010269727.5A CN113492829B (zh) | 2020-04-08 | 2020-04-08 | 数据处理的方法和装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210978848.6A Division CN115447568A (zh) | 2020-04-08 | 2020-04-08 | 数据处理的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113492829A CN113492829A (zh) | 2021-10-12 |
CN113492829B true CN113492829B (zh) | 2022-08-26 |
Family
ID=77995790
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210978848.6A Pending CN115447568A (zh) | 2020-04-08 | 2020-04-08 | 数据处理的方法和装置 |
CN202010269727.5A Active CN113492829B (zh) | 2020-04-08 | 2020-04-08 | 数据处理的方法和装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210978848.6A Pending CN115447568A (zh) | 2020-04-08 | 2020-04-08 | 数据处理的方法和装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230049561A1 (zh) |
EP (1) | EP4119408A4 (zh) |
CN (2) | CN115447568A (zh) |
WO (1) | WO2021203868A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112565730B (zh) * | 2020-12-03 | 2023-07-25 | 阿波罗智联(北京)科技有限公司 | 路侧感知方法、装置、电子设备、存储介质及路侧设备 |
CN115439783B (zh) * | 2022-09-01 | 2023-10-31 | 苏州思卡信息***有限公司 | 一种车辆识别和追踪的检测方法及设备 |
CN116620311B (zh) * | 2023-05-26 | 2024-05-03 | 广州汽车集团股份有限公司 | 泊车误差检测方法、装置、车辆及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109278742A (zh) * | 2018-09-06 | 2019-01-29 | 北京长城华冠汽车科技股份有限公司 | 车辆和自动泊车方法、*** |
CN109446909A (zh) * | 2018-09-27 | 2019-03-08 | 山东省科学院自动化研究所 | 一种单目测距辅助泊车***及方法 |
WO2019233286A1 (zh) * | 2018-06-05 | 2019-12-12 | 北京市商汤科技开发有限公司 | 视觉定位方法、装置、电子设备及*** |
CN110689761A (zh) * | 2019-12-11 | 2020-01-14 | 上海赫千电子科技有限公司 | 一种自动泊车方法 |
CN110705359A (zh) * | 2019-09-05 | 2020-01-17 | 北京智行者科技有限公司 | 一种车位检测方法 |
CN110696822A (zh) * | 2019-11-25 | 2020-01-17 | 安徽江淮汽车集团股份有限公司 | 自动泊车控制方法、装置、设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101143176B1 (ko) * | 2006-09-14 | 2012-05-08 | 주식회사 만도 | 조감도를 이용한 주차구획 인식 방법, 장치 및 그를 이용한주차 보조 시스템 |
KR20090088210A (ko) * | 2008-02-14 | 2009-08-19 | 주식회사 만도 | 두 개의 기준점을 이용한 목표주차위치 검출 방법과 장치및 그를 이용한 주차 보조 시스템 |
KR102227855B1 (ko) * | 2015-01-22 | 2021-03-15 | 현대모비스 주식회사 | 주차 가이드 시스템 및 그 제어방법 |
CN106846870A (zh) * | 2017-02-23 | 2017-06-13 | 重庆邮电大学 | 基于集中式视觉的停车场‑车辆协同的智能停车***及方法 |
CN107491738B (zh) * | 2017-07-25 | 2020-09-08 | 纵目科技(上海)股份有限公司 | 停车位检测方法及***、存储介质及电子设备 |
CN109697860A (zh) * | 2017-10-20 | 2019-04-30 | 上海欧菲智能车联科技有限公司 | 车位检测和跟踪***及方法及车辆 |
CN107856667B (zh) * | 2017-11-08 | 2020-02-14 | 科大讯飞股份有限公司 | 辅助泊车***和方法 |
CN110415550B (zh) * | 2019-07-31 | 2020-08-07 | 北京智行者科技有限公司 | 基于视觉的自动泊车方法 |
-
2020
- 2020-04-08 CN CN202210978848.6A patent/CN115447568A/zh active Pending
- 2020-04-08 CN CN202010269727.5A patent/CN113492829B/zh active Active
-
2021
- 2021-03-01 EP EP21785001.5A patent/EP4119408A4/en active Pending
- 2021-03-01 WO PCT/CN2021/078430 patent/WO2021203868A1/zh unknown
-
2022
- 2022-10-05 US US17/960,494 patent/US20230049561A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019233286A1 (zh) * | 2018-06-05 | 2019-12-12 | 北京市商汤科技开发有限公司 | 视觉定位方法、装置、电子设备及*** |
CN109278742A (zh) * | 2018-09-06 | 2019-01-29 | 北京长城华冠汽车科技股份有限公司 | 车辆和自动泊车方法、*** |
CN109446909A (zh) * | 2018-09-27 | 2019-03-08 | 山东省科学院自动化研究所 | 一种单目测距辅助泊车***及方法 |
CN110705359A (zh) * | 2019-09-05 | 2020-01-17 | 北京智行者科技有限公司 | 一种车位检测方法 |
CN110696822A (zh) * | 2019-11-25 | 2020-01-17 | 安徽江淮汽车集团股份有限公司 | 自动泊车控制方法、装置、设备及存储介质 |
CN110689761A (zh) * | 2019-12-11 | 2020-01-14 | 上海赫千电子科技有限公司 | 一种自动泊车方法 |
Also Published As
Publication number | Publication date |
---|---|
EP4119408A1 (en) | 2023-01-18 |
CN115447568A (zh) | 2022-12-09 |
CN113492829A (zh) | 2021-10-12 |
WO2021203868A1 (zh) | 2021-10-14 |
US20230049561A1 (en) | 2023-02-16 |
EP4119408A4 (en) | 2023-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230072637A1 (en) | Vehicle Drivable Area Detection Method, System, and Autonomous Vehicle Using the System | |
CN110146869B (zh) | 确定坐标系转换参数的方法、装置、电子设备和存储介质 | |
CN113492829B (zh) | 数据处理的方法和装置 | |
US9863775B2 (en) | Vehicle localization system | |
US10346705B2 (en) | Method and apparatus for estimating articulation angle | |
US9151626B1 (en) | Vehicle position estimation system | |
CN107636679B (zh) | 一种障碍物检测方法及装置 | |
WO2016056197A1 (ja) | 車載カメラ較正装置、画像生成装置、車載カメラ較正方法、画像生成方法 | |
CN113065590B (zh) | 一种基于注意力机制的视觉与激光雷达多模态数据融合方法 | |
KR20200125667A (ko) | 차재 카메라 자기 교정 방법과 장치 및 차량 운전 방법과 장치 | |
US11680813B2 (en) | Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image | |
EP3965005A1 (en) | Target detection method and device | |
CN108122425A (zh) | 用于识别车辆位置的装置和方法 | |
US20200082181A1 (en) | Method and system for sensing an obstacle, and storage medium | |
CN112308927B (zh) | 一种全景相机与激光雷达的融合装置及其标定方法 | |
CN109492566A (zh) | 车道位置信息获取方法、装置及存储介质 | |
CN112233188A (zh) | 一种基于激光雷达的车顶全景相机及其标定方法 | |
CN114550142A (zh) | 基于4d毫米波雷达和图像识别融合的车位检测方法 | |
US12031834B2 (en) | Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image | |
CN113611143B (zh) | 一种记忆泊车***及其建图*** | |
CN113646769A (zh) | 用于图像归一化的***和方法 | |
US20150294465A1 (en) | Vehicle position estimation system | |
CN115407355A (zh) | 库位地图的验证方法、装置及终端设备 | |
CN114913497A (zh) | 目标检测方法、装置、终端设备以及存储介质 | |
JP2019207161A (ja) | 物体検知装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |