CN117461065A - 关注区域检测装置、关注区域检测方法以及计算机程序 - Google Patents
关注区域检测装置、关注区域检测方法以及计算机程序 Download PDFInfo
- Publication number
- CN117461065A CN117461065A CN202280035064.8A CN202280035064A CN117461065A CN 117461065 A CN117461065 A CN 117461065A CN 202280035064 A CN202280035064 A CN 202280035064A CN 117461065 A CN117461065 A CN 117461065A
- Authority
- CN
- China
- Prior art keywords
- region
- interest
- image
- junction point
- point information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 238000004590 computer program Methods 0.000 title claims description 20
- 238000000034 method Methods 0.000 claims abstract description 17
- 230000008569 process Effects 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 35
- 230000004044 response Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 7
- 239000000470 constituent Substances 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
Abstract
关注区域检测装置具备:关注区域检测部,从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域;汇合地点信息获取部,获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点;以及关注区域追加部,执行基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域的追加处理。
Description
技术领域
本公开涉及关注区域检测装置、关注区域检测方法以及计算机程序。本申请主张基于2021年5月19日提出申请的日本申请第2021-084445号的优先权,并援引记载于所述日本申请的全部记载内容。
背景技术
以往,提出了一种从由搭载于汽车等移动体的摄像机拍摄到的移动体的周边的图像中提取特征性区域来辅助移动体的行驶的***(例如,参照专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2010-020476号公报
发明内容
本公开的一个方案的关注区域检测装置具备:关注区域检测部,从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域;汇合地点信息获取部,获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点;以及关注区域追加部,执行基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域的追加处理。
本公开的另一方案的关注区域检测方法包括以下步骤:从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域;获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点;以及基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域。
本公开的另一方案的计算机程序使计算机作为关注区域检测部、汇合地点信息获取部以及关注区域追加部发挥功能,其中,所述关注区域检测部从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域,所述汇合地点信息获取部获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点,所述关注区域追加部执行基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域的追加处理。
需要说明的是,本公开也可以作为用于使计算机执行关注区域检测方法中所包括的特征性步骤的计算机程序来实现。并且,当然可以使这样的计算机程序经由CD-ROM(Compact Disc-Read Only Memory:光盘只读存储器)等计算机可读非暂时性记录介质、互联网等通信网络来流通。此外,本公开也可以作为实现关注区域检测装置的一部分或全部的半导体集成电路来实现,或者作为包括关注区域检测装置的***来实现。
附图说明
图1是表示本公开的实施方式1的物体识别***的整体构成的图。
图2是表示本公开的实施方式1的移动体的构成的一个例子的框图。
图3是表示本公开的实施方式1的处理器的功能性构成的框图。
图4是表示摄像机拍摄到的图像的一个例子的图。
图5是用于对由关注区域检测部进行的关注区域的检测处理进行说明的图。
图6是用于对由关注区域检测部进行的关注区域的检测处理进行说明的图。
图7是表示由汇合地点信息获取部获取到的汇合地点的一个例子的图。
图8是用于对由关注区域追加部进行的关注区域的追加处理进行说明的图。
图9是表示帧(t+1)的图像的一个例子的图。
图10是表示构成移动体的控制***的处理过程的流程图。
图11是表示本公开的实施方式2的处理器的功能性构成的框图。
图12是表示本公开的实施方式3的处理器的功能性构成的框图。
具体实施方式
[本公开所要解决的问题]
为了移动体的行驶控制,期望从图像中准确地识别对行驶带来影响的其他移动体、行人等对象物,并且没有延迟地处理图像。
为了没有延迟地处理图像,需要从图像中提取包含规定的对象物的关注区域的像,并且对提取出的关注区域的像集中地执行对象物的识别处理。
在交叉路口、移动体的行驶路的侧方的建筑物的出入口、停车场的出入口或人行横道等处,其他移动体、行人等可能会突然出现。
然而,在以往的***中,没考虑移动体的出现的可能性就提取了关注区域。因此,为防备其他移动体从交叉路口的交叉道路不临时停止就进入交叉路口的情况、行人从建筑物的出入口突然冲出的情况等,必须使移动体低速行驶。
本公开是鉴于这样的情形而完成的,其目的在于提供用于使移动体高速行驶的关注区域检测装置、关注区域检测方法以及计算机程序。
[本公开的效果]
根据本公开,能使移动体高速行驶。
[本公开的实施方式的概要]
首先,列举本公开的实施方式的概要来进行说明。
(1)本公开的一个实施方式的关注区域检测装置具备:关注区域检测部,从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域;汇合地点信息获取部,获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点;以及关注区域追加部,执行基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域的追加处理。
根据该构成,能将包含例如交叉路口、道路沿线的建筑物的出入口附近、停车场的出入口或人行横道等车辆、人等第二移动体可能会冲出来的汇合地点的区域追加到关注区域。因此,在关注区域外的区域中,与第二移动体接触的可能性低,因此能使第一移动体高速行驶。
(2)此外,也可以是,所述汇合地点信息获取部通过从所述图像中检测所述汇合地点来生成所述汇合地点信息。
根据该构成,能根据通过搭载于第一移动体的摄像机对第一移动体的行进方向进行拍摄而得到的图像来获取汇合地点信息,并将包含汇合地点的区域追加到关注区域。因此,即使在由于第一移动体的通信功能被切断或未生成汇合地点信息等一些理由而无法从外部的装置获取汇合地点信息的情况下,也能将包含第二移动体可能会冲出来的汇合地点的区域追加到关注区域。
(3)此外,也可以是,所述汇合地点信息获取部基于所述第一移动体的位置从所述第一移动体的外部的装置获取所述汇合地点信息。
根据该构成,即使是在通过搭载于第一移动体的摄像机进行拍摄而得到的图像中由于障碍物等的影响而成为盲区的汇合地点,也能将包含该汇合地点的区域追加到关注区域。因此,能准确地确定包含汇合地点的关注区域。
(4)此外,也可以是,所述汇合地点信息获取部从基于所述第一移动体的位置从所述第一移动体的外部的装置获取到的对所述第一移动体的行进方向进行拍摄而得到的图像中检测所述汇合地点,由此生成所述汇合地点信息。
根据该构成,从外部的装置获取如对第一移动体预定移动的第一移动体的远方进行拍摄而得到的图像等那样对通过搭载于第一移动体的摄像机无法拍摄的位置进行拍摄而得到的图像,由此能检测第一移动体的远方的汇合地点。
(5)此外,也可以是,所述关注区域检测装置还具备基于所述图像来更新所述汇合地点信息的汇合地点信息更新部,所述关注区域追加部响应于所述汇合地点信息的更新来执行所述追加处理。
根据该构成,即使在图像随着时间经过而发生了变更的情况下,也能基于变更后的图像来更新汇合地点信息。由此,能随着时间的经过来更新作为关注区域的包含汇合地点的区域。
(6)本公开的另一实施方式的关注区域检测方法包括以下步骤:从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域;获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点;以及基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域。
该构成包括上述的关注区域检测装置中的特征性处理来作为步骤。因此,根据该构成,能起到与上述的关注区域检测装置相同的作用和效果。
(7)本公开的另一实施方式的计算机程序使计算机作为关注区域检测部、汇合地点信息获取部以及关注区域追加部发挥功能,其中,所述关注区域检测部从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域,所述汇合地点信息获取部获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点,所述关注区域追加部执行基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域的追加处理。
根据该构成,能使计算机作为上述的关注区域检测装置发挥功能。因此,能起到与上述的关注区域检测装置相同的作用和效果。
[本公开的实施方式的详情]
以下,参照附图对本公开的实施方式进行说明。需要说明的是,以下说明的实施方式均是表示本公开的一个具体例的实施方式。以下的实施方式中示出的数值、形状、材料、构成要素、构成要素的配置位置和连接方式、步骤、步骤的顺序等是一个例子,并不限定本公开。此外,以下的实施方式中的构成要素中未记载于独立权利要求的构成要素是能任意附加的构成要素。此外,各图是示意图,未必严格地进行了图示。
此外,对相同的构成要素标注相同的附图标记。它们的功能和名称也相同,因此适当省略它们的说明。
<实施方式1>
〔物体识别***的整体构成〕
图1是表示本公开的实施方式1的物体识别***的整体构成的图。
参照图1,物体识别***100具备移动体1、2A、2B和服务器7。
移动体1例如在道路3上行驶,移动体2A例如在道路4上行驶。移动体2B例如是在道路4上移动的行人。移动体1能进行无线通信,经由基站6连接于网络5。
服务器7通过有线或无线连接于网络5。
基站6由宏小区基站、微小区基站以及微微小区基站等构成。
移动体1例如是在工厂内一边自主行驶一边输送货物的输送机器人、在工厂内一边自主行驶一边进行监视的监视机器人等移动机器人。在本实施方式中,设为移动体1是移动机器人。不过,移动体1并不限定于在工厂内行驶的移动机器人。移动体1例如除了可以是在道路3、4行驶的通常的乘用车之外,还可以是专线巴士、紧急车辆等公共车辆。此外,移动体1不仅可以是四轮车,还可以是两轮车(摩托车)。移动体2A也例如是移动机器人。不过,移动体2A与移动体1同样地并不限定于移动机器人。
如后述,移动体1具备摄像机,通过利用摄像机对移动体1的行进方向进行拍摄来获取图像。需要说明的是,在本实施方式中,设为摄像机的光轴朝向移动体1的前方。因此,将移动体1的行进方向设为摄像机的拍摄方向。
移动体1从由摄像机拍摄到的图像中检测包含自身可能会碰撞的对象物的区域来作为关注区域。例如,移动体1检测包含其他移动体的区域。而且,移动体1将包含其他移动体能从与移动体1行驶的道路3交叉的方向朝向道路3汇合的汇合地点的区域追加到关注区域。例如,在交叉路口IS处,其他移动体2A、2B能从与道路3交叉的方向汇合。因此,移动体1将包含交叉路口IS的区域追加到关注区域。
移动体1从摄像机拍摄到的图像中截取关注区域的像,并对截取出的关注区域像实施规定的图像处理,由此进行规定的识别处理。例如,移动体1识别关注区域像中所包含的对象物的类别,在对象物是人、车辆等其他移动体的情况下,降低移动体1的行驶速度,或者在对象物是表示临时停止的道路标志的情况下,进行用于使移动体1安全地临时停止的、包括移动体1的制动控制的行驶控制。
〔移动体1的构成〕
图2是表示本公开的实施方式1的移动体1的构成的一个例子的框图。
如图2所示,移动体1具备摄像机11和连接于摄像机11的控制***10。控制***10是用于对移动体1的行驶进行控制的***,具备通信部12、时钟13、控制部(ECU:ElectronicControl Unit(电子控制单元))14、GPS(Global Positioning System:全球定位***)接收器17、陀螺仪传感器18以及速度传感器19。
摄像机11由取入移动体1的周围(具体而言,移动体1的行进方向(前方))的影像的图像传感器构成。摄像机11为单目。不过,摄像机11也可以为多目。影像由时间序列的多个图像构成。
通信部12例如由能进行支持5G(5th Generation:第五代移动通信***)的通信处理的无线通信器构成。需要说明的是,通信部12可以是已设于移动体1的无线通信器,也可以是搭乘者带入移动体1的便携终端。
搭乘者的便携终端连接于移动体1的车内LAN(Local Area Network:局域网),由此临时成为车载的无线通信器。
时钟13对当前的时刻进行计时。
控制部14由进行移动体1的各设备11~13、17~19的控制的计算机装置构成。控制部14根据GPS接收器17定期地获取的GPS信号来求出移动体1的位置。需要说明的是,控制部14也可以通过一并使用从未图示的准天顶卫星发送的信号的接收器所接收到的GPS补充信号或GPS增强信号,来补充GPS信号或者校正移动体1的位置。
控制部14基于从陀螺仪传感器18和速度传感器19输出的信号来补充移动体1的位置和方向,掌握移动体1的准确的当前位置和方向。在此,移动体1的当前位置例如由纬度和经度表示。此外,移动体1的方向(行进方向)例如由以北为0度的顺时针的0度~360度的范围的角度表示。
GPS接收器17、陀螺仪传感器18以及速度传感器19是分别计测移动体1的当前位置、方向以及速度的传感器。
控制部14具备处理器15和存储器16。
处理器15是执行储存于存储器16的计算机程序的微型计算机等运算处理装置。
存储器16由SRAM(Static RAM(Random Access Memory):静态随机存取存储器)或DRAM(Dynamic RAM:动态随机存取存储器)等易失性的存储器元件、闪存(flash memory)或者EEPROM(Electrically Erasable Programmable Read Only Memory:电可擦可编程只读存储器)等非易失性的存储器元件、HDD(Hard Disk Drive:硬盘驱动器)等磁存储装置或SSD(Solid State Drive:固态硬盘)等使用了半导体存储器的辅助存储装置等构成。存储器16存储由处理器15执行的计算机程序、处理器15中的计算机程序执行时生成的数据、计算机程序执行时所需的数据等。
〔处理器15的功能构成〕
图3是表示本公开的实施方式1的处理器15的功能性构成的框图。
参照图3,作为通过执行存储于存储器16的计算机程序而被实现的功能性处理部,处理器15包括图像获取部21、关注区域检测部22、汇合地点信息获取部23、关注区域追加部24、识别处理部25以及汇合地点信息更新部26。
图像获取部21按时间序列依次获取摄像机11拍摄到的移动体2的前方的图像。图像获取部21将获取到的图像依次输出至关注区域检测部22、汇合地点信息获取部23以及识别处理部25。
图4是表示摄像机11拍摄到的图像的一个例子的图。
图像40包含作为移动体1的移动路线的道路41和在道路41上行驶的移动体42。此外,图像40包含道路41和与道路41交叉的道路的交叉路口43以及位于道路41的侧方的大楼的出入口44。交叉路口43和出入口44是其他移动体汇合到道路41的汇合地点的例子。
再次参照图3,关注区域检测部22从图像获取部21获取图像40,并从获取到的图像40中检测关注区域。
关注区域检测部22所检测的关注区域是包含对移动体1的行驶造成影响的物体的区域。例如,关注区域检测部22所检测的关注区域除了包含移动体1可能会碰撞的物体(其他移动体或道路上的掉落物等)之外,还包含移动体1在行驶时应该确认的物体(道路标志、交通信号灯等)。
图5和图6是用于对由关注区域检测部22进行的关注区域的检测处理进行说明的图。
参照图5,关注区域检测部22将从图像获取部21获取到的图像40划分为多个块50。在此,将图像40划分为64个(=8×8个)块50。不过,图像40的划分数量并不限定于64个。
关注区域检测部22通过将各块50的像输入至学习模型来按每个块50得到关注区域的置信度。置信度表示块50包含关注区域的概率。需要说明的是,可以在输入至学习模型之前,以规定的缩小率缩小块50的像。
学习模型设为将包含关注区域的块50的像作为学习数据来进行机器学习而得到的模型,通过输入块50的像来输出表示该像的关注区域的确定性的置信度。学习模型例如由CNN(Convolution Neural Network:卷积神经网络)、RNN(Recurrent Neural Network:递归神经网络)、AutoEncoder(自编码器)等构成,设为通过深度学习等机器学习方法来决定学习模型的各参数。
在本实施方式中,设为关注区域为矩形。此外,设为关注区域由矩形的左上角坐标以及矩形的X方向和Y方向的宽度规定。不过,关注区域的位置不限定于上述的内容。例如,也可以用矩形的左上角坐标和右下角坐标来规定关注区域。此外,也可以通过块50的标识符来规定关注区域。此外,关注区域也可以为椭圆形等矩形以外的形状。
关注区域检测部22基于从学习模型得到的置信度来检测关注区域。例如,关注区域检测部22检测置信度为规定的阈值以上的块50来作为关注区域。
在图6中示出由关注区域检测部22检测到的关注区域51,包含移动体42的块50被检测为关注区域51。
再次参照图3,汇合地点信息获取部23从图像获取部21获取图像40,并根据获取到的图像40来获取表示汇合地点的汇合地点信息27。在此,汇合地点包括与移动体1不同的其他移动体能从与移动体1的移动路线交叉的方向朝向移动路线汇合的地点。汇合地点例如包括交叉路口、位于移动体1的移动路线的侧方的建筑物的出入口、位于移动体1的移动路线的侧方的停车场的出口以及人行横道等。输送机器人、行人等其他移动体可能会为了横穿移动体1的移动路线而从这样的汇合地点冲出。
例如,汇合地点信息获取部23使用将包含汇合地点的图像作为学习数据来进行机器学习而得到的学习模型,将获取到的图像40输入至学习模型,由此从学习模型得到汇合地点。此外,关注区域检测部22从学习模型得到表示汇合地点的确定性的置信度。学习模型例如是CNN、RNN、AutoEncoder等,设为通过深度学习等机器学习方法来决定学习模型的各参数。设为汇合地点例如由图像40上的坐标表示。
汇合地点信息获取部23检测置信度为规定的阈值以上的汇合地点来作为图像40上的汇合地点。
汇合地点信息获取部23将汇合地点的位置和汇合地点的周围的像(以下,称为“周围像”。)作为汇合地点信息27写入存储器16。例如,周围像为以汇合地点为中心位置的规定尺寸的矩形。周围像的尺寸可以是固定的,也可以是可变的。例如,在学习模型将汇合地点的类别与汇合地点的位置一同输出的情况下,周围像的尺寸可以根据汇合地点的类别来确定。
图7是表示由汇合地点信息获取部23获取到的汇合地点的一个例子的图。例如,汇合地点信息获取部23将图像40输入至学习模型,由此得到汇合地点61和汇合地点62。汇合地点61是交叉路口43附近的位置,汇合地点62是大楼的出入口44附近的位置。
汇合地点信息获取部23将汇合地点61的位置和汇合地点61的周围像71以及汇合地点62的位置和汇合地点62的周围像72作为汇合地点信息27写入存储器16。
再次参照图3,关注区域追加部24向关注区域检测部22检测到的关注区域追加包含汇合地点信息获取部23获取到的汇合地点的区域来作为关注区域。
图8是用于对由关注区域追加部24进行的关注区域的追加处理进行说明的图。
关注区域追加部24向关注区域检测部22检测到的关注区域51追加包含汇合地点信息获取部23获取到的汇合地点的区域来作为关注区域52~56。例如,关注区域追加部24追加汇合地点61的周围的区域(例如,包含周围像71的块50)来作为关注区域52~55。此外,关注区域追加部24追加汇合地点62的周围的区域(例如,包含周围像72的块50)来作为关注区域56。
再次参照图3,汇合地点信息更新部26基于存储于存储器16的汇合地点信息27,在图像获取部21获取到的图像之间跟踪汇合地点信息获取部23获取到的汇合地点,由此进行汇合地点的更新。就是说,汇合地点信息更新部26求出根据某个时刻的帧t的图像获取到的汇合地点在下一时刻的帧(t+1)的图像中的对应位置。汇合地点信息更新部26将在帧(t+1)的图像中求出的对应位置设为帧(t+1)的图像中的汇合地点,由此,跟踪汇合地点,进行汇合地点的更新。
具体而言,汇合地点信息更新部26基于从GPS接收器17、陀螺仪传感器18以及速度传感器19输出的信号来计算帧t和帧(t+1)中的移动体1的当前位置。汇合地点信息更新部26基于帧t与帧(t+1)之间的移动体1的当前位置的移动距离和移动方向来推定帧t与帧(t+1)之间的图像上的汇合地点的移动距离和移动方向,由此预测帧(t+1)的图像中的汇合地点。
需要说明的是,汇合地点信息更新部26也可以基于移动体1的速度和移动方向来预测帧t的图像上的汇合地点的移动方向和移动距离,由此预测帧(t+1)的图像上的汇合地点。
汇合地点信息更新部26将从帧t的图像中提取出的周围像作为模板(template)图像,在帧(t+1)的图像上的预测出的汇合地点的周边取得匹配,由此求出帧(t+1)的图像中的汇合地点的对应位置。
图9是表示帧(t+1)的图像40A的一个例子的图。在此,例如,将图7所示的图像40设为帧t的图像40。
汇合地点信息更新部26分别将从图像40中提取出的周围像71和周围像72作为模板图像,在图像40A的预测出的汇合地点的周边进行匹配,由此求出与周围像71对应的周围像71A和与周围像72对应的周围像72A。汇合地点信息更新部26将周围像71A的中心位置决定为与汇合地点61对应的汇合地点61A,将周围像72A的中心位置决定为与汇合地点62对应的汇合地点62A。
在无法按每帧实现基于学习模型的汇合地点的获取的情况下,汇合地点信息更新部26在直至基于学习模型获取到下一汇合地点的期间,与上述同样地进行汇合地点的更新。
关注区域追加部24向关注区域检测部22检测到的关注区域追加包含由汇合地点信息更新部26更新后的汇合地点的区域来作为关注区域。
参照图9,例如,关注区域追加部24追加包含更新后的汇合地点61A的周围像71A的块50来作为关注区域57、58。此外,关注区域追加部24追加包含更新后的汇合地点62A的周围像72A的块50来作为关注区域59、60。周围像71A和周围像72A的尺寸可以设为分别与周围像71和周围像72相同。
识别处理部25基于从关注区域追加部24输出的关注区域检测部22所检测到的关注区域和关注区域追加部24所追加的关注区域的信息,从图像获取部21获取到的图像中截取关注区域的像。
识别处理部25对截取出的关注区域像实施规定的图像处理,由此进行规定的识别处理。例如,识别处理部25从关注区域像中识别显示装置、临时停止的道路标志、行人的存在与否等。识别处理部25的识别结果例如用于移动体1的自动驾驶控制。
识别处理部25例如向将图像和表示识别结果的标签作为学习数据进行机器学习而得到的学习模型输入关注区域像,由此得到关注区域像的识别结果。学习模型例如是CNN、RNN、AutoEncoder等,设为通过深度学习等方法来决定学习模型的各参数。
需要说明的是,识别处理部25也可以对关注区域像以外的像执行同样的处理。
〔控制***10的处理的流程〕
图10是表示构成移动体1的控制***10的处理过程的流程图。
参照图10,图像获取部21按时间序列依次获取摄像机11拍摄到的移动体2的前方的图像40(步骤S1)。
关注区域检测部22从图像获取部21获取图像40,并从获取到的图像40中检测关注区域(步骤S2)。
汇合地点信息获取部23从图像获取部21获取图像40,基于学习模型根据获取到的图像40来获取表示汇合地点的汇合地点信息27,并将获取到的汇合地点信息27写入存储器16(步骤S3)。
关注区域追加部24向关注区域检测部22检测到的关注区域追加包含汇合地点信息获取部23获取到的汇合地点的区域来作为关注区域(步骤S4)。
汇合地点信息更新部26基于存储于存储器16的汇合地点信息27,在图像获取部21获取到的图像之间跟踪汇合地点信息获取部23获取到的汇合地点,由此进行汇合地点的更新(步骤S5)。
关注区域追加部24向关注区域检测部22检测到的关注区域追加包含由汇合地点信息更新部26更新后的汇合地点的区域来作为关注区域(步骤S6)。
识别处理部25基于在步骤S2中检测到的关注区域的信息以及在步骤S4和步骤S6中所追加的关注区域的信息,从图像获取部21获取到的图像40中截取关注区域的像。识别处理部25对截取出的关注区域像实施规定的图像处理,由此进行规定的识别处理(步骤S7)。
〔实施方式1的效果〕
如以上说明的那样,根据本公开的实施方式1,能将包含例如交叉路口、道路沿线的建筑物的出入口附近、停车场的出入口或人行横道等车辆、人等其他移动体可能会冲出来的汇合地点的区域追加到关注区域。因此,在关注区域外的区域中,与其他移动体接触的可能性低,因此能使移动体1高速行驶。
此外,能根据通过搭载于移动体1的摄像机11对移动体1的行进方向进行拍摄而得到的图像40来获取汇合地点信息27,并将包含汇合地点的区域追加到关注区域。因此,即使在由于移动体1的通信功能被切断或未生成汇合地点信息27等一些理由而无法从外部的装置获取汇合地点信息27的情况下,也能将包含其他移动体可能会冲出来的汇合地点的区域追加到关注区域。
此外,汇合地点信息更新部26即使在图像获取部21获取到的图像40随着时间经过而发生了变更的情况下,也能基于变更后的图像40A来更新汇合地点信息27。由此,能随着时间的经过来更新作为关注区域的包含汇合地点的区域。
<实施方式2>
在实施方式1中,对根据图像40来获取汇合地点信息27的例子进行了说明。在实施方式2中,对从移动体1的外部的装置获取汇合地点信息27的例子进行说明。
物体识别***100的构成与实施方式1相同。不过,通过处理器15执行计算机程序而被实现的功能性处理部的一部分与实施方式1不同。
图11是表示本公开的实施方式2的处理器15的功能性构成的框图。
参照图11,作为通过执行存储于存储器16的计算机程序而被实现的功能性处理部,处理器15包括图像获取部21、关注区域检测部22、汇合地点信息获取部23、关注区域追加部24、识别处理部25以及汇合地点信息更新部26。其中,汇合地点信息获取部23的构成与实施方式1不同。
汇合地点信息获取部23基于移动体1的位置从移动体1的外部的装置获取汇合地点信息27。
例如,汇合地点信息获取部23经由通信部12将移动体1的当前位置的信息发送至服务器7。服务器7接收移动体1的当前位置的信息,并将存在于移动体1的当前位置的周边的汇合地点的位置信息(三维空间中的位置信息)发送至移动体1。汇合地点信息获取部23经由通信部12从服务器7获取汇合地点的位置信息。汇合地点信息获取部23将汇合地点的位置信息转换为图像获取部21获取到的图像上的位置信息。设为通过进行摄像机11的校准来预先设定了三维空间中的位置与图像上的位置的对应关系。汇合地点信息获取部23将图像上的汇合地点的周围的像作为汇合地点信息27来写入。
根据本公开的实施方式2,即使是在通过搭载于移动体1的摄像机11进行拍摄而得到的图像40中由于障碍物等的影响而成为盲区的汇合地点,也能将包含该汇合地点的区域追加到关注区域。因此,能准确地确定包含汇合地点的关注区域。
<实施方式3>
在实施方式1中,对根据摄像机11拍摄到的图像40来获取汇合地点信息27的例子进行了说明。在实施方式3中,对基于摄像机11以外的外部的摄像机拍摄到的图像来获取汇合地点信息27的例子进行说明。
物体识别***100的构成与实施方式1相同。不过,通过处理器15执行计算机程序而被实现的功能性处理部的一部分与实施方式1不同。
图12是表示本公开的实施方式3的处理器15的功能性构成的框图。
参照图12,作为通过执行存储于存储器16的计算机程序而被实现的功能性处理部,处理器15包括图像获取部21、关注区域检测部22、汇合地点信息获取部23、关注区域追加部24、识别处理部25以及汇合地点信息更新部26。其中,图像获取部21和汇合地点信息获取部23的构成与实施方式1不同。
图像获取部21经由通信部12将移动体1的位置信息发送至其他移动体、设置于路边的通信装置或服务器7等外部装置。外部装置基于接收到的位置信息将由连接于外部装置的摄像机拍摄到的对移动体1的位置的周围进行拍摄而得到的图像发送至移动体1。需要说明的是,设为该图像中附带有摄像机的位置和拍摄范围等附属信息。图像获取部21从外部装置接收图像。
汇合地点信息获取部23从图像获取部21获取摄像机11拍摄到的图像40或从外部装置获取到的图像。汇合地点信息获取部23通过与实施方式1中说明过的方法相同的方法,根据摄像机11拍摄到的图像40和从外部装置获取到的图像中的对移动体1的行进方向进行拍摄而得到的图像来获取汇合地点的位置信息。需要说明的是,汇合地点信息获取部23针对根据从外部装置获取到的图像而获取到的汇合地点的位置信息,基于图像的附属信息来进行转换为摄像机11拍摄到的图像40中的位置信息的处理。汇合地点信息获取部23将图像40上的汇合地点的周围的像作为汇合地点信息27来写入。
根据本公开的实施方式3,从外部的装置获取如对移动体1预定移动的移动体1的远方进行拍摄而得到的图像等那样对通过搭载于移动体1的摄像机11无法拍摄的位置进行拍摄而得到的图像,由此能检测移动体1的远方的汇合地点。
[附记]
构成控制***10的构成要素的一部分或全部也可以由一个或多个***LSI(LargeScale Integration:大规模集成电路)等半导体装置构成。
也可以将上述的计算机程序记录于计算机可读非暂时性记录介质,例如HDD、SSD、CD-ROM、半导体存储器等来使其流通。此外,也可以经由电信线路、无线或有线通信线路、以互联网为代表的网络、数据广播等传输计算机程序来使其流通。
控制***10也可以通过多个计算机或多个处理器来实现。
此外,控制***10的一部分或全部功能也可以通过云计算来提供。就是说,控制***10的一部分或全部功能也可以通过云服务器来实现。
而且,也可以将上述实施方式的至少一部分任意组合。
应该认为本次公开的实施方式在所有方面都是示例而不是限制性的。本公开的范围不是由上述的含义示出,而是由权利要求书示出,意图在于包括与权利要求书等同的含义和范围内的所有变更。
附图标记说明
1、2、2A、2B、42:移动体,3、4、41:道路,5:网络,6:基站,7:服务器,10:控制***,11:摄像机,12:通信部,13:时钟,14:控制部,15:处理器,16:存储器,17:GPS接收器,18:陀螺仪传感器,19:速度传感器,21:图像获取部,22:关注区域检测部,23:汇合地点信息获取部,24:关注区域追加部,25:识别处理部,26:汇合地点信息更新部,27:汇合地点信息,40、40A:图像,43、IS:交叉路口,44:出入口,50:块,51~60:关注区域,61、61A、62、62A:汇合地点,71、71A、72、72A:周围像,100:物体识别***。
Claims (7)
1.一种关注区域检测装置,具备:
关注区域检测部,从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域;
汇合地点信息获取部,获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点;以及
关注区域追加部,执行基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域的追加处理。
2.根据权利要求1所述的关注区域检测装置,其中,
所述汇合地点信息获取部通过从所述图像中检测所述汇合地点来生成所述汇合地点信息。
3.根据权利要求1所述的关注区域检测装置,其中,
所述汇合地点信息获取部基于所述第一移动体的位置从所述第一移动体的外部的装置获取所述汇合地点信息。
4.根据权利要求1所述的关注区域检测装置,其中,
所述汇合地点信息获取部从基于所述第一移动体的位置从所述第一移动体的外部的装置获取到的对所述第一移动体的行进方向进行拍摄而得到的图像中检测所述汇合地点,由此生成所述汇合地点信息。
5.根据权利要求1至4中任一项所述的关注区域检测装置,其中,
所述关注区域检测装置还具备基于所述图像来更新所述汇合地点信息的汇合地点信息更新部,
所述关注区域追加部响应于所述汇合地点信息的更新来执行所述追加处理。
6.一种关注区域检测方法,包括以下步骤:
从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域;
获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点;以及
基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域。
7.一种计算机程序,用于使计算机作为关注区域检测部、汇合地点信息获取部以及关注区域追加部发挥功能,其中,
所述关注区域检测部从通过搭载于第一移动体的摄像机对所述第一移动体的行进方向进行拍摄而得到的图像中检测关注区域,
所述汇合地点信息获取部获取汇合地点信息,该汇合地点信息表示与所述第一移动体不同的第二移动体能从与所述第一移动体的移动路线交叉的方向朝向所述移动路线汇合的汇合地点,
所述关注区域追加部执行基于所述汇合地点信息将所述图像中的包含所述汇合地点的区域追加到所述关注区域的追加处理。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021084445 | 2021-05-19 | ||
JP2021-084445 | 2021-05-19 | ||
PCT/JP2022/007940 WO2022244365A1 (ja) | 2021-05-19 | 2022-02-25 | 注目領域検出装置、注目領域検出方法、及びコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117461065A true CN117461065A (zh) | 2024-01-26 |
Family
ID=84140899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280035064.8A Pending CN117461065A (zh) | 2021-05-19 | 2022-02-25 | 关注区域检测装置、关注区域检测方法以及计算机程序 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JPWO2022244365A1 (zh) |
CN (1) | CN117461065A (zh) |
WO (1) | WO2022244365A1 (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019053436A (ja) * | 2017-09-13 | 2019-04-04 | 株式会社オートネットワーク技術研究所 | 運転負荷演算装置及びコンピュータプログラム |
WO2020016924A1 (ja) * | 2018-07-17 | 2020-01-23 | 三菱電機株式会社 | 交通情報生成システム |
JP7229032B2 (ja) * | 2019-02-01 | 2023-02-27 | 株式会社Subaru | 車外物体検出装置 |
-
2022
- 2022-02-25 JP JP2023522240A patent/JPWO2022244365A1/ja active Pending
- 2022-02-25 WO PCT/JP2022/007940 patent/WO2022244365A1/ja active Application Filing
- 2022-02-25 CN CN202280035064.8A patent/CN117461065A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JPWO2022244365A1 (zh) | 2022-11-24 |
WO2022244365A1 (ja) | 2022-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238738B2 (en) | Information providing system, server, mobile terminal, and computer program | |
CN109429518B (zh) | 基于地图图像的自动驾驶交通预测 | |
US20200211395A1 (en) | Method and Device for Operating a Driver Assistance System, and Driver Assistance System and Motor Vehicle | |
CN111201787B (zh) | 成像装置、图像处理装置和图像处理方法 | |
WO2021155685A1 (zh) | 一种更新地图的方法、装置和设备 | |
US20230222671A1 (en) | System for predicting near future location of object | |
JP7376992B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
EP4131203A1 (en) | Information processing device, and information processing method | |
CN114694111A (zh) | 车辆定位 | |
JPWO2018230496A1 (ja) | 地図更新装置、地図更新システム、地図更新方法、及びプログラム | |
CN111538324A (zh) | 信息处理装置、车辆位置控制***和车辆位置控制方法 | |
CN117461065A (zh) | 关注区域检测装置、关注区域检测方法以及计算机程序 | |
US20220324387A1 (en) | Display control system, display control method, and non-transitory storage medium | |
US20210231459A1 (en) | Apparatus and method for collecting data for map generation | |
US20210302991A1 (en) | Method and system for generating an enhanced field of view for an autonomous ground vehicle | |
JP2019101806A (ja) | 走行現調支援装置 | |
US11776392B2 (en) | Method for assigning ego vehicle to a lane | |
JP7491260B2 (ja) | 人検出装置、人検出方法及び人検出用コンピュータプログラム | |
JP7302615B2 (ja) | 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム | |
US11294385B2 (en) | System and method for generating a representation of an environment | |
US20230031485A1 (en) | Device and method for generating lane information | |
JP2022079954A (ja) | 物体検出装置 | |
CN116528154A (zh) | 用于界定区域内的车辆驾驶辅助的方法 | |
JP2024062326A (ja) | 情報処理装置及びプログラム | |
JP2024061507A (ja) | 走行計画策定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |