CN112602124A - 用于车辆调度***的通讯方法、车辆调度***以及通讯装置 - Google Patents

用于车辆调度***的通讯方法、车辆调度***以及通讯装置 Download PDF

Info

Publication number
CN112602124A
CN112602124A CN201880094805.3A CN201880094805A CN112602124A CN 112602124 A CN112602124 A CN 112602124A CN 201880094805 A CN201880094805 A CN 201880094805A CN 112602124 A CN112602124 A CN 112602124A
Authority
CN
China
Prior art keywords
subject vehicle
user
information
vehicle
target vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880094805.3A
Other languages
English (en)
Inventor
铃木政康
中村诚秀
渡边真树
斋藤大介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of CN112602124A publication Critical patent/CN112602124A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

通讯装置(100)对车辆控制装置(200)与用户终端装置(300)的通讯进行控制。通讯装置(100)具备处理器(11)。处理器(11)将对象车辆(V1)的当前位置属于以用户的乘车地点(PP)的位置为基准定义的规定区(R1)的定时判断为识别定时。处理器(11)使用在识别定时通过对象车辆(V1)的摄像机(51)拍摄到的拍摄图像(GF)来生成对象车辆信息(GM)。处理器(11)向用户终端装置(300)发送对象车辆信息(GM)。用户终端装置(300)将对象车辆信息(GM)显示在显示器(331)上。

Description

用于车辆调度***的通讯方法、车辆调度***以及通讯装置
技术领域
本发明涉及一种车辆调度***中的通讯方法、车辆调度***以及通讯装置。
背景技术
为了在保护隐私的同时确定为用户调度的车辆,已知如下一种方法:在自动驾驶车辆的门外侧设置电子显示器,显示并发出(signaling)与显示在用户终端的信号相同的信号(专利文献1)。
现有技术文献
专利文献
专利文献1:美国专利第9494938号说明书
发明内容
发明要解决的问题
由于需要在车辆的外侧安装其它电子显示器,因此存在招致成本升高的问题。
本发明要解决的问题在于提供一种无需在车辆的外侧设置电子显示器就能够使用户确定为自己调度的车辆的通讯方法、车辆调度***以及通讯装置。
用于解决问题的方案
本发明通过以下方式来解决上述问题:在判断为对象车辆的当前位置属于以用户的乘车地点的位置为基准定义的规定区的定时,向第二装置发送使用通过车载摄像机拍摄到的拍摄图像制作出的对象车辆信息,并在显示器上显示对象车辆信息。
发明的效果
根据本发明,用户能够认识到用户自身的位置与该用户所预约的对象车辆之间的位置关系,能够确定用户能够乘坐的对象车辆。
附图说明
图1是本实施方式所涉及的使用了通讯装置的车辆调度***的结构框图。
图2是示出乘车地点的周围的状况的一例的图。
图3是示出对象车辆信息的一例的图。
图4A是示出摄像区域的第一例的图。
图4B是示出摄像区域的第二例的图。
图4C是示出摄像区域的第三例的图。
图4D是示出摄像区域的第四例的图。
图4E是示出摄像区域的第五例的图。
图4F是示出摄像区域的第六例的图。
图5A是用于说明俯视图像的第一图。
图5B是用于说明俯视图像的第二图。
图6A是用于说明全景图像的第一图。
图6B是用于说明全景图像的第二图。
图6C是用于说明全景图像的第三图。
图7A是用于说明立体投影图像的第一图。
图7B是用于说明立体投影图像的第二图。
图8是示出对象车辆与用户终端装置之间的信息的发送和接收的控制过程的一例的图。
具体实施方式
以下,基于附图来说明本发明的实施方式。在本实施方式中,以将本发明所涉及的通讯方法/装置应用于车辆调度***的情况为例进行说明。本实施方式中的通讯的控制处理是与信息的发送和接收有关的控制。通讯的控制处理包括通信控制处理、发送接收定时的控制处理、发送接收信息的确定处理中的任一个以上。
图1是示出车辆调度***1的块结构的图。本实施方式的车辆调度***1搭载于车辆,具备通讯装置100、车辆控制装置200以及用户终端装置300。在车辆调度***1中,车辆控制装置200为第一装置,用户终端装置300为第二装置。各装置具备通信装置和执行运算处理的处理器(计算机)。
在该车辆调度***1中,第一装置(车辆控制装置200)与用户携带的第二装置(用户终端装置300)通过发送和接收信息进行通讯。通讯装置100对第一装置(车辆控制装置200)与第二装置(用户终端装置300)的通讯(信息的交换)进行控制。
本发明所涉及的通讯方法是由通讯装置100实施的。在图1中,将通讯装置100作为独立于车辆控制装置200和用户终端装置300的、独立地构建的装置来说明。通讯装置100构建在能够与车辆控制装置200及用户终端装置300进行通信的网络上。
通讯装置100的形式不被限定。通讯装置100能够组入到车辆控制装置200中。通讯装置100能够组入到用户终端装置300中。
通讯装置100具备与车辆控制装置200及用户终端装置300进行通信的通信功能,通过有线通信或无线通信相互发送和接收信息。作为第一装置的车辆控制装置200至少具备摄像机51。摄像机51具备受理电子指令并基于电子指令使摄像机51动作的控制设备。摄像机51按照电子指令执行摄像动作。电子指令是由通讯装置100生成的,经由车辆控制装置200的通信装置40输入到摄像机51。电子指令包含多个摄像机51的识别信息。能够通过电子指令使多个摄像机51中的特定的一个或多个摄像机51执行摄像动作。摄像机51也可以具备广角镜头。检测装置50能够从摄像机51的拍摄图像中截取包含规定的拍摄方向的规定区域的拍摄图像。摄像机51也可以具备使其拍摄方向变化的驱动装置。能够将摄像机51的拍摄方向设为规定的方向,来获得规定的方向的拍摄图像。
作为第二装置的用户终端装置300至少具备显示器331。显示器331具备受理电子指令并基于电子指令来使显示器331动作的控制设备。显示器331是兼具输出(显示)功能和输入受理功能的触摸屏式显示器。显示器331按照电子指令执行呈现后述的对象车辆信息的动作。电子指令是由通讯装置100生成的,经由用户终端装置300的通信装置320输入到显示器331。
本实施方式的车辆控制装置200使车辆执行自主行驶。虽然不作特别限定,但是车辆控制装置200识别对象车辆正在行驶的车道,以使车道的车道标记的位置与对象车辆的位置维持规定的关系的方式控制对象车辆V1的动作。车辆控制装置200以使从车辆行驶的车道的车道标记到对象车辆V1的沿路宽方向的距离(横向位置)为规定值域的方式控制对象车辆V1的动作。车道标记只要具有对车道进行规定的功能则不被限定,可以是在路面上描绘的线图、嵌入道路的发光体、存在于车道之间的植被、存在于车道的路肩侧的护栏、路边石、人行道、二轮车专用道路等道路构造物。另外,车道标记也可以是存在于车道的路肩侧的广告牌、标记、店铺、行道树等不动的物体。
如图1所示,本实施方式的车辆控制装置200具备通信装置40、检测装置50、传感器60、车辆控制器70、驱动装置80、转向装置90、输出装置110以及导航装置120。构成车辆控制装置200的各装置通过CAN(Controller Area Network:控制器局域网络)或其它车载LAN进行连接,以相互进行信息的发送和接收。
检测装置50检测对象车辆V1的周围的状况。检测装置50检测存在于对象车辆V1的周围的对象物的存在及其存在位置。虽然不作特别限定,但是本实施方式的检测装置50包括摄像机51。摄像机51可以是红外线摄像机、立体摄像机。本实施方式的摄像机51例如是具备CCD、CMOS等摄像元件的摄像装置。摄像机51设置在对象车辆V1的规定的位置,拍摄对象车辆V1的周围的对象物。成为拍摄对象的对象车辆的周围包括对象车辆V1的前方、后方、前方侧方、后方侧方。摄像机51也可以具备使拍摄方向变更的驱动装置。驱动装置控制摄像机51的拍摄方向。在设置有驱动装置的摄像机51的拍摄图像中,附加拍摄方向的信息。被摄像机51拍摄的对象物包括标识等静止物体、行人/其它车辆等移动物体。标识包括显示于路面的二维标识和广告牌等立体标识。
在配置多个摄像机51的情况下,对各摄像机51附加识别信息。识别信息包括摄像机51的配置位置和摄像区域。各摄像机51对拍摄到的拍摄图像附加自己的识别信息后发送该拍摄图像。
检测装置50也可以分析图像数据,并基于其分析结果来识别对象物的种类。检测装置50使用图案匹配技术等来识别图像数据中包含的对象物是否是车辆、是否是行人(人类)、是否是标识。另外,检测装置50能够从图像数据中提取对象物的像,并根据该像的大小、形状来识别对象物的具体种类(四轮车、二轮车、公交车、载重汽车、工程车辆等)、车辆种类(小型车、大型车)、特殊车辆(应急汽车等)。检测装置50能够根据车道标记的形状来识别对象车辆V1的行驶车道为直行车道、右左转弯车道、合流车道等车道的属性。检测装置50能够根据标识的显示来判断处于可停车位置、疏散车道,从而识别对象车辆V1的停止位置的状态。
检测装置50预先存储从通讯装置100获取到的用户的面部的图像上的特征(外观上的特征),使用图案匹配技术,来判断该特征与被检测为行人(人类)的对象物的图像上的特征的一致度,在一致度为规定值以上的情况下,判断为检测出的对象物是行人、且是预约了利用对象车辆V1的用户。从图像数据中提取对象物的方法、提取对象物的面部图像的特征的方法没有特别限定,能够适当地利用申请时已知的方法。
检测装置50对获取到的图像数据进行处理,并基于在对象车辆V1的周围存在的对象物的位置,来获取从对象车辆V1到对象物的距离和/或对象物相对于对象车辆V1存在的方向。对于基于图像数据导出行驶场景信息的导出处理,能够适当地使用在本申请进行申请时已知的方法。
此外,本实施方式的检测装置50也可以使用雷达装置52。作为雷达装置52,能够使用毫米波雷达、激光雷达、超声波雷达等在申请时已知的方式的雷达。检测装置50对获取到的测量数据进行处理,并基于在对象车辆V1的周围存在的对象物的位置,来获取从对象车辆V1到对象物的距离和/或对象物相对于对象车辆V1存在的方向。对于基于测量数据导出行驶场景信息的导出处理,能够适当地使用在本申请进行申请时已知的方法。
本实施方式的传感器60具备转向角传感器61、车速传感器62。转向角传感器61检测基于对象车辆V1的转向量、转向速度、转向加速度等与转向有关的转向信息的行进方向,并经由车辆控制器70、通信装置40向通讯装置100发送。车速传感器62检测基于对象车辆V1的行进方向、对象车辆V1的车速/加速度等的行驶速度(包括停止),并经由车辆控制器70、通信装置40向通讯装置100发送。
本实施方式的车辆控制器70是发动机控制单元(Engine Control Unit,ECU)等车载计算机,对车辆的运转状态进行电子控制。作为本实施方式的车辆,能够例示出具备电动马达来作为行驶驱动源的电动汽车、具备内燃机来作为行驶驱动源的发动机汽车、具备电动马达和内燃机双方来作为行驶驱动源的混合动力汽车。此外,在将电动马达作为行驶驱动源的电动汽车、混合动力汽车中,也包括将二次电池作为电动马达的电源的类型、将燃料电池作为电动马达的电源的类型。
本实施方式的驱动装置80具备对象车辆V1的驱动机构。驱动机构包括上述的作为行驶驱动源的电动马达和/或内燃机、包括将来自这些行驶驱动源的输出传递到驱动轮的驱动轴和自动变速箱的动力传递装置、以及对车轮进行制动的制动装置81等。驱动装置80基于加速操作和制动操作的输入信号、从车辆控制器70或通讯装置100获取到的控制信号,来生成这些驱动机构的各控制信号,执行包括车辆的加减速的行驶控制。能够通过向驱动装置80发送控制信息来自动进行包括车辆的加减速的行驶控制。此外,在混合动力汽车的情况下,与车辆的行驶状态相应的电动马达和内燃机各自输出的转矩分配也被发送到驱动装置80。
本实施方式的转向装置90具备转向致动器。转向致动器包括安装于转向的柱轴的马达等。转向装置90基于从车辆控制器70获取到的控制信号或转向操作的输入信号,来执行车辆的行进方向的变更控制。车辆控制器70通过向转向装置90发送包含转向量的控制信息,来执行行进方向的变更控制。车辆控制器70具备执行自动驾驶(自主行驶)的处理的一个或多个处理器71。
本实施方式的导航装置120设定从对象车辆V1的当前位置到目的地的路径,借助后述的输出装置110向车辆控制器70输出路径信息。导航装置120具有位置检测装置121、道路种类、道路宽度、道路形状及其它的道路信息122、以及将道路信息122与各地点进行对应所得到的地图信息123。地图信息123包含与道路信息122相对应的设施信息124。设施信息124包含设施的属性、设施的位置。设施信息124包含所谓POI:Point of Interest(信息点)的信息。本实施方式的位置检测装置121具备全球定位***(Global Positioning System,GPS),来检测行驶中的车辆的行驶位置(纬度和经度)。导航装置120基于通过位置检测装置121检测出的对象车辆V1的当前位置,来确定对象车辆V1行驶的路径和道路连接线。本实施方式的道路信息122针对各道路连接线的识别信息,相对应地存储路口的位置、路口的行进方向、路口的种类以及其它与路口有关的信息。导航装置120以规定周期持续向通讯装置100发送通过位置检测装置121检测出的对象车辆V1的当前位置。
本实施方式的输出装置110输出与基于驾驶行动的行驶控制有关的信息。除了借助显示器111、扬声器112以外,还借助车厢外灯、车厢内灯来向对象车辆V1的乘客或其它车辆的乘客预告要执行转向操作、加减速的情况,来作为与使对象车辆V1在目标路径上行驶的控制信息相应的信息。另外,本实施方式的输出装置110也可以借助通信装置40向智能道路交通***(Intelligent Transport Systems:ITS)等外部装置输出与行驶辅助有关的各种信息。智能道路交通***等外部装置将包含车辆的速度、转向信息、行驶路径等的与行驶辅助有关的信息使用于多个车辆的交通管理。识别出输出信息的对象车辆V1的乘客和/或其它车辆的乘客能够做出与被控制为行驶的对象车辆V1的行为相应的应对。
说明用户终端装置300。用户终端装置300由预约了利用对象车辆的用户携带。用户终端装置300是用户能够携带的PDA(Personal Digital Assistant:个人数字助理)、智能手机等小型计算机。
如图1所示,用户终端装置300具备处理器310、通信装置320以及输入输出装置330。用户终端装置300经由通信装置320来与车辆控制装置200和/或通讯装置100进行信息的发送和接收。用户终端装置300也可以与通讯装置100形成为一体。
输入输出装置330包括显示器331、扬声器332。第二装置(用户终端装置300)的处理器310将从车辆控制装置200发送的、已接收到的对象车辆信息显示在显示器331。显示器331是触摸屏式的显示器。显示器331受理用户的登记信息、用户的预约信息等的输入。登记信息包含用户的姓名、用户的面部照片等个人信息。预约信息包含用户的识别信息、预约日期时间、预约的对象车辆的识别信息、开始利用对象车辆的乘车地点的信息、利用时间等。预约信息被发送到通讯装置100。在本例中,虽然示出了输入输出装置330设置于第二装置的例子,但是输入输出装置330也可以构成为第二装置以外的其它硬件。第二装置(用户终端装置300)的处理器310借助通信来向显示器331发送使其显示从车辆控制装置200发送的已接收到的对象车辆信息的命令,使显示器331执行显示处理。
以下,说明本实施方式的通讯装置100。
如图1所示,本实施方式的通讯装置100具备处理器10、通信装置20以及输出装置30。通信装置20与车辆控制装置200和/或用户终端装置300进行信息的发送和接收。输出装置30具有与之前叙述的车辆控制装置200的输出装置110同样的功能。作为输出装置30,也可以使用车辆控制装置200的输出装置110。
通讯装置100的处理器10是计算机,该计算机具备:ROM(Read Only Memory:只读存储器)12,其保存有执行对象车辆V1的行驶控制的程序;作为动作电路的CPU(CentralProcessing Unit:中央处理单元)11,其通过执行该ROM 12中保存的程序来作为通讯装置100发挥功能;以及RAM(Random Access Memory:随机存取存储器)13,其作为能够访问的存储装置发挥功能。
本实施方式所涉及的通讯装置100的处理器10具有信息获取功能、信息的生成功能以及输出功能。本实施方式的处理器10通过用于实现上述功能的软件与上述的硬件的协作来执行各功能。
通讯装置100具备:乘车地点获取部,其获取用户的乘车地点的位置;车辆信息获取部,其获取为用户调度的对象车辆的当前位置以及通过对象车辆具备的一个或两个以上的摄像机拍摄到的拍摄图像;对象车辆信息生成部,其在判断为对象车辆的当前位置属于以乘车地点的位置为基准定义的规定区的识别定时,使用拍摄图像来生成对象车辆信息;以及通信控制部,其进行控制使得向用户终端发送对象车辆信息。
处理器10具备的乘车地点获取部、车辆信息获取部用于实现信息获取功能。处理器10具备的对象车辆信息生成部用于实现信息的生成功能。处理器10具备的通信控制部用于实现控制输出的输出功能。
以下,说明本实施方式所涉及的通讯装置100的各功能。
处理器10借助通信装置320来获取构成对象车辆V1的周围的状况的信息。处理器10从检测装置50获取拍摄图像和/或检测信息。处理器10获取导航装置120检测出的位置信息。
处理器10获取用户乘坐预约的对象车辆的乘车地点的位置。处理器10获取包含用户预定要乘坐的(预约的)对象车辆的当前位置的信息。对象车辆的位置是通过导航装置120的位置检测装置121检测出的。对象车辆的信息包含对象车辆的车速、加速度。处理器10从车速传感器62获取对象车辆的速度。能够基于对象车辆的位置的经时变化来计算对象车辆的速度。能够根据对象车辆的速度来计算对象车辆的加速度。对象车辆的信息包含根据对象车辆V1的当前位置和车速求出的、将来的时刻的对象车辆的位置。能够根据对象车辆的当前位置和速度等来预测抵达目的地即乘车地点的定时。能够基于将来的时刻的对象车辆的位置来求出将来的时刻的对象车辆与用户、设施的位置关系。
图2示出对象车辆V1去向乘车地点PP的场景的一例。在图2所示的场景中,对象车辆V1去向路口CP,在路口CP左转,去向设定于疏散区的乘车地点PP。在乘车地点PP的前方存在车站ST。在乘车地点PP的前方左侧存在商店SP。用户UM背对商店SP,正在向乘车地点PP移动。
处理器10获取用户UM输入的预约信息所包含的乘车地点PP。处理器10以用户UM指定的乘车地点PP的位置为基准设定规定区R1。处理器10将判断为对象车辆V1的当前位置属于该规定区R1的定时设为识别定时。既可以基于对象车辆V1的规定位置是否属于规定区R1来判断对象车辆V1的当前位置是否属于规定区R1,也可以基于对象车辆V1的一部分或者全部是否属于规定区R1来判断对象车辆V1的当前位置是否属于规定区R1。处理器10在识别定时生成对象车辆信息。处理器10使用通过对象车辆V1具备的一个或两个以上的摄像机51拍摄到的拍摄图像GF来生成对象车辆信息。由于识别定时是对象车辆V1(预约的车辆)属于以用户UM的乘车地点PP为基准的规定区R1的定时,因此识别定时是想要利用对象车辆V1的用户UM意识到对象车辆V1的存在位置的定时。处理器10在该定时使用表示对象车辆V1的周围的状况的拍摄图像GF来生成对象车辆信息。处理器10向第二装置即用户终端装置300发送在识别定时生成的对象车辆信息。用户终端装置300将对象车辆信息显示在显示器331,因此用户UM在想要确认对象车辆V1的存在位置的定时,能够认识到该定时的包含表示对象车辆V1的周围的状况的拍摄图像GF的对象车辆信息。
处理器10在判断为对象车辆V1的当前位置属于作为距乘车地点PP规定距离D1的范围的规定区R1的识别定时,生成对象车辆信息。将识别定时设为对象车辆V1进入到距乘车地点PP规定距离D1的范围的定时,因此用户UM在对象车辆V1接近乘车地点PP且临近预约时刻从而想要确认存在位置的定时,能够确认该定时的包含表示周围的状况的拍摄图像GF的对象车辆信息GM。
处理器10在判定为对象车辆V1的当前位置属于作为离乘车地点PP最近的路口CP的通过地点AP所属的范围的规定区R2的识别定时,生成对象车辆信息。通过导航装置120计算对象车辆V1的路径。导航装置120能够参照地图信息123和道路信息122来提取出在路径上行驶的对象车辆V1到达乘车地点PP之前最后通过的路口CP(离乘车地点PP最近的路口CP)。路口CP的信息被发送到通讯装置100。在通过了离乘车地点PP最近的路口CP的定时生成并发送对象车辆信息,因此用户UM在想要确认对象车辆V1的存在位置的定时,能够确认该定时的包含表示周围的状况的拍摄图像GF的对象车辆信息GM。
处理器10在从用户UM接收到对象车辆信息GM的请求的识别定时,生成对象车辆信息GM。进行了对象车辆信息GM的请求的定时是用户UM想要积极地确认对象车辆V1的所在/状况的定时。在用户UM已接近乘车地点PP附近时不能确认对象车辆V1的所在/状况的情况下、或者在用户UM快要晚抵达乘车地点PP时,用户UM能够确认对象车辆V1的所在/状况。处理器10响应于来自用户UM的请求,生成对象车辆信息GM,并呈现给用户UM。用户UM在想要确认对象车辆V1的存在位置的定时,能够确认该定时的包含表示周围的状况的拍摄图像GF的对象车辆信息GM。
在图3中示出使用对象车辆V1的前方的拍摄图像GF生成的对象车辆信息GM的一例。对象车辆信息GM还包含表示对象车辆V1的行进方向的行进方向信息DF。行进方向信息DF也可以通过箭头、三角形等表示方向的图形表现。
如图4A所示,处理器10生成包含对象车辆V1的行进方向的拍摄图像GF的对象车辆信息GM。摄像区域Q1的拍摄方向与行进方向共同。处理器10也可以向车辆控制装置200发送行进方向的拍摄图像GF的获取和发送的指令。如图4B所示,在通过了在到达乘车地点PP之前最后通过的路口CP(离乘车地点PP最近的路口CP)的地点,生成包含对象车辆V1的行进方向的拍摄图像GF的对象车辆信息GM。摄像区域Q1的拍摄方向与行进方向共同。
在图4B所示的对象车辆V1的行进方向上存在车站ST。在对象车辆V1的行进方向的拍摄图像GF中包含车站ST的图像(参照图3)。在该定时生成的对象车辆信息GM包含车站ST的拍摄图像GF。指定了乘车地点PP的用户UM有可能已经认识到了乘车地点PP的周围的状况。看到了对象车辆信息GM的用户UM能够推测出对象车辆V1的行进方向。能够基于对象车辆V1的行进方向来判断对象车辆V1从哪个方向接近乘车地点PP。由此,用户UM能够确定自己能够乘坐的对象车辆V1。
如图4C所示,处理器10使用拍摄乘车地点PP相对于对象车辆V1所在的方向而得到的拍摄图像GF来生成对象车辆信息GM。在该情况下,对象车辆V1的行进方向与拍摄方向不同。拍摄方向是到达乘车地点PP的方向。也可以使摄像区域Q3包含乘车地点PP。移动中的对象车辆V1接近乘车地点PP。乘车地点PP是用户UM指定的地点,另外,用户UM也正在朝向乘车地点PP移动。看到朝向乘车地点PP的方向的拍摄图像GF的用户UM能够判断对象车辆V1从哪个方向接近乘车地点PP。由此,用户UM能够确定自己能够乘坐的对象车辆V1。
处理器10也可以向车辆控制装置200发送拍摄乘车地点PP的周围的设施的命令。处理器10参照地图信息123中包含的设施信息124来搜索在乘车地点PP的附近存在的设施,使用设施相对于对象车辆V1所在的方向的拍摄图像GF来制作对象车辆信息GM。处理器10既可以向车辆控制装置200发送包含乘车地点PP的周围的设施的确定信息的命令,也可以参照地图信息123和设施信息124来向车辆控制装置200发送包含设施相对于对象车辆V1存在的方向即拍摄方向的命令。例如,如图4D所示,也可以向车辆控制装置200发送拍摄包含左前方的店铺SP的像的拍摄图像GF的命令。摄像区域Q4的拍摄方向是从对象车辆V1起的存在店铺SP的方向。摄像区域Q4包含店铺SP。能够参照导航装置120具有的设施信息124来判断店铺SP的位置。指定了乘车地点PP的用户UM有可能已经知道了乘车地点PP的周围的设施。只要确认了对象车辆信息GM中包含的设施,用户UM就能够推测出对象车辆V1的行进方向。能够基于对象车辆V1的行进方向来预测对象车辆V1从哪个方向接近乘车地点PP。由此,用户UM能够确定自己预约的对象车辆V1。
也可以是,在对象车辆V1处于行驶中的情况下,处理器10生成包含对象车辆V1的行进方向的拍摄图像GF的对象车辆信息GM,在对象车辆V1在乘车地点PP的附近停止的情况下,处理器10生成包含用户UM上下车的左方向或右方向的拍摄图像GF的对象车辆信息GM。处于乘车地点PP的对象车辆V1的左侧或右侧的拍摄图像GF是接近对象车辆V1的用户UM的背后的影像。用户UM能够通过将背后的状况与对象车辆信息GM进行比较来确定对象车辆V1。
处理器10使用包含物体的图像的拍摄图像GF来生成对象车辆信息GM。在接近乘车地点PP的对象车辆V1会让的其它车辆、行人、自行车等物体的像包含在拍摄图像GF中的情况下,能够基于与该物体之间的位置关系来确定对象车辆V1。特别是,在物体为移动体的情况下,移动体(物体)与对象车辆V1的位置关系的时机是受限定的,因此能够基于移动体(物体)的拍摄图像GF来确定对象车辆V1。
如图4E所示,处理器10使用拍摄用户UM相对于对象车辆V1所在的方向而得到的拍摄图像GF来生成对象车辆信息GM。摄像区域Q5的拍摄方向是用户UM存在的方向。在摄像区域Q5中包含用户UM。处理器10获取用户终端装置300具备的位置检测装置检测出的位置信息来作为用户UM的位置。在用户UM所在的方向的拍摄图像GF中包含有用户UM的像的可能性高。用户UM能够根据包含自己的像的拍摄图像GF,来判断对象车辆V1的行进方向,从而确定对象车辆V1。
处理器10获取用户UM的面部图像,使用包含与用户UM的面部图像具有规定的一致度的图像的拍摄图像GF,来生成对象车辆信息GM。如图4E所示,摄像区域Q5的拍摄方向是用户UM的面部存在的方向。在摄像区域Q5中包含用户UM的面部。处理器10将预先进行了用户登记的面部信息的特征与拍摄图像GF中包含的人类的面部的特征进行匹配,来判断用户UM的存在位置。使用包含用户UM的面部的像的拍摄图像GF来生成对象车辆信息GM。能够根据包含用户UM的面部的拍摄图像GF,来判断对象车辆V1的行进方向,从而确定对象车辆V1。
处理器10生成包含拍摄方向的对象车辆信息GM。对象车辆信息GM包含表示拍摄方向的拍摄方向信息DS。拍摄方向信息DS的显示形式与图3所示的行进方向信息DF同样,也可以通过箭头、三角形等表示方向的图形来表现。在图3所示的例子中,行进方向与拍摄方向共同,但是也可以将拍摄方向设为与行进方向不同的方向。也可以将拍摄方向设为设施存在的方向、用户UM存在的方向。对象车辆信息GM中包含以对象车辆V1为基准表示拍摄方向的拍摄方向信息DS,因此用户UM能够判断车载的摄像机51的拍摄方向,并参照使用拍摄图像GF得到的对象车辆信息GM来确定对象车辆V1。
在对象车辆V1在乘车地点PP的附近停止的情况下,处理器10生成包含用户UM上下车的左方向或右方向的拍摄图像GF的对象车辆信息GM。在图4F所示的例子中,将左侧的方向设为拍摄方向,来获取摄像区域Q6的拍摄图像GF。在判断为对象车辆V1抵达了乘车地点PP的情况下,对象车辆V1在乘车地点PP的附近停止。处理器10将该定时设为识别定时。用户UM上下车的方向是路肩侧的方向。处理器10参照道路信息122和地图信息123,来判断对象车辆V1行驶的车道的右侧和左侧中的哪一侧为路肩侧。路肩侧是指不与相同方向的车道相邻的一侧。拍摄左方向或右方向的拍摄图像GF时的摄像机51相对于车辆的配置由处理器10或车辆控制器70预先存储。在获取右侧的方向的拍摄图像GF的情况下,处理器10使对象车辆V1的右侧的摄像机51执行摄像命令。在获取左侧的方向的拍摄图像GF的情况下,处理器10使对象车辆V1的左侧的摄像机51执行摄像命令。
本实施方式的对象车辆信息GM的形式没有限定。
处理器10生成包含俯视图像的对象车辆信息GM,该俯视图像是将对象车辆V1具备的多个摄像机51的拍摄图像GF进行合成而得到的图像。俯视图像是将配置于车辆的前后和左右的各位置的多个摄像机51的拍摄图像GF进行拼接、从上空的虚拟视点俯视对象车辆V1的顶部的图像。在俯视图像中包含对象车辆V1的整个周围的区域的影像。用户UM能够根据包含俯视图像的对象车辆信息GM来认识对象车辆V1的周围的状况。
例如,如图5A所示,设置于前格栅部分等对象车辆V1的前方的规定位置的摄像机51a对前方的区SP1内及其前方的空间进行拍摄。获得包含区SP1的空间的拍摄图像GF(前视)。另外,设置于左后视镜部分等对象车辆V1的左侧方的规定位置的摄像机51b对左侧方的区SP2内及其周围的空间进行拍摄。获得包含区SP2的空间的拍摄图像GF(左侧视)。另外,设置于后围部分、车顶扰流板部分等对象车辆V1的后方部分的规定位置的摄像机51c对对象车辆V1的后方的区SP3内及其后方的空间进行拍摄。获得包含区SP3的空间的拍摄图像GF(后视)。另外,设置于右后视镜部分等对象车辆V1的右侧方的规定位置的摄像机51d对对象车辆V1右侧方的区SP4内及其周围的空间进行拍摄。获得包含区SP4的空间的拍摄图像GF(右侧视)。图5B是从设定于上空的虚拟视点OP观察对象车辆V1的上表面(顶部)从而观察各摄像机51a~51d的配置和区SP1~SP4的图。如图5B所示,前视、左侧视、后视、右侧视被变换为共同的平面坐标(X-Y坐标)后,将重叠部分合成,并修订重叠部分的图像的失真,从而制作一个周围监视图像。
处理器10生成包含全景图像的对象车辆信息GM,该全景图像是将对象车辆V1具备的多个摄像机51的拍摄图像GF进行合成而得到的图像。全景图像是将配置于车辆的前后和左右的各位置的多个摄像机51的拍摄图像GF进行拼接、投影到以包围车辆的周围的方式设定的坐标的图像。在全景图像中包含对象车辆V1的整个周围的区域的影像。用户UM能够根据包含全景图像的对象车辆信息GM来认识对象车辆V1的周围的状况。
全景图像是将拍摄图像GF投影到投影模型来获得的。投影模型能够预先定义。在本例中,如图6A所示,采用以车辆的接地面(行驶面)为底面的柱体的投影模型M。预先准备用于使获取到的拍摄图像GF投影到在柱体的投影模型M的侧面设定的投影面上的匹配信息。匹配信息是使拍摄图像GF的坐标与模型M的坐标相对应的信息。图6B是沿着图6A所示的投影模型M的xy面的截面示意图。
图6A和6B所示的投影模型M是底面为正八边形且沿铅直方向(图中z轴方向)具有高度的正八棱柱体。此外,投影模型M的形状没有限定,也能够设为圆柱体或者三棱柱体、四棱柱体、六棱柱体等棱柱体、或者底面为多边形且侧面为三角形的三棱柱体。
在投影模型M的侧面的内侧面设定有与投影模型M的底面相接的映出对象车辆V1的周围的影像的投影面Sa、Sb、Sc、Sd(以下,统称为投影面S。)。能够将对象车辆V1的前方的拍摄图像GF投影到位于摄像机51a的拍摄方向的投影面Sa,将对象车辆V1的右侧方的拍摄图像GF投影到位于摄像机51b的拍摄方向的投影面Sb,将对象车辆V1的后方的拍摄图像GF投影到位于摄像机51c的拍摄方向的投影面Sc,将对象车辆V1的左侧方的拍摄图像GF投影到位于摄像机51d的拍摄方向的投影面Sd。投影到投影模型M的拍摄图像GF宛如环视载客车V的周围时看到的影像。在图6C中示出显示于用户终端装置300的对象车辆信息GM的一例。能够操作用户终端装置300的触摸屏式显示器331来指定虚拟视点,使得显示其它投影面S。
处理器10生成包含立体投影图像的对象车辆信息GM,该立体投影图像是将对象车辆V1具备的多个摄像机51的拍摄图像GF投影到立体坐标而得到的图像。立体投影图像是将配置于车辆的前后和左右的各位置的多个摄像机51的拍摄图像GF进行拼接、投影到以包围车辆的周围的方式设定的立体坐标的图像。在立体投影图像中包含对象车辆V1的整个周围的区域的影像。用户UM能够根据包含立体投影图像的对象车辆信息GM来认识对象车辆V1的周围的状况。
立体坐标系的形状没有限定。在图7A中示出圆筒形状的立体坐标系M的一例。以使对象车辆V1位于设定于圆筒内的平面G0上的方式设定立体坐标系M。在图7B中示出球形状的立体坐标系M的一例。以使对象车辆V1位于设定于球内的平面G0上的方式设定立体坐标系M。成为投影模型的立体坐标系M的形状也可以是在日本专利厅公开的日本特开2012-138660号公报中公开的碗(Bowl)形状。预先准备用于使获取到的拍摄图像GF投影到立体坐标系M的投影面上的匹配信息。匹配信息是使拍摄图像GF的坐标与立体坐标系M的坐标相对应的信息。
基于图8的流程图来说明本实施方式的通讯装置100的控制过程。此外,各步骤中的处理的内容如上所述,因此在此以处理的流程为中心进行说明。
在步骤S101中,处理器10获取对象车辆V1的当前位置。在步骤S102中,处理器10获取摄像机51的拍摄图像GF。在存在多个摄像机51的情况下,将包含摄像机51的配置信息(设置的位置的信息)的识别信息与拍摄图像GF一起获取。在步骤S103中,处理器10获取对象车辆的行进方向、速度等车辆信息。
在步骤S104中,处理器10判断是否是识别定时。识别定时是判断为对象车辆V1的当前位置属于以乘车地点PP的位置为基准定义的规定区R1的定时。识别定时也可以设为判断为对象车辆V1的当前位置属于作为距乘车地点PP规定距离D1的范围的规定区R1的定时。识别定时也可以设为判断为对象车辆V1的当前位置属于作为离乘车地点PP最近的路口CP的通过地点所属的范围的规定区R2的定时。识别定时也可以设为从用户UM接收到对象车辆信息GM的请求的定时。
在步骤S105中,处理器10判断对象车辆V1是否抵达了乘车地点PP。将对象车辆V1的当前位置与通过用户UM的预约而指定的乘车地点PP进行比较,在差小于规定值的情况下,判断为对象车辆V1抵达了乘车地点PP。在对象车辆V1抵达了乘车地点PP的情况下,进入步骤S106。
在步骤S106中,处理器10生成包含对象车辆V1的行进方向的拍摄图像GF的对象车辆信息GM,发送到用户终端装置300。也可以将对象车辆V1朝向的乘车地点PP的所在方向设为拍摄方向。在步骤S107中,处理器10判断在对象车辆V1的周围是否存在特征性对象(设施、物体、用户)。在存在特征性对象的情况下,进入步骤S108,生成使用包含对象的图像的拍摄图像GF得到的对象车辆信息GM,发送到用户终端装置300。包含店铺SP、车站ST等设施的图像、其它车辆、行人、自行车等物体的图像、或者预约了对象车辆V1的用户UM的图像的对象车辆信息GM被呈现给用户UM。用户UM能够根据对象车辆信息GM来获知对象车辆V1的行进方向,能够确定去向乘车地点PP的车辆中的用户UM所预约的对象车辆。
返回步骤S105,在对象车辆V1抵达了乘车地点PP的情况下,进入步骤S110。在步骤S110中,处理器10生成包含用户UM乘车的左方向或右方向的拍摄图像GF的对象车辆信息GM。用户UM乘车的方向(车宽方向的右侧或左侧)是对象车辆V1行驶的车道的路肩侧。该信息能够基于导航装置120的道路信息122来判断。道路信息122具有相对于车道的行进方向在左右哪个方向有路肩、在左右哪个方向有相邻的车道这样的信息。处理器10能够基于道路信息122来判断用户UM能够从车道的左右哪个方向乘坐对象车辆V1。处理器10向摄像机51发送将用户UM乘车的方向设为拍摄方向的摄像命令。处理器10向用户终端装置300发送获取到的对象车辆信息GM。此后,进入步骤S109,用户终端装置300的处理器310使显示器331显示对象车辆信息GM。
本发明的实施方式的通讯装置100如以上构成并进行动作,因此起到以下效果。
[1]根据本实施方式的通讯方法,处理器10获取用户UM的乘车地点PP和预定调度的对象车辆V1的当前位置,在判断为对象车辆V1的当前位置属于以乘车地点PP的位置为基准定义的规定区R1的识别定时,使用通过对象车辆V1具备的一个或两个以上的摄像机51拍摄到的拍摄图像GF,来生成对象车辆信息GM。处理器10向用户终端装置300(第二装置)发送生成的对象车辆信息GM。用户终端装置300在显示器331显示接收到的对象车辆信息GM。
识别定时是对象车辆(预约车辆)属于以用户的乘车地点为基准的规定区的定时,且是想要利用对象车辆的用户意识到对象车辆的存在位置的定时。处理器10在该定时使用表示对象车辆的周围的状况的拍摄图像GF来生成对象车辆信息GM,发送到用户终端装置300。用户终端装置300将对象车辆信息GM显示在显示器331。用户在想要确认对象车辆的存在位置的定时,能够认识到该定时的包含表示周围的状况的拍摄图像GF的对象车辆信息GM。这样,处理器10能够使具备检测装置50的车辆控制装置200(第一装置)与用户终端装置300(第二装置)适时地交换适当的信息。
[2]根据本实施方式的通讯方法,在判断为对象车辆V1的当前位置属于规定区的识别定时,生成对象车辆信息GM,其中,该规定区是距乘车地点PP规定距离D1的范围。将识别定时设为对象车辆V1进入了距乘车地点PP规定距离D1的范围的定时,因此用户UM在想要确认对象车辆V1接近了乘车地点PP(接近预约时刻)的对象车辆V1的存在位置的定时,能够确认该定时的包含表示周围的状况的拍摄图像GF的对象车辆信息GM。
[3]根据本实施方式的通讯方法,在判断为对象车辆V1的当前位置属于规定区R2的识别定时,处理器10生成对象车辆信息GM,其中,该规定区R2是离乘车地点PP最近的路口CP的通过地点AP所属的范围。对象车辆V1的路径是通过导航装置120计算出的。向用户UM呈现在通过了离乘车地点PP最近的路口CP的定时生成的对象车辆信息GM。用户UM在想要确认对象车辆V1的存在位置的定时,能够确认该定时的包含表示周围的状况的拍摄图像GF的对象车辆信息GM。
[4]根据本实施方式的通讯方法,在从用户UM接收到对象车辆信息GM的请求的识别定时,处理器10生成对象车辆信息GM。用户UM进行了对象车辆信息GM的请求的定时是用户UM想要积极地确认对象车辆V1的所在/状况的定时。处理器10响应于来自用户UM的请求,生成对象车辆信息GM,并呈现给用户UM。用户UM在想要确认对象车辆V1的存在位置的定时,能够确认该定时的包含表示周围的状况的拍摄图像GF的对象车辆信息GM。
[5]根据本实施方式的通讯方法,处理器10生成包含对象车辆V1的行进方向的拍摄图像GF的对象车辆信息GM。指定了乘车地点PP的用户UM有可能已经认识到了乘车地点PP的周围的状况。看到了对象车辆信息GM的用户UM能够推测出对象车辆V1的行进方向。能够基于对象车辆V1的行进方向来判断对象车辆V1从哪个方向接近乘车地点PP。由此,用户UM能够确定自己能够乘车的对象车辆V1。
[6]根据本实施方式的通讯方法,处理器10使用拍摄乘车地点PP相对于对象车辆V1所在的方向而得到的拍摄图像GF,来生成对象车辆信息GM。对象车辆V1接近的乘车地点PP是用户UM指定的地点。用户UM也正在朝向乘车地点PP移动。看到朝向乘车地点PP的方向的拍摄图像GF的用户UM能够判断对象车辆V1从哪个方向接近乘车地点PP。由此,用户UM能够确定自己能够乘车的对象车辆V1。
[7]根据本实施方式的通讯方法,在对象车辆V1在乘车地点PP的附近停止的情况下,处理器10生成包含用户UM上下车的左方向或右方向的拍摄图像GF的对象车辆信息GM。处于乘车地点PP的对象车辆V1的左侧或右侧的拍摄图像GF是接近对象车辆V1的用户UM的背后的影像。用户UM能够通过将背后的状况与对象车辆信息GM进行比较来确定对象车辆V1。
[8]根据本实施方式的通讯方法,处理器10参照地图信息123中包含的设施信息124,来搜索在乘车地点PP的附近存在的设施,使用设施相对于对象车辆V1所在的方向的拍摄图像GF,来生成对象车辆信息GM。
指定了乘车地点PP的用户UM有可能已经知道了乘车地点PP的周围的设施。只要确认了对象车辆信息GM中包含的设施,用户UM就能够推测出对象车辆V1的行进方向。能够基于对象车辆V1的行进方向来预测对象车辆V1从哪个方向接近乘车地点PP。由此,用户UM能够确定自己预约的对象车辆V1。
[9]根据本实施方式的通讯方法,处理器10使用包含物体的图像的拍摄图像GF,来生成对象车辆信息GM。在接近乘车地点PP的对象车辆V1会让的其它车辆、行人、自行车等物体的像包含在拍摄图像GF中的情况下,能够基于与该物体之间的位置关系来确定对象车辆V1。特别是,在物体为移动体的情况下,移动体(物体)与对象车辆V1的位置关系的时机是受限定的,因此能够基于移动体(物体)的拍摄图像GF来确定对象车辆V1。
[10]根据本实施方式的通讯方法,处理器10使用拍摄用户UM相对于对象车辆V1所在的方向而得到的拍摄图像GF,来生成对象车辆信息GM。处理器10获取用户终端装置300具备的位置检测装置检测出的位置信息来作为用户UM的位置。在用户UM所在的方向的拍摄图像GF中包含有用户UM的像的可能性高。用户UM能够根据包含自己的像的拍摄图像GF,来判断对象车辆V1的行进方向,从而确定对象车辆V1。
[11]根据本实施方式的通讯方法,处理器10获取用户UM的面部图像,使用包含与用户UM的面部图像具有规定的一致度的图像的拍摄图像GF,来生成对象车辆信息GM。处理器10将预先进行了用户登记的面部信息的特征与拍摄图像GF中包含的人类的面部的特征进行匹配,来判断用户UM的存在位置。使用包含用户UM的面部的像的拍摄图像GF来生成对象车辆信息GM。能够根据包含用户UM的面部的拍摄图像GF,来判断对象车辆V1的行进方向,从而确定对象车辆V1。
[12]根据本实施方式的通讯方法,处理器10生成包含拍摄方向的对象车辆信息GM。对象车辆信息GM包含表示拍摄方向的拍摄方向信息DS。由于在对象车辆信息GM中包含以对象车辆V1为基准表示拍摄方向的拍摄方向信息DS,因此用户UM能够判断对象车辆V1的行进方向,从而确定对象车辆V1。
[13]根据本实施方式的通讯方法,处理器10生成包含俯视图像的对象车辆信息GM,该俯视图像是将对象车辆V1具备的多个摄像机51的拍摄图像GF进行合成而得到的图像。俯视图像是将配置于车辆的前后和左右的各位置的多个摄像机51的拍摄图像GF进行拼接、从上空的虚拟视点俯视对象车辆V1的顶部的图像。在俯视图像中包含对象车辆V1的整个周围的区域的影像。用户UM能够根据包含俯视图像的对象车辆信息GM来认识对象车辆V1的周围的状况。
[14]根据本实施方式的通讯方法,处理器10生成包含全景图像的对象车辆信息GM,该全景图像是将对象车辆V1具备的多个摄像机51的拍摄图像GF进行合成而得到的图像。全景图像是将配置于车辆的前后和左右的各位置的多个摄像机51的拍摄图像GF进行拼接、投影到以包围车辆的周围的方式设定的坐标的图像。在全景图像中包含对象车辆V1的整个周围的区域的影像。用户UM能够根据包含全景图像的对象车辆信息GM来认识对象车辆V1的周围的状况。
[15]根据本实施方式的通讯方法,处理器10生成包含立体投影图像的对象车辆信息GM,该立体投影图像是将对象车辆V1具备的多个摄像机51的拍摄图像GF投影到立体坐标而得到的图像。立体投影图像是将配置于车辆的前后和左右的各位置的多个摄像机51的拍摄图像GF进行拼接、投影到以包围车辆的周围的方式设定的立体坐标的图像。在立体投影图像中包含对象车辆V1的整个周围的区域的影像。用户UM能够根据包含立体投影图像的对象车辆信息GM来认识对象车辆V1的周围的状况。
[16]本实施方式的车辆调度***1起到与上述的通讯方法同样的作用和效果。
此外,以上说明的实施方式是为了容易理解本发明而记载的,不是为了限定本发明而记载的。因而,在上述的实施方式中公开的各要素也包括属于本发明的技术范围的所有设计变更、均等物。
附图标记说明
1:车辆调度***;100:通讯装置;10:处理器;11:CPU;12:ROM;13:RAM;20:通信装置;30:输出装置;31:显示器;32:扬声器;200:车辆控制装置;40:通信装置;50:检测装置;51:摄像机;52:雷达装置;53:麦克风;60:传感器;61:转向角传感器;62:车速传感器;70:车辆控制器;71:处理器;80:驱动装置;81:制动装置;90:转向装置;110:输出装置;111:显示器;112:扬声器;120:导航装置;121:位置检测装置;122:道路信息;123:地图信息;124:设施信息;300:用户终端装置;310:处理器;311:CPU;312:ROM;313:RAM;320:通信装置;330:输入输出装置;331:触摸屏式显示器;332:扬声器。

Claims (17)

1.一种通讯方法,在具备通讯装置的车辆调度***中使用,所述通讯装置对能够相互进行信息发送和接收的第一装置与第二装置的通讯进行控制,在所述通讯方法中,
所述通讯装置的处理器进行以下动作:
获取用户的乘车地点的位置和为所述用户调度的对象车辆的当前位置;
在判断为所述对象车辆的所述当前位置属于以所述乘车地点的位置为基准定义的规定区的识别定时,使用通过所述对象车辆具备的一个或两个以上的摄像机拍摄到的拍摄图像,来生成对象车辆信息;以及
向所述第二装置发送所述对象车辆信息,
所述第二装置使显示器显示接收到的所述对象车辆信息。
2.根据权利要求1所述的通讯方法,其特征在于,
在判断为所述对象车辆的所述当前位置属于所述规定区的所述识别定时,所述处理器生成所述对象车辆信息,其中,该规定区是距所述乘车地点规定距离的范围。
3.根据权利要求1或2所述的通讯方法,其特征在于,
在判断为所述对象车辆的所述当前位置属于所述规定区的所述识别定时,所述处理器生成所述对象车辆信息,其中,该规定区是离所述乘车地点最近的路口的通过地点所属的范围。
4.根据权利要求1~3中的任一项所述的通讯方法,其特征在于,
在从所述用户接收到所述对象车辆信息的请求的所述识别定时,所述处理器生成所述对象车辆信息。
5.根据权利要求1~4中的任一项所述的通讯方法,其特征在于,
所述处理器生成包含所述对象车辆的行进方向的所述拍摄图像的所述对象车辆信息。
6.根据权利要求1~5中的任一项所述的通讯方法,其特征在于,
所述处理器使用拍摄所述乘车地点相对于所述对象车辆所在的方向而得到的所述拍摄图像,来生成所述对象车辆信息。
7.根据权利要求1~6中的任一项所述的通讯方法,其特征在于,
在所述对象车辆在所述乘车地点的附近停止的情况下,所述处理器生成包含所述用户上下车的左方向或右方向的所述拍摄图像的所述对象车辆信息。
8.根据权利要求1~7中的任一项所述的通讯方法,其特征在于,
所述处理器进行以下动作:
参照地图信息中包含的设施信息,来搜索在所述乘车地点的附近存在的设施,
使用所述设施相对于所述对象车辆所在的方向的所述拍摄图像,来生成所述对象车辆信息。
9.根据权利要求1~8中的任一项所述的通讯方法,其特征在于,
所述处理器使用包含物体的图像的所述拍摄图像,来生成所述对象车辆信息。
10.根据权利要求1~9中的任一项所述的通讯方法,其特征在于,
所述处理器使用拍摄所述用户相对于所述对象车辆所在的方向而得到的所述拍摄图像,来生成所述对象车辆信息。
11.根据权利要求1~10中的任一项所述的通讯方法,其特征在于,
所述处理器进行以下动作:
获取所述用户的面部图像,
使用包含与所述面部图像具有规定的一致度的图像的所述拍摄图像,来生成所述对象车辆信息。
12.根据权利要求1~11中的任一项所述的通讯方法,其特征在于,
所述处理器生成包含拍摄方向的所述对象车辆信息。
13.根据权利要求1~12中的任一项所述的通讯方法,其特征在于,
所述处理器生成包含俯视图像的所述对象车辆信息,所述俯视图像是将所述对象车辆具备的多个所述摄像机的所述拍摄图像进行合成而得到的图像。
14.根据权利要求1~13中的任一项所述的通讯方法,其特征在于,
所述处理器生成包含全景图像的所述对象车辆信息,所述全景图像是将所述对象车辆具备的多个所述摄像机的所述拍摄图像进行合成而得到的图像。
15.根据权利要求1~14中的任一项所述的通讯方法,其特征在于,
所述处理器生成包含将所述对象车辆具备的多个所述摄像机的所述拍摄图像投影到立体坐标系而得到的图像的所述对象车辆信息。
16.一种车辆调度***,具备:
能够相互进行信息发送和接收的第一装置和第二装置,该第二装置是用户携带的装置;以及
对所述第一装置与所述第二装置的通讯进行控制的通讯装置,
其中,所述通讯装置的处理器进行以下动作:
获取所述用户的乘车地点的位置和为所述用户调度的对象车辆的当前位置;
在判断为所述对象车辆的所述当前位置属于以所述乘车地点的位置为基准定义的规定区的识别定时,使用通过所述对象车辆具备的一个或两个以上的摄像机拍摄到的拍摄图像,来生成对象车辆信息;以及
向所述第二装置发送所述对象车辆信息,
所述第二装置使显示器显示接收到的所述对象车辆信息。
17.一种通讯装置,具备:
乘车地点获取部,其获取用户的乘车地点的位置;
车辆信息获取部,其获取为所述用户调度的对象车辆的当前位置和通过所述对象车辆具备的一个或两个以上的摄像机拍摄到的拍摄图像;
对象车辆信息生成部,其在判断为所述对象车辆的所述当前位置属于以所述乘车地点的位置为基准定义的规定区的识别定时,使用所述拍摄图像来生成对象车辆信息;以及
通信控制部,其进行控制使得向用户终端发送所述对象车辆信息。
CN201880094805.3A 2018-06-20 2018-06-20 用于车辆调度***的通讯方法、车辆调度***以及通讯装置 Pending CN112602124A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2018/000945 WO2019243860A1 (ja) 2018-06-20 2018-06-20 配車システムのためのコミュニケーション方法、配車システム及びコミュ二ケーシヨン装置

Publications (1)

Publication Number Publication Date
CN112602124A true CN112602124A (zh) 2021-04-02

Family

ID=68983468

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880094805.3A Pending CN112602124A (zh) 2018-06-20 2018-06-20 用于车辆调度***的通讯方法、车辆调度***以及通讯装置

Country Status (4)

Country Link
US (1) US12002359B2 (zh)
JP (1) JP7020550B2 (zh)
CN (1) CN112602124A (zh)
WO (1) WO2019243860A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861359B2 (en) * 2017-05-16 2020-12-08 Texas Instruments Incorporated Surround-view with seamless transition to 3D view system and method
JP2020135113A (ja) * 2019-02-14 2020-08-31 トヨタ自動車株式会社 走行制御装置および走行制御方法
WO2022201244A1 (ja) * 2021-03-22 2022-09-29 日本電気株式会社 乗車支援システム、乗車支援方法及びプログラム記録媒体

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (ja) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd 配車システムおよび配車依頼プログラム並びに情報端末
JP2003256988A (ja) * 2002-02-20 2003-09-12 E-Lead Electronic Co Ltd 車両派遣システム及び方法
JP2007243389A (ja) * 2006-03-07 2007-09-20 Clarion Co Ltd 車載用放送受信システム、放送受信制御装置、放送受信制御方法および制御プログラム
JP2012088925A (ja) * 2010-10-19 2012-05-10 Mm Incubation Partners Co Ltd エコタクシー配車支援システム
JP2015230690A (ja) * 2014-06-06 2015-12-21 パナソニックIpマネジメント株式会社 車両確認システム、車載装置、端末装置、サーバ、及び、車両確認制御方法
CN105404929A (zh) * 2014-09-16 2016-03-16 口碑控股有限公司 打车过程中目标定位辨识的方法、设备和***
US20160305794A1 (en) * 2013-12-06 2016-10-20 Hitachi Automotive Systems, Ltd. Vehicle position estimation system, device, method, and camera device
CN106534132A (zh) * 2016-11-17 2017-03-22 京东方科技集团股份有限公司 基于打车订单的视频处理方法、装置、服务器和***
CN107437183A (zh) * 2016-05-25 2017-12-05 滴滴(中国)科技有限公司 一种上车乘客身份的确认方法及***

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205782A (ja) 1998-01-07 1999-07-30 Toyota Motor Corp 車両用前方画像処理装置及び車両用前方画像処理システム
JP2002334395A (ja) * 2001-05-08 2002-11-22 Yazaki Corp タクシー顧客ガイドシステム
JP2002367088A (ja) 2001-06-12 2002-12-20 Fujitsu Ltd 車輌情報提供方法および車輌情報提供プログラム
JP2004046404A (ja) 2002-07-10 2004-02-12 Fuji Photo Film Co Ltd 車両位置通知装置
GB2424730A (en) * 2005-03-29 2006-10-04 Matthew Emmerson Allen Storage of road side images and retrieval through a map interface
US9264672B2 (en) * 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
JP5716389B2 (ja) 2010-12-24 2015-05-13 日産自動車株式会社 車両用表示装置
CN202929851U (zh) * 2012-11-22 2013-05-08 杨光 公交信息实时查询***
US9494938B1 (en) 2014-04-03 2016-11-15 Google Inc. Unique signaling for autonomous vehicles to preserve user privacy
WO2016075810A1 (ja) 2014-11-14 2016-05-19 日産自動車株式会社 表示装置及び表示方法
JP2017228115A (ja) * 2016-06-23 2017-12-28 ルネサスエレクトロニクス株式会社 情報を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および情報を提供するための装置
CA3034350A1 (en) 2016-08-26 2018-03-01 Sony Corporation Moving object control apparatus, moving object control method, and moving object
KR101859106B1 (ko) * 2017-01-31 2018-05-17 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10527428B1 (en) * 2017-07-19 2020-01-07 Uatc, Llc Capacity based vehicle operation
JP6900854B2 (ja) * 2017-09-12 2021-07-07 トヨタ自動車株式会社 配車システム及び配車管理サーバ
JP6870561B2 (ja) * 2017-10-10 2021-05-12 トヨタ自動車株式会社 配車装置及び配車方法
JP6904211B2 (ja) * 2017-10-25 2021-07-14 トヨタ自動車株式会社 配車システムおよびそれに用いられる配車装置ならびに配車方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (ja) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd 配車システムおよび配車依頼プログラム並びに情報端末
JP2003256988A (ja) * 2002-02-20 2003-09-12 E-Lead Electronic Co Ltd 車両派遣システム及び方法
JP2007243389A (ja) * 2006-03-07 2007-09-20 Clarion Co Ltd 車載用放送受信システム、放送受信制御装置、放送受信制御方法および制御プログラム
JP2012088925A (ja) * 2010-10-19 2012-05-10 Mm Incubation Partners Co Ltd エコタクシー配車支援システム
US20160305794A1 (en) * 2013-12-06 2016-10-20 Hitachi Automotive Systems, Ltd. Vehicle position estimation system, device, method, and camera device
JP2015230690A (ja) * 2014-06-06 2015-12-21 パナソニックIpマネジメント株式会社 車両確認システム、車載装置、端末装置、サーバ、及び、車両確認制御方法
CN105404929A (zh) * 2014-09-16 2016-03-16 口碑控股有限公司 打车过程中目标定位辨识的方法、设备和***
CN107437183A (zh) * 2016-05-25 2017-12-05 滴滴(中国)科技有限公司 一种上车乘客身份的确认方法及***
CN106534132A (zh) * 2016-11-17 2017-03-22 京东方科技集团股份有限公司 基于打车订单的视频处理方法、装置、服务器和***

Also Published As

Publication number Publication date
US20210264783A1 (en) 2021-08-26
JPWO2019243860A1 (ja) 2021-07-26
WO2019243860A1 (ja) 2019-12-26
US12002359B2 (en) 2024-06-04
JP7020550B2 (ja) 2022-02-18

Similar Documents

Publication Publication Date Title
CN110709271B (zh) 车辆控制***、车辆控制方法及存储介质
CN111469838B (zh) 一种基于车联网的协同acc/aeb决策管理***及该车辆
CN108973682B (zh) 车辆控制***、车辆控制方法及存储介质
CN110709272B (zh) 车辆控制***、车辆控制方法及存储介质
CN108885828B (zh) 车辆控制***、车辆控制方法及存储介质
CN108973988B (zh) 车辆控制***、车辆控制方法及存储介质
JP2018077087A (ja) 情報表示装置、情報表示方法、および情報表示プログラム
WO2018142560A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6465497B2 (ja) 情報表示装置、情報表示方法、および情報表示プログラム
KR101711797B1 (ko) 자율 주행 차량의 자동 주차 시스템 및 그 제어방법
CN108973989B (zh) 车辆控制***、车辆控制方法及存储介质
CN110603166A (zh) 车辆控制***、车辆控制方法及车辆控制程序
JP2019014300A (ja) 車両制御システム、車両制御方法、およびプログラム
CN111830859A (zh) 车辆远程指示***
US20180128634A1 (en) Information display device, information display method, and information display program
WO2018142562A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2022138123A1 (en) Available parking space identification device, available parking space identification method, and program
CN112602124A (zh) 用于车辆调度***的通讯方法、车辆调度***以及通讯装置
JP2018203014A (ja) 撮像表示ユニット
CN114842075B (zh) 数据标注方法、装置、存储介质及车辆
JP2018124911A (ja) 車両制御装置、車両制御方法、および車両制御プログラム
US20220364874A1 (en) Method of providing image by vehicle navigation device
CN115164910B (zh) 行驶路径生成方法、装置、车辆、存储介质及芯片
JP2018081623A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination