CN106945606A - 驻车执行装置以及车辆 - Google Patents

驻车执行装置以及车辆 Download PDF

Info

Publication number
CN106945606A
CN106945606A CN201611020302.0A CN201611020302A CN106945606A CN 106945606 A CN106945606 A CN 106945606A CN 201611020302 A CN201611020302 A CN 201611020302A CN 106945606 A CN106945606 A CN 106945606A
Authority
CN
China
Prior art keywords
parking
processor
vehicle
image
execution device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611020302.0A
Other languages
English (en)
Other versions
CN106945606B (zh
Inventor
金浩
金一浩
吴娜美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN106945606A publication Critical patent/CN106945606A/zh
Application granted granted Critical
Publication of CN106945606B publication Critical patent/CN106945606B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种驻车执行装置,其中,包括:多个照相机,获取车辆周边的影像;显示部,显示将所述多个照相机获取的影像进行合成来生成的环视影像,接收在所述环视影像上输入的第一用户输入;以及处理器,控制所述显示部在所述环视影像上显示用于表示与所述第一用户输入对应的预计驻车区域的驻车引导图像,在所述驻车引导图像与实际驻车区域相匹配时,提供用于驻车控制的信号。

Description

驻车执行装置以及车辆
技术领域
本发明涉及驻车执行装置以及车辆。
背景技术
车辆是用于将乘坐的用户朝所需的方向移动的装置。作为代表性的可举例有汽车。
另外,为了给利用车辆的用户提供便利,车辆中配备各种传感器和电子装置等渐成为一种趋势。特别是,开发出用于用户的驾驶便利的多种装置等。
最近,随着对自主驾驶车辆的关注度不断提高,积极展开有关于自主驾驶车辆上搭载的传感器的研究。作为自主驾驶车辆上搭载的传感器有照相机、红外线传感器、雷达、GPS、激光雷达(Lidar)、陀螺仪等,其中,照相机作为用于向用户提供多种信息的传感器,其占据着重要的位置。
另外,最近推出的量产车上搭载有自动驻车功能。但是,在自动驻车的情况下,未能充分地提供使驾驶者选择驻车空间等的用户界面。在现有技术的自动驻车中,通过按下规定的按键等方式来执行驻车。在此情况下,无法根据用户所需的位置、方向、与周边物体的距离等来精细地执行驻车,未能提供符合用户要求的用户界面。
发明内容
为了解决如上所述的问题,本发明的实施例的目的在于提供一种能够实现车辆和用户之间相互精密的接合(interface)的驻车执行装置。
并且,本发明的实施例的目的在于提供一种包括驻车执行装置的车辆。
本发明的目的并不限定于以上提及到的目的,本领域的技术人员能够通过以下的记载明确理解未被提及到的其他目的。
为了实现所述目的,本发明的实施例的驻车执行装置,其中,包括:多个照相机,获取车辆周边的影像;显示部,显示将所述多个照相机获取的影像进行合成来生成的环视影像,接收在所述环视影像上输入的第一用户输入;以及处理器,控制所述显示部在所述环视影像上显示用于表示与所述第一用户输入对应的预计驻车区域的驻车引导图像,在所述驻车引导图像与实际驻车区域相匹配时,提供用于驻车控制的信号。
为了实现所述目的,本发明的实施例的车辆,其中,包括以上所述的驻车执行装置。
其他实施例的具体事项包括于详细的说明及附图中。
本发明的实施例具有如下效果的一种或其以上。
第一、向用户提供用于驻车的用户界面。
第二、除了所设定的驻车方式以外,能够根据状况选择多种驻车方式或形态并加以利用。
第三、在没有停车线的状态下,也能够根据用户输入适当地进行驻车。
第四、在驻车完毕后状况变更时,能够根据状况进行移动驻车。
本发明的效果并不限定于以上提及到的效果,本领域的技术人员能够从权利要求书的记载明确理解未被提及到的其他效果。
附图说明
图1是示出本发明的实施例的车辆的外观的图。
图2A是概略示出本发明的实施例的多个照相机的位置的图。
图2B是在说明本发明的实施例的环视图像时作为参照的图。
图3A至图3C是在说明本发明的多种实施例的照相机模块时作为参照的图。
图4A至图4B是在说明本发明的实施例的车辆用驻车执行装置时作为参照的框图。
图5A至图5B示出图4A至图4B的处理器的内部框图。图5C是示出图5A至图5B的处理器中的对象检测的图。
图6是在说明本发明的一实施例的照相机时作为参照的框图。
图7A至图7C是在说明本发明的实施例的车辆用驻车执行装置的动作时作为参照的流程图。
图8是在说明本发明的实施例的车辆时作为参照的框图。
图9是在说明本发明的实施例的显示可驻车空间以及推荐驻车空间的动作时作为参照的示意图。
图10是在说明本发明的实施例的接收触摸及拖拽输入方式的第一用户输入的动作时作为参照的示意图。
图11是在说明本发明的实施例的接收长触摸输入方式的第一用户输入的动作时作为参照的示意图。
图12是在说明本发明的实施例的接收基于移动终端的第一用户输入的动作时作为参照的示意图。
图13是在说明本发明的实施例的接收基于可穿戴设备的第一用户输入的动作时作为参照的示意图。
图14A至图14B是在说明本发明的实施例的接收第二用户输入以变更或移动驻车引导图像的动作时作为参照的示意图。
图15A及图15B是在说明本发明的实施例的输出可驻车或不可驻车状态信息的动作时作为参照的图。
图16是在说明本发明的实施例的在按照驻车引导图像进行驻车时显示与周边对象的预计距离的动作时作为参照的示意图。
图17是在说明本发明的实施例的考虑到驾驶者的下车空间的驻车执行动作时作为参照的示意图。
图18是在说明本发明的实施例的在驻车完毕后根据周边环境变化而进行移动驻车的动作时作为参照的图。
图19是在说明本发明的实施例的在驻车完毕后根据预设定的预约而进行移动驻车的动作时作为参照的图。
图20是在说明本发明的实施例的根据通过显示在显示部的地图而输入的用户输入来进行驻车的动作时作为参照的图。
附图标记的说明
100:驻车执行装置 700:车辆
具体实施方式
以下参照附图对本说明书所揭示的实施例进行详细的说明,在此,与附图标记无关的对相同或类似的结构元件赋予相同的参照标记,并将省去对其重复的说明。在以下说明中使用的针对结构元件的接尾词“模块”及“部”仅是考虑到便于说明书的撰写而被赋予或混用,其自身并不带有相互区分的含义或作用。并且,在对本发明揭示的实施例进行说明的过程中,如果判断为对于相关的公知技术的具体说明会导致混淆本说明书所揭示的实施例的技术思想,则将省去对其详细的说明。并且,所附的附图仅是为了容易理解本说明书所揭示的实施例,不应由所附的附图来限定本发明所揭示的技术思想,而是应当涵盖了本发明的思想及技术范围中所包括的所有变更、均等物乃至替代物。
第一、第二等包含序数的术语可用于说明多种结构元件,但是所述结构元件并不由所述术语所限定。所述术语仅是用于将一个结构元件与其他结构元件区分的目的来使用。
如果提及到某个结构元件“连接”或“接触”于另一结构元件,其可能是直接连接于或接触于另一结构元件,但也可被理解为是他们中间存在有其他结构元件。反之,如果提及到某个结构元件“直接连接”或“直接接触”于另一结构元件,则应当被理解为是他们之间不存在有其他结构元件。
除非在上下文明确表示有另行的含义,单数的表达方式应包括复数的表达方式。
在本申请中,“包括”或“具有”等术语仅是为了指定说明书上记载的特征、数字、步骤、动作、结构元件、部件或其组合的存在,而并不意在排除一个或其以上的其他特征或数字、步骤、动作、结构元件、部件或其组合的存在或添加的可能性。
本说明书中说明的车辆可以是包括汽车、摩托车的概念。以下,对于车辆将以汽车为主进行说明。
本说明书中描述的车辆可以是将作为动力源具有引擎的内燃机车辆、作为动力源具有引擎和电动马达的混合动力车辆、作为动力源具有电动马达的电动汽车等均涵盖的概念。
在以下的说明中,车辆的左侧表示车辆的行驶方向的左侧,车辆的右侧表示车辆的行驶方向的右侧。
图1是示出本发明的实施例的车辆的外观的图。
参照图1,车辆700可包括:利用动力源进行旋转的车轮103FR、103FL、103RL..;用于调节车辆700的行驶方向的方向盘;以及贴附在车辆700的多个照相机195。
多个照相机195可在各自被配置的位置获取所拍摄的车辆周边影像。多个照相机195获取的图像可在车辆用驻车执行装置100内被信号处理。
另外,多个照相机195可构成为两个以上。在以下的说明中,以多个照相机195为四个为例进行说明,但是本发明的范围并不限定照相机的数目。
根据实施例,多个照相机195可以是两个、三个、四个或其以上。
图2A是概略示出本发明的实施例的多个照相机的位置的图。
参照图2A,多个照相机195a、195b、195c、195d可分别配置在车辆的左侧、后方、右侧以及前方。
特别是,左侧照相机195a和右侧照相机195c可分别配置在围绕左侧侧镜的壳体内和围绕右侧侧镜的壳体内。
另外,后方照相机195b和前方照相机195d可分别配置在后备箱开关附近以及标徽或标徽附近。
多个照相机195a、195b、195c、195d拍摄的各个多个图像传送给车辆700内的处理器(图4A或图4B的170)等,控制部(图4A或图4B的770)可组合多个图像,从而生成环视影像。
图2B是在说明本发明的实施例的环视图像时作为参照的图。
环视图像201可包含:来自左侧照相机195a的第一图像区域195ai;来自后方照相机195b的第二图像区域195bi;来自右侧照相机195c的第三图像区域195ci;来自前方照相机195d第四图像区域195di。
另外,在组合多个图像来生成环视图像时,各图像区域之间产生边界部分。这样的边界部分可利用图像融合(blending)处理来自然地进行显示。
另外,在多个影像各自的边界上可显示边界线202a、202b、202c、202d。
图3A至图3C是在说明本发明的多种实施例的照相机模块时作为参照的图。
图3A是在说明本发明的第一实施例的全向照相机模块195时作为参照的图。
参照图3A,全向照相机模块195可包括多个照相机301a、301b、301c、301d、301e、301f,…。多个照相机301a、301b、301c、301d、301e、301f,…可各自包括图像传感器(例如,CCD或CMOS)以及镜头。多个照相机301a、301b、301c、301d、301e、301f,…各自可在多个方向获取影像。获取的多个影像可传送给处理器170并进行合成。
在全向照相机模块195配置于车辆700的情况下,可通过多个照相机301a、301b、301c、301d、301e、301f,…以车辆700为中心获取全向影像。例如,全向照相机模块195可获取车辆的前方、后方、左侧方、右侧方、下方、上方影像。
另外,为了能够获取全向影像,可适当地确定多个照相机301a、301b、301c、301d、301e、301f,…的数目和位置。多个照相机301a、301b、301c、301d、301e、301f,…各自可具有适当的视角,以能够使其获取的影像与相邻的照相机获取的影像重叠一部分。
另外,处理器170可基于从多个照相机301a、301b、301c、301d、301e、301f,…各自获取的影像中的相互重叠的部分中检测出的规定的特征点来合成所有影像。例如,处理器170可在第一照相机301a获取的第一影像和第二照相机301b获取的第二影像的相重叠的区域检测出共同的特征点。处理器170可基于检测出的特征点来合成第一影像和第二影像。利用如上所述的方法,处理器170可对多个照相机301a、301b、301c、301d、301e、301f,…中接收到的多个影像进行合成,从而生成全向影像。
图3B是在说明本发明的第二实施例的全向照相机模块195时作为参照的图。
参照图3B,全向照相机模块195可包括多个照相机311a、312a、312b、312c、312d、312e、312f,…。多个照相机311a、312a、312b、312c、312d、312e、312f,…各自可包括图像传感器(例如,CCD或CMOS)以及镜头。多个照相机311a、312a、312b、312c、312d、312e、312f,…各自可在多个方向获取影像。获取的多个影像可传送给处理器170并进行合成。
在全向照相机模块195配置于车辆700的情况下,可通过多个照相机311a、312a、312b、312c、312d、312e、312f,…以车辆700为中心获取全向影像。
例如,多个照相机311a、312a、312b、312c、312d、312e、312f,…中的第一照相机311a可获取车辆700的上方影像。在此情况下,第一照相机311a优选是广角照相机。多个照相机311a、312a、312b、312c、312d、312e、312f,…中的除了第一照相机311a以外的其余照相机312a、312b、312c、312d、312e、312f,…可获取车辆700的侧方以及下方影像。
第一照相机311a获取的影像和多个照相机311a、312a、312b、312c、312d、312e、312f,…中的除了第一照相机311a以外的其余照相机312a、312b、312c、312d、312e、312f,…获取的各个影像可重叠一部分。处理器170可基于从重叠的部分中检测出的规定的特征点来合成影像。
并且,多个照相机311a、312a、312b、312c、312d、312e、312f,…中的除了第一照相机311a以外的其余照相机312a、312b、312c、312d、312e、312f,…获取的各个影像可分别重叠一部分。处理器170可基于从重叠的部分中检测出的规定的特征点来合成影像。
处理器170可对多个照相机311a、312a、312b、312c、312d、312e、312f,…中接收到的多个影像进行合成,从而生成全向影像。
图3C是在说明本发明的第三实施例的全向照相机模块195时作为参照的图。
参照图3C,全向照相机模块195可包括照相机321以及抛物柱面镜322(Parabolicmirror)。照相机321可包括图像传感器(例如,CCD或CMOS)以及镜头。
照相机321可获取被抛物柱面镜322反射的图像。其中,图像可以是全向影像。
图4A至图4B是在说明本发明的实施例的车辆用驻车执行装置时作为参照的框图。
车辆用驻车执行装置100可组合从多个照相机195接收的多个图像来生成环视图像。
参照图4A,车辆用驻车执行装置100可包括:输入部110、通信部120、接口部130、存储器140、处理器170、显示部180、音频输出部185、供电部190以及照相机195。
输入部110可设置有多个按键或触摸屏。通过多个按键或触摸屏可开启驻车执行装置100的电源并使其进行动作。除此之外,可还执行多种输入动作。
通信部120可通过无线(wireless)方式与移动终端600、服务器601或其他车辆602进行数据交换。特别是,通信部120可通过无线方式与车辆驾驶者的移动终端进行数据交换。作为无线数据通信方式可有蓝牙(Bluetooth)、直通互联(WiFi Direct)、WiFi、APiX或NFC等多种数据通信方式。
通信部120可从移动终端600或服务器601接收天气信息、道路交通状况信息,例如可接收传输协议专家组(Transport Protocol Expert G roup,TPEG)信息。另外,可向移动终端600或服务器601传送驻车执行装置100中确认的实时信息。
另外,在用户乘坐车辆的情况下,用户的移动终端600和驻车执行装置100可自动地或通过用户执行应用程序来执行彼此配对(pairing)。
通信部120可从外部服务器601接收信号灯变更信息。其中,外部服务器601可以是位于管制交通的交通管制所的服务器。
接口部130可接收车辆相关数据或向外部传送处理器170中处理或生成的信号。为此,接口部130可通过有线通信或无线通信方式与车辆内部的控制部770、车辆用显示装置400、检测部760、车辆驱动部750等执行数据通信。
接口部130可通过与控制部770、车辆用显示装置400或额外的导航装置的数据通信来接收导航信息。其中,导航信息可包含:设定的目的地信息、与所述目的地对应的路径信息、与车辆行驶相关的地图(map)信息、车辆的当前位置信息。另外,导航信息可包含道路上的车辆的位置信息。
另外,接口部130可从控制部770或检测部760接收传感器信息。
其中,传感器信息可包含车辆方向信息、车辆位置信息(GPS信息)、车辆角度信息、车辆速度信息、车辆加速度信息、车辆斜率信息、车辆前进/倒车信息、电池信息、燃料信息、轮胎信息、车灯信息、车辆内部温度信息、车辆内部湿度信息、是否下雨的信息中的至少一种信息。
这样的传感器信息可从航向传感器(heading sensor)、横摆传感器(yawsensor)、陀螺仪传感器(gyro sensor)、定位模块(position m odule)、车辆前进/倒车传感器、车轮传感器(wheel sensor)、车辆速度传感器、车体倾斜检测传感器、电池传感器、燃料传感器、轮胎传感器、基于方向盘的转向传感器、车辆内部温度传感器、车辆内部湿度传感器、雨水传感器等中获取。另外,定位模块可包括用于接收GPS信息的GPS模块。
另外,在传感器信息中,可将与车辆行驶相关的车辆方向信息、车辆位置信息、车辆角度信息、车辆速度信息、车辆斜率信息等称为车辆行驶信息。
接口部130可向控制部770或车辆驱动部750提供信号。其中,信号可以是控制信号。例如,处理器170可向动力源驱动部751提供用于加速的控制信号。例如,处理器170可通过接口部130向转向驱动部752提供转向控制信号。例如,处理器170可通过接口部130向制动驱动部753提供用于减速的控制信号。
存储器140可存储用于处理器170的处理或控制的程序等、用于驻车执行装置100整体上的动作的多种数据。
存储器140中可存储用于确认对象的数据。例如,存储器140中可存储用于在通过照相机195获取的影像中检测出规定对象时,可利用规定算法确认所述对象为何者的数据。
存储器140中可存储关于交通信息的数据。例如,存储器140中可存储用于在通过照相机195获取的影像中检测出规定的交通信息时,可利用规定算法确认所述交通信息为何者的数据。
另外,存储器140在硬件上可以是ROM、RAM、EPROM、闪存盘、硬盘等多种存储装置。
处理器170控制驻车执行装置100内的各单元的整体上的动作。
处理器170可对利用照相机195获取的车辆周边影像进行处理。特别是,处理器170执行基于计算机视觉(computer vision)的信号处理。因此,处理器170可执行对象检测及对象跟踪。特别是,处理器170在进行对象检测时,可执行车线检测(Lane Detection,LD)、周边车辆检测(Vehicle Detection、VD)、行人检测(Pedestrian Detection,PD)、灯光检测(Brightspot Detection,BD)、交通信号检测(Traffic Sign R ecognition,TSR)、道路面检测等。
处理器170可从利用照相机195获取的车辆周边影像中检测出信息。
信息可以是关于车辆行驶状况的信息。例如,信息可以是包含车辆行驶的道路信息、交通法规信息、周边车辆信息、车辆或行人信号灯信息、施工信息、交通状况信息、停车场信息、车线信息等的概念。
处理器170将检测出的信息与存储器140中存储的信息相比较,从而能够确认出信息。
另外,处理器170可通过通信部120接收天气信息、道路的交通状况信息,例如,可接收传输协议专家组(Transport Protocol Expert Gro up,TPEG)信息。
另外,处理器170也可对驻车执行装置100中基于图像确认的车辆周边交通状况信息实时进行确认。
另外,处理器170可通过接口部130从车辆用显示装置400或额外的导航装置(未图示)接收导航信息等。
另外,处理器170可通过接口部130从控制部770或检测部760接收传感器信息。其中,传感器信息可包含车辆方向信息、车辆位置信息(GPS信息)、车辆角度信息、车辆速度信息、车辆加速度信息、车辆斜率信息、车辆前进/倒车信息、电池信息、燃料信息、轮胎信息、车灯信息、车辆内部温度信息、车辆内部湿度信息、方向盘旋转信息中的至少一种信息。
处理器170可从多个照相机195获取多个图像,对多个图像进行组合来生成环视图像。处理器170可通过显示部180显示环视图像。
处理器170可在环视影像上显示用于表示基于用户输入的预计驻车区域的驻车引导图像。其中,用户输入可以是通过显示部180显示的在环视影像上输入的触摸输入。例如,用户输入可以是在显示有环视影像的状态下,通过显示部180接收的触摸及拖拽(touchand drag)输入。此时,为了与其他用户输入加以区分,可将用户输入称为第一用户输入。
另外,触摸及拖拽输入可包含:在环视影像上的任意的第一地点被触摸的状态下,将其与位于与所述第一地点不同的横轴及与所述第一地点不同的纵轴上的第二地点进行衔接的拖拽输入。此时,驻车引导图像可以是以衔接所述第一地点和所述第二地点的线作为对角线的矩形形状。
在此情况下,处理器170可提供信号,以将第一地点对应于车辆的前方向、将第二地点对应于车辆的后方向来进行驻车。在形成以衔接第一地点和第二地点的线作为对角线的矩形的情况下,处理器170可将第一地点侧识别为车辆的前方向,将第二地点侧识别为车辆的后方向。处理器170可提供信号,以基于识别出的方向来进行驻车。
另外,根据实施例,第一用户输入可以是在显示部180显示有环视影像的状态下,通过显示部180接收的长触摸输入。处理器170可使驻车引导图像的大小与长触摸输入的触摸时间成比例地发生变化。例如,在驻车引导图像的形状处于预设定的状态下,处理器170可根据长触摸输入的触摸时间来变更驻车引导图像大小。
另外,根据实施例,第一用户输入可以是利用移动终端600的输入。例如,第一用户输入可以是在显示部180显示有环视影像的状态下,与和显示部180相接触或相靠近地配置的移动终端600的位置及姿势对应的输入。
处理器170可通过通信部120在环视影像上接收关于移动终端600的位置及姿势的信息。处理器170可根据关于移动终端600的位置及姿势的信息来在显示部180显示驻车引导图像。
在移动终端600的位置及姿势发生变更的情况下,处理器170可根据变更的程度来变更显示驻车引导图像。
处理器170可判断驻车引导图像是否与实际驻车区域相匹配。在驻车引导图像与实际驻车区域相匹配时,处理器170可提供用于驻车控制的信号。其中,信号可提供给车辆驱动部750。
另外,处理器170在显示有驻车引导图像的状态下,可接收关于驻车引导图像的用户输入。其中,用户输入可以是在显示于显示部180的驻车引导图像上输入的触摸输入。此时,为了与其他用户输入加以区分,可将用户输入称为第二用户输入。
处理器170可根据第二用户输入来变更驻车引导图像的大小、方向或模样。或者,处理器170可使显示在环视影像的驻车引导图像的位置进行移动。
处理器170可判断驻车引导图像是否与可驻车空间相匹配。处理器170可判断驻车引导图像是否与检测出的可驻车空间相匹配。例如,处理器170可通过驻车引导图像的大小及模样是否能够与环视影像中检测出的可驻车空间相叠加来判断匹配与否。
在驻车引导图像与可驻车空间相匹配时,处理器170可通过显示部180或音频输出部185输出可驻车通知。
在驻车引导图像与可驻车空间不相匹配时,处理器170可通过显示部180或音频输出部185输出不可驻车通知。在此情况下,处理器170可显示出推荐驻车空间。其中,推荐驻车空间可以是可驻车空间中位于与驻车引导图像最靠近的区域的驻车空间。或者,推荐驻车空间可以是可驻车空间中与驻车引导图像相叠加的区域最多的区域。
在显示有推荐驻车空间的状态下,处理器170可接收用户输入。其中,用户输入可以是通过显示部180接收的触摸输入。其中,用户输入可以是驻车执行命令输入。此时,为了与其他用户输入加以区分,可将用户输入称为第三用户输入。
在接收到用于执行驻车的第三用户输入的情况下,处理器170可提供用于驻车的控制信号。
处理器170可控制在显示于显示部180的环视影像上显示推荐驻车空间。其中,推荐驻车空间可根据以往驻车经验、检测出的周边环境以及检测出的对象中的至少一种来确定。
例如,处理器170可在进行驻车时累计存储关于驻车空间的信息。处理器170可基于存储的关于驻车空间的信息来算出用户喜好驻车空间。处理器170可基于算出的用户喜好驻车空间来提供推荐驻车空间。
例如,处理器170可接收周边环境信息。处理器170可基于周边环境信息提供推荐驻车空间。假设在下雪或下雨的天气进行驻车时,处理器170可将带有屋顶的驻车空间提供为推荐驻车空间。假设太阳光照射量为基准值以上时,处理器170可将带有阴影的驻车空间提供为推荐驻车空间。
例如,处理器170可接收关于周边对象的信息。处理器170可基于对象信息提供推荐驻车空间。假设在周边已驻车有高价的其他车辆时,为了能够避开高价的其他车辆进行驻车,处理器170可将与高价的其他车辆相隔规定距离以上的空间提供为推荐驻车空间。
处理器170可检测位于驻车区域的周边的对象。处理器170可通过对车辆周边影像进行处理来检测出位于驻车区域的周边的对象,并算出与对象的距离。或者,处理器170可通过距离检测部(图4B的150)检测位于驻车区域的周边的对象,并算出与对象的距离。或者,处理器170可通过图6所述的照相机来检测位于驻车区域的周边的对象,并算出与对象的距离。
在按照驻车引导图像进行驻车的情况下,处理器170可通过显示部180显示车辆700和对象之间的预计距离。
另外,在算出车辆700和周边对象之间的距离的状态下,处理器170可提供用于驻车控制的信号,以使车辆700的驾驶座侧的门和位于所述车辆700的驾驶座侧的对象之间的距离达到基准值以上。通过这样地进行动作,能够确保驾驶者的下车空间。
在驻车完毕的状态下,处理器170可接收周边环境信息。处理器170可通过接口部130接收车辆的检测部760检测出的信息或通信部710获取的信息。例如,处理器170可接收关于降雨量的变化、降雪量的变化、向车辆照射的太阳光量的变化等的信息。
在驻车完毕的状态下,周边环境发生变化时,处理器170可提供用于驻车控制的信号,从而能够与周边环境变化对应地进行移动驻车。其中,周边环境变化可以是降雨量的变化、降雪量的变化或向车辆照射的太阳光量的变化。
例如,在驻车于露天停车场的状态下,有降雨量的变化、降雪量的变化时,处理器170可提供控制信号以便移动驻车到室内停车场。
例如,在驻车于露天停车场的状态下,向车辆照射的太阳光量达到基准值以上时,处理器170可提供控制信号以便移动驻车到室内停车场。或者,处理器170可提供控制信号以便移动驻车到带有阴影的驻车空间。
随后,处理器170可向用户通知移动驻车完毕信息。处理器170可通过通信部120将移动驻车完毕信息传送给用户移动终端600。具体而言,处理器170可将关于移动驻车与否、移动驻车场所、移动驻车理由、移动驻车时间等的信息传送给用户移动终端600。
另外,在驻车完毕的状态下,处理器170可根据用户输入而在规定的可驻车空间设定预约驻车。
在驻车完毕的状态下,通过用户设定预约驻车区域时,处理器170可提供用于向预约驻车空间进行移动驻车的控制信号。此时,处理器170可判断其他车辆是否已驻车在预约驻车空间,在预约驻车空间没有其他车辆时,提供用于移动驻车的控制信号。
另外,处理器170可利用专用集成电路(application specific integr atedcircuits,ASICs)、数字信号处理器(digital signal processors,DS Ps)、数字信号处理设备(digital signal processing devices,DSPDs)、可编程逻辑设备(programmablelogic devices,PLDs)、现场可编程门阵列(field programmable gate arrays,FPGAs)、处理器(processors)、控制器(controllers)、微控制器(micro-controllers),微处理器(micr oprocessors)、用于执行其他功能的电性单元中的至少一种来实现。
处理器170可受到控制部770的控制。
显示部180可显示处理器170中处理的各种信息。显示部180可显示与驻车执行装置100的动作相关的图像。
显示部180可显示处理器170中生成的环视图像。另外,在显示环视图像时可提供多种用户界面,可具有能够对提供的用户界面进行触摸输入的触摸传感器。例如,显示部180可接收在环视影像上输入的用户输入。
显示部180可显示将多个照相机195获取的影像进行合成来生成的环视影像。此时,环视影像可以是俯视影像或鸟瞰影像。
另外,显示部180可实现为在室内镜、侧镜或侧窗玻璃上显示影像。
例如,显示部180可配置在室内镜或侧镜。在此情况下,显示部180可在平时执行反射镜的作用,而在发生规定事件时显示影像。
例如,显示部180可由透明显示器形成,并与侧窗玻璃相靠近地配置。或者,显示部180可包括投射模块,投射模块可在侧窗玻璃上投射影像。
另外,显示部180可实现为在前风挡上显示影像。
例如,显示部180可由透明显示器形成,并与前风挡相靠近地配置。或者,显示部180可包括投射模块,投射模块可在前风挡上投射影像。
音频输出部185可基于处理器170中处理的音频信号向外部输出声音。为此,音频输出部185可设置有至少一个扬声器。
供电部190可基于处理器170的控制供给各结构元件的动作所需的电源。特别是,供电部190可从车辆内部的电池等供给到电源。
照相机195可获取车辆周边影像。照相机195可以有多个。多个照相机195可接收在各自所处的位置拍摄的车辆周边影像。
例如,照相机195可包括:左侧照相机195a,配置在车辆700的左侧并获取左侧周边影像;右侧照相机195c,配置在车辆700的右侧并获取右侧周边影像;后方照相机195b,配置在车辆700的后方并获取后方周边影像;以及前方照相机195d,配置在车辆700的前方并获取前方周边影像。在此情况下,左侧照相机195a、右侧照相机195c、后方照相机195b以及前方照相机195d优选地各自以预定角度朝向地面。
照相机195是用于提供环视图像的照相机,其优选是广角的照相机。根据实施例,照相机195可优选地包括鱼眼镜头。
另外,根据实施例,照相机195可同时处理红外线光以及可视光。在此情况下,照相机195可包括:光输出部,用于输出红外线光;分束器,将接收光分割为红外线光和可视光;第一光传感器,用于处理红外线光;第二光传感器,用于处理可视光。在此情况下,处理器170可基于红外线光算出与对象的距离。并且,处理器170可基于可视光处理影像。
图4B的驻车执行装置与图4A的驻车执行装置类似,其区别在于还包括距离检测部150。
参照图4B以距离检测部150为中心进行说明。
距离检测部150可检测对象。距离检测部150可检测与检测出的对象的距离。
距离检测部150可包括超声波传感器、激光雷达、雷达以及TOF照相机中的至少一种。
距离检测部150中检测出的对象信息可提供给处理器170。其中,对象信息可包含与对象的距离信息。
处理器170可从距离检测部150接收对象信息。
图5A至图5B示出图4A至图4B的处理器的内部框图。图5C是示出图5A至图5B的处理器中的对象检测的图。
首先,参照图5A,图5A是处理器170的内部框图的一例,车辆用环视提供装置100内的处理器170可包括:影像预处理部410、视差计算部420、对象检测部434、对象跟踪部440以及应用部450。
影像预处理部410(image preprocessor)可接收来自多个照相机195a、…,195d的多个图像或生成的环视图像并执行预处理(preprocessin g)。
具体而言,影像预处理部410可执行针对多个图像或生成的环视图像的降噪(noise reduction)、纠正(rectification)、校准(calibration)、色彩增强(colorenhancement)、色彩空间转换(color space conversio n;CSC)、内插(interpolation)、照相机增益控制(camera gain contr ol)等。由此,能够获取相比多个照相机195a、…,195d中拍摄的多个图像或生成的环视图像更加清晰的图像。
视差计算部420(disparity calculator)接收影像预处理部410中进行信号处理的多个图像或生成的环视图像,针对以规定时间期间依次地接收的多个图像或生成的环视图像执行立体匹配(stereo matching),能够获取基于立体匹配的视差图(disparitymap)。即,能够获取关于车辆周边的视差信息。
此时,可按图像的像素单位或规定块单位执行立体匹配。另外,视差图可表示用数值示出图像,即,左、右图像的视差(时差)信息(bin ocular parallax information)的地图。
分割部432(segmentation unit)可基于来自视差计算部420的视差信息,执行图像内的分割(segment)及群集(clustering)。
具体而言,分割部432可基于视差信息对图像中的至少一个分离出背景(background)和前景(foreground)。
例如,可将视差图内的视差信息为规定值以下的区域计算为背景,并除去相应部分。由此,能够相对地分离出前景。
作为另一例,可将视差图内的视差信息为规定值以上的区域计算为前景,并提取出相应部分。由此,能够分离出前景。
如上所述,以基于图像提取出的视差信息为基础分离出前景和背景,从而在随后的对象检测时,能够缩短信号处理速度、信号处理量等。
接着,对象检测部434(object detector)可基于来自分割部432的图像分割而进行对象检测。
即,对象检测部434可基于视差信息对图像中的至少一个进行对象检测。
具体而言,对象检测部434可对图像中的至少一个进行对象检测。例如,可从基于图像分割分离出的前景中检测对象。
接着,对象确认部436(object verification unit)可对分离出的对象进行分类(classify)并确认(verify)。
为此,对象确认部436可使用基于神经网络(neural network)的识别法、支持向量机(Support Vector Machine,SVM)方法、基于利用H aar-like特征的AdaBoost的方法,或是梯度向量直方图(Histograms of Oriented Gradients,HOG)方法等。
另外,对象确认部436可将存储器140中存储的对象和检测出的对象进行比较,从而确认出对象。
例如,对象确认部436可确认出位于车辆周边的周边车辆、车线、道路面、标识牌、危险区域、隧道等。
对象跟踪部440(object tracking unit)可执行针对确认出的对象的跟踪。例如,依次地确认获取的立体图像内的对象,对确认出的对象的移动或移动向量进行计算,并可基于计算出的移动或移动向量而跟踪相应对象的移动等。由此,能够对位于车辆周边的周边车辆、车线、道路面、标识牌、危险区域、隧道等进行跟踪。
图5B是处理器的内部框图的另一例。
参照附图,图5B的处理器170与图5A的处理器170具有相同的内部结构单元,其区别在于信号处理顺序不同。以下,仅对其区别进行描述。
对象检测部434可接收多个图像或生成的环视图像,并检测多个图像或生成的环视图像内的对象。与图5A不同的,可直接从多个图像或生成的环视图像中检测对象,而不是基于视差信息对被分割的图像进行对象检测。
接着,对象确认部436(object verification unit)基于来自分割部432的图像分割以及对象检测部434中检测出的对象,对被检测及分离的对象进行分类(classify)并确认(verify)。
为此,对象确认部436可使用基于神经网络(neural network)的识别法、支持向量机(Support Vector Machine,SVM)方法、基于利用H aar-like特征的AdaBoost的方法,或是梯度向量直方图(Histograms of Oriented Gradients,HOG)方法等。
图5C是基于在第一及第二帧区间分别获取的图像并为了说明图5C的处理器170的动作方法而作为参照的图。
参照图5C,在第一及第二帧区间期间,多个照相机195a,…,195d分别依次地获取图像FR1a、FR1b。
处理器170内的视差计算部420接收影像预处理部410中被信号处理的图像FR1a、FR1b,对接收的图像FR1a、FR1b执行立体匹配,从而获取视差图520(disparity map)。
视差图520(disparity map)对图像FR1a、FR1b之间的视差进行了等级化,视差等级越高,可计算为与车辆的距离越近,而视差等级越小,则计算为与车辆的距离越远。
另外,当显示这样的视差图时,可显示为视差等级越大时具有越高的亮度,视差等级越小时具有越低的亮度。
在附图中例示出,在视差图520内,第一车线至第四车线528a、528b、528c、528d等分别具有相应的视差等级,施工区域522、第一前方车辆524、第二前方车辆526分别具有相应的视差等级。
分割部432、对象检测部434、对象确认部436基于视差图520执行针对图像FR1a、FR1b中的至少一个的分割、对象检测及对象确认。
在附图中例示出,使用视差图520执行针对第二图像FR1b的对象检测及确认。
即,在图像530内,可执行针对第一车线至第四车线538a、538b、538c、538d、施工区域532、第一前方车辆534、第二前方车辆536的对象检测及确认。
另外,通过持续地获取图像,对象跟踪部440能够对确认出的对象执行跟踪。
图6是在说明本发明的一实施例的照相机时作为参照的框图。
参照图6,照相机195可包括:光输出部610、第一光传感器620、第二光传感器630以及分束器(Beam Splitter)640。
光输出部610可输出红外线光。光输出部610可包括用于生成红外线光的光源及透镜。
第一光传感器620可对红外线光进行处理。第一光传感器620可将红外线光转换为电信号。第一光传感器620可包括至少一个光电二极管。第一光传感器620可包括CMOS(Complementary metal-oxide-semicondu ctor)或CCD(Charge coupled device)。
第二光传感器630可对可视光进行处理。第二光传感器630可将可视光转换为电信号。第二光传感器630可包括至少一个光电二极管。第二光传感器630可包括CMOS(Complementary metal-oxide-semiconduct or)或CCD(Charge coupled device)。
分束器640可将接收光分离为红外线光和可视光。分束器640可将从接收光分离出的红外线光引导到第一光传感器620。分束器640可将从接收光分离出的可视光引导到第二光传感器630。
在照相机195为多个的情况下,各个照相机可分别包括上述的光输出部、第一光传感器、第二光传感器、分束器。
另外,处理器170可基于通过第一光传感器620检测出的红外线光的TOF(Time ofFlight)来算出与对象的距离。处理器170可以通过第二光传感器630检测出的可视光为基础,进行基于计算机视觉(compute r vision)的影像处理。
图7A至图7C是在说明本发明的实施例的车辆用驻车执行装置的动作时作为参照的流程图。
参照图7A,处理器170可从照相机195接收车辆周边影像(步骤S705)。
处理器170可对接收到的车辆周边影像进行合成或变换,从而生成环视影像。处理器170可通过显示部180显示生成的环视影像(步骤S710)。其中,环视影像可以是俯视影像或鸟瞰影像。
在显示有环视影像的状态下,处理器170可在环视影像上显示可驻车空间(步骤S715)。在此情况下,处理器170可以将可驻车空间与环视影像相叠加的方式进行显示。
处理器170可显示推荐驻车空间(步骤S720)。处理器170可在可驻车空间中选择推荐驻车空间。此时,处理器170可以以往驻车经验、周边环境、周边对象、用户便利等为基准来选择推荐驻车空间。
处理器170可接收第一用户输入(步骤S725)。
其中,第一用户输入可以是通过显示部180接收的触摸及拖拽输入。例如,可以是在环视影像上输入的触摸及拖拽输入。
其中,第一用户输入可以是在显示部180显示有环视影像的状态下,通过显示部180接收的长触摸输入。处理器170可使驻车引导图像的大小与长触摸输入的触摸时间成比例地发生变化。例如,在驻车引导图像的形状处于预设定的状态下,处理器170可根据长触摸输入的触摸时间来变更驻车引导图像大小。
其中,第一用户输入可以是利用移动终端600的输入。例如,第一用户输入可以是在显示部180显示有环视影像的状态下,与和驻车引导图像相匹配地配置的移动终端600的位置及姿势对应的输入。
处理器170可通过通信部120在环视影像上接收关于移动终端600的位置及姿势的信息。处理器170可根据关于移动终端600的位置及姿势的信息来在显示部180显示驻车引导图像。
在移动终端600的位置及姿势发生变更的情况下,处理器170可根据变更的程度来变更显示驻车引导图像。
处理器170可显示基于第一用户输入的驻车引导图像(步骤S730)。第一用户输入可以是在显示有环视影像的状态下,通过显示部180接收的触摸及拖拽输入。其中,触摸及拖拽输入可包含:在环视影像上的任意的第一地点被触摸的状态下,将其与位于与所述第一地点不同的横轴及与所述第一地点不同的纵轴上的第二地点进行衔接的拖拽输入。此时,驻车引导图像可以是以衔接所述第一地点和所述第二地点的线作为对角线的矩形形状。在此情况下,处理器170可提供信号,以将第一地点对应于车辆的前方向、将第二地点对应于车辆的后方向来进行驻车。
在显示有驻车引导图像的状态下,处理器170可接收关于驻车引导图像的第二用户输入(步骤S735)。其中,第二用户输入可以是在显示于显示部180的驻车引导图像上输入的触摸输入。
处理器170可根据第二用户输入来变更驻车引导图像的位置、大小、方向或模样。或者,处理器170可使显示在环视影像的驻车引导图像的位置进行移动(步骤S740)。
处理器170可判断驻车引导图像是否与可驻车空间相匹配(步骤S745)。处理器170可判断驻车引导图像是否与检测出的可驻车空间相匹配。例如,处理器170可通过驻车引导图像的大小及模样是否能够与环视影像中检测出的可驻车空间相叠加来判断匹配与否。
在驻车引导图像与可驻车空间相匹配时,处理器170可输出可驻车状态信息(步骤S750)。处理器170可通过显示部180或音频输出部185输出可驻车状态信息。
随后,处理器170可提供用于驻车的控制信号(步骤S755)。其中,控制信号可提供给车辆驱动部750。例如,控制信号可提供给动力源驱动部751、转向驱动部752以及制动驱动部753。
在步骤S745中驻车引导图像与可驻车空间不相匹配时,处理器170可输出不可驻车状态信息(步骤S760)。处理器170可通过显示部180或音频输出部185输出不可驻车状态信息。
随后,处理器170可显示出推荐驻车空间(步骤S765)。其中,推荐驻车空间可以是可驻车空间中位于与驻车引导图像最靠近的区域的驻车空间。或者,推荐驻车空间可以是可驻车空间中与驻车引导图像相叠加的区域最多的区域。
在显示有推荐驻车空间的状态下,处理器170可接收第三用户输入(步骤S770)。其中,第三用户输入可以是通过显示部180接收的触摸输入。第三用户输入可以是驻车执行命令输入。
在接收到第三用户输入的情况下,处理器170可提供用于驻车的控制信号(步骤S755)。
图7B及图7C是在说明本发明的实施例的在驻车完毕后的驻车执行装置的移动驻车动作时作为参照的图。
参照图7B,可经由图7A中说明的动作,车辆能够完成驻车(步骤S771)。
在驻车完毕的状态下,处理器170可接收周边环境信息(步骤S775)。处理器170可通过接口部130接收车辆的检测部760检测出的信息或通信部710获取的信息。例如,处理器170可接收关于降雨量的变化、降雪量的变化、向车辆照射的太阳光量的变化等的信息。
在周边环境发生变化时,处理器170可向用户通知发生变化的环境信息(步骤S780)。处理器170可通过通信部120将发生变化的环境信息传送给用户移动终端600。
随后,处理器170可与发生变化的环境对应地提供用于移动驻车的控制信号(步骤S782)。控制信号可提供给车辆驱动部750。
例如,在驻车于露天停车场的状态下,有降雨量的变化、降雪量的变化时,处理器170可提供控制信号以便移动驻车到室内停车场。
例如,在驻车于露天停车场的状态下,向车辆照射的太阳光量达到基准值以上时,处理器170可提供控制信号以便移动驻车到室内停车场。或者,处理器170可提供控制信号以便移动驻车到带有阴影的驻车空间。
随后,处理器170可向用户通知移动驻车完毕信息(步骤S785)。处理器170可通过通信部120将移动驻车完毕信息传送给用户移动终端600。
参照图7C,可经由图7A中说明的动作,车辆能够完成驻车(步骤S771)。
处理器170可根据用户输入而在规定的可驻车空间设定预约驻车(步骤S790)。例如,用户在第一驻车空间驻车完毕的状态下,可在已驻车有其他车辆的第二驻车空间设定预约驻车。在此情况下,处理器170可根据用户输入而在第二驻车空间设定预约驻车。
在规定的驻车空间设定有预约驻车区域的情况下,处理器170可判断预约驻车空间中是否没有其他车辆(步骤S792)。例如,处理器170可通过车辆周边影像判断预约驻车空间中是否存在有其他车辆。或者,处理器170可通过通信部120从驻车管理服务器601接收驻车状况信息。处理器170可基于接收到的驻车状况信息来判断预约驻车空间中是否存在有其他车辆。
在预约驻车空间没有其他车辆时,处理器170可提供用于向预约驻车空间进行移动驻车的控制信号(步骤S795)。其中,控制信号可提供给车辆驱动部750。
图8是在说明本发明的实施例的车辆时作为参照的框图。
参照图8,车辆700可包括:通信部710、输入部720、检测部760、输出部740、车辆驱动部750、存储器730、接口部780、控制部770、电源部790、驻车执行装置100以及车辆用显示装置400。
通信部710可包括能够实现车辆700和移动终端600之间、车辆700和外部服务器601之间或车辆700和其他车辆602的无线通信的至少一个模块。并且,通信部710可包括用于将车辆700与至少一个网络(net work)相连接的至少一个模块。
通信部710可包括广播接收模块711、无线网络模块712、近距离通信模块713、位置信息模块714、光通信模块715以及V2X通信模块716。
广播接收模块711通过广播信道从外部的广播管理服务器接收广播信号或与广播相关的信息。其中,广播包括电台广播或TV广播。
无线网络模块712指的是用于无线网络连接的模块,其可内置或外置于车辆700。无线网络模块712在基于无线网络技术的通信网中进行无线信号收发。
无线网络技术例如有:无线局域网(Wireless LAN,WLAN)、无线高保真(Wireless-Fidelity,Wi-Fi)、无线高保真直连(Wi-Fi(Wireles s Fidelity)Direct)、数字生活网络联盟(Digital Living Network Allia nce,DLNA)、无线宽带(Wireless Broadband,WiBro)、全球微波接入互操作性(World Interoperability for Microwave Access,WiMAX)、高速下行链路分组接入(High Speed Downlink Packet Access,HSDPA)、高速上行链路分组接入(High Speed Uplink Packet Access,HSUPA)、长期演进(Long TermEvolution,LTE)、先进的长期演进(Long Ter m Evolution-Advanced,LTE-A)等,所述无线网络模块712基于还包括有以上未被罗列的网络技术的范围的至少一种无线网络技术进行数据收发。例如,无线网络模块712可以无线方式与外部服务器510进行数据交换。无线网络模块712可从外部服务器601接收天气信息、道路的交通状况信息(例如,传输协议专家组(Transport Protocol Expert Group,TPEG)信息)。
近距离通信模块713用于进行近距离通信(Short range communicat ion),可利用蓝牙(BluetoothTM)、无线射频(Radio Frequency Identi fication,RFID)、红外线通信(Infrared Data Association;IrDA)、超宽带(Ultra Wideband,UWB)、无线个域网(ZigBee)、近场通信(N ear Field Communication,NFC)、无线高保真(Wireless-Fidelity,Wi-Fi)、无线高保真直连(Wi-Fi Direct)、无线通用串行总线(WirelessUniversal Serial Bus,Wireless USB)技术中的至少一种来支持近距离通信。
这样的近距离通信模块713可利用形成近距离无线通信网(Wireless AreaNetworks)来执行车辆700和至少一个外部设备之间的近距离通信。例如,近距离通信模块713可以无线方式与移动终端600进行数据交换。近距离通信模块713可从移动终端600接收天气信息、道路的交通状况信息(例如,传输协议专家组(Transport Protocol ExpertGroup,TPEG))。在用户乘坐车辆700的情况下,用户的移动终端600和车辆700可自动地或通过用户执行应用程序来执行彼此配对。
位置信息模块714是用于获取车辆700的位置的模块,作为其代表性的例有全球定位***(Global Positioning System,GPS)模块。例如,当在车辆中使用GPS模块时,能够利用GPS卫星传送的信号获取车辆的位置。
光通信模块715可包括光发送部及光接收部。
光接收部可将光(light)信号转换为电信号以接收信息。光接收部可包括用于接收光的光电二极管(PD,Photo Diode)。光电二极管可将光转换为电信号。例如,光接收部可通过从前方车辆中包括的光源发出的光接收前方车辆的信息。
光发送部可包括至少一个用于将电信号转换为光信号的发光元件。其中,发光元件优选为发光二极管(Light Emitting Diode,LED)。光发送部将电信号转换为光信号并向外部发送。例如,光发送部可通过与规定频率对应的发光元件的闪烁来向外部发送光信号。根据实施例,光发送部可包括多个发光元件阵列。根据实施例,光发送部可与设于车辆700的车灯一体化。例如,光发送部可以是前照灯、车尾灯、刹车灯、方向指示灯及示廓灯中的至少一种。例如,光通信模块715可通过光通信与其他车辆602进行数据交换。
V2X通信模块716是用于与服务器601或其他车辆602执行无线通信的模块。V2X通信模块716包括可实现车辆之间通信V2V或车辆和基础设施(infra)之间通信V2I协议的模块。车辆700可通过V2X通信模块716与外部服务器601及其他车辆602执行无线通信。
输入部720可包括:驾驶操作构件721、照相机195、麦克风723及用户输入部724。
驾驶操作构件721接收用于驾驶车辆700的用户输入。驾驶操作构件721可包括:转向输入构件721a、挡位输入构件721b、加速输入构件721c、制动输入构件721d。
转向输入构件721a从用户接收车辆700的行进方向输入。转向输入构件721a优选地以轮盘(wheel)形态形成,从而通过旋转可进行转向输入。根据实施例,转向输入构件721a可形成为触摸屏、触摸板或按键。
挡位输入构件721b从用户接收车辆700的驻车P、前进D、空挡N、倒车R的输入。挡位输入构件721b优选地以控制杆(lever)形态形成。根据实施例,挡位输入构件721b可形成为触摸屏、触摸板或按键。
加速输入构件721c从用户接收用于车辆700的加速的输入。制动输入构件721d从用户接收用于车辆700的减速的输入。加速输入构件721c及制动输入构件721d优选地以踏板形态形成。根据实施例,加速输入构件721c或制动输入构件721d可形成为触摸屏、触摸板或按键。
照相机195可包括图像传感器和影像处理模块。照相机195可对利用图像传感器(例如,CMOS或CCD)获取的静态影像或动态影像进行处理。影像处理模块对通过图像传感器获取的静态影像或动态影像进行加工,提取出所需的信息,并可将提取出的信息传送给控制部770。另外,车辆700可包括:照相机195,用于拍摄车辆前方影像或车辆周边影像;以及,内部照相机,用于拍摄车辆内部影像。
内部照相机可获取关于乘坐者的图像。内部照相机可获取用于乘坐者的生物特征识别的图像。
另外,图8中示出照相机195包括于输入部720,但是也可如参照图1至图7所述的以照相机195包括于驻车执行装置100的结构进行说明。
麦克风723可将外部的音响信号处理为电性数据。被处理的数据可根据车辆700上执行中的功能以多种方式加以利用。麦克风723可将用户的语音指令转换为电性数据。被转换的电性数据可传送给控制部770。
另外,根据实施例,照相机195或麦克风723可以是包括于检测部760的结构元件,而不是包括于输入部720的结构元件。
用户输入部724用于从用户输入信息。当通过用户输入部724输入信息时,控制部770可与输入的信息对应地控制车辆700的动作。用户输入部724可包括触摸式输入构件或机械式输入构件。根据实施例,用户输入部724可配置在方向盘的一区域。在此情况下,驾驶者在把持方向盘的状态下,可利用手指操作用户输入部724。
检测部760用于检测与车辆700的行驶等相关的信号。为此,检测部760可包括碰撞传感器、车轮传感器(wheel sensor)、速度传感器、斜率传感器、重量检测传感器、航向传感器(heading sensor)横摆传感器(yaw sensor)、陀螺仪传感器(gyro sensor)、定位模块(position module)、车辆前进/倒车传感器、电池传感器、燃料传感器、轮胎传感器、基于方向盘旋转的转向传感器、车辆内部温度传感器、车辆内部湿度传感器、雨水(rain)传感器、超声波传感器、雷达、激光雷达(LiA DAR:Light Detection And Ranging)等。
由此,检测部760能够获取与车辆碰撞信息、车辆方向信息、车辆位置信息(GPS信息)、车辆角度信息、车辆速度信息、车辆加速度信息、车辆斜率信息、车辆前进/倒车信息、电池信息、燃料信息、轮胎信息、车灯信息、车辆内部温度信息、车辆内部湿度信息、是否下雨的信息、方向盘旋转角度等相关的检测信号。
另外,检测部760可还包括加速踏板传感器、压力传感器、引擎转速传感器(enginespeed sensor)、空气流量传感器(AFS)、吸气温度传感器(ATS)、水温传感器(WTS)、节气门位置传感器(TPS)、T DC传感器、曲轴转角传感器(CAS)等。
检测部760可包括生物特征识别信息检测部。生物特征识别信息检测部检测并获取乘坐者的生物特征识别信息。生物特征识别信息可包含指纹识别(Fingerprint)信息、虹膜识别(Iris-scan)信息、网膜识别(R etina-scan)信息、手模样(Hand geo-metry)信息、脸部识别(Facial r ecognition)信息、语音识别(Voice recognition)信息。生物特征识别信息检测部可包括用于检测乘坐者的生物特征识别信息的传感器。其中,内部照相机及麦克风723可作为传感器进行动作。生物特征识别信息检测部可通过内部照相机获取手模样信息、脸部识别信息。
输出部740用于输出控制部770中处理的信息,可包括:显示部741、音响输出部742及触觉输出部743。
显示部741可显示控制部770中处理的信息。例如,显示部741可显示车辆相关信息。其中,车辆相关信息可包含:用于对车辆的直接控制的车辆控制信息、或者用于向车辆驾驶者提供驾驶向导的车辆驾驶辅助信息。并且,车辆相关信息可包含:用于提示当前车辆的状态的车辆状态信息或与车辆的运行相关的车辆运行信息。
显示部741可包括液晶显示器(liquid crystal display,LCD)、薄膜晶体管液晶显示器(thin film transistor-liquid crystal display,TFT L CD)、有机发光二极管(organic light-emitting diode、OLED)、柔性显示器(flexible display)、3D显示器(3Ddisplay)、电子墨水显示器(e-ink display)中的至少一种。
显示部741可与触摸传感器构成相互层次结构或一体地形成,从而能够实现触摸屏。这样的触摸屏用作为提供车辆700和用户之间的输入接口的用户输入部724的同时,可还提供车辆700和用户之间的输出接口。在此情况下,显示部741可包括用于检测针对显示部741的触摸的触摸传感器,以能够利用触摸方式输入控制指令。当通过这样的结构实现针对显示部741的触摸时,触摸传感器检测出所述触摸操作,控制部770据此产生与所述触摸对应的控制指令。通过触摸方式输入的内容可以是文字或数字、或是各种模式下的指示或可指定的菜单项目等。
另外,显示部741可包括仪表盘(cluster),以使驾驶者在进行驾驶的同时能够确认车辆状态信息或车辆运行信息。仪表盘可位于前围板(d ash board)上方。在此情况下,驾驶者可在视线保持于车辆前方的状态下,确认仪表盘上显示的信息。
另外,根据实施例,显示部741可由平视显示器(Head Up Display,HUD)实现。在显示部741由HUD实现的情况下,可通过设于风挡的透明显示器输出信息。或者,显示部741可设有投射模块,以通过投射于风挡的图像来输出信息。
音响输出部742将来自控制部770的电信号转换为音频信号进行输出。为此,音响输出部742可设有扬声器等。音响输出部742可还输出与用户输入部724动作对应的声音。
触觉输出部743用于产生触觉性的输出。例如,触觉输出部743可通过震动方向盘、安全带、座垫,能够使驾驶者感知到输出。
车辆驱动部750可控制车辆各种装置的动作。车辆驱动部750可接收驻车执行装置100提供的控制信号。车辆驱动部750可基于所述控制信号控制各装置。
车辆驱动部750可控制车辆各种装置的动作。车辆驱动部750可包括:动力源驱动部751、转向驱动部752、制动驱动部753、车灯驱动部754、空调驱动部755、车窗驱动部756、气囊驱动部757、天窗驱动部758及悬架驱动部759。
动力源驱动部751可执行针对车辆700内的动力源的电子式控制。
例如,在以基于化石燃料的引擎(未图示)作为动力源的情况下,动力源驱动部751可执行针对引擎的电子式控制。由此,能够控制引擎的输出扭矩等。在动力源驱动部751为引擎的情况下,根据控制部770的控制,通过限制引擎输出扭矩能够限制车辆的速度。
作为另一例,在以基于电的马达(未图示)作为动力源的情况下,动力源驱动部751可执行针对马达的控制。由此,能够控制马达的转速、扭矩等。
动力源驱动部751可从驻车执行装置100接收加速控制信号。动力源驱动部751可根据接收到的加速控制信号来控制动力源。
转向驱动部752可执行针对车辆700内的转向装置(steering appara tus)的电子式控制。由此,能够变更车辆的行进方向。转向驱动部752可从驻车执行装置100接收转向控制信号。转向驱动部752可根据接收到的转向控制信号来控制转向装置进行转向。
制动驱动部753可执行针对车辆700内的制动装置(brake apparatu s)(未图示)的电子式控制。例如,通过控制车轮上配置的制动器的动作,能够减小车辆700的速度。作为另一例,通过改变左轮和右轮上各配置的制动器的动作,可将车辆700的行进方向调整为左侧或右侧。制动驱动部753可从驻车执行装置100接收减速控制信号。制动驱动部753可根据接收到的减速控制信号来控制制动装置。
车灯驱动部754可控制车辆内、外部配置的车灯的开启/关闭。并且,可控制车灯的亮度、方向等。例如,可执行针对方向灯、刹车灯等的控制。
空调驱动部755可执行针对车辆700内的空调装置(air conditioner)(未图示)的电子式控制。例如,在车辆内部的温度高的情况下,通过使空调装置进行动作,能够控制向车辆内部供给冷气。
车窗驱动部756可执行针对车辆700内的车窗装置(window appara tus)的电子式控制。例如,能够控制车辆的侧面的左、右车窗的开放或封闭。
气囊驱动部757可执行针对车辆700内的气囊装置(airbag apparat us)的电子式控制。例如,当发生危险时,能够控制气囊被弹出。
天窗驱动部758可执行针对车辆700内的天窗装置(sunroof appara tus)(未图示)的电子式控制。例如,能够控制天窗的开放或封闭。
悬架驱动部759可执行针对车辆700内的悬架装置(suspension app aratus)(未图示)的电子式控制。例如,在道路面曲折的情况下,通过控制悬架装置能够控制减小车辆700的震动。悬架驱动部759可从驻车执行装置100接收悬架控制信号。悬架驱动部759可根据接收到的悬架控制信号来控制悬架装置。
存储器730与控制部770进行电性连接。存储器730可存储与单元相关的基本数据、用于单元的动作控制的控制数据、输入输出的数据。存储器730在硬件上可以是ROM、RAM、EPROM、闪存盘、硬盘等多种存储装置。存储器730可存储用于控制部770的处理或控制的程序等、用于车辆700整体的动作的多种数据。
接口部780可执行与和车辆700相连接的多种外部装置的通道作用。例如,接口部780可设有可与移动终端600相连接的端口,通过所述端口能够与移动终端600进行连接。在此情况下,接口部780可与移动终端600进行数据交换。
另外,接口部780可执行向连接的移动终端600供给电能的通道作用。在移动终端600与接口部780进行电性连接的情况下,根据控制部770的控制,接口部780将电源部790供给的电能提供给移动终端600。
控制部770可控制车辆700内的各单元的整体上的动作。控制部770可命名为电子控制单元(Electronic Control Unit,ECU)。
控制部770在硬件上可利用专用集成电路(application specific inte gratedcircuits,ASICs)、数字信号处理器(digital signal processors,DSPs)、数字信号处理设备(digital signal processing devices,DSPDs)、可编程逻辑设备(programmable logicdevices,PLDs)、现场可编程门阵列(field programmable gate arrays,FPGAs)、处理器(processors)、控制器(controllers)、微控制器(micro-controllers),微处理器(microprocessors)、用于执行其他功能的电性单元中的至少一种来实现。
电源部790可基于控制部770的控制而供给各结构元件的动作所需的电源。特别是,电源部790可接收从车辆内部的电池(未图示)等供给的电源。
驻车执行装置100可与控制部770进行数据交换。驻车执行装置100中生成的控制信号可输出给控制部770。驻车执行装置100可以是参照图1至图7C所描述的驻车执行装置。
车辆用显示装置400可与控制部770进行数据交换。控制部770可从车辆用显示装置400或额外的导航装置(未图示)接收导航信息。其中,导航信息可包含所设定的目的地信息、与所述目的地对应的路径信息、与车辆行驶相关的地图(map)信息或车辆位置信息。
图9是在说明本发明的实施例的显示可驻车空间以及推荐驻车空间的动作时作为参照的示意图。
参照图9,处理器170可从照相机195获取车辆周边影像并生成环视影像。其中,环视影像可以是俯视图像或鸟瞰图像。
处理器170可通过显示部180显示环视影像901。
在显示有环视影像901的状态下,处理器170可在环视影像上显示可驻车空间911、912、913、920。处理器170可以将可驻车空间与环视影像相叠加的方式进行显示。
在显示有环视影像901的状态下,处理器170可显示推荐驻车空间920。处理器170可在可驻车空间911、912、913、920中选择推荐驻车空间920。此时,处理器170可以以往驻车经验、周边环境、周边对象、用户便利等为基准来选择推荐驻车空间920。
图10是在说明本发明的实施例的接收触摸及拖拽输入方式的第一用户输入的动作时作为参照的示意图。
参照图10,在显示有环视影像的状态下,处理器170可接收第一用户输入。其中,第一用户输入可以是通过显示部180接收的触摸及拖拽输入。
处理器170可接收对第一地点1011的触摸输入。随后,可在保持触摸输入的状态下,从第一地点1011至第二地点1012接收拖拽输入。在此情况下,处理器170可显示以衔接第一地点1011和第二地点1012的线1020作为对角线的矩形形状的驻车引导图像1030。在此情况下,矩形中的短边可对应于车辆的总宽度,长边对应于车辆的总长度。
另外,处理器170可在驻车引导图像1030中将从第一地点1011延伸的短边对应于车辆700的前方向。处理器170可在驻车引导图像1030中将从第二地点1012延伸的短边对应于车辆700的后方向。随后,处理器170可提供用于按照适合于确定的方向执行驻车的控制信号。
图11是在说明本发明的实施例的接收长触摸输入方式的第一用户输入的动作时作为参照的示意图。
参照图11,在显示有环视影像的状态下,处理器170可接收第一用户输入。其中,第一用户输入可以是通过显示部180接收的长触摸输入1110。
处理器170可接收对第一地点的触摸输入。随后,处理器170可接收对第一地点的长触摸输入直至触摸被解除。
在此情况下,处理器170可与触摸持续时间对应地显示驻车引导图像1120a、1120b。例如,处理器170可使驻车引导图像1120a、1120b的大小与长触摸输入1110的触摸持续时间成比例地发生变化。例如,处理器170可与触摸持续时间成比例地将驻车引导图像的大小从第一大小1120a变化为第二大小1120b。并且,在触摸持续时间经过规定时间以上时,可较小地显示驻车引导图像。接着,可使驻车引导图像的大小与触摸持续时间成比例地逐渐变大。
图12是在说明本发明的实施例的接收基于移动终端的第一用户输入的动作时作为参照的示意图。
参照图12,在显示有环视影像的状态下,处理器170可接收第一用户输入。其中,第一用户输入可以是利用移动终端600的输入。
具体而言,驻车执行装置100可通过通信部120与移动终端600进行配对。在与移动终端600配对的状态下,处理器170可接收移动终端600的位置及姿势信息。移动终端600的位置及姿势信息可通过移动终端600中包括的位置检测及姿势检测传感器(例如,加速度传感器、陀螺仪传感器)来获取。
处理器170可根据移动终端600的位置及姿势信息来显示驻车引导图像。
例如,在移动终端600的显示部可显示车辆图像1210。在显示部180显示有环视影像的状态下,移动终端600的位置及姿势以与显示部180相靠近的状态发生变更时,处理器170可与移动终端600的位置及姿势的变更对应地变更显示驻车引导图像。在此情况下,用户可通过确认显示部180中显示的环视图像和移动终端600中显示的车辆图像1210并调节移动终端600的位置及姿势。
另外,为了利用移动终端600接收第一用户输入,显示部180优选地实现为在风挡或侧窗玻璃显示影像。
图13是在说明本发明的实施例的接收基于可穿戴设备的第一用户输入的动作时作为参照的示意图。
参照图13,在显示有环视影像的状态下,处理器170可接收第一用户输入。其中,第一用户输入可以是利用可穿戴设备600a的输入。
具体而言,驻车执行装置100可通过通信部120与可穿戴设备600a进行配对。在与可穿戴设备600a配对的状态下,处理器170可接收可穿戴设备600a中输入的用户输入1310。处理器170可根据所述用户输入1310来提供驻车控制信号。
如上所述,利用可穿戴设备600a的驻车控制可在用户位于车辆700内的情况以外,还可有用地使用于用户位于车辆700外部的情况。
图14A至图14B是在说明本发明的实施例的接收第二用户输入以变更或移动驻车引导图像的动作时作为参照的示意图。
在显示有驻车引导图像1420的状态下接收到第二用户输入时,处理器170可变更驻车引导图像的位置、大小、方向或模样。
参照图14A,处理器170可根据第一用户输入来显示驻车引导图像1420。此时,处理器170可通过显示部180中不是可驻车区域或推荐驻车区域的任意区域来接收第一用户输入。
随后,处理器170可接收对驻车引导图像1420的第二用户输入1410。其中,第二用户输入可以是在显示于显示部180的驻车引导图像1420上输入的触摸输入。
处理器170可根据第二用户输入来变更驻车引导图像1420的位置、大小、方向或模样。
例如,在作为第二用户输入接收到对驻车引导图像1420的触摸及拖拽输入时,处理器170可根据拖拽输入来移动驻车引导图像1420。
例如,在作为第二用户输入接收到对驻车引导图像1410的轮廓线或边角的触摸及拖拽输入时,处理器170可根据拖拽输入来变更驻车引导图像1420的大小或模样。
例如,如图14B所示,在作为第二用户输入接收到在双触摸(doubl e touch)输入后以保持触摸的状态进行旋转的输入1430时,处理器170可变更驻车引导图像1420的方向。
图15A及图15B是在说明本发明的实施例的输出可驻车或不可驻车状态信息的动作时作为参照的图。
参照图15A及图15B,处理器170可判断驻车引导图像是否与可驻车空间相匹配。例如,在使车辆700按照驻车引导图像进行驻车的情况下,处理器170可由是否能够驻车于驻车分划线内来进行判断。
在驻车引导图像与可驻车空间相匹配时,处理器170可在显示部180显示可驻车通知1510。例如,处理器170可通过用第一颜色显示驻车引导图像来显示可驻车通知1510。或者,处理器170可通过显示驻车分划线内驻车的车辆图像来显示可驻车通知1510。此时,车辆图像可用第一颜色进行显示。
在驻车引导图像与可驻车空间不相匹配时,处理器170可在显示部180显示不可驻车通知1520。例如,处理器170可通过用第二颜色显示驻车引导图像来显示不可驻车通知1520。或者,处理器170可通过显示压踩驻车分划线的车辆图像来显示不可驻车通知1520。此时,车辆图像可用第二颜色进行显示。第二颜色可以是与所述第一颜色不同的颜色。
另外,在驻车引导图像与可驻车空间不相匹配时,处理器170可显示出推荐驻车空间。其中,推荐驻车空间可以是可驻车空间中位于与驻车引导图像最靠近的区域的驻车空间。或者,推荐驻车空间可以是可驻车空间中与驻车引导图像相叠加的区域最多的区域。
假设驻车引导图像横跨驻车分划线进行显示时,处理器170可将可驻车空间中与驻车引导图像相叠加的区域最多的区域确定为推荐驻车空间。
图16是在说明本发明的实施例的在按照驻车引导图像进行驻车时显示与周边对象的预计距离的动作时作为参照的示意图。
参照图16,处理器170可检测位于驻车区域的周边的对象。处理器170可通过对车辆周边影像进行处理来检测出位于驻车区域的周边的对象,并算出与对象的距离。或者,处理器170可通过距离检测部(图4B的150)检测位于驻车区域的周边的对象,并算出与对象的距离。或者,处理器170可通过图6所述的照相机来检测位于驻车区域的周边的对象,并算出与对象的距离。
另外,与对象的距离可以是在进行驻车时驻车分划线各个边与车辆700的预计距离。与对象的距离可以是在进行驻车时已驻车的其他车辆1611、1612与车辆700的预计距离。与对象的距离可以是在进行驻车时与位于周边的结构物(例如,墙、立柱、门)的预计距离。
在执行驻车之前按照驻车引导图像进行驻车的情况下,处理器170可通过显示部180显示车辆700与对象之间的预计距离1610。
图17是在说明本发明的实施例的考虑到驾驶者的下车空间的驻车执行动作时作为参照的示意图。
参照图17,在算出车辆700与周边对象的距离的状态下,处理器170可调节驻车引导图像1720的位置,以使车辆700的驾驶座侧的门与位于所述车辆700的驾驶座侧的对象之间的距离达到基准值以上。
在此情况下,在被调节的位置上按照驻车引导图像进行驻车的情况下,处理器170可通过显示部180显示车辆700与对象之间的预计距离1710。
随后,处理器170可提供控制信号以按照被调节的驻车引导图像1720执行驻车。
图18至图19是在说明本发明的实施例的在驻车完毕后进行移动驻车的动作时作为参照的图。
参照图18,处理器170可根据用户输入来设定驻车位置。例如,处理器170可接收用户输入,并对预约驻车1811、警报1812、阴影驻车1813、下雨天气时的驻车1814、下雪天气时的驻车1815、室内驻车1816进行设定。
预约驻车1811可以是用于设定按照用户输入设定的驻车到预约位置的项目。
警报1812可以是用于设定在发生驻车相关事件时输出的用户通知的项目。
阴影驻车1813可以是用于设定驻车到带有阴影的位置的项目。
下雨天气时的驻车1814可以是用于设定下雨的情况下的驻车的项目。
下雪天气时的驻车1815可以是用于设定下雪的情况下的驻车的项目。
室内驻车1816可以是用于设定室内驻车的项目。
参照图19,在驻车完毕的状态下,处理器170可接收周边环境信息。处理器170可通过接口部130接收车辆的检测部760检测出的信息或通信部710获取的信息。例如,处理器170可接收关于降雨量的变化、降雪量的变化、向车辆照射的太阳光量的变化等的信息。
在驻车完毕的状态下,周边环境发生变化时,处理器170可提供用于驻车控制的信号,从而能够与周边环境变化对应地进行移动驻车。其中,周边环境变化可以是降雨量的变化、降雪量的变化或向车辆照射的太阳光量的变化。
例如,如图18中所述,处理器170可根据用户输入来预先设定下雨天气时的驻车1814或下雪天气时的驻车1815。在驻车于露天停车场的状态下下雪或下雨时,处理器170可提供控制信号以便移动驻车到室内停车场。或者,处理器170可提供控制信号以便移动驻车到驾驶者附近驻车空间。此时,处理器170可通过通信部120接收驾驶者所携带的移动终端600的位置信息。处理器170可从通过照相机195获取的影像中检测出驾驶者的位置。
例如,如图18中所述,处理器170可根据用户输入来设定阴影驻车1813。在驻车于露天停车场的状态下,向车辆照射的太阳光量达到基准值以上时,处理器170可提供控制信号以便移动驻车到室内停车场。或者,处理器170可提供控制信号以便移动驻车到带有阴影的驻车空间。
例如,如图18中所述,处理器170可设定预约驻车1811。处理器170可根据用户输入将规定驻车空间设定为预约驻车空间。
在设定为预约驻车空间的驻车空间中已驻车有其他车辆的状态。在此情况下,车辆700可临时驻车到其他驻车空间。随后,在所述其他车辆出车的情况下,处理器170可提供控制信号以便移动驻车到预约驻车空间。即,在预约驻车空间未检测出其他车辆时,处理器170可提供控制信号以便移动驻车到预约驻车空间1910。
作为另一例,在停车场没有驻车空间的情况下,车辆700可进行并排驻车。在并排驻车(double parked)的状态下,处理器170可根据用户输入来设定预约驻车1811。在此情况下,预约驻车空间可以是位于停车场内的任意驻车空间。在已驻车于第一驻车空间的其他车辆出车的情况下,处理器170可提供驻车控制信号以驻车到第一驻车空间。
图20是在说明本发明的实施例的根据通过显示在显示部的地图而输入的用户输入来进行驻车的动作时作为参照的图。
参照图20,驻车执行装置100可包括显示部180以及处理器170。显示部180可显示地图2010。显示部180可接收地图上输入的第一用户输入。其中,第一用户输入可以是驻车执行命令输入。
处理器170可根据第一用户输入来提供用于驻车控制的信号,以驻车到地图2010中相当于与第一用户输入2020对应的地点的实际空间。
具体而言,在地图2010上的规定区域接收到用户的触摸输入时,处理器170可提供控制信号以使车辆700移动到与触摸区域对应的区域。在移动之后,处理器170可提供控制信号以检索周边来检测驻车空间,并驻车到检测出的驻车空间。
在车辆700为自主驾驶车辆的情况下,优选地执行参照图20说明的驻车。
前述的本发明可由在记录有程序的介质中计算机可读取的代码来实现。计算机可读取的介质包括存储有可由计算机***读取的数据的所有种类的记录装置。计算机可读取的介质的例有硬盘驱动器(Hard Disk Drive,HDD)、固态盘(Solid State Disk,SSD)、硅盘驱动器(Silic on Disk Drive,SDD)、ROM、RAM、CD-ROM、磁带、软盘、光数据存储装置等,并且也可以载波(例如,基于因特网的传输)的形态实现。并且,所述计算机也可包括处理器170或控制部770。因此,以上所述的详细的说明在所有方面上不应被理解为限制性的,而是应当被理解为时例示性的。本发明的范围应当由对所附的权利要求书的合理的解释而定,本发明的等价范围内的所有变更应当落入本发明的范围。

Claims (21)

1.一种驻车执行装置,其中,
包括:
多个照相机,获取车辆周边的影像;
显示部,显示将所述多个照相机获取的影像进行合成来生成的环视影像,接收在所述环视影像上输入的第一用户输入;以及
处理器,控制所述显示部在所述环视影像上显示用于表示与所述第一用户输入对应的预计驻车区域的驻车引导图像,在所述驻车引导图像与实际驻车区域相匹配时,提供用于驻车控制的信号。
2.根据权利要求1所述的驻车执行装置,其中,
所述第一用户输入是在显示有所述环视影像的状态下,通过所述显示部接收的触摸及拖拽输入。
3.根据权利要求2所述的驻车执行装置,其中,
所述触摸及拖拽输入包含:
在所述环视影像上的任意的第一地点被触摸的状态下,将所述第一地点与位于与所述第一地点不同的横轴及与所述第一地点不同的纵轴上的第二地点进行衔接的拖拽输入;
所述驻车引导图像是以衔接所述第一地点和所述第二地点的线作为对角线的矩形形状。
4.根据权利要求3所述的驻车执行装置,其中,
所述处理器提供信号,以便将所述第一地点对应于所述车辆的前方向、将所述第二地点对应于所述车辆的后方向来进行驻车。
5.根据权利要求1所述的驻车执行装置,其中,
所述处理器进行控制以便根据对所述驻车引导图像的第二用户输入来变更所述驻车引导图像的位置、大小、方向或模样,或者使显示在所述环视影像的所述驻车引导图像的位置进行移动。
6.根据权利要求1所述的驻车执行装置,其中,
在所述驻车引导图像与可驻车空间相匹配时,所述处理器进行控制以便通过所述显示部输出可驻车通知。
7.根据权利要求1所述的驻车执行装置,其中,
在所述驻车引导图像与可驻车空间不相匹配时,所述处理器进行控制以便输出不可驻车通知。
8.根据权利要求7所述的驻车执行装置,其中,
在所述驻车引导图像与可驻车空间不相匹配时,所述处理器进行控制以便显示推荐驻车空间。
9.根据权利要求8所述的驻车执行装置,其中,
所述推荐驻车空间是多个可驻车空间中与所述驻车引导图像相叠加的区域最多的区域。
10.根据权利要求9所述的驻车执行装置,其中,
在接收到用于执行驻车的第三用户输入时,所述处理器提供驻车到所述推荐驻车空间的控制信号。
11.根据权利要求2所述的驻车执行装置,其中,
所述第一用户输入是在显示有所述环视影像的状态下,通过所述显示部接收的长触摸输入;
所述处理器进行控制以使所述驻车引导图像的大小与所述长触摸输入的触摸时间成比例地发生变化。
12.根据权利要求2所述的驻车执行装置,其中,
所述第一用户输入是在显示有所述环视影像的状态下,与和所述显示部相接触或相靠近地配置的用户的移动终端的位置及姿势对应的输入。
13.根据权利要求12所述的驻车执行装置,其中,
还包括:
通信部,与所述移动终端进行数据交换;
所述处理器进行控制以便通过所述通信部在所述环视影像上接收关于所述用户移动终端的位置及姿势的信息,
根据关于所述移动终端的位置及姿势的信息,在所述显示部上显示所述驻车引导图像。
14.根据权利要求13所述的驻车执行装置,其中,
在所述移动终端的位置及姿势发生变更时,所述处理器进行控制以便根据变更的程度来变更显示所述驻车引导图像。
15.根据权利要求1所述的驻车执行装置,其中,
所述处理器进行控制以便在所述环视影像上显示推荐驻车空间,
所述推荐驻车空间根据以往驻车经验、检测出的周边环境以及检测出的对象中的至少一种来确定。
16.根据权利要求1所述的驻车执行装置,其中,
所述处理器进行控制以便检测位于驻车区域的周边的对象,通过所述显示部显示在按照所述驻车引导图像进行驻车时的所述车辆与所述对象之间的预计距离。
17.根据权利要求16所述的驻车执行装置,其中,
所述处理器提供用于驻车控制的信号,以使所述车辆的驾驶座侧的门与位于所述车辆的驾驶座侧的对象之间的距离达到基准值以上。
18.根据权利要求1所述的驻车执行装置,其中,
在驻车完毕的状态下,周边环境发生变化时,所述处理器提供用于驻车控制的信号,以便与所述周边环境变化对应地进行移动驻车。
19.根据权利要求18所述的驻车执行装置,其中,
所述周边环境变化是降雨量的变化、降雪量的变化或向所述车辆照射的太阳光量的变化。
20.根据权利要求1所述的驻车执行装置,其中,
在驻车完毕的状态下,通过用户设定有预约驻车区域时,所述处理器提供用于驻车控制的信号,以便移动驻车到所述预约驻车区域。
21.一种车辆,其中,
包括:
根据权利要求1至权利要求20中任一项所述的驻车执行装置。
CN201611020302.0A 2015-11-09 2016-11-07 驻车执行装置以及车辆 Active CN106945606B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0156696 2015-11-09
KR1020150156696A KR101850795B1 (ko) 2015-11-09 2015-11-09 주차 수행 장치 및 차량

Publications (2)

Publication Number Publication Date
CN106945606A true CN106945606A (zh) 2017-07-14
CN106945606B CN106945606B (zh) 2019-07-09

Family

ID=57281058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611020302.0A Active CN106945606B (zh) 2015-11-09 2016-11-07 驻车执行装置以及车辆

Country Status (4)

Country Link
US (1) US10528829B2 (zh)
EP (2) EP3165425B1 (zh)
KR (1) KR101850795B1 (zh)
CN (1) CN106945606B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108394407A (zh) * 2018-02-07 2018-08-14 维森软件技术(上海)有限公司 一种辅助停车方法
CN110803108A (zh) * 2019-10-22 2020-02-18 苏州日煊数字科技有限公司 一种基于云计算及影像识别的智能辅助停车方法及其***
CN111354216A (zh) * 2018-12-21 2020-06-30 沈阳美行科技有限公司 一种车辆停放位置的识别方法、装置及相关设备
CN111619551A (zh) * 2019-02-28 2020-09-04 本田技研工业株式会社 车辆控制***、车辆控制方法及存储介质
CN112119437A (zh) * 2018-05-23 2020-12-22 日立汽车***株式会社 驻车管理***、车辆控制装置以及管制中心
CN112824996A (zh) * 2019-11-21 2021-05-21 本田技研工业株式会社 车辆控制装置、车辆控制方法以及存储介质

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014015075B4 (de) * 2014-10-11 2019-07-25 Audi Ag Verfahren zum Betrieb eines automatisiert geführten, fahrerlosen Kraftfahrzeugs und Überwachungssystem
US9637117B1 (en) * 2016-01-12 2017-05-02 Ford Global Technologies, Llc System and method for automatic activation of autonomous parking
DE102016202044A1 (de) * 2016-02-11 2017-08-17 Robert Bosch Gmbh Sensorvorrichtung, Verfahren zum Ermitteln einer Parkposition sowie Verfahren zum Erstellen einer digitalen Parkraumkarte
JP6699370B2 (ja) * 2016-06-06 2020-05-27 アイシン精機株式会社 車両用画像処理装置
MX371375B (es) * 2016-08-15 2020-01-28 Trackmobile Llc Asistencia visual para impulsor de vagon.
US11425530B2 (en) * 2016-08-18 2022-08-23 Allstate Insurance Company Generating and transmitting parking instructions for autonomous and non-autonomous vehicles
US9811085B1 (en) 2016-08-18 2017-11-07 Allstate Insurance Company Generating and transmitting parking instructions for autonomous and non-autonomous vehicles
KR101949438B1 (ko) 2016-10-05 2019-02-19 엘지전자 주식회사 차량용 디스플레이 장치 및 이를 포함하는 차량
DE102017200158A1 (de) * 2017-01-09 2018-07-12 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines an einer ersten Position abgestellten Kraftfahrzeugs
US10369988B2 (en) 2017-01-13 2019-08-06 Ford Global Technologies, Llc Autonomous parking of vehicles inperpendicular parking spots
WO2018167891A1 (ja) * 2017-03-15 2018-09-20 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US10683034B2 (en) 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10234868B2 (en) 2017-06-16 2019-03-19 Ford Global Technologies, Llc Mobile device initiation of vehicle remote-parking
WO2018230021A1 (ja) * 2017-06-16 2018-12-20 株式会社Jvcケンウッド 表示制御装置、表示制御システム、表示制御方法及び表示制御プログラム
US11275957B2 (en) * 2017-07-11 2022-03-15 Hitachi Astemo, Ltd. Parking assistance apparatus
JP6575016B2 (ja) * 2017-09-22 2019-09-18 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP2019067220A (ja) * 2017-10-02 2019-04-25 シャープ株式会社 駐車位置表示処理装置、駐車位置表示方法、およびプログラム
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10281921B2 (en) 2017-10-02 2019-05-07 Ford Global Technologies, Llc Autonomous parking of vehicles in perpendicular parking spots
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
US10336320B2 (en) 2017-11-22 2019-07-02 Ford Global Technologies, Llc Monitoring of communication for vehicle remote park-assist
US10562538B2 (en) * 2017-11-22 2020-02-18 Uatc, Llc Object interaction prediction systems and methods for autonomous vehicles
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
KR102088611B1 (ko) 2017-12-29 2020-03-12 윤태건 차량용 주차제어장치 및 그 장치의 구동방법
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
US11188070B2 (en) 2018-02-19 2021-11-30 Ford Global Technologies, Llc Mitigating key fob unavailability for remote parking assist systems
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
CN110557526B (zh) * 2018-06-04 2021-03-23 杭州海康威视数字技术股份有限公司 一种图像采集方法和***
JP7188916B2 (ja) * 2018-06-26 2022-12-13 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置
DE102018221023A1 (de) * 2018-08-07 2020-02-13 Hyundai Motor Company Fahrzeug und verfahren zum bereitstellen von routenführung unter verwendung öffentlichen verkehrs
US10384605B1 (en) 2018-09-04 2019-08-20 Ford Global Technologies, Llc Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers
US10821972B2 (en) 2018-09-13 2020-11-03 Ford Global Technologies, Llc Vehicle remote parking assist systems and methods
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10720058B2 (en) 2018-09-13 2020-07-21 Volvo Car Corporation System and method for camera or sensor-based parking spot detection and identification
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
JP6997880B2 (ja) * 2018-09-27 2022-01-18 日立Astemo株式会社 駐車支援装置
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
US11267394B2 (en) * 2018-11-19 2022-03-08 Alpine Electronics, Inc. Projection apparatus for indicating a recommended position to observe a movable body, portable device, and recording medium
KR102659052B1 (ko) * 2018-12-04 2024-04-19 현대자동차주식회사 이중 주차된 차량의 이동 제어 장치 및 그 방법
CN109649381A (zh) 2018-12-29 2019-04-19 百度在线网络技术(北京)有限公司 泊车控制方法、装置、电子设备及存储介质
US10745002B2 (en) * 2018-12-31 2020-08-18 Robert Bosch Gmbh Autonomously guiding a vehicle to a desired parking location selected with a remote device
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection
KR102177878B1 (ko) * 2019-03-11 2020-11-12 현대모비스 주식회사 영상 처리 장치 및 방법
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
US11183059B2 (en) * 2019-04-22 2021-11-23 Baidu Usa Llc Parking management architecture for parking autonomous driving vehicles
KR20200130883A (ko) 2019-04-26 2020-11-23 현대모비스 주식회사 주차 지원 장치 및 방법
JP7310903B2 (ja) * 2019-09-17 2023-07-19 株式会社デンソー 駐車支援装置、及び駐車支援方法
JP7323413B2 (ja) * 2019-10-11 2023-08-08 トヨタ自動車株式会社 駐車支援装置
EP3809313A1 (en) * 2019-10-16 2021-04-21 Ningbo Geely Automobile Research & Development Co. Ltd. A vehicle parking finder support system, method and computer program product for determining if a vehicle is at a reference parking location
CN112824183A (zh) * 2019-11-20 2021-05-21 华为技术有限公司 一种自动泊车交互方法及装置
US11164457B2 (en) * 2020-02-25 2021-11-02 Ford Global Technologies, Llc Vehicle control system
US11560143B2 (en) 2020-05-26 2023-01-24 Magna Electronics Inc. Vehicular autonomous parking system using short range communication protocols
KR102176188B1 (ko) * 2020-08-07 2020-11-09 정만식 인공지능 기반의 도로 노후화 등급 판단을 위한 전자 장치 및 그 동작 방법
KR20220038554A (ko) * 2020-09-18 2022-03-29 현대모비스 주식회사 주차제어장치 및 그 제어방법
US11535256B2 (en) * 2020-10-06 2022-12-27 Ford Global Technologies, Llc Chionophobia intervention systems and methods
CN112572418A (zh) 2020-12-15 2021-03-30 北京百度网讯科技有限公司 一种无人驾驶车辆的控制方法、装置及电子设备
CN112668588B (zh) * 2020-12-29 2023-09-12 禾多科技(北京)有限公司 车位信息生成方法、装置、设备和计算机可读介质
CN112644479B (zh) * 2021-01-07 2022-05-13 广州小鹏自动驾驶科技有限公司 一种泊车控制方法和装置
WO2022191813A1 (en) * 2021-03-08 2022-09-15 Roger Stafford An apparatus for monitoring periphery of a vehicle and displaying a view of the periphery on a display device
CN115457795B (zh) * 2021-05-21 2024-03-01 上海擎感智能科技有限公司 停车位的监控方法、***、电子设备及计算机可读存储介质
CN113500962B (zh) * 2021-07-08 2023-08-15 苏州盖茨电子科技有限公司 一种自动寻车***及控制方法
CN113635890B (zh) * 2021-07-29 2022-10-25 江铃汽车股份有限公司 一种自动泊车控制方法、***、可读存储介质及车辆
CN113561964A (zh) * 2021-08-03 2021-10-29 东风汽车集团股份有限公司 一种泊车控制方法及***
JP7408714B2 (ja) * 2022-03-30 2024-01-05 本田技研工業株式会社 制御装置、制御方法、及び制御プログラム
CN117975764B (zh) * 2024-03-29 2024-06-07 烟台富士智能科技有限公司 一种智能停车场的车位预约方法、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003148984A (ja) * 2001-11-16 2003-05-21 Mazda Motor Corp 自動車の情報提供システム、自動車の情報提供方法、及び、自動車の情報提供用プログラム
US20080136673A1 (en) * 2006-09-14 2008-06-12 Mando Corporation Method and apparatus for recognizing parking slot by using bird's eye view and parking assist system using the same
CN103366601A (zh) * 2012-04-04 2013-10-23 现代自动车株式会社 基于环视图像设置停车位置的装置和方法
KR20140094116A (ko) * 2013-01-21 2014-07-30 아진산업(주) 드래그 앤드 드롭을 통한 차량의 주차지원 방법
CN104228682A (zh) * 2013-06-12 2014-12-24 现代摩比斯株式会社 驻车辅助***

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004068420A (ja) 2002-08-06 2004-03-04 Mazda Motor Corp 車両用遠隔操作装置
JP2005239048A (ja) 2004-02-27 2005-09-08 Denso Corp 駐車支援システム
JP2006224778A (ja) * 2005-02-16 2006-08-31 Nippon Soken Inc 駐車支援装置
JP2008009913A (ja) 2006-06-30 2008-01-17 Toyota Motor Corp 車両自動運転システム
JP5040940B2 (ja) * 2009-03-04 2012-10-03 株式会社デンソー 駐車支援装置
KR101675597B1 (ko) 2010-06-08 2016-11-11 현대모비스 주식회사 목표 주차 공간 설정을 위한 hmi를 개선한 주차 보조 시스템 및 방법
KR101198206B1 (ko) 2010-12-14 2012-11-07 주식회사 이미지넥스트 휴대 단말을 이용한 차량 주변 영상 제공 시스템 및 그 방법
EP2481637B1 (en) * 2011-01-28 2014-05-21 Nxp B.V. Parking Assistance System and Method
KR101211374B1 (ko) 2012-05-08 2012-12-13 권순호 휴대단말기를 이용한 무인 자동화 주차 시스템
KR101903969B1 (ko) 2012-05-18 2018-10-04 현대모비스 주식회사 이중주차된 차량의 자동 주차 제어장치 및 그 방법
JP5991112B2 (ja) * 2012-09-24 2016-09-14 アイシン精機株式会社 駐車支援装置、制御方法、およびプログラム
CN103777882B (zh) * 2012-10-24 2017-07-11 腾讯科技(北京)有限公司 基于触摸屏的多项选中方法及装置
US9656690B2 (en) * 2012-10-30 2017-05-23 Robert Bosch Gmbh System and method for using gestures in autonomous parking
JP6115104B2 (ja) * 2012-12-04 2017-04-19 アイシン精機株式会社 車両の制御装置、及び制御方法
JP6107168B2 (ja) * 2013-01-25 2017-04-05 日産自動車株式会社 駐車支援装置及び駐車支援方法
KR20140108995A (ko) * 2013-03-04 2014-09-15 삼성전자주식회사 페이지의 일부 영역을 이용한 데이터 처리 방법 및 장치
JP6115249B2 (ja) * 2013-03-28 2017-04-19 日産自動車株式会社 駐車支援装置
US9102330B2 (en) * 2013-07-31 2015-08-11 Here Global B.V. Method and apparatus for causing an adjustment in parking position for vehicles
DE102014001554B4 (de) 2014-02-05 2016-07-14 Audi Ag Verfahren zum automatischen Parken eines Fahrzeugs und zugehörige Steuerungseinrichtung
US10089538B2 (en) * 2015-04-10 2018-10-02 Bendix Commercial Vehicle Systems Llc Vehicle 360° surround view system having corner placed cameras, and system and method for calibration thereof
US9902322B2 (en) * 2015-10-30 2018-02-27 Bendix Commercial Vehicle Systems Llc Filling in surround view areas blocked by mirrors or other vehicle parts

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003148984A (ja) * 2001-11-16 2003-05-21 Mazda Motor Corp 自動車の情報提供システム、自動車の情報提供方法、及び、自動車の情報提供用プログラム
US20080136673A1 (en) * 2006-09-14 2008-06-12 Mando Corporation Method and apparatus for recognizing parking slot by using bird's eye view and parking assist system using the same
CN103366601A (zh) * 2012-04-04 2013-10-23 现代自动车株式会社 基于环视图像设置停车位置的装置和方法
KR20140094116A (ko) * 2013-01-21 2014-07-30 아진산업(주) 드래그 앤드 드롭을 통한 차량의 주차지원 방법
CN104228682A (zh) * 2013-06-12 2014-12-24 现代摩比斯株式会社 驻车辅助***

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108394407A (zh) * 2018-02-07 2018-08-14 维森软件技术(上海)有限公司 一种辅助停车方法
CN112119437A (zh) * 2018-05-23 2020-12-22 日立汽车***株式会社 驻车管理***、车辆控制装置以及管制中心
CN112119437B (zh) * 2018-05-23 2022-05-17 日立安斯泰莫株式会社 驻车管理***
CN111354216A (zh) * 2018-12-21 2020-06-30 沈阳美行科技有限公司 一种车辆停放位置的识别方法、装置及相关设备
CN111619551A (zh) * 2019-02-28 2020-09-04 本田技研工业株式会社 车辆控制***、车辆控制方法及存储介质
CN111619551B (zh) * 2019-02-28 2023-07-07 本田技研工业株式会社 车辆控制***、车辆控制方法及存储介质
CN110803108A (zh) * 2019-10-22 2020-02-18 苏州日煊数字科技有限公司 一种基于云计算及影像识别的智能辅助停车方法及其***
CN110803108B (zh) * 2019-10-22 2021-06-04 深圳市路卓科技有限公司 一种基于云计算及影像识别的智能辅助停车方法及其***
CN112824996A (zh) * 2019-11-21 2021-05-21 本田技研工业株式会社 车辆控制装置、车辆控制方法以及存储介质
CN112824996B (zh) * 2019-11-21 2024-05-10 本田技研工业株式会社 车辆控制装置、车辆控制方法以及存储介质

Also Published As

Publication number Publication date
EP3392122B1 (en) 2020-08-19
US10528829B2 (en) 2020-01-07
US20170132482A1 (en) 2017-05-11
KR101850795B1 (ko) 2018-04-20
EP3165425A1 (en) 2017-05-10
CN106945606B (zh) 2019-07-09
EP3392122A1 (en) 2018-10-24
KR20170054027A (ko) 2017-05-17
EP3165425B1 (en) 2018-08-08

Similar Documents

Publication Publication Date Title
CN106945606B (zh) 驻车执行装置以及车辆
CN107021017B (zh) 车辆用环视提供装置以及车辆
CN106143282B (zh) 车辆用组合尾灯及包括其的车辆
CN106143283B (zh) 车辆用照明装置及包括其的车辆
CN106274647B (zh) 车头灯及车辆
CN107054245B (zh) 车辆用便利装置及车辆
CN106467060B (zh) 显示装置及包括该显示装置的车辆
CN107226027B (zh) 显示装置及包括其的车辆
EP3481692B1 (en) Driver assistance apparatus
CN106494170B (zh) 车辆驾驶辅助装置、车辆以及车辆用悬架控制方法
CN106494396B (zh) 车辆驾驶辅助装置以及车辆
CN106240457B (zh) 车辆驾驶辅助装置及车辆
CN106364488B (zh) 自主驾驶车辆
CN107891809A (zh) 自动驻车辅助装置、提供自动驻车功能的方法以及车辆
EP3211616A2 (en) Driver assistance apparatus
CN106323309A (zh) 车辆驾驶辅助装置、车辆用显示装置以及车辆
CN109910749A (zh) 设于车辆的车辆控制装置及车辆的控制方法
CN107914713A (zh) 车辆用显示装置及包括其的车辆
CN109849906A (zh) 自主行驶车辆及其控制方法
CN107499307A (zh) 自动停车辅助装置以及包括该自动停车辅助装置的车辆
CN109843676A (zh) 自动泊车辅助装置以及包括其的车辆
CN106094809A (zh) 车辆驾驶辅助装置
CN107380056A (zh) 车辆用照明装置以及车辆
CN107284353A (zh) 室内相机装置、包括其的车辆驾驶辅助装置以及车辆
CN109789778A (zh) 自动泊车辅助装置以及包括其的车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant