CN110944874A - 车辆用照明***以及车辆 - Google Patents

车辆用照明***以及车辆 Download PDF

Info

Publication number
CN110944874A
CN110944874A CN201880047449.XA CN201880047449A CN110944874A CN 110944874 A CN110944874 A CN 110944874A CN 201880047449 A CN201880047449 A CN 201880047449A CN 110944874 A CN110944874 A CN 110944874A
Authority
CN
China
Prior art keywords
vehicle
brightness
light
control unit
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880047449.XA
Other languages
English (en)
Other versions
CN110944874B (zh
Inventor
加藤靖礼
松本昭则
金森昭贵
山本照亮
伏见美昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Publication of CN110944874A publication Critical patent/CN110944874A/zh
Application granted granted Critical
Publication of CN110944874B publication Critical patent/CN110944874B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Traffic Control Systems (AREA)
  • Non-Portable Lighting Devices Or Systems Thereof (AREA)

Abstract

车辆用照明***被设置于能够以自动驾驶模式行驶的车辆,其中具备:照明单元,构成为通过向所述车辆的外部射出光来形成配光图案;以及照明控制部,构成为根据所述车辆的驾驶模式,对所述配光图案的明亮度进行变更。

Description

车辆用照明***以及车辆
技术领域
本公开涉及车辆用照明***。特别是,本公开涉及在能够以自动驾驶模式行驶的车辆中设置的车辆用照明***。此外,本公开涉及具备车辆用照明***并且能够以自动驾驶模式行驶的车辆。
背景技术
当前,在各国盛行汽车的自动驾驶技术的研究,在各国正在讨论用于使车辆(以下,“车辆”是指汽车。)能够以自动驾驶模式在公路上行驶的立法。在此,在自动驾驶模式下,车辆***对车辆的行驶自动地进行控制。具体而言,在自动驾驶模式下,车辆***基于从照相机、雷达(例如,激光雷达、毫米波雷达)等传感器得到的各种信息而自动地进行转向控制(车辆的行进方向的控制)、制动控制以及加速控制(车辆的制动、加减速的控制)之中的至少一个。另一方面,在以下叙述的手动驾驶模式下,如以往型的车辆的大部分那样,驾驶员对车辆的行驶进行控制。具体而言,在手动驾驶模式下,按照驾驶员的操作(转向操作、制动操作、加速操作)来控制车辆的行驶,车辆***不自动地进行转向控制、制动控制以及加速控制。另外,车辆的驾驶模式是指,不是仅存在于一部分车辆的概念,而是存在于也包含不具有自动驾驶功能的以往型的车辆的全部车辆的概念,车辆的驾驶模式根据例如车辆控制方法等而被分类。
这样,在未来,预想在公路上以自动驾驶模式行驶中的车辆(以下,适当称为“自动驾驶车”。)和以手动驾驶模式行驶中的车辆(以下,适当称为“手动驾驶车”。)混合存在。此外,使从车辆中搭载的各种传感器取得的周边环境信息的精度飞跃性地提高,成为自动驾驶技术的发展中的关键点。
在专利文献1中,公开了后车对前车进行自动跟随行驶的自动跟随行驶***。在该自动跟随行驶***中,前车和后车各自具备照明***,在前车的照明***中显示用于防止其他车辆***在前车和后车之间的文字信息,并且在后车的照明***中显示用于表示自动跟随行驶的意思的文字信息。
现有技术文献
专利文献
专利文献1:日本国特开平9-277887号公报
发明内容
发明要解决的课题
然而,在专利文献1中,关于根据车辆的驾驶模式而对从在车辆中设置的照明单元射出的光的明亮度进行变更,没有做任何讨论。
此外,在专利文献1中,关于在使用激光雷达(LiDAR等)取得了与存在于车辆的外部的对象物(行人等)相关的信息后,根据该信息对从车辆中设置的照明单元射出的光的明亮度进行变更,没有讨论。
本公开的第一目的在于,提供能够鉴于车辆的驾驶模式来优化由照明单元形成的配光图案(pattern)的明亮度的车辆用照明***。
此外,本公开的第二目的在于,提供能够基于与存在于车辆的外部的对象物相关的信息来优化照射该对象物的光的明亮度的车辆用照明***。
用于解决课题的手段
本公开的一方式所涉及的车辆用照明***被设置于能够以自动驾驶模式行驶的车辆。所述车辆用照明***具备:
照明单元,构成为通过向所述车辆的外部射出光来形成配光图案;以及照明控制部,构成为根据所述车辆的驾驶模式,对所述配光图案的明亮度进行变更。
根据上述结构,根据车辆的驾驶模式而变更配光图案的明亮度(例如,按照配光图案而被照射的照明区域的照度等)。这样,能够提供能够鉴于车辆的驾驶模式而优化由照明单元形成的配光图案的明亮度的车辆用照明***。
此外,也可以是,在所述车辆的驾驶模式为手动驾驶模式的情况下,所述照明控制部将所述配光图案的明亮度设定为第一明亮度,在所述车辆的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,所述照明控制部将所述配光图案的明亮度设定为比所述第一明亮度更低的第二明亮度。
根据上述结构,在车辆的驾驶模式为手动驾驶模式的情况下,将配光图案的明亮度设定为第一明亮度。另一方面,在车辆的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,将配光图案的明亮度设定为比第一明亮度更低的第二明亮度。这样,在车辆的驾驶模式为自动驾驶模式的情况下,配光图案的明亮度降低。例如,在车辆以手动驾驶模式行驶中的情况下,配光图案的明亮度需要被设定为驾驶员能够对车辆的周边环境充分地进行视觉辨认的程度的明亮度。另一方面,在车辆以高级驾驶辅助模式或者完全自动驾驶模式行驶中的情况下,由于取代驾驶员,而由车辆控制部(车载计算机)基于由雷达、照相机等传感器取得的车辆的周边环境信息对车辆的行驶进行控制,车辆中搭载的电池的电力的消耗急剧。而且,传感器能够以与为了驾驶员能够对车辆的周边环境充分地进行视觉辨认所需的明亮度相比更低的配光图案的明亮度来取得车辆的周边环境信息。因此,在车辆的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,能够下调配光图案的明亮度,所以能够抑制车辆中搭载的电池的电力消耗。
此外,所述车辆用照明***也可以还具备:照相机,构成为对所述车辆的周边环境进行检测;激光雷达,构成为对所述车辆的周边环境进行检测;壳体(housing);以及罩,被安装于所述壳体。也可以是所述照明单元、所述照相机、所述激光雷达被配置在由所述壳体和所述罩形成的空间内。
根据上述结构,照明单元、照相机、激光雷达被配置在由壳体和罩形成的空间内。在这样的配置构造中,设想在从照明单元射出的光的一部分被罩的内表面反射之后,该被内表面反射的光的一部分入射至激光雷达的受光部。在该情况下,有入射至激光雷达的受光部的光对激光雷达的输出结果(3D映射数据)产生不良影响的顾虑。另一方面,在车辆的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,配光图案的明亮度被设定为比第一明亮度低的第二明亮度(也就是说,配光图案的明亮度较低),因此能够适当地防止入射至激光雷达的受光部的光对激光雷达的输出结果产生不良影响。从而,能够抑制电池的消耗电力,并且使激光雷达的可靠性提高。
此外,所述照明控制部也可以构成为,根据所述车辆的驾驶模式对所述配光图案的形状进行变更。
根据上述结构,根据车辆的驾驶模式来变更配光图案的形状。这样,能够提供能够鉴于车辆的驾驶模式而优化配光图案的明亮度和形状的车辆用照明***。
也可以是,所述照明控制部构成为,对所述照明单元进行控制,以使在所述车辆的驾驶模式为自动驾驶模式的情况下,按照所述配光图案而被照射的照明区域的照度变得均匀。
根据上述结构,在车辆的驾驶模式为自动驾驶模式的情况下,按照配光图案而被照射的照明区域的照度变得均匀。这样,由于按照配光图案而被照射的照明区域的照度变得均匀,因此能够通过照相机对车辆的周边环境成功地进行摄像。
提供能够以自动驾驶模式行驶的车辆,其具备所述车辆用照明***。
能够提供能够鉴于车辆的驾驶模式而优化由照明单元形成的配光图案的明亮度的车辆。
本公开的另一方式所涉及的车辆用照明***被设置于能够以自动驾驶模式行驶的车辆。
所述车辆用照明***具备:
激光雷达,构成为取得用于表示所述车辆的周边环境的检测数据;
照明单元,构成为通过向所述车辆的外部射出光来形成配光图案;
第一周边环境信息生成部,构成为基于所述检测数据,确定存在于所述车辆的外部的对象物的属性、以及所述对象物和所述车辆之间的距离;以及
照明控制部,构成为根据所述对象物的属性、以及所述对象物和所述车辆之间的距离,对从所述照明单元射出并且照射所述对象物的光的明亮度进行变更。
根据上述结构,基于由激光雷达取得的检测数据,确定对象物的属性、以及对象物和车辆之间的距离。进而,根据对象物的属性、以及对象物和车辆之间的距离,变更照射对象物的光的明亮度(例如,按照配光图案而被照射的对象物的照明区域的照度、在朝向对象物的方向上的照明单元的发光强度)。这样,能够提供能够基于与存在于车辆的外部的对象物相关的信息,优化照射该对象物的光的明亮度的车辆用照明***。
此外,车辆用照明***也可以还具备:照相机,构成为取得用于表示所述车辆的周边环境的图像数据;以及第二周边环境信息生成部,构成为基于所述图像数据,生成用于表示所述车辆的周边环境的周边环境信息。
根据上述结构,能够基于与存在于车辆的外部的对象物相关的信息,优化照射该对象物的光的明亮度,因此能够得到适合使用照相机拍摄车辆的周边环境的照相机用配光图案。因此,在由照相机取得的图像数据中产生泛黑(black out)或者泛白(white out)(光晕(halation))的情况被适当地抑制,所以能够提高基于该图像数据生成的周边环境信息的精度。
此外,也可以是,在所述对象物为标识或者轮廓标(delineator)的情况下,所述照明控制部将照射所述对象物的光的明亮度设定为第一明亮度,
在所述对象物为行人的情况下,将照射所述对象物的光的明亮度设定为比所述第一明亮度更高的第二明亮度。
根据上述结构,在对象物为标识或者轮廓标的情况下,照射对象物的光的明亮度被设定为第一明亮度。另一方面,在对象物为行人的情况下,照射对象物的光的明亮度被设定为比第一明亮度更高的第二明亮度。这样,具有较高的反射率的对象物(标识、轮廓标等)被明亮度较低的光照射,另一方面,具有较低的反射率的对象物(行人等)被明亮度较高的光照射。因此,例如,能够适当地抑制在由照相机取得的图像数据中产生泛黑或者泛白的情况,能够使基于图像数据的对象物的检测精度飞跃性地提高。进而,使驾驶员(或者乘客)对于具有较低的反射率的对象物的视觉辨认性提高,并且能够防止由于被具有较高的反射率的对象物反射的反射光而给予驾驶员眩(glare)光。
此外,也可以是,在所述对象物为行人的情况下,照射所述行人的头部的光的明亮度比照射所述行人的除了头部以外的身体的光的明亮度更低。
根据上述结构,在对象物为行人的情况下,照射行人的头部的光的明亮度比照射行人的除了头部以外的身体的光的明亮度更低,因此能够防止给予行人眩光。
此外,所述照明控制部也可以构成为,对所述照明单元进行控制,以使随着所述对象物和所述车辆之间的距离变大,照射所述对象物的光的明亮度变高。
根据上述结构,随着对象物和车辆之间的距离变大,照射对象物的光的明亮度变高。因此,例如,在对象物和车辆之间的距离较大的情况下,在由照相机取得的图像数据中对象物被显示较得小(也就是说,图像数据中的对象物的占用面积小),另一方面,由于照射对象物的光的明亮度较高,能够防止在该图像数据中对象物泛黑。这样,能够使基于图像数据的对象物的检测精度提高。此外,能够使驾驶员(或者乘客)对于存在于远离车辆的位置的对象物的认知度提高。
提供能够以自动驾驶模式行驶的车辆,其具备所述车辆用照明***。
能够提供能够基于与存在于车辆的外部的对象物相关的信息,优化照射该对象物的光的明亮度的车辆。
附图说明
图1是示出具备车辆***的车辆的俯视图的示意图。
图2是示出车辆***的框图。
图3是用于说明左前照明***的动作流程的一例的流程图。
图4(a)是示出在车辆的驾驶模式为手动驾驶模式或者驾驶辅助模式的情况下的配光图案的一例的图。图4(b)是示出在车辆的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下的配光图案的一例的图。
图5是示出具备车辆***的车辆的俯视图的示意图。
图6是示出车辆***的框图。
图7是示出左前照明***的控制部的功能块的图。
图8是用于说明本公开的实施方式所涉及的左前照明***的动作流程的一例的流程图。
图9是示出从左前照明***的照明单元将配光图案向存在于车辆的前方的对象物射出的车辆的情形的图。
图10是示出被投影到在车辆的前方虚拟地设置的虚拟屏幕的配光图案的一例的图。
具体实施方式
(第一实施方式)
以下,关于本公开的第一实施方式,参照附图进行说明。此外,为了便于说明,本附图所示的各构件的尺寸有时与实际的各构件的尺寸不同。
此外,在本实施方式的说明中,为了便于说明,关于“左右方向”、“前后方向”进行适当提及。这些方向是针对图1所示的车辆1而设定的相对的方向。在此,“前后方向”是包含“前方向”以及“后方向”的方向。“左右方向”是包含“左方向”以及“右方向”的方向。
首先,参照图1说明本实施方式所涉及的车辆1。图1是示出具备车辆***2的车辆1的俯视图的示意图。如图1所示,车辆1是能够以自动驾驶模式行驶的车辆(汽车),并且具备车辆***2。车辆***2至少具备车辆控制部3、左前照明***4a(以下,简称为“照明***4a”。)、右前照明***4b(以下,简称为“照明***4b”。)、左后照明***4c(以下,简称为“照明***4c”。)、右后照明***4d(以下,简称为“照明***4d”。)。
照明***4a被设置在车辆1的左前侧。特别是,照明***4a具备被设置在车辆1的左前侧的壳体24a、和被安装于壳体24a的透光罩22a。照明***4b被设置在车辆1的右前侧。特别是,照明***4b具备被设置在车辆1的右前侧的壳体24b、和被安装于壳体24b的透光罩22b。照明***4c被设置在车辆1的左后侧。特别是,照明***4c具备被设置在车辆1的左后侧的壳体24c、和被安装于壳体24c的透光罩22c。照明***4d被设置在车辆1的右后侧。特别是,照明***4d具备被设置在车辆1的右后侧的壳体24d、和被安装于壳体24d的透光罩22d。
接着,通过参照图2,具体地说明图1所示的车辆***2。图2是示出车辆***2的框图。如图2所示,车辆***2具备车辆控制部3、照明***4a~4d、传感器5、HMI(人机接口(Human Machine Interface))8、GPS(全球定位***(Global Positioning System))9、无线通信部10、以及存储装置11。进而,车辆***2具备转向致动器12、转向装置13、制动致动器14、制动装置15、加速致动器16、以及加速装置17。此外,车辆***2具备构成为供应电力的电池(未图示)。
车辆控制部3构成为对车辆1的行驶进行控制。车辆控制部3例如由至少一个电子控制单元(ECU:Electronic Control Unit)构成。电子控制单元也可以包括至少一个微控制器和其他电子电路,其中,该微控制器包含1个以上的处理器和1个以上的存储器,该其他电子电路包含晶体管等有源(active)元件以及无源(passive)元件。处理器例如是CPU(中央处理单元(Central Processing Unit))、MPU(微处理单元(Micro Processing Unit))、GPU(图形处理单元(Graphics Processing Unit))和/或TPU(张量处理单元(TensorProcessing Unit))。CPU也可以由多个CPU核心构成。GPU也可以由多个GPU核心构成。存储器包含ROM(只读存储器(Read Only Memory))、和RAM(随机存取存储器(Random AccessMemory))。在ROM中,也可以存储有车辆控制程序。例如,车辆控制程序也可以包含自动驾驶用的人工知能(AI)程序。AI程序是通过深度学习等使用了神经网络的有教师或者无教师机器学习而构建的程序。在RAM中,也可以临时地存储有车辆控制程序、车辆控制数据和/或用于表示车辆的周边环境的周边环境信息。处理器也可以构成为将从ROM中存储的车辆控制程序中指定的程序在RAM上展开,以与RAM联动的方式执行各种处理。
此外,电子控制单元(ECU)也可以由ASIC(专用集成电路(Application SpecificIntegrated Circuit))、FPGA(现场可编程门阵列(Field-Programmable Gate Array))等的至少一个集成电路构成。进而,电子控制单元也可以由至少一个微控制器和至少一个集成电路(FPGA等)的组合构成。
照明***4a还具备控制部40a、照明单元42a、照相机43a、LiDAR(光检测和测距(Light Detection and Ranging))单元44a(激光雷达的一例)、毫米波雷达45a。如图1所示,控制部40a、照明单元42a、照相机43a、LiDAR单元44a、毫米波雷达45a被配置在由壳体24a和透光罩22a形成的空间Sa内(灯室内)。另外,控制部40a也可以被配置在除了空间Sa以外的车辆1的规定的部位。例如,控制部40a也可以与车辆控制部3一体地构成。
控制部40a构成为对照明单元42a、照相机43a、LiDAR单元44a、毫米波雷达45a的动作分别进行控制。特别是,控制部40a发挥如下的照明控制部的功能,该照明控制部构成为根据车辆1的驾驶模式而对由照明单元42a形成的配光图案的形状以及明亮度进行变更。此外,控制部40a也可以发挥如下的照相机控制部的功能,该照相机控制部构成为,在取得了从照相机43a取得的图像数据后,基于该图像数据而生成用于表示车辆1的周边环境的周边环境信息。此外,控制部40a也可以发挥LiDAR控制部的功能,该LiDAR控制部构成为,在取得了从LiDAR单元44a取得的3D映射数据(点群数据)后,基于该3D映射数据而生成用于表示车辆1的周边环境的周边环境信息。进而,控制部40a也可以发挥毫米波雷达控制部的功能,该毫米波雷达控制部构成为,在取得了从毫米波雷达45a取得的检测数据后,基于该检测数据而生成用于表示车辆1的周边环境的周边环境信息。
此外,控制部40a例如由至少一个电子控制单元(ECU)构成。电子控制单元也可以包括至少一个微控制器和其他电子电路(例如,晶体管等),其中,该微控制器包含1个以上的处理器和1个以上的存储器。处理器例如是CPU、MPU、GPU和/或TPU。CPU也可以由多个CPU核心构成。GPU也可以由多个GPU核心构成。存储器包含ROM和RAM。在ROM中,可以存储有用于确定车辆1的周边环境的周边环境确定程序。例如,周边环境确定程序是通过深度学习等使用了神经网络的有教师或者无教师机器学习而构建的程序。在RAM中,可以临时地存储有周边环境确定程序、被照相机43a取得的图像数据、由LiDAR单元44a取得的三维映射数据(点群数据)和/或由毫米波雷达45a取得的检测数据等。处理器也可以构成为,将从ROM中存储的周边环境确定程序中指定的程序在RAM上展开,以与RAM联动的方式执行各种处理。此外,电子控制单元(ECU)也可以由ASIC、FPGA等至少一个集成电路构成。进而,电子控制单元也可以由至少一个微控制器和至少一个集成电路(FPGA等)的组合构成。
照明单元42a构成为通过向车辆1的外部(前方)射出光来形成配光图案。照明单元42a具有射出光的光源和光学***。光源例如可以由矩阵状地(例如,N行×M列,N>1,M>1)排列的多个发光元件构成。发光元件例如是LED(发光二极管(Light Emitting Diode))、LD(激光二极管(Laser Diode))或者有机EL元件。光学***可以包含构成为将从光源射出的光向照明单元42a的前方反射的反射镜、和构成为对从光源直接射出的光或者被反射镜反射的光进行折射的透镜之中的至少一方。照明单元42a构成为,在车辆1的驾驶模式为手动驾驶模式或者驾驶辅助模式的情况下,在车辆1的前方形成驾驶员用的配光图案(例如,近光用配光图案、远光用配光图案)。这样,照明单元42a发挥左侧前照灯单元的功能。另一方面,照明单元42a也可以构成为,在车辆1的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,在车辆1的前方形成照相机用的配光图案。
控制部40a可以构成为对在照明单元42a中设置的多个发光元件中的各个发光元件单独地供应电信号(例如,PWM(脉冲宽度调制(Pulse Width Modulation))信号)。这样,控制部40a能够单独地选择被供应电信号的发光元件,并且能够针对每个发光元件来调整电信号的占空(Duty)比。也就是说,控制部40a能够选择矩阵状地排列的多个发光元件之中的要点亮或者熄灭的发光元件,并且能够决定正在点亮的发光元件的亮度。因此,控制部40a(照明控制部)能够对从照明单元42a向前方射出的配光图案的形状以及明亮度进行变更。
照相机43a构成为对车辆1的周边环境进行检测。特别是,照相机43a构成为,在取得了用于表示车辆1的周边环境的图像数据后,将该图像数据发送至控制部40a。控制部40a基于被发送的图像数据,确定周边环境信息。在此,周边环境信息例如可以包含与存在于车辆1的外部的对象物的属性相关的信息、以及与对象物相对于车辆1的位置相关的信息。照相机43a例如由CCD(电荷耦合器件(Charge-Coupled Device))、CMOS(金属氧化物半导体(互补型MOS:Metal Oxide Semiconductor))等摄像元件构成。照相机43a也可以构成为单眼照相机,还可以构成为立体照相机。在照相机43a为立体照相机的情况下,控制部40a能够通过利用视差,基于由立体照相机取得的2个以上的图像数据,确定车辆1和存在于车辆1的外部的对象物(例如,行人等)之间的距离。此外,在本实施方式中,照明***4a中设置有1个照相机43a,但也可以是照明***4a中设置有2个以上的照相机43a。
LiDAR单元44a(激光雷达的一例)构成为对车辆1的周边环境进行检测。特别是,LiDAR单元44a构成为,在取得了用于表示车辆1的周边环境的3D映射数据(点群数据)后,将该3D映射数据发送至控制部40a。控制部40a基于被发送的3D映射数据,确定周边环境信息。在此,周边环境信息例如可以包含与存在于车辆1的外部的对象物的属性相关的信息、以及与对象物相对于车辆1的位置相关的信息。
更具体而言,LiDAR单元44a能够在取得了与激光的各射出角度(水平角度θ、垂直角度
Figure BDA0002369516540000101
)上的激光(光脉冲)的飞行时间(TOF:Time of Flight)ΔT1相关的信息后,基于与飞行时间ΔT1相关的信息,取得与各射出角度(水平角度θ、垂直角度
Figure BDA0002369516540000102
)上的LiDAR单元44a(车辆1)和存在于车辆1的外部的物体之间的距离D相关的信息。在此,飞行时间ΔT1例如能够如以下那样算出。
飞行时间ΔT1=激光(光脉冲)返回至LiDAR单元的时刻t1–LiDAR单元射出激光(光脉冲)的时刻t0
这样,LiDAR单元44a能够取得用于表示车辆1的周边环境的3D映射数据。
此外,LiDAR单元44a例如具备构成为射出激光的激光源、构成为使激光在水平方向以及垂直方向上扫描的光偏转器、透镜等光学***、和构成为接收被物体反射的激光的受光部。从激光源射出的激光的中心波长没有被特别限定。例如,激光可以是中心波长为900nm附近的非可见光。光偏转器例如可以是MEMS(微电子机械***(Micro ElectroMechanical Systems))镜。受光部例如是光电二极管。另外,LIDAR单元44a也可以不通过光偏转器而扫描激光,而是取得3D映射数据。例如,LiDAR单元44a也可以以相控阵(phasedarray)方式或者快闪(flash)方式取得3D映射数据。此外,在本实施方式中,在照明***4a中设置有一个LiDAR单元44a,但也可以在照明***4a中设置有两个以上的LiDAR单元44a。例如,在照明***4a中设置有两个LiDAR单元44a的情况下,可以是一个LiDAR单元44a构成为对车辆1的前方区域的周边环境进行检测,并且另一个LiDAR单元44a构成为对车辆1的侧方区域的周边环境进行检测。
毫米波雷达45a构成为对车辆1的周边环境进行检测。特别是,毫米波雷达45a构成为,在取得了用于表示车辆1的周边环境的检测数据后,将该检测数据发送至控制部40a。控制部40a基于被发送的检测数据,确定周边环境信息。在此,周边环境信息例如可以包含与存在于车辆1的外部的对象物的属性相关的信息、与对象物相对于车辆1的位置相关的信息、以及与对象物相对于车辆1的速度相关的信息。
例如,毫米波雷达45a能够以脉冲调制方式,FM-CW(调频连续波(FrequencyModuleted-Continuous Wave))方式或者双频CW(双频连续波)方式,取得毫米波雷达45a(车辆1)和存在于车辆1的外部的物体之间的距离D。在使用脉冲调制方式的情况下,毫米波雷达45a能够在取得了与毫米波的各射出角度上的毫米波的飞行时间ΔT2相关的信息后,基于与飞行时间ΔT2相关的信息,取得与各射出角度上的毫米波雷达45a(车辆1)和存在于车辆1的外部的物体之间的距离D相关的信息。在此,飞行时间ΔT2例如能够如以下那样算出。
飞行时间ΔT2=毫米波返回至毫米波雷达的时刻t3-毫米波雷达射出毫米波的时刻t2
此外,毫米波雷达45a能够基于从毫米波雷达45a射出的毫米波的频率f0和返回至毫米波雷达45a的毫米波的频率f1,取得与存在于车辆1的外部的物体相对于毫米波雷达45a(车辆1)的相对速度V相关的信息。
此外,在本实施方式中,在照明***4a中设置有一个毫米波雷达45a,但也可以在照明***4a中设置有两个以上的毫米波雷达45a。例如,照明***4a也可以具有短距离用的毫米波雷达45a、中距离用的毫米波雷达45a、和长距离用的毫米波雷达45a。
照明***4b还具备控制部40b、照明单元42b、照相机43b、LiDAR单元44b、以及毫米波雷达45b。如图1所示,控制部40b、照明单元42b、照相机43b、LiDAR单元44b、毫米波雷达45b被设置在由壳体24b和透光罩22b形成的空间Sb内(灯室内)。另外,控制部40b也可以配置在除了空间Sb以外的车辆1的规定的部位。例如,控制部40b也可以与车辆控制部3一体地构成。控制部40b可以具有与控制部40a同样的功能以及结构。照明单元42b可以具有与照明单元42a同样的功能以及结构。在这一点上,照明单元42a发挥左侧前照灯单元的功能,另一方面,照明单元42b发挥右侧前照灯单元的功能。照相机43b可以具有与照相机43a同样的功能以及结构。LiDAR单元44b可以具有与LiDAR单元44a同样的功能以及结构。毫米波雷达45b也可以具有与毫米波雷达45a同样的功能以及结构。
照明***4c还具备控制部40c、照明单元42c、照相机43c、LiDAR单元44c、毫米波雷达45c。控制部40c、照明单元42c、照相机43c、LiDAR单元44c、毫米波雷达45c如图1所示,被配置在由壳体24c和透光罩22c形成的空间Sc内(灯室内)。另外,控制部40c也可以被配置在空间Sc以外的车辆1的规定的部位。例如,控制部40c也可以与车辆控制部3一体地构成。控制部40c也可以具有与控制部40a同样的功能以及结构。
照明单元42c构成为通过向车辆1的外部(后方)射出光来形成配光图案。照明单元42c具有射出光的光源、和光学***。光源例如可以由矩阵状地(例如,N行×M列、N>1、M>1)排列的多个发光元件构成。发光元件例如是LED、LD或者有机EL元件。光学***可以包含构成为将从光源射出的光向照明单元42c的前方反射的反射镜、和构成为对从光源直接射出的光或者被反射镜反射的光进行折射的透镜之中的至少一方。在车辆1的驾驶模式为手动驾驶模式或者驾驶辅助模式的情况下,照明单元42c也可以熄灭。另一方面,照明单元42c也可以构成为,在车辆1的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,在车辆1的后方形成照相机用的配光图案。
照相机43c可以具有与照相机43a同样的功能以及结构。LiDAR单元44c可以具有与LiDAR单元44c同样的功能以及结构。毫米波雷达45c可以具有与毫米波雷达45a同样的功能以及结构。
照明***4d还具备控制部40d、照明单元42d、照相机43d、LiDAR单元44d、以及毫米波雷达45d。如图1所示,控制部40d、照明单元42d、照相机43d、LiDAR单元44d、以及毫米波雷达45d被配置在由壳体24d和透光罩22d形成的空间Sd内(灯室内)。另外,控制部40d也可以被配置在除了空间Sd以外的车辆1的规定的部位。例如,控制部40d也可以与车辆控制部3一体地构成。控制部40d可以具有与控制部40c同样的功能以及结构。照明单元42d可以具有与照明单元42c同样的功能以及结构。照相机43d可以具有与照相机43c同样的功能以及结构。LiDAR单元44d可以具有与LiDAR单元44c同样的功能以及结构。毫米波雷达45d可以具有与毫米波雷达45c同样的功能以及结构。
传感器5也可以具有加速度传感器、速度传感器以及陀螺传感器等。传感器5构成为,对车辆1的行驶状态进行检测,并将用于表示车辆1的行驶状态的行驶状态信息输出至车辆控制部3。此外,传感器5也可以还具备检测驾驶员是否坐在驾驶席的就座传感器、检测驾驶员的面部的方向的面部朝向传感器、检测外部天气状态的外部天气传感器以及检测车内是否有人的人体传感器等。
HMI(人机接口(Human Machine Interface))8由用于受理来自驾驶员的输入操作的输入部、和用于向驾驶员输出行驶状态信息等的输出部构成。输入部包含方向盘、加速踏板、制动踏板、用于对车辆1的驾驶模式进行切换的驾驶模式切换开关等。输出部包含构成为用于显示行驶状态信息、周边环境信息以及照明***4的照明状态的显示器等。
GPS(全球定位***(Global Positioning System))9构成为,取得车辆1的当前位置信息,并将该取得的当前位置信息输出至车辆控制部3。无线通信部10从其他车辆接收与与处于车辆1的周围的其他车辆相关的信息(例如,其他车辆行驶信息等),并且将与车辆1相关的信息(例如,本车行驶信息等)发送至其他车辆(车车间通信)。
此外,无线通信部10构成为,从信号机、标识灯等基础设施设备接收基础设施信息,并且将车辆1的本车行驶信息发送至基础设施设备(路车间通信)。此外,无线通信部10构成为,从行人携带的便携型电子设备(智能手机、平板电脑、可穿戴设备等)接收与行人相关的信息,并且将车辆1的本车行驶信息发送至便携型电子设备(人车间通信)。车辆1可以与其他车辆、基础设施设备或者便携型电子设备通过点对点(Ad-hoc)模式直接通信,也可以经由接入点(access point)进行通信。无线通信规格例如是Wi-Fi(注册商标)、蓝牙(Bluetooth)(注册商标)、ZigBee(紫蜂(注册商标))或者LPWA(低功率广域(Low-PowerWide-Area))。此外,车辆1还可以与其他车辆、基础设施设备或者便携型电子设备经由移动通信网络进行通信。
存储装置11是硬盘驱动(HDD:Hard-Disk Drive)、SSD(固态驱动器(Solid StateDrive))等外部存储装置。在存储装置11中,存储有2D或者3D的地图信息、和/或车辆控制程序。存储装置11构成为,根据来自车辆控制部3的请求,将地图信息、车辆控制程序输出至车辆控制部3。地图信息、车辆控制程序也可以经由无线通信部10和互联网等通信网络被更新。
在车辆1以自动驾驶模式行驶的情况下,车辆控制部3基于行驶状态信息、周边环境信息、当前位置信息和/或地图信息等,自动地生成转向控制信号、加速控制信号以及制动控制信号之中的至少一个。转向致动器12构成为,从车辆控制部3接收转向控制信号,并基于所接收到的转向控制信号对转向装置13进行控制。制动致动器14构成为,从车辆控制部3接收制动控制信号,并基于所接收到的制动控制信号对制动装置15进行控制。加速致动器16构成为,从车辆控制部3接收加速控制信号,并基于所接收到的加速控制信号对加速装置17进行控制。这样,在自动驾驶模式下,车辆1的行驶由车辆***2自动控制。
另一方面,在车辆1以手动驾驶模式行驶的情况下,车辆控制部3根据驾驶员对于加速踏板、制动踏板以及方向盘的手动操作,生成转向控制信号、加速控制信号以及制动控制信号。这样,在手动驾驶模式下,通过驾驶员的手动操作来生成转向控制信号、加速控制信号以及制动控制信号,因此车辆1的行驶由驾驶员控制
接着,关于车辆1的驾驶模式进行说明。驾驶模式包括自动驾驶模式和手动驾驶模式。自动驾驶模式包括完全自动驾驶模式、高级驾驶辅助模式、和驾驶辅助模式。在完全自动驾驶模式下,车辆***2自动地进行转向控制、制动控制以及加速控制的全部行驶控制,并且驾驶员不处于能够驾驶车辆1的状态。在高级驾驶辅助模式下,车辆***2自动地进行转向控制、制动控制以及加速控制的全部行驶控制,并且驾驶员尽管处于能够驾驶车辆1的状态但不驾驶车辆1。在驾驶辅助模式下,车辆***2自动地进行转向控制、制动控制以及加速控制之中的一部分行驶控制,并且驾驶员在车辆***2的驾驶辅助之下驾驶车辆1。另一方面,在手动驾驶模式下,车辆***2不自动地进行行驶控制,并且驾驶员在没有来自车辆***2的驾驶辅助的情况下驾驶车辆1。
此外,车辆1的驾驶模式可以通过对驾驶模式切换开关进行操作而被切换。在该情况下,车辆控制部3根据驾驶员对于驾驶模式切换开关的操作,将车辆1的驾驶模式在四个驾驶模式(完全自动驾驶模式、高级驾驶辅助模式、驾驶辅助模式、手动驾驶模式)之间切换。此外,车辆1的驾驶模式也可以基于关于自动驾驶车能够行驶的行驶可能区间、禁止自动驾驶车行驶的行驶禁止区间的信息而自动地被切换,或者基于关于外部天气状态的信息而自动地被切换。在该情况下,车辆控制部3基于这些信息而切换车辆1的驾驶模式。进而,车辆1的驾驶模式也可以通过使用就座传感器、面部朝向传感器等而自动地被切换。在该情况下,车辆控制部3可以基于来自就座传感器、面部朝向传感器的输出信号,切换车辆1的驾驶模式。
接着,参照图3、图4,关于本实施方式所涉及的照明***4a的动作流程的一例进行说明。图3是用于说明照明***4a的动作流程的一例的流程图。图4(a)是示出在车辆1的驾驶模式为手动驾驶模式或者驾驶辅助模式的情况下的由照明单元42a形成的配光图案Pm的图。图4(b)是示出在车辆1的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下的由照明单元42a形成的配光图案Pa的图。在此,图4所示的配光图案Pa、Pm表示被投影在虚拟地设置于车辆1的前方25m处的虚拟屏幕上的配光图案。虚拟屏幕的面相对于车辆1的前后方向垂直。此外,图4(a)所示的配光图案Pm的等高线是等照度曲线。
另外,在本实施方式中,为了便于说明,仅关于照明***4a的动作流程进行说明,但应注意的是,照明***4a的动作流程也能够应用于照明***4b。
如图3所示,在步骤S10中,控制部40a判定车辆1的驾驶模式是否被变更。例如,在车辆1的驾驶模式被变更的情况下,车辆控制部3将与变更后的驾驶模式相关的信息发送至控制部40a。其后,控制部40a在接收到与变更后的驾驶模式相关的信息时,判定为车辆1的驾驶模式被变更。在步骤S10的判定结果为是(YES)的情况下,控制部40a判定变更后的驾驶模式是否是完全自动驾驶模式或者高级驾驶辅助模式(步骤S11)。另一方面,在步骤S10的判定结果为否(NO)的情况下,控制部40a待机直至车辆1的驾驶模式被变更为止。
接着,控制部40a在判定为变更后的驾驶模式为完全自动驾驶模式或者高级驾驶辅助模式的情况下(在步骤S11中,判定为是),将从照明单元42a射出的配光图案设定为自动驾驶用的配光图案Pa(步骤S12)。在图4(b)中,作为自动驾驶用的配光图案Pa的一例,图示了适合由照相机43a拍摄车辆1的周边环境的配光图案。此外,控制部40a对照明单元42a进行控制,以使将配光图案Pa的明亮度设定为明亮度Ba(第二明亮度)。在此,“配光图案的明亮度”可以被规定为按照配光图案而被照射的照明区域(例如,按照配光图案而被照射的虚拟屏幕的照明区域等)的照度,也可以被规定为形成配光图案的照明单元42a的发光强度。在此,配光图案Pa的明亮度Ba是为了照相机43a对车辆1的周边环境充分地进行摄像所需的明亮度。进而,控制部40a也可以对照明单元42a进行控制,以使配光图案Pa的明亮度Ba变得均匀。更具体而言,如图4(b)所示,控制部40a还可以对照明单元42a进行控制,以使按照配光图案Pa而被照射的虚拟屏幕的照明区域的照度变得均匀。在该情况下,按照配光图案Pa而被照射的照明区域的照度变得均匀,所以能够通过照相机43a成功地对车辆1的周边环境进行摄像。此外,控制部40a对矩阵状地排列的照明单元42a的多个发光元件中的各个发光元件进行调光控制,从而能够对照明单元42a进行控制,以使按照配光图案Pa而被照射的照明区域的照度变得均匀。
另外,“配光图案Pa的明亮度Ba均匀”并非意味着配光图案Pa的明亮度Ba完全均匀。也就是说,按照配光图案Pa而被照射的照明区域的照度也可以不完全均匀。在这一点上,配光图案Pa的明亮度Ba的均匀性至少比手动驾驶模式或者驾驶辅助模式用的配光图案Pm的明亮度Bm的均匀性高。具体而言,在按照配光图案Pa而被照射的虚拟屏幕的照明区域中,将最大的照度设为Ba_max,且将最小的照度设为Ba_min。另一方面,在按照配光图案Pm而被照射的虚拟屏幕的照明区域中,将最大的照度设为Bm_max,且将最小的照度设为Bm_min。在该情况下,(Ba_max-Ba_min)<(Bm_max-Bm_min)的关系式成立。进而,(Ba_min/Ba_max)>(Bm_min/Bm_max)的关系式成立。此外,优选(Ba_min/Ba_max)×100%为95%以上且小于100%。
另一方面,控制部40a在判定为变更后的驾驶模式并非完全自动驾驶模式或者高级驾驶辅助模式(换言之,变更后的驾驶模式为手动驾驶模式或者驾驶辅助模式)的情况下(在步骤S11中,判定为否),将从照明单元42a射出的配光图案设定为手动驾驶用的配光图案Pm(步骤S13)。在图4(a)中,作为手动驾驶用的配光图案Pm的一例,图示了近光用配光图案,但配光图案Pm也可以是远光用配光图案。此外,控制部40a对照明单元42a进行控制,以使将配光图案Pm的明亮度设定为明亮度Bm(第一明亮度)。在此,明亮度Bm比明亮度Ba高。特别是,配光图案Pm的明亮度Bm是为了驾驶员对车辆1的周边环境充分地进行视觉辨认所需的明亮度。
根据本实施方式,在车辆1的驾驶模式为手动驾驶模式或者驾驶辅助模式的情况下,配光图案Pm的明亮度被设定为明亮度Bm,另一方面,在车辆1的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,配光图案Pa的明亮度被设定为比明亮度Bm低的明亮度Ba。这样,控制部40a(照明控制部)构成为根据车辆1的驾驶模式来对由照明单元42a形成的配光图案的明亮度进行变更。从而,能够提供能够鉴于车辆1的驾驶模式而优化由照明单元42a形成的照明图案的明亮度的照明***4a。
此外,根据本实施方式,在车辆1的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,配光图案的明亮度降低(Ba<Bm)。例如,在车辆1以手动驾驶模式或者驾驶辅助模式行驶中的情况下,配光图案Pm的明亮度Bm需要被设定为驾驶员能够对车辆1的周边环境充分地进行视觉辨认的程度的明亮度。另一方面,在车辆1以高级驾驶辅助模式或者完全自动驾驶模式行驶中的情况下,为了代替驾驶员,而由车辆控制部3基于行驶状态信息、周边环境信息、当前位置信息和/或地图信息等对车辆1的行驶进行控制,车辆1中搭载的电池的电力的消耗急剧。而且,照相机43a能够以比为了驾驶员能够对车辆1的周边环境充分地进行视觉辨认所需的明亮度更低的配光图案的明亮度来取得车辆1的周边环境信息。因此,在车辆1的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,能够下调配光图案的明亮度,所以能够抑制电池的电力消耗。
进而,在本实施方式中,照明单元42a、照相机43a、LiDAR单元44a、毫米波雷达45a分别被配置在由壳体24a和透光罩22a形成的空间Sa内。就这样的配置构造而言,有从照明单元42a射出的光的一部分被透光罩22a的内表面反射之后,该被内表面反射的光的一部分入射至LiDAR单元44a的受光部的顾虑。在该情况下,有入射至LiDAR单元44a的受光部的光对LiDAR单元44a的输出结果(3D映射数据)产生不良影响的顾虑。另一方面,在车辆1的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,配光图案Pa的明亮度被设定为比配光图案Pm的明亮度Bm更低的明亮度Ba,因此能够适当地防止入射至LiDAR单元44a的受光部的光对3D映射数据产生不良影响。从而,能够抑制电池的电力消耗,并且使LiDAR单元44a的可靠性提高。
此外,在本实施方式中,控制部40a也可以构成为根据车辆1的驾驶模式而对配光图案的形状进行变更。在该情况下,能够提供能够鉴于车辆1的驾驶模式而优化配光图案的明亮度和形状的照明***4a。特别是,在将车辆1的驾驶模式从手动驾驶模式或者驾驶辅助模式变更为高级驾驶辅助模式或者完全自动驾驶模式的情况下,将由照明单元42a形成的配光图案从配光图案Pm变更为配光图案Pa。在该情况下,图4(a)所示的被投影到虚拟屏幕上的配光图案Pm的形状与图4(b)所示的被投影到虚拟屏幕上的配光图案Pa的形状不同。具体而言,被投影到虚拟屏幕上的配光图案Pm、Pa这双方都具有分界线(cut off line),另一方面,水平方向上的宽度V彼此不同。特别是,优选地,被投影到虚拟屏幕上的配光图案Pa的水平方向上的宽度V2比被投影到虚拟屏幕上的配光图案Pm的水平方向上的宽度V1更大。这样,按照配光图案Pa而被照射的虚拟屏幕的照明区域比按照配光图案Pm而被照射的虚拟屏幕的照明区域更大。通过配光图案Pa的照明区域变得比配光图案Pm的照明区域更大,从而能够提供适合由照相机43a拍摄车辆1的周边环境的配光图案。在这一点上,在配光图案Pa的照明区域比照相机43a的视场角小的情况下,照相机43a不能在夜间取得恰当的图像数据,所以有难以基于图像数据而高精度地确定周边环境的顾虑。
此外,在本实施方式中,根据车辆1的驾驶模式而变更配光图案的形状,但也可以维持配光图案的形状,仅变更配光图案的明亮度。例如,在车辆1的驾驶模式从手动驾驶模式切换为完全自动驾驶模式时,控制部40a也可以对照明单元42a进行控制,以使近光用配光图案的明亮度变低。
(第二实施方式)
以下,关于本公开的第二实施方式,参照附图进行说明。另外,为了便于说明,关于与在第一实施方式的说明中已经说明的构件具有同一标号的构件,省略其说明。此外,为了便于说明,本附图所示的各构件的尺寸有时与实际的各构件的尺寸不同。
首先,参照图5,关于本实施方式所涉及的车辆1A进行说明。图5是示出具备车辆***2A的车辆1A的俯视图的示意图。如图5所示,车辆1A是能够以自动驾驶模式行驶的车辆(汽车),并且具备车辆***2A。车辆***2A至少具备车辆控制部3、左前照明***104a(以下,简称为“照明***104a”。)、右前照明***104b(以下,简称为“照明***104b”。)、左后照明***104c(以下,简称为“照明***104c”。)、右后照明***104d(以下,简称为“照明***104d”。)。
接着,通过参照图6,具体地说明图5所示的车辆***2A。图6是示出车辆***2A的框图。如图6所示,车辆***2A具备车辆控制部3、照明***104a~104d、传感器5、HMI 8、GPS9、无线通信部10、以及存储装置11。进而,车辆***2A具备转向致动器12、转向装置13、制动致动器14、制动装置15、加速致动器16、加速装置17。此外,车辆***2A具备构成为供应电力的电池(未图示)。
照明***104a还具备控制部14a、照明单元42a、照相机43a、LiDAR单元44a、毫米波雷达45a。如图5所示,控制部140a、照明单元42a、照相机43a、LiDAR单元44a、毫米波雷达45a被配置在由壳体24a和透光罩22a形成的空间Sa内(灯室内)。另外,控制部140a也可以被配置在除了空间Sa以外的车辆1A的规定的部位。例如,控制部140a也可以与车辆控制部3一体地构成。
控制部140a例如由至少一个电子控制单元(ECU)构成。电子控制单元可以包括至少一个微控制器、和其他电子电路(例如,晶体管等),其中,该微控制器包含一个以上的处理器和一个以上的存储器。处理器例如是CPU、MPU、GPU和/或TPU。CPU也可以由多个CPU核心构成。GPU也可以由多个GPU核心构成。存储器包含ROM和RAM。在ROM中,可以存储有用于确定车辆1A的周边环境的周边环境确定程序。例如,周边环境确定程序是通过深度学习等使用了神经网络的有教师或者无教师机器学习而构建的程序。在RAM中,可以临时地存储有周边环境确定程序、被照相机43a取得的图像数据、由LiDAR单元44a取得的三维映射数据(点群数据)和/或由毫米波雷达45a取得的检测数据等。处理器可以构成为,将从ROM中存储的周边环境确定程序中指定的程序在RAM上展开,以与RAM联动的方式执行各种处理。此外,电子控制单元(ECU)可以由ASIC、FPGA等至少一个集成电路构成。进而,电子控制单元也可以由至少一个微控制器和至少一个集成电路(FPGA等)的组合构成。
控制部140a也可以构成为对在照明单元42a中设置的多个发光元件中的各个发光元件单独地供应电信号(例如,PWM(Pulse Width Modulation)信号)。这样,控制部140a能够单独地选择被供应电信号的发光元件,并且能够针对每个发光元件对电信号的占空比进行调整。也就是说,控制部140a能够选择在矩阵状地排列的多个发光元件之中的要点亮或者熄灭的发光元件,并且决定正在点亮的发光元件的亮度。因此,控制部140a(照明控制部)能够对从照明单元42a向前方射出的配光图案的形状以及明亮度进行变更。
照明***104b还具备控制部140b、照明单元42b、照相机43b、LiDAR单元44b、以及毫米波雷达45b。如图5所示,控制部140b、照明单元42b、照相机43b、LiDAR单元44b、毫米波雷达45b被配置在由壳体24b和透光罩22b形成的空间Sb内(灯室内)。另外,控制部140b也可以被配置在除了空间Sb以外的车辆1A的规定的部位。例如,控制部140b也可以与车辆控制部3一体地构成。控制部140b也可以具有与控制部140a同样的功能以及结构。照明单元42b也可以具有与照明单元42a同样的功能以及结构。在这一点上,照明单元42a发挥左侧前照灯单元的功能,另一方面,照明单元42b发挥右侧前照灯单元的功能。照相机43b也可以具有与照相机43a同样的功能以及结构。LiDAR单元44b也可以具有与LiDAR单元44a同样的功能以及结构。毫米波雷达45b也可以具有与毫米波雷达45a同样的功能以及结构。
照明***104c还具备控制部140c、照明单元42c、照相机43c、LiDAR单元44c、毫米波雷达45c。如图5所示,控制部140c、照明单元42c、照相机43c、LiDAR单元44c、毫米波雷达45c被配置在由壳体24c和透光罩22c形成的空间Sc内(灯室内)。另外,控制部140c也可以被配置在除了空间Sc以外的车辆1A的规定的部位。例如,控制部140c也可以与车辆控制部3一体地构成。控制部140c也可以具有与控制部140a同样的功能以及结构。
照明***104d还具备控制部140d、照明单元42d、照相机43d、LiDAR单元44d、毫米波雷达45d。如图5所示,控制部140d、照明单元42d、照相机43d、LiDAR单元44d、毫米波雷达45d被配置在由壳体24d和透光罩22d形成的空间Sd内(灯室内)。另外,控制部140d也可以被配置在除了空间Sd以外的车辆1A的规定的部位。例如,控制部140d也可以与车辆控制部3一体地构成。控制部140d也可以具有与控制部140c同样的功能以及结构。照明单元42d也可以具有与照明单元42c同样的功能以及结构。照相机43d也可以具有与照相机43c同样的功能以及结构。LiDAR单元44d也可以具有与LiDAR单元44c同样的功能以及结构。毫米波雷达45d也可以具有与毫米波雷达45c同样的功能以及结构。
接着,参照图7,关于控制部140a的功能进行说明。如图7所示,控制部140a构成为对照明单元42a、照相机43a、LiDAR单元44a、毫米波雷达45a的动作分别进行控制。在这一点上,控制部140a具备照明控制部410a、照相机控制部420a(第二周边环境信息生成部的一例)、LiDAR控制部430a(第一周边环境信息生成部的一例)、毫米波雷达控制部440a、以及周边环境信息融合部450a。
照明控制部410a构成为,基于从LiDAR控制部430a输出的车辆1A的周边环境信息,对从照明单元42a射出并且照射对象物(例如,行人等)的光的明亮度进行变更。在此,从LiDAR控制部430a输出的周边环境信息包含与存在于车辆1A的外部的对象物的属性相关的信息、与对象物和车辆1A之间的距离D相关的信息。
照相机控制部420a构成为,对照相机43a的动作进行控制,并且基于从照相机43a输出的图像数据,生成车辆1A的周边环境信息(以下,称为周边环境信息I1。)。LiDAR控制部430a构成为,对LiDAR单元44a的动作进行控制,并且基于从LiDAR单元44a输出的3D映射数据,生成车辆1A的周边环境信息(以下,称为周边环境信息I2。)。毫米波雷达控制部440a构成为,对毫米波雷达45a的动作进行控制,并且基于从毫米波雷达45a输出的检测数据,生成车辆1A的周边环境信息(以下,称为周边环境信息I3。)。周边环境信息融合部450a构成为,对周边环境信息I1、I2、I3分别进行融合,从而生成融合后的周边环境信息If。在此,周边环境信息If可以包含将照相机43a的检测区域、LiDAR单元44a的检测区域、毫米波雷达45a的检测区域组合而成的检测区域中的周边环境信息(例如,对象物的属性、对象物相对于车辆1A的位置、车辆1A和对象物之间的距离和/或对象物相对于车辆1A的速度)。周边环境信息融合部450a将周边环境信息If发送至车辆控制部3。
此外,控制部140b、140c、140d也可以具有与控制部140a同样的功能。也就是说,控制部140b~140d各自也可以具有照明控制部、照相机控制部、LiDAR控制部、毫米波控制部、周边环境信息融合部。进而,控制部140b~140c各自的周边环境信息融合部也可以将融合后的周边环境信息If发送至车辆控制部3。车辆控制部3也可以基于从各控制部140a~140d发送的周边环境信息If和其他信息(行驶控制信息、当前位置信息、地图信息等),对车辆1A的行驶进行控制。
接着,参照图8至图10,关于本实施方式所涉及的照明***104a的动作流程的一例进行说明。图8是用于说明本实施方式所涉及的照明***104a的动作流程的一例的流程图。图9是示出从照明***104a的照明单元42a将配光图案Pe向存在于车辆1A的前方的对象物射出的车辆1A的情形的图。图10是示出被投影到车辆1A的前方25m处虚拟地设置的虚拟屏幕上的配光图案Pe的一例的图。在此,虚拟屏幕相对于车辆1A的前后方向垂直。此外,在图10中,透过虚拟屏幕示出图9所示的车辆1A的前方环境。
另外,在本实施方式中,为了便于说明,仅关于照明***104a的动作流程进行说明,但应注意的是,照明***104a的动作流程还能够应用于照明***104b。此外,在本实施方式的说明中,以车辆1A在自动驾驶模式(特别是,高级驾驶辅助模式或者完全自动驾驶模式)下行驶中为前提。在该情况下,从照明单元42a射出的配光图案Pe成为适合由照相机43a拍摄车辆1A的周边环境的自动驾驶用的配光图案。
首先,如图8所示,LiDAR单元44a(激光器雷达的一例)取得用于表示车辆1A的周边环境的3D映射数据(步骤S20)。接着,图7所示的LiDAR控制部430a(第一周边环境信息生成部的一例)基于从LiDAR单元44a取得的3D映射数据,对存在于车辆1A的外部(特别是,前方区域)的对象物进行检测(步骤S21)。在本实施方式中,如图9所示,设为存在于车辆1A的前方区域的对象物为行人P1、P2、引导标识G(标识的一例)、轮廓标C1~C4。也就是说,设为行人P1、P2、引导标识G(标识的一例)、轮廓标C1~C4位于LiDAR单元44a的检测区域。此外,在步骤S21的阶段中,LiDAR控制部430a仅检测对象物的存在,至于对象物的属性则不进行确定。
接着,LiDAR控制部430a确定各对象物(行人P1等)和车辆1A之间的距离D(步骤S22)。在此,对象物和车辆1A之间的距离D可以是连结对象物的坐标和车辆1A的坐标(特别是,LiDAR单元44a的坐标)的线段的长度,也可以是车辆1A的前后方向上的对象物和车辆之间的距离。
接着,LiDAR控制部430a确定各对象物的属性(步骤S23)。在此,确定对象物的属性是确定对象物是什么。例如,LiDAR控制部430a通过基于周边环境确定程序,分析对象物的特征点,从而确定各对象物是什么。
接着,在步骤S24中,照明控制部410a根据各对象物的属性以及各对象物和车辆1A之间的距离D,决定照射各对象物的光的明亮度B。在此,照射各对象物的光是从照明单元42a射出并形成配光图案Pe的光。此外,“照射对象物的光的明亮度B”可以被规定为按照配光图案Pe而被照射的对象物的照明区域的照度,也可以被规定为在朝向对象物的方向上的照明单元42a的发光强度。进而,“照射对象物的光的明亮度B”也可以被规定为被照射到对象物的光的光量或者聚光度(光束)。
特别是,具有较高的反射率的对象物被较低的明亮度的光照射,另一方面,具有较低的反射率的对象物被较高的明亮度的光照射。也就是说,照明控制部410a决定照射各对象物的光的明亮度B,以使照射具有较高的反射率的对象物(引导标识G或者轮廓标C1~C4)的光的明亮度(第一明亮度)比照射具有较低的反射率的对象物(行人P1、P2)的光的明亮度(第二明亮度)更低。此外,随着对象物和车辆1A之间的距离D变大,照射对象物的光的明亮度变高。也就是说,照明控制部410a决定照射各对象物的光的明亮度B,以使随着对象物和车辆1A之间的距离D变大,照射对象物的光的明亮度B变高。
例如,将照射存在于与车辆1A仅相距基准距离D0的位置的行人P0的光的明亮度B设为明亮度Bp0。在该情况下,如图9所示,照射存在于与车辆1A仅相距距离D1(D1<D0)的位置的行人P1的光的明亮度Bp1也可以通过Bp1=α1×Bp01<1)来决定。另一方面,照射存在于与车辆1A仅相距距离D2(D2>D0)的位置的行人P2的光的明亮度Bp2也可以通过Bp2=α2×Bp02>1)来决定。这样,也可以在根据车辆1A和对象物之间的距离D而决定系数α(α1,α2)后,基于被决定的系数α而决定照射对象物的光的明亮度B。进而,用于表示距离D和系数α之间的关系的关系式、查找表(look-up table)也可以被保存至控制部140a的存储器。
此外,照射存在于与车辆1A仅相距距离D0的位置的轮廓标C0的光的明亮度Bc0也可以通过Bc0=β1×Bp01<1)来决定。通过对光的明亮度Bp0乘以系数β1(<1)从而决定照射轮廓标C0的光的明亮度Bc0,以使照射轮廓标C0的光的明亮度Bc0比照射行人P0的光的明亮度Bp0更小。这样,在与车辆1A仅相距距离D0的位置上存在行人P0和轮廓标C0的情况下,照射行人P0的光的明亮度Bp0比照射轮廓标C0的光的明亮度Bc0高。进而,照射存在于与车辆1A仅相距距离D1(D1<D0)的位置的轮廓标C1的光的明亮度Bc1也可以通过Bc1=α1×Bc0=α1×β1×Bp01<1,α1<1)来决定。这样,照射轮廓标C1的光的明亮度Bc1基于与距离D进行了关联的系数α1和与对象物的属性进行了关联的系数β1来决定。另外,在本例中,应注意的是,在对象物的属性为行人的情况下,与对象物的属性进行了关联的系数β为1。
此外,照射存在于与车辆1A仅相距距离D0的位置的引导标识G0的光的明亮度Bg0也可以通过Bg0=β2×Bp02<1)来决定。有关与对象物的属性进行了关联的系数β1、β2的信息也可以被保存至控制部140a的存储器。
此外,照射行人P的头部的光的明亮度优选比照射行人P的头部以外的身体的光的明亮度更低。在该情况下,能够适当地防止给予行人P眩光。
接着,返回至图8所示的动作流程的说明,在步骤S25中,照明控制部410a根据照射各对象物的光的明亮度的决定,对照明单元42a进行控制,以使照明单元42a向前方射出配光图案Pe。特别是,照明控制部410a决定照射各对象物的光的明亮度。其后,照明控制部410a通过PWM控制等对矩阵状地排列的照明单元42a的多个发光元件各自的亮度进行调整,从而能够调整照射各对象物的光的明亮度。在图10中,示出被投影到虚拟屏幕上的配光图案Pe的一例。在配光图案Pe中,照射行人P2的光的明亮度Bp2比照射行人P1的光的明亮度Bp1更高。此外,在将照射轮廓标C1~C4的光的明亮度分别设为Bc1、Bc2、Bc3、Bc4的情况下,Bc1<Bc2<Bc3<Bc4的关系成立。照射行人P1的光的明亮度Bp1也可以比照射轮廓标C4的光的明亮度Bc4更高。
根据本实施方式,基于由LiDAR单元44a取得的3D映射数据,确定对象物(例如,行人等)的属性、以及对象物与车辆1A之间的距离D。其后,根据对象物的属性、以及对象物与车辆1A之间的距离D,变更照射对象物的光的明亮度B(例如,按照配光图案Pe而被照射的对象物的照明区域的照度、在朝向对象物的方向上的照明单元42a的发光强度等)。这样,能够提供能够基于与存在于车辆1A的外部的对象物相关的信息,优化照射对象物的光的明亮度B的照明***104a。另外,如已经说明的那样,照明***104b也具有与照明***104a同样的功能,所以能够基于与存在于车辆1A的外部的对象物相关的信息,优化照射对象物的光的明亮度B。
此外,根据本实施方式,能够基于与存在于车辆1A的外部的对象物相关的信息,优化照射对象物的光的明亮度,因此能够得到适合使用照相机43a拍摄车辆1A的周边环境的照相机用配光图案。在这一点上,在照相机43a的动态范围不宽的情况下,若照射反射率较高的对象物的光的明亮度B较高,则在图像数据中该对象物易于泛白。另一方面,若照射反射率较低的对象物的光的明亮度B较低,则在图像数据中该对象物易于泛黑。在本实施方式中,具有较高的反射率的对象物(引导标识、轮廓标等)被明亮度较低的光照射,另一方面,具有较低的反射率的对象物(行人等)被明亮度较高的光照射。因此,能够适当地抑制由照相机43a取得的图像数据中产生泛黑或者泛白(光晕)的情况,能够使基于图像数据的对象物的检测精度飞跃性地提高。从而,能够使基于图像数据而生成的周边环境信息I2的精度提高。进而,能够使驾驶员或者乘客对于具有较低的反射率的对象物(行人等)的视觉辨认性提高,并且防止由于被具有较高的反射率的对象物(标识等)反射的反射光而给予驾驶员眩光。
此外,随着对象物和车辆1A之间的距离D变大,照射对象物的光的明亮度变高。因此,例如,在对象物和车辆1A之间的距离D较大的情况下,在由照相机43a取得的图像数据中对象物被显示得较小(也就是说,图像数据中的对象物的占用面积小),另一方面,由于照射对象物的光的明亮度较高,所以能够防止在该图像数据中对象物泛黑。这样,能够使基于图像数据的对象物的检测精度提高,并且能够提高驾驶员或者乘客对于存在于远离车辆1A的位置的对象物的认知度。
另外,在本实施方式中,作为配光图案Pe的一例而举出了适合照相机拍摄的自动驾驶用的配光图案,但配光图案Pe也可以是近光用配光图案、远光用配光图案等手动驾驶用的配光图案。在该情况下,在车辆1A以手动驾驶模式行驶中,根据对象物的属性、以及对象物与车辆1A之间的距离D,变更照射存在于车辆1A的前方区域的各对象物的光的明亮度。因此,驾驶员对于具有较低的反射率的对象物的视觉辨认性提高,并且能够防止由被具有较高的反射率的对象物反射的光而给予驾驶员眩光。从而,能够提供能够确保手动驾驶的较高的行驶安全性的照明***。
此外,在本实施方式中,作为反射率较低的对象物的一例而举出行人,并且作为反射率较高的对象物的一例而举出了轮廓标和引导标识,但反射率较低的对象物和反射率较高的对象物并非限定于此。进而,作为标识的一例而举出了引导标识G,但标识并非限定于引导标识,也可以是警戒标识、管制标识、指示标识。
以上,关于本发明的实施方式进行了说明,但本发明的技术的范围当然不应被本实施方式的说明限定性地解释。本实施方式只是一例,本领域技术人员应理解在权利要求书中记载的发明的范围内,能够进行各种实施方式的变更。本发明的技术的范围应基于在权利要求书中记载的发明的范围以及其均等的范围来决定。
在本实施方式中,设为车辆的驾驶模式包含完全自动驾驶模式、高级驾驶辅助模式、驾驶辅助模式、手动驾驶模式,并进行了说明,但车辆的驾驶模式不应限定于这四个模式。车辆的驾驶模式的区分也可以按照各国的自动驾驶所涉及的法令或者规则而适当变更。同样,在本实施方式的说明中记载的“完全自动驾驶模式”、“高级驾驶辅助模式”、“驾驶辅助模式”的各自的定义只是一例,这些定义也可以按照各国的自动驾驶所涉及的法令或者规则而适当变更。
本申请适当引用在2017年8月3日申请的日本专利申请(特愿2017-150691号)中公开的内容、和在2017年8月3日申请的日本专利申请(特愿2017-150692号)中公开的内容。

Claims (12)

1.一种车辆用照明***,被设置于能够以自动驾驶模式行驶的车辆,其中,具备:
照明单元,构成为通过向所述车辆的外部射出光来形成配光图案;以及
照明控制部,构成为根据所述车辆的驾驶模式,对所述配光图案的明亮度进行变更。
2.如权利要求1所述的车辆用照明***,其中,
在所述车辆的驾驶模式为手动驾驶模式的情况下,所述照明控制部将所述配光图案的明亮度设定为第一明亮度,
在所述车辆的驾驶模式为高级驾驶辅助模式或者完全自动驾驶模式的情况下,所述照明控制部将所述配光图案的明亮度设定为比所述第一明亮度更低的第二明亮度。
3.如权利要求2所述的车辆用照明***,其中,还具备:
照相机,构成为对所述车辆的周边环境进行检测;
激光雷达,构成为对所述车辆的周边环境进行检测;
壳体;以及
罩,被安装于所述壳体,
所述照明单元、所述照相机、所述激光雷达被配置在由所述壳体和所述罩形成的空间内。
4.如权利要求1至3之中任一项所述的车辆用照明***,其中,
所述照明控制部构成为,根据所述车辆的驾驶模式对所述配光图案的形状进行变更。
5.如权利要求1至4之中任一项所述的车辆用照明***,其中,
所述照明控制部构成为,对所述照明单元进行控制,以使在所述车辆的驾驶模式为自动驾驶模式的情况下,按照所述配光图案而被照射的照明区域的照度变得均匀。
6.一种能够以自动驾驶模式行驶的车辆,其中,具备:
权利要求1至5之中任一项所述的车辆用照明***。
7.一种车辆用照明***,被设置于能够以自动驾驶模式行驶的车辆,其中,具备:
激光雷达,构成为取得用于表示所述车辆的周边环境的检测数据;
照明单元,构成为通过向所述车辆的外部射出光来形成配光图案;
第一周边环境信息生成部,构成为基于所述检测数据,确定存在于所述车辆的外部的对象物的属性、以及所述对象物和所述车辆之间的距离;以及
照明控制部,构成为根据所述对象物的属性、以及所述对象物和所述车辆之间的距离,对从所述照明单元射出并且照射所述对象物的光的明亮度进行变更。
8.如权利要求7所述的车辆用照明***,其中,还具备:
照相机,构成为取得用于表示所述车辆的周边环境的图像数据;以及
第二周边环境信息生成部,构成为基于所述图像数据,生成用于表示所述车辆的周边环境的周边环境信息。
9.如权利要求7或者8所述的车辆用照明***,其中,
在所述对象物为标识或者轮廓标的情况下,所述照明控制部将照射所述对象物的光的明亮度设定为第一明亮度,
在所述对象物为行人的情况下,所述照明控制部将照射所述对象物的光的明亮度设定为比所述第一明亮度更高的第二明亮度。
10.如权利要求9所述的车辆用照明***,其中,
在所述对象物为行人的情况下,照射所述行人的头部的光的明亮度比照射所述行人的除了头部以外的身体的光的明亮度更低。
11.如权利要求7至10之中任一项所述的车辆用照明***,其中,
所述照明控制部构成为,对所述照明单元进行控制,以使随着所述对象物和所述车辆之间的距离变大,照射所述对象物的光的明亮度变高。
12.一种能够以自动驾驶模式行驶的车辆,其中,具备:
权利要求7至11之中任一项所述的车辆用照明***。
CN201880047449.XA 2017-08-03 2018-06-14 车辆用照明***以及车辆 Active CN110944874B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2017-150691 2017-08-03
JP2017-150692 2017-08-03
JP2017150691 2017-08-03
JP2017150692 2017-08-03
PCT/JP2018/022768 WO2019026437A1 (ja) 2017-08-03 2018-06-14 車両用照明システム及び車両

Publications (2)

Publication Number Publication Date
CN110944874A true CN110944874A (zh) 2020-03-31
CN110944874B CN110944874B (zh) 2023-05-12

Family

ID=65233758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880047449.XA Active CN110944874B (zh) 2017-08-03 2018-06-14 车辆用照明***以及车辆

Country Status (5)

Country Link
US (1) US20210129740A1 (zh)
EP (1) EP3663134B1 (zh)
JP (1) JP7235659B2 (zh)
CN (1) CN110944874B (zh)
WO (1) WO2019026437A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112346064A (zh) * 2020-11-05 2021-02-09 广州小鹏自动驾驶科技有限公司 一种超声波雷达调整方法、装置和车辆
CN112406687A (zh) * 2020-10-16 2021-02-26 常州通宝光电股份有限公司 一种“人-车-路”协同的可编程矩阵式前照灯***及方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019111938A (ja) * 2017-12-22 2019-07-11 トヨタ自動車株式会社 車両の制御装置
JP7098493B2 (ja) * 2018-09-25 2022-07-11 本田技研工業株式会社 センサ軸調整方法
DE102018128350A1 (de) * 2018-11-13 2020-05-14 Bayerische Motoren Werke Aktiengesellschaft Erfassen eines Objekts im Umfeld eines Kraftfahrzeugs
EP3702750A1 (en) * 2019-03-01 2020-09-02 Valeo Vision Method for correcting a light pattern, automotive lighting device and automotive lighting assembly
JP7212315B2 (ja) * 2019-05-09 2023-01-25 トヨタ自動車株式会社 車両の前照灯制御装置
JP7496352B2 (ja) * 2019-06-04 2024-06-06 株式会社小糸製作所 灯具システム
JP7444636B2 (ja) * 2020-02-27 2024-03-06 株式会社小糸製作所 車両用前照灯
JP2022162433A (ja) 2021-04-12 2022-10-24 市光工業株式会社 車両用灯具の制御装置、及び車両用灯具

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008143505A (ja) * 2006-11-16 2008-06-26 Denso Corp 前照灯制御装置
JP2009286199A (ja) * 2008-05-27 2009-12-10 Koito Mfg Co Ltd 歩行者照射用照明装置および車両用前照灯装置
CN101934757A (zh) * 2009-06-30 2011-01-05 株式会社小糸制作所 车辆用前照灯装置
JP2015076352A (ja) * 2013-10-11 2015-04-20 パナソニックIpマネジメント株式会社 ヘッドライトユニット
DE102015200859A1 (de) * 2015-01-20 2016-07-21 Automotive Lighting Reutlingen Gmbh Verfahren und Vorrichtung zum Steuern einer Beleuchtungseinrichtung eines sowohl zum autonomen als auch zum manuellen Fahren eingerichteten Kraftfahrzeugs
WO2017073632A1 (ja) * 2015-10-27 2017-05-04 株式会社小糸製作所 車両用照明装置、車両システム及び車両

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09277887A (ja) 1996-04-16 1997-10-28 Honda Motor Co Ltd 自動追従走行システム
JP2006252264A (ja) * 2005-03-11 2006-09-21 Omron Corp 障害物報知装置
US20140247349A1 (en) * 2013-03-04 2014-09-04 GM Global Technology Operations LLC Integrated lighting, camera and sensor unit
JP2014184851A (ja) * 2013-03-22 2014-10-02 Toyota Central R&D Labs Inc 照射装置
DE102015001912A1 (de) * 2015-02-16 2016-08-18 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zur Steuerung einer Scheinwerferanlage eines Fahrzeuges sowie Steuergerät und Vorrichtung zur Durchführung des Verfahrens
JP2017003414A (ja) * 2015-06-10 2017-01-05 株式会社Jvcケンウッド レーザレーダ装置および検知方法
JP6237800B2 (ja) 2016-02-22 2017-11-29 ダイキン工業株式会社 空気調和装置
JP2017150692A (ja) 2016-02-22 2017-08-31 シャープ株式会社 電気機器、および電気機器の制御方法
KR101850324B1 (ko) * 2016-08-29 2018-04-19 엘지전자 주식회사 램프 및 자율 주행 차량

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008143505A (ja) * 2006-11-16 2008-06-26 Denso Corp 前照灯制御装置
JP2009286199A (ja) * 2008-05-27 2009-12-10 Koito Mfg Co Ltd 歩行者照射用照明装置および車両用前照灯装置
CN101934757A (zh) * 2009-06-30 2011-01-05 株式会社小糸制作所 车辆用前照灯装置
JP2015076352A (ja) * 2013-10-11 2015-04-20 パナソニックIpマネジメント株式会社 ヘッドライトユニット
DE102015200859A1 (de) * 2015-01-20 2016-07-21 Automotive Lighting Reutlingen Gmbh Verfahren und Vorrichtung zum Steuern einer Beleuchtungseinrichtung eines sowohl zum autonomen als auch zum manuellen Fahren eingerichteten Kraftfahrzeugs
WO2017073632A1 (ja) * 2015-10-27 2017-05-04 株式会社小糸製作所 車両用照明装置、車両システム及び車両

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112406687A (zh) * 2020-10-16 2021-02-26 常州通宝光电股份有限公司 一种“人-车-路”协同的可编程矩阵式前照灯***及方法
CN112346064A (zh) * 2020-11-05 2021-02-09 广州小鹏自动驾驶科技有限公司 一种超声波雷达调整方法、装置和车辆

Also Published As

Publication number Publication date
JP7235659B2 (ja) 2023-03-08
EP3663134B1 (en) 2022-08-10
EP3663134A1 (en) 2020-06-10
WO2019026437A1 (ja) 2019-02-07
JPWO2019026437A1 (ja) 2020-06-11
CN110944874B (zh) 2023-05-12
EP3663134A4 (en) 2021-07-14
US20210129740A1 (en) 2021-05-06

Similar Documents

Publication Publication Date Title
CN110944874B (zh) 车辆用照明***以及车辆
US10602331B2 (en) Inter-vehicle communication system, vehicle system, vehicle illumination system and vehicle
JP7152413B2 (ja) センシングシステム及び車両
JP7222892B2 (ja) 車両用照明システム、車両システム及び車両
US20180312106A1 (en) Vehicular illumination device
US20180304804A1 (en) Vehicular illumination device, vehicle system and vehicle
US11584293B2 (en) Vehicle communication system, vehicle module, front composite module, and vehicle lamp
CN110154881B (zh) 车辆用照明***及车辆
JP6970612B2 (ja) 車両用照明システム及び車両
US10688910B2 (en) Vehicle lighting system and vehicle
CN110121444B (zh) 照明装置
US10933802B2 (en) Vehicle illumination system and vehicle
US10636302B2 (en) Vehicle illumination device, vehicle and illumination control system
US20220014650A1 (en) Infrared camera system, infrared camera module, and vehicle
US10654406B2 (en) Vehicle illumination system and vehicle
JP7474133B2 (ja) 車両用灯具
JP2020082748A (ja) 車両用照明システム
CN118302330A (zh) 路面描绘灯以及路面描绘灯***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant