JP2021157225A - Illumination system - Google Patents

Illumination system Download PDF

Info

Publication number
JP2021157225A
JP2021157225A JP2020054020A JP2020054020A JP2021157225A JP 2021157225 A JP2021157225 A JP 2021157225A JP 2020054020 A JP2020054020 A JP 2020054020A JP 2020054020 A JP2020054020 A JP 2020054020A JP 2021157225 A JP2021157225 A JP 2021157225A
Authority
JP
Japan
Prior art keywords
unit
lighting
obstacle
vehicle
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020054020A
Other languages
Japanese (ja)
Other versions
JP7429862B2 (en
Inventor
俊文 緒方
Toshibumi Ogata
俊文 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020054020A priority Critical patent/JP7429862B2/en
Publication of JP2021157225A publication Critical patent/JP2021157225A/en
Application granted granted Critical
Publication of JP7429862B2 publication Critical patent/JP7429862B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Traffic Control Systems (AREA)

Abstract

To facilitate a support of an automatic operation.SOLUTION: An illumination system 1 includes: at least one illumination unit 10; at least one sensor 20 respectively arranged in at least one of the illumination units 10, so as to detect an object positioned in the periphery of the arranged illumination units 10; a storage section 33 for storing road information to be used in an automatic operation; a calculation section 32 for determining whether the object detected by at least one of the sensors 20 is an obstacle, and adding obstacle information indicating the object determined as an obstacle to the road information; and a communication section 40 for transmitting the road information with the obstacle information added thereto to a vehicle 90 which is being automatically operated.SELECTED DRAWING: Figure 2

Description

本発明は、照明システムに関する。 The present invention relates to a lighting system.

従来、屋外照明にセンサを設け、センサが検知した情報を自動運転に利用するシステムが知られている(例えば、特許文献1を参照)。特許文献1に開示されたシステムでは、センサが検知した情報と車両が検知した情報とをクロス確認することで、車両が検知できない領域の情報を補完している。 Conventionally, there is known a system in which a sensor is provided in outdoor lighting and the information detected by the sensor is used for automatic driving (see, for example, Patent Document 1). In the system disclosed in Patent Document 1, the information detected by the sensor and the information detected by the vehicle are cross-confirmed to supplement the information in the region that the vehicle cannot detect.

特表2017−520815号公報Special Table 2017-520815

しかしながら、上記従来のシステムではクロス確認を行うので、車両とセンサとで時間を高精度で同期させる必要がある。同期の精度が低い場合、センサが検知した情報と車両が検知した情報とのアンマッチが多くなり、自動運転に利用できなくなる。 However, since cross confirmation is performed in the above-mentioned conventional system, it is necessary to synchronize the time between the vehicle and the sensor with high accuracy. If the synchronization accuracy is low, there will be many mismatches between the information detected by the sensor and the information detected by the vehicle, making it unusable for autonomous driving.

また、車両が高速で移動している場合には、車両から遠く離れたセンサとのクロス確認が必要であるが、センサ側から車両を認識することができず、クロス確認を行うことができない。このように、従来のシステムでは、自動運転の支援が困難であるという問題がある。 Further, when the vehicle is moving at high speed, it is necessary to confirm the cross with a sensor far away from the vehicle, but the vehicle cannot be recognized from the sensor side and the cross confirmation cannot be performed. As described above, the conventional system has a problem that it is difficult to support automatic driving.

そこで、本発明は、自動運転を容易に支援することができる照明システムを提供することを目的とする。 Therefore, an object of the present invention is to provide a lighting system that can easily support automatic driving.

本発明の一態様に係る照明システムは、少なくとも1つの照明ユニットと、前記少なくとも1つの照明ユニットの各々に設けられ、設けられた照明ユニットの周辺に位置する物体を検知する少なくとも1つのセンサと、自動運転に利用される道路情報を記憶する記憶部と、前記少なくとも1つのセンサによって検知された物体が障害物であるか否かを判定し、障害物であると判定された物体を示す障害物情報を、前記道路情報に追加する演算部と、前記障害物情報が追加された前記道路情報を、自動運転車両に送信する通信部とを備える。 The lighting system according to one aspect of the present invention includes at least one lighting unit, at least one sensor provided in each of the at least one lighting unit and detecting an object located around the provided lighting unit, and the like. An obstacle that stores road information used for automatic driving and determines whether or not the object detected by at least one of the sensors is an obstacle, and indicates an object determined to be an obstacle. It includes a calculation unit that adds information to the road information, and a communication unit that transmits the road information to which the obstacle information is added to the automatically driven vehicle.

本発明に係る照明システムによれば、自動運転を容易に支援することができる。 According to the lighting system according to the present invention, automatic driving can be easily supported.

図1は、実施の形態に係る照明システムの概略図である。FIG. 1 is a schematic view of a lighting system according to an embodiment. 図2は、実施の形態に係る照明システムの構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a lighting system according to an embodiment. 図3は、ダイナミックマップの一例を示す図である。FIG. 3 is a diagram showing an example of a dynamic map. 図4は、実施の形態に係る照明システムの動作を示すシーケンス図である。FIG. 4 is a sequence diagram showing the operation of the lighting system according to the embodiment. 図5Aは、障害物の一例である落下物を検知した例を示す図である。FIG. 5A is a diagram showing an example in which a falling object, which is an example of an obstacle, is detected. 図5Bは、障害物の一例である落下物が加えられたダイナミックマップを示す図である。FIG. 5B is a diagram showing a dynamic map to which a falling object, which is an example of an obstacle, is added. 図6Aは、障害物の一例である保守作業区域を検知した例を示す図である。FIG. 6A is a diagram showing an example in which a maintenance work area, which is an example of an obstacle, is detected. 図6Bは、障害物の一例である保守作業区域が加えられたダイナミックマップを示す図である。FIG. 6B is a diagram showing a dynamic map to which a maintenance work area, which is an example of an obstacle, is added. 図7Aは、障害物の一例である渋滞中の車両を検知した例を示す図である。FIG. 7A is a diagram showing an example of detecting a vehicle in a traffic jam, which is an example of an obstacle. 図7Bは、障害物の一例である渋滞中の車両が加えられたダイナミックマップを示す図である。FIG. 7B is a diagram showing a dynamic map to which a vehicle in a traffic jam, which is an example of an obstacle, is added. 図8は、実施の形態の変形例1に係る照明システムの概略図である。FIG. 8 is a schematic view of the lighting system according to the first modification of the embodiment. 図9は、実施の形態の変形例2に係る照明システムの構成を示すブロック図である。FIG. 9 is a block diagram showing a configuration of a lighting system according to a second modification of the embodiment.

以下では、本発明の実施の形態に係る照明システムについて、図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、いずれも本発明の一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する趣旨ではない。よって、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, the lighting system according to the embodiment of the present invention will be described in detail with reference to the drawings. It should be noted that all of the embodiments described below show a specific example of the present invention. Therefore, the numerical values, shapes, materials, components, arrangement and connection forms of components, steps, order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present invention. Therefore, among the components in the following embodiments, the components not described in the independent claims are described as arbitrary components.

また、各図は、模式図であり、必ずしも厳密に図示されたものではない。したがって、例えば、各図において縮尺などは必ずしも一致しない。また、各図において、実質的に同一の構成については同一の符号を付しており、重複する説明は省略又は簡略化する。 Further, each figure is a schematic view and is not necessarily exactly illustrated. Therefore, for example, the scales and the like do not always match in each figure. Further, in each figure, substantially the same configuration is designated by the same reference numerals, and duplicate description will be omitted or simplified.

また、本明細書において、「自動運転」は、無人の車両が完全に自動で運転される完全自動運転(レベル5)を意味するだけでなく、車両を運転する運転者をサポートする運転支援(レベル1)、部分自動運転(レベル2)、条件付自動運転(レベル3)及び高度自動運転(レベル4)をも意味している。 Further, in the present specification, "autonomous driving" not only means fully automatic driving (level 5) in which an unmanned vehicle is driven completely automatically, but also driving support that supports the driver who drives the vehicle (driving support (level 5). It also means level 1), partially automated driving (level 2), conditional automated driving (level 3) and highly automated driving (level 4).

(実施の形態)
[概要]
まず、実施の形態に係る照明システムの概要について、図1を用いて説明する。図1は、本実施の形態に係る照明システム1の概略図である。
(Embodiment)
[Overview]
First, the outline of the lighting system according to the embodiment will be described with reference to FIG. FIG. 1 is a schematic view of a lighting system 1 according to the present embodiment.

図1に示される照明システム1は、車両90の自動運転を支援するシステムである。車両90は、所定の道路情報を利用して自動運転を行う。照明システム1は、道路2の状態の変化を道路情報に反映させることにより、車両90の自動運転を支援する。例えば、照明システム1は、道路2上の落下物91などを検知し、検知した落下物91が車両90の走行に対する障害物である場合に、障害物である落下物91の位置を追加した道路情報を車両90に送信する。これにより、車両90は、落下物91を避けるような運転が可能になる。 The lighting system 1 shown in FIG. 1 is a system that supports the automatic driving of the vehicle 90. The vehicle 90 automatically drives using predetermined road information. The lighting system 1 supports the automatic driving of the vehicle 90 by reflecting the change in the state of the road 2 in the road information. For example, the lighting system 1 detects a falling object 91 or the like on the road 2, and when the detected falling object 91 is an obstacle to the running of the vehicle 90, the road to which the position of the falling object 91 which is an obstacle is added is added. Information is transmitted to the vehicle 90. As a result, the vehicle 90 can be operated so as to avoid the falling object 91.

[構成]
次に、照明システム1の構成について、図1及び図2を用いて説明する。図2は、本実施の形態に係る照明システム1の構成を示すブロック図である。図1及び図2に示されるように、照明システム1は、照明ユニット10と、センサ20と、サーバ装置30と、通信部40とを備える。
[composition]
Next, the configuration of the lighting system 1 will be described with reference to FIGS. 1 and 2. FIG. 2 is a block diagram showing a configuration of the lighting system 1 according to the present embodiment. As shown in FIGS. 1 and 2, the lighting system 1 includes a lighting unit 10, a sensor 20, a server device 30, and a communication unit 40.

照明ユニット10は、道路2を照明する道路灯である。例えば、図1に示されるように、照明ユニット10は、支柱3の上部に取り付けられており、道路2の車両通行帯を主に照明する。支柱3は、道路2の路肩若しくは歩道又は道路2の脇に設置されている。あるいは、支柱3は、道路2の中央分離帯に設置されていてもよい。なお、照明ユニット10は、トンネル照明灯であってもよく、支柱3の代わりにトンネルの天井に固定されていてもよい。 The lighting unit 10 is a road light that illuminates the road 2. For example, as shown in FIG. 1, the lighting unit 10 is attached to the upper part of the support column 3 and mainly illuminates the vehicle lane of the road 2. The support column 3 is installed on the shoulder or sidewalk of the road 2 or on the side of the road 2. Alternatively, the support column 3 may be installed in the median strip of the road 2. The lighting unit 10 may be a tunnel lighting, or may be fixed to the ceiling of the tunnel instead of the support column 3.

図2に示されるように、照明ユニット10は、発光部11と、センサ20と、通信部40とを備える。本実施の形態では、センサ20及び通信部40は、照明ユニット10と一体的に設けられている。 As shown in FIG. 2, the lighting unit 10 includes a light emitting unit 11, a sensor 20, and a communication unit 40. In the present embodiment, the sensor 20 and the communication unit 40 are provided integrally with the lighting unit 10.

発光部11は、道路2に向けて照明光を照射する。照明光は、例えば白色光であるが、特に限定されない。照明光は、車両90の走行を妨げない程度の有色光であってもよい。発光部11は、例えば、複数のLED(Light Emitting Diode)素子を有する。あるいは、発光部11は、レーザ光源又は有機EL(Electroluminescence)素子を有してもよい。 The light emitting unit 11 irradiates the illumination light toward the road 2. The illumination light is, for example, white light, but is not particularly limited. The illumination light may be colored light that does not interfere with the running of the vehicle 90. The light emitting unit 11 has, for example, a plurality of LED (Light Emitting Diode) elements. Alternatively, the light emitting unit 11 may have a laser light source or an organic EL (Electroluminescence) element.

センサ20は、照明ユニット10に設けられ、設けられた照明ユニット10の周辺に位置する物体を検知する。センサ20の検知範囲(すなわち、照明ユニット10の周辺)は、照明ユニット10が照明する道路2を含む範囲である。例えば、検知範囲は、数mから数百mの範囲であるが、これに限定されない。検知範囲には、道路2の車両通行帯が含まれる。検知範囲と、照明ユニット10の発光部11からの照明光の照明範囲とは、少なくとも一部が重複している。例えば、検知範囲は、照明範囲の一部又は全部を含んでいる。あるいは、照明範囲が、検知範囲の一部又は全部を含んでいてもよい。検知範囲と照明範囲とは完全に一致していてもよい。 The sensor 20 is provided in the lighting unit 10 and detects an object located around the provided lighting unit 10. The detection range of the sensor 20 (that is, the periphery of the lighting unit 10) is a range including the road 2 illuminated by the lighting unit 10. For example, the detection range is, but is not limited to, a range of several meters to several hundreds of meters. The detection range includes the vehicle lane of the road 2. At least a part of the detection range and the illumination range of the illumination light from the light emitting unit 11 of the illumination unit 10 overlap. For example, the detection range includes a part or all of the illumination range. Alternatively, the illumination range may include part or all of the detection range. The detection range and the illumination range may be exactly the same.

センサ20は、例えばイメージセンサである。なお、センサ20は、熱画像センサ、赤外線センサ又はLIDAR(Light Detection and Ranging)であってもよい。 The sensor 20 is, for example, an image sensor. The sensor 20 may be a thermal image sensor, an infrared sensor, or a LIDAR (Light Detection and Ranking).

照明ユニット10には、複数のセンサ20が設けられていてもよい。複数のセンサ20の各々の検知範囲は、互いに異なっていてもよく、同じであってもよい。例えば、複数のセンサ20は、同種のセンサであってもよく、異種のセンサであってもよい。複数のセンサ20を利用することで、物体の検知精度を高めることができる。 The lighting unit 10 may be provided with a plurality of sensors 20. The detection ranges of the plurality of sensors 20 may be different from each other or may be the same. For example, the plurality of sensors 20 may be sensors of the same type or different types of sensors. By using the plurality of sensors 20, the accuracy of detecting an object can be improved.

センサ20は、道路2を撮影することにより、画像又は映像を取得する。センサ20は、画像又は映像を解析することにより、道路2上に新規な物体が現れたか否かを判定する。新規な物体は、直前の解析では検知できずに、今回の解析で検知できた物体である。例えば、新規な物体には、道路2を通行中の車両90、自転車及び歩行者、並びに、車両90からの落下物及び周辺から飛ばされてきた物体などが含まれる。センサ20は、検知した物体の画像及び位置情報を、通信部40を介してサーバ装置30に送信する。 The sensor 20 acquires an image or a video by photographing the road 2. The sensor 20 determines whether or not a new object has appeared on the road 2 by analyzing the image or the video. The new object is an object that could not be detected in the previous analysis but could be detected in this analysis. For example, new objects include vehicles 90, bicycles and pedestrians on the road 2, and objects that have fallen from the vehicle 90 and have been blown away from the surrounding area. The sensor 20 transmits the detected image and position information of the object to the server device 30 via the communication unit 40.

なお、画像又は映像の解析は、サーバ装置30の演算部32によって行われてもよい。この場合、照明ユニット10は、センサ20が取得した画像又は映像を、通信部40を介してサーバ装置30に送信する。 The image or video analysis may be performed by the calculation unit 32 of the server device 30. In this case, the lighting unit 10 transmits the image or video acquired by the sensor 20 to the server device 30 via the communication unit 40.

サーバ装置30は、照明ユニット10とは分離して設けられた装置である。サーバ装置30は、例えば、道路2の管理施設など、照明ユニット10から遠く離れた位置に設置されている。サーバ装置30は、照明ユニット10と通信可能に接続されている。サーバ装置30は、例えばコンピュータ機器である。図2に示されるように、サーバ装置30は、通信部31と、演算部32と、記憶部33とを備える。 The server device 30 is a device provided separately from the lighting unit 10. The server device 30 is installed at a position far away from the lighting unit 10, such as a management facility on the road 2. The server device 30 is communicably connected to the lighting unit 10. The server device 30 is, for example, a computer device. As shown in FIG. 2, the server device 30 includes a communication unit 31, a calculation unit 32, and a storage unit 33.

通信部31は、照明ユニット10に設けられた通信部40と通信する。通信部31による通信は、例えば、イーサネット(登録商標)規格に基づいた有線通信であるが、電波を利用した無線通信であってもよい。 The communication unit 31 communicates with the communication unit 40 provided in the lighting unit 10. The communication by the communication unit 31 is, for example, wired communication based on the Ethernet (registered trademark) standard, but may be wireless communication using radio waves.

演算部32は、センサ20によって検知された物体が障害物であるか否かを判定する。演算部32は、センサ20によって検知された物体の経時変化に基づいて、当該物体が障害物であるか否かを判定する。具体的には、演算部32は、センサ20によって検知された物体の、所定期間内での物体の移動距離を算出し、算出した移動距離が所定の閾値以下である場合に、当該物体を障害物であると判定する。移動距離が0である場合は、所定期間、物体が停止していることになるので、演算部32は、当該物体を障害物であると判定する。 The calculation unit 32 determines whether or not the object detected by the sensor 20 is an obstacle. The calculation unit 32 determines whether or not the object is an obstacle based on the change with time of the object detected by the sensor 20. Specifically, the calculation unit 32 calculates the moving distance of the object detected by the sensor 20 within a predetermined period, and when the calculated moving distance is equal to or less than a predetermined threshold value, the calculation unit 32 impedes the object. Judge that it is a thing. If the moving distance is 0, the object has been stopped for a predetermined period of time, and the calculation unit 32 determines that the object is an obstacle.

なお、演算部32は、物体の大きさに更に基づいて障害物の判定を行ってもよい。例えば、演算部32は、物体の大きさ(すなわち、画像中に占める物体の面積)が所定の大きさ未満である場合、仮に当該物体が移動していなくても、当該物体を障害物ではないと判定する。演算部32は、物体の大きさが所定の大きさ以上であり、かつ、所定期間内での移動距離が所定の閾値以下である場合に、当該物体が障害物であると判定する。 The calculation unit 32 may further determine an obstacle based on the size of the object. For example, when the size of the object (that is, the area of the object occupied in the image) is less than a predetermined size, the calculation unit 32 does not make the object an obstacle even if the object is not moving. Is determined. The calculation unit 32 determines that the object is an obstacle when the size of the object is equal to or larger than the predetermined size and the moving distance within the predetermined period is equal to or less than the predetermined threshold value.

このように、障害物は、所定期間以上停止している物体である。例えば、障害物は、車両90からの落下物91である。障害物の具体例については後で説明する。 In this way, an obstacle is an object that has stopped for a predetermined period of time or longer. For example, the obstacle is a falling object 91 from the vehicle 90. Specific examples of obstacles will be described later.

演算部32は、センサ20によって検出された物体が障害物であると判定された場合に、障害物であると判定された物体を示す障害物情報を道路情報に追加する。障害物情報は、障害物であると判定された物体の位置及び大きさを示す情報である。 When the object detected by the sensor 20 is determined to be an obstacle, the calculation unit 32 adds obstacle information indicating the object determined to be an obstacle to the road information. Obstacle information is information indicating the position and size of an object determined to be an obstacle.

本実施の形態では、演算部32は、道路情報に追加される情報として、車両90が検知した物体の情報を使用しない。つまり、自動運転を行う車両90は、通常、周辺の物体を検知するためのセンサを備えており、当該センサによって検知された物体に関する情報を自動運転に利用している。しかしながら、車両90が検知した情報は、道路情報に追加する情報としては用いない。つまり、車両90は、検知した情報を照明ユニット10又はサーバ装置30に送信しなくてよい。 In the present embodiment, the calculation unit 32 does not use the information of the object detected by the vehicle 90 as the information added to the road information. That is, the vehicle 90 that performs automatic driving usually includes a sensor for detecting a peripheral object, and uses the information about the object detected by the sensor for automatic driving. However, the information detected by the vehicle 90 is not used as information to be added to the road information. That is, the vehicle 90 does not have to transmit the detected information to the lighting unit 10 or the server device 30.

演算部32は、例えば、集積回路(IC:Integrated Circuit)であるLSI(Large Scale Integration)によって実現される。なお、集積回路は、LSIに限られず、専用回路又は汎用プロセッサであってもよい。演算部32は、例えば、プログラムが格納された不揮発性メモリ、プログラムを実行するための一時的な記憶領域である揮発性メモリ、入出力ポート、プログラムを実行するプロセッサなどを含んでいる。また、演算部32は、プログラム可能なFPGA(Field Programmable Gate Array)、又は、LSI内の回路セルの接続及び設定が再構成可能なリコンフィギュラブルプロセッサであってもよい。演算部32が実行する機能は、ソフトウェアで実現されてもよく、ハードウェアで実現されてもよい。 The arithmetic unit 32 is realized by, for example, an LSI (Large Scale Integration) which is an integrated circuit (IC). The integrated circuit is not limited to the LSI, and may be a dedicated circuit or a general-purpose processor. The arithmetic unit 32 includes, for example, a non-volatile memory in which the program is stored, a volatile memory which is a temporary storage area for executing the program, an input / output port, a processor for executing the program, and the like. Further, the arithmetic unit 32 may be a programmable FPGA (Field Programmable Gate Array) or a reconfigurable processor in which the connection and setting of the circuit cells in the LSI can be reconfigured. The function executed by the arithmetic unit 32 may be realized by software or hardware.

記憶部33は、自動運転に利用される道路情報を記憶するための記憶装置である。記憶部33は、例えば、HDD(Hard Disk Drive)などの磁気ディスク又はSSD(Solid State Drive)などの半導体記憶装置である。 The storage unit 33 is a storage device for storing road information used for automatic driving. The storage unit 33 is, for example, a magnetic disk such as an HDD (Hard Disk Drive) or a semiconductor storage device such as an SSD (Solid State Drive).

通信部40は、サーバ装置30及び車両90の各々の通信を行う。具体的には、通信部40は、サーバ装置30が備える通信部31と通信する。通信部40による通信は、例えば、イーサネット(登録商標)規格に基づいた有線通信であるが、電波を利用した無線通信であってもよい。 The communication unit 40 communicates with the server device 30 and the vehicle 90, respectively. Specifically, the communication unit 40 communicates with the communication unit 31 included in the server device 30. The communication by the communication unit 40 is, for example, wired communication based on the Ethernet (registered trademark) standard, but may be wireless communication using radio waves.

通信部40は、センサ20による検知結果をサーバ装置30の演算部32に送信する。センサ20による検知結果は、具体的には、検知された物体の位置情報及び画像情報である。通信部40は、さらに、演算部32から、障害物情報が追加された道路情報を受信する。 The communication unit 40 transmits the detection result of the sensor 20 to the calculation unit 32 of the server device 30. Specifically, the detection result by the sensor 20 is the position information and the image information of the detected object. The communication unit 40 further receives road information to which obstacle information is added from the calculation unit 32.

また、通信部40は、車両90との間で電波を利用した無線通信を行う。無線通信は、Wi−Fi(登録商標)、Bluetooth(登録商標)若しくはZigBee(登録商標)、又は、4G LTE(Long Term Evolution)若しくは5Gなどの移動体通信である。あるいは、通信部40と車両90との無線通信は、可視光通信又はLi−Fi通信であってもよい。 In addition, the communication unit 40 performs wireless communication with the vehicle 90 using radio waves. Wireless communication is mobile communication such as Wi-Fi®, Bluetooth® or ZigBee®, or 4G LTE (Long Term Evolution) or 5G. Alternatively, the wireless communication between the communication unit 40 and the vehicle 90 may be visible light communication or Li-Fi communication.

通信部40は、障害物情報が追加された道路情報を、車両90に送信する。具体的には、通信部40は、サーバ装置30から送信された道路情報を取得し、取得した道路情報を車両90に送信する。 The communication unit 40 transmits the road information to which the obstacle information is added to the vehicle 90. Specifically, the communication unit 40 acquires the road information transmitted from the server device 30, and transmits the acquired road information to the vehicle 90.

通信部40と車両90との通信は、一方向通信である。すなわち、通信部40は、車両90に対して道路情報の送信が可能であるが、車両90から送信される情報を受信しない。なお、一方向通信には、通信を確立するための情報が互いに送受信される場合が含まれてもよい。つまり、通信部40と車両90とが一方向通信を行う場合に、通信部40との通信を確立するために車両90側から自身の通信IDを送信することは行われてもよい。 The communication between the communication unit 40 and the vehicle 90 is one-way communication. That is, the communication unit 40 can transmit road information to the vehicle 90, but does not receive the information transmitted from the vehicle 90. Note that the one-way communication may include a case where information for establishing communication is transmitted and received to each other. That is, when the communication unit 40 and the vehicle 90 perform one-way communication, the vehicle 90 side may transmit its own communication ID in order to establish communication with the communication unit 40.

記憶部33に記憶される道路情報は、例えば、図3に示されるようなダイナミックマップである。図3は、ダイナミックマップの一例を示す図である。 The road information stored in the storage unit 33 is, for example, a dynamic map as shown in FIG. FIG. 3 is a diagram showing an example of a dynamic map.

ダイナミックマップは、例えば、静的情報、準静的情報、準動的情報及び動的情報を含んでいる。静的情報は、具体的には、高精度な三次元地図情報である。三次元地図情報は、路面情報、車線情報及び三次元構造物などを含む。図3に示されるように、ダイナミックマップでは、静的情報がベクトルデータ化されている。静的情報が組み込まれたデータは、マザーマップとも呼ばれる。 The dynamic map includes, for example, static information, quasi-static information, quasi-dynamic information and dynamic information. The static information is, specifically, highly accurate three-dimensional map information. The three-dimensional map information includes road surface information, lane information, three-dimensional structures, and the like. As shown in FIG. 3, in the dynamic map, static information is converted into vector data. Data that incorporates static information is also called a mother map.

準静的情報は、交通規制の予定、道路工事の予定及び広域な気象予測などを含む。準動的情報は、事故情報、渋滞情報、交通規制情報及び道路工事情報などを含む。動的情報は、周辺車両及び歩行者などを含む。演算部32によって追加される障害物情報は、動的情報又は準動的情報の一部である。 Quasi-static information includes traffic regulation schedules, road construction schedules and wide area weather forecasts. Semi-dynamic information includes accident information, traffic congestion information, traffic regulation information, road construction information, and the like. Dynamic information includes peripheral vehicles, pedestrians, and the like. The obstacle information added by the calculation unit 32 is a part of dynamic information or quasi-dynamic information.

障害物情報は、ダイナミックマップのテンポラリーデータとして追加される。テンポラリーデータは、マザーマップの更新区間を限定したデータである。例えば、道路2は、照明ユニット10毎に複数のメッシュ(有効区間)に区分される。演算部32は、障害物情報に関連するメッシュのデータのみを更新し、更新したデータのみを照明ユニット10に送信する。照明ユニット10に設けられた通信部40は、更新されたデータに対応するメッシュを通行する車両90に、当該データを送信する。 Obstacle information is added as temporary data of the dynamic map. Temporary data is data that limits the update section of the mother map. For example, the road 2 is divided into a plurality of meshes (effective sections) for each lighting unit 10. The calculation unit 32 updates only the mesh data related to the obstacle information, and transmits only the updated data to the lighting unit 10. The communication unit 40 provided in the lighting unit 10 transmits the data to the vehicle 90 passing through the mesh corresponding to the updated data.

[動作]
続いて、照明システム1の動作について、図4を用いて説明する。図4は、本実施の形態に係る照明システム1の動作を示すシーケンス図である。
[motion]
Subsequently, the operation of the lighting system 1 will be described with reference to FIG. FIG. 4 is a sequence diagram showing the operation of the lighting system 1 according to the present embodiment.

図4に示されるように、照明システム1では、まず、照明ユニット10のセンサ20が撮影を開始する(S10)。なお、照明ユニット10の発光部11は、常時点灯していてもよく、夜間のみ点灯していてもよい。あるいは、発光部11は、センサ20によって物体が検知された場合にのみ、物体が検知されてから一定期間、又は、物体が検知されなくなるまで点灯してもよい。 As shown in FIG. 4, in the lighting system 1, first, the sensor 20 of the lighting unit 10 starts shooting (S10). The light emitting unit 11 of the lighting unit 10 may be lit all the time, or may be lit only at night. Alternatively, the light emitting unit 11 may be lit for a certain period of time after the object is detected, or until the object is no longer detected, only when the object is detected by the sensor 20.

次に、センサ20が道路2上に物体を検知する(S12)。センサ20は、検知した物体の位置を示す位置情報、及び、検知した物体の画像情報を検知結果として、サーバ装置30に送信する(S14)。なお、物体が検知されない場合は、照明システム1は、物体が検知されるまで待機する。 Next, the sensor 20 detects an object on the road 2 (S12). The sensor 20 transmits the position information indicating the position of the detected object and the image information of the detected object to the server device 30 as the detection result (S14). If the object is not detected, the lighting system 1 waits until the object is detected.

サーバ装置30では、演算部32が、センサ20によって検知された物体が障害物であるか否かを判定する(S16)。センサ20によって検知された物体が障害物ではない場合(S16でNo)、演算部32は、次の検知結果が送信されるまで待機する。例えば、検知された物体が、通常通り走行している車両である場合には、演算部32は、センサ20によって検知された物体が障害物ではないと判定する。 In the server device 30, the calculation unit 32 determines whether or not the object detected by the sensor 20 is an obstacle (S16). When the object detected by the sensor 20 is not an obstacle (No in S16), the calculation unit 32 waits until the next detection result is transmitted. For example, when the detected object is a vehicle traveling normally, the calculation unit 32 determines that the object detected by the sensor 20 is not an obstacle.

センサ20によって検知された物体が障害物であると判定した場合(S16でYes)、演算部32は、障害物であると判定した物体を示す障害物情報をダイナミックマップに追加する(S18)。障害物の具体例及びダイナミックマップへの追加例については、後で説明する。 When it is determined that the object detected by the sensor 20 is an obstacle (Yes in S16), the calculation unit 32 adds obstacle information indicating the object determined to be an obstacle to the dynamic map (S18). Specific examples of obstacles and additional examples to the dynamic map will be described later.

演算部32は、通信部31を介して、障害物情報が追加されたダイナミックマップを照明ユニット10に送信する(S20)。照明ユニット10の通信部40は、サーバ装置30から送信されたダイナミックマップを車両90に送信する(S22)。車両90では、障害物情報が追加されたダイナミックマップを反映して自動運転を行う(S24)。これにより、照明ユニット10の周辺に存在する障害物を避けて走行することができる。 The calculation unit 32 transmits a dynamic map to which obstacle information is added to the lighting unit 10 via the communication unit 31 (S20). The communication unit 40 of the lighting unit 10 transmits the dynamic map transmitted from the server device 30 to the vehicle 90 (S22). The vehicle 90 automatically drives by reflecting the dynamic map to which the obstacle information is added (S24). As a result, the vehicle can travel while avoiding obstacles existing around the lighting unit 10.

送信されるダイナミックマップは、追加された障害物情報に関連する部分のみでよい。つまり、障害物が検知された照明ユニット10の周辺領域のみのダイナミックマップが、サーバ装置30、照明ユニット10及び車両90間で送受信される。これにより、送受信されるデータ量を削減することができるので、送受信に要する時間を短くすることができ、障害物の情報を速やかに自動運転に利用することができる。 The dynamic map transmitted may be only the part related to the added obstacle information. That is, a dynamic map of only the peripheral area of the lighting unit 10 in which an obstacle is detected is transmitted and received between the server device 30, the lighting unit 10, and the vehicle 90. As a result, the amount of data to be transmitted / received can be reduced, so that the time required for transmission / reception can be shortened, and obstacle information can be quickly used for automatic operation.

[障害物の具体例]
続いて、障害物の具体例について図5A〜図7Bを用いて説明する。
[Specific examples of obstacles]
Subsequently, specific examples of obstacles will be described with reference to FIGS. 5A to 7B.

[落下物]
図5Aは、障害物の一例である落下物91を検知した例を示す図である。図5Aの(a)〜(c)はそれぞれ、異なる時刻t1〜t3において、照明ユニット10の周辺の状況を模式的に示している。なお、時刻t1〜t3の順で時間が経過している。
[Falling object]
FIG. 5A is a diagram showing an example in which a falling object 91, which is an example of an obstacle, is detected. (A) to (c) of FIG. 5A schematically show the situation around the lighting unit 10 at different times t1 to t3. The time has passed in the order of times t1 to t3.

図5Aの(a)に示されるように、時刻t1では、照明ユニット10の周辺には落下物91が存在していない。照明ユニット10に設けられたセンサ20は、物体が検知されるまで、周辺の監視(具体的には、撮影)を継続する。道路2上には障害物がないため、車両は、道路2上を走行可能である。 As shown in FIG. 5A (a), at time t1, there is no falling object 91 around the lighting unit 10. The sensor 20 provided in the lighting unit 10 continues monitoring (specifically, photographing) the surroundings until an object is detected. Since there are no obstacles on the road 2, the vehicle can travel on the road 2.

図5Aの(b)に示されるように、時刻t2でセンサ20は、落下物91を検知する。落下物91は、所定期間以上停止している物体の一例である。所定期間は、例えば1秒以上数分以下であるが、これに限らない。落下物91は、例えば、道路2を走行していた車両90から落ちた物体である。なお、落下物91は、照明ユニット10の周辺の建物に取り付けられていた看板などであってもよい。 As shown in FIG. 5A (b), the sensor 20 detects the falling object 91 at time t2. The falling object 91 is an example of an object that has stopped for a predetermined period or longer. The predetermined period is, for example, 1 second or more and several minutes or less, but is not limited to this. The falling object 91 is, for example, an object that has fallen from a vehicle 90 traveling on the road 2. The falling object 91 may be a signboard or the like attached to a building around the lighting unit 10.

所定期間を短くする程、障害物の検出が速やかに行われるので、自動運転の安全性を高めることができる。所定期間は、道路2の交通量に基づいて定められてもよい。交通量が多い道路の場合、所定期間を短くし、交通量が少ない道路の場合、所定期間を長くしてもよい。例えば、所定期間は、道路2を走行する複数の車両の平均的な時間間隔に基づいて定められてもよい。つまり、1時間に10台の車両が走行する場合には、所定期間は、6分(=60分÷10台)未満の期間であってもよい。 As the predetermined period is shortened, obstacles are detected more quickly, so that the safety of automatic driving can be improved. The predetermined period may be determined based on the traffic volume of the road 2. In the case of a road with a large amount of traffic, the predetermined period may be shortened, and in the case of a road with a small amount of traffic, the predetermined period may be lengthened. For example, the predetermined period may be set based on the average time interval of a plurality of vehicles traveling on the road 2. That is, when 10 vehicles travel in one hour, the predetermined period may be less than 6 minutes (= 60 minutes ÷ 10 vehicles).

図4に示したように、センサ20が検知した落下物91に関する検知結果は、サーバ装置30に送信される。サーバ装置30の演算部32によって、落下物91は障害物であると判定される。このため、落下物91を示す障害物情報が追加されたダイナミックマップがサーバ装置30から照明ユニット10に送信される。 As shown in FIG. 4, the detection result regarding the falling object 91 detected by the sensor 20 is transmitted to the server device 30. The calculation unit 32 of the server device 30 determines that the falling object 91 is an obstacle. Therefore, a dynamic map to which obstacle information indicating the falling object 91 is added is transmitted from the server device 30 to the lighting unit 10.

図5Bは、障害物の一例である落下物91が加えられたダイナミックマップを示す図である。図5Bに示されるように、ダイナミックマップ上に、障害物として落下物91が追加されている。 FIG. 5B is a diagram showing a dynamic map to which a falling object 91, which is an example of an obstacle, is added. As shown in FIG. 5B, a falling object 91 is added as an obstacle on the dynamic map.

図5Aの(c)に示されるように、時刻t3で照明ユニット10は、車両90に対して、落下物91を示す障害物情報が追加されたダイナミックマップを送信する。これにより、車両90は、落下物91を避けて道路2を走行することができる。 As shown in FIG. 5A (c), at time t3, the lighting unit 10 transmits a dynamic map to the vehicle 90 to which obstacle information indicating the falling object 91 is added. As a result, the vehicle 90 can travel on the road 2 while avoiding the falling object 91.

なお、落下物91が除去されるなどしてセンサ20によって検知できなくなった場合、センサ20は、落下物91が検知できなくなったことを検知結果としてサーバ装置30に送信する。サーバ装置30の演算部32は、落下物91を示す障害物情報をダイナミックマップから削除する。これにより、道路2を通常通りに走行可能な状態にダイナミックマップを更新することができる。 When the falling object 91 cannot be detected by the sensor 20 due to removal of the falling object 91 or the like, the sensor 20 transmits to the server device 30 as a detection result that the falling object 91 cannot be detected. The calculation unit 32 of the server device 30 deletes the obstacle information indicating the falling object 91 from the dynamic map. As a result, the dynamic map can be updated so that the road 2 can travel normally.

あるいは、センサ20の検知範囲内で落下物91が移動した場合、移動前の落下物91を示す障害物情報をダイナミックマップから削除し、移動後の落下物91を示す障害物情報をダイナミックマップに追加する。これにより、ダイナミックマップ内で落下物91の位置を常に最新の状態に保つことができる。 Alternatively, when the falling object 91 moves within the detection range of the sensor 20, the obstacle information indicating the falling object 91 before the movement is deleted from the dynamic map, and the obstacle information indicating the falling object 91 after the movement is converted into the dynamic map. to add. As a result, the position of the falling object 91 can always be kept up-to-date in the dynamic map.

[保守作業区域]
図6Aは、障害物の一例である保守作業区域92を検知した例を示す図である。図6Aの(a)〜(c)はそれぞれ、異なる時刻t1〜t3において、照明ユニット10の周辺の状況を模式的に示している。なお、時刻t1〜t3の順で時間が経過している。
[Maintenance work area]
FIG. 6A is a diagram showing an example in which a maintenance work area 92, which is an example of an obstacle, is detected. (A) to (c) of FIG. 6A schematically show the situation around the lighting unit 10 at different times t1 to t3. The time has passed in the order of times t1 to t3.

図6Aの(a)に示されるように、時刻t1では、照明ユニット10の周辺には保守作業区域92が存在していない。照明ユニット10に設けられたセンサ20は、物体が検知されるまで、周辺の監視(具体的には、撮影)を継続する。道路2上には障害物がないため、車両は、道路2上を走行可能である。 As shown in FIG. 6A (a), at time t1, the maintenance work area 92 does not exist around the lighting unit 10. The sensor 20 provided in the lighting unit 10 continues monitoring (specifically, photographing) the surroundings until an object is detected. Since there are no obstacles on the road 2, the vehicle can travel on the road 2.

図6Aの(b)に示されるように、時刻t2でセンサ20は、保守作業区域92を検知する。保守作業区域92は、例えば、道路2に置かれた工事の看板、ロードコーン及びバリケード、並びに、道路2に張られた規制線などの位置に基づいて決定される。看板、ロードコーン及びバリケードなどはそれぞれが、落下物91と同等の障害物として演算部32によって判定される。演算部32は、障害物として判定された看板及びバリケードなどを囲むように保守作業区域92を決定する。 As shown in FIG. 6A (b), the sensor 20 detects the maintenance work area 92 at time t2. The maintenance work area 92 is determined based on, for example, the positions of construction signs, road cones and barricades placed on the road 2, and regulation lines stretched on the road 2. Each of the signboard, the road cone, the barricade, and the like is determined by the calculation unit 32 as an obstacle equivalent to the falling object 91. The calculation unit 32 determines the maintenance work area 92 so as to surround the signboard and the barricade determined as obstacles.

図4に示したように、センサ20が検知した保守作業区域92に関する検知結果は、サーバ装置30に送信される。サーバ装置30の演算部32によって、保守作業区域92は障害物であると判定される。このため、保守作業区域92を示す障害物情報が追加されたダイナミックマップがサーバ装置30から照明ユニット10に送信される。 As shown in FIG. 4, the detection result regarding the maintenance work area 92 detected by the sensor 20 is transmitted to the server device 30. The calculation unit 32 of the server device 30 determines that the maintenance work area 92 is an obstacle. Therefore, a dynamic map to which obstacle information indicating the maintenance work area 92 is added is transmitted from the server device 30 to the lighting unit 10.

図6Bは、障害物の一例である保守作業区域92が加えられたダイナミックマップを示す図である。図6Bに示されるように、ダイナミックマップ上に、障害物として保守作業区域92が追加されている。 FIG. 6B is a diagram showing a dynamic map to which a maintenance work area 92, which is an example of an obstacle, is added. As shown in FIG. 6B, a maintenance work area 92 is added as an obstacle on the dynamic map.

図6Aの(c)に示されるように、時刻t3で照明ユニット10は、車両90に対して、保守作業区域92を示す障害物情報が追加されたダイナミックマップを送信する。これにより、車両90は、保守作業区域92を避けて道路2を走行することができる。 As shown in FIG. 6A (c), at time t3, the lighting unit 10 transmits a dynamic map to the vehicle 90 to which obstacle information indicating the maintenance work area 92 is added. As a result, the vehicle 90 can travel on the road 2 while avoiding the maintenance work area 92.

なお、保守作業が完了することで、センサ20によってバリケードなどが検知できなくなった場合、センサ20は、保守作業区域92が検知できなくなったことを検知結果としてサーバ装置30に送信する。サーバ装置30の演算部32は、保守作業区域92を示す障害物情報をダイナミックマップから削除する。これにより、道路2を通常通りに走行可能な状態にダイナミックマップを更新することができる。 When the maintenance work is completed and the barricade or the like cannot be detected by the sensor 20, the sensor 20 transmits to the server device 30 as a detection result that the maintenance work area 92 cannot be detected. The calculation unit 32 of the server device 30 deletes the obstacle information indicating the maintenance work area 92 from the dynamic map. As a result, the dynamic map can be updated so that the road 2 can travel normally.

[渋滞中の車両]
図7Aは、障害物の一例である渋滞車両93を検知した例を示す図である。図7Aの(a)〜(c)はそれぞれ、異なる時刻t1〜t3において、照明ユニット10の周辺の状況を模式的に示している。なお、時刻t1〜t3の順で時間が経過している。
[Vehicles in traffic]
FIG. 7A is a diagram showing an example in which a congested vehicle 93, which is an example of an obstacle, is detected. (A) to (c) of FIG. 7A schematically show the situation around the lighting unit 10 at different times t1 to t3. The time has passed in the order of times t1 to t3.

図7Aの(a)に示されるように、時刻t1では、照明ユニット10の周辺には渋滞車両93が存在していない。つまり、車両は、一定以上の速度で安定して走行しているので、センサ20によって走行中の車両が検知されたとしても、演算部32によって障害物であると判定されない。照明ユニット10に設けられたセンサ20は、渋滞車両93が検知されるまで、周辺の監視(具体的には、撮影)を継続する。道路2上には障害物がないため、車両は、道路2上を走行可能である。 As shown in FIG. 7A (a), at time t1, there is no congested vehicle 93 around the lighting unit 10. That is, since the vehicle is stably traveling at a certain speed or higher, even if the traveling vehicle is detected by the sensor 20, the calculation unit 32 does not determine that the vehicle is an obstacle. The sensor 20 provided in the lighting unit 10 continues to monitor the surrounding area (specifically, take a picture) until the congested vehicle 93 is detected. Since there are no obstacles on the road 2, the vehicle can travel on the road 2.

図7Aの(b)に示されるように、時刻t2でセンサ20は、渋滞車両93を検知する。渋滞車両93は、所定期間以上所定範囲内から出ない車両である。言い換えると、渋滞車両93は、車速が所定の閾値以下の車両である。渋滞車両93には、停止している車両も含まれる。所定期間及び所定範囲はそれぞれ、渋滞中の車両の車速に基づいて定められる。例えば、所定期間及び所定範囲は、時速10km以下又は時速20km以下で走行する車両が渋滞車両93に該当するように定められる。なお、渋滞車両93に該当する場合の車速は、時速40km以下であってもよい。 As shown in FIG. 7A (b), the sensor 20 detects the congested vehicle 93 at time t2. The congested vehicle 93 is a vehicle that does not come out of the predetermined range for a predetermined period or longer. In other words, the congested vehicle 93 is a vehicle whose vehicle speed is equal to or less than a predetermined threshold value. The congested vehicle 93 also includes a stopped vehicle. The predetermined period and the predetermined range are each determined based on the vehicle speed of the vehicle in a traffic jam. For example, the predetermined period and the predetermined range are determined so that a vehicle traveling at a speed of 10 km / h or less or 20 km / h or less corresponds to a congested vehicle 93. The vehicle speed in the case of the congested vehicle 93 may be 40 km / h or less.

図4に示したように、センサ20が検知した渋滞車両93に関する検知結果は、サーバ装置30に送信される。サーバ装置30の演算部32によって、渋滞車両93は障害物であると判定される。このため、渋滞車両93を示す障害物情報が追加されたダイナミックマップがサーバ装置30から照明ユニット10に送信される。 As shown in FIG. 4, the detection result regarding the congested vehicle 93 detected by the sensor 20 is transmitted to the server device 30. The calculation unit 32 of the server device 30 determines that the congested vehicle 93 is an obstacle. Therefore, a dynamic map to which obstacle information indicating the congested vehicle 93 is added is transmitted from the server device 30 to the lighting unit 10.

図7Bは、障害物の一例である渋滞車両93が加えられたダイナミックマップを示す図である。図7Bに示されるように、ダイナミックマップ上に、障害物として渋滞車両93が追加されている。渋滞車両93の現実の移動に合わせて、ダイナミックマップ上でも障害物としての渋滞車両93が移動する。 FIG. 7B is a diagram showing a dynamic map to which a congested vehicle 93, which is an example of an obstacle, is added. As shown in FIG. 7B, a congested vehicle 93 is added as an obstacle on the dynamic map. The congested vehicle 93 as an obstacle moves on the dynamic map in accordance with the actual movement of the congested vehicle 93.

図7Aの(c)に示されるように、時刻t3で照明ユニット10は、車両90に対して、渋滞車両93を示す障害物情報が追加されたダイナミックマップを送信する。これにより、車両90は、渋滞車両93に衝突しないように道路2を走行することができる。 As shown in FIG. 7A (c), at time t3, the lighting unit 10 transmits a dynamic map to the vehicle 90 to which obstacle information indicating the congested vehicle 93 is added. As a result, the vehicle 90 can travel on the road 2 so as not to collide with the congested vehicle 93.

なお、渋滞が解消されるなどしてセンサ20によって検知された車両の速度が上がった場合、サーバ装置30の演算部32は、渋滞車両93を示す障害物情報をダイナミックマップから削除する。これにより、道路2を通常通りに走行可能な状態にダイナミックマップを更新することができる。 When the speed of the vehicle detected by the sensor 20 increases due to the elimination of the traffic jam, the calculation unit 32 of the server device 30 deletes the obstacle information indicating the traffic jam vehicle 93 from the dynamic map. As a result, the dynamic map can be updated so that the road 2 can travel normally.

ここでは、渋滞車両93について説明したが、事故車両についても同様である。なお、事故車両は、所定期間以上停止している物体でもある。すなわち、事故車両は、落下物91と同等に扱ってもよい。 Here, the congested vehicle 93 has been described, but the same applies to the accident vehicle. The accident vehicle is also an object that has stopped for a predetermined period or longer. That is, the accident vehicle may be treated in the same manner as the falling object 91.

[効果など]
以上のように、本実施の形態に係る照明システム1は、少なくとも1つの照明ユニット10と、少なくとも1つの照明ユニット10の各々に設けられ、設けられた照明ユニット10の周辺に位置する物体を検知する少なくとも1つのセンサ20と、自動運転に利用される道路情報を記憶する記憶部33と、少なくとも1つのセンサ20によって検知された物体が障害物であるか否かを判定し、障害物であると判定された物体を示す障害物情報を、道路情報に追加する演算部32と、障害物情報が追加された道路情報を、自動運転を行う車両90に送信する通信部40とを備える。
[Effects, etc.]
As described above, the lighting system 1 according to the present embodiment detects an object provided in each of at least one lighting unit 10 and at least one lighting unit 10 and located around the provided lighting unit 10. At least one sensor 20 and a storage unit 33 that stores road information used for automatic driving, and whether or not an object detected by at least one sensor 20 is an obstacle is determined and is an obstacle. It includes a calculation unit 32 that adds obstacle information indicating an object determined to be, to the road information, and a communication unit 40 that transmits the road information to which the obstacle information is added to the vehicle 90 that performs automatic driving.

これにより、自動運転に必要な道路情報の更新を簡単に行うことができるので、自動運転を容易に支援することができる。 As a result, the road information required for automatic driving can be easily updated, so that automatic driving can be easily supported.

また、例えば、道路情報は、ダイナミックマップである。 Also, for example, the road information is a dynamic map.

これにより、ダイナミックマップが自動運転に利用されるので、自動運転の精度を高めることができる。 As a result, the dynamic map is used for automatic driving, so that the accuracy of automatic driving can be improved.

また、例えば、障害物は、所定期間以上停止している物体、所定期間以上所定範囲内から出ない車両、及び、道路の保守作業が行われる区域の少なくとも1つである。 Further, for example, an obstacle is at least one of an object that has been stopped for a predetermined period or longer, a vehicle that does not come out of the predetermined range for a predetermined period or longer, and an area where road maintenance work is performed.

これにより、道路2上で発生する様々な障害物を検知することができる。 Thereby, various obstacles generated on the road 2 can be detected.

また、例えば、少なくとも1つのセンサ20は、物体を経時的に検知する。演算部32は、物体の経時変化に基づいて物体が障害物であるか否かを判定する。 Also, for example, at least one sensor 20 detects an object over time. The calculation unit 32 determines whether or not the object is an obstacle based on the change over time of the object.

これにより、物体の経時変化を利用することで、センサ20によって検知された物体が障害物であるか否かの判定精度を高めることができる。 As a result, it is possible to improve the accuracy of determining whether or not the object detected by the sensor 20 is an obstacle by utilizing the change with time of the object.

また、例えば、通信部40と車両90との通信は、一方向通信である。 Further, for example, the communication between the communication unit 40 and the vehicle 90 is a one-way communication.

これにより、車両90からの情報を取得しなくてもよいので、道路情報への障害物情報の追加を簡単かつ速やかに行うことができる。 As a result, it is not necessary to acquire the information from the vehicle 90, so that the obstacle information can be easily and quickly added to the road information.

また、例えば、演算部32は、照明ユニット10とは分離して設けられている。通信部40は、さらに、少なくとも1つのセンサ20による検知結果を演算部32に送信し、演算部32から障害物情報が追加された道路情報を受信する。 Further, for example, the calculation unit 32 is provided separately from the lighting unit 10. The communication unit 40 further transmits the detection result of at least one sensor 20 to the calculation unit 32, and receives the road information to which the obstacle information is added from the calculation unit 32.

これにより、照明ユニット10とは遠隔の地に処理能力の高いサーバ装置30などを設置することで、障害物の判定及び道路情報への追加処理を短期間で行うことができる。また、照明システム1が複数の照明ユニット10を備える場合には、照明ユニット10毎に演算部32を設けるよりも、メンテナンスを容易に行うことができ、システムの運用コストを削減することができる。 As a result, by installing a server device 30 or the like having a high processing capacity in a remote place from the lighting unit 10, it is possible to determine obstacles and perform additional processing to road information in a short period of time. Further, when the lighting system 1 includes a plurality of lighting units 10, maintenance can be easily performed and the operating cost of the system can be reduced as compared with the case where the calculation unit 32 is provided for each lighting unit 10.

また、例えば、少なくとも1つの照明ユニット10は、道路灯である。 Also, for example, at least one lighting unit 10 is a road light.

これにより、道路灯と道路2との間には通常、照明光を遮るような物体が設置されないので、センサ20の検知範囲を広く確保することができる。つまり、道路2上に現われる物体をセンサ20によって適切に検知することができる。 As a result, since an object that normally blocks the illumination light is not installed between the road light and the road 2, the detection range of the sensor 20 can be secured widely. That is, the object appearing on the road 2 can be appropriately detected by the sensor 20.

また、道路灯は、道路2に沿って一定間隔で設置されていることが多いので、各道路灯に設けられたセンサ20の検知結果をまとめて扱う場合に有利である。例えば、道路2を含む二次元平面を仮想的に複数のメッシュ(要素)に分割する場合、道路灯毎にメッシュを設けることで、センサ結果とメッシュ(要素)との割り当てを容易に行うことができる。このため、ダイナミックマップとの対応付けが容易になり、障害物情報の追加を簡単に(例えば、少ない処理量で)行うことができる。 Further, since the road lights are often installed at regular intervals along the road 2, it is advantageous when the detection results of the sensors 20 provided on the road lights are collectively handled. For example, when the two-dimensional plane including the road 2 is virtually divided into a plurality of meshes (elements), the sensor result and the mesh (elements) can be easily assigned by providing the mesh for each road light. can. Therefore, the association with the dynamic map becomes easy, and the obstacle information can be easily added (for example, with a small amount of processing).

[変形例]
続いて、実施の形態に係る照明システム1の変形例について説明する。
[Modification example]
Subsequently, a modified example of the lighting system 1 according to the embodiment will be described.

[変形例1]
まず、変形例1について、図8を用いて説明する。図8は、本変形例に係る照明システム101の概略図である。図8に示される照明システム101は、複数の照明ユニット10a、10b及び10cを備える。複数の照明ユニット10a、10b及び10cの各々の構成は、図2に示される照明ユニット10とほぼ同じである。
[Modification 1]
First, the first modification will be described with reference to FIG. FIG. 8 is a schematic view of the lighting system 101 according to this modified example. The lighting system 101 shown in FIG. 8 includes a plurality of lighting units 10a, 10b, and 10c. The configuration of each of the plurality of lighting units 10a, 10b, and 10c is substantially the same as that of the lighting unit 10 shown in FIG.

具体的には、図8に示されるように、照明ユニット10aは、発光部11aと、センサ20aと、通信部40aとを備える。照明ユニット10bは、発光部11bと、センサ20bと、通信部40bとを備える。照明ユニット10cは、発光部11cと、センサ20cと、通信部40cとを備える。 Specifically, as shown in FIG. 8, the lighting unit 10a includes a light emitting unit 11a, a sensor 20a, and a communication unit 40a. The lighting unit 10b includes a light emitting unit 11b, a sensor 20b, and a communication unit 40b. The lighting unit 10c includes a light emitting unit 11c, a sensor 20c, and a communication unit 40c.

発光部11a、11b及び11cは、実施の形態に係る発光部11と同じである。センサ20a、20b及び20cは、実施の形態に係るセンサ20と同じである。なお、センサ20a、20b及び20cはそれぞれ、検知範囲が異なっている。各センサの検知範囲の一部は重複していてもよい。 The light emitting units 11a, 11b and 11c are the same as the light emitting unit 11 according to the embodiment. The sensors 20a, 20b and 20c are the same as the sensor 20 according to the embodiment. The detection ranges of the sensors 20a, 20b and 20c are different from each other. Part of the detection range of each sensor may overlap.

通信部40a、40b及び40cは、実施の形態に係る通信部40とほぼ同じであり、互いに通信可能である。具体的には、照明ユニット10aの通信部40aは、照明ユニット10b及び10cの各々の通信部40b及び40cと通信する。なお、照明ユニット10bの通信部40bと照明ユニット10cの通信部40cとは互いに通信できなくてもよい。 The communication units 40a, 40b and 40c are substantially the same as the communication unit 40 according to the embodiment, and can communicate with each other. Specifically, the communication unit 40a of the lighting unit 10a communicates with the communication units 40b and 40c of the lighting units 10b and 10c, respectively. The communication unit 40b of the lighting unit 10b and the communication unit 40c of the lighting unit 10c may not be able to communicate with each other.

また、本変形例では、照明ユニット10aの通信部40aのみがサーバ装置30の通信部31と通信する。照明ユニット10bの通信部40b及び照明ユニット10cの通信部40cは、サーバ装置30の通信部31とは通信しない。照明ユニット10bの通信部40b及び照明ユニット10cの通信部40cは、周辺を走行する車両90との通信は可能である。 Further, in this modification, only the communication unit 40a of the lighting unit 10a communicates with the communication unit 31 of the server device 30. The communication unit 40b of the lighting unit 10b and the communication unit 40c of the lighting unit 10c do not communicate with the communication unit 31 of the server device 30. The communication unit 40b of the lighting unit 10b and the communication unit 40c of the lighting unit 10c can communicate with the vehicle 90 traveling in the vicinity.

照明ユニット10bのセンサ20bによる検出結果、及び、照明ユニット10cのセンサ20cによる検出結果は、照明ユニット10aに送信された後、サーバ装置30に送信される。サーバ装置30から送信される道路情報は、照明ユニット10aに送信された後、照明ユニット10b及び10cにそれぞれ送信される。つまり、本変形例では、照明ユニット10aは、サーバ装置30と照明ユニット10b及び10cとの間の通信の中継を行う。 The detection result of the lighting unit 10b by the sensor 20b and the detection result of the lighting unit 10c by the sensor 20c are transmitted to the lighting unit 10a and then to the server device 30. The road information transmitted from the server device 30 is transmitted to the lighting unit 10a and then transmitted to the lighting units 10b and 10c, respectively. That is, in this modification, the lighting unit 10a relays communication between the server device 30 and the lighting units 10b and 10c.

以上のように、本変形例に係る照明システム101では、少なくとも1つの照明ユニットは、複数の照明ユニット10a、10b及び10cである。通信部40は、照明ユニット毎に備えられている。照明ユニット毎に備えられた通信部40は、他の通信部40と通信する。 As described above, in the lighting system 101 according to the present modification, at least one lighting unit is a plurality of lighting units 10a, 10b, and 10c. The communication unit 40 is provided for each lighting unit. The communication unit 40 provided for each lighting unit communicates with another communication unit 40.

これにより、複数の照明ユニット10b及び10cの各々とサーバ装置30との通信手段を確保する必要がなく、照明システム101の構成を簡単にすることができる。 As a result, it is not necessary to secure communication means between each of the plurality of lighting units 10b and 10c and the server device 30, and the configuration of the lighting system 101 can be simplified.

また、例えば、照明ユニット10aのセンサ20aによる検知結果に基づいて障害物情報がダイナミックマップに追加された場合、当該ダイナミックマップを照明ユニット10aではなく、照明ユニット10b又は10cの通信部40b又は40cを介して車両90に送信することができる。つまり、障害物を検知した照明ユニットと、当該障害物を示す障害物情報が追加されたダイナミックマップを車両90に送信する照明ユニットとは、異なる照明ユニットであってもよい。 Further, for example, when obstacle information is added to the dynamic map based on the detection result by the sensor 20a of the lighting unit 10a, the dynamic map is not displayed on the lighting unit 10a but on the communication unit 40b or 40c of the lighting unit 10b or 10c. It can be transmitted to the vehicle 90 via. That is, the lighting unit that detects an obstacle and the lighting unit that transmits a dynamic map to which the obstacle information indicating the obstacle is added to the vehicle 90 may be different lighting units.

これにより、障害物を検知した照明ユニット10cから離れた車両90に対して、障害物情報が追加されたダイナミックマップを送信することができる。したがって、例えば、車両90が高速で走行している場合には、車両90の進行方向の遠方の照明ユニットのセンサ20による検知結果に基づいて得られるダイナミックマップを、車両90に近い照明ユニットの通信部40を介して取得することができる。したがって、高速走行している車両90であっても、移動先の障害物情報が追加されたダイナミックマップに基づいて適切な自動運転を行うことができる。また、障害物によって道路2の通行ができない場合には、障害物から十分に距離を空けた位置で道路2を通過する経路以外の代替経路を選択することができる。このため、円滑な交通を実現することができる。 As a result, it is possible to transmit the dynamic map to which the obstacle information is added to the vehicle 90 away from the lighting unit 10c that has detected the obstacle. Therefore, for example, when the vehicle 90 is traveling at high speed, the dynamic map obtained based on the detection result by the sensor 20 of the lighting unit far away in the traveling direction of the vehicle 90 is transmitted to the lighting unit close to the vehicle 90. It can be obtained through the unit 40. Therefore, even the vehicle 90 traveling at high speed can perform appropriate automatic driving based on the dynamic map to which the obstacle information of the moving destination is added. Further, when the road 2 cannot be passed due to an obstacle, an alternative route other than the route passing through the road 2 can be selected at a position sufficiently distant from the obstacle. Therefore, smooth traffic can be realized.

[変形例2]
次に、変形例2について、図9を用いて説明する。図9は、本変形例に係る照明システム(照明ユニット100)の構成を示すブロック図である。
[Modification 2]
Next, the second modification will be described with reference to FIG. FIG. 9 is a block diagram showing a configuration of a lighting system (lighting unit 100) according to this modified example.

本変形例に係る照明システムを構成する各構成要素は、1つの照明ユニット100に一体化されて設けられている。具体的には、図9に示されるように、照明ユニット100は、発光部11と、センサ20と、演算部32と、記憶部33と、通信部40とを備える。本変形例に係る照明システムは、サーバ装置30を備えない。したがって、通信部40は、サーバ装置30との通信を行う必要がなく、車両90と通信する。また、変形例1と同様に、通信部40は、さらに、他の照明ユニット100の通信部40と通信してもよい。 Each component constituting the lighting system according to this modification is integrally provided in one lighting unit 100. Specifically, as shown in FIG. 9, the lighting unit 100 includes a light emitting unit 11, a sensor 20, a calculation unit 32, a storage unit 33, and a communication unit 40. The lighting system according to this modification does not include the server device 30. Therefore, the communication unit 40 does not need to communicate with the server device 30, and communicates with the vehicle 90. Further, as in the first modification, the communication unit 40 may further communicate with the communication unit 40 of another lighting unit 100.

以上のように、本変形例に係る照明システムでは、例えば、演算部32及び記憶部33は、照明ユニット100と一体的に設けられている。 As described above, in the lighting system according to the present modification, for example, the calculation unit 32 and the storage unit 33 are provided integrally with the lighting unit 100.

これにより、サーバ装置30との通信に要する時間を省略することができるので、障害物の判定及び道路情報への追加処理を短期間で行うことができる。 As a result, the time required for communication with the server device 30 can be omitted, so that obstacle determination and additional processing to the road information can be performed in a short period of time.

(その他)
以上、本発明に係る照明システムについて、上記の実施の形態及びその変形例に基づいて説明したが、本発明は、上記の実施の形態に限定されるものではない。
(others)
The lighting system according to the present invention has been described above based on the above-described embodiment and its modifications, but the present invention is not limited to the above-described embodiment.

また、例えば、道路情報は、ダイナミックマップではなくてもよい。道路情報は、道路に関する情報であって、自動運転に利用可能な情報であれば特に限定されない。 Also, for example, the road information does not have to be a dynamic map. The road information is information about the road and is not particularly limited as long as it is information that can be used for automatic driving.

また、例えば、照明ユニット10は、道路灯でなくてもよい。例えば、照明ユニット10は、信号機又は電光掲示板であってもよい。 Further, for example, the lighting unit 10 does not have to be a road light. For example, the lighting unit 10 may be a traffic light or an electric bulletin board.

また、上記実施の形態で説明した装置間の通信方法については特に限定されるものではない。装置間で無線通信が行われる場合、無線通信の方式(通信規格)は、例えば、ZigBee(登録商標)、Bluetooth(登録商標)、又は、無線LAN(Local Area Network)などの近距離無線通信である。あるいは、無線通信の方式(通信規格)は、インターネットなどの広域通信ネットワークを介した通信でもよい。また、装置間においては、無線通信に代えて、有線通信が行われてもよい。有線通信は、具体的には、電力線搬送通信(PLC:Power Line Communication)又は有線LANを用いた通信などである。 Further, the communication method between the devices described in the above embodiment is not particularly limited. When wireless communication is performed between devices, the wireless communication method (communication standard) is, for example, short-range wireless communication such as ZigBee (registered trademark), Bluetooth (registered trademark), or wireless LAN (Local Area Network). be. Alternatively, the wireless communication method (communication standard) may be communication via a wide area communication network such as the Internet. Further, wired communication may be performed between the devices instead of wireless communication. Specifically, the wired communication is a power line communication (PLC) or a communication using a wired LAN.

また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよく、あるいは、複数の処理が並行して実行されてもよい。また、照明システムが備える構成要素の複数の装置への振り分けは、一例である。例えば、一の装置が備える構成要素を他の装置が備えてもよい。 Further, in the above embodiment, another processing unit may execute the processing executed by the specific processing unit. Further, the order of the plurality of processes may be changed, or the plurality of processes may be executed in parallel. Further, the distribution of the components of the lighting system to a plurality of devices is an example. For example, the components of one device may be included in another device.

例えば、上記実施の形態において説明した処理は、単一の装置(システム)を用いて集中処理することによって実現してもよく、又は、複数の装置を用いて分散処理することによって実現してもよい。また、上記プログラムを実行するプロセッサは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、又は分散処理を行ってもよい。 For example, the processing described in the above embodiment may be realized by centralized processing using a single device (system), or may be realized by distributed processing using a plurality of devices. good. Further, the number of processors that execute the above program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、上記実施の形態において、演算部などの構成要素の全部又は一部は、専用のハードウェアで構成されてもよく、あるいは、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)又はプロセッサなどのプログラム実行部が、HDD又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above embodiment, all or a part of the components such as the arithmetic unit may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component. May be good. Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as an HDD or a semiconductor memory.

また、制御部などの構成要素は、1つ又は複数の電子回路で構成されてもよい。1つ又は複数の電子回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。 Further, a component such as a control unit may be composed of one or a plurality of electronic circuits. The one or more electronic circuits may be general-purpose circuits or dedicated circuits, respectively.

1つ又は複数の電子回路には、例えば、半導体装置、IC又はLSIなどが含まれてもよい。IC又はLSIは、1つのチップに集積されてもよく、複数のチップに集積されてもよい。ここでは、IC又はLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、又は、ULSI(Ultra Large Scale Integration)と呼ばれるかもしれない。また、LSIの製造後にプログラムされるFPGAも同じ目的で使うことができる。 The one or more electronic circuits may include, for example, a semiconductor device, an IC, an LSI, or the like. The IC or LSI may be integrated on one chip or may be integrated on a plurality of chips. Here, it is called IC or LSI, but the name changes depending on the degree of integration, and it may be called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). Also, an FPGA programmed after the LSI is manufactured can be used for the same purpose.

また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路又はコンピュータプログラムで実現されてもよい。あるいは、当該コンピュータプログラムが記憶された光学ディスク、HDD若しくは半導体メモリなどのコンピュータ読み取り可能な非一時的記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, general or specific aspects of the present invention may be realized by a system, an apparatus, a method, an integrated circuit or a computer program. Alternatively, it may be realized by a computer-readable non-temporary recording medium such as an optical disk, HDD or semiconductor memory in which the computer program is stored. Further, it may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program and a recording medium.

その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。 In addition, it is realized by arbitrarily combining the components and functions in each embodiment within the range obtained by applying various modifications to each embodiment and the gist of the present invention. Forms are also included in the present invention.

1、101 照明システム
2 道路
10、10a、10b、10c、100 照明ユニット
20、20a、20b、20c センサ
32 演算部
33 記憶部
40、40a、40b、40c 通信部
90 車両(自動運転車両)
91 落下物
92 保守作業区域
93 渋滞車両
1,101 Lighting system 2 Roads 10, 10a, 10b, 10c, 100 Lighting units 20, 20a, 20b, 20c Sensor 32 Calculation unit 33 Storage unit 40, 40a, 40b, 40c Communication unit 90 Vehicle (autonomous driving vehicle)
91 Fallen objects 92 Maintenance work area 93 Congested vehicles

Claims (9)

少なくとも1つの照明ユニットと、
前記少なくとも1つの照明ユニットの各々に設けられ、設けられた照明ユニットの周辺に位置する物体を検知する少なくとも1つのセンサと、
自動運転に利用される道路情報を記憶する記憶部と、
前記少なくとも1つのセンサによって検知された物体が障害物であるか否かを判定し、障害物であると判定された物体を示す障害物情報を、前記道路情報に追加する演算部と、
前記障害物情報が追加された前記道路情報を、自動運転車両に送信する通信部とを備える
照明システム。
With at least one lighting unit
At least one sensor provided in each of the at least one lighting unit and detecting an object located around the provided lighting unit, and
A storage unit that stores road information used for autonomous driving,
An arithmetic unit that determines whether or not the object detected by at least one sensor is an obstacle, and adds obstacle information indicating the object determined to be an obstacle to the road information.
A lighting system including a communication unit that transmits the road information to which the obstacle information is added to an autonomous driving vehicle.
前記道路情報は、ダイナミックマップである
請求項1に記載の照明システム。
The lighting system according to claim 1, wherein the road information is a dynamic map.
前記障害物は、所定期間以上停止している物体、所定期間以上所定範囲内から出ない車両、及び、道路の保守作業が行われる区域の少なくとも1つである
請求項1又は2に記載の照明システム。
The lighting according to claim 1 or 2, wherein the obstacle is an object that has been stopped for a predetermined period or longer, a vehicle that does not come out of the predetermined range for a predetermined period or longer, and at least one of the areas where road maintenance work is performed. system.
前記少なくとも1つのセンサは、前記物体を経時的に検知し、
前記演算部は、前記物体の経時変化に基づいて前記物体が障害物であるか否かを判定する
請求項1〜3のいずれか1項に記載の照明システム。
The at least one sensor detects the object over time and
The lighting system according to any one of claims 1 to 3, wherein the calculation unit determines whether or not the object is an obstacle based on a change over time of the object.
前記通信部と前記自動運転車両との通信は、一方向通信である
請求項1〜4のいずれか1項に記載の照明システム。
The lighting system according to any one of claims 1 to 4, wherein the communication between the communication unit and the autonomous driving vehicle is one-way communication.
前記演算部は、前記照明ユニットとは分離して設けられ、
前記通信部は、さらに、前記少なくとも1つのセンサによる検知結果を前記演算部に送信し、前記演算部から前記障害物情報が追加された前記道路情報を受信する
請求項1〜5のいずれか1項に記載の照明システム。
The calculation unit is provided separately from the lighting unit.
The communication unit further transmits the detection result by the at least one sensor to the calculation unit, and receives the road information to which the obstacle information is added from the calculation unit. Any one of claims 1 to 5. The lighting system described in the section.
前記演算部及び前記記憶部は、前記照明ユニットと一体的に設けられている
請求項1〜5のいずれか1項に記載の照明システム。
The lighting system according to any one of claims 1 to 5, wherein the calculation unit and the storage unit are provided integrally with the lighting unit.
前記少なくとも1つの照明ユニットは、複数の照明ユニットであり、
前記通信部は、前記照明ユニット毎に備えられ、
前記照明ユニット毎に備えられた前記通信部は、他の前記通信部と通信する
請求項1〜7のいずれか1項に記載の照明システム。
The at least one lighting unit is a plurality of lighting units.
The communication unit is provided for each lighting unit.
The lighting system according to any one of claims 1 to 7, wherein the communication unit provided for each lighting unit communicates with the other communication unit.
前記少なくとも1つの照明ユニットは、道路灯である
請求項1〜8のいずれか1項に記載の照明システム。
The lighting system according to any one of claims 1 to 8, wherein the at least one lighting unit is a road light.
JP2020054020A 2020-03-25 2020-03-25 lighting system Active JP7429862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020054020A JP7429862B2 (en) 2020-03-25 2020-03-25 lighting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054020A JP7429862B2 (en) 2020-03-25 2020-03-25 lighting system

Publications (2)

Publication Number Publication Date
JP2021157225A true JP2021157225A (en) 2021-10-07
JP7429862B2 JP7429862B2 (en) 2024-02-09

Family

ID=77917809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054020A Active JP7429862B2 (en) 2020-03-25 2020-03-25 lighting system

Country Status (1)

Country Link
JP (1) JP7429862B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7175373B1 (en) 2021-12-03 2022-11-18 三菱電機株式会社 Automated driving support system
JP2023079286A (en) * 2021-11-29 2023-06-08 三菱電機株式会社 Automatic driving system
JP2023079287A (en) * 2021-11-29 2023-06-08 三菱電機株式会社 Automatic driving system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4831434B2 (en) 2007-12-27 2011-12-07 アイシン・エィ・ダブリュ株式会社 Feature information collection device, feature information collection program, own vehicle position recognition device, and navigation device
US10534370B2 (en) 2014-04-04 2020-01-14 Signify Holding B.V. System and methods to support autonomous vehicles via environmental perception and sensor calibration and verification
JP2016110378A (en) 2014-12-05 2016-06-20 パナソニックIpマネジメント株式会社 Road monitoring system
JP2020027645A (en) 2018-08-08 2020-02-20 住友電気工業株式会社 Server, wireless communication method, computer program, and on-vehicle device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023079286A (en) * 2021-11-29 2023-06-08 三菱電機株式会社 Automatic driving system
JP2023079287A (en) * 2021-11-29 2023-06-08 三菱電機株式会社 Automatic driving system
JP7370369B2 (en) 2021-11-29 2023-10-27 三菱電機株式会社 automatic driving system
JP7370368B2 (en) 2021-11-29 2023-10-27 三菱電機株式会社 automatic driving system
JP7175373B1 (en) 2021-12-03 2022-11-18 三菱電機株式会社 Automated driving support system
JP2023082748A (en) * 2021-12-03 2023-06-15 三菱電機株式会社 Automatic drive assistance system

Also Published As

Publication number Publication date
JP7429862B2 (en) 2024-02-09

Similar Documents

Publication Publication Date Title
JP7429862B2 (en) lighting system
CN110832474B (en) Method for updating high-definition map
CN111292540B (en) Method, control device and system for determining specific state information
US20180224284A1 (en) Distributed autonomous mapping
US11162798B2 (en) Map updates based on data captured by an autonomous vehicle
KR102015533B1 (en) Apparatus for gathering surrounding of vehicle
US11200810B2 (en) Drone collision avoidance
CN111351492A (en) Method and system for autonomous vehicle navigation
US10523759B2 (en) Determining infrastructure lamp status using a vehicle
US10546488B2 (en) Management of mobile objects
KR20220106843A (en) Collaborative vehicle headlight orientation
WO2019017253A1 (en) Control device, control method, and program
CN113279463B (en) Information processing apparatus, information processing method, and system
RU2767219C2 (en) Information providing system and onboard device
GB2596669A (en) Moving body monitoring system, control server for moving body monitoring system, and moving body monitoring method
CN111583697A (en) Driving support system and server device
KR20220123238A (en) Collaborative vehicle headlight orientation
JP6230457B2 (en) Information processing apparatus, information processing method, and information processing program
JP2022107672A (en) Managed vehicle allocation system, managed vehicle allocation method, and program
CN114730185A (en) Display control device, display system, and display control method
JP7363734B2 (en) Traffic management system, traffic management method, and traffic management program
US11753057B2 (en) Systems and methods for signal lights of traffic gates
WO2019008755A1 (en) Information processing system, and information processing system infrastructure and information processing method used in same
JP6973294B2 (en) Vehicle search system and vehicle search method
CN115359671A (en) Intersection vehicle cooperative control method and related equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240116

R151 Written notification of patent or utility model registration

Ref document number: 7429862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151