KR102302132B1 - System and method for tracking lane object based on edge computing - Google Patents
System and method for tracking lane object based on edge computing Download PDFInfo
- Publication number
- KR102302132B1 KR102302132B1 KR1020210014702A KR20210014702A KR102302132B1 KR 102302132 B1 KR102302132 B1 KR 102302132B1 KR 1020210014702 A KR1020210014702 A KR 1020210014702A KR 20210014702 A KR20210014702 A KR 20210014702A KR 102302132 B1 KR102302132 B1 KR 102302132B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- road
- cloud
- edge cloud
- edge
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004891 communication Methods 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 description 16
- 230000001149 cognitive effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000001747 exhibiting effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/012—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from other sources than vehicle or roadside beacons, e.g. mobile networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0022—Gains, weighting coefficients or weighting functions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Transportation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Electromagnetism (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템 및 방법에 관한 것으로서, 보다 상세하게는 차량의 주변 장애물 오검출/미검출을 방지하여 차량과 주변 장애물간의 사고를 예방할 수 있도록 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템 및 방법에 관한 것이다. The present invention relates to an edge computing-based road-use object tracking system and method, and more particularly, an edge-computing-based road use object that prevents erroneous/non-detection of surrounding obstacles of the vehicle to prevent accidents between the vehicle and surrounding obstacles. It relates to a tracking system and method.
최근에는 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위하여 차량 상태, 운전자 상태 및 주변 환경에 대한 정보를 능동적으로 제공하는 첨단 운전자 지원 시스템(ADAS: Advanced Driver Assist System)이 탑재된 차량에 대한 연구가 활발히 진행되고 있다.Recently, research on vehicles equipped with an Advanced Driver Assist System (ADAS) that actively provides information on vehicle status, driver status, and surrounding environment in order to reduce the driver's burden and enhance convenience is being actively pursued.
특히, 차량에 탑재되는 첨단 운전자 지원 시스템의 일 예로, 전방 충돌 회피 시스템(FCA: Forward Collision Avoidance)이 있다. 구체적으로, 전방 충돌 회피 시스템은 차량 전방에 마련된 각종 센서(예를 들어, 카메라, 레이더 등)를 이용하여 일정 거리 이내의 있는 차량만을 감지하여 충돌을 예측할 수 있다.In particular, as an example of an advanced driver assistance system mounted on a vehicle, there is a Forward Collision Avoidance (FCA). Specifically, the forward collision avoidance system may predict a collision by detecting only a vehicle within a predetermined distance using various sensors (eg, a camera, a radar, etc.) provided in front of the vehicle.
한편, 충돌의 요인은 센서 인식 범위를 벗어난 곳에서도 야기될 수 있지만, 현재의 전방 충돌 회피 시스템은 차량에 가까운 외부 차량만을 센서로 감지하여 충돌을 예측하는 단편적인 수단을 채택하고 있는 바, 다중 추돌과 같은 돌발적인 상황을 고려하지 못하는 한계점이 있다. On the other hand, the factor of collision can be caused even outside the sensor recognition range, but the current forward collision avoidance system adopts a fragmentary means of predicting a collision by detecting only an external vehicle close to the vehicle with a sensor. There is a limitation in not taking into account sudden situations such as
또한, 차량에 구비된 센서들은 내/외적 이유로 인하여 주행에 영향을 주는 주변 장애물을 오검출 또는 미검출할 수 있다. 주변 장애물의 오검출은 급정지 등의 급격한 거동 변화를 야기할 수 있으며, 주변 장애물의 미검출은 차량 사고로 이어질 수 있다. In addition, sensors provided in the vehicle may erroneously or not detect a surrounding obstacle that affects driving due to internal/external reasons. Misdetection of a surrounding obstacle may cause a sudden change in behavior, such as a sudden stop, and non-detection of a surrounding obstacle may lead to a vehicle accident.
본 발명과 관련된 선행기술로는 대한민국공개특허 제10-2018-0126224호(2018.11.27. 공개)가 있다.As prior art related to the present invention, there is Republic of Korea Patent Publication No. 10-2018-0126224 (published on November 27, 2018).
본 발명은 상기와 같은 문제점들을 개선하기 위하여 안출된 것으로, 본 발명의 목적은 차량의 주변 장애물 오검출/미검출을 방지하여 차량과 주변 장애물간의 사고를 예방할 수 있도록 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템 및 방법을 제공하는 것이다. The present invention has been devised to improve the above problems, and an object of the present invention is to prevent an accident between the vehicle and the surrounding obstacles by preventing erroneous detection/non-detection of surrounding obstacles of the vehicle and tracking an object using an edge computing-based road. To provide a system and method.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and another problem(s) not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 측면에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템은, 복수의 엣지 클라우드, 및 각 엣지 클라우드의 부하량을 포함하는 메타데이터에 기초하여 각 엣지 클라우드의 구역을 배정하는 주 클라우드를 포함하되, 상기 엣지 클라우드는 상기 주 클라우드로부터 배정받은 구역 내 도로 사용 객체의 거동을 추적하고, 상기 추적된 도로 사용 객체의 거동 정보에 기초하여 각 서비스 사용 객체의 주변 장애물 정보를 검출하며, 각 서비스 사용 객체에게 해당 주변 장애물 정보를 제공할 수 있다. An edge computing-based road use object tracking system according to an aspect of the present invention includes a plurality of edge clouds, and a main cloud for allocating a zone of each edge cloud based on metadata including a load amount of each edge cloud, The edge cloud tracks the behavior of the road-using object in the area assigned from the main cloud, detects information about the surrounding obstacles of each service-using object based on the tracked behavior information of the road-using object, and provides each service using object. It is possible to provide information about the surrounding obstacles.
본 발명은 상기 도로 사용 객체 중 상기 엣지 클라우드와 통신이 가능한 적어도 하나의 서비스 사용 객체, 및 상기 도로 상에 설치된 적어도 하나의 인프라 장치를 더 포함하고, 상기 서비스 사용 객체는 자차 상태 정보 및 자차 주변 객체 정보를 포함하는 인지정보를 해당 구역의 엣지 클라우드로 전송하고, 상기 인프라 장치는 도로 인프라 정보를 해당 구역의 엣지 클라우드로 전송할 수 있다. The present invention further includes at least one service use object capable of communicating with the edge cloud among the road use objects, and at least one infrastructure device installed on the road, wherein the service use object includes own vehicle state information and an object surrounding the own vehicle The cognitive information including the information may be transmitted to the edge cloud of the corresponding area, and the infrastructure device may transmit the road infrastructure information to the edge cloud of the corresponding area.
본 발명에서 상기 엣지 클라우드는, 상기 구역을 주행하는 적어도 하나의 서비스 사용 객체로부터 인지정보를 수신하고, 상기 구역에 설치된 인프라 장치로부터 도로 인프라 정보를 수신하며, 상기 인지정보 및 상기 도로 인프라 정보에 기초하여 상기 구역 내 모든 도로 사용 객체의 거동 정보를 추적하고, 상기 도로 사용 객체의 거동 정보를 기초로 각 서비스 사용 객체에게 필요한 주변 장애물 정보를 검출할 수 있다. In the present invention, the edge cloud receives recognition information from at least one service use object traveling in the area, receives road infrastructure information from an infrastructure device installed in the area, and based on the recognition information and the road infrastructure information Thus, it is possible to track the behavior information of all road-using objects in the zone, and detect surrounding obstacle information required for each service-using object based on the behavior information of the road-using objects.
본 발명에서 상기 엣지 클라우드는, 각 서비스 사용 객체의 위치를 기준으로, 동일 차선 내 전/후방 최근접 도로 사용 객체, 좌/우 측면 차선 내 도로 사용 객체 중 기 설정된 일정거리(TBD) 내의 도로 사용 객체, 급격한 거동을 보이는 도로 사용 객체, 주행 경로/차선 상 정지 및 미확인 장애물, 주행 차로 측면 구간의 도로 사용 객체, 및 충돌 가능성을 가진 장애물 중 적어도 하나를 주변 장애물 정보로 검출할 수 있다. In the present invention, the edge cloud, based on the location of each service use object, uses a road within a preset predetermined distance (TBD) among front/rear nearest road use objects in the same lane and road use objects in left/right side lanes At least one of an object, a road-using object exhibiting abrupt behavior, a stationary and unconfirmed obstacle on a driving path/lane, a road-using object in a section on the side of the driving lane, and an obstacle having a potential for collision may be detected as surrounding obstacle information.
본 발명에서 상기 엣지 클라우드는, 상기 구역의 부하량, 서비스 사용 객체의 수 및 각 서비스 사용 객체의 인지정보, 도로정보, 돌방상황정보, 및 통신환경정보 중 적어도 하나를 포함하는 메타데이터를 상기 주 클라우드로 전송할 수 있다. In the present invention, the edge cloud stores metadata including at least one of load amount of the zone, the number of service use objects and recognition information of each service use object, road information, emergency situation information, and communication environment information to the main cloud. can be sent to
본 발명에서 상기 주 클라우드는, 상기 각 엣지 클라우드의 구역 내 부하량의 변화 추이를 예측하여 각 엣지 클라우드의 구역을 배정할 수 있다. In the present invention, the main cloud may allocate a zone for each edge cloud by predicting a change trend of a load amount within the zone of each edge cloud.
본 발명에서 상기 주 클라우드는, 현재(k) 엣지 클라우드의 부하량을 기준범위와 비교하고, 그 비교결과 기준범위 미만인 경우 다음(k+1) 엣지 클라우드의 부하량이 상기 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 크도록 확대하고, 기준범위 초과인 경우 다음(k+1) 엣지 클라우드의 부하량이 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 작도록 축소할 수 있다. In the present invention, the main cloud compares the load amount of the current (k) edge cloud with the reference range, and if the comparison result is less than the reference range, the next (k+1) edge cloud load is the load amount of the reference range. k+1) Expand the edge cloud area to be larger than the current (k) edge cloud area, and if it exceeds the standard range, the next (k+1) edge cloud load is ) The area of the edge cloud can be reduced to be smaller than the area of the current (k) edge cloud.
본 발명에서 상기 부하량은, 상기 엣지 클라우드 내 모든 서비스 사용 객체의 인지정보에 기초하여 산출된 값일 수 있다. In the present invention, the load amount may be a value calculated based on recognition information of all service use objects in the edge cloud.
본 발명에서 상기 부하량은, 상기 엣지 클라우드의 도로정보, 돌발상황정보, 및 통신환경정보 중 적어도 하나를 가중치 파라미터로 적용하여 산출된 값일 수 있다. In the present invention, the load amount may be a value calculated by applying at least one of road information, emergency situation information, and communication environment information of the edge cloud as a weight parameter.
본 발명의 다른 측면에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 방법은, 주 클라우드가 각 엣지 클라우드의 부하량을 포함하는 메타데이터에 기초하여 각 엣지 클라우드의 구역을 배정하는 단계, 및 상기 각 엣지 클라우드가 상기 주 클라우드로부터 배정받은 구역 내 도로 사용 객체의 거동을 추적하고, 상기 추적된 도로 사용 객체의 거동 정보에 기초하여 각 서비스 사용 객체의 주변 장애물 정보를 검출하며, 각 서비스 사용 객체에게 해당 주변 장애물 정보를 제공하는 단계를 포함한다. The edge computing-based road-use object tracking method according to another aspect of the present invention comprises the steps of: allocating, by a main cloud, a zone of each edge cloud based on metadata including a load amount of each edge cloud; Tracks the behavior of the road-using object in the area assigned from the main cloud, detects the surrounding obstacle information of each service-using object based on the tracked behavior information of the road-using object, and provides the corresponding surrounding obstacle information to each service-using object step of providing.
본 발명은 상기 각 서비스 사용 객체에게 해당 주변 장애물 정보를 제공하는 단계에서, 상기 각 엣지 클라우드는, 상기 구역을 주행하는 적어도 하나의 서비스 사용 객체로부터 인지정보를 수신하고, 상기 구역에 설치된 인프라 장치로부터 도로 인프라 정보를 수신하며, 상기 인지정보 및 상기 도로 인프라 정보에 기초하여 상기 구역 내 모든 도로 사용 객체의 거동 정보를 추적하고, 상기 도로 사용 객체의 거동 정보를 기초로 각 서비스 사용 객체에게 필요한 주변 장애물 정보를 검출할 수 있다. In the present invention, in the step of providing the corresponding surrounding obstacle information to each service use object, each edge cloud receives recognition information from at least one service use object traveling in the area, and receives the recognition information from the infrastructure device installed in the area. Receive road infrastructure information, track behavior information of all road use objects in the zone based on the recognition information and the road infrastructure information, and surrounding obstacles required for each service use object based on the behavior information of the road use objects information can be detected.
본 발명은 상기 각 서비스 사용 객체에게 해당 주변 장애물 정보를 제공하는 단계에서, 상기 엣지 클라우드는, 각 서비스 사용 객체의 위치를 기준으로, 동일 차선 내 전/후방 최근접 도로 사용 객체, 좌/우 측면 차선 내 도로 사용 객체 중 기 설정된 일정거리(TBD) 내의 도로 사용 객체, 급격한 거동을 보이는 도로 사용 객체, 주행 경로/차선 상 정지 및 미확인 장애물, 주행 차로 측면 구간의 도로 사용 객체, 및 충돌 가능성을 가진 장애물 중 적어도 하나를 주변 장애물 정보로 검출할 수 있다. In the present invention, in the step of providing the corresponding surrounding obstacle information to each service use object, the edge cloud, based on the location of each service use object, the front/rear nearest road use object in the same lane, left/right side Among the road-use objects within the lane, road-use objects within a preset certain distance (TBD), road-use objects that show abrupt behavior, stop and unidentified obstacles on the driving route/lane, road-use objects on the side of the driving lane, and potential collisions At least one of the obstacles may be detected as surrounding obstacle information.
본 발명은 상기 각 엣지 클라우드가, 상기 구역의 부하량, 서비스 사용 객체의 수 및 각 서비스 사용 객체의 인지정보, 도로정보, 돌방상황정보, 및 통신환경정보 중 적어도 하나를 포함하는 메타데이터를 상기 주 클라우드로 전송하는 단계를 더 포함할 수 있다. In the present invention, each edge cloud stores metadata including at least one of load amount of the zone, the number of service use objects and recognition information of each service use object, road information, emergency situation information, and communication environment information. It may further include the step of transmitting to the cloud.
본 발명은 상기 각 엣지 클라우드의 구역을 배정하는 단계에서, 상기 주 클라우드는, 상기 각 엣지 클라우드의 구역 내 부하량의 변화 추이를 예측하여 각 엣지 클라우드의 구역을 배정할 수 있다. In the present invention, in the step of allocating the zone of each edge cloud, the main cloud may allocate the zone of each edge cloud by predicting the change trend of the load amount within the zone of each edge cloud.
본 발명은 상기 각 엣지 클라우드의 구역을 배정하는 단계에서, 상기 주 클라우드는, 현재(k) 엣지 클라우드의 부하량을 기준범위와 비교하고, 그 비교결과 기준범위 미만인 경우 다음(k+1) 엣지 클라우드의 부하량이 상기 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 크도록 확대하고, 기준범위 초과인 경우 다음(k+1) 엣지 클라우드의 부하량이 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 작도록 축소할 수 있다. In the present invention, in the step of allocating the zone of each edge cloud, the main cloud compares the load amount of the current (k) edge cloud with the reference range, and if the comparison result is less than the reference range, the next (k+1) edge cloud Expand the area of the next (k+1) edge cloud to be larger than the area of the current (k) edge cloud so that the load of The area of the next (k+1) edge cloud may be reduced to be smaller than the area of the current (k) edge cloud so that the load in this reference range becomes.
본 발명에서 상기 부하량은, 상기 엣지 클라우드 내 모든 서비스 사용 객체의 인지정보에 기초하여 산출된 값일 수 있다. In the present invention, the load amount may be a value calculated based on recognition information of all service use objects in the edge cloud.
본 발명은 상기 부하량은, 상기 엣지 클라우드의 도로정보, 돌발상황정보, 및 통신환경정보 중 적어도 하나를 가중치 파라미터로 적용하여 산출된 값일 수 있다. In the present invention, the load may be a value calculated by applying at least one of road information, emergency situation information, and communication environment information of the edge cloud as a weight parameter.
본 발명의 일 실시예에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템 및 방법은, 차량의 주변 장애물 오검출/미검출을 방지함으로써, 차량과 주변 장애물간의 사고를 예방할 수 있도록 있다. The edge computing-based road-use object tracking system and method according to an embodiment of the present invention can prevent an accident between the vehicle and the surrounding obstacles by preventing erroneous detection/non-detection of surrounding obstacles of the vehicle.
한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다. On the other hand, the effects of the present invention are not limited to the above-mentioned effects, and various effects may be included within the range apparent to those skilled in the art from the contents to be described below.
도 1은 본 발명의 일 실시예에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 엣지 클라우드가 자차량 주변 장애물을 추적하는 방법을 설명하기 위한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 엣지 클라우드가 주변 장애물 정보를 검출하는 방법을 설명하기 위한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 엣지 클라우드가 서비스 사용 객체의 주변 장애물 정보를 검출하는 방법을 설명하기 위한 도면이다.1 is a diagram for explaining an edge computing-based road-use object tracking system according to an embodiment of the present invention.
2 is an exemplary diagram for explaining a method of an edge cloud tracking an obstacle around an own vehicle according to an embodiment of the present invention.
3 is an exemplary diagram for explaining a method of an edge cloud detecting surrounding obstacle information according to an embodiment of the present invention.
4 is a diagram for explaining a method for tracking a road-using object based on edge computing according to an embodiment of the present invention.
5 is a diagram for explaining a method of detecting, by an edge cloud, information about obstacles around a service use object according to an embodiment of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템 및 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, an edge computing-based road-use object tracking system and method according to an embodiment of the present invention will be described with reference to the accompanying drawings. In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of explanation.
또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.
또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Further, the implementations described herein may be implemented as, for example, a method or process, an apparatus, a software program, a data stream, or a signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the discussed features may also be implemented in other forms (eg, in an apparatus or a program). The apparatus may be implemented in suitable hardware, software and firmware, and the like. A method may be implemented in an apparatus such as, for example, a processor, which generally refers to a computer, a microprocessor, a processing device, including an integrated circuit or programmable logic device, or the like. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.
도 1은 본 발명의 일 실시예에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템을 설명하기 위한 도면, 도 2는 본 발명의 일 실시예에 따른 엣지 클라우드가 자차량 주변 장애물을 추적하는 방법을 설명하기 위한 예시도, 도 3은 본 발명의 일 실시예에 따른 엣지 클라우드가 주변 장애물 정보를 검출하는 방법을 설명하기 위한 예시도이다. 1 is a diagram for explaining an edge computing-based road use object tracking system according to an embodiment of the present invention, FIG. 2 is a diagram for explaining a method for an edge cloud according to an embodiment of the present invention to track obstacles around the own vehicle 3 is an exemplary diagram for explaining a method of detecting information about obstacles around an edge cloud according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템은 서비스 사용 객체(100), 인프라 장치(200), 복수의 엣지 클라우드(Edge cloud, 300) 및 주 클라우드(Main cloud, 400)를 포함할 수 있다. 1, the edge computing-based road use object tracking system according to an embodiment of the present invention is a
서비스 사용 객체(100)는 도로를 사용하는 도로 사용 객체 중 엣지 클라우드(300)와 통신이 가능한 객체를 의미할 수 있다. 여기서, 도로 사용 객체는 도로를 사용하는 모든 객체로, 예컨대, 차량, 자전거, 오토바이 및 보행자 등을 포함할 수 있다. 서비스 사용 객체(100)는 예컨대, 엣지 클라우드(300)와 통신이 가능한 차량일 수 있다. The service use
서비스 사용 객체(100)는 자차 상태 정보 및 자차 주변 객체 정보를 포함하는 자차 인지정보를 해당 구역의 엣지 클라우드(300)로 전송할 수 있고, 그 엣지 클라우드(300)로부터 주변 장애물 정보를 수신할 수 있다. 여기서, 주변 장애물 정보는 해당 서비스 사용 객체(100)에 영향을 주는 자차 주변의 모든 장애물을 포함할 수 있다.The service use
서비스 사용 객체(100)는 내외부에 장착된 다수의 센서들(이하 '센서부'라 칭함)로부터 자차 상태 정보 및 자차 주변 객체 정보를 수신하고, 그 자차 상태 정보 및 자차 주변 객체 정보를 포함하는 자차 인지정보를 엣지 클라우드(300)로 전송할 수 있다. 여기서, 센서부는 속도센서, 가속도센서, 충돌감지센서, 레이저 센서, 초음파 센서, 라이다(Lidar) 센서, 및 영상센서(카메라) 등을 포함할 수 있다.The
자차 인지정보는 서비스 사용 객체(100)에서 센싱 가능한 모든 종류(차량 상태, 성능, 고장 여부, 위치, 운행 정보, 주변 객체 등)의 데이터를 포함하고, 예를 들어, 블랙박스가 촬영한 차량의 전방 또는 후방 영상데이터, 속도 센서에 의한 속도데이터, 가속도 센서에 의한 가속도 데이터, 급감속 데이터, 충돌 감지 센서에 의한 충돌 감지 데이터, GPS에서 획득한 차량 위치정보, OBD(On-Board Diagnostics)에서 획득한 OBD 데이터, 레이저 송수신 데이터, 라이더에 의한 데이터 중 적어도 하나와, 차량의 식별 정보와 차량의 운행 경로 정보 또는 목적지 정보를 포함할 수 있다. Own vehicle recognition information includes data of all types (vehicle state, performance, failure status, location, operation information, surrounding objects, etc.) that can be sensed by the
또한, 서비스 사용 객체(100)는 센서부를 통해 주변의 객체(타차량, 보행자 등)를 감지할 수 있다. 이때, 센서부는 서비스 사용 객체(100)를 기준으로 기설정된 소정 거리 이내에서 주행 중인 타차량을 감지할 수 있다. 예컨대, 센서부는 차량의 주행 차선에서 주행 중인 전/후방 차량과 옆 차선에서주행중인 타차량을 감지할 수 있다. In addition, the service use
또한, 서비스 사용 객체(100)는 센서부를 이용하여 주행 차선 및 주변 차선에 대한 객체(장애물, 타차량, 및 보행자 등)을 인식하고, 이를 V2V 통신 또는 V2I 통신을 이용하여 주변 객체 정보를 실시간 송/수신하여 도로 상황에 대한 정보를 공유할 수 있다.In addition, the
한편, 서비스 사용 객체(100)는 내/외적 이유로 인하여 주행에 영향을 줄 수 있는 주변 장애물을 오검출/미검출할 수 있다. 주변 장애물의 오검출은 상황에 맞지 않는 급정지 등의 급격한 거동 변화를 야기할 수 있으며, 주변 장애물의 미검출은 차량 사고로 이어질 수 있다. 이러한 주변 장애물의 오검출/미검출을 방지하기 위해, 서비스 사용 객체(100)는 자차 인지정보를 엣지 클라우드(300)로 전송하고, 엣지 클라우드(300)로부터 서비스 사용 객체(100)에 영향을 끼칠 수 있는 모든 주변 장애물에 대한 정보를 수신할 수 있다. 서비스 사용 객체(100)는 엣지 클라우드(300)로부터 수신한 자차 주변 장애물 정보를 운전자가 인식 가능하도록 외부로 표출하며, 이로써, 운전자는 운행 경로 중 주변 장애물의 위치를 인식하고 안전 운행에 집중할 수 있다.Meanwhile, the
인프라 장치(200)는 도로 상에 설치되어, 도로 인프라 정보를 해당 구역의 엣지 클라우드(300)로 전송할 수 있다. The
인프라 장치(200)는 도로 정보를 차량에 제공하는 RSU(Road Side Unit) 뿐 아니라 장애물 탐지기, 보행자 검출기, 안개 검출기, 및 교통류 측정기 등 개별적으로 구역 내 교통류 현황을 파악할 수 있는 장치를 포함할 수 있다. 또한, 인프라 장치(200)는 도로를 운행 중인 차량의 사고 이력, 도로 구간별 사고 이력, 운전자별 사고이력 등 각종 사고이력(사고유형-사고시나리오, 사고발생요인 포함)에 대한 정보를 제공하는 사고이력정보제공시스템, 날씨정보(강우, 강설, 연무의 정도, 시야거리 등)를 제공하는 날씨정보제공시스템, 교통상황정보를 제공하는 시스템, 도로정보(사고 빈발 구간, 낙석 주의 구간, 학교 주변 구간, 도로 환경 급변화 구간 등)을 제공하는 시스템, 도로 또는 도로 주변의 공사나 사고 상황 등을 제공하는 시스템 등 다양한 관리 주체가 운영하는 정보제공시스템이 될 수 있으며, 또한 위에 예시된 시스템에 한정되지 않고 안전하고 효율적인 주행을 위해 필요한 정보(이하 본 명세서에서 도로 인프라 정보라고 총칭함)를 제공하는 외부의 정보제공시스템을 모두 포괄할 수 있다. The
주 클라우드(400)는 엣지 컴퓨팅 기반 도로 사용 객체 추적 서비스를 총괄하는 클라우드로, 엣지 클라우드(300)들을 관리하기 위한 데이터센터 또는 서버 등으로 이해될 수 있다. The
주 클라우드(400)는 서비스 제공 지역 곳곳에 설치되어 있는 엣지 클라우드(300)의 상태 및 활성화 여부를 결정하고, 각 엣지 클라우드(300)의 부하량을 포함하는 메타 데이터에 기초하여 각 엣지 클라우드(300)의 구역을 배정할 수 있다. 여기서, 메타 데이터는 해당 구역의 부하량, 서비스 사용 객체(100)의 인지정보, 도로정보, 돌발상황정보, 및 통신환경정보 중 적어도 하나를 포함할 수 있다. 엣지 클라우드(300)의 구역은 해당 엣지 클라우드(300)가 실시간으로 장애물을 추적해야 할 구역을 의미할 수 있다.The
주 클라우드(400)는 엣지 클라우드(300)의 구역 내 부하량, 각 서비스 사용 객체(100)의 인지정보, 도로정보, 돌발상황정보, 통신환경정보, 및 이전 엣지 클라우드 구역간의 연속성 중 적어도 하나를 고려하여 엣지 클라우드(300)가 장애물을 추적해야 할 구역을 실시간으로 배정할 수 있다. 여기서, 도로정보는 분기로, 합류로, 병목구간, 교차로, 급격한 내리막길, 급격한 곡선로, 사고 빈발 구간, 낙석 주의 구간, 학교 주변 구간, 및 도로 환경 급변화 구간 등을 포함할 수 있다. 돌발상황정보는 사고, 급정지, 공사 구간, 및 블랙 아이스 등을 포함할 수 있다.The
이하, 주 클라우드(400)가 엣지 클라우드(300)의 구역을 배정하는 방법에 대해 구체적으로 설명하기로 한다.Hereinafter, a method in which the
주 클라우드(400)는 엣지 클라우드(300) 내 부하량을 기준으로 구역을 배정할 수 있다. 여기서, 부하량은 엣지 클라우드(300) 내 모든 서비스 사용 객체(100)의 인지정보에 기초하여 산출된 값일 수 있다. 이때, 부하량은 엣지 클라우드(300) 내 도로정보, 돌발상황정보, 및 통신환경정보 등을 가중치 파라미터로 적용하여 산출될 수 있다. The
엣지 클라우드(300)에서 처리(연산)해야 할 구역 내 부하량(연산량)은 서비스 사용 객체(100)의 수에 비례하여 늘어날 수 있다. 이에, 주 클라우드(400)는 엣지 클라우드(300) 내 모든 서비스 사용 객체(100)의 인지정보에 기초하여 부하량을 산출할 수 있다. 즉, 주 클라우드(400)는 엣지 클라우드(300) 내에 위치하는 서비스 사용 객체들의 인지정보(인지정보의 크기)의 합에 기초하여 부하량을 산출할 수 있다. The amount of load (computation amount) within the region to be processed (calculated) in the
예를 들어, 제1 엣지 클라우드(300a)의 구역에 3명의 사람과 5대의 차량이 도로 사용 객체로 위치하고, 5대의 차량중 3대의 차량(제1 차량, 제2 차량 및 제3 차량)이 제1 엣지 클라우드(300a)와 통신이 가능한 서비스 사용 객체(100)인 경우에 대해 설명하기로 한다. 이때, 서비스 사용 객체(100) 중 제1 차량은 레이더 센서를 통해 인지된 최대 64개의 제1 차량 인지정보를 제1 엣지 클라우드(300a)로 전송하고, 제2 차량은 영상 센서를 통해 인지된 최대 8개의 제2 차량 인지정보를 제1 엣지 클라우드(300a)로 전송하며, 제3 차량은 라이다 센서를 통해 인지된 최대 12개의 제3 차량 인지정보를 제1 엣지 클라우드(300a)로 전송하였다고 가정하여 설명하기로 한다. 이 경우, 주 클라우드(400)는 제1 차량의 인지정보(64), 제2 차량 인지정보(8), 및 제3차량 인지정보(12)를 합하여 제1 엣지 클라우드(300a)의 부하량을 84(=64 + 8 + 12)로 산출할 수 있다.For example, 3 people and 5 vehicles are located as road use objects in the area of the
만약, 제1 엣지 클라우드(300a)에서 한 차량당 8개의 정보를 전송하도록 설정되어 있다면, 제1 차량, 제2 차량 및 제3 차량은 각각 8개의 인지정보를 제1 엣지 클라우드(300a)로 전송할 수 있다. 이 경우, 주 클라우드(400)는 제1 차량의 인지정보(8), 제2 차량 인지정보(8), 및 제3차량 인지정보(8)를 합하여 제1 엣지 클라우드(300a)의 부하량을 18(=8 + 8 + 8)로 산출할 수 있다.If the
또한, 주 클라우드(400)는 부하량 산출 시 엣지 클라우드(300)의 도로정보, 돌발상황정보, 및 통신환경정보 등을 가중치 파라미터로 적용할 수 있다. 예를 들어, 급격한 내리막길, 급격한 곡선로, 및 낙석 구간 등의 지리 형태로 인한 사고 다발 지역을 포함하는 엣지 클라우드(300)의 경우, 주 클라우드(400)는 해당 엣지 클라우드(300)의 구역을 일정 크기 이상 확대시키지 않도록 도로정보에 대한 가중치로 적용하여 부하량을 산출할 수 있다. 또한, 돌발상황정보가 발생한 엣지 클라우드(300)의 경우, 주 클라우드(400)는 해당 엣지 클라우드(300)의 구역을 일정 크기 이상 확대시키지 않도록 돌발상황정보에 대한 가중치를 적용하여 부하량을 산출할 수 있다. 또한, 통신 장애, 및 통신 지연 등이 발생 가능한 지역을 포함하는 엣지 클라우드(300)의 경우, 주 클라우드(400) 해당 엣지 클라우드(300)의 구역을 일정 크기 이상 확대시키지 않도록 통신환경정보에 대한 가중치를 적용하여 부하량을 산출할 수 있다.In addition, the
한편, 본 발명의 실시예에서는 주 클라우드(400)가 각 엣지 클라우드(300)의 부하량을 각각 산출하는 것으로 설명하였으나, 각 엣지 클라우드(300)가 부하량을 산출하여 주 클라우드(400)로 전송할 수도 있다.Meanwhile, in the embodiment of the present invention, it has been described that the
주 클라우드(400)는 엣지 클라우드(300)의 구역 내 부하량의 변화 추이를 예측하여 각 엣지 클라우드(300)의 구역을 최적화할 수 있다. 예를 들어, 현재(k) 엣지 클라우드의 부하량이 증가하면, 다음(k+1) 엣지 클라우드의 부하량 증가가 예상되므로, 주 클라우드(400)는 다음(k+1) 엣지 클라우드의 구역을 축소시킬 수 있다.The
구체적으로, 주 클라우드(400)는 현재(k) 엣지 클라우드의 부하량을 기준범위와 비교하고, 그 비교결과 기준범위 미만인 경우 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 크도록 확대하고, 기준범위 초과인 경우 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 작도록 축소할 수 있다.Specifically, the
즉, 현재(k) 엣지 클라우드의 부하량이 기준범위 미만이면 다음(k+1) 엣지 클라우드의 부하량 감소가 예상되므로, 주 클라우드(400)는 다음(k+1) 엣지 클라우드의 부하량이 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 조정할 수 있다. 이때, 주 클라우드(400)는 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 크도록 확대할 수 있다. 또한, 현재(k) 엣지 클라우드의 부하량이 기준범위를 초과하면, 다음(k+1) 엣지 클라우드의 부하량 증가가 예상되므로, 주 클라우드(400)는 다음(k+1) 엣지 클라우드의 부하량이 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 조정할 수 있다. 이때, 주 클라우드(400)는 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 작도록 축소할 수 있다.That is, if the load of the current (k) edge cloud is less than the reference range, the load of the next (k+1) edge cloud is expected to decrease. You can adjust the area of the next (k+1) edge cloud to be the load. In this case, the
예를 들어, 제1 엣지 클라우드(300a)에 서비스 사용 객체(100)가 4개, 제2 엣지 클라우드(300b)에 서비스 사용 객체(100)가 12개, 제3 엣지 클라우드(300c)에 서비스 사용 객체(300)가 3개 위치한다고 가정하여 설명하기로 한다. 이 경우, 제2 엣지 클라우드(300b)의 부하량은 제1 엣지 클라우드(300a)의 부하량에 대응하여 감소할 것이므로, 주 클라우드(400)는 제2 엣지 클라우드(300b)의 구역을 B와 같이 축소시킬 수 있다. 제3 엣지 클라우드(300c)의 부하량은 제2 엣지 클라우드(300b)의 부하량에 대응하여 증가할 것이므로, 주 클라우드(400)는 제3 엣지 클라우드(300c)의 구역을 C와 같이 확대시킬 수 있다. For example, there are 4 service use objects 100 in the
또한, 주 클라우드(400)는 엣지 클라우드(300) 내 부하량을 최적 상태, 양호 상태, 및 과부하 상태의 3단계로 나누어 엣지 클라우드(300)의 구역을 배정할 수 있다. 최적 상태는 엣지 클라우드(300)의 부하량(연산능력, 연산량)에 여유가 있는 상태를 의미할 수 있고, 양호 상태는 엣지 클라우드(300)의 부하량(연산능력, 연산량)이 적정 수준을 유지하는 상태를 의미할 수 있으며, 과부하 상태는 엣지 클라우드(300)의 부하량(연산능력, 연산량)이 한계 혹은 적정 이상의 연산을 수행하고 있는 상태를 의미할 수 있다. In addition, the
최적 상태의 엣지 클라우드(300)의 경우, 주 클라우드(400)는 해당 엣지 클라우드(300)의 연산 구역을 충분히 넓혀 엣지 클라우드(300)간 구역이 중첩되도록 할 수 있다. 이를 통해 주 클라우드(400)는 서비스의 연속성 및 고장 시에 대비한 중복 설계를 확보할 수 있다. 양호 상태의 엣지 클라우드(300)의 경우, 주 클라우드(400)는 해당 엣지 클라우드(300)의 구역을 유지하거나 좁힘으로써 엣지 클라우드(300)의 부하량이 최적 단계가 되도록 조정할 수 있다. 또한, 과부하 상태의 엣지 클라우드(300)의 경우, 주 클라우드(400)는 해당 엣지 클라우드(300)의 연산 구역을 축소시키거나 최소화할 수 있다. 필요 시, 주 클라우드(400)는 클라우드 서비스의 Auto scaling 기능을 활용하여 해당 엣지 클라우드(300)의 충분한 리소스를 추가 배정할 수 있다.In the case of the
주 클라우드(400)는 엣지 클라우드(300)의 상태가 최적 상태에서 양호 상태, 양호 상태에서 과부하 상태로 되기 전에 여러 도로 환경 및 요소들에 의하여 선제적으로 엣지 클라우드(300)의 연산 구역을 축소 또는 확대시킬 수 있다.The
주 클라우드(400)와 엣지 클라우드(300)는 인터넷 또는 전용선을 통해 연결될 수 있다. 주 클라우드(400)는 도로 사용 객체 추적 시스템 운영자의 요구에 응답하여 하나 이상의 엣지 클라우드(300)에 포함된 클라우드 자원들을 이용하여 멀티테넌시 서비스를 제공할 수 있다. 인터넷 또는 전용선을 통한 엣지 클라우드(300) 간 통신은 VPN(Virtual Private Network)을 통해 제공될 수 있다.The
엣지 클라우드(300)는 주 클라우드(400)로부터 배정받은 구역 내 도로 사용 객체의 거동을 추적하고, 추적된 도로 사용 객체의 거동 정보에 기초하여 각 서비스 사용 객체(100)의 주변 장애물 정보를 검출하며, 각 서비스 사용 객체(100)에게 해당 주변 장애물 정보를 제공할 수 있다.The
엣지 클라우드(300)는 배정받은 구역을 주행하는 적어도 하나의 서비스 사용 객체(100)로부터 인지정보를 수신하고, 그 구역에 설치된 인프라 장치(200)로부터 도로 인프라 정보를 수신하며, 서비스 사용 객체(100)의 인지정보 및 도로 인프라 정보에 기초하여 해당 구역 내 모든 도로 사용 객체의 거동 정보를 추적할 수 있다. 여기서, 도로 사용 객체의 거동 정보는 도로 사용 객체의 주행 방향, 주행 차선, 속도, 차량의 현재 상태, 및 차선 변경 의지 등을 포함할 수 있다. The
엣지 클라우드(300)는 도로 사용 객체의 거동 정보를 기초로 각 서비스 사용 객체(100)에게 필요한 주변 장애물 정보를 검출할 수 있다. 이때, 엣지 클라우드(300)는 각 서비스 사용 객체(100)의 위치를 기준으로 동일 차선 내 전/후방 최근접 도로 사용 객체, 좌/우 측면 차선 내 도로 사용 객체 중 기 설정된 일정거리(TBD) 내의 도로 사용 객체, 급격한 거동을 보이는 도로 사용 객체, 주행 경로/차선 상 정지 및 미확인 장애물, 주행 차로 측면 구간의 도로 사용 객체, 및 충돌 가능성을 가진 장애물 중 적어도 하나를 주변 장애물 정보로 검출할 수 있다. The
엣지 클라우드(300)는 추적한 도로 사용 객체의 거동 정보 중 해당 서비스 사용 객체(100)의 주행에 영향을 줄 수 있는 도로 사용 객체만을 분류하여 해당 서비스 사용 객체(100)에게 제공할 수 있다. The
자율주행 및 자가 운전을 수행하는데 있어, 도로 내 모든 도로 사용 객체의 운행 정보를 확인할 필요는 없으며, 차량이 받을 수 있는 데이터의 양에도 한계가 있다. 이에 따라 엣지 클라우드(300)는 도로 내 서비스 사용 객체(100)의 위치를 확인하여 필요한 주변 장애물 정보만을 추려서 제공할 수 있다. 이때, 제공하는 주변 장애물 정보의 기준은 동일 차선 내 전/후방 최근접 도로 사용 객체, 좌/우 측면 차선 내 차량 중 TBD(To Be Defined)[m] 거리 내 도로 사용 객체, 급격한 거동을 보이는 도로 사용 객체, 주행 경로/차선 상 정지 및 미확인 장애물, 주행 차로 측면 구간의 도로 사용 객체(보행자, 자전거, 이륜차 등), 방향과 상관없이 충돌 가능성을 가진 장애물(TTC(Time To Collision) < TBD(To Be Defined)[s]) 등을 포함할 수 있다. In performing autonomous driving and self-driving, it is not necessary to check the driving information of all road-using objects on the road, and there is a limit to the amount of data that a vehicle can receive. Accordingly, the
엣지 클라우드(300)가 주변 장애물 정보를 제공하는 방법에 대해 도 2를 참조하여 설명하기로 한다. A method for the
도 2를 참조하면, 자차량(110)은 (a)와 같이 자차량 인지정보(D영역에 위치하는 제1 차량(120) 및 제2 차량(130))를 엣지 클라우드(300)로 전송할 수 있다. 자차량(110)의 주변에 위치하는 제3 차량(140)은 (b)와 같이 인지정보(E영역에 위치하는 제2 차량(130) 및 보행자(10))를 엣지 클라우드(300)로 전송할 수 있다. 인프라 장치(200)는 (c) 및 (d)와 같이 장애물 정보(F영역)를 포함하는 도로 인프라 정보를 엣지 클라우드(300)로 전송할 수 있다. 본 실시예에서는 주변 차량 인지정보로 제3 차량 인지정보만을 도시하였으나, 주변 차량 인지정보는 해당 구역에 위치하는 차량중에서 엣지 클라우드(300)와 통신이 가능한 모든 차량들의 인지정보를 포함할 수 있다. Referring to FIG. 2 , the
엣지 클라우드(300)는 자차량 인지정보, 주변 차량 인지정보 및 도로 인프라 정보에 기초하여 엣지 클라우드(300)와 통신이 가능한 차량(자차량(110) 및 제3 차량(140))은 물론, 엣지 클라우드(300)와 통신이 불가능한 도로 사용 객체(제1 차량(120, 제2 차량(130), 보행자(10))의 거동 정보를 추적할 수 있다. 그런 후, 엣지 클라우드(300)는 도로 사용 객체의 거동 정보를 조합하여 자차량(110)에 필요한 주변 장애물 정보(제1 차량(120), 제2 차량(130), 및 제4 차량(150))를 (e)와 같이 자차량(110)에 제공할 수 있다. (a)에서 자차량(110)은 제1 차량(120) 및 제2 차량(130)을 주변 장애물로 인식하였으나, (e)에서 자차량(110)은 엣지 클라우드(300)로부터 제1 차량(120), 제2 차량(130), 및 제4 차량(150)을 주변 장애물 정보로 수신하였다. 자차량(110)은 제4 차량(150)을 검출하지 못하였으나, 엣지 클라우드(300)로부터 자차량(110) 주변의 모든 장애물 정보(제1 차량(120), 제2 차량(130), 및 제4 차량(150))를 수신하였으므로, 주변 장애물의 미검출/오검출을 방지할 수 있다. The
엣지 클라우드(300)가 주변 장애물 정보를 검출하는 방법에 대해 도 3을 참조하면, (a)와 같이 자차량(110)이 도로 중간 차선을 주행하는 경우, 엣지 클라우드(300)는 자차선 및 좌/우 차선의 전후방 영역 내 도로 사용 객체들을 주변 장애물 정보로 제공할 수 있다. (b)와 같이 자차량(110)이 1차로를 주행하는 경우, 엣지 클라우드(300)는 자차선 및 우측 2차로 도로 사용 객체를 주변 장애물 정보로 제공할 수 있다. 이때, 반대편 차선에서 급격한 거동을 보이는 주변 차량이 있는 경우, 엣지 클라우드(300)는 그 주변 차량을 주변 장애물 정보로 제공할 수 있다. (c)와 같이 자차량(110)이 1차로를 주행하고, 반대 차선과는 도로 경계석으로 막힌 경우, 엣지 클라우드(300)는 자차선 및 우측 2차로의 도로 사용 객체를 주변 장애물 정보로 제공할 수 있다. Referring to FIG. 3 for a method of the
본 발명의 다른 실시예에 따르면, 엣지 클라우드(300)는 도로 사용 객체의 거동정보를 다음 엣지 클라우드로 전송할 수 있고, 다음 엣지 클라우드는 이전 엣지 클라우드로부터 수신한 도로 사용 객체의 거동정보에 기초하여 각 서비스 사용 객체(100)의 주변 장애물 정보를 검출하며, 각 서비스 사용 객체(100)에게 해당 주변 장애물 정보를 제공할 수 있다. 예를 들면, 제1 엣지 클라우드(300a)는 도로 사용 객체의 거동정보를 제2 엣지 클라우드(300b)로 전송할 수 있고, 제2 엣지클라우드(300b)는 도로 사용 객체의 거동정보를 제3 엣지 클라우드(300c)로 전송할 수 있다. 그러면, 제2 엣지 클라우드(300b)는 제1 엣지 클라우드(300a)로부터 수신한 도로 사용 객체의 거동정보에 기초하여 제2 엣지 클라우드(300a)의 구역에 위치하는 각 서비스 사용 객체(100)의 주변 장애물 정보를 검출하여 제공할 수 있다. 제3 엣지 클라우드(300c)는 제2 엣지 클라우드(300b)로부터 수신한 도로 사용 객체의 거동정보에 기초하여 제3 엣지 클라우드(300c)의 구역에 위치하는 각 서비스 사용 객체(100)의 주변 장애물 정보를 검출하여 제공할 수 있다.According to another embodiment of the present invention, the
한편, 도 1에서는 3개의 엣지 클라우드(300a, 300b, 300c)만을 도시하였으나, 엣지 클라우드(300)는 복수개일 수 있다. Meanwhile, although only three
도 4는 본 발명의 일 실시예에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 방법을 설명하기 위한 도면이다. 4 is a diagram for explaining a method for tracking a road-using object based on edge computing according to an embodiment of the present invention.
도 4를 참조하면, 엣지 클라우드(300)는 자신이 관리하는 구역의 메타데이터를 주 클라우드(400)로 전송한다(S410). 여기서, 메타데이터는 부하량, 서비스 사용 객체(100)의 인지정보, 도로정보, 돌방상황정보, 및 통신환경정보 중 적어도 하나를 포함할 수 있다. Referring to FIG. 4 , the
S410 단계가 수행되면, 주 클라우드(400)는 엣지 클라우드(300)의 부하량을 포함하는 메타데이터에 기초하여 엣지 클라우드(300)의 구역을 배정하고(S420), 구역 배정 정보를 엣지 클라우드(300)로 전송한다(S430). 이때, 주 클라우드(400)는 엣지 클라우드(300)의 구역 내 부하량, 각 서비스 사용 객체(100)의 인지정보, 도로정보, 돌발상황정보, 통신환경정보, 및 이전 엣지 클라우드 구역간의 연속성 중 적어도 하나를 고려하여 엣지 클라우드(300)가 장애물을 추적해야 할 구역을 실시간으로 배정할 수 있다. When step S410 is performed, the
S430 단계가 수행되면, 엣지 클라우드(300)는 배정받은 구역 내 도로 사용 객체의 거동 정보를 추적하여 각 서비스 사용 객체(100)의 주변 장애물 정보를 검출하고, 검출된 주변 장애물 정보를 해당 서비스 사용 객체(100)에게 제공한다(S440).When step S430 is performed, the
엣지 클라우드(300)가 주변 장애물 정보를 검출하는 방법에 대해서는 도 5를 참조하기로 한다. A method for the
도 5는 본 발명의 일 실시예에 따른 엣지 클라우드가 서비스 사용 객체의 주변 장애물 정보를 검출하는 방법을 설명하기 위한 도면이다. 5 is a diagram for explaining a method for an edge cloud to detect information about obstacles around a service use object according to an embodiment of the present invention.
도 5를 참조하면, 엣지 클라우드(300)의 구역에 위치하는 제1 차량(120), 제2 차량(130) 및 제3 차량(140)은 각각 자신의 인지정보를 엣지 클라우드로(300)로 전송하고(S510), 그 구역의 제1 인프라 장치(200a) 및 제2 인프라 장치(200b)는 도로 인프라 정보를 엣지 클라우드로(300)로 전송한다(S520). 여기서, 인지정보는 자차 상태 정보 및 자차 주변 객체 정보를 포함할 수 있다. Referring to FIG. 5 , the
S520 단계가 수행되면, 엣지 클라우드(300)는 인지정보 및 도로 인프라 정보에 기초하여 해당 구역 내 모든 도로 사용 객체의 거동 정보를 추적한다(S530). 여기서, 도로 사용 객체의 거동 정보는 도로 사용 객체의 주행 방향, 주행 차선, 속도, 차량의 현재 상태, 및 차선 변경 의지 등을 포함할 수 있다. When step S520 is performed, the
S530 단계가 수행되면, 엣지 클라우드(300)는 도로 사용 객체의 거동 정보를 기초로 제1 차량(120), 제2 차량(130) 및 제3 차량(140) 각각에게 필요한 주변 장애물 정보를 검출한다(S540). 이때, 엣지 클라우드(300)는 각 차량의 위치를 기준으로 동일 차선 내 전/후방 최근접 도로 사용 객체, 좌/우 측면 차선 내 도로 사용 객체 중 기 설정된 일정거리(TBD) 내의 도로 사용 객체, 급격한 거동을 보이는 도로 사용 객체, 주행 경로/차선 상 정지 및 미확인 장애물, 주행 차로 측면 구간의 도로 사용 객체, 및 충돌 가능성을 가진 장애물 중 적어도 하나를 주변 장애물 정보로 검출할 수 있다. When step S530 is performed, the
S540 단계가 수행되면, 엣지 클라우드(300)는 주변 장애물 정보가 검출된 제1 차량(120), 제2 차량(130) 및 제3 차량(140)에게 각각 주변 장애물 정보를 전송한다(S550).When step S540 is performed, the
상술한 바와 같이, 본 발명의 일 실시예에 따른 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템 및 방법은, 차량의 주변 장애물 오검출/미검출을 방지함으로써, 차량과 주변 장애물간의 사고를 예방할 수 있도록 있다. As described above, the edge computing-based road-use object tracking system and method according to an embodiment of the present invention can prevent an accident between the vehicle and the surrounding obstacles by preventing erroneous detection/non-detection of surrounding obstacles of the vehicle.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, this is merely an example, and it is understood that various modifications and equivalent other embodiments are possible by those of ordinary skill in the art. will understand
따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.Therefore, the true technical protection scope of the present invention should be defined by the following claims.
100 : 서비스 사용 객체
200 : 인프라 장치
300 : 엣지 클라우드
400 : 주 클라우드100 : service usage object
200: infrastructure device
300: edge cloud
400 : main cloud
Claims (17)
각 엣지 클라우드의 부하량을 포함하는 메타데이터에 기초하여 각 엣지 클라우드의 구역을 배정하는 주 클라우드;를 포함하되,
상기 엣지 클라우드는,
상기 주 클라우드로부터 배정받은 구역 내 도로 사용 객체의 거동을 추적하고, 상기 추적된 도로 사용 객체의 거동 정보에 기초하여 각 서비스 사용 객체의 주변 장애물 정보를 검출하며, 각 서비스 사용 객체에게 해당 주변 장애물 정보를 제공하고,
상기 주 클라우드는,
상기 각 엣지 클라우드의 구역 내 부하량의 변화 추이를 예측하여 각 엣지 클라우드의 구역을 배정하고,
상기 주 클라우드는, 상기 엣지 클라우드 내 모든 서비스 사용 객체의 인지정보에 기초하여 상기 부하량을 산출하며,
상기 주 클라우드는, 상기 부하량 산출 시, 상기 엣지 클라우드의 도로정보, 돌발상황정보, 및 통신환경정보 중 적어도 하나를 가중치 파라미터로 적용하되,
통신 장애, 및 통신 지연 중 적어도 하나가 발생 가능한 지역을 포함하는 엣지 클라우드의 경우, 상기 주 클라우드는 해당 엣지 클라우드의 구역을 기 설정된 일정 크기 이상 확대시키지 않도록 상기 통신환경정보에 대한 가중치를 적용하여 상기 부하량을 산출하고,
상기 주 클라우드는,
현재(k) 엣지 클라우드의 부하량을 기준범위와 비교하고, 그 비교결과 기준범위 미만인 경우 다음(k+1) 엣지 클라우드의 부하량이 상기 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 크도록 확대하고, 기준범위 초과인 경우 다음(k+1) 엣지 클라우드의 부하량이 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 작도록 축소하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템.
multiple edge clouds; and
A main cloud that allocates a zone for each edge cloud based on metadata including the load amount of each edge cloud;
The edge cloud is
Tracking the behavior of the road-using object in the area assigned from the main cloud, detecting surrounding obstacle information of each service-using object based on the tracked behavior information of the road-using object, and providing each service using object with the corresponding surrounding obstacle information to provide,
The main cloud is
Predicting the change trend of the load amount within the area of each edge cloud and allocating the area of each edge cloud,
The main cloud calculates the load amount based on the recognition information of all service use objects in the edge cloud,
The main cloud applies at least one of road information, emergency situation information, and communication environment information of the edge cloud as a weight parameter when calculating the load amount,
In the case of an edge cloud including an area in which at least one of communication failure and communication delay may occur, the main cloud applies a weight to the communication environment information so as not to enlarge the area of the corresponding edge cloud more than a predetermined size. Calculate the load,
The main cloud is
Compare the load of the current (k) edge cloud with the reference range, and if the comparison result is less than the reference range, the area of the next (k+1) edge cloud so that the load of the next (k+1) edge cloud becomes the load in the reference range is larger than the area of the current (k) edge cloud, and if it exceeds the reference range, the area of the next (k+1) edge cloud is expanded so that the load of the next (k+1) edge cloud is the load of the reference range k) Edge computing-based road-use object tracking system, characterized in that it is reduced to be smaller than the area of the edge cloud.
상기 도로 사용 객체 중 상기 엣지 클라우드와 통신이 가능한 적어도 하나의 서비스 사용 객체; 및
상기 도로 상에 설치된 적어도 하나의 인프라 장치를 더 포함하고,
상기 서비스 사용 객체는 자차 상태 정보 및 자차 주변 객체 정보를 포함하는 인지정보를 해당 구역의 엣지 클라우드로 전송하고,
상기 인프라 장치는 도로 인프라 정보를 해당 구역의 엣지 클라우드로 전송하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템.
According to claim 1,
at least one service use object capable of communicating with the edge cloud among the road use objects; and
Further comprising at least one infrastructure device installed on the road,
The service use object transmits recognition information including own vehicle state information and object information around the own vehicle to the edge cloud of the corresponding area,
The infrastructure device is an edge computing-based road use object tracking system, characterized in that it transmits road infrastructure information to the edge cloud of the corresponding area.
상기 엣지 클라우드는,
상기 구역을 주행하는 적어도 하나의 서비스 사용 객체로부터 인지정보를 수신하고, 상기 구역에 설치된 인프라 장치로부터 도로 인프라 정보를 수신하며, 상기 인지정보 및 상기 도로 인프라 정보에 기초하여 상기 구역 내 모든 도로 사용 객체의 거동 정보를 추적하고, 상기 도로 사용 객체의 거동 정보를 기초로 각 서비스 사용 객체에게 필요한 주변 장애물 정보를 검출하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템.
According to claim 1,
The edge cloud is
Receive recognition information from at least one service use object traveling in the zone, receive road infrastructure information from an infrastructure device installed in the zone, and all road use objects in the zone based on the recognition information and the road infrastructure information Edge computing-based road-use object tracking system, characterized in that it tracks the behavior information of the road-use object and detects information about the surrounding obstacles required for each service-use object based on the behavior information of the road-use object.
상기 엣지 클라우드는,
각 서비스 사용 객체의 위치를 기준으로, 동일 차선 내 전/후방 최근접 도로 사용 객체, 좌/우 측면 차선 내 도로 사용 객체 중 기 설정된 일정거리(TBD) 내의 도로 사용 객체, 급격한 거동을 보이는 도로 사용 객체, 주행 경로/차선 상 정지 및 미확인 장애물, 주행 차로 측면 구간의 도로 사용 객체, 및 충돌 가능성을 가진 장애물 중 적어도 하나를 주변 장애물 정보로 검출하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템.
4. The method of claim 3,
The edge cloud is
Based on the location of each service-using object, the nearest road-using object in front/rear within the same lane, the road-using object within a preset distance (TBD) among the road-using objects in the left/right side lane, and the road using abrupt behavior An edge computing-based road-use object tracking system, characterized in that it detects at least one of an object, a stationary and unidentified obstacle on a driving path/lane, a road-use object in a section on the side of the driving lane, and an obstacle with a potential for collision as surrounding obstacle information.
상기 엣지 클라우드는,
상기 구역의 부하량, 서비스 사용 객체의 수 및 각 서비스 사용 객체의 인지정보, 도로정보, 돌방상황정보, 및 통신환경정보 중 적어도 하나를 포함하는 메타데이터를 상기 주 클라우드로 전송하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 시스템.
According to claim 1,
The edge cloud is
Edge, characterized in that for transmitting metadata including at least one of load amount of the zone, number of service use objects and recognition information of each service use object, road information, emergency situation information, and communication environment information to the main cloud Computing-based road-use object tracking system.
상기 각 엣지 클라우드가 상기 주 클라우드로부터 배정받은 구역 내 도로 사용 객체의 거동을 추적하고, 상기 추적된 도로 사용 객체의 거동 정보에 기초하여 각 서비스 사용 객체의 주변 장애물 정보를 검출하며, 각 서비스 사용 객체에게 해당 주변 장애물 정보를 제공하는 단계를 포함하되,
상기 각 엣지 클라우드의 구역을 배정하는 단계에서,
상기 주 클라우드는, 상기 각 엣지 클라우드의 구역 내 부하량의 변화 추이를 예측하여 각 엣지 클라우드의 구역을 배정하고,
상기 주 클라우드는, 상기 엣지 클라우드 내 모든 서비스 사용 객체의 인지정보에 기초하여 상기 부하량을 산출하며,
상기 주 클라우드는, 상기 부하량 산출 시, 상기 엣지 클라우드의 도로정보, 돌발상황정보, 및 통신환경정보 중 적어도 하나를 가중치 파라미터로 적용하되,
통신 장애, 및 통신 지연 중 적어도 하나가 발생 가능한 지역을 포함하는 엣지 클라우드의 경우, 상기 주 클라우드는 해당 엣지 클라우드의 구역을 기 설정된 일정 크기 이상 확대시키지 않도록 상기 통신환경정보에 대한 가중치를 적용하여 상기 부하량을 산출하고,
상기 각 엣지 클라우드의 구역을 배정하는 단계에서,
상기 주 클라우드는, 현재(k) 엣지 클라우드의 부하량을 기준범위와 비교하고, 그 비교결과 기준범위 미만인 경우 다음(k+1) 엣지 클라우드의 부하량이 상기 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 크도록 확대하고, 기준범위 초과인 경우 다음(k+1) 엣지 클라우드의 부하량이 기준범위의 부하량이 되도록 다음(k+1) 엣지 클라우드의 구역을 현재(k) 엣지 클라우드의 구역보다 작도록 축소하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 방법.
allocating, by the primary cloud, a zone of each edge cloud based on metadata including a load amount of each edge cloud; and
Each of the edge clouds tracks the behavior of the road use object in the area assigned from the main cloud, detects information about the surrounding obstacles of each service use object based on the tracked behavior information of the road use object, and each service use object providing information about the surrounding obstacles to the
In the step of allocating the zone of each edge cloud,
The main cloud allocates an area of each edge cloud by predicting the change trend of the load amount within the area of each edge cloud,
The main cloud calculates the load amount based on the recognition information of all service use objects in the edge cloud,
The main cloud applies at least one of road information, emergency situation information, and communication environment information of the edge cloud as a weight parameter when calculating the load amount,
In the case of an edge cloud including an area in which at least one of communication failure and communication delay may occur, the main cloud applies a weight to the communication environment information so as not to enlarge the area of the corresponding edge cloud more than a predetermined size. Calculate the load,
In the step of allocating the zone of each edge cloud,
The main cloud compares the load amount of the current (k) edge cloud with the reference range, and if the comparison result is less than the reference range, the next (k+1) edge cloud load becomes the load amount of the reference range. ) Expand the edge cloud area to be larger than the current (k) edge cloud area, and if it exceeds the standard range, the next (k+1) edge cloud so that the load of the next (k+1) edge cloud becomes the load of the standard range Edge computing-based road-use object tracking method, characterized in that the area of is reduced to be smaller than the area of the current (k) edge cloud.
상기 각 서비스 사용 객체에게 해당 주변 장애물 정보를 제공하는 단계에서,
상기 각 엣지 클라우드는, 상기 구역을 주행하는 적어도 하나의 서비스 사용 객체로부터 인지정보를 수신하고, 상기 구역에 설치된 인프라 장치로부터 도로 인프라 정보를 수신하며, 상기 인지정보 및 상기 도로 인프라 정보에 기초하여 상기 구역 내 모든 도로 사용 객체의 거동 정보를 추적하고, 상기 도로 사용 객체의 거동 정보를 기초로 각 서비스 사용 객체에게 필요한 주변 장애물 정보를 검출하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 방법.
11. The method of claim 10,
In the step of providing the corresponding surrounding obstacle information to each service use object,
Each of the edge clouds receives recognition information from at least one service use object traveling in the area, receives road infrastructure information from an infrastructure device installed in the area, and receives the recognition information and the road infrastructure information based on the recognition information and the road infrastructure information. An edge computing-based road-use object tracking method, comprising: tracking behavior information of all road-use objects in an area;
상기 각 서비스 사용 객체에게 해당 주변 장애물 정보를 제공하는 단계에서,
상기 엣지 클라우드는, 각 서비스 사용 객체의 위치를 기준으로, 동일 차선 내 전/후방 최근접 도로 사용 객체, 좌/우 측면 차선 내 도로 사용 객체 중 기 설정된 일정거리(TBD) 내의 도로 사용 객체, 급격한 거동을 보이는 도로 사용 객체, 주행 경로/차선 상 정지 및 미확인 장애물, 주행 차로 측면 구간의 도로 사용 객체, 및 충돌 가능성을 가진 장애물 중 적어도 하나를 주변 장애물 정보로 검출하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 방법.
12. The method of claim 11,
In the step of providing the corresponding surrounding obstacle information to each service use object,
The edge cloud is, based on the location of each service use object, a road using object within a preset predetermined distance (TBD) among road use objects in the same lane as front/rear nearest road use objects, and road use objects in left/right side lanes, abrupt Edge computing-based road, characterized in that at least one of a road-using object showing a behavior, a stationary and unidentified obstacle on the driving route/lane, a road-using object in the section on the side of the driving lane, and an obstacle with a possibility of collision as surrounding obstacle information How to use object tracking.
상기 각 엣지 클라우드가, 상기 구역의 부하량, 서비스 사용 객체의 수 및 각 서비스 사용 객체의 인지정보, 도로정보, 돌방상황정보, 및 통신환경정보 중 적어도 하나를 포함하는 메타데이터를 상기 주 클라우드로 전송하는 단계를 더 포함하는 것을 특징으로 하는 엣지 컴퓨팅 기반 도로 사용 객체 추적 방법.
11. The method of claim 10,
Each edge cloud transmits metadata including at least one of load amount of the zone, number of service use objects and recognition information of each service use object, road information, emergency situation information, and communication environment information to the main cloud Edge computing-based road-use object tracking method, characterized in that it further comprises the step of.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210014702A KR102302132B1 (en) | 2021-02-02 | 2021-02-02 | System and method for tracking lane object based on edge computing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210014702A KR102302132B1 (en) | 2021-02-02 | 2021-02-02 | System and method for tracking lane object based on edge computing |
Publications (2)
Publication Number | Publication Date |
---|---|
KR102302132B1 true KR102302132B1 (en) | 2021-09-14 |
KR102302132B9 KR102302132B9 (en) | 2024-03-15 |
Family
ID=77774292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210014702A KR102302132B1 (en) | 2021-02-02 | 2021-02-02 | System and method for tracking lane object based on edge computing |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102302132B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240069908A (en) | 2022-11-11 | 2024-05-21 | 주식회사 위드라이브 | Apparatus and method for virtualization multi-infrastructure camera |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102124316B1 (en) * | 2018-12-11 | 2020-06-18 | 한국교통대학교산학협력단 | Method for efficient data allocation in vehicle to everything communication |
KR20210005395A (en) * | 2019-07-04 | 2021-01-14 | 현대자동차주식회사 | Apparatus for determining u-turn strategy of autonomous vehicle and method thereof |
-
2021
- 2021-02-02 KR KR1020210014702A patent/KR102302132B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102124316B1 (en) * | 2018-12-11 | 2020-06-18 | 한국교통대학교산학협력단 | Method for efficient data allocation in vehicle to everything communication |
KR20210005395A (en) * | 2019-07-04 | 2021-01-14 | 현대자동차주식회사 | Apparatus for determining u-turn strategy of autonomous vehicle and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240069908A (en) | 2022-11-11 | 2024-05-21 | 주식회사 위드라이브 | Apparatus and method for virtualization multi-infrastructure camera |
Also Published As
Publication number | Publication date |
---|---|
KR102302132B9 (en) | 2024-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107953884B (en) | Travel control apparatus and method for autonomous vehicle | |
CN112712717B (en) | Information fusion method, device and equipment | |
JP6881982B2 (en) | Devices and methods that provide extended forward collision warning | |
CN106985780B (en) | Vehicle safety auxiliary system | |
US10086830B2 (en) | Accident attenuation systems and methods | |
US9099006B2 (en) | Context-aware threat response arbitration | |
US20180281815A1 (en) | Predictive teleassistance system for autonomous vehicles | |
US20190287408A1 (en) | Apparatus for collision avoidance | |
US11136039B2 (en) | Apparatus and method for controlling running of vehicle | |
US20120078498A1 (en) | Vehicular peripheral surveillance device | |
US11042160B2 (en) | Autonomous driving trajectory determination device | |
CN110949375B (en) | Information processing system and server | |
EP4134288B1 (en) | Vehicle behavior estimation method, vehicle control method, and vehicle behavior estimation device | |
US11295609B1 (en) | Travel assistance method and travel assistance device | |
US20180329421A1 (en) | Road link information updating device and vehicle control system | |
JP2021127002A (en) | Vehicle control device, vehicle control method, and program | |
KR20230039486A (en) | Environmental limitation and sensor anomaly system and method | |
KR20230039485A (en) | Operation envelope detection with situational assessment using metrics | |
KR102302132B1 (en) | System and method for tracking lane object based on edge computing | |
CN109425861B (en) | Device for calculating reliability of vehicle position | |
KR20230040239A (en) | Immobility detection within situational context | |
JP7080091B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
KR20200133122A (en) | Apparatus and method for preventing vehicle collision | |
US20220242451A1 (en) | Malicious event detection for autonomous vehicles | |
KR20230040244A (en) | Operational envelope detection with situational assessment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |