KR101990482B1 - Apparatus and method for estimating location of target object - Google Patents

Apparatus and method for estimating location of target object Download PDF

Info

Publication number
KR101990482B1
KR101990482B1 KR1020180003466A KR20180003466A KR101990482B1 KR 101990482 B1 KR101990482 B1 KR 101990482B1 KR 1020180003466 A KR1020180003466 A KR 1020180003466A KR 20180003466 A KR20180003466 A KR 20180003466A KR 101990482 B1 KR101990482 B1 KR 101990482B1
Authority
KR
South Korea
Prior art keywords
information
predetermined
estimating
target object
time
Prior art date
Application number
KR1020180003466A
Other languages
Korean (ko)
Inventor
고혜승
배정일
정우진
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020180003466A priority Critical patent/KR101990482B1/en
Application granted granted Critical
Publication of KR101990482B1 publication Critical patent/KR101990482B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2530/00Input parameters relating to vehicle conditions or values, not covered by groups B60W2510/00 or B60W2520/00
    • B60W2530/10Weight
    • B60W2550/30
    • B60W2550/306
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

According to an embodiment, an apparatus for estimating a location comprises: a surrounding object selection unit selecting a surrounding object used for estimating a location of a target object of at least two surrounding vehicles based on first information with respect to each of the surrounding objects and second information with respect to the target object of which a speed is not confirmed by using a predetermined learned model; and an estimation unit estimating a location of each of the selected surrounding objects after a predetermined first time based on the first information, and estimating a location of the target object after the predetermined first time by using the estimated location after the predetermined first time and an initial location of the target object contained in the second information.

Description

대상 물체의 위치를 추정하는 장치 및 방법{APPARATUS AND METHOD FOR ESTIMATING LOCATION OF TARGET OBJECT}[0001] APPARATUS AND METHOD FOR ESTIMATING LOCATION OF TARGET OBJECT [0002]

본 발명은 대상 물체의 위치를 추정하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for estimating the position of a target object.

대상 물체의 이동 궤적은 대상 물체의 위치 및 속도를 기초로 추적 내지 추정 가능하다. 다만, 대상 물체의 위치는 확인되지만 속도가 확인되지 않는 경우가 있는데, 이 경우에는 대상 물체의 이동 궤적을 추적하기가 용이하지 않다.The movement trajectory of the object can be traced or estimated based on the position and velocity of the object. In this case, however, it is not easy to track the movement trajectory of the target object.

한국등록공보, 제 10-1405583 호 (2014.06.02. 등록)Korean Registration Bulletin, No. 10-1405583 (Registered on June 2, 2014)

이에, 본 발명의 해결하고자 하는 과제는 속도가 확인되지 않은 대상 물체(target object)의 이동 궤적을 추정하는 기술을 제안하고자 한다.Accordingly, a problem to be solved by the present invention is to propose a technique for estimating a moving trajectory of a target object whose speed has not been confirmed.

다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. will be.

일 실시예에 따른 위치 추정 장치는 적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 주변 물체 선별부와, 상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하며, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 추정부를 포함한다.The position estimating apparatus according to an exemplary embodiment of the present invention estimates position information of at least two surrounding objects based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed, A second object selecting unit for selecting a neighboring object to be used for position estimation of the selected object based on the first information, And an estimating unit that estimates a position after the predetermined first time with respect to the target object using the estimated position after the first predetermined time and the initial position of the target object included in the second information.

또한, 상기 모델은 분류 알고리즘으로서 PCA(Principal Component Analysis) 또는 SVM(Support Vector Machine) 중 어느 하나일 수 있다.In addition, the model may be any one of PCA (Principal Component Analysis) or SVM (Support Vector Machine) as a classification algorithm.

또한, 상기 모델은 상기 제1 정보 및 상기 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중에서 소정의 제2 시간 이후에 소정의 경계 영역을 벗어나지 않는 주변 물체를 상기 대상 물체의 위치 추정에 이용될 주변 물체로 선별할 수 있다.In addition, the model may be configured such that, based on the first information and the second information, a surrounding object that does not deviate from a predetermined boundary area after a predetermined second time out of the at least two surrounding objects is used for position estimation of the object It can be selected by surrounding objects.

또한, 상기 제1 정보는 상기 적어도 두 개의 주변 물체 각각에 대한 위치 정보, 속력 정보 및 이동 방향에 대한 정보를 포함하고, 상기 제2 정보는 상기 대상 물체에 대한 초기 위치 정보를 포함할 수 있다.Also, the first information may include position information, speed information, and direction information of each of the at least two peripheral objects, and the second information may include initial position information of the object.

또한, 상기 제1 정보는 상기 적어도 두 개의 주변 물체 각각이 상기 대상 물체와 동일 카테고리로 분류되는지를 나타내는 연관성 정보를 포함할 수 있다.In addition, the first information may include association information indicating whether each of the at least two surrounding objects is classified into the same category as the object.

또한, 상기 추정부는 상기 초기 위치를 중심으로 상기 추정된 소정의 제1 시간 후의 위치를 점대칭한 위치를 산출하고, 상기 산출된 점대칭한 위치와 상기 초기 위치에 대한 무게 중심점을 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치로 추정할 수 있다.Also, the estimating unit may calculate a point-symmetric position of the estimated position after the first predetermined time around the initial position, calculate a point centered on the calculated point symmetric position and the initial position with respect to the object, It is possible to estimate the position after a predetermined first time.

또한, 상기 제1 정보는 상기 적어도 두 개의 주변 물체 각각이 상기 대상 물체와 동일 카테고리로 분류되는지를 나타내는 연관성 정보를 포함하며, 상기 추정부는 상기 대상 물체와 동일 카테고리로 분류되는 주변 물체에 대해서는 상기 초기 위치와 상기 추정된 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 작은 가중치를 곱한 거리만큼이 상기 초기 위치로부터 이격되도록 점대칭하여 산출하고, 상기 대상 물체와 상이한 카테고리로 분류되는 주변 물체에 대해서는 상기 초기 위치와 상기 추정된 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 큰 가중치를 곱한 거리만큼이 상기 초기 위치로부터 이격되도록 점대칭하여 산출할 수 있다.The first information may include relevance information indicating whether each of the at least two surrounding objects is classified into the same category as the object, and the estimating unit may determine, for the surrounding objects classified into the same category as the object, And a distance between the position of the object and the position after the estimated first predetermined time is multiplied by a relatively small weight to obtain a distance from the initial position, and for a peripheral object classified into a different category from the object, And a distance obtained by multiplying a distance between the estimated position and a position after the estimated predetermined first time by a relatively large weight is spaced apart from the initial position.

또한, 상기 추정부는 상기 대상 물체에 대한 초기 위치 및 상기 소정의 제1 시간 후의 위치를 기초로 상기 대상 물체의 속도를 더 추정할 수 있다.The estimator may further estimate the velocity of the object based on the initial position of the object and the position after the predetermined first time.

또한, 상기 추정부는 상기 추정된 대상 물체의 속도를 기초로 상기 추정된 대상 물체의 이동 궤적을 추정할 수 있다.In addition, the estimator may estimate a movement trajectory of the estimated object based on the velocity of the estimated object.

일 실시예에 따른 위치 추정 장치에 의해 수행되는 위치 추정 방법은 적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 단계와, 상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계를 포함한다.A position estimation method performed by a position estimating apparatus according to an exemplary embodiment includes estimating a position of a target object based on first information on each of at least two peripheral objects and second information on a target object Selecting a surrounding object to be used for the estimation of the position of the object among the surrounding objects by using a predetermined learned model; and selecting, based on the first information, Estimating a position after the predetermined first time with respect to the target object using the estimated position after the first predetermined time and the initial position of the target object included in the second information; .

또한, 상기 모델은 PCA(Principal Component Analysis) 또는 SVM(Support Vector Machine) 중 어느 하나일 수 있다.In addition, the model may be any one of Principal Component Analysis (PCA) and Support Vector Machine (SVM).

또한, 상기 모델은 상기 제1 정보 및 상기 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중에서 소정의 제2 시간 이후에 소정의 경계 영역을 벗어나지 않는 주변 물체를 상기 대상 물체의 위치 추정에 이용될 주변 물체로 선별할 수 있다.In addition, the model may be configured such that, based on the first information and the second information, a surrounding object that does not deviate from a predetermined boundary area after a predetermined second time out of the at least two surrounding objects is used for position estimation of the object It can be selected by surrounding objects.

또한, 상기 제1 정보는 상기 적어도 두 개의 주변 물체 각각에 대한 위치 정보, 속력 정보 및 이동 방향에 대한 정보를 포함하고, 상기 제2 정보는 상기 대상 물체에 대한 초기 위치 정보를 포함할 수 있다.Also, the first information may include position information, speed information, and direction information of each of the at least two peripheral objects, and the second information may include initial position information of the object.

또한, 상기 제1 정보는 상기 적어도 두 개의 주변 물체 각각이 상기 대상 물체와 동일 카테고리로 분류되는지를 나타내는 연관성 정보를 포함할 수 있다.In addition, the first information may include association information indicating whether each of the at least two surrounding objects is classified into the same category as the object.

또한, 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계는, 상기 초기 위치를 중심으로 상기 추정된 소정의 제1 시간 후의 위치를 점대칭한 위치를 산출하고, 상기 산출된 점대칭한 위치와 상기 초기 위치에 대한 무게 중심점을 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치로 추정할 수 있다.The step of estimating the position after the predetermined first time with respect to the target object may further include calculating a position where the position after the estimated predetermined first time is point symmetric about the initial position, And the center of gravity of the initial position can be estimated as the position after the predetermined first time for the object.

또한, 상기 제1 정보는 상기 적어도 두 개의 주변 물체 각각이 상기 대상 물체와 동일 카테고리로 분류되는지를 나타내는 연관성 정보를 포함하며, 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계는 상기 대상 물체와 동일 카테고리로 분류되는 주변 물체에 대해서는 상기 초기 위치와 상기 추정된 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 작은 가중치를 곱한 거리만큼이 상기 초기 위치로부터 이격되도록 점대칭하여 산출하고, 상기 대상 물체와 상이한 카테고리로 분류되는 주변 물체에 대해서는 상기 초기 위치와 상기 추정된 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 큰 가중치를 곱한 거리만큼이 상기 초기 위치로부터 이격되도록 점대칭하여 산출할 수 있다.The first information includes association information indicating whether each of the at least two surrounding objects is classified into the same category as the object, and the step of estimating the position after the predetermined first time with respect to the object And calculating a distance between the initial position and a position after the estimated first predetermined time by a small weight relative to a peripheral object that is classified into the same category as the object, A distance between the initial position and a position after the estimated predetermined first time is multiplied by a relatively large weight for a peripheral object classified into a category different from the target object, have.

또한, 상기 대상 물체에 대한 초기 위치 및 상기 소정의 제1 시간 후의 위치를 기초로 상기 대상 물체의 속도를 추정하는 단계를 더 포함할 수 있다.The method may further include estimating a velocity of the object based on an initial position of the object and a position after the predetermined first time.

또한, 상기 추정된 대상 물체의 속도를 기초로 상기 추정된 대상 물체의 이동 궤적을 추정하는 단계를 더 포함할 수 있다.The method may further include estimating a movement trajectory of the estimated object based on the velocity of the estimated object.

일 실시예에 따르면, 적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 단계와, 상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계를 수행하도록 프로그램된 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램이 구현 가능하다.According to one embodiment, the position of the object among the at least two neighboring objects is estimated based on first information on each of at least two surrounding objects and second information on an unidentified target object Estimating a position after a predetermined first time for each of the selected peripheral objects on the basis of the first information, A computer readable programmed to perform a step of estimating a position after the predetermined first time for the object using a position after a predetermined first time and an initial position for the object contained in the second information A computer program stored in a recording medium can be implemented.

일 실시예에 따르면 적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 단계와, 상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체이 구현 가능하다.According to an embodiment of the present invention, it is possible to estimate the position of the object among the at least two surrounding objects based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed A step of selecting a surrounding object to be used by using a predetermined learned model; estimating a position after a predetermined first time for each of the selected peripheral objects based on the first information; Estimating a position after the predetermined first time with respect to the target object by using a position after the first time of the target object and an initial position with respect to the target object included in the second information, A computer-readable recording medium.

일 실시예에 따르면 주변 물체들을 기초로 속도 미확인의 대상 물체에 대한 소정 시간 후의 위치가 추정될 수 있다. 이 때, 주변 물체들 중 대상 물체의 위치 추정에 이용될 물체를 선별하는 과정에서 미리 학습된 모델이 이용될 수 있으므로, 위치 추정 작업이 신속하면서도 효과적으로 수행 가능하다.According to an embodiment, a position after a predetermined time with respect to an object whose speed has not been confirmed can be estimated based on nearby objects. In this case, since the previously learned model can be used in the process of selecting the object to be used for the position estimation of the object among the surrounding objects, the position estimation operation can be performed quickly and effectively.

도 1은 일 실시예에 따른 위치 추정 장치에 의해 속도가 확인되지 않은 대상 물체에 대한 위치를 추정하는 시스템을 개념적으로 도시한 도면이다.
도 2는 도 1에 도시된 시스템에 의해 대상 물체에 대한 위치, 속도 및 이동 궤적이 추정되는 과정을 도시한 도면이다.
도 3는 도 1에 도시된 위치 추정 장치의 구성을 도시한 도면이다.
도 4은 일 실시예에 따른 위치 추정 장치가 채용한 모델이 학습되는 과정 및 이러한 학습이 완료된 모델을 개념적으로 도시하고 있다.
도 5는 도 3에 도시된 주변 물체 선별부에 의해서 주변 물체 중 대상 물체의 위치 추정에 이용될 주변 물체가 선별되는 과정의 일부를 도시한 도면이다.
도 6는 도 3에 도시된 추정부에 의해서 대상 물체에 대한 소정의 시간 후의 위치를 추정하는 과정의 일부를 도시한 도면이다.
도 7은 도 3에 도시된 추정부에 의해서 대상 물체에 대한 소정의 시간 후의 위치를 추정하는 과정의 일부를 도시한 도면이다.
도 8은 도 3에 도시된 추정부에 의해서 대상 물체에 대한 소정의 시간 후의 위치를 추정하는 과정의 일부를 도시한 도면이다.
도 9은 일 실시예에 따른 위치 추정 방법에 의해 수행되는 절차를 도시한 도면이다.
1 is a view conceptually showing a system for estimating a position of a target object whose velocity is not confirmed by a position estimating apparatus according to an embodiment.
FIG. 2 is a diagram illustrating a process of estimating a position, a velocity, and a movement trajectory of a target object by the system shown in FIG.
3 is a diagram showing a configuration of the position estimation apparatus shown in FIG.
FIG. 4 conceptually shows a process of learning a model adopted by the position estimating apparatus according to an embodiment and a model in which such learning is completed.
FIG. 5 is a diagram showing a part of a process of selecting a peripheral object to be used for position estimation of an object among peripheral objects by the peripheral object selector shown in FIG.
FIG. 6 is a diagram illustrating a part of a process of estimating a position of a target object after a predetermined time by the estimating unit shown in FIG. 3;
FIG. 7 is a diagram showing a part of a process of estimating a position of a target object after a predetermined time by the estimating unit shown in FIG. 3;
FIG. 8 is a diagram showing a part of a process of estimating a position of a target object after a predetermined time by the estimating unit shown in FIG. 3. FIG.
FIG. 9 is a diagram illustrating a procedure performed by the position estimation method according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

도 1은 일 실시예에 따른 위치 추정 장치(100)가 대상 물체(300)에 대한 위치를 추정하는 것을 예시적으로 도시한 도면이다.FIG. 1 is an exemplary view illustrating a position estimating apparatus 100 estimating a position with respect to a target object 300 according to an embodiment.

도 1을 참조하면 위치 추정 장치(100)와 탐색 장치(200)가 구비된다. 위치 추정 장치(100)는 탐색 장치(200)가 탐색한 대상 물체(300)에 대해, 탐색 시점으로부터 소정 시간 이후의 위치나 속도 등을 주변 물체들(410 내지 430)에 대한 정보를 이용해서 추정할 수 있고, 이를 기초로 대상 물체(300)의 이동 궤적을 추정할 수 있다. Referring to FIG. 1, a position estimation apparatus 100 and a search apparatus 200 are provided. The position estimating apparatus 100 estimates the position or velocity of the object 300 searched out by the search apparatus 200 after a predetermined time from the search time using information about the surrounding objects 410 to 430 And the movement trajectory of the object 300 can be estimated based on the movement trajectory.

위치 추정 장치(100)는 주변 물체들(410 내지 430) 중에서 대상 물체(300)의 위치 추정에 이용될 주변 물체를 선별하는데, 이 때 도 1에 도시된 경계 영역(210)이 고려될 수 있다. 이러한 경계 영역(210)에 대해서는 도 3에서 보다 자세하게 살펴보기로 한다.The position estimating apparatus 100 selects peripheral objects to be used for estimating the position of the object 300 among the peripheral objects 410 to 430. At this time, the boundary area 210 shown in FIG. 1 may be considered . The boundary region 210 will be described in more detail with reference to FIG.

대상 물체(300)는 이동성을 가지며, 따라서 시간이 지남에 따라 어느 지점에서 다른 지점으로 이동할 수 있다. The object 300 has mobility and thus can move from one point to another as time passes.

주변 물체들(410 내지 430)은 이동성을 가지며, 따라서 시간이 지남에 따라 어느 지점에서 다른 지점으로 이동할 수 있다. 도 1을 살펴보면 주변 물체들(410 내지 430) 각각으로부터 화살표가 인출되도록 도시되어 있는데, 이러한 화살표는 주변 물체들(410 내지 430) 각각이 소정의 시간 동안 이동한 거리와 이동한 방향 등을 나타낸다.The surrounding objects 410 to 430 have mobility, and thus can move from one point to another as time passes. Referring to FIG. 1, an arrow is drawn from each of the surrounding objects 410 to 430. The arrows indicate distances and directions in which the surrounding objects 410 to 430 move for a predetermined time.

이러한 대상 물체(300)와 주변 물체들(410 내지 430)은 선박, 잠수함, 비행기 또는 자동차 등일 수 있으나 이에 한정되는 것은 아니다.The object 300 and the surrounding objects 410 to 430 may be a ship, a submarine, an airplane, or an automobile, but the present invention is not limited thereto.

탐색 장치(200)는 대상 물체(300) 및 주변 물체들(410 내지 430)을 탐색한다. 탐색 장치(200)에는 탐색의 범위를 나타내는 소정의 탐색 영역이 존재한다. 탐색된 대상 물체(300)와 주변 물체들(410 내지 430)들은 이러한 탐색 영역의 범위 내에 있는 것이다. 탐색 영역의 크기 내지 모양(또는 탐색 성능)은 탐색 장치(200)마다 서로 상이할 수 있다. 이러한 탐색 장치(200)는 예컨대 레이더 등일 수 있다.The search apparatus 200 searches for the object 300 and the surrounding objects 410 to 430. [ The search device 200 has a predetermined search area indicating a search range. The object 300 to be searched and the surrounding objects 410 to 430 are within the range of this search area. The size and shape (or search performance) of the search area may be different for each search device 200. The search device 200 may be, for example, a radar.

탐색 장치(200)는 탐색 시점에서의 대상 물체(300)의 위치(이하 대상 물체(300)의 초기 위치라고 지칭), 탐색 시점에서의 주변 물체들(410 내지 430) 각각의 위치(이하 주변 물체들(410 내지 430)의 초기 위치라고 지칭), 탐색 시점에서의 주변 물체들(410 내지 430) 각각의 속력과 이동 방향 등을 정보로서 획득한다.The search device 200 searches for the position of the object 300 at the search time (hereinafter referred to as the initial position of the object 300), the position of each of the surrounding objects 410 to 430 (The initial positions of the objects 410 to 430), the speed and direction of movement of each of the peripheral objects 410 to 430 at the time of the search are obtained as information.

또한, 탐색 장치(200)는 주변 물체들(410 내지 430) 각각이 대상 물체(300)에 대해 갖는 연관성 정보를 획득할 수 있다. 이러한 연관성 정보는 주변 물체들(410 내지 430) 각각이 대상 물체(300)와 동일 카테고리로 분류되는지 아니면 상이한 카테고리로 분류되는지를 나타낸다. 예컨대, 연관성 정보는 주변 물체(410)가 대상 물체(300)에 대해 아군인 경우(즉, 주변 물체와 대상 물체가 서로 동일 카테고리임을 나타냄) 또는 적군인 경우(즉, 주변 물체와 대상 물체가 서로 상이한 카테고리임을 나타냄) 등을 나타낼 수 있으며, 다만 전술한 카테고리의 종류는 예시적인 것에 불과하다.In addition, the search apparatus 200 can acquire association information that each of the surrounding objects 410 to 430 has with respect to the object 300. This association information indicates whether each of the surrounding objects 410 to 430 is classified into the same category or different categories as the object 300. For example, the relevance information indicates that when the surrounding object 410 is a friend to the object 300 (i.e., the surrounding object and the object are in the same category) or the enemy (i.e., Quot ;, and " indicates a different category), and the above-described categories are merely illustrative.

연관성 정보를 획득하기 위해, 탐색 장치(200)는 주변 물체들(410 내지 430) 각각과 통신을 시도할 수 있으며, 통신의 결과(예컨대 통신이 이루어졌는지 또는 통신이 이루어졌을 때의 통신 내용 등)를 기초로 주변 물체들(410 내지 430) 각각에 연관성 정보를 부여할 수 있다.In order to obtain the association information, the search apparatus 200 may attempt to communicate with each of the surrounding objects 410 to 430, and may transmit the result of the communication (e.g., the communication has been made or the communication contents when the communication has been made) It is possible to provide association information to each of the surrounding objects 410 to 430 based on the association information.

다만, 이러한 탐색 장치(200)는 대상 물체(300)에 대한 속력과 이동 방향이나 이동 궤적 등에 대한 정보를 획득할 수는 없다. 대상 물체(300)에 대한 속력과 이동 방향, 이동 궤적 등에 대한 정보는 위치 추정 장치(100)가 추정하는데, 이하에서는 이러한 위치 추정 장치(100) 및 탐색 장치(200)에 의해 대상 물체(300)에 대한 위치, 속도 및 이동 궤적 등이 추정되는 과정에 대해 개략적으로 살펴보기로 한다.However, the search apparatus 200 can not acquire information about the speed, the moving direction, and the movement trajectory of the object 300. The position estimating apparatus 100 estimates information on the speed and the moving direction of the target object 300 and the movement trajectory and the like. Hereinafter, the target object 300 is estimated by the position estimating apparatus 100 and the searching apparatus 200, A process of estimating a position, a velocity, a movement locus,

도 2는 도 1에 도시된 위치 추정 장치(100) 및 탐색 장치(200)에 의해 대상 물체(300)에 대한 위치, 속도 및 이동 궤적 등이 추정되는 과정을 도시한 도면이다. 다만, 도 2는 예시적인 것에 불과하므로, 본 발명의 사상이 도 2에 도시된 것으로 한정해석되지는 않는다.FIG. 2 is a diagram illustrating a process of estimating a position, a velocity, a movement locus, and the like with respect to a target object 300 by the position estimation apparatus 100 and the search apparatus 200 shown in FIG. However, since Fig. 2 is merely an example, the concept of the present invention is not limited to that shown in Fig.

먼저, 도 2에 도시된 각각의 과정은 도 1에 도시된 위치 추정 장치(100) 및 탐색 장치(200) 중 어느 하나에 의해 수행 가능하다.First, each process shown in FIG. 2 can be performed by any one of the position estimating apparatus 100 and the searching apparatus 200 shown in FIG.

도 2를 참조하면, 탐색 장치(200)는 탐색 영역 내에서 탐색을 한다(S10). 탐색의 결과, 속도가 확인되지 않은 대상 물체(300)가 검출될 수 있고(S20), 적어도 하나의 주변 물체들(410 내지 430)이 검출될 수 있다(S30).Referring to FIG. 2, the search apparatus 200 searches in a search area (S10). As a result of the search, the object 300 whose speed is not confirmed can be detected (S20), and at least one surrounding objects 410 to 430 can be detected (S30).

위치 추정 장치(100)는 단계 S20에서 검출된 대상 물체(200)에 대해 초기 위치 정보를 획득한다(S21). 획득의 방법으로는 위치 추정 장치(100)가 탐색 장치(200)로부터 초기 위치 정보를 획득하거나 또는 외부의 다른 장치로부터 초기 위치 정보를 획득하는 방법 등이 있으나 이에 한정되는 것은 아니다.The position estimation apparatus 100 acquires initial position information for the object 200 detected in step S20 (S21). The acquisition method includes, but is not limited to, a method of acquiring initial position information from the search apparatus 200 or acquiring initial position information from another external apparatus.

아울러, 위치 추정 장치(100)는 단계 S30에서 검출된 주변 물체들(410 내지 430) 중 대상 물체(200)의 위치 추정에 이용될 물체를 소정의 학습된 모델(단계 S40에서 미리 학습되었음)을 이용하여서 선별한다(S31). 다음으로 위치 추정 장치(100)는 단계 S31에서 선별된 주변 물체들 각각에 대해 소정 시간 후의 위치를 추정한다(S32). 여기서, 단계 S31, S32 및 S40에 대해서는 뒤에 보다 자세하게 설명하기로 한다.In addition, the position estimation apparatus 100 calculates a predetermined learned model (learned in advance in step S40) of an object to be used for position estimation of the object 200 among the surrounding objects 410 to 430 detected in step S30 (S31). Next, the position estimation apparatus 100 estimates a position after a predetermined time with respect to each of the selected peripheral objects in step S31 (S32). Here, steps S31, S32, and S40 will be described in detail later.

다음으로, 위치 추정 장치(100)는 단계 S21에서 획득된 대상 물체(200)의 초기 위치 정보, 그리고 단계 S32에서 획득된 주변 물체들에 대한 소정 시간 후의 추정된 위치를 기초로 대상 물체(200)에 대한 소정 시간 후의 위치를 추정한다(S50). Next, the position estimation apparatus 100 calculates the position of the target object 200 based on the initial position information of the target object 200 obtained in step S21, and the estimated position after the predetermined time with respect to the surrounding objects obtained in step S32, A position after a predetermined time is estimated (S50).

다음으로, 위치 추정 장치(100)는 단계 S50에서 추정된 대상 물체(200)에 대한 소정 시간 후의 위치를 기초로 대상 물체(200)의 속도를 추정하고(S60), 단계 S60에서 추정된 속도를 기초로 대상 물체(200)에 대한 이동 궤적을 추정한다(S70).Next, the position estimation apparatus 100 estimates the velocity of the object 200 based on the position of the object 200 after the predetermined time with respect to the object 200 estimated in step S50 (S60), and estimates the velocity estimated in step S60 as The movement locus for the object 200 is estimated based on the movement locus (S70).

이하에서는 도 2에 도시된 각각의 단계가 어떻게 수행되는지, 위치 추정 장치(100)의 구성을 통해 보다 자세하게 살펴보기로 한다.Hereinafter, how the respective steps shown in FIG. 2 are performed will be described in more detail with reference to the configuration of the position estimating apparatus 100. FIG.

도 3는 일 실시예에 따른 위치 추정 장치(100)의 구성을 개념적으로 도시한 도면이다. 다만, 도 3는 예시적인 것에 불과하므로 위치 추정 장치(100)의 구성이 도 3에 도시된 것으로 한정 해석되는 것은 아니다. 먼저, 위치 추정 장치(100)는 컴퓨터 등에서 구현 가능하다.3 is a diagram conceptually showing a configuration of a position estimation apparatus 100 according to an embodiment. However, since Fig. 3 is merely an example, the configuration of the position estimation apparatus 100 is not limited to that shown in Fig. First, the position estimation apparatus 100 can be implemented in a computer or the like.

도 3를 참조하면, 위치 추정 장치(100)는 주변 물체 선별부(120) 및 추정부(130)를 포함하며, 실시예에 따라서 입력부(110)를 더 포함할 수 있다.Referring to FIG. 3, the position estimation apparatus 100 includes a surrounding object sorting unit 120 and an estimating unit 130, and may further include an input unit 110 according to an embodiment.

주변 물체 선별부(120)에 대해 먼저 살펴보면, 주변 물체 선별부(120)는 이하에서 설명할 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리와, 이러한 명령어를 실행하는 마이크로프로세서에 의해 구현 가능하다.The peripheral object selecting unit 120 may be embodied by a memory for storing a command programmed to perform a function to be described below and a microprocessor for executing the command.

주변 물체 선별부(120)는 주변 물체들(410 내지 430) 중에서 대상 물체(300)의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별한다. 이러한 모델은 입력되는 데이터를 소정의 기준에 따라 분류하는 분류 알고리즘일 수 있으며, 예컨대 PCA(Principal Component Analysis) 또는 SVM(Support Vector Machine) 중 어느 하나일 수 있다.The surrounding object selecting unit 120 selects a surrounding object to be used for the position estimation of the object 300 among the surrounding objects 410 to 430 using a predetermined learned model. The model may be a classification algorithm that classifies input data according to a predetermined criterion, and may be, for example, either Principal Component Analysis (PCA) or Support Vector Machine (SVM).

도 4은 전술한 모델(121)이 학습되는 과정 및 학습이 완료된 모델(121)을 개념적으로 도시하고 있다. 도 4의 (a)를 참조하면, 모델(121)에는 학습용 데이터가 입력된다. 이러한 학습용 데이터는, 대상 물체와 주변 물체 간의 상대적인 거리, 주변 물체가 대상 물체를 기준으로 갖는 속도(속력과 이동 방향)에 대한 정보 및 주변 물체가 대상 물체에 대해 갖는 연관성 정보를 입력 데이터로서 포함할 수 있다. 아울러, 학습용 데이터는 이러한 주변 물체가 소정의 시간 동안 이동하면서, 이러한 소정의 시간 후에도 도 1에 도시된 경계 영역(210) 내에 있을지 아니면 경계 영역(210)을 벗어날지를 나타내는 정보를 정답 데이터로서 포함할 수 있다. 즉, 경계 영역(210)은 주변 물체들 중에서 대상 물체의 위치 추정에 이용될 물체를 선별하는 기준으로 작용한다. FIG. 4 conceptually shows a model 121 in which the model 121 is learned and a model 121 in which the learning is completed. Referring to Fig. 4 (a), training data is input to the model 121. Fig. Such learning data includes information on the relative distance between the target object and the surrounding object, information on the speed (speed and direction of movement) of the surrounding object with respect to the target object, and association information about the target object as input data . In addition, the learning data includes information indicating whether the surrounding object moves for a predetermined period of time or not after the predetermined time in the boundary area 210 shown in FIG. 1 or out of the boundary area 210 as correct data . That is, the boundary region 210 serves as a criterion for selecting an object to be used for estimating the position of the object, among surrounding objects.

이와 달리, 실시예에 따라 학습용 데이터는 입력 데이터로서 대상 물체의 초기 위치, 주변 물체의 초기 위치 및 주변 물체의 속도(속력과 이동 방향)에 대한 정보 및 주변 물체가 대상 물체에 대해 갖는 연관성 정보를 입력 데이터로서 를 포함할 수도 있다. 이 때, 주변 물체의 초기 위치 및 소정의 시간 후의 위치는 다음과 같은 수식으로 표현 가능하다.Alternatively, according to the embodiment, the learning data may include, as input data, information on the initial position of the object, the initial position of the surrounding object, the speed of the surrounding object (speed and moving direction) As input data. At this time, the initial position of the surrounding object and the position after a predetermined time can be expressed by the following equation.

Figure 112018003156288-pat00001
Figure 112018003156288-pat00001

Figure 112018003156288-pat00002
Figure 112018003156288-pat00002

Figure 112018003156288-pat00003
Figure 112018003156288-pat00003

여기서, T'= (x', y')은 소정 시간 후의 대상 물체의 위치이며, (x,y)는 대상 물체의 초기 위치이고, v는 대상 물체의 속력의 크기이며, θ는 대상 물체의 이동 방향을 나타낸다. 아울러, Time은 소정의 시간을 나타낸다. 즉, 모델(121)은 특정 위치에서 소정의 속력을 갖는 대상 물체가 소정의 시간 Time 동안 소정의 방향 θ를 향해 이동할 경우, 경계 영역(210)을 벗어날지 아닐지를 학습하게 되는 것이다.(X, y) is the initial position of the object, v is the magnitude of the speed of the object, and? Is the magnitude of the velocity of the object. Direction of movement. In addition, Time represents a predetermined time. That is, the model 121 learns whether the target object having a predetermined speed at a specific position moves out of the boundary area 210 when the object moves toward the predetermined direction? During a predetermined time TIME.

여기서, 경계 영역(210)은 위치 추정 장치(100)의 관리자나 사용자에 의해 변경 가능하며, 이와 달리 위치 추정 장치(100)에 의해 변경 가능하다. 아울러, 경계 영역(210)은 위치 추정 장치(100)의 종류 또는 탐색 장치(200)의 종류마다 상이할 수 있다.Here, the boundary region 210 can be changed by an administrator or a user of the position estimating apparatus 100, and can be changed by the position estimating apparatus 100 in a different manner. In addition, the boundary region 210 may differ depending on the type of the position estimating apparatus 100 or the type of the search apparatus 200.

도 4의 (b)는 도 4의 (a)의 학습 과정에 의해 학습된 모델(121)을 나타낸다. 실제로 대상 물체(300)의 위치 추정 과정이 수행되면, 주변 물체 선별부(120)에는 주변 물체들(410 내지 430)에 대한 제1 정보 및 대상 물체(300)에 대한 제2 정보가 입력된다. 제1 정보는 주변 물체들(410 내지 430) 각각에 대한 초기 위치 정보(x,y), 속력 정보(v), 이동 방향에 대한 정보(θ) 및 연관성 정보(ID)를 포함할 수 있다. 제2 정보는 대상 물체(300)에 대한 초기 위치 정보를 포함할 수 있다. FIG. 4B shows the model 121 learned by the learning process of FIG. 4A. The first information on the surrounding objects 410 to 430 and the second information on the target object 300 are input to the neighboring object selecting unit 120 when the position estimation process of the target object 300 is actually performed. The first information may include initial position information (x, y), speed information (v), information on a moving direction (?), And association information (ID) for each of the surrounding objects (410 to 430). The second information may include initial position information for the object 300.

여기서, 초기 위치 정보는 절대적인 위치를 나타내는 정보, 예컨대 위도와 경도일 수 있으며, 이와 달리 임의의 중심을 기준으로 측정한 상대적인 위치를 나타내는 정보일 수도 있으나, 이하에서는 절대적인 위치를 나타내는 정보인 것을 전제로 한다.Here, the initial position information may be information indicating an absolute position, for example, latitude and longitude, or may be information indicating a relative position measured based on an arbitrary center, but assuming that the information is an absolute position do.

주변 물체 선별부(120)에 포함된 도 4의 (b)에 도시된 모델은 제1 정보와 제2 정보를 기초로 주변 물체들(410 내지 430) 각각에 대해 대상 물체(300)의 위치 추정에 이용될지 여부를 선별하고 그 결과를 출력한다. 예컨대, 대상 물체와 동일한 카테고리에 속하는 임의의 주변 물체가 대상 물체로부터 500m 거리만큼 이격된 상태로 대상 물체를 향해 30km/h의 속력으로 이동 중인 경우, 그리고 대상 물체는 위도 40도 및 경도 55도에 위치해 있는 경우, 학습된 모델(121)은 이러한 정보들을 기초로 해당 주변 물체가 탐색 시점을 기준으로 소정의 시간 후에도 경계 영역(210) 내에 있을지 아니면 경계 영역(210)을 벗어날지 여부를 결과로 출력할 수 있다.The model shown in FIG. 4B included in the surrounding object selecting unit 120 is used to estimate the position of the target object 300 with respect to each of the surrounding objects 410 to 430 based on the first information and the second information. And outputs the result. For example, when an arbitrary peripheral object belonging to the same category as the target object is moving at a speed of 30 km / h toward the target object while being separated by a distance of 500 m from the target object, and the object is at 40 degrees latitude and 55 degrees longitude If so, the learned model 121 outputs, as a result, whether or not the surrounding object is within the boundary area 210 or out of the boundary area 210 after a predetermined time based on the search time, based on such information can do.

즉, 일 실시예에 따르면 주변 물체들 중에서 대상 물체의 위치 추정에 이용될 주변 물체가 이러한 학습된 모델에 의해 신속하게 선별될 수 있다.That is, according to the embodiment, the peripheral object to be used for the position estimation of the object among peripheral objects can be selected quickly by the learned model.

도 5는 도 4의 (b)에 도시된 학습된 모델(121)에 의해 주변 물체들(410 내지 430)이 선별된 결과를 도시하고 있다. 도 5의 좌측은 탐색 장치(200)에 의해 대상 물체(300)와 주변 물체들(410 내지 430)들이 탐색된 시점에서, 대상 물체(300)의 초기 위치, 주변 물체들(410 내지 430)들의 초기 위치 및 이동 방향과 속력을 나타낸다. 주변 물체들(410 내지 430) 각각으로부터 인출되는 화살표의 방향은 이동 방향을 나타내고, 화살표의 종점은 탐색 시점으로부터 소정의 시간 후에 주변 물체들(410 내지 430)의 위치를 나타낸다. 도 4의 (b)에 도시된 학습된 모델(121)은 주변 물체들(410 내지 430) 중에서 소정의 시간 후에도 경계 영역(210) 내에 있는 주변 물체들(420, 430)을 선별의 결과로 출력할 수 있다. 도 5의 우측은 주변 물체들(410 내지 430) 중에서 이러한 선별 결과에 따라 선별된 주변 물체들(420, 430)을 나타낸다.FIG. 5 shows the result of selecting the surrounding objects 410 to 430 by the learned model 121 shown in FIG. 4 (b). The left side of FIG. 5 shows the initial positions of the object 300 and the surrounding objects 410 to 430 at the time when the object 300 and the surrounding objects 410 to 430 are searched by the search device 200 Initial position and direction of movement and speed. The direction of the arrow drawn out from each of the surrounding objects 410 to 430 indicates the moving direction and the end point of the arrow indicates the position of the surrounding objects 410 to 430 after a predetermined time from the searching time. The learned model 121 shown in FIG. 4B outputs peripheral objects 420 and 430 in the boundary area 210 as a result of the selection even after a predetermined time in the surrounding objects 410 to 430 can do. The right side of FIG. 5 shows surrounding objects 420 and 430 selected from the surrounding objects 410 to 430 according to the sorting result.

다시 도 3를 참조하면, 입력부(110)는 대상 물체(300)에 대한 위치 추정에 필요한 전술한 제1 정보와 제2 정보를 입력받는 구성이다. 이러한 입력부(110)는 탐색 장치(200)와 연결되는 입력 포트이거나 또는 탐색 장치(200)와 데이터를 주고받는 통신 모듈일 수 있다.Referring again to FIG. 3, the input unit 110 receives the first information and the second information described above, which are necessary for position estimation of the object 300. The input unit 110 may be an input port connected to the search device 200 or a communication module for exchanging data with the search device 200.

추정부(130)는 주변 물체 선별부(120)에 의해 선별된 주변 물체들에 대한 정보를 활용하여서, 대상 물체(300)에 대한 소정의 시간 후의 위치를 추정한다. 이에 대해서는 도 6 내지 8을 함께 참조하면서 살펴보기로 한다.The estimating unit 130 estimates the position of the object 300 after a predetermined time by using the information on the surrounding objects selected by the surrounding object selecting unit 120. [ This will be described with reference to FIGS. 6 to 8 together.

먼저, 추정부(130)는 주변 물체들 각각에 대한 소정의 시간 후의 위치를 추정한다. 이는 도 6에 예시적으로 도시되어 있다. 도 6를 참조하면, 주변 물체(420)의 소정 시간 후의 위치는 식별번호 421로 표시되며, 주변 물체(430)의 소정 시간 후의 위치는 식별번호 431로 표시된다. 이러한 소정 시간 후의 위치는 추정부(130)가 주변 물체들(420,430) 각각의 초기 위치, 주변 물체들(420,430) 각각의 이동 방향 및 속력을 기초로 산출할 수 있으며, 이는 아래의 수학식 2로 표시될 수 있다.First, the estimator 130 estimates a position of each of the surrounding objects after a predetermined time. This is illustratively shown in Fig. Referring to FIG. 6, the position of the surrounding object 420 after a predetermined time is indicated by an identification number 421, and the position of the surrounding object 430 after a predetermined time is indicated by an identification number 431. The position after the predetermined time can be calculated based on the initial position of each of the peripheral objects 420 and 430, the moving direction and the speed of each of the peripheral objects 420 and 430, Can be displayed.

Figure 112018003156288-pat00004
Figure 112018003156288-pat00004

여기서, n은 선별된 주변 물체들(420,430)의 개수이고,

Figure 112018003156288-pat00005
은 주변 물체(420,430)의 초기 위치이며,
Figure 112018003156288-pat00006
은 주변 물체(420,430)의 속도(속력과 방향이 고려됨)이고, t는 소정의 시간이며,
Figure 112018003156288-pat00007
은 소정 시간 후의 주변 물체들(420,430)에 대한 추정 위치를 나타낸다.Here, n is the number of selected peripheral objects 420 and 430,
Figure 112018003156288-pat00005
Is the initial position of the surrounding objects 420 and 430,
Figure 112018003156288-pat00006
(Speed and direction are considered) of surrounding objects 420 and 430, t is a predetermined time,
Figure 112018003156288-pat00007
Represents an estimated position for the surrounding objects 420 and 430 after a predetermined time.

다음으로, 추정부(130)는 전술한 소정 시간 후의 위치를 대상 물체(300)의 초기 위치를 중심으로 점대칭하여서 위치를 산출한다. 이는 도 7에 예시적으로 도시되어 있다. 대상 물체(300)의 초기 위치는 식별번호 301로 도시되어 있다. 주변 물체(420)의 소정 시간 후의 위치(421)를 점대칭한 위치는 식별번호 422로 도시되어 있다. 주변 물체(430)의 소정 시간 후의 위치(431)를 점대칭한 위치는 식별번호 432로 도시되어 있다.Next, the estimating unit 130 calculates the position by point-symmetry about the initial position of the object 300 at the position after the predetermined time described above. This is illustratively shown in Fig. The initial position of the object 300 is indicated by the identification number 301. The position pointed by the position 421 of the surrounding object 420 after a predetermined time is indicated by the identification number 422. The position of the peripheral object 430 point-symmetric to the position 431 after a predetermined time is indicated by an identification number 432.

여기서, 실시예에 따라서 점대칭할 때 주변 물체들 각각에 대한 연관성 정보가 고려될 수 있다. 예컨대, 대상 물체와 동일한 카테고리로 분류되는 주변 물체에 대해서는 대상 물체(300)의 초기 위치와 주변 물체에 대한 소정의 시간 후의 위치 간의 거리에 상대적으로 작은 가중치를 곱한 거리만큼이 대상 물체(300)의 초기 위치로부터 이격되도록 점대칭할 수 있다. 아울러, 대상 물체와 상이한 카테고리로 분류되는 주변 물체에 대해서는 대상 물체(300)의 초기 위치와 주변 물체에 대한 소정의 시간 후의 위치 간의 거리에 상대적으로 큰 가중치를 곱한 거리만큼이 대상 물체(300)의 초기 위치로부터 이격되도록 점대칭할 수 있다. 이 때, 가중치에 의해 점대칭된 점이 경계 영역(220)을 벗어날 경우, 경계 영역(220)을 벗어나지 않도록 가중치의 값이 조절될 수 있다. 이는 다음의 수학식 3으로 표시될 수 있다.Here, associating information for each of the surrounding objects may be considered when point-symmetric according to the embodiment. For example, for a peripheral object classified into the same category as the target object, the distance between the initial position of the object 300 and a position after a predetermined time with respect to the peripheral object is multiplied by a relatively small weight, It can be point-symmetrically spaced apart from the initial position. The distance between the initial position of the object 300 and the position after the predetermined time with respect to the peripheral object is multiplied by a relatively large weight for the peripheral object classified into the category different from the target object, It can be point-symmetrically spaced apart from the initial position. At this time, when the point that is point-symmetric with respect to the weight is out of the boundary area 220, the value of the weight value can be adjusted so as not to deviate from the boundary area 220. This can be expressed by the following equation (3).

Figure 112018003156288-pat00008
Figure 112018003156288-pat00008

여기서,

Figure 112018003156288-pat00009
는 대상 물체(300)의 초기 위치이고,
Figure 112018003156288-pat00010
은 소정 시간 후의 주변 물체들(420,430)에 대한 추정 위치를 나타내며,
Figure 112018003156288-pat00011
는 가중치이고,
Figure 112018003156288-pat00012
은 점대칭된 주변 물체들(420,430)의 위치를 나타낸다.here,
Figure 112018003156288-pat00009
Is an initial position of the object 300,
Figure 112018003156288-pat00010
Represents an estimated position for the surrounding objects 420 and 430 after a predetermined time,
Figure 112018003156288-pat00011
Is a weight,
Figure 112018003156288-pat00012
Represents the position of the point-symmetric peripheral objects 420, 430.

다음으로, 추정부(130)는 전술한 점대칭된 위치와 대상 물체(300)의 초기 위치의 무게 중심점을 산정하고, 이러한 무게 중심점을 대상 물체(300)에 대한 소정의 시간 후의 위치로 추정한다. 이는 도 8에 예시적으로 도시되어 있다. 도 8을 참조하면, 대상 물체(300)의 초기 위치(301), 그리고 주변 물체들의 소정의 시간 후의 위치를 점대칭한 위치들 (422,432)에 대한 무게 중심점은 식별번호 302로 도시되어 있다. 추정부(130)는 이러한 무게 중심점(302)을 소정 시간 후의 대상 물체(300)의 위치로 추정한다. 이는 다음의 수학식 4로 표시될 수 있다.Next, the estimating unit 130 estimates the center-of-gravity point of the point symmetric position and the initial position of the object 300, and estimates the center-of-gravity point as a position after a predetermined time with respect to the object 300. This is illustratively shown in FIG. Referring to FIG. 8, the center of gravity point for the initial position 301 of the object 300 and the positions 422 and 432 point-symmetric to the position of the surrounding objects after a predetermined time are indicated by the identification number 302. The estimating unit 130 estimates the center of gravity 302 as the position of the object 300 after a predetermined time. This can be expressed by the following equation (4).

Figure 112018003156288-pat00013
Figure 112018003156288-pat00013

여기서, P는 소정 시간 후의 대상 물체(300)의 추정된 위치를 나타낸다.Here, P represents an estimated position of the object 300 after a predetermined time.

한편, 도 6 내지 도 8은 예시적인 것에 불과하므로, 본 발명의 사상이 이에 한정되는 것은 아니다. 즉, 주변 물체들에 대한 정보를 기초로 대상 물체에 대한 소정 시간 후의 위치를 추정하는 과정이 도 6 내지 도 8에 도시된 것으로 한정해석되는 것은 아니다.On the other hand, Fig. 6 to Fig. 8 are merely illustrative, and thus the spirit of the present invention is not limited thereto. That is, the process of estimating the position of the target object after a predetermined time based on the information on the surrounding objects is not limited to those shown in FIGS.

이상에서 살펴본 바와 같이, 일 실시예에 따르면 주변 물체들을 기초로 속도 미확인의 대상 물체에 대한 소정 시간 후의 위치가 추정될 수 있다. 이 때, 주변 물체들 중 대상 물체의 위치 추정에 이용될 물체를 선별하는 과정에서 미리 학습된 모델이 이용될 수 있으므로, 위치 추정 작업이 신속하면서도 효과적으로 수행 가능하다.As described above, according to an exemplary embodiment, the position of a target object after a predetermined time can be estimated based on nearby objects. In this case, since the previously learned model can be used in the process of selecting the object to be used for the position estimation of the object among the surrounding objects, the position estimation operation can be performed quickly and effectively.

한편, 실시예에 따라서 추정부(130)는 대상 물체(300)의 속도 v(속력과 방향성)를 추정할 수 있다. 이를 위해서 추정부(130)는 대상 물체(300)의 초기 위치 Xo, 그리고 소정 시간 t 후의 대상 물체(300)의 위치 P를 이용할 수 있다. 이는 다음의 수학식 5로 표시될 수 있다.Meanwhile, the estimating unit 130 can estimate the velocity v (velocity and directionality) of the object 300 according to the embodiment. The estimating unit 130 may use the initial position Xo of the object 300 and the position P of the object 300 after the predetermined time t. This can be expressed by the following equation (5).

Figure 112018003156288-pat00014
Figure 112018003156288-pat00014

Figure 112018003156288-pat00015
Figure 112018003156288-pat00015

아울러, 실시예에 따라서 추정부(130)는 대상 물체(300)의 이동 궤적을 추정할 수 있다. 이를 위해서 추정부(130)는 대상 물체(300)의 속도(속력과 방향성)를 이용할 수 있다. 대상 물체(300)의 속도가 주어진 경우 그 이동 궤적을 추정하는 것은 자명한 바, 이에 대한 설명은 생략하기로 한다.In addition, the estimator 130 may estimate the movement trajectory of the object 300 according to the embodiment. For this, the estimator 130 may use the speed (speed and directionality) of the object 300. It is obvious that the movement trajectory is estimated when the velocity of the object 300 is given, and a description thereof will be omitted.

도 9는 일 실시예에 따른 대상 물체의 위치를 추정하는 방법의 절차를 예시적으로 도시하고 있다. 도 9에 도시된 위치 추정 방법은 도 1에 도시된 위치 추정 장치에 의해 수행 가능하다. 아울러, 도 9에 도시된 방법은 예시적인 것에 불과하므로, 도 9에 도시된 것과 다른 순서로 각 단계가 수행될 수 있으며, 도 9에 도시되지 않은 절차가 추가로 수행될 수 있고, 아울러 도 9에 도시된 절차 중 적어도 하나가 수행되지 않을 수도 있다.FIG. 9 exemplarily shows a procedure of a method of estimating the position of an object according to an embodiment. The position estimation method shown in FIG. 9 can be performed by the position estimation apparatus shown in FIG. 9 may be performed in a different order from that shown in Fig. 9, and a procedure not shown in Fig. 9 may be additionally performed. In addition, as shown in Fig. 9 At least one of the procedures shown in FIG.

도 9를 참조하면, 적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 단계가 수행된다(S100).Referring to FIG. 9, based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed, the position estimation of the object among the at least two surrounding objects A step of selecting the surrounding objects to be used in the step S100 is performed by using a predetermined learned model (S100).

또한, 상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계가 수행된다(S110).In addition, a step of estimating a position after a predetermined first time for each of the selected peripheral objects is performed based on the first information (S110).

또한, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계가 수행된다(S120).The step of estimating the position after the predetermined first time with respect to the object is performed using the estimated position after the first predetermined time and the initial position of the object included in the second information (S120).

이하, 위치 추정 방법은 위치 추정 장치(100)에 의해 수행되는 절차이므로, 위치 추정 방법에 대한 것은 이미 설명한 위치 추정 장치(100)에 대한 설명을 원용하기로 한다.Hereinafter, since the position estimation method is a procedure performed by the position estimation apparatus 100, a description of the position estimation apparatus 100 described above will be used for the position estimation method.

한편, 본 발명의 사상은 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현되거나, 또는 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체에 저장될 수 있다.On the other hand, the spirit of the present invention may be embodied in the form of a computer program stored in a computer-readable recording medium, or may be stored in a computer-readable recording medium storing a computer program.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and changes may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as falling within the scope of the present invention.

100 : 위치 추정 장치
100 : 탐색 장치
200 : 대상 물체
100:
100:
200: Target object

Claims (20)

삭제delete 적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 주변 물체 선별부와,
상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하며, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 추정부를 포함하고,
상기 모델은,
분류 알고리즘으로서 PCA(Principal Component Analysis) 또는 SVM(Support Vector Machine) 중 어느 하나인
대상 물체에 대한 위치 추정 장치.
A peripheral object to be used for position estimation of the object among the at least two surrounding objects based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed A peripheral object selecting unit for selecting objects using a predetermined learned model,
Estimating a position after a predetermined first time for each of the selected peripheral objects on the basis of the first information, calculating a position after the estimated first predetermined time and an initial value of the object included in the second information And estimating a position after the predetermined first time with respect to the object by using the position,
In the model,
As a classification algorithm, either Principal Component Analysis (PCA) or Support Vector Machine (SVM)
A position estimating device for a target object.
적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 주변 물체 선별부와,
상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하며, 상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 추정부를 포함하고,
상기 모델은,
상기 제1 정보 및 상기 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중에서 소정의 제2 시간 이후에 소정의 경계 영역을 벗어나지 않는 주변 물체를 상기 대상 물체의 위치 추정에 이용될 주변 물체로 선별하는
대상 물체에 대한 위치 추정 장치.
A peripheral object to be used for position estimation of the object among the at least two surrounding objects based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed A peripheral object selecting unit for selecting objects using a predetermined learned model,
Estimating a position after a predetermined first time for each of the selected peripheral objects on the basis of the first information, calculating a position after the estimated first predetermined time and an initial value of the object included in the second information And estimating a position after the predetermined first time with respect to the object by using the position,
In the model,
A peripheral object which does not deviate from a predetermined boundary area after a predetermined second time among the at least two peripheral objects based on the first information and the second information is selected as a peripheral object to be used for position estimation of the object
A position estimating device for a target object.
제 2 항 또는 제 3 항에 있어서,
상기 제1 정보는 상기 적어도 두 개의 주변 물체 각각에 대한 위치 정보, 속력 정보 및 이동 방향에 대한 정보를 포함하고,
상기 제2 정보는 상기 대상 물체에 대한 초기 위치 정보를 포함하는
대상 물체에 대한 위치 추정 장치.
The method according to claim 2 or 3,
Wherein the first information includes information on position information, speed information, and direction of movement of each of the at least two peripheral objects,
Wherein the second information includes initial position information on the object
A position estimating device for a target object.
제 4 항에 있어서,
상기 제1 정보는,
상기 적어도 두 개의 주변 물체 각각이 상기 대상 물체와 동일 카테고리로 분류되는지를 나타내는 연관성 정보를 포함하는
대상 물체에 대한 위치 추정 장치.
5. The method of claim 4,
Wherein the first information comprises:
And associating information indicating whether each of the at least two surrounding objects is classified into the same category as the object object
A position estimating device for a target object.
제 2 항 또는 제 3 항에 있어서,
상기 추정부는,
상기 초기 위치를 중심으로 상기 추정된 소정의 제1 시간 후의 위치를 점대칭한 위치를 산출하고, 상기 산출된 점대칭한 위치와 상기 초기 위치에 대한 무게 중심점을 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치로 추정하는
대상 물체에 대한 위치 추정 장치.
The method according to claim 2 or 3,
Wherein the estimating unit comprises:
And calculating a point-symmetric position of the position after the estimated first predetermined time with respect to the initial position, calculating a point centered on the calculated point symmetric position and the initial position with respect to the object, Estimate to a later location
A position estimating device for a target object.
제 6 항에 있어서,
상기 제1 정보는,
상기 적어도 두 개의 주변 물체 각각이 상기 대상 물체와 동일 카테고리로 분류되는지를 나타내는 연관성 정보를 포함하며,
상기 추정부는,
상기 대상 물체와 동일 카테고리로 분류되는 주변 물체에 대해서는 상기 초기 위치와 상기 추정된 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 작은 가중치를 곱한 거리만큼이 상기 초기 위치로부터 이격되도록 점대칭하여 산출하고,
상기 대상 물체와 상이한 카테고리로 분류되는 주변 물체에 대해서는 상기 초기 위치와 상기 추정된 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 큰 가중치를 곱한 거리만큼이 상기 초기 위치로부터 이격되도록 점대칭하여 산출하는
대상 물체에 대한 위치 추정 장치.
The method according to claim 6,
Wherein the first information comprises:
And association information indicating whether each of the at least two surrounding objects is classified into the same category as the object,
Wherein the estimating unit comprises:
And calculating a distance between the initial position and a position after the estimated first predetermined time by a small weight relative to a peripheral object that is classified into the same category as the object,
The distance between the initial position and the position after the estimated first predetermined time is multiplied by a relatively large weight for a peripheral object classified into a category different from the target object so as to be spaced apart from the initial position and calculated
A position estimating device for a target object.
제 2 항 또는 제 3 항에 있어서,
상기 추정부는,
상기 대상 물체에 대한 초기 위치 및 상기 소정의 제1 시간 후의 위치를 기초로 상기 대상 물체의 속도를 더 추정하는
대상 물체에 대한 위치 추정 장치.
The method according to claim 2 or 3,
Wherein the estimating unit comprises:
Further estimates the velocity of the object based on an initial position of the object and a position after the predetermined first time
A position estimating device for a target object.
제 8 항에 있어서,
상기 추정부는,
상기 추정된 대상 물체의 속도를 기초로 상기 추정된 대상 물체의 이동 궤적을 추정하는
대상 물체에 대한 위치 추정 장치.
9. The method of claim 8,
Wherein the estimating unit comprises:
Estimating a movement trajectory of the estimated object based on the velocity of the estimated object
A position estimating device for a target object.
삭제delete 위치 추정 장치에 의해 수행되는 위치 추정 방법으로서,
적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 단계와,
상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와,
상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계를 포함하고,
상기 모델은,
분류 알고리즘으로서 PCA(Principal Component Analysis) 또는 SVM(Support Vector Machine) 중 어느 하나인
위치 추정 방법.
A position estimating method performed by a position estimating apparatus,
A peripheral object to be used for position estimation of the object among the at least two surrounding objects based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed Selecting using a predetermined learned model,
Estimating a position after a predetermined first time for each of the selected peripheral objects based on the first information;
Estimating a position after the predetermined first time with respect to the target object using the estimated position after the first predetermined time and the initial position with respect to the target object included in the second information,
In the model,
As a classification algorithm, either Principal Component Analysis (PCA) or Support Vector Machine (SVM)
Position estimation method.
위치 추정 장치에 의해 수행되는 위치 추정 방법으로서,
적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 단계와,
상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와,
상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계를 포함하고,
상기 모델은,
상기 제1 정보 및 상기 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중에서 소정의 제2 시간 이후에 소정의 경계 영역을 벗어나지 않는 주변 물체를 상기 대상 물체의 위치 추정에 이용될 주변 물체로 선별하는
위치 추정 방법.
A position estimating method performed by a position estimating apparatus,
A peripheral object to be used for position estimation of the object among the at least two surrounding objects based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed Selecting using a predetermined learned model,
Estimating a position after a predetermined first time for each of the selected peripheral objects based on the first information;
Estimating a position after the predetermined first time with respect to the target object using the estimated position after the first predetermined time and the initial position with respect to the target object included in the second information,
In the model,
A peripheral object which does not deviate from a predetermined boundary area after a predetermined second time among the at least two peripheral objects based on the first information and the second information is selected as a peripheral object to be used for position estimation of the object
Position estimation method.
제 11 항 또는 제 12 항에 있어서,
상기 제1 정보는 상기 적어도 두 개의 주변 물체 각각에 대한 위치 정보, 속력 정보 및 이동 방향에 대한 정보를 포함하고,
상기 제2 정보는 상기 대상 물체에 대한 초기 위치 정보를 포함하는
위치 추정 방법.
13. The method according to claim 11 or 12,
Wherein the first information includes information on position information, speed information, and direction of movement of each of the at least two peripheral objects,
Wherein the second information includes initial position information on the object
Position estimation method.
제 13 항에 있어서,
상기 제1 정보는,
상기 적어도 두 개의 주변 물체 각각이 상기 대상 물체와 동일 카테고리로 분류되는지를 나타내는 연관성 정보를 포함하는
위치 추정 방법.
14. The method of claim 13,
Wherein the first information comprises:
And associating information indicating whether each of the at least two surrounding objects is classified into the same category as the object object
Position estimation method.
제 11 항 또는 제 12 항에 있어서,
상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계는,
상기 초기 위치를 중심으로 상기 추정된 소정의 제1 시간 후의 위치를 점대칭한 위치를 산출하고, 상기 산출된 점대칭한 위치와 상기 초기 위치에 대한 무게 중심점을 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치로 추정하는
위치 추정 방법.
13. The method according to claim 11 or 12,
Wherein the step of estimating the position after the predetermined first time with respect to the target object comprises:
And calculating a point-symmetric position of the position after the estimated first predetermined time with respect to the initial position, calculating a point centered on the calculated point symmetric position and the initial position with respect to the object, Estimate to a later location
Position estimation method.
제 15 항에 있어서,
상기 제1 정보는,
상기 적어도 두 개의 주변 물체 각각이 상기 대상 물체와 동일 카테고리로 분류되는지를 나타내는 연관성 정보를 포함하며,
상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계는,
상기 대상 물체와 동일 카테고리로 분류되는 주변 물체에 대해서는 상기 초기 위치와 상기 추정된 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 작은 가중치를 곱한 거리만큼이 상기 초기 위치로부터 이격되도록 점대칭하여 산출하고,
상기 대상 물체와 상이한 카테고리로 분류되는 주변 물체에 대해서는 상기 초기 위치와 상기 추정된 소정의 제1 시간 후의 위치 간의 거리에 상대적으로 큰 가중치를 곱한 거리만큼이 상기 초기 위치로부터 이격되도록 점대칭하여 산출하는
위치 추정 방법.
16. The method of claim 15,
Wherein the first information comprises:
And association information indicating whether each of the at least two surrounding objects is classified into the same category as the object,
Wherein the step of estimating the position after the predetermined first time with respect to the target object comprises:
And calculating a distance between the initial position and a position after the estimated first predetermined time by a small weight relative to a peripheral object that is classified into the same category as the object,
The distance between the initial position and the position after the estimated first predetermined time is multiplied by a relatively large weight for a peripheral object classified into a category different from the target object so as to be spaced apart from the initial position and calculated
Position estimation method.
제 11 항 또는 제 12 항에 있어서,
상기 대상 물체에 대한 초기 위치 및 상기 소정의 제1 시간 후의 위치를 기초로 상기 대상 물체의 속도를 추정하는 단계를 더 포함하는
위치 추정 방법.
13. The method according to claim 11 or 12,
Further comprising estimating a velocity of the object based on an initial position of the object and a position after the predetermined first time
Position estimation method.
제 17 항에 있어서,
상기 추정된 대상 물체의 속도를 기초로 상기 추정된 대상 물체의 이동 궤적을 추정하는 단계를 더 포함하는
위치 추정 방법.
18. The method of claim 17,
And estimating a movement trajectory of the estimated object based on the estimated velocity of the target object
Position estimation method.
적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 단계 - 상기 모델은, 분류 알고리즘으로서 PCA(Principal Component Analysis) 또는 SVM(Support Vector Machine) 중 어느 하나임 - 와,
상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와,
상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계를 수행하도록 프로그램된
컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램.
A peripheral object to be used for position estimation of the object among the at least two surrounding objects based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed Selecting a model using a predetermined learned model, the model being one of a Principal Component Analysis (PCA) or a Support Vector Machine (SVM) as a classification algorithm;
Estimating a position after a predetermined first time for each of the selected peripheral objects based on the first information;
And estimating a position after the predetermined first time with respect to the target object using the estimated position after the first predetermined time and the initial position with respect to the target object included in the second information
A computer program stored on a computer readable recording medium.
적어도 두 개의 주변 물체 각각에 대한 제1 정보 및 속도가 확인되지 않은 대상 물체(target object)에 대한 제2 정보를 기초로 상기 적어도 두 개의 주변 물체 중 상기 대상 물체의 위치 추정에 이용될 주변 물체를 소정의 학습된 모델을 이용하여서 선별하는 단계 - 상기 모델은, 분류 알고리즘으로서 PCA(Principal Component Analysis) 또는 SVM(Support Vector Machine) 중 어느 하나임 - 와,
상기 제1 정보를 기초로 상기 선별된 주변 물체 각각에 대한 소정의 제1 시간 후의 위치를 추정하는 단계와,
상기 추정된 소정의 제1 시간 후의 위치 및 상기 제2 정보에 포함된 상기 대상 물체에 대한 초기 위치를 이용하여서 상기 대상 물체에 대한 상기 소정의 제1 시간 후의 위치를 추정하는 단계를 수행하도록 프로그램된
컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체.
A peripheral object to be used for position estimation of the object among the at least two surrounding objects based on first information on each of at least two surrounding objects and second information on a target object whose speed is not confirmed Selecting a model using a predetermined learned model, the model being one of a Principal Component Analysis (PCA) or a Support Vector Machine (SVM) as a classification algorithm;
Estimating a position after a predetermined first time for each of the selected peripheral objects based on the first information;
And estimating a position after the predetermined first time with respect to the target object using the estimated position after the first predetermined time and the initial position with respect to the target object included in the second information
A computer readable recording medium storing a computer program.
KR1020180003466A 2018-01-10 2018-01-10 Apparatus and method for estimating location of target object KR101990482B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003466A KR101990482B1 (en) 2018-01-10 2018-01-10 Apparatus and method for estimating location of target object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003466A KR101990482B1 (en) 2018-01-10 2018-01-10 Apparatus and method for estimating location of target object

Publications (1)

Publication Number Publication Date
KR101990482B1 true KR101990482B1 (en) 2019-06-18

Family

ID=67103079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003466A KR101990482B1 (en) 2018-01-10 2018-01-10 Apparatus and method for estimating location of target object

Country Status (1)

Country Link
KR (1) KR101990482B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102170743B1 (en) 2019-12-26 2020-10-27 국방과학연구소 Apparatus and method for modeling steady-state network using unsupervised learning
KR20210090036A (en) 2020-01-09 2021-07-19 국방과학연구소 Apparatus and method for estimating location of target object
KR20240076134A (en) 2022-11-23 2024-05-30 포항공과대학교 산학협력단 3D Object Position Estimation Apparatus and Method for Unmanned Automation of Crane

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101405583B1 (en) 2012-10-30 2014-06-10 현대자동차주식회사 Apparatus and method for estimating velocity of vehicle
JP5610847B2 (en) * 2010-05-26 2014-10-22 三菱電機株式会社 Angular velocity estimation apparatus, computer program, and angular velocity estimation method
WO2017122354A1 (en) * 2016-01-15 2017-07-20 三菱電機株式会社 Position estimation device, position estimation method, and position estimation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5610847B2 (en) * 2010-05-26 2014-10-22 三菱電機株式会社 Angular velocity estimation apparatus, computer program, and angular velocity estimation method
KR101405583B1 (en) 2012-10-30 2014-06-10 현대자동차주식회사 Apparatus and method for estimating velocity of vehicle
WO2017122354A1 (en) * 2016-01-15 2017-07-20 三菱電機株式会社 Position estimation device, position estimation method, and position estimation program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102170743B1 (en) 2019-12-26 2020-10-27 국방과학연구소 Apparatus and method for modeling steady-state network using unsupervised learning
KR20210090036A (en) 2020-01-09 2021-07-19 국방과학연구소 Apparatus and method for estimating location of target object
KR102289874B1 (en) * 2020-01-09 2021-08-13 국방과학연구소 Apparatus and method for estimating location of target object
KR20240076134A (en) 2022-11-23 2024-05-30 포항공과대학교 산학협력단 3D Object Position Estimation Apparatus and Method for Unmanned Automation of Crane

Similar Documents

Publication Publication Date Title
KR101990482B1 (en) Apparatus and method for estimating location of target object
EP3032221B1 (en) Method and system for improving accuracy of digital map data utilized by a vehicle
CN103781685B (en) The autonomous drive-control system of vehicle
US10289122B2 (en) Communication link accessibility aware navigation
KR101572851B1 (en) Method for building map of mobile platform in dynamic environment
CN101271333B (en) Localization method for a moving robot
EP3735621A1 (en) Adjustable object avoidance proximity threshold based on classification of detected objects
US11200434B2 (en) System and method for tracking objects using multi-edge bounding box factors
CN112805766B (en) Apparatus and method for updating detailed map
KR20120001532A (en) Apparatus for reconizing location using range signal and method thereof
CN109564682A (en) Road surface estimation device, controller of vehicle, road surface estimation method and program
US20230236038A1 (en) Position estimation method, position estimation device, and position estimation program
CN113189989B (en) Vehicle intention prediction method, device, equipment and storage medium
JP2021051737A (en) Object location analysis
JP2017134832A (en) System and method for proposing automated driving
KR20110097344A (en) Apparatus and method for double-updating in simultaneous localization and mapping for a mobile robot
CN114942430A (en) Multi-hypothesis based fusion of sensor data
CN106462750B (en) For determining and providing the method for the surface mark for being positioned to vehicle
KR102289874B1 (en) Apparatus and method for estimating location of target object
KR20210093578A (en) Method for updating of model, computer-readable storage medium and computer program
CN112585616A (en) Method for predicting at least one future speed vector and/or future posture of a pedestrian
CN110832280A (en) Map processing method, map processing apparatus, and computer-readable storage medium
WO2021100650A1 (en) Position estimation device, vehicle, position estimation method and position estimation program
CN109668565A (en) The localization method and device of target object
CN113658251A (en) Distance measuring method, device, electronic equipment, storage medium and system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant