WO2015083875A1 - 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템 - Google Patents

입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템 Download PDF

Info

Publication number
WO2015083875A1
WO2015083875A1 PCT/KR2013/012102 KR2013012102W WO2015083875A1 WO 2015083875 A1 WO2015083875 A1 WO 2015083875A1 KR 2013012102 W KR2013012102 W KR 2013012102W WO 2015083875 A1 WO2015083875 A1 WO 2015083875A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
estimating
reliability
position estimation
estimated
Prior art date
Application number
PCT/KR2013/012102
Other languages
English (en)
French (fr)
Inventor
김정호
최병호
황영배
배주한
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Publication of WO2015083875A1 publication Critical patent/WO2015083875A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to camera position estimation, and more particularly, to a method for calculating the position of a mobile system such as a camera or a robot or a vehicle equipped with a camera.
  • the probabilistic filtering technique for camera position estimation is based on a particle filter that predicts a current camera pose from a motion model and newly updates a predicted position from data.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide a method for estimating camera position through particle generation and screening that can ensure the accuracy of the current position without seriously reducing the processing speed and It is to provide a mobile system applying this.
  • a camera position estimation method for achieving the above object, the first estimation step of estimating the position of the camera by a global position estimation technique; A second estimating step of estimating the position of the camera from the position estimated in the first estimating step by a sequential position estimating technique; Calculating a reliability of the position estimated in the second estimating step; And re-performing from the second estimating step if the reliability is greater than or equal to the reference in the calculating step.
  • the step of performing again from the first estimation step may further include.
  • the first estimating step may estimate the position of the camera by using corresponding points found by feature point matching between the previous image and the current image.
  • the second estimating step may further include generating motion particles of the camera; And selecting a predetermined number of moving particles among the moving particles.
  • the selecting step may include calculating weights of the moving particles; And selecting the predetermined number of moving particles with reference to the weights.
  • the weight may be a number in which the absolute value of the difference between the observation in the current image and the corresponding observation in the previous image is less than the reference.
  • the sum of the weights may be calculated as the reliability.
  • a mobile system a camera for generating an image by shooting; And estimating the position of the camera using a global position estimation technique, estimating the position of the camera using a sequential position estimation technique from the estimated position, and if the reliability of the estimated position is higher than a reference, the sequential position. And a processor that estimates the position of the camera again using an estimation technique.
  • the global position estimation technique and the sequential position estimation technique are adaptively used based on the reliability to ensure the accuracy of the current position without seriously reducing the position estimation speed. It becomes possible.
  • FIG. 1 is a flowchart provided for explaining a camera position estimation method according to an embodiment of the present invention
  • FIG. 2 is a diagram illustrating a camera motion particle generation result by the RANSAC algorithm
  • FIG. 3 is a view illustrating a camera position estimation result according to the method illustrated in FIG. 1, and
  • FIG. 4 is a block diagram of a robot system according to another embodiment of the present invention.
  • the camera position estimation method according to the present embodiment selectively performs a global position estimation technique and a sequential position tracking technique in order to prevent errors from accumulating in estimating the position of the camera from an image.
  • the accuracy of the camera position estimation is improved, which will be described in detail below.
  • a position of a camera is estimated by using a global position estimation technique (S110).
  • the global position estimation technique in step S110 is a technique of estimating the movement of the camera using the corresponding points found by the feature point matching between the previous image and the current image.
  • the global position estimation technique in step S110 may utilize other types of global position estimation techniques, such as based on color matching, in addition to feature point matching.
  • the position of the camera is estimated from the position estimated in step S110 by the image-based sequential position estimation technique (S120 to S140).
  • Camera motion particles are generated from the estimated position (S120).
  • Camera movement particles include camera rotation and translation.
  • the camera motion particle generation in step S120 may be performed by applying a sample acquisition method by a random SAmple consensus (RANSAC) algorithm.
  • RANSAC random SAmple consensus
  • FIG. 2 illustrates the previous image and the current image
  • the center of FIG. 2 illustrates the distribution of particles by three-dimensional movement of the camera
  • the right side of FIG. 2 illustrates the distribution of particles by three-dimensional rotation of the camera. It was.
  • a weight is calculated for the camera motion particles generated in step S120 (S130).
  • the weight for the camera moving particle can be calculated by the following equation (1).
  • m l is the Three-dimensional coordinates from the previous image corresponding to Is the i-th camera motion particle
  • ⁇ l is the degree of ambiguity in the image.
  • the weight may be regarded as a number in which the absolute value of the difference between the observation in the current image and the observation in the previous image corresponding thereto is less than the reference.
  • step S130 When the weights are calculated for all camera motion particles in step S130, only some of the camera motion particles generated in step S120 are selected based on the calculated weights (S140).
  • step S140 can be seen to function as a particle filter in the camera position estimation method according to the present embodiment. It should be noted that the number of camera motion particles selected in step S140 is not one but a plurality, and fixed to N.
  • step S150 the reliability of the N camera motion particles selected in step S140 is calculated (S150).
  • Reliability C in step S150 is calculated as the sum of the selected N camera motion particles, as shown in Equation 2 below.
  • step S150 When the reliability C calculated in step S150 is equal to or greater than the threshold Th (S160-Y), sequential position estimation is continued for the next image of the current image (S120 to S140).
  • the threshold Th may be set to a desired value, or may be set to be adaptively changed according to needs and circumstances.
  • step S120 Sequential position estimation is continued, and the camera motion particles are regenerated from the camera motion particles selected in step S130 (S120), the weights are recalculated for the generated camera motion particles (S130), and based on the calculated weights.
  • step S120 only some of the camera motion particles generated again are selected again (S140).
  • step S150 when the reliability (C) calculated in the step S150 is less than the threshold (Th) (S160-N), the next image of the current image is performed again from step S110. That is, after estimating the position of the camera again by global position estimation, sequential position estimation is performed. This can be seen as initializing the position estimate and performing a new one again.
  • FIG. 3 illustrates a camera position estimation result according to the method illustrated in FIG. 1.
  • the red line is the actual moving path of the camera
  • the blue line is the camera position estimation path.
  • the dark spots shown in FIG. 3 have low reliability, and thus are positions that are restarted from the global position estimation.
  • the robot system 200 includes a camera 210, a communication unit 220, a processor 230, a driver 240, and a storage unit 250.
  • the camera 210 is a means for generating an image through photographing, but may be implemented as a camera having six degrees of freedom, but there is no limitation on the type and location thereof.
  • the driver 240 is a means for performing the movement of the robot system 200 and other functions.
  • the processor 230 estimates the position of the camera position 210, that is, the position of the robot system 200, by executing the position estimation algorithm illustrated in FIG. 1 based on the image generated by the camera 210.
  • the communicator 220 is a means for wirelessly communicating with the outside, and may transmit an image captured by the camera 210 and location information estimated by the processor 230 as well as other information to the outside.
  • the storage unit 250 stores an image generated by the camera 210, position information estimated by the processor 230, and the like, and a position estimation algorithm illustrated in FIG. 2 is stored as a program.
  • the robot system 200 shown in FIG. 4 is just an example to which the position estimation method shown in FIG. 1 is applicable.
  • the position estimation method shown in FIG. 1 may be applied to other movable systems (eg, vehicles) in addition to the robot system 200 shown in FIG. 4.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템이 제공된다. 본 발명의 실시예에 따른 카메라 위치 추정 방법은, 신뢰도를 기반으로 전역 위치 추정 기법과 순차적 위치 추정 기법을 적응적으로 이용하여 위치를 추정한다. 이에 의해, 추정 속도를 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있게 되고, 순차적 위치 추정의 신뢰도가 떨어지는 경우, 전역 위치 추정을 재수행하므로, 순차적 위치 추정 과정에서 발생할 수 있는 오차 누적 문제를 해결할 수 있게 된다.

Description

입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템
본 발명은 카메라 위치 추정에 관한 것으로, 더욱 상세하게는 카메라 또는 카메라가 장착된 로봇이나 차량 등 이동 시스템의 위치를 계산하기 위한 방법에 관한 것이다.
카메라 위치 추정을 위한 확률적 필터링 기법은 모션 모델로부터 현재 카메라 자세를 예측하고, 데이터로부터 예측된 위치를 새롭게 갱신하는 입자 필터(Particle Filter)에 기반한 기법이 대표적이다.
입자 필터의 경우, 입자들을 생성하는 방식이 카메라 위치 추정의 성능을 좌우하는데, 입자 수를 많게 하면 정확성은 향상되는 반면 처리 속도가 느려지기 때문에, 하나의 입자만을 선별하고 있다.
이 같은 방식의 입자 필터에 의해, 처리 속도가 증가하는 하였지만, 하나의 입자만 선별하기 때문에, 오차가 누적되면 그 정확도가 매우 떨어지게 되는 문제가 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 처리 속도의 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있는 입자 생성과 선별을 통한 카메라 위치 추정 방법 및 이를 적용한 이동 시스템을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 카메라 위치 추정 방법은, 전역 위치 추정 기법으로 카메라의 위치를 추정하는 제1 추정단계; 상기 제1 추정단계에서 추정된 위치로부터, 순차적 위치 추정 기법으로 카메라의 위치를 추정하는 제2 추정단계; 상기 제2 추정단계에서 추정된 위치에 대한 신뢰도를 산출하는 단계; 및 상기 산출단계에서 신뢰도가 기준 이상이면, 상기 제2 추정단계부터 재수행하는 단계;를 포함한다.
그리고, 본 발명의 일 실시예에 따른 카메라 위치 추정 방법은, 상기 산출단계에서 신뢰도가 기준 미만이면, 상기 제1 추정단계부터 재수행하는 단계;를 더 포함할 수 있다.
또한, 상기 제1 추정단계는, 이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여, 상기 카메라의 위치를 추정할 수 있다.
그리고, 상기 제2 추정단계는, 상기 카메라의 움직임 입자들을 생성하는 단계; 및 상기 움직임 입자들 중 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함할 수 있다.
또한, 상기 선별단계는, 상기 움직임 입자들의 가중치들을 계산하는 단계; 및 상기 가중치들을 참조하여, 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함할 수 있다.
그리고, 상기 가중치는, 현재 영상에서의 관측치 및 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수일 수 있다.
또한, 상기 산출단계는, 상기 가중치들의 합을 상기 신뢰도로 산출할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 이동 시스템은, 촬영을 통해 영상을 생성하는 카메라; 및 상기 영상을 이용하여, 전역 위치 추정 기법으로 상기 카메라의 위치를 추정하고, 추정된 위치로부터 순차적 위치 추정 기법으로 상기 카메라의 위치를 추정하며, 추정된 위치에 대한 신뢰도가 기준 이상이면 상기 순차적 위치 추정 기법으로 상기 카메라의 위치를 다시 추정하는 프로세서;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 신뢰도를 기반으로 전역 위치 추정 기법과 순차적 위치 추정 기법을 적응적으로 이용하여 위치 추정 속도를 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있게 된다.
특히, 순차적 위치 추정의 신뢰도가 떨어지는 경우, 전역 위치 추정을 재수행하므로, 순차적 위치 추정 과정에서 발생할 수 있는 오차 누적 문제를 해결할 수 있게 된다.
아울러, 급격한 움직임 변화 또는 가려짐이 발생한 경우에도, 신뢰도를 바탕으로 정확한 위치 추정이 가능해진다.
도 1은 본 발명의 일 실시예에 따른 카메라 위치 추정 방법의 설명에 제공되는 흐름도,
도 2는 RANSAC 알고리즘에 의한 카메라 움직임 입자 생성 결과를 예시한 도면,
도 3은, 도 1에 도시된 방법에 따른 카메라 위치 추정 결과가 예시된 도면, 그리고,
도 4는 본 발명의 다른 실시예에 따른 로봇 시스템의 블럭도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 카메라 위치 추정 방법의 설명에 제공되는 흐름도이다. 본 실시예에 따른 카메라 위치 추정 방법은, 영상으로부터 카메라의 위치를 추정함에 있어 오차가 누적되는 것을 방지하기 위해, 전역 위치 추정 기법과 순차적 위치 추적 기법을 선택적으로 수행한다.
본 실시예에 따른 카메라 위치 추정 방법에 의해, 카메라 위치 추정의 정확도가 향상되는데, 이하에서 상세히 설명한다.
도 1에 도시된 바와 같이, 먼저 전역 위치 추정 기법으로 카메라의 위치를 추정한다(S110). S110단계에서의 전역 위치 추정 기법은, 이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여 카메라의 움직임을 추정하는 기법이다.
S110단계에서의 전역 위치 추정 기법은, 특징점 매칭 이외에도 컬러 매칭 기반의 등 다른 종류의 전역 위치 추정 기법을 활용할 수 있다.
이후, S110단계에서 추정된 위치로부터, 영상 기반의 순차적 위치 추정 기법으로 카메라의 위치를 추정한다(S120 내지 S140).
순차적 위치 추정을 위해, 먼저 추정 위치로부터 카메라 움직임 입자들을 생성한다(S120). 카메라 움직임 입자에는 카메라 회전량(Rotation)과 이동량(Translation)이 포함된다.
S120단계에서의 카메라 움직임 입자 생성은, RANSAC(RANdom SAmple Consensus) 알고리즘에 의한 샘플 획득 방식을 적용하여 수행가능하다.
도 2의 좌측에는 이전 영상과 현재 영상을 예시하였고, 도 2의 중앙에는 카메라의 3차원 이동에 의한 입자들의 분포를 예시하였으며, 도 2의 우측에는 카메라의 3차원 회전에 의한 입자들의 분포를 예시하였다.
다음, S120단계에서 생성된 카메라 움직임 입자들에 대해 가중치를 계산한다(S130). 카메라 움직임 입자에 대한 가중치는, 다음의 수학식 1을 통해 계산가능하다.
수학식 1
Figure PCTKR2013012102-appb-M000001
여기서
Figure PCTKR2013012102-appb-I000001
는 현재 영상에서의 관측치, ml
Figure PCTKR2013012102-appb-I000002
에 해당하는 이전 영상에서의 3차원 좌표,
Figure PCTKR2013012102-appb-I000003
는 i번째 카메라 움직임 입자, σl은 영상에서의 모호성 정도를 나타낸다.
수학식 1을 통해, 가중치는 현재 영상에서의 관측치와 그에 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수로 볼 수 있다.
S130단계에서 모든 카메라 움직임 입자들에 대해 가중치가 계산되면, 계산된 가중치를 기초로 S120단계에서 생성된 카메라 움직임 입자들 중 일부만을 선별한다(S140).
즉, S140단계는, 본 실시예에 따른 카메라 위치 추정 방법에서 입자 필터로서 기능 하는 것으로 볼 수 있다. 유의할 점은 S140단계에서 선별되는 카메라 움직임 입자들의 개수는 1개가 아닌 복수이며, N개로 고정되어 있다는 점이다.
다음, S140단계에서 선별된 N개의 카메라 움직임 입자들에 대한 신뢰도를 산출한다(S150). S150단계에서의 신뢰도(C)는, 아래의 수학식 2에 나타난 바와 같이, 선별된 N개의 카메라 움직임 입자들의 합으로 산출된다.
수학식 2
Figure PCTKR2013012102-appb-M000002
이는, 주변 가능성(Marginal Likelihood)을 이용한 입자 필터에 대한 신뢰도를 평가하는 것으로 볼 수 있다.
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 이상인 경우(S160-Y), 현재 영상의 다음 영상에 대해, 순차적 위치 추정을 계속한다(S120 내지 S140).
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 이상인 경우는, 신뢰도가 높은 경우이기 때문이다. 임계치(Th)는 원하는 값으로 설정가능함은 물론, 필요와 상황에 따라 적응적으로 변경되도록 설정하는 것도 가능하다.
순차적 위치 추정이 계속되어, S130단계에서 선별된 카메라 움직임 입자들로부터 카메라 움직임 입자들을 다시 생성하고(S120), 생성된 카메라 움직임 입자들에 대해 가중치를 다시 계산하여(S130), 계산된 가중치를 기초로 S120단계에서 다시 생성된 카메라 움직임 입자들 중 일부만을 다시 선별한다(S140).
한편, S150단계에서 산출된 신뢰도(C)가 임계치(Th) 미만인 경우(S160-N), 현재 영상의 다음 영상에 대해 S110단계부터 재수행한다. 즉, 카메라의 위치를 전역 위치 추정으로 다시 추정한 후에, 순차적 위치 추정을 수행한다. 이는, 위치 추정을 초기화하고 새롭게 다시 수행하는 것으로 볼 수 있다.
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 미만인 경우는, 순차적 위치 추정 결과에 대한 신뢰도가 낮은 경우로, 오차가 누적될 수 있어 이를 방지하기 위함이다.
도 3에는, 도 1에 도시된 방법에 따른 카메라 위치 추정 결과가 예시되어 있다. 도 3에서, 빨간선은 카메라의 실제 이동 경로이고, 파란선은 카메라 위치 추정 경로이다. 한편, 도 3에 도시된 검은점들은 신뢰도가 낮아, 전역 위치 추정부터 다시 시작된 위치들이다.
도 4는 본 발명의 다른 실시예에 따른 로봇 시스템의 블럭도이다. 도 4에 도시된 바와 같이, 본 실시예에 따른 로봇 시스템(200)은, 카메라(210), 통신부(220), 프로세서(230), 구동부(240) 및 저장부(250)를 포함한다.
카메라(210)는 촬영을 통해 영상을 생성하는 수단으로, 6 자유도의 카메라로 구현할 수 있지만, 그 종류와 위치에 대한 제한은 없다. 구동부(240)는 로봇 시스템(200)의 이동과 기타 다른 기능을 수행하는 수단이다.
프로세서(230)는 카메라(210)에 의해 생성된 영상을 기반으로, 도 1에 도시된 위치 추정 알고리즘을 실행하여 카메라 위치(210)의 위치, 즉 로봇 시스템(200)의 위치를 추정한다.
통신부(220)는 외부와 무선 통신을 위한 수단으로, 카메라(210)를 통해 촬영된 영상과 프로세서(230)에 의해 추정된 위치 정보는 물론 기타 다른 정보를 외부로 전송할 수 있다.
저장부(250)는 카메라(210)에 의해 생성된 영상과, 프로세서(230)에 의해 추정된 위치 정보 등이 저장되고, 도 2에 도시된 위치 추정 알고리즘이 프로그램으로 저장된 저장매체이다.
도 4에서 제시한 로봇 시스템(200)은, 도 1에서 제시한 위치 추정 방법이 적용가능한 일 예에 불과하다. 도 1에 도시된 위치 추정 방법은, 도 4에서 제시한 로봇 시스템(200) 외에 다른 이동가능한 시스템(예를 들면, 차량)에 적용될 수 있음은 물론이다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (8)

  1. 전역 위치 추정 기법으로 카메라의 위치를 추정하는 제1 추정단계;
    상기 제1 추정단계에서 추정된 위치로부터, 순차적 위치 추정 기법으로 카메라의 위치를 추정하는 제2 추정단계;
    상기 제2 추정단계에서 추정된 위치에 대한 신뢰도를 산출하는 단계; 및
    상기 산출단계에서 신뢰도가 기준 이상이면, 상기 제2 추정단계부터 재수행하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
  2. 제 1항에 있어서,
    상기 산출단계에서 신뢰도가 기준 미만이면, 상기 제1 추정단계부터 재수행하는 단계;를 더 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
  3. 제 1항에 있어서,
    상기 제1 추정단계는,
    이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여, 상기 카메라의 위치를 추정하는 것을 특징으로 하는 카메라 위치 추정 방법.
  4. 제 1항에 있어서,
    상기 제2 추정단계는,
    상기 카메라의 움직임 입자들을 생성하는 단계; 및
    상기 움직임 입자들 중 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
  5. 제 4항에 있어서,
    상기 선별단계는,
    상기 움직임 입자들의 가중치들을 계산하는 단계; 및
    상기 가중치들을 참조하여, 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
  6. 제 5항에 있어서,
    상기 가중치는,
    현재 영상에서의 관측치 및 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수인 것을 특징으로 하는 카메라 위치 추정 방법.
  7. 제 5항에 있어서,
    상기 산출단계는,
    상기 가중치들의 합을 상기 신뢰도로 산출하는 것을 특징으로 하는 카메라 위치 추정 방법.
  8. 촬영을 통해 영상을 생성하는 카메라; 및
    상기 영상을 이용하여, 전역 위치 추정 기법으로 상기 카메라의 위치를 추정하고, 추정된 위치로부터 순차적 위치 추정 기법으로 상기 카메라의 위치를 추정하며, 추정된 위치에 대한 신뢰도가 기준 이상이면 상기 순차적 위치 추정 기법으로 상기 카메라의 위치를 다시 추정하는 프로세서;를 포함하는 것을 특징으로 하는 이동 시스템.
PCT/KR2013/012102 2013-12-03 2013-12-24 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템 WO2015083875A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0148932 2013-12-03
KR20130148932A KR101483549B1 (ko) 2013-12-03 2013-12-03 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템

Publications (1)

Publication Number Publication Date
WO2015083875A1 true WO2015083875A1 (ko) 2015-06-11

Family

ID=52590700

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/012102 WO2015083875A1 (ko) 2013-12-03 2013-12-24 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템

Country Status (2)

Country Link
KR (1) KR101483549B1 (ko)
WO (1) WO2015083875A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109323697A (zh) * 2018-11-13 2019-02-12 大连理工大学 一种针对室内机器人任意点启动时粒子快速收敛的方法
CN110998472A (zh) * 2017-08-03 2020-04-10 日本电产新宝株式会社 移动体以及计算机程序
CN112767476A (zh) * 2020-12-08 2021-05-07 中国科学院深圳先进技术研究院 一种快速定位***、方法及应用

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040167670A1 (en) * 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system
US20080065267A1 (en) * 2006-09-13 2008-03-13 Samsung Electronics Co., Ltd. Method, medium, and system estimating pose of mobile robots
US20100152945A1 (en) * 2008-12-17 2010-06-17 Samsung Electronics Co., Ltd. Apparatus and method of localization of mobile robot
WO2012093799A2 (ko) * 2011-01-04 2012-07-12 Chon Young-Ill It통신기기 및 유비쿼터스 네트워크화 독립전문사이트를 이용한 광대역 종합 건강/안전관리시스템 및 그 방법
WO2012124852A1 (ko) * 2011-03-14 2012-09-20 (주)아이티엑스시큐리티 감시구역 상의 객체의 경로를 추적할 수 있는 스테레오 카메라 장치, 그를 이용한 감시시스템 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100966875B1 (ko) * 2006-09-26 2010-06-29 삼성전자주식회사 전방위 영상을 이용한 로봇의 위치 결정방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040167670A1 (en) * 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system
US20080065267A1 (en) * 2006-09-13 2008-03-13 Samsung Electronics Co., Ltd. Method, medium, and system estimating pose of mobile robots
US20100152945A1 (en) * 2008-12-17 2010-06-17 Samsung Electronics Co., Ltd. Apparatus and method of localization of mobile robot
WO2012093799A2 (ko) * 2011-01-04 2012-07-12 Chon Young-Ill It통신기기 및 유비쿼터스 네트워크화 독립전문사이트를 이용한 광대역 종합 건강/안전관리시스템 및 그 방법
WO2012124852A1 (ko) * 2011-03-14 2012-09-20 (주)아이티엑스시큐리티 감시구역 상의 객체의 경로를 추적할 수 있는 스테레오 카메라 장치, 그를 이용한 감시시스템 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110998472A (zh) * 2017-08-03 2020-04-10 日本电产新宝株式会社 移动体以及计算机程序
CN109323697A (zh) * 2018-11-13 2019-02-12 大连理工大学 一种针对室内机器人任意点启动时粒子快速收敛的方法
CN109323697B (zh) * 2018-11-13 2022-02-15 大连理工大学 一种针对室内机器人任意点启动时粒子快速收敛的方法
CN112767476A (zh) * 2020-12-08 2021-05-07 中国科学院深圳先进技术研究院 一种快速定位***、方法及应用
CN112767476B (zh) * 2020-12-08 2024-04-26 中国科学院深圳先进技术研究院 一种快速定位***、方法及应用

Also Published As

Publication number Publication date
KR101483549B1 (ko) 2015-01-16

Similar Documents

Publication Publication Date Title
US10636198B2 (en) System and method for monocular simultaneous localization and mapping
CN106446815B (zh) 一种同时定位与地图构建方法
CN107341814B (zh) 基于稀疏直接法的四旋翼无人机单目视觉测程方法
WO2017077925A1 (en) Method and system for estimating three-dimensional pose of sensor
EP3420530A1 (en) A device and method for determining a pose of a camera
US20130188827A1 (en) Human tracking method and apparatus using color histogram
CN104778690A (zh) 一种基于摄像机网络的多目标定位方法
WO2022059955A1 (ko) 레이더 포인트 클라우드 기반 자세 판단 시스템
WO2015083875A1 (ko) 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템
WO2017099510A1 (ko) 영상 통계정보에 기반한 정지장면 분할장치 및 그 방법
CN110243390B (zh) 位姿的确定方法、装置及里程计
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
WO2011062430A2 (ko) 적응적으로 객체를 추적하는 방법, 시스템, 및 컴퓨터 판독 가능한 기록 매체
CN109118532A (zh) 视觉景深估计方法、装置、设备及存储介质
CN113012224B (zh) 定位初始化方法和相关装置、设备、存储介质
WO2020014864A1 (zh) 位姿确定方法、设备、计算机可读存储介质
CN116052046A (zh) 一种基于目标跟踪的动态场景双目视觉slam方法
CN111273701A (zh) 一种云台视觉控制***以及控制方法
CN111815679A (zh) 一种基于双目相机的空间目标特征点丢失期间轨迹预测方法
CN112955712A (zh) 目标跟踪方法、设备及存储介质
CN112802112B (zh) 视觉定位方法、装置、服务器及存储介质
WO2018131729A1 (ko) 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템
CN114740854A (zh) 一种机器人避障控制方法和装置
CN113971687A (zh) 对象跟踪方法、装置电子设备及存储介质
CN113869123A (zh) 一种基于人群的事件检测方法及相关装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13898583

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13898583

Country of ref document: EP

Kind code of ref document: A1