KR20220101747A - 객체 위치 확인 시스템 및 방법 - Google Patents

객체 위치 확인 시스템 및 방법 Download PDF

Info

Publication number
KR20220101747A
KR20220101747A KR1020227022908A KR20227022908A KR20220101747A KR 20220101747 A KR20220101747 A KR 20220101747A KR 1020227022908 A KR1020227022908 A KR 1020227022908A KR 20227022908 A KR20227022908 A KR 20227022908A KR 20220101747 A KR20220101747 A KR 20220101747A
Authority
KR
South Korea
Prior art keywords
poi
vehicle
distance
camera
location
Prior art date
Application number
KR1020227022908A
Other languages
English (en)
Inventor
마이클 사이드 사니에이
샤오옌 시
시바 프라사드 비샤라주
Original Assignee
비엔에스에프 레일웨이 컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비엔에스에프 레일웨이 컴퍼니 filed Critical 비엔에스에프 레일웨이 컴퍼니
Publication of KR20220101747A publication Critical patent/KR20220101747A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/50Determining position whereby the position solution is constrained to lie upon a particular curve or surface, e.g. for locomotives on railway tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Air Bags (AREA)
  • Automatic Assembly (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

일 실시 예에서, 방법은 차량과 연관된 카메라에 의해 생성된 이미지를 수신하는 단계를 포함한다. 상기 이미지는 물리적 객체와 연관된 POI(point of interest)를 포함한다. 상기 방법은 또한 상기 이미지의 상기 POI로부터 상기 이미지의 에지(edge)까지의 픽셀들의 수를 결정하는 단계를 포함한다. 상기 이미지의 에지는 상기 카메라의 위치를 나타낸다. 상기 방법은 상기 픽셀들의 수를 이용하여 상기 POI로부터 상기 차량과 연관된 GPS(Global Positioning System) 유닛까지의 오프셋 거리를 결정하는 단계를 더 포함한다.

Description

객체 위치 확인 시스템 및 방법{SYSTEMS AND METHODS FOR LOCATING OBJECTS}
본 개시는 일반적으로 객체의 위치를 파악하는 것에 관한 것으로, 보다 구체적으로 객체를 찾기 위한 시스템 및 방법에 관한 것이다.
PTC(Positive Train Control)는 열차 연관 사고를 방지하기 위해 이용되는 통신 기반 열차 제어 시스템이다. PTC는 철도 환경 내에서 PTC 중요 자산의 위치를 모니터링하여 철도 교통의 안전을 개선한다. 그러나 필드 에러(field error) /또는 철도 환경 내 변경으로 인해 PTC 중요 자산의 위치가 잘못 표시될 수 있으며, 이는 PTC 시스템의 성능에 부정적인 영향을 미칠 수 있다.
일 실시 예에 따르면, 방법은 차량과 연관(associate)된 카메라에 의해 생성된 이미지를 수신하는 단계를 포함한다. 상기 이미지는 물리적 객체와 연관된 POI(point of interest)를 포함한다. 상기 방법은 또한 상기 이미지의 상기 POI로부터 상기 이미지의 에지(edge)까지의 픽셀들의 수를 결정하는 단계를 포함한다. 상기 이미지의 에지는 상기 카메라의 위치를 나타낸다. 상기 방법은 상기 픽셀들의 수를 이용하여 상기 POI로부터 상기 차량과 연관된 GPS(Global Positioning System) 유닛까지의 오프셋 거리를 결정하는 단계를 더 포함한다.
다른 실시 예에 따르면, 시스템은 하나 이상의 프로세서, 및 상기 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금 차량과 연관된 카메라에 의해 생성된 이미지를 수신하는 동작을 포함하는 동작들을 수행하게 하는 명령들(instructions)을 저장하는 메모리를 포함한다. 상기 이미지는 물리적 객체와 연관된 POI(point of interest)를 포함한다. 상기 동작들은 또한 상기 이미지의 상기 POI로부터 상기 이미지의 에지(edge)까지의 픽셀들의 수를 결정하는 동작을 포함한다. 상기 이미지의 상기 에지는 상기 카메라의 위치를 나타낸다. 상기 동작들은 상기 픽셀들의 수를 이용하여, 상기 POI로부터, 상기 차량과 연관된 GPS(Global Positioning System) 유닛까지의 오프셋 거리를 결정하는 동작을 더 포함한다.
또 다른 실시 예에 따르면, 하나 이상의 컴퓨터 판독 가능 저장 매체는 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 차량과 연관된 카메라에 의해 생성된 이미지를 수신하는 동작을 포함하는 동작들을 수행하게 하는 명령들을 구현한다. 상기 이미지는 물리적 객체와 연관된 POI(point of interest)를 포함한다. 상기 동작들은 또한 상기 이미지의 상기 POI로부터 상기 이미지의 에지(edge)까지의 픽셀들의 수를 결정하는 동작을 포함한다. 상기 이미지의 상기 에지는 상기 카메라의 위치를 나타낸다. 상기 동작들은 상기 픽셀들의 수를 이용하여, 상기 POI로부터, 상기 차량과 연관된 GPS(Global Positioning System) 유닛까지의 오프셋 거리를 결정하는 동작을 더 포함한다.
본 개시의 특정 실시예의 기술적 이점은 다음 중 하나 이상을 포함할 수 있다. 여기에 설명된 특정 시스템 및 방법은 철도 환경 내에서 철도 위나 근처에서 수동 측정 없이 객체(예: PTC 중요 자산(critical assets))의 위치를 찾으므로 객체를 찾는 데 있어 안전성과 효율성이 향상된다. 여기에 설명된 특정 시스템 및 방법은 이미지 및 GPS 위치와 같은 지오메트리(geometry) 차량에서 수집된 정보를 활용하여 객체를 찾는 정확도를 향상시킨다.
다른 기술적 이점은 하기 도면, 설명 및 청구범위로부터 당업자에게 용이하게 명백할 것이다. 더욱이, 특정 장점이 위에서 열거되었지만, 다양한 실시예는 열거된 장점의 전부, 일부 또는 전혀 포함하지 않을 수 있다.
본 개시의 이해를 돕기 위해, 첨부 도면과 함께 취해진 다음과 같은 설명을 참조한다.
도 1은 객체를 찾기 위한 시스템의 예를 도시한다.
도 2는 객체를 찾기 위한 시스템의 다른 예를 도시한다.
도 3은 도 1 및 도 2의 시스템에 의해 사용될 수 있는 이미지의 예를 도시한다.
도 4는 도 1 및 도 2의 시스템에 의해 생성될 수 있는 출력의 예를 도시한다.
도 5는 객체를 찾기 위한 방법의 예를 도시한다.
도 6은 여기에 설명된 시스템 및 방법에 의해 사용될 수 있는 컴퓨터 시스템의 예를 도시한다.
트랙 지오메트리 차량(track geometry car)와 같은 차량(vehicle)은 차량이 환경을 통과할 때 데이터를 수집할 수 있다. 차량에는 환경 내의 물리적 객체의 이미지를 캡처하는 카메라와 GPS 위치를 캡처하는 GPS 유닛(GPS unit)이 장착될 수 있다. 환경 내에서 물리적 객체를 정확하게 찾으려면 카메라 위치와 GPS 유닛 위치 사이의 오프셋 거리(offset distance)를 고려하여 GPS 위치를 보정해야 한다. 본 개시의 특정 실시예는 오프셋 거리를 결정하기 위해 카메라 및 GPS 유닛으로부터 수집된 데이터를 사용하여 환경 내의 객체를 정확하게 위치시키기 위한 시스템 및 방법을 포함한다. 객체는 PTC 컴플라이언스(compliance)를 모니터링하는 철도 환경과 연관된 PTC 중요 개체(critical object)일 수 있다.
도 1에서 도 6은 객체를 찾기 위한 예시적인 시스템과 방법을 보여준다. 도 1과 도 2는 객체를 찾기 위한 시스템의 예를 보여준다. 도 3은 도 1 및 도 2의 시스템에 의해 사용될 수 있는 이미지의 예를 보여주고, 도 4는 도 1 및 도 2의 시스템에 의해 생성될 수 있는 출력의 예를 보여준다. 도 5는 객체를 찾기 위한 방법의 예를 보여준다. 도 6은 여기에 설명된 시스템 및 방법에 의해 사용될 수 있는 컴퓨터 시스템의 예를 도시한다.
도 1은 객체를 찾기 위한 시스템의 예를 도시한다. 도 1의 시스템(100)은 네트워크(110), 로케이터 모듈(locator module)(120), 차량(vehicle)(130), 카메라(camera)(140), GPS 유닛(150) 및 물리적 객체(physical object)(160)를 포함한다. 시스템(100) 또는 그 일부는 객체를 찾을 수 있는 비즈니스, 회사(예: 철도 회사(railway company), 운송 회사(transportation company) 등) 또는 정부 기관(예: 교통부(department of transportation), 공공안전부(department of public safety) 등)과 같은 모든 엔티티(entity)를 포함할 수 있는 엔티티와 연관될 수 있다. 시스템(100)의 요소는 하드웨어, 펌웨어 및 소프트웨어의 임의의 적절한 조합을 사용하여 구현될 수 있다.
시스템(100)의 네트워크(110)는 시스템(100)의 구성요소들 간의 통신을 용이하게 하는 임의의 유형의 네트워크일 수 있다. 네트워크(110)는 로케이터 모듈(120)을 시스템(100)의 카메라(140) 및/또는 GPS 유닛(150)에 연결할 수 있다. 본 개시는 네트워크(110)가 특정 종류의 네트워크인 것으로 도시하지만, 본 개시는 임의의 적절한 네트워크를 고려한다. 네트워크(110)의 하나 이상의 부분은 애드혹 네트워크(ad-hoc network), 인트라넷(intranet), 엑스트라넷(extranet), 가상 사설망(VPN; virtual private network), 근거리 통신망(LAN; local area network), 무선 LAN(WLAN; wireless local area network), 광역 통신망(WAN; wide area network), 무선 WAN(WWAN; wireless wide area network), MAN(Metropolitan Area Network), 인터넷의 일부, PSTN(Public Switched Telephone Network)의 일부, 셀룰러 전화 네트워크, 3G 네트워크, 4G 네트워크, 5G 네트워크, LTE(Long Term Evolution) 셀룰러 네트워크, 이들 중 둘 이상의 조합 또는 기타 적절한 유형의 네트워크를 포함할 수 있다. 네트워크(110)의 하나 이상의 부분은 하나 이상의 액세스(예를 들어, 모바일 액세스), 코어 및/또는 에지 네트워크를 포함할 수 있다. 네트워크(110)는 사설 네트워크(private network), 퍼블릭 네트워크(public network), 인터넷을 통한 연결, 모바일 네트워크(mobile network), WI-FI 네트워크, 블루투스 네트워크(Bluetooth network) 등과 같은 임의의 통신 네트워크일 수 있다. 네트워크(110)는 클라우드 컴퓨팅 기능을 포함할 수 있다. 시스템(100)의 하나 이상의 구성요소는 네트워크(110)를 통해 통신할 수 있다. 예를 들어, 로케이터 모듈(120)은 카메라(140) 및/또는 GPS 유닛(150)으로부터 정보를 수신하는 것을 포함하여 네트워크(110)를 통해 통신할 수 있다.
시스템(100)의 로케이터 모듈(locator module)(120)은 객체의 위치를 찾는 데 사용될 수 있는 임의의 적절한 컴퓨팅 구성요소를 나타낸다. 로케이터 모듈(120)은 네트워크(110)를 통해 카메라(140) 및/또는 GPS 유닛(150)에 통신 가능하게 결합될 수 있다. 로케이터 모듈(120)은 시스템(100)의 동작을 제어한다. 로케이터 모듈(120)은 도 2에서 보다 상세하게 설명된다.
시스템(100)의 차량(130)은 데이터를 수집하는 차량(예를 들어, 밴(van), 트럭(truck), 자동차, 철도 차량(rail car) 등)을 나타낸다. 도 1의 예시된 실시예에서, 차량(130)은 철도 트랙(railroad track)(180)를 따라 진행하는 자동화된 트랙 검사 차량(automated track inspection vehicle)(예를 들어, 트랙 지오메트리 차량(track geometry car))이다. 차량(180)은 철도 환경(railroad environment)과 연관된 데이터를 수집할 수 있다. 예를 들어, 차량(180)의 하나 이상의 구성요소는 차량(180)이 철도 트랙(180)을 따라 진행할 때 철도 환경과 연관된 이미지 및/또는 센서 데이터를 수집할 수 있다. 수집된 데이터는 철도 환경 내에서 객체를 찾는 데 사용될 수 있다.
시스템(100)의 카메라(140)는 시각적 이미지를 기록하는 임의의 장치이다. 카메라(140)는 디지털 카메라(digital camera), DSLR(a digital single-lens reflex) 카메라, 미러리스 비디오 카메라(mirrorless video camera), 스포츠 및 액션 비디오 카메라(sports and action video camera) 등과 같은 비디오 카메라일 수 있다. 카메라(140)는 차량(130)에 물리적으로 부착된다. 도 1의 실시예에서 도시된 바와 같이, 카메라(140)는 차량(vehicle)(130)의 상부(top), 전방 끝 지점(front end portion)에 장착(mount)된다. 카메라(140)는 카메라(140)의 카메라 시야각(camera view angle)(142)이 물리적 객체(physical object)(160) 및 트랙(track) (180)을 캡처하도록 지향(oriented)된다. 카메라(140)는 차량(130)이 트랙(180)을 따라 진행할 때 물리적 객체(160) 및 트랙(180)의 이미지(예를 들어, 도 3의 이미지(300) 참조)를 캡처한다. 카메라(140)에 의해 캡처된 이미지는 카메라 시야각(142)에 따라 달라진다. 카메라 시야각(142)은 차량(130) 및/또는 트랙(180)에 대한 카메라(140)의 위치에 의해 영향을 받는다. 카메라(140)는 생성된 이미지를 네트워크(110)를 통해 로케이터 모듈(120)에 전달할 수 있다.
시스템(100)의 GPS 유닛(150)은 하나 이상의 GPS 위성으로부터 정보를 수신하고 수신된 정보를 사용하여 GPS 유닛(150)의 지리적 위치(geographical position)를 계산하는 임의의 장치이다. GPS 유닛(150)은 GPS를 사용하여 GPS 유닛(150)의 움직임을 추적하고 특정 시점에서 GPS 유닛(150)의 위치를 결정하는 차량(130)에 의해 운반되는 GPS 추적 유닛(예를 들어, 데이터 로거(data logger), 데이터 푸셔(data pusher), 데이터 풀러(data puller) 등)일 수 있다. GPS 유닛(150)은 하나 이상의 GPS 센서, 수신기, 및/또는 안테나를 포함할 수 있다. GPS 유닛(150)은 차량(130)에 물리적으로 부착(attach)된다. 도 1의 예시된 실시예에서. 도 1에 도시된 바와 같이, GPS 유닛(150)은 차량(130)의 중앙 상부 지점(center top portion)에 장착(mount)된다. GPS 유닛(150)은 GPS 유닛(150)의 하나 이상의 GPS 위치를 네트워크(110)를 통해 로케이터 모듈(120)에 전달할 수 있다. 각 GPS 위치는 좌표(예를 들어, 위도 좌표(latitude coordinate) 및 경도 좌표(longitude coordinate)) 또는 기타 적절한 표현으로 표시될 수 있다.
시스템(100)의 물리적 객체(160)는 철도 환경(railroad environment)과 연관된 임의의 물리적 객체를 나타낸(represent)다. 철도 환경은 하나 이상의 철도(railroad) 트랙(180)을 포함하는 영역이다. 물리적 객체(160)는 열차 제어 신호(train-controlled signal), 스위치 포인트(switch point), 크로싱(crossing), 마일 포스트 사인(mile post sign), 스피드 사인(speed sign) 및 클리어런스 포인트(clearance point) 등일 수 있다. 특정 실시예에서, 물리적 객체(160)는 PTC(positive train control) 중요 자산(critical assets)을 나타낸다. PTC는 열차 움직임을 모니터링하고 제어하기 위한 기능 요구 사항(functional requirement)의 시스템이다.
로케이터 모듈(120)은 카메라(140)에 의해 캡처된 하나 이상의 이미지 및 GPS 유닛(150)에 의해 캡처된 GPS 위치를 사용하여 물리적 객체(160)의 지리적 위치(geographical location)를 결정한다. 로케이터 모듈(120)은 철도 트랙(180)의 중심선에 대한 물리적 객체(160)의 지리적 위치를 결정할 수 있다. 철도 트랙(180)의 중심선은 철도 트랙(180)의 2개의 외부 레일 사이의 중심에 있는 선이다. 로케이터 모듈(120)은 물리적 객체(160)를 찾기 위한 기준선으로서 철도 선로 중심선을 사용할 수 있다. 특정 실시예에서, 로케이터 모듈(120)은 카메라(140)로부터 수신된 이미지에서 객체(예를 들어, 물리적 객체(160)의 표현)를 검출하고 이미지의 검출된 객체에서 객체 POI를 결정한다. 객체 POI는 이미지에서 감지된 객체 내의 특정 지점(specific point)을 나타낸다. 로케이터 모듈(120)은 POI를 생성하기 위해 이미지에서 철도 트랙(예를 들어, 철도 트랙(180)의 표현)의 중심선에 객체 POI를 매핑할 수 있다. POI는 철로(180)의 중심선으로 옮겨진 물리적 객체(160)의 위치를 나타낸다.
로케이터 모듈(120)은 POI(트랙(180)의 중심선을 따른 물리적 객체(160)의 위치에 대응함)로부터 카메라(140)까지의 제1 거리(first distance)(190)를 결정할 수 있다. 로케이터 모듈(120)은 이미지의 POI로부터 이미지의 에지(edge)까지의 픽셀들의 수를 계산함으로써 제1 거리(190)를 결정한다. 이미지의 에지는 카메라(140)의 위치(예를 들어, 카메라(140)의 렌즈의 위치)를 나타낸다. 로케이터 모듈(120)은 카메라 시야각(142)을 사용하여 픽셀의 수를 등가 거리(equivalent distance)로 변환(convert)한다.
로케이터 모듈(120)은 카메라(140)로부터 GPS 유닛(150)까지의 제2 거리(second distance)(192)를 결정할 수 있다. 제2 거리(192)는 카메라(140)와 GPS 유닛(150)의 상대적인 위치에 의존한다. 도 1에 도시된 바와 같이, 제2 거리(192)는 차량(130)의 상부(top), 전방 끝(front end)에 부착된(attach) 카메라(140)로부터 차량(130)의 상부, 중앙 지점(center portion)에 부착된 GPS 유닛(150)까지 측정된 기설정된 거리이다. 특정 실시예에서, 제2 거리(192)는 카메라(140)의 렌즈로부터 GPS 유닛(150)의 안테나까지 측정된다. 제2 거리(192)는 차량(130)(예를 들어, 지오메트리 차량(geometry car)) 길이의 절반과 대략 동일할 수 있다. 예를 들어, 제2 거리(192)는 200 인치(inch)에서 230인치 사이(예를 들어, 216인치)일 수 있다.
로케이터 모듈(120)은 제1 거리(190)에 제2 거리(192)를 더하여 오프셋 거리(offset distance)(194)를 결정할 수 있다. 오프셋 거리(194)는 철도 트랙(180)의 중심선(centerline)으로 옮겨진 물리적 객체(160)의 위치로부터 GPS 유닛(150)까지의 거리를 나타낸다. 물리적 객체(160)의 이미지와 GPS 유닛(150)의 GPS 위치는 각각 카메라(140) 및 GPS 유닛(150)에 의해 동일 또는 거의 동일한 시점에 캡처되기 때문에 GPS 위치는 물리적 객체(160)의 위치를 정확하게 반영하지 않는다. 오프셋 거리(194)는 특정 시점에서 물리적 객체(160)의 위치와 GPS 유닛(150)의 GPS 위치 사이의 차이를 설명한다.
동작 시, 로케이터 모듈(120)은 차량(130)에 장착된 GPS 유닛(150)에 의해 생성된 GPS 위치 및 차량(130)에 장착된 카메라(140)에 의해 생성된 이미지를 수신한다. GPS 위치와 이미지는 동일한 시점에 캡처된다. 로케이터 모듈(120)은 이미지에서 객체(예를 들어, 물리적 객체(160)의 표현)를 검출하고 이미지의 검출된 객체에서 객체 POI를 결정한다. 로케이터 모듈(120)은 POI를 생성하기 위해 객체 POI를 이미지의 철도 트랙(예를 들어, 철도 트랙(180)의 표현)의 중심선에 매핑한다. POI는 트랙(180)의 중심선으로 옮겨진 물리적 객체(160)의 위치를 나타낸다. 로케이터 모듈(120)은 이미지의 POI로부터 이미지의 에지까지의 픽셀의 수를 결정한다. 로케이터 모듈(120)은 픽셀 수 및 카메라 시야각(142)을 사용하여 POI로부터 카메라(140)까지의 제1 거리(190)를 결정하고 카메라(140)로부터 GPS 유닛(150)까지의 제2 거리(192)를 결정한다. 로케이터 모듈(120)은 1 거리(190)에 제2 거리(192)를 더하여 오프셋 거리(194)를 결정한다. 로케이터 모듈(120)은 물리적 객체(160)와 연관된 지리적 POI 위치(geographical POI location)를 결정하기 위해 오프셋 거리에 기초하여 GPS 위치를 수정한다. 이와 같이, 도 1의 시스템(100)은 1은 철도 위나 근처에서 수동 측정 없이 객체를 찾으므로, 객체를 찾는 데 있어 안전성과 효율성을 향상시킨다.
비록 도 1은 특정 수의 네트워크(110), 로케이터 모듈(120), 차량(130), 카메라(140), GPS 유닛(150), 및 물리적 객체(160)를 도시하지만, 본 개시는 임의의 적절한 수의 네트워크(110), 로케이터 모듈(120), 차량(130), 카메라(140), GPS 유닛(150) 및 물리적 객체(160)를 고려한다. 예를 들어, 도 1의 시스템(100)은 하나 이상의 카메라(140) 및/또는 GPS 유닛(150)을 포함할 수 있다. 비록 도 1은 네트워크(110), 로케이터 모듈(120), 차량(130), 카메라(140), GPS 유닛(150) 및 물리적 객체(160)의 특정 배열을 예시하지만, 본 개시는 네트워크(110), 로케이터 모듈(120), 차량(130), 카메라(140), GPS 유닛(150) 및 물리적 객체(160)의 임의의 적절한 배열을 고려한다. 예를 들어, GPS 유닛(150)은 차량(130)의 후방 지점(rear portion)에 장착될 수 있다. 다른 예로서, 카메라(140) 및/또는 GPS 유닛(150)은 차량(130)의 통합 부품(rear portion)일 수 있다. 시스템(100)의 하나 이상의 구성요소는 도 6의 컴퓨터 시스템의 하나 이상의 구성요소를 사용하여 구현될 수 있다. 도 1의 시스템(100)은 하나 이상의 동작을 수행하기 위해 하나 이상의 프로그램을 사용할 수 있다. 예를 들어, 로케이터 모듈(120)은 지리 정보 시스템(GIS; geographic information system), 시각화 소프트웨어(visualization software), 인터넷 서비스 프로그램 등을 사용할 수 있다.
비록 도 1은 철도 환경 내에서 객체를 찾기 위한 시스템(100)을 설명하지만, 시스템(100)의 하나 이상의 구성요소는 다른 구현에 적용될 수 있다. 예를 들어, 시스템(100)의 하나 이상의 구성요소는 고속도로(highway), 커널(canal), 트레일(trail), 파이프라인(pipeline) 등을 따라 객체를 찾기 위해 활용될 수 있다.
도 2는 도 1의 시스템(100)에 의해 사용될 수 있는 객체를 찾기 위한 시스템(200)의 예를 도시한다. 시스템 (200) 또는 그 일부는 객체를 찾을 수 있는 비즈니스, 회사(예: 철도 회사(railway company), 운송 회사(transportation company) 등) 또는 정부 기관(예: 교통부(department of transportation), 공공안전부(department of public safety) 등)과 같은 모든 엔티티(entity)를 포함할 수 있는 엔티티와 연관될 수 있다. 시스템(200)의 요소들은 하드웨어, 펌웨어, 및 소프트웨어의 임의의 적절한 조합을 사용하여 구현될 수 있다. 도 2의 시스템(200)은 네트워크(110), 로케이터 모듈(120), 카메라(140), 및 GPS 유닛(150)을 포함한다. 시스템(200)의 로케이터 모듈(120)은 인터페이스(interface)(222), 메모리(224), 및 프로세서(226)를 포함한다.
로케이터 모듈(120)의 인터페이스(222)는 네트워크(110)로부터 정보를 수신하고, 네트워크(110)를 통해 정보를 전송하고, 정보의 적절한 처리를 수행하고, 도 2의 시스템(200)의 다른 구성요소(예를 들어, 카메라(140) 및 GPS 유닛(150)) 또는 상술한 모든 조합과 통신할 수 있는 임의의 적절한 컴퓨터 요소를 나타낸다. 인터페이스(222)는 프로토콜 변환(protocol conversion) 및 데이터 처리 능력(data processing capability)을 포함하는 하드웨어(hardware), 펌웨어(firmware) 및 소프트웨어(software)의 임의의 적절한 조합을 포함하는 실제 또는 가상의 임의의 포트 또는 연결을 나타내며, 이는 도2의 시스템(200)이 시스템(100)의 구성요소 간에 정보를 교환할 수 있는 LAN, WAN 또는 기타 통신 시스템을 통해 통신한다.
로케이터 모듈(120)의 메모리(224)는 시스템 소프트웨어(system software), 제어 소프트웨어(control software), 로케이터 모듈(120)을 위한 기타 소프트웨어, 및 다양한 기타 정보 뿐만 아니라 수신 및 전송된 정보를 영구적으로 및/또는 일시적으로 저장한다. 메모리(224)는 프로세서(226)에 의한 실행을 위한 정보를 저장할 수 있다. 메모리(224)는 정보를 저장하기에 적합한 휘발성 또는 비휘발성 로컬 또는 원격 장치 중 임의의 하나 또는 이들의 조합을 포함한다. 메모리(224)는 RAM(Random Access Memory), ROM(Read-only Memory), 자기 저장 장치(magnetic storage device), 광학 저장 장치(optical storage device), 또는 임의의 다른 적절한 정보 저장 장치 또는 이들 장치의 조합을 포함할 수 있다. 메모리(224)는 로케이터 모듈(120)의 동작에 사용하기 위한 임의의 적절한 정보를 포함할 수 있다. 추가적으로, 메모리(224)는 로케이터 모듈(120) 외부에 있는(또는 부분적으로 외부에 있을 수 있는) 구성요소일 수 있다. 메모리(224)는 메모리(224)가 로케이터 모듈(120)과 통신하기에 적합한 임의의 위치에 위치될 수 있다. 도 2에 도시된 바와 같이, 로케이터 모듈(120)의 메모리(224)는 데이터 수집 엔진(data collection engine)(230), 픽셀 엔진(pixel engine)(232), 로케이터 엔진(locator engine)(234), 비교 엔진(comparison engine)(236), 및 데이터베이스(database)(250)를 저장한다. 특정 실시예에서, 데이터 수집 엔진(230), 픽셀 엔진(232), 로케이터 엔진(234), 비교 엔진(236), 및/또는 데이터베이스(250)는 메모리(224) 및/또는 로케이터 모듈(120)의 외부에 있을 수 있다.
로케이터 모듈(120)의 데이터 수집 엔진(230)은 시스템(100)의 하나 이상의 구성요소로부터 데이터를 수집하는 애플리케이션(application)이다. 데이터 수집 엔진(230)은 GPS 유닛(150), 카메라(140), 관리자(administrator) 등으로부터 데이터를 수집할 수 있다. 데이터 수집 엔진(230)은 네트워크(110)를 통해 시스템(200)의 카메라(140)로부터 하나 이상의 이미지(252)를 수신할 수 있다. 이미지(252)는 카메라(140)에 의해 포착된 환경의 뷰(view)를 나타낸다. 각각의 이미지(252)는 물리적 객체 및 철도 트랙(예를 들어, 도 1의 물리적 객체(160) 및 철도 트랙(180))의 표현을 포함할 수 있다. 데이터 수집 엔진(230)은 GPS 유닛(150)으로부터 하나 이상의 GPS 위치(258)를 수신할 수 있다. 각각의 GPS 위치(258)는 좌표(예를 들어, 위도 좌표 및 경도 좌표) 또는 임의의 다른 적절한 표현에 의해 표현될 수 있다. 데이터 수집 엔진(230)은 도 1의 차량(130)의 진행 방향(travel direction)과 연관된 데이터를 수집할 수 있다. 예를 들어, 데이터 수집 엔진(230)은 관리자, 차량(130)과 연관된 모션 센서 등으로부터 차량(130)의 진행 방향(예를 들어, 북쪽(north) 또는 남쪽(south))을 수신할 수 있다.
특정 실시예에서, 데이터 수집 엔진(230)은 도 1의 물리적 객체(160)를 나타내는 이미지(252)에서 객체(예를 들어, 도 3의 객체(310))를 검출한다. 데이터 수집 엔진(230)은 이미지(252)의 검출된 객체에서 객체 POI(254)를 결정한다. 객체 POI(254)는 이미지(252)의 감지된 객체 내의 특정 기준점(specific reference point)을 나타낸다. 데이터 수집 엔진(230)은 객체 POI(254)를 이미지(252)의 철도 트랙(예를 들어, 도 1의 철도 트랙(180)의 표현)의 중심선(centerline)에 매핑하여 POI(256)를 생성한다. POI(256)는 철로의 중심선으로 옮겨진 물리적 객체(260)의 위치를 나타낸다. 이미지(252)의 POI(256)를 생성하는 과정은 이미지(300)로 아래 도 3에서 더 상세히 설명된다. 특정 실시예에서, POI(256)를 결정하기보다, 데이터 수집 엔진(230)은 데이터 수집 엔진(230)으로부터 POI(256)가 포함된 이미지(252)를 수신할 수 있다.
로케이터 모듈(120)의 픽셀 엔진(232)은 이미지(252)의 픽셀(pixel)을 분석하는 애플리케이션이다. 픽셀 엔진(232)은 데이터 수집 엔진(230)으로부터 POI(256)를 갖는 이미지(252)를 수신하고 이미지(252)의 POI(256)로부터 이미지(252)의 에지까지의 픽셀의 수를 결정할 수 있다. 이미지(252)의 에지는 카메라(140)의 위치를 나타낸다. 픽셀 엔진(232)은 POI(256)로부터 이미지(252)의 에지까지의 각 픽셀을 등가 거리(equivalent distance)로 변환(convert)할 수 있다. 각 픽셀은 카메라 시야각(view angle)으로 인해 상이한 거리(different distance)와 연관될 수 있다. 픽셀을 거리로 변환하는 과정은 이미지(300)로 아래 도 3에서 더 상세히 설명된다.
로케이터 모듈(120)의 로케이터 엔진(locator engine)(234)은 물리적 객체(160)와 연관된 POI 위치(260)를 결정하는 애플리케이션이다. 로케이터 엔진(234)은 픽셀의 수 및 카메라(140)의 각도(예를 들어, 도 1의 카메라 시야각(142))를 사용하여 POI(256)로부터 카메라(140)까지의 제1 거리(190)를 결정할 수 있다. 로케이터 엔진(234)은 카메라(140)로부터 GPS 유닛(150)까지의 제2 거리(192)를 결정할 수 있다. 제2 거리(192)는 카메라(140)와 GPS 유닛(150)의 상대적인 위치에 기초한 기설정된 거리일 수 있다. 로케이터 엔진(234)은 제1 거리(190)에 제2 거리(192)를 더하여 오프셋 거리(194)를 결정할 수 있다.
특정 실시예에서, 로케이터 엔진(234)은 데이터 수집 엔진(230)으로부터 GPS 위치(258)를 수신하고, GPS 위치(258), 오프셋 거리(194), 및 도 1의 차량(130)의 진행 방향을 사용하여 도 1의 물리적 객체(160)와 연관된 POI 위치(260)를 결정한다. 예를 들어, 로케이터 엔진(234)은 위도 및 경도 좌표(예를 들어, N38 03.9325, W97 18.7658) 또는 임의의 다른 적절한 표현으로 표현되는 GPS 위치(258)를 데이터 수집 엔진(230)으로부터 수신할 수 있다. 로케이터 엔진(234)은 데이터 수집 엔진(230)으로부터 도 1의 차량(130)이 하강 방향(descending direction)으로 진행 중이라는 표시를 수신할 수 있다. 로케이터 엔진(234)은 오프셋 거리(194)(예를 들어, 39.2피트(feet)) 및 POI 위치(260)를 산출하는 진행 방향을 설명하기 위해 GPS 위치(258)를 조정할 수 있다(예를 들어, 위도 = 38.06555556, 경도 = -97.3127778). POI 위치(260)는 도 1의 선로(180)의 중심선으로 옮겨진 도 1의 물리적 객체(160)의 철도 지리적 위치(geographical location)를 나타낸다. 특정 실시예에서, 물리적 객체(160)는 PTC 중요 자산(critical assets)이다.
특정 실시예에서, 시스템(200) 외부의 프로그램(예를 들어, 웹 서비스(web service) 및/또는 클라우드 서비스 프로그램(cloud service program))은 로케이터 엔진(234)에 대한 하나 이상의 결정을 수행할 수 있다. 예를 들어, 사용자(예를 들어, 시스템(200)의 관리자)는 GPS 위치(258), 오프셋 거리(194), 및 진행 방향(travel direction)을 외부 프로그램에 입력할 수 있고 웹 서비스 프로그램은 POI 위치(260)를 생성할 수 있다.
로케이터 모듈(120)의 비교 엔진(236)은 도 1의 물리적 객체(160)와 연관된 2개의 결정된 위치를 비교하는 애플리케이션이다. 비교 엔진(236)은 POI 위치(260)를 물리적 객체(160)와 연관된 필드 위치(field location)(262)와 비교할 수 있다. 필드 위치(262)는 필드 측정(field measurement)에 의해 결정되는 위치이다. 비교 엔진(236)은 POI 위치(260) 및 필드 위치(262)가 서로의 기설정된 거리 내에 있는지 여부를 결정할 수 있다. 기설정된 거리는 20피트(feet)(예를 들어, 1피트, 3피트, 또는 10피트)보다 작거나 같은 거리일 수 있다. 기설정된 거리는 하나 이상의 요구 사항(requirement)(예를 들어, 감사 요구사항(auditing requirement))에 따라 결정될 수 있다. 비교 엔진(236)이 POI 위치(260)와 필드 위치(262)가 서로 기설정된 거리 내에 있다고 결정하는 경우, 비교 엔진(236)은 물리적 객체(160)의 위치가 하나 이상의 요구사항(예를 들어, PTC 준수 요구사항(a PTC compliance requirement))을 준수한다는 표시를 생성할 수 있다. 비교 엔진(236)이 POI 위치(260)와 필드 위치(262)가 기설정된 거리보다 더 멀리 떨어져 있다고 결정하는 경우, 비교 엔진(236)은 물리적 객체(160)의 위치가 하나 이상의 요구사항을 준수하지 않는다는 표시를 생성할 수 있다. 예를 들어, 비교 엔진(236)은 물리적 객체(160)에 결함(defect)을 적용할 수 있다.
특정 실시예에서, 비교 엔진(236)은 어떤 물리적 객체(160)가 결함이 있는지 및/또는 어떤 물리적 객체(160)가 준수하는지를 나타내는 보고서를 생성할 수 있다. 특정 실시예에서, 비교 엔진(236)은 하나 이상의 물리적 객체(160)가 결함이 있거나 준수(compliance)하다는 결정에 응답하여 명령을 생성할 수 있다. 명령은 모든 결함이 있는 물리적 객체(160)에 대해 하나 이상의 필드 측정(field measurement)을 수행하는 것과 같이 취해질 조치를 포함할 수 있다.
로케이터 모듈(120)의 데이터베이스(250)는 로케이터 모듈(120)에 대한 특정 유형(certain type)의 정보를 저장할 수 있다. 예를 들어, 데이터베이스(250)는 하나 이상의 이미지(252), 객체 POI(254), POI(256), GPS 위치(258), POI 위치(260), 제1 거리(190), 제2 거리(192), 오프셋 거리(194), 및 필드 위치(262)를 저장할 수 있다. 데이터베이스(250)는 정보를 저장하기에 적합한 휘발성(volatile) 또는 비휘발성(non-volatile), 로컬(local) 또는 원격 장치(remote device) 중 하나 또는 조합일 수 있다. 데이터베이스(250)는 RAM(Random Access Memory), ROM(Read-only Memory), 자기 저장 장치(magnetic storage device), 광학 저장 장치(optical storage device), 또는 임의의 다른 적절한 정보 저장 장치 또는 이들 장치의 조합을 포함할 수 있다. 데이터베이스(250)는 로케이터 모듈(120) 외부의 컴포넌트일 수 있다. 데이터베이스(250)는 데이터베이스(250)가 로케이터 모듈(120)에 대한 정보를 저장하기에 적합한 임의의 위치에 위치할 수 있다. 예를 들어, 데이터베이스(250)는 클라우드 환경(cloud environment)에 위치할 수 있다.
로케이터 모듈(120)의 프로세서(226)는 인터페이스(222) 및 메모리(224)로부터 수신되거나 프로세서(226)에 의해 액세스되는 정보를 처리함으로써 로케이터 모듈(120)의 특정 동작(certain operation)들을 제어한다. 프로세서(226)는 인터페이스(222) 및 메모리(224)에 통신 가능하게 연결된다. 프로세서(226)는 정보를 제어하고 처리하도록 동작하는 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 프로세서(226)는 프로그래머블 로직 디바이스(programmable logic device), 마이크로컨트롤러(microcontroller), 마이크로프로세서(microprocessor), 임의의 적절한 프로세싱 디바이스, 또는 이들의 임의의 적절한 조합일 수 있다. 추가적으로, 프로세서(226)는 로케이터 모듈(120) 외부의 컴포넌트일 수 있다. 프로세서(226)는 프로세서(226)가 로케이터 모듈(120)과 통신하기에 적합한 임의의 위치에 위치할 수 있다. 로케이터 모듈(120)의 프로세서(226)는 데이터 수집 엔진(230), 픽셀 엔진(232), 로케이터 엔진(234), 및 비교 엔진(236)의 동작을 제어한다.
시스템(200)의 카메라(140)는 하나 이상의 물리적 객체의 이미지(252)를 캡처한다. 예를 들어, 시스템(200)의 카메라(140)는 철도 트랙을 따라 진행하는 지오메트리 차량(geometry car)의 전방 끝에 부착될 수 있고 철도 트랙과 연관된 철도 환경 내의 물리적 객체의 이미지(252)를 캡처할 수 있다. 시스템(200)의 GPS 유닛(150)은 하나 이상의 GPS 위치(258)를 캡처한다. 예를 들어, GPS 유닛(150)은 철도 트랙을 따라 진행하는 지오메트리 차량의 중앙 부분에 부착될 수 있고 카메라(140)가 이미지(252)를 캡처할 때 GPS 유닛(150)의 GPS 위치(258)를 캡처할 수 있다. 카메라(140) 및 GPS 유닛(150)은 이미지(252) 및 GPS 위치(258)를 네트워크(110)를 통해 로케이터 모듈(120)과 통신하고, 로케이터 모듈(120)은 데이터 수집 엔진(230), 픽셀 엔진(232), 및/또는 로케이터 엔진(234)을 사용하여 물리적 객체와 연관된 POI 위치(260)를 결정한다. 그 다음, 로케이터 모듈(120)은 POI 위치를 필드 위치(262)와 비교하기 위해 비교 엔진(236)을 사용할 수 있다. 이와 같이, 시스템(200)은 철도 환경 내의 물리적 객체(예를 들어, PTC 중요 자산)의 위치를 확인하는 데 사용될 수 있다.
비록 도 2는 네트워크(110), 로케이터 모듈(120), 인터페이스(222), 메모리(224), 프로세서(226), 데이터 수집 엔진(230), 픽셀 엔진(232), 로케이터 엔진(234), 비교 엔진(236), 데이터베이스(250), 카메라(140), 및 GPS 유닛(150)의 특정 배열을 나타내지만, 본 개시는 네트워크(110), 로케이터 모듈(120), 인터페이스(222), 메모리(224), 프로세서(226), 데이터 수집 엔진(230), 픽셀 엔진(232), 로케이터 엔진(234), 비교 엔진(236), 데이터베이스(250), 카메라(140), 및 GPS 유닛(150)의 임의의 적절한 배열을 고려한다. 네트워크(110), 로케이터 모듈(120), 인터페이스(222), 메모리(224), 프로세서(226), 데이터 수집 엔진(230), 픽셀 엔진(232), 로케이터 엔진(234), 비교 엔진(236), 데이터베이스(250), 카메라(140), 및 GPS 유닛(150)은 전체적으로 또는 부분적으로 서로 물리적으로 또는 논리적으로 같은 위치에 있을 수 있다.
도 3은 도 1 및 도 2의 시스템에 의해 사용될 수 있는 이미지(300)의 예를 도시한다. 이미지(300)는 도 2의 하나 이상의 이미지(252)를 나타낼 수 있다. 이미지(300)는 도 1 및/또는 도 2의 카메라(140)에 의해 생성될 수 있다. 이미지(300)는 객체(310)를 포함한다. 객체(310)는 카메라(140)에 의해 캡처된 도 1의 물리적 객체(160)의 표현이다. 도 3의 실시예에서. 객체(310)는 마일 포스트 사인(mile post sign)의 그래픽 표현이다. 이미지(300)는 철도 트랙(320)을 포함한다. 철도 트랙(320)은 도 1의 철도 트랙(180)을 나타낸다. 이미지(300)의 철도 트랙(320)은 2개의 레일을 포함한다. 철도 트랙(320)의 중심선(Centerline)(330)은 철도 트랙(320)의 2개의 외부 레일 사이의 중심에 있는 기준선이다.
도 3의 이미지(300)는 객체 POI(340)를 포함한다. 객체 POI(340)는 도 2의 시스템(200)의 객체 POI(254)를 나타낼 수 있다. 객체 POI(340)는 이미지(300)의 객체(310) 내의 특정 기준점이다. 도 3의 실시예에서 객체 POI(340)는 객체(310)의 베이스(base)에 위치한다. 이미지(300)에는 POI(350)이 포함된다. POI(350)는 도 2의 POI(256)를 나타낼 수 있다. POI(350)는 철도 트랙(320)의 중심선(330)까지의 거리(360)를 이동시킨 객체 POI(340)의 위치를 나타낸다. 거리(360)는 철도 트랙(320)의 중심선(330)으로부터 객체 POI(340)까지 수직으로 측정될 수 있다. 거리(360)는 이미지(300)의 에지(예를 들어, 이미지 에지(370))를 기준으로 POI(350)로부터 객체 POI(340)까지 수평으로 측정될 수 있다.
이미지(300)에는 수평 측정(horizontal measurement) 및 수직 측정(vertical measurement)이 픽셀로 표현된다. 이미지(300)의 각 픽셀은 이미지(300)에서 프로그래밍 가능한 색상의 단위이다. 이미지(300)의 픽셀 치수(pixel dimension)는 이미지(300)의 해상도(resolution)를 정의하는 수평 픽셀 수와 수직 픽셀 수로 표현된다. 각 픽셀은 선형 거리(linear distance)로 변환될 수 있다. 픽셀 변환(pixel conversion)은 각각의 픽셀이 상이한 거리(different distance)에 대응하도록 카메라 시야각(예를 들어, 도 1의 카메라 시야각(142))에 의존할 수 있다.
도 3의 이미지 에지(370)는 이미지(300)의 외부 경계를 나타낸다. 이미지 에지(370)는 POI(350)로부터 이미지 에지(370)까지의 거리(380)가 POI(350)로부터 도 1의 카메라(140)(예를 들어, 카메라(140)의 렌즈)까지의 거리를 나타내도록 도 1의 카메라(140)의 위치에 대응할 수 있다. 거리(380)는 이미지 에지(370)로부터 POI(350)까지 수직으로 측정될 수 있다. 거리(360)는 철도 트랙(320)의 중심선(330)을 따라 이미지 에지(370)로부터 POI(350)까지 측정될 수 있다. 거리(380)는 픽셀 수 n으로 표현될 수 있으며, 여기서 n은 임의의 적절한 정수(예를 들어, 200픽셀)를 나타낸다. 픽셀 수는 선형 측정값(예를 들어, 254.63인치 또는 21.2피트)으로 변환될 수 있다. 선형 측정은 적절한 측정(예를 들어, 인치(inch), 피트(feet), 미터(meter), 센티미터(centimeter) 등)으로 나타낼 수 있다. 이와 같이, 도 3의 이미지(300)는 현장 측정 없이 POI(350)로부터 도 1의 카메라(140)까지의 거리(380))(예를 들어, 도 1의 제1 거리(190))를 결정하는 데 사용될 수 있으며, 이는 환경 내에서 객체를 찾는 효율성 및 정확도를 향상시킬 수 있다.
도 3에 도시된 이미지(300)에 수정(modification), 추가(addition) 또는 생략(omission)이 이루어질 수 있다. 예를 들어, 이미지(300)는 2개보다 많거나 적은 철도 트랙을 포함할 수 있다. 다른 예로서, 이미지(300)는 하나 보다 많은 객체(310)를 포함할 수 있다. 비록 도 3의 이미지(300)는 객체(310) 및 트랙(320)의 특정 배열을 나타내지만, 본 개시는 객체(310) 및 트랙(320)의 임의의 적절한 배열을 고려한다. 예를 들어, 객체(310)는 트랙(320)의 반대편에 위치할 수 있다.
도 4는 도 1의 시스템(100) 및/또는 도 2의 시스템(200)에 의해 생성될 수 있는 출력(400)의 예를 도시한다. 도 4의 실시예에서 출력(400)은 스크린샷으로 표현된다. 출력(400)은 철도 트랙(410), 철도 트랙(420), GPS 입력(430), 오프셋 입력(440), 위치 출력(450) 및 위치 출력(460)을 포함한다. 철도 트랙(410) 및 철도 트랙(420)은 철도 환경에서 인접한 철도 트랙의 중심선을 나타낸다.
도 4의 GPS 입력(430)은 GPS 위치(예를 들어, 도 2의 GPS 위치(258))의 입력을 나타낸다. GPS 위치는 차량(예를 들어, 도 1의 차량(130))의 상부에 장착된 GPS 유닛(예를 들어, 도 1의 GPS 유닛(150))에 의해 생성될 수 있다. GPS 위치는 카메라(예를 들어, 도 1의 카메라(140))가 철도 환경에서 물리적 객체(예를 들어, 도 1의 물리적 객체(160))의 이미지를 캡처할 때 캡처될 수 있다. GPS 입력(430)은 위도 좌표와 경도 좌표로 표현된다. 특정 실시예에서, 관리자(예를 들어, 철도 엔지니어(railway engineer))는 GPS 입력(430)을 프로그램(예를 들어, 웹 서비스 프로그램)에 입력할 수 있다. 도 4의 출력(400)에 도시된 바와 같이, GPS 입력(430)은 철도 트랙(410)을 기준으로 위치된다. 특정 실시예에서, GPS 입력(430)의 GPS 위치가 철도 트랙(420)보다 철도 트랙(410)에 더 가까운 거리에 있기 때문에 철도 트랙(420) 대신 철도 트랙(410)이 선택된다.
도 4의 오프셋 입력(440)은 차량에 장착된 카메라에 의해 촬영된 물리적인 객체와 차량에 장착된 GPS 유닛 사이에서 측정된 오프셋 거리(예를 들어, 도 1의 오프셋 거리(194))의 입력을 나타낸다. 오프셋 입력(440)은 오프셋 거리를 고려하여 GPS 입력(430)을 수정하는데 사용된다. 도 4의 출력(400)에 도시된 바와 같이, GPS 입력(430)과 철도 트랙(410)의 교차점 주위에 원(circle)이 생성된다. 원의 반지름(radius)은 오프셋 거리와 같다. 위치 출력(450)은 철도 트랙(410)을 따라 제1 방향(예를 들어, 동쪽)으로 오프셋 거리(194)만큼 오프셋된(offset) GPS 입력(430)으로부터의 거리를 나타낸다. 위치 출력(460)은 철도 트랙(410)을 따라 제2 방향에서 오프셋 거리(194)만큼 오프셋된(offset) GPS 입력(430)으로부터의 거리를 나타낸다. 위치 출력(450)은 기차가 제1 방향(예를 들어, 동쪽)으로 진행하는 경우 물리적 객체와 연관된 POI 위치(예를 들어, 도 2의 POI 위치(260))로서 선택된다. 위치 출력(460)은 기차가 제2 방향(예를 들어, 서쪽)으로 진행하는 경우 물리적 객체와 연관된 POI 위치로 선택된다.
도 4에 도시된 출력(400)에 수정(modification), 추가(addition) 또는 생략(omission)이 이루어질 수 있다. 예를 들어, 출력(400)은 2개보다 많거나 적은 철도 트랙을 포함할 수 있다. 다른 예로서, 출력(400)은 2개보다 많거나 적은 위치 출력을 포함할 수 있다. 또 다른 예로서, 출력(400)은 GPS 입력(430), 오프셋 입력(440), 위치 출력(450), 및/또는 위치 출력(450)을 나타내는 값(예를 들어, 숫자(numeric) 또는 영숫자(alphanumeric) 값)을 포함할 수 있다.
도 5는 객체를 찾기 위한 방법(500)의 예를 도시한다. 방법(500)은 505단계에서 시작한다. 510단계에서, 로케이터 모듈(예를 들어, 도 2의 로케이터 모듈(120))은 차량(예를 들어, 도 1의 차량(130))과 연관된 GPS 유닛(예를 들어, 도 1의 GPS 유닛(150))에 의해 생성된 GPS 위치를 수신한다. GPS 유닛은 차량 루프의 중앙 지점에 부착될 수 있다. 차량은 철도 환경의 철도 트랙을 따라 진행하는 지오메트리 차량일 수 있다. GPS 위치는 위도 및 경도 좌표(예를 들어, N38 03.9325, W97 18.7658) 또는 기타 적절한 표현으로 나타낼 수 있다. 그 다음, 방법(500)은 510단계에서 515단계로 이동한다.
515단계에서, 로케이터 모듈은 차량과 연관된 카메라(예를 들어, 도 1의 카메라(140))에 의해 생성된 이미지(예를 들어, 도 3의 이미지(300))를 수신한다. 카메라는 차량 루프의 전면 끝에 부착될 수 있다. 상기 이미지는 차량의 전면 끝에서 촬영된 철도 환경의 이미지일 수 있다. 그 다음, 방법(500)은 515단계에서 520단계로 이동한다. 단계 520에서, 로케이터 모듈은 이미지에서 객체를 검출한다. 객체는 열차 제어 신호(train-controlled signal), 스위치 포인트(switch point), 크로싱(crossing), 마일 포스트 사인(mile post sign), 스피드 사인(speed sign) 및 클리어런스 포인트(clearance point) 등과 같은 철도 환경 내의 물리적 객체(예: 도 1의 물리적 객체 160)를 나타낼 수 있다. 특정 실시예에서, 객체는 PTC 중요 자산을 나타낸다. 그 다음, 방법(500)은 520단계에서 525단계로 이동한다.
525단계에서 로케이터 모듈은 검출된 이미지의 객체에서 객체 POI를 결정한다. 객체 POI는 객체 내의 특정 지점(specific point)이다. 예를 들어, 객체 POI는 마일 포스트 사인(mile post sign)의 하단의 특정 지점일 수 있다. 그 다음, 방법(500)은 525단계에서 530단계으로 이동하고, 여기서 로케이터 모듈은 POI를 생성하기 위해 객체 POI를 이미지의 철도 트랙의 중심선에 매핑한다. POI는 철로의 중심선으로 옮겨진 물리적 객체의 위치를 나타낸다. 그 다음, 방법(500)은 530단계에서 535단계로 이동한다.
535단계에서, 로케이터 모듈은 이미지의 POI로부터 이미지의 에지까지의 픽셀의 수를 결정한다. 이미지의 에지는 카메라의 위치를 나타낸다. 로케이터 모듈은 픽셀의 수를 선형 거리(linear distance)로 변환할 수 있다. 그 다음, 방법(500)은 535단계에서 540단계로 이동하고, 여기서 로케이터 모듈은 픽셀의 수 및 카메라의 각도(예를 들어, 도 1의 카메라 시야각(142))를 사용하여 POI로부터 카메라까지의 제1 거리(예를 들어, 도 1의 제1 거리(190))를 결정한다. 제1 거리는 철도 트랙의 중심선을 따라 측정된 선형 수평 거리(linear horizontal distance)(예를 들어, 21.2피트)로 표시될 수 있다. 선형 수평 거리는 임의의 적절한 측정치(예를 들어, 인치, 피트, 미터, 센티미터 등)로 표현될 수 있다. 그런 다음 방법(500)은 540단계에서 545단계로 이동한다.
545단계에서, 로케이터 모듈은 카메라로부터 GPS 유닛까지의 제2 거리(예를 들어, 도 1의 제2 거리(192))를 결정한다. 제2 거리는 차량에 장착된 카메라의 위치와 차량에 장착된 GPS 유닛의 위치 사이의 기설정된 거리일 수 있다. 제2 거리는 철도 트랙의 중심선을 따라 측정된 선형 수평 거리(예를 들어, 18피트)로 표시될 수 있다. 선형 수평 거리는 임의의 적절한 측정치(예를 들어, 인치, 피트, 미터, 센티미터 등)에 의해 표현될 수 있다. 그런 다음 방법(500)은 545단계에서 550단계으로 이동하고, 여기서 로케이터 모듈은 제1 거리를 제2 거리에 더하여 POI로부터 GPS 유닛까지의 오프셋 거리(예를 들어, 도 1의 오프셋 거리(194))를 결정한다. 오프셋 거리는 철도 트랙의 중심선을 따라 측정된 선형 수평 거리(예를 들어, 39.2피트)로 표시될 수 있다. 선형 수평 거리는 임의의 적절한 측정치(예를 들어, 인치, 피트, 미터, 센티미터 등)로 나타낼 수 있다. 그런 다음 방법(500)은 550단계에서 555단계로 이동한다.
555단계에서, 로케이터 모듈은 GPS 위치 및 이미지가 캡처된 시간에 철도 트랙을 따라 차량의 진행 방향(예를 들어, 동쪽 또는 서쪽)을 결정한다. 그 다음, 방법(500)은 555단계에서 560단계로 이동하고, 여기서 로케이터 모듈은 GPS 위치, 오프셋 거리 및 차량의 진행 방향을 사용하여 물리적 객체와 연관된 POI 위치를 결정한다. 예를 들어, 로케이터 모듈은 지리적 POI 위치(예를 들어, 위도 = 38.06555556, 경도 = -97.3127778)를 생성하기 위해 오프셋 거리(예를 들어, 39.2피트) 및 차량 진행 방향(예를 들어, 동쪽)만큼 GPS 위치(예를 들어, N38 03.9325, W97 18.7658)를 수정할 수 있다. 지리적 POI 위치는 적절한 표현으로 나타낼 수 있다. 그 다음, 방법(500)은 560단계에서 565단계로 이동한다.
565단계에서, 로케이터 모듈은 POI 위치를 필드 위치(예를 들어, 도 2의 필드 위치(262))와 비교한다. 필드 위치는 필드에서 측정된 물리적 개체의 위치를 나타낸다. 그 다음, 방법(500)은 565단계에서 570단계로 이동하고, 여기서 로케이터 모듈은 POI 위치와 필드 위치가 기설정된 거리(예를 들어, 3피트) 이상으로 분리되어 있는지 여부를 결정한다. 로케이터 모듈이 POI 위치와 필드 위치가 기설정된 거리보다 더 멀리 떨어져 있다고 결정하면, 방법(500)은 570단계에서 575단계로 이동하고, 여기서 로케이터 모듈은 물리적 객체에 결함을 적용한다. 로케이터 모듈이 POI 위치와 필드 위치가 미리 결정된 거리보다 더 멀리 떨어져 있지 않다고 결정하면, 방법(500)은 570단계에서 580단계로 이동하고, 여기서 로케이터 모듈은 물리적 객체의 위치를 검증한다. 그 다음, 방법(500)은 575단계 및 580단계로부터 방법(500)이 종료되는 585단계로 이동한다.
도 5에 도시된 방법(500)에 수정, 추가 또는 생략이 이루어질 수 있다. 방법(500)은 더 많거나 더 적거나 다른 단계를 포함할 수 있다. 예를 들어, 방법(500)은 단계(575)에서 물리적 객체에 결함을 적용하는 것에 응답하여 및/또는 580단계에서 물리적 객체의 위치를 검증하는 것에 응답하여 보고서를 생성하는 단계를 포함할 수 있다. 단계들은 병렬로 또는 임의의 적절한 순서로 수행될 수 있다. 방법(500)의 단계를 완료하는 특정 구성요소로 설명되었지만, 임의의 적절한 구성요소는 방법(500)의 임의의 단계를 수행할 수 있다. 예를 들어, 웹 서비스는 560단계에서 POI의 지리적 위치를 결정할 수 있다.
도 6은 여기에 설명된 시스템 및 방법에 의해 사용될 수 있는 컴퓨터 시스템의 예를 도시한다. 예를 들어, 도 1의 네트워크(110), 로케이터 모듈(120), 카메라(140), 및/또는 GPS 유닛(150)은 하나 이상의 인터페이스(interface)(610), 프로세싱 회로(processing circuitry)(620), 메모리(memory)(630), 및/또는 다른 적절한 요소를 포함할 수 있다. 인터페이스(610)(예를 들어, 도 2의 인터페이스(222))는 입력을 수신하고, 출력을 전송하고, 입력 및/또는 출력을 처리하고, 및/또는 다른 적절한 동작을 수행한다. 인터페이스(610)는 하드웨어 및/또는 소프트웨어를 포함할 수 있다.
프로세싱 회로(620)(예를 들어, 도 2의 프로세서(226))는 컴포넌트(component)의 동작을 수행하거나 관리한다. 프로세싱 회로(620)는 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 프로세싱 회로의 예에는 하나 이상의 컴퓨터(computer), 하나 이상의 마이크로프로세서(microprocessor), 하나 이상의 애플리케이션(application) 등이 있다. 특정 실시예에서, 프로세싱 회로(620)는 입력으로부터 출력을 생성하는 것과 같은 액션(action)(예를 들어, 동작(operation))을 수행하기 위해 로직(logic)(예를 들어, 명령(instruction))을 실행한다. 프로세싱 회로(620)에 의해 실행되는 로직은 하나 이상의 유형의 비일시적 컴퓨터 판독 가능 매체(예를 들어, 메모리(630))로 인코딩될 수 있다. 예를 들어, 로직은 컴퓨터 프로그램(computer program), 소프트웨어, 컴퓨터 실행 가능 명령어(computer executable instruction), 및/또는 컴퓨터에 의해 실행될 수 있는 명령어를 포함할 수 있다. 특정 실시예에서, 실시예의 동작은 컴퓨터 프로그램을 저장, 구현 및/또는 인코딩하고/하거나 저장 및/또는 인코딩된 컴퓨터 프로그램을 갖는 하나 이상의 컴퓨터 판독 가능 매체에 의해 수행될 수 있다.
메모리(630)(또는 메모리 유닛)는 정보를 저장한다. 메모리(630)(예를 들어, 도 2의 메모리(224))는 하나 이상의 비일시적(non-transitory), 유형적(tangible), 컴퓨터 판독가능(computer-readable) 및/또는 컴퓨터 실행가능 저장 매체(computer-executable storage media)를 포함할 수 있다. 메모리(630)의 예는 컴퓨터 메모리(예를 들어, RAM 또는 ROM), 대용량 저장 매체(예를 들어, 하드 디스크), 이동식 저장 매체(예를 들어, 컴팩트 디스크(CD) 또는 디지털 비디오 디스크(DVD)), 데이터베이스 및/또는 네트워크 스토리지(예를 들어, 서버) 및/또는 기타 컴퓨터 판독 가능 매체를 포함한다.
여기에서, 컴퓨터 판독 가능 비 일시적 저장 매체 또는 매체는 하나 이상의 반도체 기반 또는 기타 집적 회로(IC)(예를 들어, FPGA(Field Programmable Gate Array) 또는 ASIC(application-specific IC)), 하드 디스크 드라이브(HDD), 하이브리드 하드 드라이브(HHD), 광 디스크, 광학 디스크 드라이브(ODD), 광 자기 디스크, 광 자기 드라이브, 플로피 디스켓, 플로피 디스크 드라이브(FDD), 자기 테이프, 솔리드 스테이트 드라이브(SSD), RAM 드라이브, 안전한 디지털 카드 또는 드라이브, 컴퓨터에서 읽을 수 있는 기타 적절한 비 일시적 저장 매체, 또는 적절한 경우 이들 중 둘 이상의 적절한 조합을 포함할 수 있다. 컴퓨터 판독 가능 비 일시적 저장 매체는 적절한 경우 휘발성, 비 휘발성 또는 휘발성 및 비 휘발성의 조합일 수 있다.
여기에서 "또는"은 명시적으로 표시되지 않는 한 포괄적이며 배타적이지 않다. 그렇지 않으면 문맥에 따라 다르게 표시된다. 따라서, 여기에서 "A 또는 B"는 달리 명시적으로 표시되거나 문맥에 의해 달리 표시되지 않는 한 "A, B 또는 둘 다"를 의미한다. 더욱이, "및"은 달리 명시적으로 표시되거나 문맥에 의해 달리 표시되지 않는 한 공동 및 여러 가지이다. 따라서, 본원에서 "A 및 B"는 달리 명시적으로 표시되거나 문맥에 의해 달리 표시되지 않는 한 "A 및 B, 공동으로 또는 개별적으로"를 의미한다.
본 개시의 범위는 당업자가 이해할 수 있는 본 명세서에 설명되거나 예시된 예시적인 실시 예에 대한 모든 변경, 대체, 변형, 변경 및 수정을 포함한다. 본 개시의 범위는 여기에서 설명되거나 예시된 예시적인 실시 예들로 제한되지 않는다. 더욱이, 본 개시는 특정 구성 요소, 요소, 특징, 기능, 동작 또는 단계를 포함하는 것으로 여기에서 각각의 실시 예를 설명하고 예시하지만, 이들 실시 예 중 임의의 것은 당업자가 이해할 수 있는 본 명세서의 어느 곳에서나 설명되거나 예시된 임의의 구성 요소, 요소, 특징, 기능, 동작 또는 단계의 임의의 조합 또는 순열을 포함할 수 있다. 또한, 특정 기능을 수행하도록 적합하게 구성되고 배치되어 작동하거나 작동 가능하다 장치 또는 시스템 또는 그 구성 요소에 대한 첨부된 특허 청구 범위의 언급은 그 장치, 시스템 또는 구성 요소가 충족되고 구성되어 배치되고, 작동 또는 작동 가능하다 이왕이면 또는 특정 기능이 활성화되어 온 되거나 해제되는 여부에 관계없이 그 장치 시스템 또는 구성 요소를 포함하고 있다. 추가로, 본 개시는 특정 이점을 제공하는 것으로 특정 실시 예를 설명하거나 예시하지만, 특정 실시 예는 이러한 이점을 제공하지 않거나, 일부 또는 모두 제공할 수 있다.

Claims (20)

  1. 차량과 연관된 카메라에 의해 생성된 이미지에서 POI(point of interest)을 결정하는 단계 - 상기 POI는 물리적 객체와 연관됨 -;
    상기 이미지로부터의 픽셀들 및 카메라의 각도를 이용하여 상기 POI로부터 상기 카메라까지의 제1 거리를 결정하는 단계;
    상기 카메라로부터 상기 차량과 관련된 GPS(Global Positioning System) 유닛까지의 제2 거리를 결정하는 단계; 및
    상기 제1 거리를 상기 제2 거리에 더하여, 상기POI로부터 상기 차량과 연관된 상기 GPS 유닛까지의 오프셋 거리를 결정하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 차량과 연관된 상기 GPS 유닛에 의해 생성된 GPS 위치를 수신하는 단계 - 상기 GPS 위치는, 위도 및 경도 좌표로 표시됨 - ;
    철도 트랙을 따라 상기 차량의 진행 방향을 결정하는 단계 - 상기 차량은, 트랙 지오메트리 차량임 -; 및
    상기 GPS 위치, 상기 오프셋 거리 및 상기 차량의 상기 진행 방향을 사용하여, 상기 물리적 객체와 연관된 POI 위치를 결정하는 단계 - 상기 POI 위치는, 위도와 경도 좌표로 표시됨 -;
    를 더 포함하는 방법.
  3. 제1항에 있어서,
    상기 카메라는,
    상기 차량의 전면 상단에 장착되고,
    상기 GPS 유닛은,
    상기 차량의 중앙 상부에 장착되는
    방법.
  4. 제1항에 있어서,
    상기 이미지에서 객체를 검출하는 단계;
    상기 이미지의 상기 검출된 객체에서 객체 POI를 결정하는 단계; 및
    상기 객체 POI를 상기 이미지에서 철도 트랙의 중앙에 매핑하여 상기 POI를 생성하는 단계
    를 더 포함하는 방법.
  5. 제1항에 있어서,
    상기 물리적 객체와 연관된 상기 POI 위치를, 상기 물리적 객체와 연관된 필드 측정 위치와 비교하는 단계;
    상기 POI 위치와 상기 필드 측정 위치가 기설정된 거리 이상 떨어져 있다고 결정하는 단계; 및
    상기 POI 위치와 상기 필드 측정 위치가 기설정된 거리 이상 떨어져 있다는 결정에 응답하여, 상기 물리적 객체에 결함을 적용하는 단계
    를 더 포함하는 방법.
  6. 제1항에 있어서,
    상기 이미지로부터의 상기 픽셀들을 사용하여 상기 POI로부터 상기 카메라까지의 상기 제1 거리를 결정하는 단계는,
    상기 픽셀들 각각을 거리로 변환하는 단계
    를 포함하고,
    상기 픽셀들 각각은,
    상이한 거리와 연관되는
    방법.
  7. 제1항에 있어서,
    상기 물리적 객체는,
    열차 제어 신호;
    스위치 포인트;
    크로싱;
    마일 포스트 사인;
    스피드 사인; 및
    클리어런스 포인트
    를 포함하는 PTC 중요 자산 중에서 적어도 하나를 나타내는
    방법.
  8. 시스템에 있어서,
    하나 이상의 프로세서, 및
    상기 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금 다음의 동작들을 수행하게 하는 명령들을 저장하는 메모리
    를 포함하고,
    상기 동작들은,
    차량과 연관된 카메라에 의해 생성된 이미지에서 POI(point of interest)을 결정하는 동작 - 상기 POI는 물리적 객체와 연관됨 -;
    상기 이미지로부터의 픽셀들 및 카메라의 각도를 이용하여 상기 POI로부터 상기 카메라까지의 제1 거리를 결정하는 동작;
    상기 카메라로부터 상기 차량과 관련된 GPS(Global Positioning System) 유닛까지의 제2 거리를 결정하는 동작; 및
    상기 제1 거리를 상기 제2 거리에 더하여, 상기 POI로부터 상기 차량과 연관된 상기 GPS 유닛까지의 오프셋 거리를 결정하는 동작
    을 포함하는 시스템.
  9. 제8항에 있어서,
    상기 동작들은,
    상기 차량과 연관된 상기 GPS 유닛에 의해 생성된 GPS 위치를 수신하는 동작 - 상기 GPS 위치는, 위도 및 경도 좌표로 표시됨 - ;
    철도 트랙을 따라 상기 차량의 진행 방향을 결정하는 동작 - 상기 차량은, 트랙 지오메트리 차량임 -; 및
    상기 GPS 위치, 상기 오프셋 거리 및 상기 차량의 진행 방향을 사용하여, 상기 물리적 객체와 연관된 POI 위치를 결정하는 동작 - 상기 POI 위치는, 위도와 경도 좌표로 표시됨 -;
    을 더 포함하는 시스템.
  10. 제8에 있어서,
    상기 카메라는,
    상기 차량의 전면 상단에 장착되고,
    상기 GPS 유닛은,
    상기 차량의 중앙 상부에 장착되는
    시스템.
  11. 제8항에 있어서,
    상기 동작들은,
    상기 이미지에서 객체를 검출하는 동작;
    상기 이미지의 상기 검출된 객체에서 객체 POI를 결정하는 동작; 및
    상기 객체 POI를 철도 트랙의 중앙에 매핑하여 상기 POI를 생성하는 동작
    을 더 포함하는 시스템.
  12. 제8항에 있어서,
    상기 동작들은,
    상기 물리적 객체와 연관된 상기 POI 위치를 상기 물리적 객체와 연관된 필드 측정 위치와 비교하는 동작;
    상기 POI 위치와 상기 필드 측정 위치가 기설정된 거리 이상 떨어져 있다고 결정하는 동작; 및
    상기 POI 위치와 상기 필드 측정 위치가 기설정된 거리 이상 떨어져 있다는 결정에 응답하여, 상기 물리적 객체에 결함을 적용하는 동작
    을 더 포함하는 시스템.
  13. 제8에 있어서,
    상기 이미지로부터의 상기 픽셀들을 사용하여 상기 POI로부터 상기 카메라까지의 상기 제1 거리를 결정하는 동작은,
    상기 픽셀들 각각을 거리로 변환하는 동작
    을 포함하고,
    상기 픽셀들 각각은,
    상이한 거리와 연관되는
    시스템.
  14. 제8항에 있어서,
    상기 물리적 객체는,
    열차 제어 신호;
    스위치 포인트;
    크로싱;
    마일 포스트 사인;
    스피드 사인; 및
    클리어런스 포인트
    를 포함하는 PTC 중요 자산 중에서 적어도 하나를 나타내는
    시스템.
  15. 명령들을 저장하는 하나 이상의 비 일시적인 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 명령들은,
    프로세서에 의해 실행될 때, 상기 프로세서로 하여금 다음의 동작들을 수행하게 하고,
    상기 동작들은,
    차량과 연관된 카메라에 의해 생성된 이미지에서 POI(point of interest)을 결정하는 동작 - 상기 POI는 물리적 객체와 연관됨 -;
    상기 이미지로부터의 픽셀들 및 카메라의 각도를 이용하여 상기 POI로부터 상기 카메라까지의 제1 거리를 결정하는 동작;
    상기 카메라로부터 상기 차량과 관련된 GPS(Global Positioning System) 유닛까지의 제2 거리를 결정하는 동작; 및
    상기 제1 거리를 상기 제2 거리에 더하여, 상기 POI로부터 상기 차량과 연관된 상기 GPS 유닛까지의 오프셋 거리를 결정하는 동작
    을 포함하는 하나 이상의 컴퓨터 판독 가능 저장 매체.
  16. 제15항에 있어서,
    상기 동작들은,
    상기 차량과 연관된 상기 GPS 유닛에 의해 생성된 GPS 위치를 수신하는 동작 - 상기 GPS 위치는, 위도 및 경도 좌표로 표시됨 - ;
    철도 트랙을 따라 상기 차량의 진행 방향을 결정하는 동작 - 상기 차량은, 트랙 지오메트리 차량임 -; 및
    상기 GPS 위치, 상기 오프셋 거리 및 상기 차량의 진행 방향을 사용하여 상기 물리적 객체와 연관된 POI 위치를 결정하는 동작 -상기 POI 위치는, 위도와 경도 좌표로 표시됨 -;
    을 더 포함하는 하나 이상의 비 일시적인 컴퓨터 판독 가능 저장 매체.
  17. 제15항에 있어서,
    상기 카메라는,
    상기 차량의 전면 상단에 장착되고,
    상기 GPS 유닛은,
    상기 차량의 중앙 상부에 장착되는
    하나 이상의 비 일시적인 컴퓨터 판독 가능 저장 매체.
  18. 제15항에 있어서,
    상기 동작들은,
    상기 이미지에서 객체를 검출하는 동작;
    상기 이미지의 상기 검출된 객체에서 객체 POI를 결정하는 동작; 및
    상기 객체 POI를 철도 트랙의 중앙에 매핑하여 상기 POI를 생성하는 동작
    을 더 포함하는 하나 이상의 비 일시적인 컴퓨터 판독 가능 저장 매체.
  19. 제15항에 있어서,
    상기 동작은,
    상기 물리적 객체와 연관된 상기 POI 위치를 상기 물리적 객체와 연관된 필드 측정 위치와 비교하는 동작;
    상기 POI 위치와 상기 필드 측정 위치가 기설정된 거리 이상 떨어져 있다고 결정하는 동작; 및
    상기 POI 위치와 상기 필드 측정 위치가 기설정된 거리 이상 떨어져 있다는 결정에 응답하여, 상기 물리적 객체에 결함을 적용하는 동작
    을 더 포함하는 하나 이상의 비 일시적인 컴퓨터 판독 가능 저장 매체.
  20. 제15항에 있어서,
    상기 이미지로부터 상기 픽셀들을 이용하여 상기 POI로부터 상기 카메라까지의 제1 거리를 결정하는 동작은,
    상기 픽셀들 각각을 거리로 변환하는 동작
    을 포함하고,
    상기 픽셀들 각각은 상이한 거리와 연관되는
    하나 이상의 비 일시적인 컴퓨터 판독 가능 저장 매체.
KR1020227022908A 2019-08-14 2020-06-23 객체 위치 확인 시스템 및 방법 KR20220101747A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US16/540,867 2019-08-14
US16/540,867 US11107233B2 (en) 2019-08-14 2019-08-14 Systems and methods for locating objects
KR1020227006335A KR20220042405A (ko) 2019-08-14 2020-06-23 객체 위치 확인 시스템 및 방법
PCT/US2020/039044 WO2021029971A1 (en) 2019-08-14 2020-06-23 Systems and methods for locating objects

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020227006335A Division KR20220042405A (ko) 2019-08-14 2020-06-23 객체 위치 확인 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20220101747A true KR20220101747A (ko) 2022-07-19

Family

ID=71662300

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020227006335A KR20220042405A (ko) 2019-08-14 2020-06-23 객체 위치 확인 시스템 및 방법
KR1020227022908A KR20220101747A (ko) 2019-08-14 2020-06-23 객체 위치 확인 시스템 및 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020227006335A KR20220042405A (ko) 2019-08-14 2020-06-23 객체 위치 확인 시스템 및 방법

Country Status (10)

Country Link
US (3) US11107233B2 (ko)
EP (2) EP4014204A1 (ko)
JP (2) JP2022544939A (ko)
KR (2) KR20220042405A (ko)
CN (2) CN114502918A (ko)
AU (3) AU2020329106B2 (ko)
BR (1) BR112022002631A2 (ko)
CA (1) CA3150918A1 (ko)
MX (2) MX2022001852A (ko)
WO (1) WO2021029971A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039133A1 (ko) 2022-08-16 2024-02-22 주식회사 엘지에너지솔루션 소화액체가 포함된 인터-모듈 버스바

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11377130B2 (en) 2018-06-01 2022-07-05 Tetra Tech, Inc. Autonomous track assessment system
US10807623B2 (en) 2018-06-01 2020-10-20 Tetra Tech, Inc. Apparatus and method for gathering data from sensors oriented at an oblique angle relative to a railway track
CA3130198C (en) 2019-05-16 2022-05-17 Darel Mesher System and method for generating and interpreting point clouds of a rail corridor along a survey path
US11107233B2 (en) 2019-08-14 2021-08-31 Bnsf Railway Company Systems and methods for locating objects

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150269722A1 (en) 2014-03-18 2015-09-24 General Electric Company Optical route examination system and method
US8712144B2 (en) 2003-04-30 2014-04-29 Deere & Company System and method for detecting crop rows in an agricultural field
US20190180118A1 (en) * 2014-02-17 2019-06-13 Ge Global Sourcing Llc Locomotive imaging system and method
US10179597B2 (en) 2016-06-27 2019-01-15 Jack Wade Automated wayside asset monitoring with optical imaging and visualization
US10638906B2 (en) * 2017-12-15 2020-05-05 Neato Robotics, Inc. Conversion of cleaning robot camera images to floorplan for user interaction
US10679505B2 (en) * 2018-02-22 2020-06-09 Alstom Transport Technologies Automatic vehicle control apparatus able to determine track occupancy of a vehicle, and corresponding method for automatically controlling the vehicle
US11107233B2 (en) 2019-08-14 2021-08-31 Bnsf Railway Company Systems and methods for locating objects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039133A1 (ko) 2022-08-16 2024-02-22 주식회사 엘지에너지솔루션 소화액체가 포함된 인터-모듈 버스바

Also Published As

Publication number Publication date
MX2022008141A (es) 2022-09-05
JP2022544939A (ja) 2022-10-24
AU2020329106A1 (en) 2022-03-03
CN114502918A (zh) 2022-05-13
AU2023266301A1 (en) 2023-12-07
EP4014204A1 (en) 2022-06-22
AU2020329106B2 (en) 2024-02-08
BR112022002631A2 (pt) 2022-05-03
US11107233B2 (en) 2021-08-31
WO2021029971A1 (en) 2021-02-18
US20230410354A1 (en) 2023-12-21
MX2022001852A (es) 2022-03-11
US11763480B2 (en) 2023-09-19
CN117330030A (zh) 2024-01-02
AU2022204351A1 (en) 2022-07-14
US20210049783A1 (en) 2021-02-18
KR20220042405A (ko) 2022-04-05
CA3150918A1 (en) 2021-02-18
EP4109403A1 (en) 2022-12-28
AU2022204351B2 (en) 2023-08-24
US20210327087A1 (en) 2021-10-21
JP2022161897A (ja) 2022-10-21

Similar Documents

Publication Publication Date Title
KR20220101747A (ko) 객체 위치 확인 시스템 및 방법
EP3673407B1 (en) Automatic occlusion detection in road network data
US8284995B2 (en) Method for updating a geographic database for an in-vehicle navigation system
JP6713505B2 (ja) 舗装情報収集点検システム、舗装情報収集点検方法、及びプログラム
US20130173208A1 (en) Road surface inspection device and recording medium
JP6280409B2 (ja) 自車位置修正方法、ランドマークデータ更新方法、車載機、サーバおよび自車位置データ修正システム
US11328441B2 (en) Information processing device and information processing system
CN104296756A (zh) 运行机动车的方法和机动车
KR20220027932A (ko) 운행 가능 네트워크에 관련된 사용자 기여 데이터 수집
US20190360820A1 (en) Method and device for executing at least one measure for increasing the safety of a vehicle
JP6658230B2 (ja) 位置捕捉システム
KR20220059544A (ko) 자산 감사 시스템 및 방법
KR20200002257A (ko) 꼭지점 검출 기반의 도로 표지판 검출 방법 및 장치
US10883839B2 (en) Method and system for geo-spatial matching of sensor data to stationary objects
JP6661563B2 (ja) 解析装置及び解析方法
JP2020005464A (ja) 走行制御装置
CN112784707B (zh) 一种信息融合方法、装置、一体化检测设备及存储介质
AU2022231770A1 (en) System and method for vehicle-based localizing of offboard features
AU2022402675A1 (en) Sensor control system and sensor control method

Legal Events

Date Code Title Description
A107 Divisional application of patent