KR101174531B1 - 정보 처리 장치 및 방법 - Google Patents

정보 처리 장치 및 방법 Download PDF

Info

Publication number
KR101174531B1
KR101174531B1 KR1020067027564A KR20067027564A KR101174531B1 KR 101174531 B1 KR101174531 B1 KR 101174531B1 KR 1020067027564 A KR1020067027564 A KR 1020067027564A KR 20067027564 A KR20067027564 A KR 20067027564A KR 101174531 B1 KR101174531 B1 KR 101174531B1
Authority
KR
South Korea
Prior art keywords
positioning
unit
recognition
hmm
information processing
Prior art date
Application number
KR1020067027564A
Other languages
English (en)
Other versions
KR20070026673A (ko
Inventor
마꼬또 무라따
다마끼 고지마
웬우 자오
류 아오야마
브라이언 클락슨
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20070026673A publication Critical patent/KR20070026673A/ko
Application granted granted Critical
Publication of KR101174531B1 publication Critical patent/KR101174531B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • G06V10/85Markov-related models; Markov random fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

본 발명은 미세한 입도에서의 위치 인식을 정밀도 좋게 행할 수 있도록 하는 정보 처리 장치 및 방법, 프로그램, 및 정보 처리 시스템에 관한 것이다. 휴대 단말기에는 GPS 모듈 등의 외에 카메라가 설치되어 있다. 위치 인식 모델 구성 페이즈에서는, 카메라로 촬영된 화상열로부터 위치 인식 모델이 작성되고, 작성된 위치 인식 모델이 GPS 모듈 등에 의해 얻어진 위치 정보와 대응지어 기억된다. 위치 인식 페이즈에서는, GPS 모듈에 의해 글로벌 에리어 상의 현재 위치가 인식되고, 그 인식 결과로부터 선택되는 위치 인식 모델과, 그 때 촬영된 화상열에 기초하여, 로컬 에리어 상의 현재 위치가 인식된다. 본 발명은 노트북형 퍼스널 컴퓨터, PDA, 휴대 전화기 등의 휴대형 단말기에 적용할 수 있다.
Figure R1020067027564
입도, 클러스터, 위치 인식 모델, GPS 모듈, 위치 인식 페이즈, HMM, 휴대 단말기, 글로벌 에리어, 로컬 에리어

Description

정보 처리 장치 및 방법{INFORMATION PROCESSING DEVICE AND METHOD}
본 발명은 정보 처리 장치 및 방법, 프로그램, 및 정보 처리 시스템에 관한 것으로, 특히 미세한 입도에서의 위치 인식을 정밀도 좋게 행할 수 있도록 하는 정보 처리 장치 및 방법, 프로그램, 및 정보 처리 시스템에 관한 것이다.
일반적으로 보급되어 있는 인프라형 위치 인식 기술에는, 예를 들면 GPS(Global Positioning System)나 PHS(Personal Handyphone System)(등록상표)를 이용하는 것이 있다.
GPS를 이용한 위치 인식은, 포착한 위성으로부터의 정보를 이용함으로써 행해지고, PHS를 이용한 위치 인식은, 기지국으로부터의 정보를 이용함으로써 행해진다.
이들 위치 인식에 의해, GPS 모듈이나 PHS 모듈을 탑재한 휴대형 디바이스는, 유저의 위치(디바이스 자신의 위치)를 수m~수십m 정도의 입도로 특정할 수 있다. 예를 들면, 자택에 있다/학교에 있다/회사에 있다/임의의 교차점에 있다, 등의 입도로, 유저의 위치를 알 수 있다.
그런데, 특허 문헌 1에는 GPS에 의해 산출된 위치 정보와, 촬영한 화상의 특 징 정보로부터 특정된 위치 정보를 이용함으로써 현재 위치를 특정하는 기술이 개시되어 있다. 이에 의해, 단순히, GPS에 의해 취득된 위치 정보만을 이용하는 경우나, 촬영한 화상의 특징 정보로부터 특정된 위치 정보만을 이용하는 경우에 비하여, 위치 인식의 정밀도를 높일 수 있는 것이다.
특허 문헌 1 : 일본 특개평9-190413호 공보
<발명의 개시>
<발명이 해결하고자 하는 과제>
그러나, GPS나 PHS를 이용한 위치 인식의 경우, 위치 인식의 입도가 수m~수십m 정도이므로, 유저가 자택에 있는 것까지는 인식할 수 있어도, 리빙, 키친, 다이닝 등의, 자택의 어느 방에 있는 것인지까지는 인식할 수 없다.
마찬가지로, 유저가 회사에 있는 것까지는 인식할 수 있어도, 회사의 몇 층에 있는 것인지, 어느 방에 있는 것인지까지는 인식할 수 없으며, 또한 옥외이면, 유저가 임의의 교차점에 있는 것까지는 인식할 수 있어도, 교차점을 건너기 전인지, 건넌 후인지 등의 것까지는 인식할 수 없다.
즉, 유저의 현재의 상황에 가까운, 레벨이 미세한 입도의 위치까지는 특정할 수 없다고 하는 과제가 있었다.
상술한 특허 문헌 1에 개시되어 있는 기술을 이용함으로써도, 「A 사업소의 회의실」등과 같이 미세한 위치까지를 특정할 수 있지만(식별번호 [27], [28]), 이것은, 화상에 의한 위치 인식 결과가 GPS에 의해 취득된 위치 정보에 의해 가중치 부여가 이루어져(종합적으로 판정되어) 얻어지는 것으로(예를 들면, 도 8), 화상의 특징을 이용한 위치 인식이 갑자기 행해지므로, 예를 들면 다른 정보를 이용하여 대략의 현재 위치를 추측하고, 그것에 따라 인식에 이용하는 데이터(기기에 준비되는 모델 등)를 적응적으로 변화시켜 위치 인식을 행하는 경우에 비하여, 위치 인식의 정밀도가 나쁜 것으로 될 우려가 있다.
한편, 특허 문헌 1에도 있는 바와 같이, 촬영한 화상으로부터 위치 인식을 행하기 위해서는, 유저는 인식용 모델 등의 데이터를, 예를 들면 학습에 의해 디바이스에 미리 준비해 둘 필요가 있다. 따라서, 위치 인식을 시키기 위한 전제로 되는, 학습 등에 요하는 유저의 부담이 크고, 또한 유저가 처음으로 방문한 장소(위치)에서는 인식용 데이터가 디바이스에 준비되어 있지 않으므로 위치 인식을 할 수 없다.
본 발명은 이러한 상황에 감안하여 이루어진 것으로, 미세한 입도에서의 위치 인식을 정밀도 좋게 행할 수 있도록 하는 것이다. 또한, 유저가 처음으로 방문한 장소라도, 촬영한 화상열로부터 위치 인식을 행할 수 있도록 하는 것이다.
<과제를 해결하기 위한 수단>
본 발명의 제1 정보 처리 장치는, 측위를 행하는 측위 수단과, 측위 수단에 의한 측위에 의해 얻어진 위치 정보에 기초하여, 위치 인식을 행하기 위한 인식용 데이터를 취득하는 취득 수단과, 취득 수단에 의해 취득된 인식용 데이터와, 소정의 센서로부터의 출력을 이용하여 위치 인식을 행하는 위치 인식 수단을 구비하는 것을 특징으로 한다.
본 발명의 제1 정보 처리 장치는, 센서로부터의 출력에 기초하여 인식용 데 이터를 작성하는 작성 수단을 더 구비하도록 할 수 있다.
본 발명의 제1 정보 처리 장치는, 작성 수단에 의해 작성된 인식용 데이터를, 상기 측위 수단의 측위에 의해 얻어진 위치 정보와 대응지어 기억하는 기억 수단을 더 구비하도록 할 수 있다. 이 경우, 취득 수단은 측위 수단에 의한 측위에 의해 얻어진 위치 정보에 기초하여, 인식용 데이터를 기억 수단으로부터 취득한다.
본 발명의 제1 정보 처리 장치는, 인식용 데이터를 다른 장치에 송신하는 송신 수단을 더 구비하도록 할 수 있다.
본 발명의 제1 정보 처리 장치는, 다른 장치로부터 위치 정보를 수신하는 수신 수단과, 위치 정보에 기초하여 인식용 데이터를 검색하는 검색 수단을 더 구비하도록 할 수 있다. 이 경우, 송신 수단은 검색 수단에 의해 검색된 인식용 데이터를 다른 장치에 송신한다.
취득 수단은 측위 수단의 측위에 의해 얻어진 위치 정보에 대응하는 인식용 데이터가 기억 수단에 의해 기억되어 있지 않은 경우, 다른 장치로부터 인식용 데이터를 취득하도록 할 수 있다.
취득 수단은, 소정의 시간마다 인식용 데이터를 취득하도록 할 수 있다.
측위 수단의 측위에 의해 얻어지는 위치 정보는, 소정의 위치 좌표로 나타내어지고, 인식용 데이터에 대응지어져 기억 수단에 기억되는 위치 정보는, 소정의 위치 좌표 범위에서 나타내어지는 경우에, 취득 수단은 측위 수단의 측위에 의해 얻어진 위치 좌표가, 소정의 위치 좌표 범위를 초과할 때, 다른 장치로부터 인식용 데이터를 취득하도록 할 수 있다.
측위 수단은, GPS와 PHS를 이용한 측위를 행하여, GPS를 이용하여 얻어지는 위치와, PHS를 이용하여 얻어지는 위치 중, 신뢰도가 높은 쪽의 위치를 측위 결과로서 선택하도록 할 수 있다.
센서는, 카메라의 촬상 소자, 또는 복수의 광 센서로 이루어지도록 할 수 있다.
본 발명의 제1 정보 처리 방법은, 측위를 행하는 측위 스텝과, 측위 스텝의 처리에 의한 측위에 의해 얻어진 위치 정보에 기초하여, 위치 인식을 행하기 위한 인식용 데이터를 취득하는 취득 스텝과, 취득 스텝의 처리에 의해 취득된 인식용 데이터와, 소정의 센서로부터의 출력을 이용하여 위치 인식을 행하는 위치 인식 스텝을 포함하는 것을 특징으로 한다.
본 발명의 제1 프로그램은, 측위를 행하는 측위 스텝과, 측위 스텝의 처리에 의한 측위에 의해 얻어진 위치 정보에 기초하여, 위치 인식을 행하기 위한 인식용 데이터를 취득하는 취득 스텝과, 취득 스텝의 처리에 의해 취득된 인식용 데이터와, 소정의 센서로부터의 출력을 이용하여 위치 인식을 행하는 위치 인식 스텝을 포함하는 처리를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 정보 처리 시스템은, 제1 정보 처리 장치와 제2 정보 처리 장치로 이루어지는 정보 처리 시스템으로서, 그 중의 제1 정보 처리 장치는, 측위를 행하는 측위 수단과, 측위 수단의 측위에 의해 얻어진 위치 정보를, 위치 인식을 행하기 위한 인식용 데이터를 위치 정보와 대응지어 기억하는 제2 정보 처리 장치에 송신하는 송신 수단과, 송신 수단에 의해 송신된 위치 정보에 기초하여 검색되어, 제 2 정보 처리 장치로부터 송신되어 온 인식용 데이터를 수신하는 수신 수단과, 수신 수단에 의해 수신된 인식용 데이터와, 소정의 센서로부터의 출력을 이용하여 위치 인식을 행하는 위치 인식 수단을 구비하고, 제2 정보 처리 장치는 제1 정보 처리 장치로부터 송신되어 온 위치 정보를 수신하는 수신 수단과, 수신 수단에 의해 수신된 위치 정보에 기초하여 인식용 데이터를 검색하는 검색 수단과, 검색 수단에 의해 검색된 인식용 데이터를 제1 정보 처리 장치에 송신하는 송신 수단을 구비하는 것을 특징으로 한다.
본 발명의 제2 정보 처리 장치는, 송신되는 정보에 기초하여 측위를 행하는 측위 수단과, 소정의 센서로부터의 출력에 기초하는 위치 인식을 행할 때에 이용하는 인식용 데이터를 취득하는 취득 수단과, 취득 수단에 의해 취득된 인식용 데이터를 이용하여, 센서로부터의 출력에 기초하는 위치 인식을 행하는 위치 인식 수단과, 측위 수단에 의한 측위에 의해 얻어진 위치와, 위치 인식 수단에 의해 인식된 위치의 각각의 신뢰도를 측정하는 신뢰도 측정 수단과, 신뢰도 측정 수단에 의해 측정된 신뢰도에 따라, 위치를 나타내는 정보를 출력하는 위치 출력 수단을 구비하는 것을 특징으로 한다.
본 발명의 제2 정보 처리 방법은, 송신되는 정보에 기초하여 측위를 행하는 측위 스텝과, 소정의 센서로부터의 출력에 기초하는 위치 인식을 행할 때에 이용하는 인식용 데이터를 취득하는 취득 스텝과, 취득 스텝의 처리에 의해 취득된 인식용 데이터를 이용하여, 센서로부터의 출력에 기초하는 위치 인식을 행하는 위치 인식 스텝과, 측위 스텝의 처리에 의한 측위에 의해 얻어진 위치와, 위치 인식 스텝 의 처리에 의해 인식된 위치의 각각의 신뢰도를 측정하는 신뢰도 측정 스텝과, 신뢰도 측정 스텝의 처리에 의해 측정된 신뢰도에 따라, 위치를 나타내는 정보를 출력하는 위치 출력 스텝을 포함하는 것을 특징으로 한다.
본 발명의 제2 프로그램은, 송신되는 정보에 기초하여 측위를 행하는 측위 스텝과, 소정의 센서로부터의 출력에 기초하는 위치 인식을 행할 때에 이용하는 인식용 데이터를 취득하는 취득 스텝과, 취득 스텝의 처리에 의해 취득된 인식용 데이터를 이용하여, 센서로부터의 출력에 기초하는 위치 인식을 행하는 위치 인식 스텝과, 측위 스텝의 처리에 의한 측위에 의해 얻어진 위치와, 위치 인식 스텝의 처리에 의해 인식된 위치의 각각의 신뢰도를 측정하는 신뢰도 측정 스텝과, 신뢰도 측정 스텝의 처리에 의해 측정된 신뢰도에 따라, 위치를 나타내는 정보를 출력하는 위치 출력 스텝을 포함하는 처리를 컴퓨터에 실행시키는 것을 특징으로 한다.
본 발명의 제1 정보 처리 장치 및 방법, 및 프로그램에 있어서는, 측위가 행해지고, 측위에 의해 얻어진 위치 정보에 기초하여, 위치 인식을 행하기 위한 인식용 데이터가 취득된다. 또한, 취득된 인식용 데이터와, 소정의 센서로부터의 출력을 이용하여 위치 인식이 행해진다.
본 발명의 정보 처리 시스템에서는, 측위가 행해지고, 측위에 의해 얻어진 위치 정보가, 위치 인식을 행하기 위한 인식용 데이터를 위치 정보와 대응지어 기억하는 제2 정보 처리 장치에 송신된다. 또한, 송신된 위치 정보에 기초하여 검색되어, 제2 정보 처리 장치로부터 송신되어 온 인식용 데이터가 수신되고, 수신된 인식용 데이터와, 소정의 센서로부터의 출력을 이용하여 위치 인식이 행해진다. 또한, 제1 정보 처리 장치로부터 송신되어 온 위치 정보가 수신되고, 수신된 위치 정보에 기초하여 인식용 데이터가 검색되고, 검색된 인식용 데이터가 제1 정보 처리 장치에 송신된다.
본 발명의 제2 정보 처리 장치 및 방법, 및 프로그램에서는, 송신되는 정보에 기초하여 측위가 행해져, 소정의 센서로부터의 출력에 기초하는 위치 인식을 행할 때에 이용하는 인식용 데이터가 취득된다. 인식용 데이터를 이용하여, 센서로부터의 출력에 기초하는 위치 인식이 행해져, 측위에 의해 얻어진 위치와, 인식된 위치의 신뢰도가 측정되고, 측정된 신뢰도에 따라, 위치를 나타내는 정보가 출력된다.
<발명의 효과>
본 발명에 따르면, 미세한 입도에서의 현재 위치의 인식이 가능하게 된다.
또한, 본 발명에 따르면, 유저가 처음으로 방문한 장소라도 위치 인식이 가능하게 된다.
도 1은 본 발명을 적용한 휴대 단말기를 이용하여 행해지는 위치 인식에 대하여 도시하는 도면.
도 2는 위치 인식의 구체예에 대하여 도시하는 도면.
도 3은 위치 인식의 구체예에 대하여 도시하는 다른 도면.
도 4는 HMM의 공유에 대하여 도시하는 도면.
도 5는 휴대 단말기의 하드웨어 구성예를 도시하는 블록도.
도 6은 도 5의 정보 처리부의 기능 구성예를 도시하는 블록도.
도 7은 도 6의 등록 관리부의 상세한 구성예를 도시하는 블록도.
도 8은 HMM의 예를 도시하는 도면.
도 9는 클러스터링과 HMM의 작성에 대하여 도시하는 도면.
도 10은 클러스터링과 HMM의 작성에 대하여 도시하는 다른 도면.
도 11은 클러스터링과 HMM의 작성에 대하여 도시하는 또 다른 도면.
도 12는 도 6의 위치 인식부의 상세한 구성예를 도시하는 블록도.
도 13은 신뢰도에 기초하는 측위 결과의 선택에 대하여 도시하는 도면.
도 14는 도 12의 인식부의 상세한 기능 구성예를 도시하는 도면.
도 15는 비터비 알고리즘에 대하여 도시하는 도면.
도 16은 위치 인식 모델 구성 처리에 대하여 설명하는 플로우차트.
도 17은 위치 인식 처리에 대하여 설명하는 플로우차트.
도 18은 위치 인식 처리에 대하여 설명하는 도 17에 계속되는 플로우차트.
도 19는 도 17의 스텝 S27, S31, 및 도 18의 스텝 S38에서 행해지는 인식 처리에 대하여 설명하는 플로우차트.
도 20A는 휴대 단말기의 형상의 예에 대하여 도시하는 도면.
도 20B는 휴대 단말기의 형상의 다른 예에 대하여 도시하는 도면.
도 20C는 휴대 단말기의 형상의 또 다른 예에 대하여 도시하는 도면.
도 20D는 휴대 단말기의 형상의 다른 예에 대하여 도시하는 도면.
도 21A는 휴대 단말기의 형상의 예에 대하여 도시하는 다른 도면.
도 21B는 휴대 단말기의 형상의 다른 예에 대하여 도시하는 다른 도면.
도 21C는 휴대 단말기의 형상의 또 다른 예에 대하여 도시하는 다른 도면.
도 21D는 휴대 단말기의 형상의 다른 예에 대하여 도시하는 다른 도면.
도 22는 퍼스널 컴퓨터의 구성예를 도시하는 블록도.
<부호의 설명>
1 : 휴대 단말기
11 : 정보 처리부
12 : GPS 모듈
13 : PHS 모듈
14 : 무선 LAN 모듈
15 : 카메라
31 : 측위 제어부
32 : 등록 관리부
33 : 위치 인식 모델 DB
34 : 촬영 제어부
35 : 위치 인식부
36 : 통신 제어부
51 : 클러스터링부
52 : 등록부
53 : 모델 작성부
61 : 신뢰도 판정부
62 : 모델 취득부
63 : 인식부
64 : 인식 결과 취득부
71 : 화상 선택부
72 : 특징 벡터 산출부
73 : 특징 벡터 기억부
74 : 매칭 처리부
<발명을 실시하기 위한 최량의 형태>
이하, 본 발명의 실시 형태에 대하여 도면을 참조하여 설명한다.
도 1은 본 발명을 적용한 휴대 단말기를 이용하여 행해지는 위치 인식에 대하여 도시하는 도면이다.
휴대 단말기에는 GPS 모듈, PHS 모듈 등의 측위 디바이스 외에, CCD(Charge Coupled Device) 등으로 이루어지는 카메라가 설치되어 있다(후술하는 도 5).
이 휴대 단말기에서는 GPS 모듈이나 PHS 모듈에 의해 글로벌 에리어 상의 유저(휴대 단말기 자신)의 현재 위치가 인식되고, 그 인식 결과로부터 선택되는 위치 인식 모델과, 카메라에 의해 촬영된 화상열에 기초하여, 로컬 에리어 상의 유저의 현재 위치가 인식된다. 도 1의 상단은 글로벌 에리어 상에서의 위치 인식을 나타내고, 하단은 로컬 에리어 상에서의 위치 인식을 나타내고 있다.
여기서, 글로벌 에리어 상의 위치란, GPS 모듈이나 PHS 모듈에 의해 취득되 는 위도 경도 정보에 의해 특정되는 지도 상의 위치를 말한다. GPS 모듈이나 PHS 모듈에 의해 취득되는 위도 경도 정보의 정밀도는 수m~수십m 정도이므로, GPS 모듈이나 PHS 모듈에 의한 위치 인식만으로는 「~역」부근, 「자택」부근, 「오피스」부근 등의, 유저의 대략적인 현재 위치밖에 인식할 수 없다.
또한, 로컬 에리어 상의 위치란, 「자택」 내의 리빙, 키친, 다이닝, 침실 등의 「자택」 내의 보다 미세한 입도의 위치, 마찬가지로 「오피스」 내의 몇 층, 어느 회의실, 유저의 책상 앞 등의 「오피스」 내의 보다 미세한 입도의 위치를 말한다.
휴대 단말기에서는 이러한 로컬 에리어 상의 미세한 입도의 위치까지가 인식된다.
휴대 단말기에 의한 위치 인식은, 기본적으로는 위치 인식 모델 구성 페이즈와 위치 인식 페이즈로 이루어진다. 위치 인식 모델 구성 페이즈는, 카메라로 촬영된 화상열로부터 위치 인식을 행할 때에 이용되는 데이터인 위치 인식 모델(예를 들면, HMM(Hidden Markov Model)의 파라미터, 특징 추출에 의해 얻어지는 특징 벡터 등의 특징량)을 작성하기 위한 페이즈이며, 위치 인식 페이즈는 위치 인식 모델을 이용함으로써 위치 인식을 실제로 행하는 페이즈이다.
위치 인식 모델 구성 페이즈에서는, 휴대 단말기에 설치되어 있는 카메라에 의해, 예를 들면 1초 동안에 15프레임 등의 소정의 프레임 레이트로 촬영이 반복하여 행해져, 유저의 이동처마다의 풍경이 촬영된다.
도 1에 도시한 바와 같이, 유저가 평소 「고탄다」역의 근처에 있는 「오피 스」에서 일을 하고 있는 경우, 「자택」의 화상열, 「자택」부터 「고탄다」까지, 및 「고탄다」로부터 「오피스」까지의 이동 중의 풍경의 화상열, 및 「오피스」에서의 화상열이 휴대 단말기에 의해 촬영된다. 도 1에서, S1 내지 S5로 나타내어지는 사각은 전철역을 나타내고, 그 중 S3은 「고탄다역」을 나타내고, S5는 「시나가와역」을 나타내고 있다.
이와 같이 하여 촬영된 화상열로부터, 위치 인식 모델이 휴대 단말기에 의해 작성된다. 작성된 위치 인식 모델은 휴대 단말기에 기억되어, 위치 인식 페이즈에서 이용 가능하게 된다. 따라서, 이동처에서 촬영이 반복하여 행해지므로, 다양한 장소에 가면 갈수록 많은 모델이 작성되어, 인식 가능한 위치가 증가하게 된다.
또한, 작성된 위치 인식 모델은 그 작성의 기초로 된 화상열의 촬영 시에 GPS 모듈이나 PHS 모듈에 의해 인식된 위도 경도(위도 경도에 의해 특정되는 위치를 포함하는 클러스터(클러스터에 대해서는 후술함))와 대응지어 휴대 단말기에 기억된다.
도 1에는 「자택」 내나 그 근방을 유저가 이동했을 때에 촬영된 화상열로부터 작성된 모델인 Home HMM(하단 좌측), 「고탄다」의 역 구내나 그 근방을 유저가 이동했을 때에 촬영된 화상열로부터 작성된 모델인 Gotanda HMM(하단 중앙), 「오피스」 내나 그 근방을 유저가 이동하였을 때에 촬영된 화상열로부터 작성된 모델인 Office HMM(하단 우측)이 휴대 단말기에 의해 작성되고, 각각의 위도 경도 정보와 대응지어 휴대 단말기에 기억되어 있는 것이 도시되어 있다.
후에 상세하게 설명하는 바와 같이, 예를 들면 휴대 단말기에 의해 작성되고, 관리되는 HMM의 각 상태(State)는, 촬영된 각 화상(실제로는 각 화상의 특징량)에 대응한다. 이러한 모델(HMM)이 위치 인식 페이즈에 있어서 이용된다.
위치 인식 페이즈에 있어서는, 우선 GPS 모듈이나 PHS 모듈에 의해 글로벌 에리어 상의 현재 위치를 나타내는 위도 경도 정보가 취득되고, 취득된 위도 경도 정보에 기초하여, 현재 위치에 가장 가까운 위치의 모델로서 기억되어 있는 HMM(현재 위치를 포함하는 클러스터에 대응하여 기억되어 있는 HMM)이, 위치 인식 모델 구성 페이즈에 있어서 작성된 HMM 중에서 선택된다.
그리고, 선택된 HMM이 이용되어, 현재 위치의 풍경을 카메라로 촬영함으로써 얻어진 화상열에 기초하여 로컬 에리어 상의 유저의 현재 위치가 인식된다.
여기서, 도 2 및 도 3을 참조하여, 위치 인식 페이즈에 있어서 행해지는 처리의 구체예에 대하여 설명한다.
도 2에 도시한 바와 같이, 예를 들면 도 1의 Home HMM, Gotanda HMM, Office HMM의 3개의 HMM이 휴대 단말기에 기억되어 있는 것으로 한다. 도 2의 예에서는 Home HMM의 각 상태는 화상 1 내지 N1에 각각 대응하고, Gotanda HMM의 각 상태는 화상 101 내지 N2에 각각 대응하고 있다. 또한, Office HMM의 각 상태는 화상 201 내지 N3에 각각 대응하고 있다.
이들 Home HMM, Gotanda HMM, Office HMM에는, 각각 HMM 작성을 위해서 이용된 화상의 촬영 시(위치 인식 모델 구성 페이즈 시)에, GPS 모듈이나 PHS 모듈에 행해진 측위의 결과로부터 결정된 클러스터가 대응지어져 있다.
이러한 상태에서, 위치 인식 페이즈에서는, 우선 GPS 모듈이나 PHS 모듈에 의해 유저의 글로벌 에리어 상의 현재 위치의 측위가 행해지고, 측위 결과의 위도 경도로부터 특정되는 현재 위치를 포함하는 클러스터에 대응지어져 있는 HMM이, 현재 로컬 에리어 상의 위치 인식에서 이용하는 HMM으로서 선택된다.
도 2의 예에서는 GPS 모듈이나 PHS 모듈에 의해 얻어진 현재 위치를 포함하는 클러스터에 대응지어져 있는 HMM은 Home HMM이며, 백 화살표의 앞에 나타낸 바와 같이 Home HMM, Gotanda HMM, Office HMM의 3개의 HMM 중에서, 지금, 로컬 에리어 상의 위치 인식에서 이용하는 HMM으로서 Home HMM이 선택되어 있다.
도 2의 백 화살표의 앞에 나타낸 바와 같이 Home HMM의 각 상태는 화상 1 내지 N1에 대응하고 있으며, 이 중 화상 1 내지 5에는 「리빙」, 화상 6 내지 10에는 「현관」, 화상 11 내지 15에는 「침실」, 화상 16 내지 20에는 「복도」, …의 이름이 설정되어 있다. 즉, Home HMM은 위치 인식 모델 구성 페이즈 시에, 「리빙」에서 촬영된 화상, 「현관」에서 촬영된 화상, 「침실」에서 촬영된 화상 및 「복도」에서 촬영된 화상, …으로부터 작성된 HMM이다. 또한, 「리빙」등의 장소의 이름은, 예를 들면 위치 인식 모델 구성 페이즈 시에, 촬영된 화상을 본 유저에 의해 설정된 것이다.
도 2에 도시한 바와 같이, GPS 모듈이나 PHS 모듈에 의한 측위 결과로부터 Home HMM이 선택된 후, 선택된 Home HMM의 화상열(Home HMM의 각 상태에 대응하는 화상열)과, 지금 촬영된 화상열과의 매칭이 도 3에 도시한 바와 같이 행해진다. 도 3의 Home HMM은 도 2의 Home HMM과 동일한 것이며, 그 위의 4개의 화상 301 내지 304로 이루어지는 화상열이, 지금 촬영된 인식용 화상열이다.
화상 301 내지 304는 지금 촬영된 것이므로, 화상 301 내지 304의 배열(후술하는 바와 같이, 실제로는 화상 301 내지 304의 특징량의 시계열)과 동일한 배열의 Home HMM의 화상열에 설정되어 있는 이름이, 현재의, 유저의 로컬 에리어 상의 위치의 이름으로 된다.
도 3에 도시한 바와 같이, 인식용 화상열이 4개의 화상 301 내지 304로 이루어지는 경우, 예를 들면 Home HMM의 선두부터 4개씩 화상이 선택되고, 선택된 HMM의 4개의 화상의 배열과, 인식용 화상의 배열과의 매칭이 행해진다. 도 3의 예에서는, 우선 Home HMM의 화상 1 내지 4의 배열과, 인식용 화상인 화상 301 내지 304의 배열과의 매칭이 행해지고, 다음으로 1화상만 어긋나게 하여 선택되는 Home HMM의 화상 2 내지 5와, 인식용 화상인 화상 301 내지 304와의 매칭이 행해진다. 마찬가지로, 화상 301 내지 304와의 매칭 대상으로 되는 Home HMM의 화상이 1개씩 순차적으로 어긋나서 선택되고, 선택된 Home HMM의 화상과, 인식용 화상인 화상 301 내지 304와의 매칭이 행해진다.
매칭에 의해, 인식용 화상인 화상 301 내지 304의 배열과의 매치도가 높고, 화상 301 내지 304의 배열과 동일한 배열이라고 판단된 Home HMM의 화상이, 예를 들면 화상 1 내지 4인 경우, 로컬 에리어 상의 유저의 현재 위치는, 도 3의 백 화살표의 앞에 나타낸 바와 같이, 그 화상 1 내지 4에 설정되어 있는 이름의 「리빙 」으로서 인식되게 된다.
마찬가지로 하여, 예를 들면 유저가, 현재 「오피스」의 회의실에 있는 경우, GPS 모듈이나 PHS 모듈에 의한 위도 경도 정보로부터 도 1의 Office HMM이 선택되고, 선택된 Office HMM의 화상열로부터 선택된 소정의 화상열과, 지금, 카메라에 의해 촬영된 인식용 화상열과의 매칭 결과에 기초하여, 그 회의실에 있는 것이 인식된다.
이와 같이, 휴대 단말기에서는 GPS 모듈이나 PHS 모듈에 의한 상위의 위치 인식과, 그 위치 인식의 결과로부터 선택되는 HMM과, 촬영한 화상열을 이용하여 행해지는 하위의 위치 인식과의, 소위 계층적인 위치 인식이 행해지게 된다.
이에 의해, 촬영한 화상열에도 기초하여 위치 인식이 행해지므로, GPS 모듈이나 PHS 모듈만을 이용한 경우에는 불가능한, 미세한 입도의 위치까지를 인식할 수 있다.
또한, GPS 모듈이나 PHS 모듈에 의한 상위의 위치 인식의 결과에 기초하여, 하위의 위치 인식에서 이용하는 HMM을 좁혀 들어갈 수 있으므로, 모든 모델을 대상으로 하여 위치 인식을 행하는 경우 등에 비하여 인식 정밀도를 높일 수 있다.
또한, 미세한 입도에서의 위치의 인식이 가능하므로, 도 2에 도시한 바와 같이 HMM을 구성하는 화상에 이름을 설정해 둠으로써, 유저는 그 때의 자기 자신의 상황에 따른 정보를 휴대 단말기에 제시시킬 수 있다.
예를 들면, 유저가 자택의 리빙에서의 예정을 외출지에서 휴대 단말기에 등록해 두고, 그 후, 자택의 리빙에 도착했을 때에 「리빙에서는 예정이 있습니다」 등의 메시지를 휴대 단말기에 출력시키는 등의, 로컬 에리어 상의 현재 위치에 따른 정보를 제시시킬 수 있다. 휴대 단말기에서는 현재 위치가 리빙인 것이 인식되었을 때, 등록되어 있던 예정이 판독되어, 그 제시가 행해진다.
또한, 인식한 현재 위치의 이름을 유저에게 제시할 필요가 없고, 휴대 단말기의 내부에서만 현재 위치를 식별할 수 있으면 되는 경우, 이 이름의 설정은 불필요하게 된다. 즉, 휴대 단말기의 내부에서는 각각의 위치가 소정의 식별 정보로 식별되고, 식별된 위치에 따른 처리가 행해진다.
그런데, 이상의 계층적인 위치 인식을 행하게 하기 위해서는, 유저는 위치 인식 모델을 휴대 단말기에 미리 기억시켜 둘 필요가 있으며, 그를 위해서는 휴대 단말기를 갖고 다양한 장소로 이동할 필요가 있다.
따라서, 유저가 과거에 방문한 적이 없는 곳에서는 위치 인식을 할 수 없게 되지만, 이것을 가능한 것으로 하기 위해서는, 마찬가지의 기능을 갖는 휴대 단말기를 갖고 있는 유저 사이에서 위치 인식 모델이 공유되도록 해도 된다.
도 4는 위치 인식 모델의 공유에 대하여 도시하는 도면이다.
예를 들면, 도 4의 유저 A가 휴대 단말기를 갖고 「시나가와역 S5 구내」나 그 근방을 이동한 경우, 유저 A의 휴대 단말기에서는 상술한 바와 같이 하여 「시나가와역 S5 구내」의 위치 인식 모델인 시나가와역 구내 HMM이 작성된다. 작성된 시나가와역 구내 HMM은 GPS 모듈이나 PHS 모듈에 의해 취득된 시나가와역 S5의 위도 경도 정보와 함께 네트워크 상의 소정의 서버에 유저 A의 휴대 단말기로부터 업로 드되어, 위도 경도 정보 및, 키워드로서의 지명, 시설명 등에 대응지어져 등록된다. 또한, GPS 모듈이나 PHS 모듈에 의한 측위에는 수미터 내지 수십미터 정도의 오차가 발생하므로, 위도 경도 정보는 도시한 바와 같이 어느 정도의 범위를 갖게 하여 등록되는 것이 바람직하다. 도 4의 예에서는, 시나가와역 구내 HMM, 고탄다역 HMM, 시부야역 구내 HMM의 각각과 대응지어져 있는 위도 경도 정보에는, 기준 위치에 대하여 ±2초의 범위가 주어져, 서버에 등록되어 있다.
이에 의해, 시나가와역 구내 HMM은 서버에 액세스해 온 다른 휴대 단말기의 유저와의 사이에서 공유의 것으로 된다.
한편, 시나가와역 S5를 처음으로 방문한 유저 B의 휴대 단말기에는 시나가와역 구내 HMM이 기억되어 있지 않으므로, 유저 B는 시나가와역 S5 구내에서의 로컬 에리어 상의 위치 인식은 처음부터, 시나가와역 S5에 관한 정보 등을 제시시킬 수 없다.
이 때, 유저 B의 휴대 단말기에서, 검색 키워드로서 「시나가와역」이 입력됨으로써, 혹은 GPS 모듈이나 PHS 모듈에 의해 취득된 위도 경도 정보(시나가와역 S5의 위도 경도 정보)가 서버에 송신됨으로써, 유저 A의 휴대 단말기에 의해 등록된 시나가와역 구내 HMM이 서버로부터 다운로드된다. 이에 의해, 유저 B의 휴대 단말기에서도 시나가와역 S5 구내의 위치 인식이 가능하게 된다.
유저 B의 휴대 단말기에의 위치 인식 모델의 다운로드는, 유저 B가 서버에 대하여 수동으로 위치 인식 모델의 요구를 송신함으로써 행해져도 되지만, 유저 B의 휴대 단말기의 위치나 시간의 천이에 따라 자동으로 행해져도 된다.
예를 들면, 유저 B가 시나가와역 구내를 나와, 새로운 목적지를 향하는 경우, 유저 B를 시나가와역부터 네비게이트하기 위해서는 새로운 위치 인식 모델이 필요하게 된다. 이미 시나가와역 구내의 HMM을 취득한 유저 B의 휴대 단말기는 시나가와역 구내 HMM과 대응지어져 등록되어 있는 위도 경도의 범위 내, 즉 동경 139도 44분 30초±2초, 북위 35도 37분 30초±2초의 범위 내에 있을 때에는, 계속해서 시나가와역 구내 HMM을 이용하여 위치 인식을 행한다. 그러나, 유저 B가 이 범위 내를 나온 경우, 즉 GPS 모듈이나 PHS 모듈을 이용하여 측위되는 현재 위치가, 보유하는 시나가와역 구내 HMM에 의한 인식 가능 범위를 초과한 경우, 이미 위치 인식을 행할 수 없다. 따라서, 유저 B의 휴대 단말기는 서버에 대하여 현재 위치의 위도 경도 정보를 송신하여, 새로운 HMM의 다운로드를 행한다. 이 일련의 처리는 유저 B가 목적지에 도달할 때까지 적절하게 반복된다.
또는, 보유하는 HMM과, 측위되는 위도 경도 정보와의 비교를 행하지 않고, 소정 시간 간격으로 서버에 대하여 위도 경도 정보를 송신하고, HMM의 다운로드를 반복하도록 할 수도 있다.
또한, 유저 A의 휴대 단말기에서 작성된 위치 인식 모델의 서버에의 업로드도, 이하와 같이 해당 위치 인식 모델을 갖지 않은 유저의 리퀘스트에 따라 자동으로 행해져도 된다.
우선, 유저 B의 휴대 단말기로부터 시나가와역 구내 HMM의 요구를 수신한 서 버가, 네트워크 상의 복수의 단말기에 대하여, 유저 B의 휴대 단말기의 위도 경도 정보와 대응지은 HMM 요구를 전송한다. 수신한 단말기에서, 위도 경도 정보를 단서로 HMM의 검색이 행해져, 요구된 HMM을 보유하는 유저 A의 휴대 단말기로부터, 시나가와역 구내 HMM이 서버에 송신된다. 유저 A로부터 시나가와역 구내 HMM을 취득한 서버는 HMM과 위도 경도 정보를 대응지어 등록함과 함께, 시나가와역 구내 HMM을 유저 B의 휴대 단말기에 대하여 송신한다.
이에 의해, 서버는 위치 인식 모델이 수동으로 업로드되는 것을 기다리지 않고, 유저의 요구에 따라 즉석에서 위치 인식 모델을 취득할 수 있다.
이와 같이 마찬가지의 기능을 갖는 휴대 단말기를 갖고 있는 유저 사이에서 위치 인식 모델이 공유되도록 함으로써, 어떤 장소를 처음으로 방문한 유저라도, 로컬 에리어 상의 위치 인식을 자신의 휴대 단말기에 행하게 할 수 있어, 현재 위치에 따른 정보를 제시시킬 수 있다.
이상과 같은 휴대 단말기의 동작에 대해서는 플로우차트를 참조하여 후술한다.
도 5는 계층적인 위치 인식을 행하는 휴대 단말기(1)의 하드웨어 구성예를 도시하는 블록도이다.
도 5에 도시한 바와 같이, 휴대 단말기(1)는, 예를 들면 그 단면이 6각형으로 되는 케이스에 의해 형성된다. 케이스의 크기는, 유저가 한손으로 파지 가능한 정도의 크기로 된다.
휴대 단말기(1)의 전체를 제어하는 정보 처리부(11)에는, 예를 들면 GPS 모 듈(12), PHS 모듈(13), 무선 LAN(Local Area Network) 모듈(14), 및 카메라(15)가 접속된다.
정보 처리부(11)는 CPU(Central Processing Unit), ROM(Read Only Memory), RAM(Random Access Memory) 등으로 구성되고, 예를 들면 GPS 모듈(12)이나 PHS 모듈(13)을 제어하여 글로벌 에리어 상의 현재 위치를 인식하는 처리나, 카메라(15)에 의해 촬영된 화상열에 기초하여 로컬 에리어 상의 현재 위치를 인식하는 처리 등을 행한다.
GPS 모듈(12)은 포착한 위성으로부터 송신되어 오는 정보를 수신하고, 그것을 정보 처리부(11)에 출력한다. PHS 모듈(13)은 통신을 행하고 있는 기지국으로부터 송신되어 오는 정보를 수신하고, 그것을 정보 처리부(11)에 출력한다. 무선 LAN 모듈(14)은, 예를 들면 근방에 설치되어 있는 액세스 포인트를 통하여 외부의 네트워크에 접속하고, 네트워크 상의 서버(도 4의 서버)에 대하여 위치 인식 모델을 업로드하거나, 서버로부터 위치 인식 모델을 다운로드하거나 한다.
카메라(15)는 촬영한 화상열을 정보 처리부(11)에 출력한다. 카메라(15)는 렌즈가 표면에 나타나는 형태로 휴대 단말기(1)에 내장하여 설치되도록 해도 되고, 유저에 의해 휴대 단말기(1)가 가방 안이나 포켓 안에 넣어진 경우라도 주위를 촬영할 수 있도록, 휴대 단말기(1)의 케이스와는 별도의 케이스의 것으로서 설치되도록 해도 된다. 또한, 카메라(15)의 렌즈에는, 후술하는 바와 같이 광각 렌즈나 어안 렌즈가 이용되도록 해도 된다.
도 6은 도 5의 정보 처리부(11)의 기능 구성예를 도시하는 블록도이다.
도 6의 각 기능부의 적어도 일부는, 정보 처리부(11)의 CPU에 의해 소정의 프로그램이 실행됨으로써 실현된다.
측위 제어부(31)는 GPS 모듈(12)이나 PHS 모듈(13)을 제어하고, 그들 측위 디바이스로부터 공급되어 오는 정보에 기초하여 글로벌 에리어 상의 위도 경도 정보를 취득한다. 측위 제어부(31)에 의해 얻어진 위도 경도 정보는 그 때의 페이즈가 위치 인식 모델 구성 페이즈인 경우에는 등록 관리부(32)에 출력되고, 위치 인식 페이즈인 경우에는 위치 인식부(35)에 출력된다.
등록 관리부(32)는 촬영 제어부(34)로부터 공급되어 오는 화상열에 기초하여 위치 인식 모델인 HMM을 작성하고, 작성한 HMM과, 측위 제어부(31)로부터 공급되어 오는 위도 경도 정보를 클러스터링하여 얻어지는 클러스터의 정보를 대응지어 위치 인식 모델 DB(Data Base)(33)에 기억시킨다. 또한, 등록 관리부(32)는 HMM과 클러스터의 정보를 통신 제어부(36)에도 출력한다.
위치 인식 모델 DB(33)는, 등록 관리부(32)에 의해 작성된 HMM을 기억한다. 기억되어 있는 HMM은, 적절하게 위치 인식부(35)에 의해 판독되어, 위치 인식에 이용된다.
촬영 제어부(34)는 카메라(15)에 의한 촬영을 제어하고, 그 때의 페이즈가 위치 인식 모델 구성 페이즈인 경우에는 얻어진 화상열을 등록 관리부(32)에 출력하고, 위치 인식 페이즈인 경우에는 위치 인식부(35)에 출력한다.
도 3을 참조하여 설명한 바와 같이, 휴대 단말기(1)에 의해 행해지는 매칭은, 예를 들면 인식용 화상열과, HMM의 각 상태에 대응하는 화상으로부터 선택된 화상열과의 특징량의 시계열(시간적 변화)을 봄으로써 행해진다. 이와 같이, 시간적 변화를 볼 뿐이므로, 인식용 화상이나 HMM을 작성하기 위한 화상에는 높은 해상도는 요구되지 않아, 카메라(15)에 의해 촬영되어, 촬영 제어부(34)에 의해 얻어진 화상은, 예를 들면 32×24(가로×세로)화소의 낮은 해상도의 화상으로 변환되어 등록 관리부(32)나 위치 인식부(35)에 출력되도록 해도 된다.
또한, 대응하는 화소의 화소값의 변화가 너무 큰 경우, 화소값의 변화가 비교적 작은 경우에 비하여, 매칭의 정밀도가 떨어지므로, 카메라(15)의 렌즈에는 어안 렌즈 등의, 보다 광각의 렌즈가 이용된다. 1개의 화상의 해상도(예를 들면 32×24)가 동일하다고 하면, 좁은 화각의 렌즈로 촬영하는 것보다, 넓은 화각의 렌즈로 촬영한 쪽이 카메라(15)의 방향을 바꾸었을 때의 화소값의 변화를 억제할 수 있으며, 이에 의해 판정 정밀도를 높일 수 있다. 또한, 상술한 도 1 내지 도 4에서, 1프레임의 화상의 그림에는 원이 그려지고, 원 안에 피사체인 풍경의 그림이 그려져 있지만, 이것은 각각의 화상이, 화각이 넓은 렌즈로 촬영된 것으로, 그것에 찍혀 있는 풍경이 왜곡되어 있는 것을 나타내고 있다.
도 6의 설명으로 되돌아가서, 위치 인식부(35)는 측위 제어부(31)로부터 공급되어 오는 위도 경도 정보에 기초하여, 현재 위치를 포함하는 클러스터에 대응지어져 있는 HMM을 위치 인식 모델 DB(33)로부터 판독하고, 판독한 HMM과, 촬영 제어부(34)로부터 공급되어 오는 화상열에 기초하여 로컬 에리어 상의 현재 위치를 인식한다. 위치 인식부(35)에 의해 인식된 로컬 에리어 상의 현재 위치의 정보는, 예를 들면 현재 위치에 따라 소정의 정보를 제시하는 처리를 행하는 어플리케이션 에 제공된다.
또한, 위치 인식부(35)는 유저가 처음으로 방문한 장소이므로, 현재 위치를 포함하는 클러스터에 대응지어져 있는 HMM이 위치 인식 모델 DB(33)에 기억되어 있지 않은 경우, 위도 경도 정보를 통신 제어부(36)에 출력하고, 현재 위치를 포함하는 클러스터의 HMM을 서버로부터 다운로드시킨다. 위치 인식 모델 DB(33)로부터 HMM이 취득된 경우와 마찬가지로, 그와 같이 하여 서버로부터 취득된 HMM에 기초하여, 위치 인식부(35)에 의해 로컬 에리어 상의 현재 위치의 인식이 행해진다.
통신 제어부(36)는 무선 LAN 모듈(14)을 제어하고, 등록 관리부(32)로부터 공급되어 온 HMM과 클러스터의 정보를 서버에 업로드한다. 또한, 통신 제어부(36)는 위치 인식부(35)로부터 공급되어 온 위도 경도 정보에 기초하여, 위도 경도 정보에 의해 나타내어지는 현재 위치를 포함하는 클러스터에 대응지어져 있는 HMM을 서버로부터 다운로드하고, 그것을 위치 인식부(35)에 출력한다.
도 7은 도 6의 등록 관리부(32)의 상세한 기능 구성예를 도시하는 블록도이다.
등록 관리부(32)는, 예를 들면 클러스터링부(51), 등록부(52) 및 모델 작성부(53)로 구성된다.
클러스터링부(51)는, 측위 제어부(31)로부터 공급되어 오는 위도 경도 정보에 의해 나타내어지는 현재 위치의 클러스터링을 행하여, 현재 위치가 속하는 클러스터의 정보를 등록부(52)에 출력한다. 등록부(52)에 공급되는 클러스터의 정보에는 소정의 범위를 취하는 클러스터의 기준으로 되는 위치의 정보나, 그 범위에 관 한 정보 등이 포함된다.
등록부(52)는, 클러스터링부(51)로부터 공급되어 오는 클러스터의 정보와, 모델 작성부(53)로부터 공급되어 오는 HMM을 대응지어 위치 인식 모델 DB(33)에 기억시킴과 함께, 그들 정보를 통신 제어부(36)로부터 네트워크 상의 서버에 송신시킨다.
모델 작성부(53)는 촬영 제어부(34)로부터 공급되어 오는 화상열에 기초하여 HMM을 작성하고, 작성한 HMM을 등록부(52)에 출력한다. 또한, 임의의 클러스터에 대응하는 것으로서 HMM이 이미 작성되어 있는 경우, 모델 작성부(53)는 촬영 제어부(34)로부터 공급되어 오는 화상열에 기초하여 그 HMM의 학습(갱신)을 행한다. 학습 결과의 HMM은 등록부(52)를 통하여 위치 인식 모델 DB(33)에 공급되어, 기억된다.
여기서, 모델 작성부(53)에 의한 HMM의 작성에 대하여 설명한다.
모델 작성부(53)는, 위치 인식 모델 구성 페이즈 시에 카메라(15)에 의해 취득된 화상열 중, HMM의 작성에 불필요하다고 생각되는 화상을 없애고, 불필요하지 않다고 생각되는 화상으로부터 HMM을 작성한다.
예를 들면, 모델 작성부(53)는 아래 수학식 1에 기초하여, 금회 취득된 화상 Z와, 불필요한 것은 아닌 것으로서 마지막에 선택한 화상 xi와의 비교를 행하여, 이들 2개의 화상간의 비유사도 또는 시간 간격으로, 미리 정해진 임계값 이상의 차가 있는 경우, 그 금회 취득된 화상 Z를 인식용 화상으로서 선택한다.
Figure 112006097494553-pct00001
여기서, Dmax는 D(xi -1, Z)의 최대값이다. 함수 D는 후술하는 아래 수학식 3으로 정의된다. 또한, ρ는 화상 xi -1, 및 화상 Z의 접수에 필요한 퍼센티지 변화이며, β는 적응 속도를 조정하기 위한 팩터이다. 이들 ρ, β에는 소정의 값이 설정된다. 또한, ti -1은 화상 xi -1이 취득된 시각이며, tZ는 화상 Z가 취득된 시각이다.
이와 같이, 2개의 화상간의 비유사도나 시간 간격에 기초하여 화상을 선택함으로써, 동일 또는 거의 동일한 화상이 연속해서 선택되는 것을 방지할 수 있어, 한정된 기억 용량 내에서, 매칭 처리에서 이용 가능한 정보를 효율적으로 많이 포함하는, 보다 큰 HMM을 생성할 수 있게 된다.
도 8은 모델 작성부(53)에 의해 작성되는 HMM의 예를 도시하는 도면이다.
도 8에 도시한 바와 같이, 위치 인식 모델 구성 페이즈 시에 촬영되고, 불필요한 것은 아닌 것으로서 선택된 N개의 화상이 각 상태에 각각 대응하도록 구성된 HMM이 작성된다. 즉, 휴대 단말기(1)에서 이용되는 모델은, 예를 들면 부분적으로 라벨이 붙여진 데이터로부터 기대값 최대화법(Expectation-Maximization) 등을 이용하여 추정되는 파라미터로 이루어지는 것이 아니라, HMM의 각 상태를, 위치 인식 모델 구성 페이즈 시에 얻어진 각각의 화상에 직접 대응시킨 것이다.
또한, 그 천이 파라미터로서, 도 8의 하방에 도시한 바와 같이, 미리 정해진 값이 설정된다. 도 8의 천이 파라미터의 그래프에서, 종축은 천이 확률이며, 횡축은 화상간(상태간)의 시간적인 거리이다. 예를 들면, 도 8에 도시한 바와 같이, 거리가 커짐에 따라, 천이 확률이 0에 근접하는 가우스 분포에 기초하여 산출된 값이 설정된다. 이에 의해, 천이 파라미터의 최적화 처리를 행할 필요가 없어, 처리 부담을 경감시킬 수 있다.
이와 같이, 통상과 같이 학습을 행하지 않고, 천이 파라미터로서 미리 정한 것을 사용하는 것은, HMM의 각 상태에 대응하는 화상은 시계열적으로 순차적으로 취득된 것으로, 어떤 상태(도 8의 경우, 상태 4)로부터, 시간적으로 먼 상태로 천이할 가능성은 작거나, 또는 제로라고 생각되기 때문이다.
도 9 내지 도 11은 이상의 구성을 갖는 등록 관리부(32)에 의한 클러스터링과, HMM의 작성에 대하여 도시하는 도면이다. 또한, 도 9 내지 도 11에 도시한 글로벌 에리어는 도 1에서 조감하고 있던 것을 바로 위로부터 도시한 것이다.
지금, 상술한 바와 같이, 유저는 평소 「고탄다」의 근처에 있는 「오피스」에서 일을 하고, 주말에는 역 S2의 근처에 있는 디파트먼트 스토어에 자주 외출하는 것으로 한다. 또한, 유저는 휴대 단말기(1)를 항상 갖고 다니고 있는 것으로 한다.
이 경우, 주위의 촬영과, GPS 모듈(12) 등에 의한 측위가 반복하여 행해지므로, 측위에 의해 얻어진 위치를 글로벌 에리어 상에 플롯한 경우, 도 9에 도시한 바와 같이, 예를 들면 역 S1의 근처에 있는 자택, 고탄다역 S3의 근처에 있는 사무실, 역 S2의 근처에 있는 디파트먼트 스토어의 각각의 위치를 거의 중심으로 하여 플롯의 위치가 집중된다. 또한, 이들 플롯의 위치에서 촬영된 화상열이 모인다.
여기서, 클러스터링부(51)는, 도 9에 도시한 바와 같은 플롯에 대하여 소정의 방법을 이용하여 클러스터링을 행하여, 도 10의 점선의 원으로 나타낸 바와 같은, 위치 P1을 중심으로 한 Home 클러스터, 위치 P2를 중심으로 한 Department Store 클러스터, 위치 P3을 중심으로 한 Office 클러스터를 생성한다. 또한, 각 클러스터의 이름에 포함되는 「Home」, 「Department Store」, 「Office」는 설명의 편의상, 붙인 것이다.
이와 같이 하여 생성된 클러스터의 중심 위치(위치 P1, 위치 P2, 위치 P3)를 나타내는 정보 등이 각 클러스터의 정보로서 등록부(52)에 출력된다.
한편, 모델 작성부(53)는, 도 9의 각 플롯의 위치에서 촬영된 화상열에 기초하여, 클러스터링부(51)에 의해 생성된 각 클러스터 내에서 위치 인식을 행할 때에 이용하는 HMM을 상술한 바와 같이 하여 작성하고, 작성한 HMM을 등록부(52)에 출력한다.
등록부(52)는, 클러스터링부(51)에 의해 생성된 클러스터의 정보와, 모델 작성부(53)에 의해 작성된 각각의 클러스터 내에서 이용하는 HMM을 대응지어 위치 인식 모델 DB(33)에 등록한다. 클러스터의 이름(촬영 장소의 이름)이나 HMM의 화상 의 이름이 유저에 의해 설정된 경우, 그 이름도 클러스터의 정보에 포함된다.
이에 의해, 도 11에 도시한 바와 같이 Home 클러스터에 대해서는 거기에 포함되는 플롯의 위치에서 촬영된 화상열로부터 작성된 Home HMM을 대응지어지고, Department Store 클러스터에 대해서는 거기에 포함되는 플롯의 위치에서 촬영된 화상열로부터 작성된 Department Store HMM이 대응지어진다. 또한, Office 클러스터에 대해서는 거기에 포함되는 플롯의 위치에서 촬영된 화상열로부터 작성된 Office HMM이 대응지어진다.
도 12는 도 6의 위치 인식부(35)의 상세한 기능 구성예를 도시하는 블록도이다.
위치 인식부(35)는, 예를 들면 신뢰도 판정부(61), 모델 취득부(62), 인식부(63), 및 인식 결과 취득부(64)로 구성된다.
신뢰도 판정부(61)는, 측위 제어부(31)로부터 공급되어 오는 정보에 기초하여, GPS 모듈(12)이나 PHS 모듈(13)에 의한 측위 결과의 신뢰도의 판정을 행하여, 보다 신뢰할 수 있는 쪽의 측위 결과(위도 경도 정보)를 모델 취득부(62)에 출력한다.
예를 들면, 측위 제어부(31)로부터는 GPS 모듈(12)에 의해 포착된 위성의 수 등의 정보나, PHS 모듈(13)에 의해 수신되어 있는 기지국으로부터의 전파의 상황에 관한 정보 등이 공급되어 오므로, 신뢰도 판정부(61)는 이들 정보에 기초하여 측위 결과의 신뢰도의 판정을 행한다.
또한, 신뢰도 판정부(61)는 촬영된 화상열에 기초하여 인식부(63)에 의해 추 측된 글로벌 에리어 상의 측위 결과의 신뢰도도 판정한다. 예를 들면, 촬영된 화상열에 기초하여 인식부(63)에 의해 추측된 측위 결과가 GPS 모듈(12)이나 PHS 모듈(13)에 의한 측위 결과보다 신뢰할 수 있는 것인 경우, 그 인식부(63)에 의한 측위 결과가 현재 위치로서 모델 취득부(62)에 출력된다.
도 13은 신뢰도에 기초하는 측위 결과의 선택의 예에 대하여 도시하는 도면이다.
예를 들면, 도 13에 도시한 바와 같이, 최대를 100으로 하여, GPS 모듈(12)에 의한 측위 결과의 신뢰도가 90, PHS 모듈(13)에 의한 측위 결과의 신뢰도가 70, 센서형 위치 인식 엔진(센서인 카메라(15)에 의해 촬영된 화상열로부터 위치를 추측하는 인식부(63))에 의한 측위 결과의 신뢰도가 65인 경우, 신뢰도가 가장 높은 GPS 모듈(12)의 측위 결과가 선택되어, 계층형 위치 인식 엔진에 의한 위치 인식에 이용된다. 이 계층형 위치 인식 엔진은 도 12의 모델 취득부(62), 인식부(63) 등에 의한, 상술한 계층적인 위치 인식을 행하는 엔진이다.
이와 같이, 이후의 처리에서 이용되는 측위 결과가 신뢰도에 기초하여 선택되므로, 보다 정밀도가 높은 위치 인식이 가능하게 된다.
예를 들면, 기지국으로부터의 전파의 수신이 곤란한 도시부로부터 비교적 떨어진 장소에서는, PHS 모듈(13)에 의한 측위 결과의 신뢰도가 떨어지므로, GPS 모듈(12)에 의한 측위 결과가 채용되게 된다. 또한, 위성으로부터의 전파의 수신이 곤란한 건물이나 전철 안 등에서는 GPS 모듈(12)에 의한 측위 결과의 신뢰도가 떨어지므로, PHS 모듈(13)에 의한 측위 결과가 채용되게 된다.
도 12의 설명으로 되돌아가서, 모델 취득부(62)는 신뢰도 판정부(61)로부터 공급되어 오는 위도 경도 정보에 의해 나타내어지는 현재 위치를 포함하는 클러스터에 대응지어져 있는 HMM을 위치 인식 모델 DB(33)로부터 판독한다(취득한다). 예를 들면, 도 11에서, GPS 모듈(12)에 의해 얻어진 위도 경도 정보에 의해, 글로벌 에리어 상의 현재 위치가 Home 클러스터 내인 것으로서 인식된 경우, Home 클러스터에 대응지어져 있는 Home HMM이 위치 인식 모델 DB(33)로부터 판독된다.
또한, 모델 취득부(62)는, 현재 위치를 포함하는 클러스터에 대응지어져 있는 HMM이 위치 인식 모델 DB(33)에 기억되어 있지 않은 경우, 신뢰도 판정부(61)로부터 공급되어 오는 위도 경도 정보를 통신 제어부(36)에 출력하고, 현재 위치를 포함하는 클러스터의 HMM을 서버로부터 다운로드시킨다. 통신 제어부(36)에 의해 서버로부터 다운로드된 HMM은 모델 취득부(62)에 의해 취득된다.
이상과 같이 하여, 모델 취득부(62)에 의해 취득된 HMM은 인식부(63)에 출력된다. 예를 들면, 현재 위치를 포함하는 클러스터에 대응지어져 있는 HMM이 서버로부터도 취득할 수 없는 경우, 신뢰도 판정부(61)로부터 공급되어 온 현재 위치의 정보(GPS 모듈(12)이나 PHS 모듈(13)에 의해 측위된 위치 정보)나, 촬영된 화상열로부터 인식부(63)에 의해 직접 인식된 현재 위치의 정보가 그대로 인식 결과 취득부(64)에 공급되어, 현재 위치로서 채용된다.
인식부(63)는, 모델 취득부(62)로부터 공급되어 온 HMM과, 촬영 제어부(34)로부터 공급되어 온 화상열에 기초하여 로컬 에리어 상의 현재 위치의 인식을 행하고, 인식 결과를 인식 결과 취득부(64)에 출력한다.
도 14는 도 12의 인식부(63)의 상세한 기능 구성예를 도시하는 도면이다.
인식부(63)는, 화상 선택부(71), 특징 벡터 산출부(72), 특징 벡터 기억부(73), 매칭 처리부(74)로 구성된다.
화상 선택부(71)는, 위치 인식 페이즈 시에 촬영 제어부(34)로부터 공급되어 온 화상 중, 불필요하다고 생각되는 화상을 없애고, 로컬 에리어 상의 위치 인식에 이용하는 화상을 선택한다. 화상 선택부(71)에 의한 화상의 선택은, 예를 들면 모델 작성부(53)에 의한 화상의 선택의 알고리즘과 동일 알고리즘으로 행해진다.
따라서, 위치 인식 모델 구성 페이즈 시와 위치 인식 페이즈 시에서, 완전히 동일한 풍경이 촬영된 경우, 위치 인식 모델 구성 페이즈 시에 모델 작성부(53)에 의해 선택되는 화상(HMM을 작성하기 위한 화상)과, 위치 인식 페이즈 시에 화상 선택부(71)에 의해 선택되는 화상(위치 인식을 행하기 위한 인식용 화상)은 동일한 것으로 된다. 이에 의해, 불필요한 화상을 없애면서, 위치 인식 페이즈 시의 로컬 에리어 상의 위치 인식이 가능하게 된다.
화상 선택부(71)에 의해 선택된 화상은 특징 벡터 산출부(72)에 출력된다.
특징 벡터 산출부(72)는, 화상 선택부(71)로부터 공급되어 온 화상의 특징을 나타내는 특징 벡터(특징량)를 산출하고, 산출한 특징 벡터를 특징 벡터 기억부(73)에 기억시킨다.
예를 들면, 특징 벡터 산출부(72)는 화상 선택부(71)로부터 공급되어 온 화상 xi와, 화상 선택부(71)에 의해 과거에 선택된 화상 {x1, …, xM}과의 각각의 거 리를 구하고, 그 구한 각 거리를 요소로 하는 특징 벡터를 취득한다. 즉, 아래 수학식 2로 나타내어지는 M차원의 특징 벡터가 얻어진다.
Figure 112006097494553-pct00002
또한, D(x, y)는, 예를 들면 아래 수학식 3으로 나타내어지지만, 2개의 화상 x, y간의 차를 나타낼 수 있는 것이면 다른 임의의 함수를 이용할 수 있다. 수학식 3에서, HW는 센서 번호(카메라(15)에 설치되는 CCD의 화소)의 높이 방향 및 폭 방향의 최대값이다. 또한, l은 화상의 픽셀 위치, c는 색 채널 번호(통상 1, 2, 3은 각각 적, 녹, 청을 나타냄)를 나타낸다.
Figure 112006097494553-pct00003
특징 벡터 기억부(73)는, 예를 들면 서큘러 버퍼(Circular Buffer)에 의해 구성되고, 미리 정해진 수의 특징 벡터를 특징 벡터 산출부(72)로부터 공급되어 온 순서로 기억한다. 특징 벡터 기억부(73)에 기억되는 특징 벡터의 순서는, 인식용 화상이 촬영된 시간적인 순서에 대응한다.
즉, 특징 벡터 기억부(73)에 기억되어 있는 내용은, 특징 벡터를 시계열적으로 배열한 것이며, 그 중 최신의 특징 벡터를 「현재」라고 하면, 그 「현재」에 이르기까지의 시간적인 상황의 천이를 나타내게 된다. 이와 같이 소정의 수의 특징 벡터에 의해 나타내어지는 「현재」에 이르기까지의 상황의 천이가, HMM의 각 상태에 대응하는 화상에 의해 나타내어지는 「과거」의 상황의 천이와 매칭된다.
매칭 처리부(74)는 모델 취득부(62)로부터 공급되어 온 HMM에 의한 비터비 시계열 매치를 행하여, 특징 벡터 기억부(73)에 기억되어 있는 특징 벡터의 시계열과, HMM의 상태(상태를 나타내는 화상으로부터 구해진 특징 벡터의 시계열)와의 매치도를 산출한다.
여기서, 매칭 처리부(74)에 의해 행해지는 비터비 시계열 매치(비터비 알고리즘)에 대하여 설명한다.
비터비 알고리즘은 이하와 같은 최대화 문제에의 해를 제공한다. 아래 수학식 4에서, si는 i번째 화상 xi에 대응하는 상태를 나타내고, s* i는 최적화된 상태를 나타낸다.
Figure 112006097494553-pct00004
비터비 알고리즘에 의해, 도 15에 도시한 바와 같이 특징 벡터 기억부(73)에 기억되어 있는 특징 벡터의 행렬 H로서 나타내어지는 화상과, 모델 취득부(62)로부터 공급되어 온 HMM의 상태를 나타내는 화상을 매치시키는 최적 상태 계열이 결정되고, 그 최적 상태 계열을 따라 구해지는 확률이 화상간의 매치도로서 취득된다. 도 15의 예에서는 굵은선 화살표로 나타내는 {S1, S1, S2, S3, S3, S2, S3, S4, S4}의 계열이 최적 상태 계열로서 결정되어 있다.
이상에서는 비터비 시계열 매치에 의해 매치도가 구해지는 것으로 하였지만, 당연히, 다른 방법에 의해 매치도가 구해지도록 할 수도 있다. 또한, 이상과 같은 비터비 시계열 매치에 대해서는 본 출원인에 의한 일본 특원 2004-191308호에, 또한 그 상세가 개시되어 있다.
도 12의 설명으로 되돌아가서, 또한 인식부(63)는 필요에 따라, 촬영 제어부(34)로부터 공급되어 온 화상열에 기초하여 반대로 글로벌 에리어 상의 현재 위치의 인식을 행하여, 인식 결과를 신뢰도 판정부(61)에 출력한다. 글로벌 에리어 상의 현재 위치의 인식에서는, 적절하게 위치 인식 모델 DB(33)에 기억되어 있는 HMM 등이 이용된다.
인식 결과 취득부(64)는 인식부(63)로부터 공급되어 오는 로컬 에리어 상의 현재 위치의 정보나, 모델 취득부(62)로부터 공급되어 오는 글로벌 에리어 상의 현재 위치의 정보를 취득하고, 취득한 정보를 소정의 어플리케이션에 제공한다. 인식 결과 취득부(64)로부터 제공된 로컬 에리어 상의 현재 위치의 정보에 기초하여, 유저의 위치에 따른 정보의 제공 등이 행해진다.
다음으로, 이상과 같은 구성을 갖는 휴대 단말기(1)의 동작에 대하여 플로우차트를 참조하여 설명한다.
우선, 도 16의 플로우차트를 참조하여, 위치 인식 모델 구성 페이즈 시에 휴대 단말기(1)에 의해 행해지는 위치 인식 모델 구성 처리에 대하여 설명한다.
스텝 S1에서, 정보 처리부(11)의 촬영 제어부(34)는 카메라(15)에 의한 촬영을 행하여, 얻어진 화상열을 등록 관리부(32)의 모델 작성부(53)에 출력한다. 촬 영은, 예를 들면 1초 동안에 15프레임 등의 레이트로 연속해서 행해진다.
이 촬영은 유저로부터의 지시가 있을 때까지 반복되도록 해도 되고, 혹은 아직 촬영한 적이 없는 장소에서만 촬영이 행해지고, 촬영한 적이 있는 장소로 이동했을 때에 촬영이 종료되도록 해도 된다. 현재 위치가 촬영한 적이 없는 장소인지, 촬영한 적이 있는 장소인지의 판단은, 예를 들면 GPS 모듈(12)이나 PHS 모듈(13)에 의한 측위 결과와, 위치 인식 모델 DB(33)에 기억되어 있는 정보에 기초하여 행해진다. 기본적으로는, 이 촬영과 스텝 S2 이후의 처리는 병행하여 행해진다.
스텝 S2에서, 측위 제어부(31)는 GPS 모듈(12)이나 PHS 모듈(13)을 제어하고, 그들 측위 디바이스로부터 공급되어 오는 정보에 기초하여 글로벌 에리어 상의 현재 위치의 인식을 행한다. 측위 제어부(31)에 의해 얻어진 위도 경도 정보는 등록 관리부(32)의 클러스터링부(51)에 출력된다.
스텝 S3에서, 클러스터링부(51)는 측위 제어부(31)로부터 공급되어 온 위도 경도 정보에 의해 나타내어지는 현재 위치의 클러스터링을 행하여, 현재 위치를 포함하는 클러스터의 정보를 등록부(52)에 출력한다.
모델 작성부(53)는, 스텝 S4에서, 촬영 제어부(34)로부터 공급되어 온 화상열에 기초하여 HMM을 작성하고, 작성한 HMM을 등록부(52)에 출력한다. 여기서는 상술한 바와 같이 촬영 제어부(34)로부터 공급되어 온 화상 중의 소정의 화상의 선택이나, 선택된 화상을 각각의 상태에 대응시키는 것 등이 행해진다. 또한, HMM의 작성은 후에 소정의 타이밍에서 행해지도록 해도 된다. 이 경우, 촬영된 화상열 과, 촬영 위치의 정보가 대응지어져 위치 인식 모델 DB(33) 등의 소정의 기억부에 보존되게 된다.
스텝 S5에서, 필요에 따라 등록부(52)는 클러스터 등의 이름의 등록을 행한다. 예를 들면, 등록부(52)는 휴대 단말기(1)에 설치되는 도시하지 않은 표시부에, 막 촬영된 화상을 표시하고, 그 풍경에 이름을 설정시킨다.
스텝 S6에서, 등록부(52)는 클러스터링부(51)로부터 공급되어 오는 클러스터의 정보와, 모델 작성부(53)로부터 공급되어 오는 HMM을 대응지어 위치 인식 모델 DB(33)에 기억시킨다.
또한, 등록부(52)는 스텝 S7에서, 클러스터의 정보와 HMM을 통신 제어부(36)로부터 서버에 업로드시킨다.
이상의 처리에 의해 HMM이 클러스터와 대응지어져 위치 인식 모델 DB(33)에 기억된다. 또한, HMM이 서버 상에서 공유의 것으로 된다.
다음으로, 도 17 및 도 18의 플로우차트를 참조하여, 위치 인식 페이즈 시에 휴대 단말기(1)에 의해 행해지는 위치 인식 처리에 대하여 설명한다.
스텝 S21에서, 정보 처리부(11)의 촬영 제어부(34)는 카메라(15)에 의한 촬영을 행하여, 얻어진 화상열을 위치 인식부(35)의 인식부(63)에 출력한다. 여기서의 촬영은, 예를 들면 현재 위치를 인식할 수 있을 만큼의 프레임수의 화상이 얻어질 때까지 반복하여 행해진다.
스텝 S22에서, 측위 제어부(31)는 GPS 모듈(12)이나 PHS 모듈(13)을 제어하고, 그들 측위 디바이스로부터 공급되어 오는 정보에 기초하여 글로벌 에리어 상의 현재 위치의 인식을 행한다. 측위 제어부(31)에 의해 얻어진 위도 경도 정보는 위치 인식부(35)의 신뢰도 판정부(61)에 출력된다.
신뢰도 판정부(61)는 스텝 S23에서, GPS 모듈(12)에 의해 수신되어 있는 위성으로부터의 전파의 상황 등에 기초하여 GPS 모듈(12)에 의한 측위 결과의 신뢰도를 산출하고, 산출한 신뢰도가 소정의 임계값 이상인지의 여부를 판정한다.
스텝 S23에서, 신뢰도 판정부(61)는 GPS 모듈(12)에 의한 측위 결과의 신뢰도가 임계값 이상이라고 판정한 경우, GPS 모듈(12)에 의한 측위 결과의 위도 경도 정보를 모델 취득부(62)에 출력하고, 스텝 S24로 진행한다.
모델 취득부(62)는 스텝 S24에서, 신뢰도 판정부(61)로부터 공급되어 온 위도 경도 정보에 의해 나타내어지는 현재 위치를 포함하는 클러스터를 위치 인식 모델 DB(33)를 대상으로 하여 검색한다.
스텝 S25에서, 모델 취득부(62)는 현재 위치를 포함하는 클러스터가 있다고 판정한 경우, 스텝 S26으로 진행하여, 그 클러스터에 대응지어 기억되어 있는 HMM을 위치 인식 모델 DB(33)로부터 취득한다. 모델 취득부(62)에 의해 취득된 HMM은 인식부(63)에 출력된다.
스텝 S27에서, 인식부(63)는 인식 처리를 행한다. 인식부(63)에 의한 인식 처리에 대해서는 도 19의 플로우차트를 참조하여 설명한다. 인식부(63)에 의한 인식 결과는 인식 결과 취득부(64)에 출력된다.
인식 결과 취득부(64)는, 스텝 S28에서, 인식부(63)에 의한 인식 결과인 로컬 에리어 상의 현재 위치의 정보를 취득하고, 소정의 어플리케이션 등에 제공하여 처리를 종료시킨다.
한편, 스텝 S23에서, 신뢰도 판정부(61)는 GPS 모듈(12)에 의한 측위 결과의 신뢰도가 임계값 미만이라고 판정한 경우, 스텝 S29로 진행하여, 다음으로, 기지국으로부터의 전파의 수신 상황 등에 기초하여, PHS 모듈(13)에 의한 측위 결과의 신뢰도가 소정의 임계값 이상인지의 여부를 판정한다.
스텝 S29에서, 신뢰도 판정부(61)는 PHS 모듈(13)의 측위 결과의 신뢰도가 임계값 이상이라고 판정한 경우, PHS 모듈(13)에 의한 측위 결과의 위도 경도 정보를 모델 취득부(62)에 출력하고, 스텝 S30으로 진행한다.
스텝 S30에서, 모델 취득부(62)는 신뢰도 판정부(61)로부터 공급되어 온 위도 경도 정보에 의해 나타내어지는 현재 위치를 포함하는 클러스터를 위치 인식 모델 DB(33)를 대상으로 하여 검색하고, 스텝 S25로 진행하여, 그 이후의 처리를 행한다.
즉, 현재 위치를 포함하는 클러스터가 위치 인식 모델 DB(33)에 기억되어 있는 경우, 그것에 대응지어져 있는 HMM이 위치 인식 모델 DB(33)로부터 판독되고, 판독된 HMM이 이용되어 로컬 에리어 상의 현재 위치의 인식이 행해진다.
한편, 신뢰도 판정부(61)는 스텝 S29에서, PHS 모듈(13)에 의한 측위 결과의 신뢰도도 소정의 임계값 미만이라고 판정한 경우, 스텝 S31로 진행한다. 스텝 S31에서는 스텝 S27과 마찬가지로, 인식부(63)에 의해 인식 처리가 행해진다. 즉, 이 경우, 촬영된 화상열로부터, 글로벌 에리어 상의 또는 로컬 에리어 상의 현재 위치가 직접 인식되게 된다.
스텝 S32에서, 신뢰도 판정부(61)는, 촬영된 화상열로부터 인식부(63)에 의해 직접 인식된 현재 위치의 신뢰도가 임계값 이상인지의 여부를 판정하고, 임계값 이상이라고 판정한 경우, 스텝 S28로 진행한다. 스텝 S28에서는, 촬영된 화상열로부터 직접 인식된 현재 위치의 정보가 인식 결과 취득부(64)에 의해 취득되고, 처리가 종료된다.
인식부(63)는 스텝 S32에서, 촬영된 화상열로부터 직접 인식한 현재 위치의 신뢰도가 임계값 미만이라고 판정한 경우, 스텝 S33으로 진행한다. 스텝 S33에서는, 현재 위치가 인식 불능인 것으로서 소정의 에러 처리가 행해지고, 처리는 종료된다. 예를 들면, 처음으로 방문한 장소가 PHS의 기지국으로부터의 전파의 수신 상황이 나쁜 교외이며, 또한 위성으로부터의 전파의 수신 상황도 나쁜 건물 안 등일 경우에는 에러 처리가 행해지게 된다.
한편, 스텝 S25에서, 모델 취득부(62)는 GPS 모듈(12)에 의한 측위 결과의 현재 위치, 또는 PHS 모듈(13)에 의한 측위 결과의 현재 위치를 포함하는 클러스터가 위치 인식 모델 DB(33)에 기억되어 있지 않다고 판정한 경우, 그들의 현재 위치를 나타내는 위도 경도 정보를 통신 제어부(36)에 출력하고, 스텝 S34(도 18)로 진행한다.
스텝 S34에서, 통신 제어부(36)는 모델 취득부(62)로부터 공급되어 온 위도 경도 정보를 네트워크를 통하여 서버에 송신한다.
또한, 통신 제어부(36)는 스텝 S35에서, 송신한 위도 경도 정보에 의해 나타내어지는 현재 위치를 포함하는 클러스터의 정보가 서버에 등록되어 있는지의 여부 를 판정하고, 등록되어 있지 않다고 판정한 경우, 스텝 S36으로 진행한다. 이 경우, GPS 모듈(12)에 의한 측위 결과, 또는 PHS 모듈(13)에 의한 측위 결과가 모델 취득부(62)로부터 인식 결과 취득부(64)에 공급되어, 현재 위치의 인식 결과로서 취득된다. 그 후, 처리는 종료된다.
통신 제어부(36)는 스텝 S35에서, 현재 위치를 포함하는 클러스터의 정보가 서버에 등록되어 있다고 판정한 경우, 스텝 S37로 진행하여, 그 클러스터에 대응지어져 등록되어 있는 HMM을 다운로드한다. 통신 제어부(36)에 의해 다운로드된 HMM은 모델 취득부(62)를 통하여 인식부(63)에 출력된다.
인식부(63)는, 스텝 S38에서, 스텝 S27과 마찬가지로 인식 처리를 행한다. 여기서의 인식 처리에서 이용되는 HMM은 서버로부터 다운로드된 것이다. 인식부(63)에 의한 인식 결과는 인식 결과 취득부(64)에 의해 취득되고, 처리가 종료된다.
다음으로, 도 19의 플로우차트를 참조하여, 도 17의 스텝 S27, S31, 및 도 18의 스텝 S38에서 행해지는 인식 처리에 대하여 설명한다.
스텝 S61에서, 인식부(63)의 화상 선택부(71)(도 14)는 촬영 제어부(34)로부터 공급되어 온 화상 중에서 로컬 에리어 상의 위치 인식에 이용하는 화상을 선택하고, 그와 같이 선택한 화상으로 이루어지는 인식용 화상열을 특징 벡터 산출부(72)에 출력한다.
스텝 S62에서, 특징 벡터 산출부(72)는 화상 선택부(71)로부터 공급되어 온 화상의 특징을 나타내는 특징 벡터를 산출하고, 산출한 특징 벡터를 특징 벡터 기 억부(73)에 기억시킨다. 이에 의해, 특징 벡터 기억부(73)에는 특징 벡터의 시계열이 기억된다.
스텝 S63에서, 매칭 처리부(74)는 모델 취득부(62)로부터 공급되어 온 HMM에 의한 비터비 시계열 매치를 행하여, 특징 벡터 기억부(73)에 기억되어 있는 특징 벡터의 시계열과, HMM의 상태(상태를 나타내는 화상으로부터 구해진 특징 벡터의 시계열)와의 매치도를 산출한다.
매칭 처리부(74)는 스텝 S64에서, 매치도의 산출 결과에 기초하여, 매치도가 가장 높은 HMM의 화상열에 설정되어 있는 식별 정보나 이름을, 로컬 에리어 상의 현재 위치의 인식 결과로서 인식 결과 취득부(64)에 출력한다. 그 후, 처리는 도 17의 스텝 S27, S31, 또는 도 18의 스텝 S38로 되돌아가서, 그 이후의 처리가 행해진다.
이상의 처리에 의해 로컬 에리어 상의 현재 위치가 인식되므로, 다음과 같은 시나리오에서의 휴대 단말기(1)의 이용이 가능하게 된다.
예를 들면, 유저가 도 11의 역 S2의 근처에 있는 디파트먼트 스토어의 양복점 A를 전회 방문했을 때, 마음에 든 양복을 발견하였지만, 그 때는 구입하지 않고 차회 구입할 것을 휴대 단말기(1)를 이용하여 메모한 것으로 한다(사진을 찍거나, 텍스트로 메모를 남긴 것으로 한다). 이 경우, 유저가 양복점 A를 다음에 방문하여, 양복점 A에 있는 것이 휴대 단말기(1)에 의해 인식됨에 따라, 그 메모가 제시되게 된다.
이에 의해, 유저는 양복점 A에서 양복을 구입하는 것을 상기할 수 있다. 또한, 유저에 의해 입력된 메모는 양복점 A의 위치를 식별하는 정보와 함께, 휴대 단말기(1)의 시스템 내에 파일로서 보존되어 있다.
또한, GPS 모듈(12)에 의한 측위 결과와 PHS 모듈(13)에 의한 측위 결과가 신뢰도에 따라 전환되도록 하였으므로, 또한 처음으로 방문한 장소라도, 그곳에서의 위치 인식을 행하기 위한 HMM이 서버로부터 다운로드되도록 하였으므로(서버에 그 HMM이 등록되어 있는 경우), 다음과 같은 시나리오에서의 휴대 단말기(1)의 이용이 가능하다.
예를 들면, 도 11의 시나가와역 S5에 방문한 적이 없는 유저가 시나가와역 S5 구내에서 친구와 만나기로 한 것으로 한다.
이 유저가 갖는 휴대 단말기(1)에서는, GPS 모듈(12) 또는 PHS 모듈(13)에 의해 위도 경도 정보가 정기적으로 취득되고 있지만, 시나가와역 S5 구내에서는 GPS 모듈(12)에 의한 위성으로부터의 전파의 수신이 곤란해지므로(항법 메시지를 포착할 수 없게 되므로), GPS 모듈(12)로부터 휴대 단말기(1)의 시스템(정보 처리부(11))에 신뢰도가 떨어진 것이 통지된다.
이에 따라, 휴대 단말기(1)의 시스템은, GPS 모듈(12)의 신뢰도와, PHS 모듈(13)의 신뢰도를 비교한다. PHS의 경우, 예를 들면 시나가와역 S5 구내에서도 기지국으로부터의 전파가 도달하고 있으므로, 신뢰도는 높아, 글로벌 에리어 상의 측위 결과로서 PHS 모듈(13)로부터의 출력이 이용된다.
휴대 단말기(1)의 시스템은 PHS 모듈(13)에 의한 측위 결과인 위도 경도 정보를 이용하여, 시나가와역 S5를 포함하는 클러스터를 위치 인식 모델 DB(33)로부터 찾지만, 유저가 시나가와역 S5를 방문한 적이 없기 때문에, 클러스터가 존재하지 않는다.
이 경우, 휴대 단말기(1)의 시스템은 네트워크 상의 서버에 HMM의 리퀘스트를 보내고(PHS 모듈(13)에 의해 인식된 위도 경도 정보를 송신하고), 그 서버에 다른 유저의 휴대 단말기에 의해 작성된 HMM이 존재하는 경우, 그 HMM을 다운로드하여, 시나가와역 S5 구내에서의 위치 인식에 이용한다.
그 결과, 유저는 자신이 시나가와역 S5 구내의 동쪽 출구를 향하고 있는 것인지, 서쪽 출구를 향하고 있는 것인지 등을 휴대 단말기(1)에 의한 네비게이션에 의해 확인할 수 있어, 익숙하지 않은 장소에서도 친구와의 만남을 행할 수 있다.
또한, HMM은 상술한 위치 인식 엔진의 경우에는 HMM의 파라미터나 특징 벡터로서, 나중에 사진이나 동화상으로서 복원하는 것이 불가능하므로, 이들 데이터로부터 개인 정보(예를 들면, 어디에 가서, 무엇을 샀는지 등)를 추출할 수는 없다. 따라서, HMM의 송수신을 행하는 한에서는, 프라이버시 보호의 관점에서도, 데이터를 쉐어하는 리스크는 매우 적다고 할 수 있다. 또한, 데이터 사이즈도 수10KB 내지 수MB이므로, 데이터 전송을 용이하게 행할 수 있다.
이러한 특성을 살려, 또한 다음과 같은 시나리오에서의 휴대 단말기(1)의 이용이 가능하다.
예를 들면, 어떤 유저가 처음으로 방문한 하쿠바역에서의 네비게이션을 상정한다.
당연히, 이 유저의 휴대 단말기(1)에는 하쿠바역의 위치 인식 모델은 존재하지 않는다. 따라서, 이 유저는 서버에 대하여, 하쿠바역의 위치 인식 모델인 HMM의 송신을 요구했지만, 서버에는 아직 하쿠바역의 HMM이 등록되어 있지 않았다.
이 경우, 유저의 휴대 단말기(1)는 무선 LAN 등의 무선 통신 수단을 이용하여, 동보 통신(Broadcast)을 행하여, 네트워크 상의 복수의 단말기에 대하여 하쿠바역의 HMM의 리퀘스트를 송신한다. 휴대 단말기(1)로부터의 리퀘스트를 수신한, 휴대 단말기(1) 주위의 단말기 중에, 이미 하쿠바역의 HMM을 보유하는 하쿠바역 주변의 거주자의 휴대 단말기(2)가 포함되어 있었던 것으로 하면, 해당 휴대 단말기(2)에서, 휴대 단말기(1)로부터 리퀘스트와 함께 송신된 하쿠바역의 위치 정보에 기초하여, 휴대 단말기(2)가 보유하는 인식 모델 중에서 하쿠바역의 HMM의 검색이 행해진다. 그리고, 하쿠바역의 HMM을 보유하는 취지의 회답을 휴대 단말기(1)에 대하여 행한다.
휴대 단말기(2)로부터의 회답을 수신한 휴대 단말기(1)는, 휴대 단말기(2)와 애드 혹 모드로 접속하고, 휴대 단말기(2)로부터, 하쿠바역의 HMM의 다운로드를 행한다.
이와 같이, 네비게이션이 필요할 때에 원하는 위치 인식 모델이 서버에 등록되어 있지 않은 경우라도, 소위 Peer to Peer 방식으로 위치 인식 모델을 공유하는 것, 즉 직접 개인간에서 위치 인식 모델의 수수를 행할 수 있다.
휴대 단말기(1)에서, 상술한 바와 같은 다른 단말기로부터 HMM을 취득하는 처리를 반복함으로써, 하쿠바역에서 또 다른 목적지로의 네비게이션을 실현할 수 있다.
예를 들면, 유저가 하쿠바역을 나와, 새로운 목적지를 향하는 경우, 유저를 하쿠바역부터 네비게이트하기 위해서는 새로운 HMM이 필요하게 된다. 이미 하쿠바역의 HMM을 취득한 유저의 휴대 단말기(1)는, 하쿠바역 HMM과 대응지어져 등록되어 있는 위도 경도의 범위 내에 있을 때에는, 계속해서 하쿠바역 HMM을 이용하여 위치 인식을 행한다. 그러나, 유저가 이 범위 내를 나온 경우, 즉 GPS 모듈이나 PHS 모듈을 이용하여 측위되는 현재 위치가, 보유하는 하쿠바역 HMM에 의한 인식 가능 범위를 초과한 경우, 이미 위치 인식을 행할 수 없다. 따라서, 유저의 휴대 단말기(1)는 주위의 단말기에 대하여 현재 위치의 위도 경도 정보를 송신하여, 새로운 HMM의 리퀘스트를 행한다. 이 일련의 처리는 유저가 목적지에 도달할때까지 적절하게 반복된다.
혹은 보유하는 HMM과, 측위되는 위도 경도 정보와의 비교를 행하지 않고, 소정 시간 간격으로 주위의 단말기에 대하여 HMM의 리퀘스트를 반복하도록 할 수도 있다.
이상에서는 휴대 단말기(1)의 형상은 도 5에 도시한 바와 같이 단면이 6각형의 것으로 했지만, 당연히, 이에 한정되지 않는다.
도 20A 내지 도 20D, 및 도 21A 내지 도 21D는 휴대 단말기(1)의 형상의 다른 예를 도시하는 도면이다.
예를 들면, 도 20A 및 도 20B에 도시한 바와 같이, 휴대 단말기(1)는 노트북형 퍼스널 컴퓨터이어도 된다. 이 경우, 카메라(15)는, 예를 들면 도 20A에 도시한 바와 같이 퍼스널 컴퓨터를 열었을 때에 그 상단에 오는 위치나, 도 20B에 도시한 바와 같이 힌지의 부분에 설치된다.
도 20C는 소형 비디오 카메라와 같은 형상의 휴대 단말기(1)를 도시하고, 도 20D는 배지와 같이 양복 등에 접착할 수 있는 형상을 갖는 휴대 단말기(1)를 도시하고 있다.
또한, 도 21A는 넥 스트랩형 휴대 단말기(1)를 도시하고, 도 21B는 벌룬형 휴대 단말기(1)를 도시하고 있다. 벌룬형 휴대 단말기(1)는, 예를 들면 풍선과 같은 것에 내장되어 실현된다.
도 21C는 숄더백과 같이 어깨에 비스듬히 걸어서 이용하는 벨트 형상의 휴대 단말기(1)를 도시하고, 도 21D는 헤드셋형 휴대 단말기(1)를 도시하고 있다.
이와 같이, 휴대 단말기(1)를 다양한 형상의 것으로 할 수 있다.
또한, 이상에서는 HMM에 기초하는 위치 인식을 행하도록 했지만, 본 발명은 다른 알고리즘에 기초하는 위치 인식의 경우에도 적용 가능하다. 다른 예로서, 예를 들면 뉴럴 네트워크, 퍼셉트 론, SVM(Support Vector Machine) 등을 위치 인식 모델로서 이용할 수도 있다.
또한, 이상에서는 GPS와 함께 휴대 단말기(1)에 내장되는 측위 디바이스는 PHS인 것으로 하였지만, 수백m의 범위마다 기지국이 설치되고, 그들 기지국으로부터 송신되어 오는 정보에 기초하여 측위를 행할 수 있는 기능을 갖는 것이면, 어떤 것이어도 된다.
또한, 이상에서는 계층형 위치 인식이 유저에 소정의 정보를 제시하기 위해서 이용되는 것으로 했지만, 이 위치 인식은 이를 위해서만 이용되는 것에 한하지 않고, 예를 들면 승용차 등에 탑재되는 네비게이션 시스템에 이용되도록 해도 된다.
이에 의해, 예를 들면 고가의 고속도로에 병행하여, 그 아래에 있는 일반 도로를 주행하고 있는 경우라도, 그 상황에 의거한 형태로 일반 도로를 주행하고 있는 것을 네비게이션할 수 있다. 즉, 단순히, GPS에 의한 측위 결과에만 기초하여 네비게이션하는 경우, 실제로는 일반 도로를 주행하고 있는 경우에도, 고속도로를 주행하고 있는 것처럼 지도 상에서는 표시되어 네비게이션되는 경우가 있으나, 이러한 잘못된 네비게이션을 방지할 수 있다.
또한, 승용차 등의 네비게이션 시스템에서는, 예를 들면 VICS(Vehicle Information and Communication System), 즉 도로 교통 정보 통신 시스템을 이용하여, 위치 인식 모델 리얼타임으로 취득하는 것이 고려된다. 이 경우, 위치 인식 모델의 취득은 도로 상의 소정의 위치에 설치된 비컨(beacon)의 수신 에리어 내에 승용차가 도달했을 때에 자동적으로 행해져도 되고, FM 음성 방송국의 방송파에 다중화되어 송신되는 위치 인식 모델을, 소정 시간 간격으로 수신하도록 해도 된다.
이상에서는 클러스터에 HMM이 대응지어져 있어, GPS 모듈(12)이나 PHS 모듈(13)에 의한 측위 결과에 기초하여 선택된 클러스터에 대응지어져 있는 HMM이 로 컬 에리어 상의 위치 인식에 이용되는 것으로 했지만, GPS 모듈(12)이나 PHS 모듈(13)에 의한 위치 인식 모델 구성 페이즈 시의 측위 결과인 위도 경도에 대하여, 직접 HMM이 대응지어져 있도록 해도 된다. 이 경우, 위치 인식 페이즈 시에는, 예를 들면 GPS 모듈(12) 등에 의한 측위에 의해 얻어진 현재 위치에 가장 가까운 위도 경도가 대응지어져 있는 HMM이 선택되고, 그것이 로컬 에리어 상의 위치 인식에 이용된다.
또한, 이상에서는 CCD 등의 촬상 소자를 갖는 카메라(15)에 의해 촬영된 화상(예를 들면, 촬영된 화상을 저해상도화한 것)에 기초하여, HMM의 작성이나 로컬 에리어 상의 위치 인식이 행해진 것으로 했지만, 상술한 바와 같이 이들 처리에서 이용하는 화상은 해상도가 낮은 것이어도 되기 때문에, CCD 등의 촬상 소자 대신에, 복수의 광 센서로 이루어지는 광 센서 어레이가 카메라(15)에 설치되도록 해도 된다.
예를 들면, 5×5개의 광 센서 어레이가 촬상 소자 대신에 형성됨으로써도, 각각의 광 센서의 출력의 시간적 변화로부터 매치도를 계산할 수 있다. 또한, 배열하는 광 센서의 수에 따라서는 CCD를 구동시키는 경우에 비하여 소비 전력을 억제할 수 있게 된다. 따라서, 이상의 설명에서, 카메라(15)에 의해 촬영되는 「화상」에는 CCD에 의해 얻어진 광학 정보 외에, 각각의 광 센서에 의해 얻어진 광학 정보도 포함된다.
상술한 일련의 처리는 하드웨어에 의해 실행시킬 수도 있지만, 소프트웨어에 의해 실행시킬 수도 있다. 이 경우, 그 소프트웨어를 실행시키는 장치는, 예를 들 면 도 22에 도시한 바와 같은 퍼스널 컴퓨터에 의해 구성된다.
도 22에서, CPU(101)는 ROM(102)에 기억되어 있는 프로그램, 또는 기억부(108)로부터 RAM(103)에 로드된 프로그램에 따라 각종 처리를 실행한다. RAM(103)에는, 또한 CPU(101)가 각종 처리를 실행하는 데에 필요한 데이터 등이 적절하게 기억된다.
CPU(101), ROM(102), 및 RAM(103)은 버스(104)를 통하여 서로 접속되어 있다. 이 버스(104)에는, 또한 입출력 인터페이스(105)도 접속되어 있다.
입출력 인터페이스(105)에는 키보드, 마우스 등으로 이루어지는 입력부(106), LCD(Liquid Crystal Display) 등으로 이루어지는 디스플레이 및 스피커 등으로 이루어지는 출력부(107), 하드디스크 등으로 구성되는 기억부(108), 네트워크를 통한 통신 처리를 행하는 통신부(109)가 접속되어 있다.
입출력 인터페이스(105)에는, 또한 필요에 따라 드라이브(110)가 접속되고, 자기 디스크, 광 디스크, 광 자기 디스크, 또는 반도체 메모리 등으로 이루어지는 리무버블 미디어(111)가 적절하게 장착되고, 그것으로부터 판독된 컴퓨터 프로그램이 필요에 따라 기억부(108)에 인스톨된다.
일련의 처리를 소프트웨어에 의해 실행시키는 경우에는, 그 소프트웨어를 구성하는 프로그램이 전용의 하드웨어에 내장되어 있는 컴퓨터, 또는 각종 프로그램을 인스톨함으로써, 각종 기능을 실행할 수 있는, 예를 들면 범용의 퍼스널 컴퓨터등에 프로그램 기록 매체로부터 인스톨된다.
이 기록 매체는, 도 22에 도시된 바와 같이 장치 본체와는 별도로, 유저에게 프로그램을 제공하기 위해서 배포되는, 프로그램이 기록되어 있는 자기 디스크(플렉시블 디스크를 포함함), 광 디스크(CD-ROM(Compact Disk-Read Only Memory), DVD(Digital Versatile Disk)를 포함함), 광 자기 디스크(MD(등록상표)(Mini-Disk)를 포함함), 또는 반도체 메모리 등으로 이루어지는 패키지 미디어인 리무버블 미디어(111)에 의해 구성될 뿐만 아니라, 장치 본체에 미리 내장된 상태에서 유저에게 제공되는, 프로그램이 기록되어 있는 ROM(102)이나, 기억부(108)에 포함되는 하드디스크 등으로 구성된다.
또한, 본 명세서에서, 각 스텝은 기재된 순서에 따라 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않더라도, 병렬적 또는 개별로 실행되는 처리도 포함하는 것이다.

Claims (16)

  1. 정보 처리 장치로서,
    측위를 행하고 상기 정보 처리 장치의 제1 위치를 결정하도록 구성된 측위부와,
    상기 측위부의 측위에 의해 취득된 위치 정보에 기초하여, 상기 측위부에 의해 결정된 상기 제1 위치에 대응하는 화상 데이터를 포함하는 모델을 포함하는, 위치 식별을 행하기 위한 인식용 데이터를 취득하도록 구성된 취득부와,
    상기 정보 처리 장치의 주위의 화상 데이터를 취득하도록 구성된 화상 센서와,
    상기 취득된 화상 데이터와 상기 제1 위치에 대응하는 모델을 비교함으로써 상기 제1 위치내의 제2 위치를 식별하도록 구성된 위치 식별부와,
    상기 화상 센서의 출력에 기초하여 상기 인식용 데이터를 작성하도록 구성된 작성부와,
    상기 작성부에 의해 작성된 상기 인식용 데이터를, 상기 측위부에 의해 취득된 위치 정보와 대응지어 기억하도록 구성되는 기억부를 포함하고,
    상기 취득부는 상기 측위부에 의해 취득된 위치 정보에 기초하여 상기 인식용 데이터를 상기 기억부로부터 취득하도록 구성되고,
    상기 측위부의 측위에 의해 취득된 위치 정보는 소정의 위치 좌표로 나타내어지고, 상기 인식용 데이터에 대응지어져 상기 기억부에 기억되는 위치 정보가 소정의 위치 좌표 범위로 나타내어지는 경우에,
    상기 취득부는 상기 측위부의 측위에 의해 취득된 위치 좌표가 상기 소정의 위치 좌표 범위를 초과할 때, 상기 정보 처리 장치에 원격 접속된 장치로부터 상기 인식용 데이터를 취득하는 것을 특징으로 하는 정보 처리 장치.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 인식용 데이터를 상기 정보 처리 장치에 원격 접속된 서버로 송신하도록 구성된 송신기를 더 포함하는 것을 특징으로 하는 정보 처리 장치.
  5. 제4항에 있어서,
    상기 정보 처리 장치에 원격 접속된 상기 서버로부터 인식용 데이터를 수신하도록 구성된 수신기와,
    상기 위치 정보에 기초하여 상기 인식용 데이터를 검색하도록 구성된 검색부를 더 포함하고,
    상기 송신기는 상기 검색부에 의해 검색된 상기 인식용 데이터를 상기 정보 처리 장치에 원격 접속된 상기 서버로 송신하도록 구성된 것을 특징으로 하는 정보 처리 장치.
  6. 제1항에 있어서,
    상기 취득부는 상기 측위부의 측위에 의해 취득된 위치 정보에 대응하는 상기 인식용 데이터가 상기 기억부에 의해 기억되어 있지 않은 경우, 상기 정보 처리 장치에 원격 접속된 서버로부터 상기 인식용 데이터를 취득하도록 구성된 것을 특징으로 하는 정보 처리 장치.
  7. 제1항에 있어서,
    상기 취득부는 소정의 시간마다 상기 인식용 데이터를 취득하도록 구성된 것을 특징으로 하는 정보 처리 장치.
  8. 삭제
  9. 제1항에 있어서,
    상기 측위부는 GPS와 PHS를 이용한 측위를 행하여, GPS를 이용하여 취득되는 위치와 PHS를 이용하여 취득되는 위치 중, 신뢰도가 높은 쪽의 위치를 측위 결과로서 선택하도록 구성된 것을 특징으로 하는 정보 처리 장치.
  10. 삭제
  11. 정보 처리 방법으로서,
    정보 처리 장치의 측위부에서, 상기 정보 처리 장치의 측위를 행하고 상기 측위에 기초하여 상기 정보 처리 장치의 제1 위치를 결정하는 스텝과,
    상기 측위에 의해 취득된 위치 정보에 기초하여, 상기 측위부에 의해 결정된 상기 제1 위치에 대응하는 화상 데이터를 포함하는 모델을 포함하는, 위치 식별을 행하기 위한 인식용 데이터를 취득하는 스텝과,
    상기 정보 처리 장치의 화상 센서에서, 상기 정보 처리 장치의 주위의 화상 데이터를 취득하는 스텝과,
    상기 취득된 화상 데이터와 상기 제1 위치에 대응하는 모델을 비교함으로써 상기 제1 위치내의 제2 위치를 식별하는 스텝과,
    상기 화상 센서의 출력에 기초하여 상기 인식용 데이터를 작성하는 스텝과,
    상기 정보 처리 장치의 기억부에서, 작성된 상기 인식용 데이터를 상기 측위부에 의해 취득된 위치 정보와 대응지어 기억하는 스텝을 포함하고,
    상기 인식용 데이터를 취득하는 스텝은 상기 측위부에 의해 취득된 위치 정보에 기초하여 상기 인식용 데이터를 상기 기억부로부터 취득하는 단계를 포함하고,
    상기 측위부의 측위에 의해 취득된 위치 정보는 소정의 위치 좌표로 나타내어지고, 상기 인식용 데이터에 대응지어져 상기 기억부에 기억되는 위치 정보가 소정의 위치 좌표 범위로 나타내어지는 경우에,
    상기 인식용 데이터를 취득하는 스텝은 상기 측위부의 측위에 의해 취득된 위치 좌표가 상기 소정의 위치 좌표 범위를 초과할 때, 상기 정보 처리 장치에 원격 접속된 장치로부터 상기 인식용 데이터를 취득하는 스텝을 포함하는 것을 특징으로 하는 정보 처리 방법.
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
KR1020067027564A 2004-06-29 2006-12-28 정보 처리 장치 및 방법 KR101174531B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2004191307 2004-06-29
JPJP-P-2004-00191307 2004-06-29
JPJP-P-2004-00291392 2004-10-04
JP2004291392 2004-10-04
PCT/JP2005/008689 WO2006001129A1 (ja) 2004-06-29 2005-05-12 情報処理装置および方法、プログラム、並びに情報処理システム

Publications (2)

Publication Number Publication Date
KR20070026673A KR20070026673A (ko) 2007-03-08
KR101174531B1 true KR101174531B1 (ko) 2012-08-16

Family

ID=35781665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067027564A KR101174531B1 (ko) 2004-06-29 2006-12-28 정보 처리 장치 및 방법

Country Status (6)

Country Link
US (1) US7739033B2 (ko)
EP (1) EP1762822A4 (ko)
JP (1) JPWO2006001129A1 (ko)
KR (1) KR101174531B1 (ko)
CN (1) CN101010560B (ko)
WO (1) WO2006001129A1 (ko)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7333820B2 (en) * 2001-07-17 2008-02-19 Networks In Motion, Inc. System and method for providing routing, mapping, and relative position information to users of a communication network
US7082365B2 (en) 2001-08-16 2006-07-25 Networks In Motion, Inc. Point of interest spatial rating search method and system
US7486958B2 (en) * 2001-09-05 2009-02-03 Networks In Motion, Inc. System and method for maintaining an online point-of-interest directory
ES2355076T3 (es) 2002-03-01 2011-03-22 Telecommunication Systems, Inc. Procedimiento y aparato para enviar, recuperar y planificar información relevante para la ubicación.
US8918073B2 (en) 2002-03-28 2014-12-23 Telecommunication Systems, Inc. Wireless telecommunications location based services scheme selection
US8290505B2 (en) 2006-08-29 2012-10-16 Telecommunications Systems, Inc. Consequential location derived information
US7565155B2 (en) * 2002-04-10 2009-07-21 Networks In Motion Method and system for dynamic estimation and predictive route generation
WO2004074778A1 (en) * 2003-02-14 2004-09-02 Networks In Motion, Inc. Method and system for saving and retrieving spatial related information
AU2004302220A1 (en) * 2003-08-08 2005-02-17 Telecommunication Systems, Inc. Method and system for collecting synchronizing and reporting telecommunication call events and work flow related information
US20080126535A1 (en) 2006-11-28 2008-05-29 Yinjun Zhu User plane location services over session initiation protocol (SIP)
CA2583458C (en) * 2004-10-01 2016-02-23 Networks In Motion, Inc. Method and system for enabling an off board navigation solution
EP1864085A4 (en) 2005-03-07 2009-11-25 Networks In Motion Inc METHOD AND SYSTEM FOR IDENTIFYING GEOGRAPHICAL BARRIERS (GEOFENCES)
EP1958338A4 (en) * 2005-12-07 2011-01-05 METHOD AND SYSTEM FOR USER INPUT SOLUTION FOR A LIMITED TELECOMMUNICATION DEVICE
US8208605B2 (en) 2006-05-04 2012-06-26 Telecommunication Systems, Inc. Extended efficient usage of emergency services keys
US8171237B2 (en) 2006-10-31 2012-05-01 Yahoo! Inc. Automatic association of reference data with primary process data based on time and shared identifier
JP4942177B2 (ja) * 2006-11-20 2012-05-30 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US8144920B2 (en) 2007-03-15 2012-03-27 Microsoft Corporation Automated location estimation using image analysis
JP4379493B2 (ja) 2007-06-07 2009-12-09 ソニー株式会社 撮像装置、情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8600674B1 (en) * 2007-08-15 2013-12-03 University Of South Florida Using pattern recognition in real-time LBS applications
US8099238B2 (en) 2007-11-14 2012-01-17 Telecommunication Systems, Inc. Stateful, double-buffered dynamic navigation voice prompting
CN101952737A (zh) 2007-12-11 2011-01-19 高通股份有限公司 有相机辅助的全球导航卫星***方法和接收器
US8903430B2 (en) 2008-02-21 2014-12-02 Microsoft Corporation Location based object tracking
JP2009230255A (ja) * 2008-03-19 2009-10-08 Nippon Telegr & Teleph Corp <Ntt> 情報提供装置、情報提供方法および情報提供処理プログラム
US8406531B2 (en) * 2008-05-15 2013-03-26 Yahoo! Inc. Data access based on content of image recorded by a mobile device
US9753948B2 (en) * 2008-05-27 2017-09-05 Match.Com, L.L.C. Face search in personals
US8098894B2 (en) 2008-06-20 2012-01-17 Yahoo! Inc. Mobile imaging device as navigator
JP5412795B2 (ja) * 2008-11-04 2014-02-12 日本電気株式会社 情報提供システム、情報提供方法、情報提供サーバおよびコンピュータプログラム
US8311339B2 (en) * 2008-11-05 2012-11-13 Palo Alto Research Center Incorporated Method to robustly match images with similar body and head pose from image sequence
US8311556B2 (en) * 2009-01-22 2012-11-13 Htc Corporation Method and system for managing images and geographic location data in a mobile device
US9293017B2 (en) * 2009-02-26 2016-03-22 Tko Enterprises, Inc. Image processing sensor systems
US9740921B2 (en) 2009-02-26 2017-08-22 Tko Enterprises, Inc. Image processing sensor systems
US9277878B2 (en) * 2009-02-26 2016-03-08 Tko Enterprises, Inc. Image processing sensor systems
CN101616225B (zh) * 2009-08-06 2011-05-18 陈新琴 一种为数码相片提供地理信息标签的终端服务方法
JP2011039974A (ja) * 2009-08-18 2011-02-24 Kddi Corp 画像検索方法およびシステム
WO2011049998A2 (en) * 2009-10-21 2011-04-28 Randall Winslow Electronic badge apparatus
JP5396305B2 (ja) * 2010-02-23 2014-01-22 日本電信電話株式会社 位置算出装置、方法及びプログラム
AR082184A1 (es) * 2010-09-23 2012-11-21 Telefonica Sa Metodo y sistema para calcular la ubicacion geografica de un dispositivo personal
CN102054166B (zh) * 2010-10-25 2016-04-27 北京理工大学 一种新的用于户外增强现实***的场景识别方法
JPWO2012086821A1 (ja) * 2010-12-20 2014-06-05 日本電気株式会社 測位装置、測位方法
WO2012087353A1 (en) 2010-12-22 2012-06-28 Telecommunication Systems, Inc. Area event handling when current network does not cover target area
US8682321B2 (en) 2011-02-25 2014-03-25 Telecommunication Systems, Inc. Mobile internet protocol (IP) location
US8831556B2 (en) 2011-09-30 2014-09-09 Telecommunication Systems, Inc. Unique global identifier header for minimizing prank emergency 911 calls
JP6051509B2 (ja) 2011-10-31 2016-12-27 ソニー株式会社 発電制御システム、発電制御プログラムおよび電子機器
US9297881B2 (en) * 2011-11-14 2016-03-29 Microsoft Technology Licensing, Llc Device positioning via device-sensed data evaluation
US9217644B2 (en) 2012-01-26 2015-12-22 Telecommunication Systems, Inc. Natural navigational guidance
US8965057B2 (en) * 2012-03-02 2015-02-24 Qualcomm Incorporated Scene structure-based self-pose estimation
US9544260B2 (en) 2012-03-26 2017-01-10 Telecommunication Systems, Inc. Rapid assignment dynamic ownership queue
US9307372B2 (en) 2012-03-26 2016-04-05 Telecommunication Systems, Inc. No responders online
KR101329111B1 (ko) 2012-05-02 2013-11-14 한국과학기술연구원 실내 네비게이션 시스템 및 방법
US8930139B2 (en) 2012-06-21 2015-01-06 Telecommunication Systems, Inc. Dynamically varied map labeling
US9313638B2 (en) 2012-08-15 2016-04-12 Telecommunication Systems, Inc. Device independent caller data access for emergency calls
US9020191B2 (en) 2012-11-30 2015-04-28 Qualcomm Incorporated Image-based indoor position determination
US9456301B2 (en) 2012-12-11 2016-09-27 Telecommunication Systems, Inc. Efficient prisoner tracking
CN103064980A (zh) * 2013-01-15 2013-04-24 广东欧珀移动通信有限公司 基于移动终端及gps查询景点信息的方法和***
US8983047B2 (en) 2013-03-20 2015-03-17 Telecommunication Systems, Inc. Index of suspicion determination for communications request
US9408034B2 (en) 2013-09-09 2016-08-02 Telecommunication Systems, Inc. Extended area event for network based proximity discovery
US9516104B2 (en) 2013-09-11 2016-12-06 Telecommunication Systems, Inc. Intelligent load balancer enhanced routing
US9479897B2 (en) 2013-10-03 2016-10-25 Telecommunication Systems, Inc. SUPL-WiFi access point controller location based services for WiFi enabled mobile devices
EP2889635A1 (en) * 2013-12-24 2015-07-01 Televic Healthcare NV Localisation system
CN105217147B (zh) * 2015-10-08 2018-04-17 青岛澳柯玛超低温冷冻设备有限公司 一种低温保存箱
US10839226B2 (en) * 2016-11-10 2020-11-17 International Business Machines Corporation Neural network training
JP6399127B2 (ja) * 2017-03-08 2018-10-03 日本電気株式会社 システム管理装置、システム管理方法、プログラム、情報処理システム
US10534092B2 (en) * 2017-06-01 2020-01-14 Tesla, Inc. Technologies for vehicle positioning
CN110044348A (zh) * 2019-03-15 2019-07-23 广东康云科技有限公司 一种三维室内导航***及其实现方法
CN110569819A (zh) * 2019-09-16 2019-12-13 天津通卡智能网络科技股份有限公司 一种公交车乘客再识别方法
JP7424269B2 (ja) * 2020-10-23 2024-01-30 トヨタ自動車株式会社 位置把握システム、位置把握方法及び位置把握プログラム
CN113361901B (zh) * 2021-06-02 2024-04-19 湖南中车时代通信信号有限公司 一种列车调度指挥信息的设置方法、***及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001305210A (ja) 2000-04-25 2001-10-31 Matsushita Electric Works Ltd 位置検出装置
JP2003111128A (ja) * 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP2004077273A (ja) 2002-08-19 2004-03-11 Sony Corp 位置移動支援方法および位置移動支援システム
JP2004117094A (ja) 2002-09-25 2004-04-15 Nec Fielding Ltd 個人ナビゲーションシステム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190413A (ja) * 1996-01-08 1997-07-22 Ricoh Co Ltd 情報処理装置
US6115481A (en) * 1998-10-22 2000-09-05 Centrak, Llc User modifiable land management zones for the variable application of substances thereto
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP4226730B2 (ja) * 1999-01-28 2009-02-18 株式会社東芝 物体領域情報生成方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
US6388688B1 (en) * 1999-04-06 2002-05-14 Vergics Corporation Graph-based visual navigation through spatial environments
JP3873554B2 (ja) * 1999-12-27 2007-01-24 株式会社日立製作所 監視装置、監視プログラムが記録された記録媒体
DE10007813A1 (de) * 2000-02-21 2001-09-06 Becker Gmbh Navigationssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Navigationssystems
DE10012471A1 (de) * 2000-03-15 2001-09-20 Bosch Gmbh Robert Navigationssystem
AU2001249474A1 (en) * 2000-03-30 2001-10-15 Cellguide Ltd. Locating a mobile unit
US6462674B2 (en) * 2000-04-18 2002-10-08 Mazda Motor Corporation Communication apparatus and its current position communication method, navigation apparatus for a vehicle and its information communication method, computer program product, and computer-readable storage medium
JP3833486B2 (ja) * 2000-04-19 2006-10-11 富士写真フイルム株式会社 撮像装置
KR100386752B1 (ko) * 2000-04-24 2003-06-09 김석배 실영상을 이용한 차량 항법 시스템
JP4236372B2 (ja) * 2000-09-25 2009-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 空間情報利用システムおよびサーバシステム
US6587783B2 (en) * 2000-10-05 2003-07-01 Siemens Corporate Research, Inc. Method and system for computer assisted localization, site navigation, and data navigation
JP2002209208A (ja) * 2001-01-11 2002-07-26 Mixed Reality Systems Laboratory Inc 画像処理装置及びその方法並びに記憶媒体
SE519884C2 (sv) * 2001-02-02 2003-04-22 Scalado Ab Metod för zoomning och för att framställa en zoomningsbar bild
US6657184B2 (en) * 2001-10-23 2003-12-02 Agilent Technologies, Inc. Optical navigation upon grainy surfaces using multiple navigation sensors
JP2003162217A (ja) * 2001-11-26 2003-06-06 Nec Corp 地図情報表示システム、携帯無線端末及びサーバー
DE10316208A1 (de) * 2002-04-12 2003-11-20 Samsung Electro Mech Navigationssystem und Navigationsverfahren
KR100777458B1 (ko) * 2002-04-16 2007-11-21 삼성전자주식회사 영상기록장치에 착탈 가능한 위치정보출력장치 및 이를구비한 영상기록장치
JP3949007B2 (ja) * 2002-05-30 2007-07-25 アルパイン株式会社 ナビゲーション装置
US7535492B2 (en) * 2002-07-02 2009-05-19 Lightsurf Technologies, Inc. Imaging system providing automated fulfillment of image photofinishing based on location
US20040004663A1 (en) * 2002-07-02 2004-01-08 Lightsurf Technologies, Inc. Imaging system providing automatic organization and processing of images based on location
JP2004053351A (ja) * 2002-07-18 2004-02-19 Fujitsu Ten Ltd ナビゲーション装置
DE10248534B4 (de) 2002-10-14 2013-04-11 T-Mobile Deutschland Gmbh Verfahren zur genauen Positionsbestimmung eines mobilen Endgerätes
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
WO2005124594A1 (en) 2004-06-16 2005-12-29 Koninklijke Philips Electronics, N.V. Automatic, real-time, superimposed labeling of points and objects of interest within a view

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001305210A (ja) 2000-04-25 2001-10-31 Matsushita Electric Works Ltd 位置検出装置
JP2003111128A (ja) * 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP2004077273A (ja) 2002-08-19 2004-03-11 Sony Corp 位置移動支援方法および位置移動支援システム
JP2004117094A (ja) 2002-09-25 2004-04-15 Nec Fielding Ltd 個人ナビゲーションシステム

Also Published As

Publication number Publication date
CN101010560B (zh) 2012-08-08
CN101010560A (zh) 2007-08-01
KR20070026673A (ko) 2007-03-08
JPWO2006001129A1 (ja) 2008-04-17
US20080019564A1 (en) 2008-01-24
EP1762822A4 (en) 2011-06-29
US7739033B2 (en) 2010-06-15
EP1762822A1 (en) 2007-03-14
WO2006001129A1 (ja) 2006-01-05

Similar Documents

Publication Publication Date Title
KR101174531B1 (ko) 정보 처리 장치 및 방법
US8538688B2 (en) User generated pedestrian and indoor shortcut routes for navigation systems
KR100897436B1 (ko) 지리정보 확인시스템의 제어방법 및 이동단말기
US20090105945A1 (en) Map display system and map display method
CN101896237A (zh) 动态游戏环境
CN103563404A (zh) 用于收集并提供地图图像的***和方法
CN103003847A (zh) 用于渲染基于位置的用户界面的方法和装置
CN108120436A (zh) 一种iBeacon辅助地磁室内实景导航方法
CN107484120A (zh) 基于第三方应用程序的智能导游方法、导游装置及设备
US11823231B2 (en) System and method for aerial media
US11825189B2 (en) Photography assistance for mobile devices
JP6757009B1 (ja) コンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システム
CN103688572A (zh) 用于移动装置的音频漫游、在移动装置之间的组信息服务器和定义具有移动装置的用户组的***和方法
US20170284821A1 (en) Route planning system and method
JPWO2010032282A1 (ja) サーバ装置、移動端末装置、交差点案内システム及び交差点案内方法
CN109982239A (zh) 基于机器视觉的商场楼层定位***及方法
CN107945353A (zh) 一种基于深度学习的自助导游***
JP2001005994A (ja) 画像処理装置および画像処理方法
CN110347842B (zh) 基于智能腕表的知识图谱导游***
KR102078286B1 (ko) 전자 지리정보를 활용한 자가촬영사진지원 카메라 시스템
KR20060022915A (ko) 휴대 단말기와 이동통신 시스템 및 이를 이용한 서비스제공방법
JP2004317715A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
KR20200004135A (ko) 증강현실 기반의 모델하우스 가상이미지 제공방법
CN114071003B (zh) 一种基于光通信装置的拍摄方法和***
EP4042360A1 (en) Aerial billboard

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee