KR101024165B1 - 위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법 - Google Patents

위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법 Download PDF

Info

Publication number
KR101024165B1
KR101024165B1 KR1020090092506A KR20090092506A KR101024165B1 KR 101024165 B1 KR101024165 B1 KR 101024165B1 KR 1020090092506 A KR1020090092506 A KR 1020090092506A KR 20090092506 A KR20090092506 A KR 20090092506A KR 101024165 B1 KR101024165 B1 KR 101024165B1
Authority
KR
South Korea
Prior art keywords
mobile communication
communication terminal
user
server
location information
Prior art date
Application number
KR1020090092506A
Other languages
English (en)
Inventor
홍광석
김정현
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020090092506A priority Critical patent/KR101024165B1/ko
Application granted granted Critical
Publication of KR101024165B1 publication Critical patent/KR101024165B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명에 따른 위치기반 콘텐츠 생성 및 제공 방법은, 이동통신단말기가 객체의 위치정보를 획득하는 단계와, 이동통신단말기가 객체의 영상을 획득하는 단계;와, 객체의 영상에 단일객체만이 포함된 경우에는 인식대상영역을 자동으로 추출하거나 인식대상영역을 사용자로부터 입력받아서 추출하고, 객체의 영상에 복수객체가 포함된 경우에는 인식대상영역을 사용자로부터 입력받아서 추출함으로써, 이동통신단말기가 객체의 영상에 대해 인식대상영역을 추출해서 인식대상영상을 획득하는 단계와, 이동통신단말기가 인식대상영상과 위치정보를 포함하는 메타데이터를 생성해서 서버로 전송하는 단계와, 서버가 메타데이터에 포함된 인식대상영상과 위치정보를 콘텐츠데이터베이스에 저장하는 단계와, 서버가 메타데이터에 포함된 인식대상영상에 대해 패턴인식기반의 영상인식 프로세스를 수행해서 인식결과를 산출하는 단계와, 서버가 인식결과를 기반으로 콘텐츠데이터베이스에서 객체의 정보를 검색해서 검색결과를 산출하는 단계와, 서버가 인식결과 및 검색결과를 이동통신단말기로 전송하는 단계와, 이동통신단말기가 인식결과 및 검색결과를 사용자에게 디스플레이하는 단계, 및 사용자가 상기 검색결과와 관련된 정보를 입력하는 경우에, 이동통신단말기가 상기 위치정보와 사용자의 입력정보를 서버로 전송하고, 서버가 상기 위치정보와 상기 사용자의 입력정보를 콘텐츠데이터베이스에 저장하는 단계를 포함한다.
위치기반 콘텐츠 생성, 위치기반 콘텐츠 제공, 영상 인식

Description

위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법{CONTENTS GENERATING AND PROVIDING METHOD USING IMAGE RECOGNITION BASED ON LOCATION}
본 발명은 콘텐츠를 생성하고 제공하는 방법에 관한 것으로서, 특히 위치기반 영상인식을 통해 콘텐츠를 생성하고 이렇게 생성된 콘텐츠를 위치기반으로 제공하는 방법에 관한 것이다.
영상으로부터 객체를 인식하는 기술은 영상 처리나 패턴인식, 컴퓨터 비전과 신경망 같은 다양한 분야에 걸쳐서 활발히 연구되고 있으며, 이와 관련된 많은 응용 분야가 있다. 최근에는, PDA나 휴대폰 등과 같은 이동통신단말기(휴대용 정보 단말기라고도 함)에 내장된 카메라 장치를 이용하여 영상을 획득할 수 있을 뿐만 아니라, 이동통신단말기의 사용이 증대됨에 따라 사용자의 편의를 위해 이동통신단말기를 이용한 객체 인식에 대한 요구가 증대되고 있는 실정이다. 예컨대, 관광지 또는 일상생활 등에서 사용자가 소지한 이동통신단말기를 이용하여 언제 어디서나 꽃, 곤충, 동식물 등 궁금해 하는 객체에 대한 정보를 검색하고자 하는 요구가 증가하고 있다.
하지만, 꽃, 곤충 등을 포함하는 특정 객체 정보를 모바일 환경에서 인식하 고 재현하는 기술 개발은 아직 이루어지지 않고 있는 실정이고, 인지된 해당 객체 정보를 다수의 사용자가 함께 공유하여 이를 지식 기반 콘텐츠로 발전시키고자 하는 집단 지능화 기술에 대한 연구는 그 사례를 찾아볼 수 없다.
또한, 종래기술에서는 단일객체만이 포함된 영상에 대하여 객체영역을 선택 후 이를 인지하였고, 복수객체(다중객체라고도 함)가 포함된 영상에 대해서는 해당 객체영역에 대한 자동 검출이 쉽게 이루어지지 않는 문제로 인해 연구의 진행 정도가 미미하거나 쉽게 찾아볼 수 없었다. 복수객체의 대표적인 예로는 군집해 있는 개미들 또는 유채꽃들 등을 들 수 있다. 이들 객체를 사진으로 촬영한다면 상당한 근접/밀접 촬영이 이루어져야 단일객체를 획득할 수 있기 때문에, 종래기술로 이들 객체를 이동통신단말기로 인식하기는 어려웠다.
본 발명은 꽃, 곤충, 동·식물 등을 포함하는 객체 영상에 대하여 이를 인식하고 해당 객체 정보를 위치 정보와 더불어 디지털 콘텐츠로 가공하여 다수 사용자에 의해 공유 및 협업이 가능하도록 하는 위치기반 객체 영상의 인식과 이를 활용한 콘텐츠의 생성 및 제공 방법을 제시하는 것을 목적으로 한다.
이러한 목적은 본 발명에 의해서 달성되는데, 본 발명에 따른 위치기반 콘텐츠 생성 및 제공 방법은, 이동통신단말기가 객체의 위치정보를 획득하는 단계;와, 이동통신단말기가 객체의 영상을 획득하는 단계;와, 상기 객체의 영상에 단일객체만이 포함된 경우에는 인식대상영역을 자동으로 추출하거나 인식대상영역을 사용자로부터 입력받아서 추출하고, 상기 객체의 영상에 복수객체가 포함된 경우에는 인식대상영역을 사용자로부터 입력받아서 추출함으로써, 이동통신단말기가 상기 객체의 영상에 대해 인식대상영역을 추출해서 인식대상영상을 획득하는 단계;와, 이동통신단말기가 상기 인식대상영상과 상기 위치정보를 포함하는 메타데이터를 생성해서 서버로 전송하는 단계;와, 서버가 상기 메타데이터에 포함된 상기 인식대상영상과 상기 위치정보를 콘텐츠데이터베이스에 저장하는 단계;와, 서버가 상기 메타데이터에 포함된 상기 인식대상영상에 대해 패턴인식기반의 영상인식 프로세스를 수행해서 인식결과를 산출하는 단계;와, 서버가 상기 인식결과를 기반으로 콘텐츠데이터베이스에서 객체의 정보를 검색해서 검색결과를 산출하는 단계;와, 서버가 상 기 인식결과 및 상기 검색결과를 이동통신단말기로 전송하는 단계;와, 이동통신단말기가 상기 인식결과 및 상기 검색결과를 사용자에게 디스플레이하는 단계; 및 사용자가 상기 검색결과와 관련된 정보를 입력하는 경우에, 이동통신단말기가 상기 위치정보와 사용자의 입력정보를 서버로 전송하고, 서버가 상기 위치정보와 상기 사용자의 입력정보를 콘텐츠데이터베이스에 저장하는 단계;를 포함한다.
또한, 본 발명에 따른 위치기반 콘텐츠 생성 및 제공 방법은, 이동통신단말기가 이동통신단말기의 현재 위치정보를 획득하는 단계;와, 이동통신단말기가 상기 위치정보를 서버로 전송하는 단계;와, 서버가 상기 위치정보를 이용하여 위성지도 API와 거리지도 API를 매쉬업(Mashup)하여 혼합형 디지털지도를 생성하는 단계;와, 서버가 상기 위치정보를 근거로 상기 혼합형 디지털지도상에 이동통신단말기의 현재 위치를 매핑시키고, 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 이동통신단말기로 전송하는 단계;와, 이동통신단말기가 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 사용자에게 디스플레이하는 단계;와, 이동통신단말기가 사용자의 검색어 입력이 있는지 여부를 확인해서 사용자의 검색어 입력이 없는 경우에 사용자의 검색어 입력이 없음을 알리는 정보와 함께 상기 위치정보를 서버로 전송하는 단계;와, 서버가 사용자의 검색어 입력이 없음을 알리는 정보와 함께 전송받은 상기 위치정보를 이용하여 이동통신단말기에 디스플레이된 혼합형 디지털지도의 범위 내에 존재하는 모든 콘텐츠를 콘텐츠데이터베이스에서 검색해서 검색결과를 산출하고 상기 검색결과를 이동통신단말기로 전송하는 단계;와, 이동통신단말기가 상기 혼합형 디지털지도상에 상기 검색결과를 디스플레 이하는 단계; 및 이동통신단말기에서 사용자가 상기 검색결과와 관련된 정보를 입력하는 경우에, 이동통신단말기가 상기 사용자의 입력정보를 상기 위치정보와 함께 서버로 전송하고, 서버가 상기 사용자의 입력정보와 상기 위치정보를 콘텐츠데이터베이스에 저장하는 단계;를 포함한다.
또한, 본 발명에 따른 위치기반 콘텐츠 생성 및 제공 방법은, 이동통신단말기가 이동통신단말기의 현재 위치정보를 획득하는 단계;와, 이동통신단말기가 상기 위치정보를 서버로 전송하는 단계;와, 서버가 상기 위치정보를 이용하여 위성지도 API와 거리지도 API를 매쉬업(Mashup)하여 혼합형 디지털지도를 생성하는 단계;와, 서버가 상기 위치정보를 근거로 상기 혼합형 디지털지도상에 이동통신단말기의 현재 위치를 매핑시키고, 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 이동통신단말기로 전송하는 단계;와, 이동통신단말기가 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 사용자에게 디스플레이하는 단계;와, 이동통신단말기가 사용자의 검색어 입력이 있는지 여부를 확인해서 사용자의 검색어 입력이 있는 경우에 이동통신단말기가 사용자의 검색어와 함께 상기 위치정보를 서버로 전송하는 단계;와, 서버가 상기 검색어와 상기 위치정보를 이용하여 제1 검색을 수행해서 제1 검색결과를 산출하고 상기 제1 검색결과를 이동통신단말기로 전송하는 단계;와, 이동통신단말기가 상기 제1 검색결과를 디스플레이하고 제1 검색결과 중 사용자가 선택한 항목을 서버로 전송하는 단계;와, 서버가 상기 선택된 항목을 이용하여 제2 검색을 수행해서 제2 검색결과를 산출하고 상기 제2 검색결과를 이동통신단말기로 전송하는 단계;와, 이동통신단말기가 상기 혼합형 디지 털지도상에 상기 제2 검색결과를 디스플레이하는 단계;와, 이동통신단말기에서 사용자가 상기 제2 검색결과와 관련된 정보를 입력하는 경우에, 이동통신단말기가 상기 사용자가 입력한 정보를 상기 위치정보와 함께 서버로 전송하고, 서버가 상기 사용자가 입력한 정보와 상기 위치정보를 콘텐츠데이터베이스에 저장하는 단계;를 포함하고, 상기 이동통신단말기가 사용자의 검색어 입력이 있는지 여부를 확인해서 사용자의 검색어 입력이 있는 경우에 이동통신단말기가 사용자의 검색어와 함께 상기 위치정보를 서버로 전송하는 단계에서, 사용자의 검색어 입력형태는 텍스트 또는 음성이 될 수 있으며, 사용자의 검색어 입력형태가 음성인 경우에는 이동통신단말기에서 음성인식을 하여 텍스트로 변환하는 과정을 더 포함한다.
본 발명에 따르면, 이동통신단말기의 사용자는 소지한 이동통신단말기를 이용해서 관광지 또는 일상생활 등에서 궁금해 하는 해당 객체에 대한 정보를 서버에 요청할 수 있고, 서버는 사용자의 요청에 응하여 위치기반 콘텐츠를 사용자에게 제공할 수 있다.
본 발명에 따르면, 음성, 문자 그리고 영상의 획득과 획득된 디지털 콘텐츠간의 합성 및 융합 프로세스는 이동통신단말기와 분산컴퓨팅 기반의 서버에서 개별적으로 처리될 수 있기 때문에, 고성능의 휴대용 정보 단말기가 필요 없을 뿐만 아니라 별도의 합성 및 처리 프로그램을 다운받아 실행할 필요가 없고, 기본 영상 및 부분 영상 데이터, 캐릭터, 아바타, 애니메이션 또는 실사사진 등도 상기 서버에 저장이 가능하기 때문에, 이동통신단말기의 저장소와 메모리 교환 및 할당 등의 제 약 사항들을 크게 감소시켜 줄 수 있다.
또한, 본 발명에 따르면, 복수객체가 포함되어 있는 영상이라 할지라도, 사용자가 인식대상영역을 집접 드로잉(drawing)하여 관심 객체 영역을 용이하게 획득할 수 있으므로, 복수객체를 포함하고 있는 영상을 인식하는 것도 가능하다.
또한, 본 발명에 따르면, 위성지도 API(Application Programming Interface)와 거리지도 API를 이용해서 혼합형 디지털지도를 생성하기 때문에, 국내의 지명 정보에 대한 정보가 상대적으로 부족한 해외 포탈 위성지도 API의 단점을 국내 포털에서 제공하고 있는 상세한 거리지도 API를 연동하여 보완함으로써, 보다 정밀도 높은 위치기반 콘텐츠를 생성할 수 있고 제공할 수 있다.
일반적으로, 본 명세서에서 사용자라고 함은 이동통신단말기의 사용자를 가리킨다. 본 명세서에서 서버라고 함은 이동통신단말기(이하, 단말기라고도 함)와 상호 데이터를 주고 받을 수 있으며, 패턴인식기반의 영상인식을 수행할 수 있으며, 콘텐츠데이터베이스를 포함하고 있거나 콘텐츠데이터베이스와 연동하여 동작할 수 있는 서버를 의미하며, 이 서버에서 수행되는 영상인식기능 또는 콘텐츠데이터베이스와 연동하여 이루어지는 데이터 검색 및 데이터 저장기능 등은 분산 컴퓨팅 하에서 수행될 수 있으며 이러한 경우에 각각의 기능은 물리적으로 두 군데 이상의 장치에서 수행될 수 있다. 본 명세서에서 콘텐츠데이터베이스라고 함은 위치기반 객체 정보, 즉 객체와 관련된 콘텐츠를 저장하고 관리하기 위한 일군의 데이터베이스의 총체로서 영상데이터베이스, 위치데이터베이스, 지명정보데이터베이스, 객체 정보데이터베이스 등을 포함한다.
도 1은 본 발명의 실시예에 따른 위치기반 콘텐츠 생성 및 제공 방법(100)을 설명하기 위한 흐름도를 도시한다.
우선, 이동통신단말기는 객체의 위치정보를 획득하고(블록 101), 객체의 영상을 획득한다(블록 103). 객체의 위치정보를 획득하는 것과 객체의 영상을 획득하는 순서는 바뀌어도 무방하다. 사용자는 이동통신단말기에 부착된 디지탈카메라 등을 이용해서 꽃, 곤충, 동·식물 등을 포함하는 객체의 영상을 촬영하게 되는데, 이때, 이동통신단말기에 내장 또는 부착이 가능한 GPS 수신기를 이용하여 해당 객체의 위치정보를 획득한다.
이렇게 획득된 객체의 영상에 대한 인식률을 높이기 위해, 이동통신단말기가 상기 객체의 영상에 대해 인식대상영역을 획득하는 단계(블록 105)를 거친다. 획득된 객체 영상에 대하여 사용자가 관심 있어 하는 객체의 인식대상영역을 선택하는 단계로서 다음의 2가지 경우를 고려하여 진행된다. 상기 객체의 영상에 단일객체만이 포함된 경우(도 2 참조)에는 인식대상영역을 자동으로 추출하거나 인식대상영역을 사용자로부터 입력받아서 추출하고, 상기 객체의 영상에 복수객체가 포함된 경우(도 3 참조)에는 인식대상영역을 사용자로부터 입력받아서 추출한다. 인식대상영역을 추출하기 위한 사용자의 입력방법은 드로잉(drawing)이 이용된다. 다시 말해, 사용자는 관심 있어 하는 객체 영역을 모바일 터치패드 상에서 직접 그림 그리듯 윤곽선을 드로잉(drawing)함으로써, 인식대상영역을 입력할 수 있다. 이렇게 추출된 인식대상영역은 이동통신단말기에서 인식대상영상으로 저장된다.
이동통신단말기는 상기 인식대상영상과 상기 위치정보를 포함하는 메타데이터를 생성해서 서버로 전송하고(블록 107), 이를 수신한 서버는 상기 메타데이터에 포함된 상기 객체의 영상과 상기 위치정보를 콘텐츠데이터베이스에 저장한다(블록 109). 다시 말해, 이동통신단말기는 상기 인식대상영상을 위치정보와 함께 메타데이터로 캡슐화하고, 이 메타데이터는 와이브로(WiBro) 및 W-CDMA 등을 기반으로 하는 무선 인터넷 또는 이동통신망 등을 통해 서버로 전송되어 콘텐츠데이터베이스에 저장된다. 본 발명의 실시예에 따라서는, 메타데이터 내의 객체의 영상은 영상데이터베이스에, 위치정보는 위치데이터베이스에 저장될 수 있다. 메타데이터의 구조에 대한 일 실시예를 도 4에서 도시하였다.
서버는 상기 메타데이터에 포함된 인식대상영상에 대해 패턴인식기반의 영상인식 프로세스를 수행해서 인식결과를 산출하는데(블록 111), 상기 인식대상영상에 대해서, 이미 구축되어 있는 레퍼런스 객체 모델 등을 이용하여 차영상 엔트로피, HMM(Hidden Markov Model), K-NN, 신경망 알고리즘 등을 이용한 패턴 인식 기반의 영상인식 프로세스를 수행해서 해당 객체를 인식한다.
이후에, 서버는 상기 인식결과를 기반으로 콘텐츠데이터베이스에서 객체의 정보를 검색해서 검색결과를 산출하고(블록 113), 상기 인식결과 및 상기 검색결과를 이동통신단말기로 전송하면(블록 115), 이동통신단말기가 상기 인식결과 및 상기 검색결과를 사용자에게 디스플레이하게 된다(블록 117).
사용자는 단말기로 전송되어 디스플레이된 상기 인식결과 및 상기 검색결과를 판단할 수 있고, 만약 관련 객체에 대한 세부 정보가 없거나 부족하여 관련 객 체에 대한 정보를 추가하고자 하는 경우에, 사용자가 직접 상기 객체와 관련된 새로운 정보 또는 콘텐츠를 등록할 수 있다. 이는, 이동통신단말기에서 사용자가 상기 객체와 관련된 정보를 입력하였는지 여부를 판단해서(블록 119), 사용자가 관련 정보를 입력하면 이동통신단말기가 상기 위치정보와 사용자의 입력정보를 서버로 전송하고(블록 121), 서버가 상기 위치정보와 상기 사용자의 입력정보를 콘텐츠데이터베이스에 저장함으로써(블록 123) 구현될 수 있다.
서버는 콘텐츠를 저장 또는 등록하는 과정에서 해당 객체의 정보를 객체와 관련된 음성 또는 영상, 동영상 클립, 텍스트 등의 다양한 미디어 요소들을 선별적으로 선택하거나 미디어간의 융합을 통해 음성과 텍스트 기반의 메시지 효과, 또는 영상과 배경 음악의 믹싱 효과 등과 같은 사용자 중심의 다양한 미디어 효과를 이용해서 위치기반 디지털 콘텐츠를 생성한 후 콘텐츠데이터베이스에 기록할 수 있다.
도 5는 본 발명의 다른 실시예에 따른 위치기반 콘텐츠 생성 및 제공 방법(500)을 설명하기 위한 흐름도를 도시한다.
우선, 이동통신단말기가 이동통신단말기의 현재 위치정보를 획득하고(블록 501), 상기 위치정보를 서버로 전송한다(블록 503). 상세하게는, 단말기는 사용자에 대한 현재 위치정보의 획득과 실시간 위치 탐지를 위하여, 개별 휴대형 정보단말기에 내장 또는 부착된 GPS를 이용하여 위치정보를 획득할 수 있다. 획득된 위치정보는 무선랜 또는 와이브로 기반의 전송 모듈을 통해 서버로 전송되고, 위치데이터베이스에 저장될 수 있다. GPS수신기에서 획득되어진 위도/경도 정보는 실시간 전송 및 저장이 가능하며, 예컨대, 데이터의 중복 수신을 방지하기 위하여 이동환경에서 URI GET 방식으로 30초당 1회의 전송 및 저장을 하도록 시스템을 설정할 수 있다. 다만, 이러한 설정은 구체적인 실시에 있어서 시스템의 성능에 따라 변경이 가능하다.
상기 위치정보를 수신한 서버는 상기 위치정보를 이용하여 위성지도 API와 거리지도 API를 매쉬업(Mashup)하여 혼합형 디지털지도를 생성하고(블럭 505), 상기 위치정보를 근거로 상기 혼합형 디지털지도상에 이동통신단말기의 현재 위치를 매핑시켜, 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 이동통신단말기로 전송하고(블럭 507), 이동통신단말기는 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 사용자에게 디스플레이한다(블럭 509). 예컨대, 서버는 서버로 전송된 위치정보를 이용하여 구글(Google) 맵스 API(위성지도)와 야후(Yahoo) 맵스 API(거리지도)를 매쉬업하여 혼합형 디지털지도를 생성할 수 있다. 이렇게 생성된 혼합형 디지털지도 상에 현재 위치를 매핑하여 이동통신단말기로 전송하고, 이동통신단말기는 이동통신단말기의 디스플레이의 사이즈에 맞게 구역화하여 모바일 웹 브라우저 기반의 지도형태로 해서 상기 현재 위치가 매핑된 혼합형 디지털지도를 디스플레이한다.
이후에, 사용자가 검색어를 입력하였는지 여부를 확인해서(블럭 511), 사용자의 검색어 입력이 없는 경우에는, 사용자의 검색어 입력이 없음을 알리는 정보와 함께 상기 위치정보를 서버로 전송한다(블럭 513). 이후에, 서버는 사용자의 검색어 입력이 없음을 알리는 정보와 함께 전송받은 상기 위치정보를 이용하여 이동통 신단말기에 디스플레이된 혼합형 디지털지도의 범위 내에 존재하는 모든 콘텐츠를 콘텐츠데이터베이스에서 검색해서 검색결과를 산출한 후 상기 검색결과를 이동통신단말기로 전송하고(블럭 515), 이동통신단말기는 상기 혼합형 디지털지도상에 상기 검색결과를 디스플레이한다(블럭 517). 도 6은 본 발명의 다른 실시예에 따라서 혼합형 디지털지도상에서 검색결과에 따른 콘텐츠가 디스플레이된 이동통신단말기의 화면을 도시하고, 도 7은 사용자가 검색결과에 따른 콘텐츠의 상세정보를 조회한 화면을 도시한다.
이후에, 사용자는 상기 검색결과에 따른 콘텐츠와 관련된 정보를 추가하거나 갱신할 수 있다. 이러한 기능은, 이동통신단말기에서 사용자가 상기 검색결과와 관련된 정보를 입력하였는지 판단해서(블럭 529), 사용자가 상기 검색결과와 관련된 정보를 입력한 경우에는 이동통신단말기가 상기 사용자의 입력정보를 상기 위치정보와 함께 서버로 전송하고(블럭 531), 이후에 서버가 상기 사용자의 입력정보와 상기 위치정보를 콘텐츠데이터베이스에 저장함으로써(블럭 533) 수행된다. 도 8은 사용자가 검색결과에 따른 콘텐츠와 관련된 정보를 갱신하는 화면을 도시한다.
블럭(511)에서 사용자가 검색어를 입력하였는지 여부를 확인한 결과, 사용자의 검색어 입력이 있는 경우에는, 이동통신단말기가 사용자의 검색어와 함께 상기 위치정보를 서버로 전송한다(블럭 519). 이후에, 서버는 상기 검색어와 상기 위치정보를 이용하여 제1 검색을 수행해서 제1 검색결과를 산출한 후 상기 제1 검색결과를 이동통신단말기로 전송하고(블럭 521), 이동통신단말기는 상기 제1 검색결과를 디스플레이하고 사용자로부터 제1 검색결과의 항목들 중 하나의 항목을 선택받 아서 사용자에 의해 선택된 항목을 서버로 전송한다(블럭 523). 이후에, 서버는 상기 선택된 항목을 이용하여 제2 검색을 수행해서 제2 검색결과를 산출하고 상기 제2 검색결과를 이동통신단말기로 전송하고(블럭 525), 이동통신단말기는 상기 혼합형 디지털지도상에 상기 제2 검색결과를 디스플레이한다(블럭 527).
본 발명에 따른 위치기반 콘텐츠의 제공을 위한 검색 기술에서는 키워드기반 검색모듈 및 온톨로지를 이용한 의미기반 검색모듈 등을 개별적으로 구현하고 두 모듈간의 통합 아키텍처를 제시함으로써 검색 성능의 효율성을 높이고자 하였다. 도 9는 본 발명에 따른 제1 검색 및 제2 검색에서 수행되는 검색어 처리과정을 도시한다. 예컨대, 현재의 사용자 위치를 야후 맵스 API에서 제공하는 리버스 지오코딩에 의해 현재 GPS로부터 수신되는 위치 정보(위도/경도)로부터 현재의 위치명을 획득하고 이를 의미기반 검색모듈의 쿼리문으로 자동 변환/입력하여 의미기반 검색(제1 검색)을 수행한다. 도 9의 (A)에서 'chunchun-dong'(천천동)에 해당되는 지명정보는 리버스 지오코딩에 의해 획득된 정보이며 'school'은 사용자가 입력한 검색어이다. 제1 검색에 의한 검색결과(도 9의 (B) 참조)는 해당 모바일 멀티미디어 콘텐츠의 제목과 사용자 어노테이션의 형태로 그리드 뷰에 출력되고, 제시된 검색결과중 사용자가 원하는 검색결과의 제목을 선택하는 경우에 선택된 제목은 다시 키워드기반 검색모듈의 검색어로 자동 입력(도 9의 (C) 참조)되어, 해당 키워드와 연관된 위치기반 객체 콘텐츠에 대한 키워드기반 검색(제2 검색)을 수행한다. 도 9의 (D)는 상기 혼합형 디지털지도상에 상기 제2 검색에 의한 검색결과가 디스플레이된 이동통신단말기의 화면이다.
키워드기반 검색모듈은 사용자가 생성한 주석의 내용에서 키워드들을 추출하여 색인 테이블을 생성하고, 사용자가 검색어를 입력하면 이 검색어에 포함된 키워드들을 추출하여 미리 생성되어진 색인 테이블에 포함되어 있는지 확인하여 원하는 정보를 검색한다. 키워드기반 검색을 수행하기 위해서는 검색을 수행하기 이전에 색인 작업을 통해 색인 테이블을 생성하여야 한다. 색인 작업은 데이터를 텍스트로 변환하고 변환한 텍스트를 분석한 후, 분석한 것을 색인에 추가하는 과정으로 이뤄진다. 제안된 시스템에서 색인하고자 하는 주석은 이미 텍스트이기 때문에 별도의 변환 과정은 필요치 않다. 또한 색인에 추가하려면 먼저 추가하고자 하는 주석을 기계적으로 처리할 수 있는 형태인 토큰(Token)으로 분해해야 한다. 분해된 토큰은 특정 분석기(Analyzer)를 통해 분석 과정을 거치는데 텍스트 자체를 직접 조작하기 때문에 검색결과의 품질을 좌우할 수 있는 중요한 과정이다. 본 발명에서 구현한 한글 분석기는 국립국어원에서 공개한 ‘현대 국어 사용 빈도 조사 결과’의 어미 목록을 갖고 있고, 한글 문자열에 들어 있는 각 단어의 뒷부분을 확인한 후, 어미 부분을 제거하는 역할을 한다.
의미기반 검색모듈은 크게 4단계의 처리과정을 가진다. 우선 사용자가 입력한 검색어를 온톨로지 자원(Resource)과 매핑시켜 1)단어 매핑(Term Mapping)을 수행하고, 매핑된 단어 간의 관계(Relation)를 통해 2)검색 그래프(Query Graph)를 생성한다. 마지막으로 생성된 검색 그래프를 통해 3)SPARQL 검색어를 생성하여 온톨로지에서 지식 정보를 검색하고, 4)검색된 결과를 XML 문서로 생성한다. 단어 매핑은 사용자가 입력한 검색어를 온톨로지의 자원과 연결하는 과정이다. 검색어는 키워드 검색모듈의 색인 과정과 동일한 방식으로 공백을 기준으로 토큰으로 분해된 후 한글 분석기를 통해 분석 과정을 거친다. 분석 과정을 거친 각 키워드는 온톨로지 자원인 클래스(class) 및 인스턴스(instance)의 이름(name) 및 라벨(label)과 비교하여 동일할 경우에 매핑시킨다. 매핑된 온톨로지 자원은 최소 스패닝 트리(Minimum Spanning Tree) 알고리즘을 적용해 가능한 모든 검색 그래프를 생성한다. 생성된 검색 그래프들 사이의 관계를 확인하여 검색 그래프를 확장하는데 이 때 온톨로지의 스키마 정보를 이용한다. 스키마 정보는 클래스들 간의 관계를 선언해 두었기 때문에 사용자가 입력한 검색어의 키워드가 인스턴스일 때는 그 인스턴스가 속해 있는 클래스 및 상위 클래스를, 클래스일 때는 그 클래스 및 상위 클래스를 통해 각 키워드 간의 관계를 파악할 수 있게 된다. 관계가 확인되면 이 둘을 연결함으로써 검색 그래프를 확장한다.
이러한 검색과정을 통해 산출된 제2 검색결과를 이동통신단말기가 사용자에게 디스플레이한 이후에, 상술한 바와 같이, 이동통신단말기에서 사용자가 상기 검색결과와 관련된 정보를 입력하였는지 판단해서(블럭 529), 사용자가 상기 제2 검색결과와 관련된 정보를 입력한 경우에는 이동통신단말기가 상기 사용자의 입력정보를 상기 위치정보와 함께 서버로 전송하고(블록 531), 서버가 상기 사용자의 입력정보와 상기 위치정보를 콘텐츠데이터베이스에 저장한다(블록 533).
이와 같이, 사용자의 현재 위치 및 검색결과를 기준으로 사용자가 지정한 해당 범위내의 객체 정보를 포함하는 디지털 콘텐츠를 혼합형 디지털 지도상에서 제시하여, 사용자가 관련 정보 또는 내용을 확인하고 새로운 정보의 추가 입력이 필 요하다고 판단되면 새로운 정보를 등록함으로써 콘텐츠데이터베이스에 기록된 해당 객체에 대한 정보가 업데이트된다. 업데이트된 위치기반 콘텐츠는 추후에 다른 사용자의 혼합형 디지털지도상에서 표시되고 다시 업데이트될 수 있다. 이와 같이, 본 발명에 따르면 다수의 사용자에 의해 지속적으로 객체에 대한 정보를 갱신할 수 있고, 갱신된 정보가 다수의 사용자에게 공유될 수 있다.
도 10은 사용자가 검색어를 음성으로 입력한 경우에 위치기반 콘텐츠를 검색해서 제공하는 방법의 일 실시예를 도시한다. 사용자가 검색어를 음성으로 입력한 경우에는 이동통신단말기에 내장된 음성 인식기를 이용하여 사용자의 음성을 인식하여 텍스트로 변환할 수 있고, 이 텍스트를 이용하여 콘텐츠데이터베이스를 검색할 수 있다. 도 5를 참조하여 설명하면, 사용자의 검색어 입력형태는 텍스트 또는 음성이 될 수 있으며, 이동통신단말기가 사용자의 검색어 입력이 있는지 여부를 확인(블럭 511)해서 사용자의 검색어 입력이 있는 경우에, 이동통신단말기가 사용자의 검색어와 함께 상기 위치정보를 서버로 전송하는 단계(블럭 519)에서는 사용자의 검색어 입력형태가 음성인 경우에 이동통신단말기에서 음성인식을 하여 텍스트로 변환하는 과정을 더 포함할 수 있다. 이렇게 변환된 텍스트는, 사용자가 처음부터 검색어를 텍스트로 입력한 경우와 마찬가지로, 사용자의 검색어로서 서버에 전송된다.
본 명세서에 사용된 용어는 단지 구체적인 실시예를 서술하기 위한 목적이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서 단수형태는, 문맥이 분명하게 복수가 아님을 가리키지 않는다면, 복수형태 또한 포함하는 것으로 의도 된다.
상술한 내용 및 그 등가물들은 다양한 형태로 구현될 수 있다는 것이 상기 설명으로부터 이해될 것이다. 그러므로, 본 발명에 대한 설명이 특정 실시예와 관련하여 서술되었지만, 본 발명의 진정한 범위는 이하의 청구항들 및 당업자들에게 그 자체로 연상될 수 있는 임의의 등가물들을 포함하며, 본 명세서에서 서술된 특정 실시예에 의하여 한정되는 것은 아니다.
도 1은 본 발명의 실시예에 따른 위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법을 설명하기 위한 흐름도를 도시한다.
도 2는 본 발명의 실시예에 따른 이동통신단말기에서 획득된 객체의 영상에 단일객체만이 포함된 경우에 사용자의 드로잉에 의해서 인식대상영역이 추출된 것을 도시한다.
도 3은 본 발명의 실시예에 따른 이동통신단말기에서 획득된 객체의 영상에 복수객체가 포함된 경우에 사용자의 드로잉에 의해서 인식대상영역이 추출된 것을 도시한다.
도 4는 본 발명의 실시예에 따른 메타데이터 구조를 도시한다.
도 5는 본 발명의 다른 실시예에 따른 위치기반 콘텐츠 생성 및 제공 방법(500)을 설명하기 위한 흐름도를 도시한다.
도 6은 본 발명의 다른 실시예에 따라서, 혼합형 디지털지도상에 검색결과에 의한 콘텐츠가 디스플레이된 이동통신단말기의 화면을 도시한다.
도 7은 본 발명의 다른 실시예에 따라서, 검색결과에 의한 콘텐츠의 상세정보를 사용자가 조회한 화면을 도시한다.
도 8은 본 발명의 다른 실시예에 따라서, 검색결과에 의한 콘텐츠와 관련된 정보를 사용자가 갱신하는 화면을 도시한다.
도 9는 본 발명의 다른 실시예에 따른 제1 검색 및 제2 검색에서 수행되는 검색어 처리과정을 도시한다.
도 10은 본 발명의 다른 실시예에 따라서, 사용자가 검색어를 음성으로 입력한 경우에 위치기반 콘텐츠를 검색해서 제공하는 방법의 일 실시예를 도시한다.

Claims (3)

  1. 이동통신단말기가 객체의 위치정보를 획득하는 단계;와,
    이동통신단말기가 객체의 영상을 획득하는 단계;와,
    상기 객체의 영상에 단일객체만이 포함된 경우에는 인식대상영역을 자동으로 추출하거나 인식대상영역을 사용자로부터 입력받아서 추출하고, 상기 객체의 영상에 복수객체가 포함된 경우에는 인식대상영역을 사용자로부터 입력받아서 추출함으로써, 이동통신단말기가 상기 객체의 영상에 대해 인식대상영역을 추출해서 인식대상영상을 획득하는 단계;와,
    이동통신단말기가 상기 인식대상영상과 상기 위치정보를 포함하는 메타데이터를 생성해서 서버로 전송하는 단계;와,
    서버가 상기 메타데이터에 포함된 상기 인식대상영상과 상기 위치정보를 콘텐츠데이터베이스에 저장하는 단계;와,
    서버가 상기 메타데이터에 포함된 상기 인식대상영상에 대해 패턴인식기반의 영상인식 프로세스를 수행해서 인식결과를 산출하는 단계;와,
    서버가 상기 인식결과를 기반으로 콘텐츠데이터베이스에서 객체의 정보를 검색해서 검색결과를 산출하는 단계;와,
    서버가 상기 인식결과 및 상기 검색결과를 이동통신단말기로 전송하는 단계;와,
    이동통신단말기가 상기 인식결과 및 상기 검색결과를 사용자에게 디스플레이 하는 단계; 및
    사용자가 상기 검색결과와 관련된 정보를 입력하는 경우에, 이동통신단말기가 상기 위치정보와 사용자의 입력정보를 서버로 전송하고, 서버가 상기 위치정보와 상기 사용자의 입력정보를 콘텐츠데이터베이스에 저장하는 단계;를 포함하는, 위치기반 콘텐츠 생성 및 제공 방법.
  2. 이동통신단말기가 이동통신단말기의 현재 위치정보를 획득하는 단계;와,
    이동통신단말기가 상기 위치정보를 서버로 전송하는 단계;와,
    서버가 상기 위치정보를 이용하여 위성지도 API와 거리지도 API를 매쉬업(Mashup)하여 혼합형 디지털지도를 생성하는 단계;와,
    서버가 상기 위치정보를 근거로 상기 혼합형 디지털지도상에 이동통신단말기의 현재 위치를 매핑시키고, 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 이동통신단말기로 전송하는 단계;와,
    이동통신단말기가 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 사용자에게 디스플레이하는 단계;와,
    이동통신단말기가 사용자의 검색어 입력이 있는지 여부를 확인해서 사용자의 검색어 입력이 없는 경우에 사용자의 검색어 입력이 없음을 알리는 정보와 함께 상기 위치정보를 서버로 전송하는 단계;와,
    서버가 사용자의 검색어 입력이 없음을 알리는 정보와 함께 전송받은 상기 위치정보를 이용하여 이동통신단말기에 디스플레이된 혼합형 디지털지도의 범위 내에 존재하는 모든 콘텐츠를 콘텐츠데이터베이스에서 검색해서 검색결과를 산출하고 상기 검색결과를 이동통신단말기로 전송하는 단계;와,
    이동통신단말기가 상기 혼합형 디지털지도상에 상기 검색결과를 디스플레이하는 단계; 및
    이동통신단말기에서 사용자가 상기 검색결과와 관련된 정보를 입력하는 경우에, 이동통신단말기가 상기 사용자의 입력정보를 상기 위치정보와 함께 서버로 전송하고, 서버가 상기 사용자의 입력정보와 상기 위치정보를 콘텐츠데이터베이스에 저장하는 단계;를 포함하는, 위치기반 콘텐츠 생성 및 제공 방법.
  3. 이동통신단말기가 이동통신단말기의 현재 위치정보를 획득하는 단계;와,
    이동통신단말기가 상기 위치정보를 서버로 전송하는 단계;와,
    서버가 상기 위치정보를 이용하여 위성지도 API와 거리지도 API를 매쉬업(Mashup)하여 혼합형 디지털지도를 생성하는 단계;와,
    서버가 상기 위치정보를 근거로 상기 혼합형 디지털지도상에 이동통신단말기의 현재 위치를 매핑시키고, 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 이동통신단말기로 전송하는 단계;와,
    이동통신단말기가 상기 이동통신단말기의 현재 위치가 매핑된 혼합형 디지털지도를 사용자에게 디스플레이하는 단계;와,
    이동통신단말기가 사용자의 검색어 입력이 있는지 여부를 확인해서 사용자의 검색어 입력이 있는 경우에 이동통신단말기가 사용자의 검색어와 함께 상기 위치정보를 서버로 전송하는 단계;와,
    서버가 상기 검색어와 상기 위치정보를 이용하여 제1 검색을 수행해서 제1 검색결과를 산출하고 상기 제1 검색결과를 이동통신단말기로 전송하는 단계;와,
    이동통신단말기가 상기 제1 검색결과를 디스플레이하고 제1 검색결과 중 사용자가 선택한 항목을 서버로 전송하는 단계;와,
    서버가 상기 선택된 항목을 이용하여 제2 검색을 수행해서 제2 검색결과를 산출하고 상기 제2 검색결과를 이동통신단말기로 전송하는 단계;와,
    이동통신단말기가 상기 혼합형 디지털지도상에 상기 제2 검색결과를 디스플레이하는 단계; 및
    이동통신단말기에서 사용자가 상기 제2 검색결과와 관련된 정보를 입력하는 경우에, 이동통신단말기가 상기 사용자가 입력한 정보를 상기 위치정보와 함께 서버로 전송하고, 서버가 상기 사용자가 입력한 정보와 상기 위치정보를 콘텐츠데이터베이스에 저장하는 단계;를 포함하고,
    상기 이동통신단말기가 사용자의 검색어 입력이 있는지 여부를 확인해서 사용자의 검색어 입력이 있는 경우에 이동통신단말기가 사용자의 검색어와 함께 상기 위치정보를 서버로 전송하는 단계에서, 사용자의 검색어 입력형태는 텍스트 또는 음성이 될 수 있으며, 사용자의 검색어 입력형태가 음성인 경우에는 이동통신단말기에서 음성인식을 하여 텍스트로 변환하는 과정을 더 포함하는, 위치기반 콘텐츠 제공 방법.
KR1020090092506A 2009-09-29 2009-09-29 위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법 KR101024165B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090092506A KR101024165B1 (ko) 2009-09-29 2009-09-29 위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090092506A KR101024165B1 (ko) 2009-09-29 2009-09-29 위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법

Publications (1)

Publication Number Publication Date
KR101024165B1 true KR101024165B1 (ko) 2011-03-22

Family

ID=43939277

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090092506A KR101024165B1 (ko) 2009-09-29 2009-09-29 위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법

Country Status (1)

Country Link
KR (1) KR101024165B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101485820B1 (ko) * 2013-07-15 2015-01-26 네무스텍(주) 지능형 동영상 메타 정보 생성 시스템
KR20150080240A (ko) * 2013-12-31 2015-07-09 주식회사 케이티 환경 정보에 기초한 컨텐츠를 제공하는 장치 및 방법
KR101563656B1 (ko) 2014-07-11 2015-10-27 한국정보공학 주식회사 사물인식 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060042691A (ko) * 2004-11-10 2006-05-15 엘지전자 주식회사 위치정보 확인기능이 구비되는 이동통신 단말기 시스템 및그 동작방법
KR20060056580A (ko) * 2004-11-22 2006-05-25 주식회사 팬택 이동통신단말기에서의 카메라를 이용한 위치 검색 방법
KR20060097899A (ko) * 2005-03-07 2006-09-18 에스케이 텔레콤주식회사 이동통신 단말기의 배경화면 상의 지도를 이용한 위치 알림및 확인 서비스 시스템 및 서비스 제공 방법
KR20090085990A (ko) * 2008-02-05 2009-08-10 삼성디지털이미징 주식회사 영상 촬영 장치들 간에 메신저 서비스를 제공하는 시스템및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060042691A (ko) * 2004-11-10 2006-05-15 엘지전자 주식회사 위치정보 확인기능이 구비되는 이동통신 단말기 시스템 및그 동작방법
KR20060056580A (ko) * 2004-11-22 2006-05-25 주식회사 팬택 이동통신단말기에서의 카메라를 이용한 위치 검색 방법
KR20060097899A (ko) * 2005-03-07 2006-09-18 에스케이 텔레콤주식회사 이동통신 단말기의 배경화면 상의 지도를 이용한 위치 알림및 확인 서비스 시스템 및 서비스 제공 방법
KR20090085990A (ko) * 2008-02-05 2009-08-10 삼성디지털이미징 주식회사 영상 촬영 장치들 간에 메신저 서비스를 제공하는 시스템및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101485820B1 (ko) * 2013-07-15 2015-01-26 네무스텍(주) 지능형 동영상 메타 정보 생성 시스템
KR20150080240A (ko) * 2013-12-31 2015-07-09 주식회사 케이티 환경 정보에 기초한 컨텐츠를 제공하는 장치 및 방법
KR102092945B1 (ko) * 2013-12-31 2020-03-24 주식회사 케이티 환경 정보에 기초한 컨텐츠를 제공하는 장치 및 방법
KR101563656B1 (ko) 2014-07-11 2015-10-27 한국정보공학 주식회사 사물인식 시스템 및 방법

Similar Documents

Publication Publication Date Title
CN111694965B (zh) 一种基于多模态知识图谱的图像场景检索***及方法
US10768769B2 (en) Automatic event detection, text generation, and use thereof
CN102939604B (zh) 用于上下文索引的网络资源的方法和装置
KR101667232B1 (ko) 의미기반 검색 장치 및 그 방법과, 의미기반 메타데이터 제공 서버 및 그 동작 방법
CN110309264B (zh) 基于知识图谱获取地理产品数据的方法和装置
US8873857B2 (en) Mobile image search and indexing system and method
US20100114854A1 (en) Map-based websites searching method and apparatus therefor
Hansen et al. Integrating the web and the world: contextual trails on the move
US20140040232A1 (en) System and method for tagging multimedia content elements
CN105303501A (zh) 一种基于图片推荐的社区信息服务***和方法
Ruta et al. A semantic-enhanced augmented reality tool for OpenStreetMap POI discovery
CN105786897B (zh) 用于提供基于情境感知的用户关注信息的情境感知本体构建方法
Viana et al. PhotoMap–automatic spatiotemporal annotation for mobile photos
KR101024165B1 (ko) 위치기반 영상인식을 활용한 콘텐츠 생성 및 제공 방법
KR20150032141A (ko) 스마트 기기 내 시맨틱 검색 시스템 및 검색방법
KR100844265B1 (ko) 시멘틱 웹을 이용한 목적지 검색 서비스 제공 방법 및시스템
JP2009123160A (ja) コンテンツ情報配信装置、コンテンツ情報配信システムおよびコンテンツ情報配信方法
Fränti et al. Location-based search engine for multimedia phones
Vartiainen Using Metadata and Context Information in Sharing Personal Content of Mobile Users
Ladra et al. A toponym resolution service following the OGC WPS standard
Monaghan et al. Generating useful photo context metadata for the semantic web
Svensson Contextual metadata in practice
van Veen et al. Semantic enrichment: a low-barrier infrastructure and proposal for alignment
Iqbal et al. An integrated ontology management and data sharing framework for large-scale cyberinfrastructure
Hu et al. GeoTagMapper: An Online Map-based Geographic Information Retrieval System for Geo-Tagged Web Content

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140106

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150115

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee