KR20060057927A - 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템 - Google Patents

유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템 Download PDF

Info

Publication number
KR20060057927A
KR20060057927A KR1020040097123A KR20040097123A KR20060057927A KR 20060057927 A KR20060057927 A KR 20060057927A KR 1020040097123 A KR1020040097123 A KR 1020040097123A KR 20040097123 A KR20040097123 A KR 20040097123A KR 20060057927 A KR20060057927 A KR 20060057927A
Authority
KR
South Korea
Prior art keywords
information
situation
context
integrated
message
Prior art date
Application number
KR1020040097123A
Other languages
English (en)
Other versions
KR100684164B1 (ko
Inventor
이현정
허재두
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020040097123A priority Critical patent/KR100684164B1/ko
Publication of KR20060057927A publication Critical patent/KR20060057927A/ko
Application granted granted Critical
Publication of KR100684164B1 publication Critical patent/KR100684164B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/04Arrangements for maintaining operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stored Programmes (AREA)

Abstract

본 발명은 유비쿼터스 환경에서 상황에 적절한 자동화된 서비스를 제공하기 위해 상황 정보를 생성하고 이를 통합 관리하는 방법 및 시스템에 관한 것이다. 본 발명에 따른 상황정보 통합 관리 방법은, 센서에 의해 감지된 실세계 데이터를 수신하는 단계와, 상기 수신된 실세계 데이터를 해석하여 컴퓨터가 인지할 수 있는 상황정보를 생성하는 단계와, 상기 상황정보를 선정된 형식으로 통합하고 저장하는 단계와, 상기 변환된 상황 정보를 그래픽 사용자 인터페이스를 이용하여 디스플레이하는 단계를 포함한다. 상기 방법은, 상기 변환된 상황정보가 정상 범위를 벗어나는지를 판단하는 단계와, 상기 정상범위를 벗어나는 것으로 판단되면 긴급 플래그가 설정된 소정의 메시지를 생성하여 유비쿼터스 에이전트로 전송하는 단계를 더 포함하여 상황에 적절한 서비스가 제공될 수 있도록 한다.
유비쿼터스, 상황 정보, 센서, 상황인지 프레임워크

Description

유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한 방법 및 시스템{A method and system for integrating context information for ubiquitous service}
도 1은 본 발명의 바람직한 실시예에 따른 상황정보 기반 서비스 제공 시스템의 구성을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일실시예에 따라 상황인지 프레임워크 처리 프로세스를 구현하기 위한 세부 프로세스들을 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 상황인지 프레임워크가 상황정보의 구성 및 관리를 위해 수행하는 절차의 흐름도를 도시한다.
도 4는 본 발명에 따른 환경 상황정보 저장소의 일실시예를 도시한다.
도 5는 본 발명에 따른 위치 상황정보 저장소의 일실시예를 도시한다.
본 발명은 유비쿼터스 환경에서 상황 정보를 생성하고 이를 통합 관리하는 방법 및 시스템에 관한 것으로서, 보다 구체적으로는, 다양한 센서로부터 수신된 실세계의 데이터를 해석하여 상황정보를 생성하고 이를 통합 관리함으로써 상황에 따른 자동화된 서비스를 제공하기 위한 방법 및 시스템에 관한 것이다.
통신과 컴퓨팅 기술이 급속히 발전함에 따라 근래 유비쿼터스 컴퓨팅(ubiquitous computing) 기술이 중요하게 부각되고 있다. 유비쿼터스 컴퓨팅 기술은 디지털 홈/오피스/빌딩, 텔레매틱스, 지능형 로봇 등 모든 사물이 언제 어디서나 네트워크로 연결되고 컴퓨팅 기능을 수행할 수 있게 하는 기술을 의미한다. 유비쿼터스 서비스는 이러한 유비쿼터스 컴퓨팅 환경하에서 제공되는 모든 서비스를 의미한다.
상황 정보 인식 및 처리와 관련하여, 특허출원 제2000-79897호(발명의 명칭:상황정보 처리장치 및 그 처리방법)는, 임의의 지역 및 주제에 대한 시간별 상황정보를 나타내는 상황정보 데이터를 생성하기 위해, 임의의 영상, 음향 또는 문자 데이터를 수집한 후에 그 데이터들을 자체 편집하여 웹서버로 전송하기 위한 휴대용 단말 장치를 개시하고 있다.
또한, 한국정보처리학회 춘계학술발표 논문집(2000년 5월 발표, v.9, no.1 ,p1451-1454)에 발표된 논문 "컨텍스트 인식 기반 개인화 시스템 분석"은 이동/무선 컴퓨팅 사용자의 상황을 인식하여 사용자에게 적절한 개인화 정보를 제공하는 시스템에 대하여 개시하고 있다.
그러나, 종래의 상황정보 인식 및 처리 기술은 주로 휴대용 단말 장치나 자동차 등의 이동/무선 환경에서 특정 주제 또는 위치 등의 한정된 상황 정보에 기반하여 단순한 정보 서비스를 제공하는 것에 국한되었다. 따라서, 이와 같은 단순 서비스의 한계를 극복하고, 센서 기반의 다양한 상황정보를 구성 및 통합 관리하는 방법이 필요하게 되었으며, 이러한 상황정보를 기반으로 상황에 맞는 자동화된 서비스가 요구된다.
본 발명은 전술한 요구사항을 충족시키기 위해 고안된 발명으로서, 본 발명의 목적은 센서로부터 수신된 실세계의 데이터에 기반하여 상황정보를 구성하고 이를 통합 관리할 수 있는 방법 및 시스템을 제공하는데 있다.
본 발명의 또다른 목적은 센서로부터 수신된 실세계의 데이터에 기반하여 상황정보를 구성 및 통합 관리함으로써 유비쿼터스 환경에서 상황에 따른 자동화된 서비스 제공이 가능한 방법 및 시스템을 제공하는데 있다.
전술한 목적 달성을 위해, 본 발명의 일특징에 따르면, 유비쿼터스 환경에서 상황에 적절한 자동화된 서비스를 제공하기 위해 상황 정보를 생성하고 이를 통합 관리하는 방법이 제공된다. 본 발명에 따른 상황정보 통합 관리 방법은, 센서에 의해 감지된 실세계 데이터를 수신하는 단계와, 상기 수신된 실세계 데이터를 해석하여 컴퓨터가 인지할 수 있는 상황정보를 생성하는 단계와, 상기 상황정보를 선정된 형식으로 통합하고 저장하는 단계와, 상기 변환된 상황 정보를 그래픽 사용자 인터페이스를 이용하여 디스플레이하는 단계를 포함한다. 상기 방법은, 상기 변환된 상황정보가 정상 범위를 벗어나는지를 판단하는 단계와, 상기 정상범위를 벗어나는 것으로 판단되면 긴급 플래그가 설정된 소정의 메시지를 생성하여 유비쿼터스 에이전트로 전송하는 단계를 더 포함하여 상황에 적절한 서비스가 제공될 수 있도 록 한다.
일실시예에서, 상기 상황정보는 환경상황정보 및 위치상황정보중 어느 하나이며, 상기 상황정보를 선정된 형식으로 통합하고 저장하는 단계는 환경상황정보와 위치상황정보를 별개의 선정된 형식으로 통합하고 저장할 수 있다. 또한, 상기 상황정보가 동적 객체의 위치상황정보인지를 판단하여 동적 객체의 위치상황정보인 경우에 정적객체와의 관계를 해석하는 단계를 더 포함할 수 있다.
일실시예에서, 상기 환경상황정보는, 메시지 식별자, 메시지 타입, 객체식별자, 전압, 온도, 조도, 소리, 가속도, 자기장, 시간 항목을 포함하는 선정된 형식으로 통합되며, 상기 위치상황정보는, 메시지 식별자, 메시지 타입, 객체 식별자, 객체의 3차원 위치 좌표(x,y,z), 시야각도, 시간 항목을 포함하는 선정된 형식으로 통합될 수 있다.
본 발명의 또다른 특징에 따르면, 유비쿼터스 환경에서 상황에 적절한 서비스를 제공하기 위한 상황인지 기반 서비스 제공 시스템이 제공된다. 상기 상황인지 기반 서비스 제공 시스템은, 실세계 데이터를 감지하기 위한 센서와, 상기 센서로부터 상기 감지된 실세계 데이터를 수신하여 상황정보를 생성하고 관리하기 위한 상황인지 프레임워크 - 상기 상황인지 프레임워크는, 상기 수신된 실세계 데이터를 해석하여 컴퓨터가 인지할 수 있는 상황정보를 생성하기 위한 상황정보생성수단과, 상기 상황정보를 선정된 형식으로 통합하여 관리하기 위한 상황정보 통합관리수단과, 상기 상황 정보를 그래픽 사용자 인터페이스를 이용하여 디스플레이하기 위한 홈맵관리수단을 포함함-와, 상기 상황인지 프레임워크에 의해 생성된 상황정보를 수신하여 상황에 적합한 서비스를 제공하기 위한 유비쿼터스 에이전트를 포함한다.
이하에서, 첨부된 도면에 도시된 실시예들과 관련하여 예시적으로 본 발명을 상세히 설명한다. 그러나, 이하의 상세한 설명은 단지 예시적인 목적으로 제공되는 것이며 본 발명의 개념을 임의의 특정된 물리적 구성에 한정하는 것으로 해석되어서는 안 될 것이다.
도 1은 본 발명의 바람직한 실시예에 따른 상황정보 기반 서비스 제공 시스템의 구성을 개략적으로 도시한 도면이다. 도시된 바와 같이, 시스템은, 실세계 데이터를 다양한 센서를 통해 수집하는 센서 플랫폼(110)과, 센서 플랫폼(110)으로부터 수집된 데이터를 수신하여 상황정보로 해석 및 관리하는 상황인지 프레임워크(120)와, 상황인지 프레임워크(120)에 의해 해석된 상황정보가 긴급사항을 나타내는 경우에 이에 대응하는 자동화된 서비스를 제공하는 유비쿼터스 에이전트(130)를 포함한다.
일실시예에서, 센서 플랫폼(110)은, 실세계의 다양한 데이터를 감지하기 위한 여러 종류의 센서 노드(111)와, 센서 노드(111)에 의해 수집된 데이터를 상황인지 프레임워크(120)에 전송하기 위한 센서 코디네이터(112)를 포함한다. 수집되는 실세계의 데이터에는, 예를 들어, 전압, 온도, 조도, 습도, 소리, 자기장, 현재시각, 사람 또는 사물과 같은 객체의 움직임 속도 등을 들 수 있으며, 이에 한정되는 것은 아니다.
일실시예에서, 상황인지 프레임워크(120)는 디지털 홈 및 오피스에서 상황에 따른 자동화된 서비스를 제공하기 위하여 홈서버에 탑재되며, 상황정보 해석기(121), 상황정보 통합기(122), 홈맵 관리기(123), 상황정보 관리기(124) 및 상황정보 저장소(125)를 포함한다. 상황정보 해석기(121)는 센서플랫폼(110)의 센서코디네이터(112)로부터 수신된 실세계 데이터를 사용자와 컴퓨터가 인지할 수 있는 형태로 해석하여 의미있는 상황정보로 변환한다. 상황정보 통합기(122)는 변환된 상황정보를 일정한 형식으로 통합한다. 일실시예에서, 상황정보 통합기(122)는 환경상황정보와 동적객체의 위치상황정보의 형식을 구분한다. 도 4 및 도 5를 참조하여 후술하겠으나, 예를 들어, 환경상황정보는, 메시지 식별자, 메시지 타입, 객체 식별자, 전압, 온도, 조도, 소리, 가속도, 자기장, 항목등을 포함하는 형식으로 통합되며, 위치상황정보는, 메시지 식별자, 메시지 타입, 객체 식별자, 객체의 3차원 위치 좌표(x,y,z), 시야각도, 시간 등을 포함하는 형식으로 통합될 수 있다. 환경상황정보 및/또는 위치상황정보의 통합 형식에 포함되는 항목들은 향후 필요에 따라 추가될 수 있으며 이에 제한되는 것은 아니다.
상황정보 관리기(124)는 일정한 형식으로 통합된 상황정보를 상황정보 저장소(125)에 저장하고 관리한다. 상황정보 관리기(124)는 상황정보 저장소(1240)내에 저장되는 상황정보를 사용자별, 상황별로 저장, 추가, 삭제, 갱신하는 등의 상황정보 관리 기능을 수행함으로써, 상황정보가 필요에 따라 용이하게 활용될 수 있도록 해준다. 본 발명의 일실시예에서, 상황정보 저장소(125)는 환경 상황정보 저장소와 객체 상황정보 저장소로 세분될 수 있다.
홈맵 관리기(123)는 현재 실세계의 상황을 사용자가 파악할 수 있도록 상황 정보를 GUI 형태로 디스플레이하는 기능을 수행한다. 홈맵 관리기(123)는 디지털 홈/오피스/빌딩, 텔레매틱스 등의 유비쿼터스 공간을 GUI 형태로 디스플레이하며, 상황에 따라 공간의 객체를 동적으로 추가, 삭제, 갱신하여 디스플레이할 수 있다.
유비쿼터스 에이전트(130)는 상황인지 프레임워크(120)의 상황정보 통합기(122)에 의해 통합된 상황정보 중에서 서비스가 필요한 상황정보를 전송한 것에 응답하여 이에 따른 적절한 서비스를 제공한다.
도 2는 본 발명의 일실시예에 따라 상황인지 프레임워크 처리 프로세스를 구현하기 위한 세부 프로세스들을 도시한 도면이다. 프로세스는 소프트웨어 기능의 논리적 단위를 나타내며, 프로세스간에는 IPC(Inter-Process Communication) 및 함수 호출을 통해서 통신한다. 상황인지 프레임워크 처리 프로세스(201)는 상황인지 연결관리 프로세스(202)를 통해 연결이 설정된 센서 플랫폼(110) 또는 유비쿼터스 에이전트(130)로부터 수신되는 메시지를 감시하고, 수신된 메시지에 따라 처리를 수행한다.
상황인지 프레임워크 처리 프로세스(201)가 센서 플랫폼(110)으로부터 수신하는 메시지에는 환경 데이터와 위치 데이터 등이 있는데, 환경 데이터의 경우 상황정보 해석 프로세스(203)에서 일정한 규칙을 적용하여 센서로부터의 원시 데이터를 사람과 컴퓨터가 인지할 수 있는 형태의 데이터로 해석(변환)하여 상황정보를 생성하고, 해석된 데이터가 미리 정해 놓은 정상범위를 벗어난 경우(예를 들면 온도의 정상범위는 섭씨 10도에서 35 도를 정상범위로 미리 정할 수 있으며, 이러한 정상범위 값은 사용자의 기호에 따라 변할 수 있다), 긴급 플래그가 설정된 긴급 서비스 요청 메시지를 상황인지 연결관리 프로세스(202)를 통해 유비쿼터스 에이전트(130)로 전송함으로써 자동화된 서비스가 수행되도록 한다(위의 예에서, 온도가 10도 이하이면 온풍기를 켜고, 35도 이상이면 에어컨을 켜는 등의 서비스가 자동으로 수행될 수 있다). 상황인지 프레임워크 처리 프로세스(201)가 센서 플랫폼(110)으로부터 사람과 같은 동적 객체의 위치 데이터를 수신한 경우 데이터의 의미를 해석하여 동적 객체의 3차원 좌표(X, Y, Z)를 추출하고, 이 동적 객체와 정적 객체와의 관계를 해석한 후 상황정보 통합 프로세스(204)에서 일정한 형식으로 통합된다. 그런 다음, 통합된 상황정보들은 사용자에게 디스플레이하기 위해 홈맵 관리 프로세스(205)로 송신되고, 상황정보 관리 프로세스(206)를 통해 상황정보 저장소에 저장된다.
상황인지 프레임워크 처리 프로세스(201)가 유비쿼터스 에이전트(130)로부터 수신하는 메시지는 상황정보 해석 프로세스(203)에서 전송한 긴급 서비스 요청 메시지에 대한 응답 메시지로서, 응답 메시지가 비정상인 경우 긴급 서비스 요청 메시지를 유비쿼터스 에이전트에 재전송함으로써 상황에 따른 자동 서비스가 실행되도록 한다.
도 3은 본 발명의 일실시예에 따른 상황인지 프레임워크가 상황정보의 구성 및 관리를 위해 수행하는 절차의 흐름도를 도시한다. 도시된 바와 같이, 상황인지 프레임워크는 센서 플랫폼에서 수신되는 데이터를 감시하고(301), 수신된 데이 터의 의미를 해석하여 사람과 컴퓨터가 알 수 있는 형태의 의미있는 상황정보로 변환한다(302). 그런 후에, 단계(303)에서, 변환된 상황정보가 환경 상황 정보인지 동적 객체의 위치 상황 정보인지를 판단한다,
변환된 상황정보가 환경 상황 정보인 것으로 판단된 경우에, 그 값이 정상범위를 벗어나는지 여부를 판단한다(304). 정상 범위를 벗어난 경우로 판단되면, 긴급 플래그를 설정하고(305), 일정한 형식의 메시지로 변환한다(306), 여기서 일정한 형식은 센서로부터 수신한 상황의 종류에 따라 다양하게 변할 수 있다. 변환된 메시지는 상황정보 관리기에 전송되어 상황정보 저장소에 저장되고(307), 유비쿼터스 에이전트에 전송되어 상황에 맞는 실시간 서비스가 제공될 수 있도록 한다(308).
환경 상황 정보가 정상 범위내에 속한다면, 여러 센서로부터 수신하여 변환된 상황정보들을 통합하고(309), 홈맵 관리 프로세스로 전송하여 홈맵에 GUI 형태로 디스플레이 되도록 한다(310). 그런 다음, 일정한 형식으로 변환한 후(311) 상황정보 관리기로 전송하여 상황정보 저장소에 저장되도록 한다(312). 통합된 상황정보를 여과(313)하여, 서비스를 요하는 상황정보인 경우 유비쿼터스 에이전트로 전송하여 실시간으로 자동화된 서비스가 실행되도록 한다(308).
변환된 상황정보가 동적 객체의 3차원 위치 상황 정보로 판단된 경우에, 정적 객체와의 관계를 해석한다(314). 동적 객체와 정적 객체의 관계는 정적 객체의 특성 및 동적 객체와 정적 객체 간의 공유 시간 등을 통해 다 같이 정의될 수 있다 ; 동적 객체가 정적 객체의 앞에 있다(in front of), 동적 객체가 정적 객체의 위 에 있다(on), 동적 객체가 정적 객체를 이용한다(use, watch, listen, washing, cooking, opening, closing, laundering 등).
변환된 동적 객체의 상황 정보 값이 정상 범위가 아닌 서비스를 요하는 상황인 경우에(304)(예를 들면, 사용자가 방으로 들어온 경우 불을 켜야 하는 서비스가 필요한 상황임), 긴급 플래그를 설정하고(305) 일정한 형식으로 변환한 후(306), 상황정보 관리기(307)와 유비쿼터스 에이전트로 전송하여(308), 상황정보가 저장되고 상황에 맞는 실시간 서비스가 제공되도록 한다. 동적 객체의 3차원 위치 상황이 정상인 경우(304), 여러 상황정보들과 통합하고(309), 홈맵 관리 프로세스로 송신하여(310) 홈맵에 디스플레이되도록 한다. 그런 다음, 일정한 형식으로 변환한 후(311) 상황정보 관리기로 전송하여(312) 상황정보 저장소에 저장되고 관리되도록 한다. 상황정보 여과(313)를 통해 통합된 상황정보가 서비스를 요하는 상황정보인 경우 유비쿼터스 에이전트로 전송하여(308) 실시간으로 자동화된 서비스가 실행되도록 한다.
도 4는 본 발명에 따른 환경 상황정보 저장소의 일실시 예를 도시한다. 본 발명의 일실시예에서, 상황정보 저장소는 환경 상황정보 저장소와 객체 상황정보 저장소로 세분되어 센서로부터 수신되어 해석되고 통합된 상황정보들을 종류에 따라 각각 저장하고 관리한다. 도시된 바와 같이, 환경 상황정보 저장소는, 메시지 식별자(401), 메시지 타입(402), 객체식별자(403), 전압(404), 온도(405), 조도(406), 소리(407), 가속도 X(408), 가속도 Y(409), 자기장 X(410), 자기장 Y(411), 시간(412) 항목 등을 포함한다. 그러나, 환경 상황정보 저장소에 저장되는 항목들 의 종류가 이에 한정되는 것은 아니며, 향후 추가되는 센서에 따라 환경 상황정보 저장소의 항목은 추가될 수 있음을 본 기술분야의 당업자라면 충분히 이해할 것이다.
메시지 식별자(401)는 수신되는 여러 종류의 메시지를 구분해 주는 값이고, 메시지 타입(402)은 메시지가 요청 메시지인지 응답 메시지인지를 구별하고, 응답 메시지인 경우 정상 메시지인지 비정상 메시지인지를 나타냄으로써 메시지 식별자와 함께 메시지별로 각각의 기능이 수행되도록 한다. 객체 식별자(403)는 여러 객체를 구분해 주는 식별자로서, 객체의 종류에는 사람과 같은 동적 객체와 사물과 정적 객체가 있으며, 사람은 할아버지, 할머니, 아버지, 어머니, 아들, 딸 등이 있고, 사물은 가구(장롱, 식탁, 소파 등)과 가전(TV, 냉장고, 세탁기 등) 등이 있다. 환경 상황정보로는 전압(404), 온도(405), 조도(406), 소리(407), 가속도 X(408), 가속도 Y(409), 자기장 X(410), 자기장 Y(411), 시간(412) 등이 있으며 추후 새로운 센서가 추가되어 더욱 다양한 환경 정보를 얻을 수 있다. 각 환경 상황정보는 센서로부터의 데이터가 각각의 단위에 따라 사람과 컴퓨터가 알 수 있는 형태로 변환되어 메시지 식별자(401), 메시지 타입(402), 객체 식별자(403)와 함께 환경 상황정보 저장소에 저장되고 관리되며, 상황에 맞는 서비스 실행에 이용된다.
도 5는 본 발명에 따른 객체 상황정보 저장소의 일실시예를 도시한다. 도시된 바와 같이, 객체 상황정보 저장소는, 메시지 식별자(501), 메시지 타입(502), 객체 식별자(503), X 좌표(504), Y 좌표(505), Z 좌표(506), 시야 각도(507), 시간 (508)을 포함한다. 그러나, 객체 상황정보 저장소에 저장되는 항목들의 종류가 이에 한정되는 것은 아니며, 향후 추가되는 센서에 따라 객체 상황정보 저장소의 항목은 추가될 수 있음을 본 기술분야의 당업자라면 충분히 이해할 것이다.
메시지 식별자(501), 메시지 타입(502), 객체 식별자(503), 시간(508)은 환경 상황정보 저장소의 항목과 같은 의미이고, X 좌표(504), Y 좌표(505), Z 좌표(506)는 센서로부터 수신된 객체의 위치 관련 데이터를 3차원 위치 좌표로 변환한 값을 나타내며, 시야 각도(507)는 객체가 위치한 방향을 표현한 값으로서 센서로부터 수신된 객체의 위치 관련 데이터로부터 도출된 값이다. 객체 상황정보 저장소는 객체 식별자에 따라 각각 생성되어 객체의 위치 정보를 저장하고 관리한다.
본 발명은 하나 이상의 제조물상에 구현된 하나 이상의 컴퓨터 판독가능 매체로서 제공될 수 있다. 제조물은, 플로피 디스크, 하드 디스크, CD ROM, 플래시 메모리 카드,PROM, RAM, ROM, 또는 자기 테이프를 들 수 있다. 일반적으로, 컴퓨터 판독가능 프로그램은 임의의 프로그래밍 언어로 구현될 수 있다. 사용될 수 있는 언어의 일부 예에는 C, C++, 또는 JAVA가 포함된다.
이상에서 설명한 본 발명은 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
본 발명은 유비쿼터스 환경에서 센서 기반의 상황정보를 해석하고, 통합 및 관리하는 상황인지 프레임워크를 제시함으로써 디지털 홈/오피스/빌딩, 텔레매틱스, 지능형 로봇 등 유비쿼터스 공간에 활용할 수 있으며, 기존의 홈이나 오피스에 비해 사용자 및 상황에 따라 자동화된 서비스를 제공할 수 있다.

Claims (11)

  1. 유비쿼터스 환경에서 상황에 적절한 서비스를 제공하기 위해 상황정보를 통합적으로 관리하기 위한 방법에 있어서,
    센서에 의해 감지된 실세계 데이터를 수신하는 단계와,
    상기 수신된 실세계 데이터를 해석하여 컴퓨터가 인지할 수 있는 상황정보를 생성하는 단계와,
    상기 상황정보를 선정된 형식으로 통합하고 저장하는 단계와,
    상기 변환된 상황 정보를 그래픽 사용자 인터페이스를 이용하여 디스플레이하는 단계
    를 포함하는 상황정보 통합관리 방법.
  2. 제1항에 있어서,
    상기 변환된 상황정보가 정상 범위를 벗어나는지를 판단하는 단계와, 상기 정상범위를 벗어나는 것으로 판단되면 긴급 플래그가 설정된 소정의 메시지를 생성하여 유비쿼터스 에이전트로 전송하는 단계
    를 더 포함하여 상황에 적절한 서비스가 제공될 수 있도록 하는 상황정보 통합관리 방법.
  3. 제1항에 있어서, 상기 상황정보는 환경상황정보 및 위치상황정보중 어느 하 나이며, 상기 상황정보를 선정된 형식으로 통합하고 저장하는 단계는 환경상황정보와 위치상황정보를 별개의 선정된 형식으로 통합하고 저장하는 단계를 포함하는 상황정보 통합관리 방법.
  4. 제1항에 있어서,
    상기 상황정보가 동적 객체의 위치상황정보인지를 판단하는 단계와, 동적 객체의 위치상황정보인 것으로 판단되면 정적객체와의 관계를 해석하는 단계
    를 더 포함하는 상황정보 통합관리 방법.
  5. 제1항에 있어서, 상기 환경상황정보는, 메시지 식별자, 메시지 타입, 객체식별자, 전압, 온도, 조도, 소리, 가속도, 자기장, 시간 항목을 포함하는 선정된 형식으로 통합되는 상황정보 통합관리 방법.
  6. 제1항에 있어서, 상기 위치상황정보는, 메시지 식별자, 메시지 타입, 객체 식별자, 객체의 3차원 위치 좌표(x,y,z), 시야각도, 시간 항목을 포함하는 선정된 형식으로 통합되는 상황정보 통합관리 방법.
  7. 유비쿼터스 환경에서 상황에 적절한 서비스를 제공하기 위한 상황인지 기반 서비스 제공 시스템에 있어서,
    실세계 데이터를 감지하기 위한 센서와,
    상기 센서로부터 상기 감지된 실세계 데이터를 수신하여 상황정보를 생성하고 관리하기 위한 상황인지 프레임워크 - 상기 상황인지 프레임워크는,
    상기 수신된 실세계 데이터를 해석하여 컴퓨터가 인지할 수 있는 상황정보를 생성하기 위한 상황정보생성수단과,
    상기 상황정보를 선정된 형식으로 통합하여 관리하기 위한 상황정보 통합관리수단과,
    상기 상황 정보를 그래픽 사용자 인터페이스를 이용하여 디스플레이하기 위한 홈맵관리수단을 포함함-와,
    상기 상황인지 프레임워크에 의해 생성된 상황정보를 수신하여 상황에 적합한 서비스를 제공하기 위한 유비쿼터스 에이전트
    를 포함하는 상황인지 기반 서비스 제공 시스템.
  8. 제7항에 있어서, 상기 상황정보통합관리수단은 상기 상황정보를 선정된 통합 형식으로 저장하기 위한 상황정보저장수단을 포함하고, 상기 상황정보저장수단은 환경상황정보와 위치상황정보를 별개의 선정된 형식에 따라 통합하여 저장하는 상황인지 기반 서비스 제공 시스템.
  9. 제8항에 있어서, 상기 환경상황정보는, 메시지 식별자, 메시지 타입, 객체식별자, 전압, 온도, 조도, 소리, 가속도, 자기장, 시간 항목을 포함하는 선정된 형식으로 통합되는 상황인지 기반 서비스 제공 시스템.
  10. 제8항에 있어서, 상기 위치상황정보는, 메시지 식별자, 메시지 타입, 객체 식별자, 객체의 3차원 위치 좌표(x,y,z), 시야각도, 시간 항목을 포함하는 선정된 형식으로 통합되는 상황인지 기반 서비스 제공 시스템.
  11. 제7항에 있어서, 상기 상황인지 프레임워크는 상기 상황정보생성수단에 의해 생성된 상황정보가 정상범위를 벗어나는 경우에 긴급플래그가 설정된 긴급 메시지를 생성하여 상기 유비쿼터스 에이전트에 전송하는 상황인지 기반 서비스 제공 시스템.
KR1020040097123A 2004-11-24 2004-11-24 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템 KR100684164B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040097123A KR100684164B1 (ko) 2004-11-24 2004-11-24 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040097123A KR100684164B1 (ko) 2004-11-24 2004-11-24 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20060057927A true KR20060057927A (ko) 2006-05-29
KR100684164B1 KR100684164B1 (ko) 2007-02-20

Family

ID=37153180

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040097123A KR100684164B1 (ko) 2004-11-24 2004-11-24 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템

Country Status (1)

Country Link
KR (1) KR100684164B1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100711524B1 (ko) * 2004-12-01 2007-04-27 한국전자통신연구원 규칙기반 상황 맞춤형 서비스 제공 방법 및 시스템
KR100779093B1 (ko) * 2006-09-04 2007-11-27 한국전자통신연구원 개체 관리를 위한 개체용 센서노드, 관리자용 싱크노드 및개체관리방법
KR100867864B1 (ko) * 2008-07-09 2008-11-07 인터컴 소프트웨어(주) 유비쿼터스 센서 네트워크 통합 관제 시스템 및 그 방법
KR100910833B1 (ko) * 2007-11-05 2009-08-06 아주대학교산학협력단 유비쿼터스 컴퓨팅 기반의 안전지수 측정 방법 및 시스템
KR100913546B1 (ko) * 2007-07-27 2009-08-21 강릉원주대학교산학협력단 가상 튜플 생성 장치 및 방법
WO2010013862A1 (en) * 2008-07-31 2010-02-04 Ajou University Industry Cooperation Foundation Ubiquitous monitoring system
KR100985700B1 (ko) * 2008-02-12 2010-10-06 원광대학교산학협력단 침입감지용 고정형 노드의 가시화 시스템
KR101005302B1 (ko) * 2009-02-13 2011-01-04 고려대학교 산학협력단 유비쿼터스 센서 네트워크 인프라 구조에서의 센서 네트워크 관리방법 및 이를 이용한 관리 시스템
KR101008949B1 (ko) * 2008-10-01 2011-01-17 한국표준과학연구원 센서 네트워크의 데이터 통합 관리방법
KR20150076192A (ko) * 2012-10-26 2015-07-06 콘티넨탈 테베스 아게 운트 코. 오하게 환경 센서 데이터를 통신 데이터와 병합하기 위한 방법, 시스템, 및 그 시스템의 사용 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101006662B1 (ko) 2008-11-17 2011-01-10 성균관대학교산학협력단 상황인식 컴퓨팅을 위한 상황인식 모델링 시스템 및 상황인식 모델링 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236368A (ja) * 2000-02-22 2001-08-31 Sharp Corp 情報通信端末、サーバ装置およびそれらを接続した情報通信システム
AU2002310341A1 (en) * 2001-06-07 2002-12-16 Unwired Express, Inc. Method and system for providing context awareness
KR20040052016A (ko) * 2002-12-13 2004-06-19 한국전자통신연구원 이벤트 관리 분산처리 시스템에서의 gui기반 이벤트모니터링 방법 및 그 장치
KR20040080663A (ko) * 2003-03-12 2004-09-20 삼성전자주식회사 유비퀴터스 서비스 기능을 가지는 사설 네트워크 시스템및 그의 동작방법
KR100722577B1 (ko) * 2004-07-19 2007-05-29 학교법인 대양학원 유비쿼터스 컴퓨팅 환경에 적합한 데이터 처리 시스템

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100711524B1 (ko) * 2004-12-01 2007-04-27 한국전자통신연구원 규칙기반 상황 맞춤형 서비스 제공 방법 및 시스템
KR100779093B1 (ko) * 2006-09-04 2007-11-27 한국전자통신연구원 개체 관리를 위한 개체용 센서노드, 관리자용 싱크노드 및개체관리방법
KR100913546B1 (ko) * 2007-07-27 2009-08-21 강릉원주대학교산학협력단 가상 튜플 생성 장치 및 방법
KR100910833B1 (ko) * 2007-11-05 2009-08-06 아주대학교산학협력단 유비쿼터스 컴퓨팅 기반의 안전지수 측정 방법 및 시스템
KR100985700B1 (ko) * 2008-02-12 2010-10-06 원광대학교산학협력단 침입감지용 고정형 노드의 가시화 시스템
KR100867864B1 (ko) * 2008-07-09 2008-11-07 인터컴 소프트웨어(주) 유비쿼터스 센서 네트워크 통합 관제 시스템 및 그 방법
WO2010013862A1 (en) * 2008-07-31 2010-02-04 Ajou University Industry Cooperation Foundation Ubiquitous monitoring system
US8065114B2 (en) 2008-07-31 2011-11-22 Ajou University Industry Cooperation Foundation Ubiquitous monitoring system
KR101008949B1 (ko) * 2008-10-01 2011-01-17 한국표준과학연구원 센서 네트워크의 데이터 통합 관리방법
KR101005302B1 (ko) * 2009-02-13 2011-01-04 고려대학교 산학협력단 유비쿼터스 센서 네트워크 인프라 구조에서의 센서 네트워크 관리방법 및 이를 이용한 관리 시스템
KR20150076192A (ko) * 2012-10-26 2015-07-06 콘티넨탈 테베스 아게 운트 코. 오하게 환경 센서 데이터를 통신 데이터와 병합하기 위한 방법, 시스템, 및 그 시스템의 사용 방법

Also Published As

Publication number Publication date
KR100684164B1 (ko) 2007-02-20

Similar Documents

Publication Publication Date Title
KR100715681B1 (ko) 센서 네트워크 기반 유비쿼터스 상황인지 에이전트 장치 및그 상황인지 방법
CN107705171B (zh) 信息显示方法、装置及终端
CN107948231B (zh) 基于场景的服务提供方法、***和操作***
US20180018681A1 (en) Holographic Technology Implemented Retail Solutions
KR102338899B1 (ko) 홈 디바이스를 제어하는 방법 및 디바이스
CN108614689B (zh) 场景服务的生成方法、装置和终端设备
KR100684164B1 (ko) 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템
CN109429102A (zh) 用于显示应用的电子装置及其操作方法
US7565209B2 (en) Device control apparatus
US20180101574A1 (en) Searching index information for application data
WO2023051643A1 (zh) 设备控制方法、相关装置及通信***
CN110262904A (zh) 数据采集方法及装置
CN114020379B (zh) 一种终端设备、信息反馈方法和存储介质
CN103986845A (zh) 信息处理方法和信息处理设备
Shayeganfar et al. A smart indoor navigation solution based on building information model and *** android
TW201814515A (zh) 基於場景的應用操作方法、裝置、終端設備和操作系統
CN103685491A (zh) 一种应用服务提供方法、***及相关设备
US11564069B2 (en) Recipient-based content optimization in a messaging system
KR20230032657A (ko) 유비쿼터스 서비스를 위해 상황정보를 통합 관리하기 위한방법 및 시스템
Sampaio et al. A survey on ambient intelligence projects
US20240004876A1 (en) Method and system for assisting with the specification of a context-adaptive behavior of a system by an end user
Huang et al. Smart home at a finger tip: OSGi-based MyHome
Brandherm et al. Presentation of a Modular Framework for Interpretation of Sensor Data With Dynamic Bayesian Networks on Mobile Devices.
Beigl UBIQUITOUS COMPUTING. COMPUTATION EMBEDDED IN THE WORLD
Van Kleek et al. OPF: A distributed context-sensing framework for ubiquitous computing environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130205

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140123

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150126

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160127

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170124

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190125

Year of fee payment: 13