KR20140098653A - 사용자 인터페이스를 위한 지능적 주변 조명 장치 및 방법 - Google Patents

사용자 인터페이스를 위한 지능적 주변 조명 장치 및 방법 Download PDF

Info

Publication number
KR20140098653A
KR20140098653A KR1020130109682A KR20130109682A KR20140098653A KR 20140098653 A KR20140098653 A KR 20140098653A KR 1020130109682 A KR1020130109682 A KR 1020130109682A KR 20130109682 A KR20130109682 A KR 20130109682A KR 20140098653 A KR20140098653 A KR 20140098653A
Authority
KR
South Korea
Prior art keywords
determining
rti
vector
objects
location
Prior art date
Application number
KR1020130109682A
Other languages
English (en)
Inventor
크리스 랠리
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20140098653A publication Critical patent/KR20140098653A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

하나 이상의 객체를 묘사하기 위한 장치 및 방법이 제공된다. 상기 방법은 하나 이상의 객체의 지리적 위치(geolocation)를 결정하는 과정, 상기 객체들로부터 광원까지의 벡터를 결정하는 과정, 상기 벡터에 따라 상기 객체들에 명암을 적용하는 과정, 상기 벡터에 따라 상기 객체에 드리우는 그림자를 결정하는 과정, 및 상기 적용된 명암 상기 드리워진 그림자 중 하나 이상으로 상기 지리적 위치에 상기 객체를 묘사하는 과정을 포함한다.

Description

사용자 인터페이스를 위한 지능적 주변 조명 장치 및 방법{APPARATUS AND METHOD FOR COMPASS INTELLIGENT LIGHTING FOR USER INTERFACES}
본 발명은 사용자 인터페이스를 위한 지능적 주변 조명 장치 및 방법에 관한 것으로, 보다 상세하게는, 사용자의 환경 및 단말의 방향에 따라 사용자 인터페이스를 적합하게 하기 위한 장치 및 방법에 관한 것이다.
이동 단말들은 사용자들 간의 무선 통신을 제공하기 위하여 발전되고 있다. 기술의 발전에 따라, 이동 단말들은 이제 단순한 전화 통화를 넘어 수많은 추가 기능들을 제공한다. 예를 들어, 이동 단말들은 알람, SMS(Short Messaging Service), MMS(Multimedia Message Service), 이메일, 게임, 근거리 통신의 원격 제어, 장착된 디지털 카메라를 이용한 영상 촬영 기능, 오디오 및 비디오 콘텐츠를 제공하기 위한 멀티미디어 기능, 스케줄 기능과 같은 추가 기능들을 제공할 수 있다. 다양한 특징들이 제공되면서 이제 이동 단말은 생활필수품이 되고 있다.
이동 단말에서는 지도 또는 내비게이션 어플리케이션의 건물들과 같은 객체들의 3차원 표현이나 게임 어플리케이션의 캐릭터 또는 객체의 3차원 표현이 가능해지고 있다. 이러한 어플리케이션에서, 3차원이라는 용어는 이동 단말과 같은 휴대 장치의 표시부에 건물과 같은 3차원 객체의 표현을 나타내는 것으로 주로 사용되며, 시청자에게 입체적 효과를 주기 위해 두 눈에 서로 다른 비디오 입력을 제공하는 실제의 3차원 표시 상황에 한정되는 것은 아니다. 하지만 본 발명은 단지 단일 이미지를 제공하는 표시부들 뿐만 아니라 그러한 3차원 표시부들 상에서의 구현들을 포함한다.
도 1은 종래 기술에 따른 이동 단말의 실행 예를 나타낸다.
도 1을 참조하면, 이동 단말(100)은 내비게이션으로 사용되고 있다. 관련 분야의 다양한 기술들을 통해, 이동 단말의 위치가 결정되고, 길안내 표시는 전방의 경로에 대한 사용자의 일인칭 시야를 포함한다. 내비게이션 어플리케이션에서, 사용자가 도로 상에서 자동차 또는 유사한 차량을 운전하고 있다고 가정한다. 도로는 지도화된 공공 영역에 있으며, 도로의 양측을 따라 늘어선 건물들에 관한 정보는 내비게이션을 위한 주요 지형지물로서의 건물들 및 다른 객체들을 사용자가 인식할 수 있도록 돕는 내비게이션 프로그램에 포함된다.
도 1에 도시된 예에서, 길안내는 운전자가 테헤란로의 100 미터 앞에서 좌회전을 해야 함을 나타낸다. 사용자가 적혀진 길안내를 따르기 어렵다면, 예를 들어, 사용자가 도로 표지에 의한 테헤란로를 식별하지 못하거나, 앞이 잘 안보이거나, 도로 표지의 언어를 읽지 못한다면, 길안내는 사용자가 방향 전환을 해야 함을 나타내는 환경을 인식하고, 사용자에게 이를 알린다.
도 1에서 사용자는, 사용자 근처의 거리 양측에 상점이 있고 이후에 왼쪽으로는 주차장이 있는 큰 건물과 오른쪽으로는 주택이 있는 교차로에서 방향 전환을 해야 함을 인식할 수 있다. 따라서 사용자는 더욱 쉽게 위치를 인식할 수 있을 것이다.
하지만 이러한 종래 기술은 단지 알려진 건물들의 기본적인 표현만이 가능하다는 한계를 가진다.
도 2는 종래 기술에 따른 이동 단말의 실행 예를 나타낸다.
도 2를 참조하면, 이동 단말(200)은 미식축구 게임과 같은 모바일 게임을 하는 데에 사용되고 있다. 이 예에서 게임은 공중으로 날아가는 객체, 예컨대 미식축구공을 포함하는 것으로 가정한다. 이 게임에서는 날아가는 객체에 대한 향상된 묘사를 구현하기 위하여, 지면에 대하여 객체의 상대적인 위치를 보여주는 그림자를 표현한다.
하지만 이러한 종래 기술은 그림자가 날아가는 객체의 바로 아래에 표시되는 것으로 한정된다. 다른 방향에서 그림자를 드리우기 위한 외부 환경 정보를 사용하는 것은 가능하지 않다.
객체의 다른 묘사는 그림자 및 실제적인 조명이 모방되거나 또는 제한된 상황에서만 사용할 수 있다는 점에서 유사하게 제한된다.
더욱이, 이전에는 보다 정확하고 유용하고 즐거운 객체 및 위치의 묘사를 제공하기 위하여 다양한 현실 세계 정보를 조합하는 방법이 없었다.
따라서 단말의 방향 및 사용자의 환경에 따라 향상된 사용자 인터페이스를 제공하는 위한 장치 및 방법에 대한 요구가 있다.
본 발명의 측면들은 적어도 앞서 언급된 문제들 및/또는 장점들을 다루기 위한 것이며, 적어도 아래에서 설명되는 장점들을 제공하기 위한 것이다. 따라서 본 발명의 일 측면은 사용자 인터페이스를 위한 지능적 조명을 이용하여 객체를 묘사하기 위한 장치 및 방법을 제공하기 위한 것이다.
본 발명의 일 측면에 따르면, 하나 이상의 객체를 묘사하기 위한 방법이 제공된다. 상기 방법은 하나 이상의 객체의 지리적 위치(geolocation)를 결정하는 과정과, 상기 객체들로부터 광원까지의 벡터를 결정하는 과정과, 상기 벡터에 따라 상기 객체들에 명암을 적용하는 과정과, 상기 벡터에 따라 상기 객체에 드리우는 그림자를 결정하는 과정과, 상기 적용된 명암 및 상기 드리워진 그림자 중 하나 이상으로 상기 지리적 위치에 상기 객체를 묘사하는 과정을 포함한다.
본 발명의 다른 측면에 따르면, 하나 이상의 객체를 묘사하기 위한 방법이 제공된다. 상기 방법은 하나 이상의 객체 각각의 크기, 모양 및 상대 위치를 결정하는 과정과, 상기 객체로부터 광원까지의 벡터를 결정하는 과정과, 상기 벡터에 따라 상기 객체에 의해 드리워지는 그림자 및 객체의 명암 중 적어도 하나를 결정하는 과정과, 표시부의 방향을 결정하는 과정과, 상기 방향에 따라 상기 명암 및 상기 그림자 중 적어도 하나로 하나 이상의 객체를 묘사하는 과정을 포함한다.
본 발명의 또 다른 측면에 따르면, 하나 이상의 객체를 묘사하기 위한 방법이 제공된다. 상기 방법은 하나 이상의 객체의 지리적 위치를 결정하는 과정과, 상기 지리적 위치의 현재 환경 정보를 획득하는 과정과, 상기 환경 정보에 따라 상기 지리적 위치에 상기 객체를 묘사하는 과정을 포함한다.
본 발명의 또 다른 측면에 따르면, 하나 이상의 객체를 묘사하기 위한 장치가 제공된다. 상기 장치는 표시부 및 제어부를 포함한다. 상기 제어부는 하나 이상의 객체의 지리적 위치를 결정하고, 상기 객체로부터 광원까지의 벡터를 결정하며, 상기 벡터에 따라 상기 객체에 명암을 적용하고, 상기 벡터에 따라 상기 객체에 드리우는 그림자를 결정하며, 상기 적용된 명암 및 상기 드리워진 그림자 중 적어도 하나로 상기 지리적 위치에서 상기 표시부 상에 상기 객체를 묘사한다.
본 발명의 또 다른 측면에 따르면, 하나 이상의 객체를 묘사하기 위한 장치가 제공된다. 상기 장치는 표시부 및 적어도 하나의 제어부를 포함한다. 상기 적어도 하나의 제어부는 상기 하나 이상의 객체 각각의 크기, 모양, 및 상대 위치를 결정하고, 상기 객체로부터 광원까지의 벡터를 결정하며, 상기 벡터에 따라 상기 하나 이상의 객체의 명암 및 상기 하나 이상의 객체에 의해 드리워지는 그림자 중 적어도 하나를 결정하고, 상기 표시부의 방향을 결정하며, 상기 객체를 상기 방향에 따른 상기 그림자 및 상기 명암 중 적어도 하나로 상기 표시부에 묘사하도록 제어한다.
본 발명의 또 다른 측면에 따르면, 하나 이상의 객체를 묘사하기 위한 장치가 제공된다. 상기 장치는 표시부 및 하나 이상의 제어부를 포함한다. 상기 하나 이상의 제어부는 하나 이상의 객체의 지리적 위치를 결정하고, 상기 지리적 위치의 현재 환경 정보를 획득하고, 상기 환경 정보에 따라 상기 지리적 위치에 상기 객체를 묘사한다.
본 발명의 다른 측면, 장점들 및 현저한 특징들은 첨부된 도면과 함께, 본 발명의 실시예를 설명하는 다음의 상세한 설명으로부터 이 기술 분야에서 통상의 지식을 가진 자에게 있어 자명해질 것이다.
본 발명의 실시예의 상술한 다른 측면, 특징 및 장점들은 첨부된 도면과 함께 다음의 상세한 설명으로부터 자명해질 것이다.
도 1은 종래 기술에 따른 이동 단말이다.
도 2는 종래 기술에 따른 이동 단말이다.
도 3은 본 발명의 실시예에 따른 이동 단말이다.
도 4는 본 발명의 실시예에 따른 객체를 묘사하는 방법의 흐름도이다.
도 5는 본 발명의 실시예에 따른 객체들을 묘사하는 방법의 흐름도이다.
도 6은 본 발명의 실시예에 따른 객체를 묘사하는 방법의 흐름도이다.
도 7은 본 발명의 실시예에 따른 이동 단말의 블록도이다.
도면에 걸쳐, 동일한 참조 번호는 동일하거나 또는 유사한 요소, 특징 및 구조를 도시하기 위해 사용되었음을 유의하여야 한다.
청구범위 및 그 균등물에 의해 정의되는 본 발명의 실시예들에 대한 포괄적인 이해를 돕기 위해 첨부된 도면들을 참조하여 다음의 설명이 제공된다. 이해를 돕기 위해 다양한 특정 세부사항이 포함되지만, 이들은 단지 예시적인 것으로 간주되어야 한다. 따라서 이 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 범위 및 사상을 벗어남이 없이 이 명세서에 설명된 실시예들의 다양한 변형 및 수정이 만들어질 수 있음을 이해할 수 있을 것이다. 또한, 잘 알려진 기능 및 구조의 설명은 간결성 및 명료성을 위해 생략된다.
다음의 설명 및 청구범위에 사용되는 용어 및 단어들은 사전적인 의미로 한정되는 것이 아니며, 단지 발명의 명확하고 일관된 이해를 가능하게 하기 위해 발명자에 의해 사용되는 것이다. 따라서 본 발명의 실시예에 대한 다음의 설명들은 첨부된 청구범위 및 그와 동등한 것들에 의해 정의되는 본 발명을 제한하기 위한 것이 아니라 단지 설명을 위한 목적으로 제공된다는 것은 이 기술 분야에서 통상의 지식을 가진 자에게 있어 자명한 것이다.
단수 형식의 표현은 분명하게 그렇지 않음을 명시하고 있지 않는 한 복수의 지시 대상도 포함한다. 따라서 예를 들어 “객체”라는 표현은 하나의 객체 또는 복수의 객체들을 총칭하는 의미로 사용된다.
“실질적으로(substantially)”라는 용어는 설명된 특징이나 파라미터나 값이 정확히 달성될 필요가 있는 것이 아니라, 공차, 측정 에러, 측정 정확도의 한계, 이 기술 분야에서 통상의 지식을 가진 자에 있어 알려진 다른 요인 등과 같은 편차나 변화에 의해, 제공하고자 의도되었던 효과를 불가능하게 하지 않는 양만큼 발생할 수도 있음을 의미한다.
본 발명의 실시예는 사용자의 환경 및 단말의 방향에 따라 사용자 인터페이스를 적합하게 하기 위한 장치 및 방법을 포함한다.
출원인은 이 명세서에서 실시예들의 일부가 3차원 예들을 이용하여 설명될지라도, 본 발명이 이에 한정되는 것이 아님을 밝힌다. 예를 들면, 본 발명의 실시예는 2차원 방법 및 장치 또한 포함할 수 있다.
도 3은 본 발명의 실시예에 따른 이동 단말의 실행 화면을 나타낸다.
도 3을 참조하면, 도 1과 유사한 내비게이션 어플리케이션이 사용되고 있다. 하지만, 도 3에서, 건물은 광원의 위치에 따라 그림자가 드리워진다. 사용자는 이 예에서 정오 즈음의 시간에 대략 남서쪽으로 이동하고 있다고 가정한다. 따라서 태양은 하늘에서 비교적 높게 사용자의 앞 그리고 왼쪽에 위치한다. 건물의 면들 중에서 사용자의 앞쪽에 마주보는 면과 사용자의 왼쪽을 향하는 면에는 그림자가 있을 것이다. 그리고 사용자의 오른쪽을 향하는 면과 사용자의 뒤쪽을 마주보는 면에는 햇빛이 비출 것이다. 또한, 건물들은 그들의 크기, 모양, 태양의 상대 위치에 따라 지면에 그림자가 드리울 것이다.
본 발명의 실시예에 따르면, 현실 세계에서 객체는 사용자의 위치, 지역 시간(local time), 이동 단말의 방향에 따라 실시간 빛과 그림자로 묘사된다. 한편, 본 명세서에서 사용되는 용어들인 “현실 세계 위치”와 지리적 위치(geolocation)는 지구상에서의 식별 가능한 위치를 가리키는 것으로 동등하게 사용될 것이다.
사용자의 위치는 관련 분야의 기술에 의해 결정될 수 있다. 예를 들면, 이동 단말은 GPS(Global Positioning System) 위성 수신기를 장착할 수 있다. 대안적으로, 이동 단말은 와이파이(WiFi) 서비스, 휴대전화 액세스 포인트(access point), 지리적 위치(geolocation)를 결정하기 위해 사용될 수 있는 다른 신호들의 신호 강도에 따라 이의 위치를 결정할 수 있다. 지역 시간은 예를 들면, 표준시간에 주기적으로 동기되는 내부 클럭에 따라, 또는 무선으로 수신되는 시간 신호에 따라 결정될 수 있다. 알려진 지리적 위치 및 지역 시간으로, 태양, 달, 행성, 별들과 같은 천체들의 위치가 결정될 수 있다. 알려진 가장 밝은 광원, 예를 들면, 태양은 객체의 비춰진 측면 및 드리워진 그림자를 결정하는 데에 사용될 수 있다. 이동 단말의 방향은 사용자의 시점 또는 방향을 결정하는 데에 사용된다. 방향은 다양한 관련 분야 기술, 예를 들면, 자기장 센서, 자이로스코프 등으로부터 결정될 수 있다.
사용자가 정오에 남서쪽으로 운전하고 있는 예에서, 사용자가 왼쪽으로 방향 전환을 한 후, 그는 대략 남동쪽을 마주하게 될 것이다. 그리고 태양의 상대적인 위치는 앞에서 오른쪽이 될 것이다. 그러면, 그의 뒤쪽을 마주 보거나 그의 왼쪽에 있는 건물이 비춰지게 될 것이고, 앞쪽에 있거나 오른쪽에 있는 건물에는 그림자가 있을 것이다. 크기, 모양 및 드리워진 그림자의 방향은 사용자의 가시적인 환경을 복제하기 위해 묘사될 것이다. 그림자가 드리워질 것이며, 지표에 묘사될 뿐만 아니라, 지도 데이터베이스에서 임의의 객체에 묘사된다. 예를 들면, 거리의 한쪽에 있는 높은 건물은 거리의 반대쪽 건물의 앞에 그림자를 드리울 수 있다. 따라서 사용자가 환경을 인식하는 데에 도움이 되며, 그의 사용자 경험은 빛과 그림자 조건을 사실적으로 복제하는 것에 의해 향상된다.
상기 실시예의 변형으로서, 단말의 방향은 사용되지 않을 수 있다. 예를 들면, 차에서 뒤를 향하는 자리의 사용자는 이동 단말이 어떤 방향을 향하고 있던지 무관하게 내비게이션 지시를 볼 수 있고 전방 시야를 볼 수 있다.
사용자가 내비게이션 지시를 따르고 있지 않다면, 그는 향하는 방향에 따른 위치 및 시간에서 지역 건물, 사업장 등을 묘사하는 어플리케이션을 사용할 수 있다. 이러한 위치, 시간 및 방향은 현재의 위치, 시간 및 방향과 다를 수 있음을 유의하여야 한다. 예를 들면, 사고를 조사하는 사용자는 사고와 관련된 차량의 시간, 위치 및 이동 방향에 따라 태양, 그림자 등의 방향을 아는 것이 필요할 수 있다. 따라서 사용자는 표시부의 시점이 원하는 방향으로 변경되도록 조작할 수 있고, 지도 데이터베이스에 따라 묘사되는 정보와 함께, 시점의 앞쪽 거리의 3차원 묘사를 볼 수 있다. 위치, 시간 또는 방향 중 어떤 것도 입력되지 않으면, 현재 위치, 시간 또는 방향이 적절하게 사용될 것이다.
빛과 그림자 정보에 추가로, 본 발명의 실시예는 사용자의 입력에 따른 하이라이트 정보로도 설정될 수 있다. 특히, 빛과 그림자의 조건에 기인하여 일부 정보의 가시성이 떨어질 수 있는 개연성이 있다면, 정보는 사용자를 위해 하이라이트 될 수 있다. 대안적으로, 결정된 빛과 그림자 조건들이 좋지 않을 수 있을 때, 이용 가능한 정보가 일반적으로 하이라이트 되거나 또는 표시된다. 사용자는 황혼녘에 영업 중인 식당을 표시하기 위해 장치(이동 단말)를 설정할 수 있다. 예를 들면, 사용자는 하이라이트 된 영업 중인 식당이 묘사될 때까지 이동 단말을 움직일 수 있다. 예를 들면, 사용자가 태양과 떨어진 방향을 보고 있다면, 가시성은 좋아질 수 있다. 하지만, 사용자가 태양을 향한 방향을 바라보고 있다면, 그 방향에서 모든 것의 가시성은 좋지 않을 수 있다. 사용자가 방향을 전환함에 따라, 이동 단말은 어떤 방향이든 사용자가 결정한 방향에서의 시점의 위치로부터 정확한 시야를 보여줄 것이다.
앞서 설명된 바와 같이, 광원의 위치는 다른 정보로부터 산출된다. 하지만, 본 발명이 이에 한정되는 것은 아니다. 예를 들면, 적어도 하나의 카메라가 장착된 이동 단말은 적어도 하나의 카메라로부터의 샘플 비디오 프레임을 이용하여 강한 광원에 대한 상대적인 방향을 결정할 수 있다. 따라서 실내에서 사용된 장치(이동 단말)는 내부의 조명의 상대적 위치를 결정할 수 있고, 이에 따른 그림자를 결정할 수 있다.
상술한 예들에서, 환경은 변함없고, 이동 단말은 환경과 비교하여 물리적으로 이동한다. 하지만, 본 발명이 이에 한정되는 것은 아니다. 예시적인 실시예에서, 묘사된 가상 객체는, 예를 들면 해시계는 이동 단말로부터 미리 결정된 거리에 있는 것으로 묘사될 수 있다. 해시계 그림자는 앞서 설명된 방식으로 연산된다. 하지만, 현실 세계 광경(view)을 묘사한다기보다는, 해시계는 이동 단말의 방향에 따라 묘사된다. 따라서 이동 단말이 표시부를 수평으로 유지하고 있다면, 해시계는 바로 위에서부터 보이는 것처럼 묘사된다. 이동 단말이 수직 상태이고 이동 단말의 뒤쪽이 북쪽을 향하고 있다면, 해시계는 남쪽으로부터 곧바로 세워져 있는 것과 같이 보이도록 묘사될 수 있다. 이동 단말이 서쪽 그리고 아래로 뒤가 기울어지면, 해시계는 동쪽 그리고 위로부터 보이는 것과 같이 묘사될 것이다.
본 발명의 예시적인 실시예에 있어서, 빛 사용 이외의 환경 상황 정보는 사용자의 경험을 향상시키기 위해 사용된다. 예를 들면, 이동 단말은 특정 위치에 나무를 묘사할 수 있다. 이동 단말은 그 위치에 대한 전형적인 공통의 나무를 검색할 수 있고, 날짜에 따라 나뭇잎을 가지거나 가지지 않는 나무를 묘사할 수 있다. 예를 들면, 봄에 단풍나무는 밝은 초록색 새로운 나뭇잎을 가지는 것으로 묘사될 것이고, 여름에는 진한 초록 나뭇잎으로 묘사될 것이며, 가을에는 빨강 또는 노랑 나뭇잎으로 묘사될 것이고, 겨울에는 나뭇잎이 다 떨어진 것으로 묘사될 것이다.
본 발명의 실시예에 있어서, 얻어질 수 있는 임의의 환경 정보는 묘사된 장면에 포함될 수 있다. 예를 들면, 바람, 비, 눈, 온도, 운량 등을 포함하는 지역 날씨 조건이 얻어질 수 있다. 따라서 강한 바람이 존재한다면, 나무는 바람의 방향 및 속도에 따라 흔들리는 것으로 묘사된다. 강한 바람이 가을에 존재한다면, 보통의 지역 나무에 대한 적절한 색의 나뭇잎이 바람에 날리는 것으로 묘사될 수 있다. 비, 눈 또는 구름이 존재한다면, 태양이 잘 보이지 않게 될 것이며, 어떤 그림자도 명확하게 드리우지 않는 것으로 결정될 수 있다.
도 4는 본 발명의 실시예에 따른 객체를 묘사하는 방법의 흐름도이다.
도 4를 참조하면, 401 과정에서 하나 이상의 3차원 객체가 현실 세계 위치에서 이동 단말에 의해 묘사되기 위해 결정된다. 현실 세계 위치에 관한 크기, 모양 및 위치가 3차원 객체를 위해 결정된다. 하나 이상의 3차원 객체의 위치는 거리 주소 또는 위도와 경도 좌표와 같은, 안정된 데이터로부터 결정될 수 있다. 대안적으로, 하나 이상의 3차원 객체는 현실 세계 위치에 묘사되는 가상 객체가 될 수 있다. 현실 세계 위치는 예컨대 GPS 신호에 의해 식별된 무선 네트워크 액세스 포인트의 정보를 얻는 것에 의해 주소의 엔트리에 의해 결정될 수 있다. 또한, 현실 세계 위치는 이동 단말의 현장(locale)이 될 수 있다. 예를 들면, 지리적 위치를 결정하기 위한 신호를 얻는 것이 불가능한 실내의 장치(이동 단말)가 될 수 있다. 위치를 결정하는 방법은 물론 더 나은 정확도를 위해 조합될 수 있다. 지리적 위치는, 만약 사용된다면, 장치(이동 단말)의 현재 위치가 될 수 있다. 하지만, 본 발명이 이에 한정되는 것은 아니다. 예를 들면, 사용자는 목적지에 대한 내비게이션 지시를 다시 볼 수 있다.
403 과정에서 하나 이상의 3차원 객체로부터 광원까지의 벡터가 결정된다. 현실 세계 위치가 외부라면, 예를 들면, 광원은 그 위치에서 볼 수 있는 태양 또는 달과 같은 천체가 될 수 있다. 태양 또는 달의 위치는 지리적 위치(geolocation) 및 지역 날짜와 시간으로부터 산출된다. 위치가 지리적 위치를 결정하는 것이 불가능하면, 가장 밝은 광원이 사용될 수 있다. 가장 밝은 광원은 예컨대, 장치(이동 단말) 상의 하나 이상의 카메라로부터 입력을 샘플링하는 것에 의해 결정될 수 있다. 광원을 결정하는 방법은 물론 더 나은 정확도를 위해 조합될 수 있다.
405 과정에서, 명암 및 그림자는 광원에 대한 벡터에 따라 묘사되는 3차원 객체에 적용된다.
도 5는 본 발명의 실시예에 따른 객체들을 묘사하는 방법의 흐름도이다.
도 5를 참조하면, 501 과정에서 하나 이상의 객체는 묘사되기 위한 것으로 결정된다. 크기, 모양 및 상호간의 상대 위치가 3차원 객체에 대해 결정된다. 503 과정에서 벡터는 하나 이상의 3차원 객체에서 주요 광원까지 결정된다.
505 과정에서 장치(이동 단말)의 방향이 결정된다. 예를 들면, 하나 이상의 자기 센서는 지구의 자기장의 정보를 얻기 위해 사용될 수 있다. 그러면 그 정보는 자기장 벡터의 보정을 결정하기 위해 장치(이동 단말)의 지리적 위치의 정보로 사용될 수 있고, 그렇게 함으로써 장치(이동 단말)의 방향을 결정할 수 있다. 다른 방법도 물론 사용될 수 있다. 예를 들면, 자이로스코프는 기준 방향으로부터 변화를 결정하기 위해 사용될 수 있다. 다른 예를 들면, 제어부는 카메라로부터 이미지를 이용하여 지평선을 결정할 수 있고, 그로부터 방향을 결정할 수 있다. 방향을 결정하는 방법은 물론 보다 나은 정확도를 위해 조합될 수 있다.
507 과정에서 3차원 객체의 명암 및 그림자는 광원에 대한 벡터에 따라 결정된다. 509 과정에서 3차원 객체는 표시부의 방향에 따라 명암 및 그림자와 함께 묘사된다. 예를 들면, 해시계가 표시될 수 있고, 장치(이동 단말)의 방향은 해시계가 보이는 것으로부터 시점을 결정할 수 있다. 이 예에서, 방향은 객체 주변의 가상 구상의 시점을 결정하는 것과 유사한 것으로 고려될 수 있다. 대안적으로, 장치(이동 단말)의 방향은 현실 세계 위치로부터 시점을 결정하기 위해 사용될 수 있다. 예를 들면, 사용자는 그가 방문하길 계획한 마을의 상점가를 표시할 수 있다. 사용은 위치를 입력할 수 있고, 위치(상점가)의 시점은 장치(이동 단말)의 방향에 따라 달라질 수 있다. 따라서 사용자는 장치(이동 단말)가 그 위치에서 카메라를 제어하는 것과 같이 “둘러 볼 수” 있다. 각 방향에서, 묘사된 3차원 객체는 대응하는 명암 및 그림자와 함께 보여진다.
도 6은 본 발명의 실시예에 따른 객체를 묘사하는 방법의 흐름도이다.
도 6을 참조하면, 지리적 위치는 601 과정에서 결정된다. 지리적 위치는 GPS, 위도와 경도 좌표, 거리 주소와 같은 알려진 다양한 수단 중 임의의 것에 의해 결정되거나 또는 입력될 수 있다.
603 과정에서, 지리적 위치에 대한 현재 환경 정보가 얻어진다. 환경 정보는 예컨대, 날짜, 시간, 온도, 풍속 및 풍향, 운량, 강수량, 녹지 않은 강설량 또는 거리가 젖은 것으로 만들 수 있는 강우량과 같은 최근 강수량, 일반적인 지역 식물상(local flora), 도로 폐쇄 또는 정비 작업의 안내 등을 포함할 수 있다.
605 과정에서 지리적 위치는 환경 정보에 따라 묘사된다. 예를 들면, 빙점 이하를 유지하는 온도와 함께 과거에 6 인치의 적설량이 있었다고 확인되면, 그 지리적 위치는 덮여진 눈과 같이 묘사될 수 있다. 나무가 우거진 영역이 보이는 것으로 결정되면, 그것의 나뭇잎들은 지리적 위치에 대한 날짜 및 공통 나무들에 따라 결정될 수 있다. 그 정보가 잔뜩 흐린 하늘을 나타내면, 그림자의 표현은 억제될 수 있다. 풍속이 매우 낮은 수준 보다 빠르다면, 나무 흔들림 또는 떨어지는 나뭇잎이 날려지는 것이 적절하게 묘사될 것이다. 강수량이 현재 떨어지고 있다면, 이는 묘사될 수 있다. 어떤 형식의 정보가 얻어지고 어떤 형식의 정보가 지리적 위치의 묘사에 사용되는지에 대한 내재된 제한은 없다.
도 7은 본 발명의 실시예에 따른 이동 단말의 블록도이다.
도 7을 참조하면, 이동 단말(700)은 이동 단말의 기능 및 동작을 제어할 수 있는 적어도 하나의 제어부(710)를 포함할 수 있다. 하나의 제어부(710)가 도시되었지만, 본 발명이 이에 한정되는 것은 아니다. 예를 들면, 특정 제어부가 이동 단말(710)의 각 기능 모듈에 제공될 수 있다. 제어부(710)는 앞서 설명된 기능을 수행하기 위해 이동 단말을 제어한다.
입력부(722)는 사용자로부터 입력을 수신한다. 출력부(724)는 사용자에 대한 출력을 표시한다. 본 발명이 이에 한정되는 것은 아니지만, 입력부(722) 및 출력부(724)는 터치스크린(720)으로 조합될 수 있다.
선택적인 카메라부(730)가 제공될 수 있고, 하나 이상의 카메라를 포함한다. 다중 카메라가 제공되면, 다중 카메라는 다른 방향을 대향하거나, 또는 입체 형상화를 위해 동일한 방향을 대향할 수 있다.
하나 이상의 선택적인 센서부(740)가 포함될 수 있다. 선택적인 센서부(740)는 예컨대, 자기장 센서, 열 센서, 근접 센서, 자이로스코프, 온도계 또는 이동 단말(700)의 환경의 정보를 얻는 임의의 다른 센서를 포함할 수 있다.
선택적인 메모리부(750)가, 만약 제공된다면, 이동 단말(700)의 동작을 위해 요구되는 소프트웨어, 및 이동 단말(700)의 사용에 의해 수신되거나 또는 생성되는 다양한 데이터를 저장할 것이다. 메모리부(750)는 제어부(710)가 그로부터 판독하거나 또는 그에 기록할 수 있는 디지털 스토리지의 임의의 형식을 포함할 수 있다. 앞서 설명된 기능들을 수행하기 위해 하나 이상의 프로그램들은 메모리부(750)에 저장될 수 있다.
선택적인 오디오 처리부(760)는 디지털 형식으로 오디오 정보의 인코딩 및 디코딩과 같은, 사운드의 처리를 제어한다. 마이크(MIC)는 오디오 정보를 수신하고, 수신된 오디오 정보를 오디오 처리부(760)에 제공한다. 스피커(SPK)는 오디오 처리부(760)로부터 오디오 신호를 수신하고 수신된 오디오 신호를 재생한다.
하나 이상의 무선 송신부(770) 및 무선 수신부(780)가 선택적으로 제공될 수 있고, 무선 통신의 임의의 형식, 예를 들면, 셀룰러 전화, 와이파이, GPS 수신, 블루투스 등에 사용된다.
본 발명의 측면들이 비일시적인 컴퓨터 판독 가능한 기록 매체 상에서 컴퓨터 판독 가능한 코드로도 구현될 수 있다. 비일시적인 컴퓨터 판독 가능한 기록매체는 이후 컴퓨터 시스템에 의해 판독될 수 있는, 데이터를 저장할 수 있는 임의의 데이터 스토리지 장치이다. 비일시적인 컴퓨터 판독 가능한 기록 매체의 예는 ROM(Read-Only Memory), RAM(Random-Access Memory), CD(Compact Disc)-ROM, 자기테이프, 플로피 디스크 및 광학 데이터 저장 장치를 포함한다. 또한, 비일시적인 컴퓨터 판독 가능한 기록 매체는 컴퓨터 판독 가능한 코드가 분산 방식으로 저장되고 실행시키기 위하여 컴퓨터 시스템에 연결된 네트워크 상에서 분산될 수 있다. 또한, 본 발명을 달성하기 위한 기능 프로그램, 코드 및 코드 세그먼트는 본 발명이 적용되는 기술분야에서 통상의 지식을 가진 프로그래머에 의해 해석될 수 있다.
본 발명이 임의의 실시예와 관련하여 도시되고 설명되었지만, 형식 및 세부사항에서 다양한 변경들이 첨부된 청구범위들과 그 균등물들에 의해 정의되는 본 발명의 사상 및 범위로부터 벗어남이 없이 그 안에서 만들어질 수 있음을 이 기술분야에서 통상의 지식을 가진 자라면 이해될 수 있을 것이다.

Claims (24)

  1. 사용자 인터페이스를 제공하는 방법에 있어서,
    하나 이상의 객체의 지리적 위치(geolocation)를 결정하는 과정;
    상기 객체들로부터 광원까지의 벡터를 결정하는 과정;
    상기 벡터에 따라 상기 객체들에 명암을 적용하는 과정;
    상기 벡터에 따라 상기 객체에 드리우는 그림자를 결정하는 과정; 및
    상기 적용된 명암 및 상기 드리워진 그림자 중 하나 이상으로 상기 지리적 위치에 상기 객체를 묘사하는 과정;
    을 포함하는 객체를 묘사하기 위한 방법.
  2. 제1항에 있어서,
    상기 광원은 태양 및 달을 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  3. 제2항에 있어서,
    상기 벡터를 결정하는 과정은 상기 지리적 위치 및 상기 지리적 위치에서 지역 날짜와 시간에 따라 하늘에서의 상기 광원의 위치를 결정하는 과정을 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  4. 제1항에 있어서,
    상기 객체는 상기 지리적 위치에 있는 것으로 알려진 적어도 하나의 객체를 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  5. 제4항에 있어서,
    상기 객체는 움직이지 않는 객체를 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  6. 제1항에 있어서,
    상기 지리적 위치를 결정하는 과정은 GPS(Global Positioning System) 수신기에 의해 수신되는 신호를 기반으로 하는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  7. 제1항에 있어서,
    상기 지리적 위치를 결정하는 과정은 사용자에 의해 입력되는 정보를 기반으로 하는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  8. 제1항에 있어서,
    상기 벡터를 결정하는 과정은 적어도 하나의 카메라로 얻어지는 적어도 하나의 이미지에서 주요 광원을 식별하는 과정을 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  9. 단말 장치를 이용한 객체 묘사 방법에 있어서,
    하나 이상의 객체 각각의 크기, 모양 및 상대 위치를 결정하는 과정;
    상기 객체로부터 광원까지의 벡터를 결정하는 과정;
    상기 벡터에 따라 상기 객체에 의해 드리워지는 그림자 및 객체의 명암 중 적어도 하나를 결정하는 과정;
    상기 단말 장치의 표시부의 방향을 결정하는 과정; 및
    상기 방향에 따라 상기 명암 및 상기 그림자 중 적어도 하나로 상기 하나 이상의 객체를 묘사하는 과정;
    를 포함하는 객체를 묘사하기 위한 방법.
  10. 제9항에 있어서,
    상기 객체는 자기장의 감지, 자이로스코프 및 가시 지평선 중 적어도 하나에 기초하여 결정되는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  11. 하나 이상의 객체의 지리적 위치를 결정하는 과정;
    상기 지리적 위치의 현재 환경 정보를 획득하는 과정; 및
    상기 환경 정보에 따라 상기 지리적 위치에 상기 객체를 묘사하는 과정;
    을 포함하는 것을 객체를 묘사하기 위한 방법.
  12. 제11항에 있어서,
    상기 환경 정보는 적어도 하나의 온도, 풍향, 풍속, 날짜, 시간, 현재 운량, 현재 강수량, 최근 강수량, 상기 지리적 위치에 대한 공통 식물상(flora common)의 정보, 및 도로 정비 또는 도로 폐쇄의 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 방법.
  13. 표시부; 및
    하나 이상의 객체의 지리적 위치를 결정하고, 상기 객체로부터 광원까지의 벡터를 결정하며, 상기 벡터에 따라 상기 객체에 명암을 적용하고, 상기 벡터에 따라 상기 객체에 드리우는 그림자를 결정하며, 상기 적용된 명암 및 상기 드리워진 그림자 중 적어도 하나로 상기 지리적 위치에서 상기 표시부 상에 상기 객체를 묘사하도록 제어하는 제어부;
    를 포함하는 객체를 묘사하기 위한 장치.
  14. 제13항에 있어서,
    상기 광원은 태양 및 달을 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
  15. 제14항에 있어서,
    상기 제어부는 상기 지리적 위치 및 상기 지리적 위치에서 지역 날짜와 시간에 따라 하늘에서의 상기 광원의 위치를 결정하는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
  16. 제13항에 있어서,
    상기 객체는 상기 지리적 위치에 있는 것으로 알려진 적어도 하나의 객체를 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
  17. 제16항에 있어서,
    상기 객체는 움직이지 않는 객체를 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
  18. 제13항에 있어서,
    상기 제어부는 GPS(Global Positioning System) 수신기에 의해 수신되는 신호를 기반으로 하는 지리적 위치를 결정하는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
  19. 제13항에 있어서,
    상기 제어부는 사용자에 의해 입력되는 정보를 기반으로 하는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
  20. 제13항에 있어서,
    상기 제어부는 적어도 하나의 카메라로 얻어지는 적어도 하나의 이미지에서 주요 광원을 식별하는 것에 의해 상기 벡터를 결정하는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
  21. 표시부; 및
    상기 하나 이상의 객체 각각의 크기, 모양, 및 상대 위치를 결정하고, 상기 객체로부터 광원까지의 벡터를 결정하며, 상기 벡터에 따라 상기 하나 이상의 객체의 명암 및 상기 하나 이상의 객체에 의해 드리워지는 그림자 중 적어도 하나를 결정하고, 상기 표시부의 방향을 결정하며, 상기 객체를 상기 방향에 따른 상기 그림자 및 상기 명암 중 적어도 하나로 상기 표시부에 묘사하도록 제어하는 적어도 하나의 제어부;
    를 포함하는 객체를 묘사하기 위한 장치.
  22. 제21항에 있어서,
    상기 방향은 자기장의 감지, 자이로스코프 및 가시 지평선 중 적어도 하나에 기초하여 결정되는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
  23. 표시부; 및
    하나 이상의 객체의 지리적 위치를 결정하고, 상기 지리적 위치의 현재 환경 정보를 획득하고, 상기 환경 정보에 따라 상기 지리적 위치에 상기 객체를 묘사하도록 제어하는 하나 이상의 제어부;
    를 포함하는 객체를 묘사하기 위한 장치.
  24. 제23항에 있어서,
    상기 환경 정보는 적어도 하나의 온도, 풍향, 풍속, 날짜, 시간, 현재 운량, 현재 강수량, 최근 강수량, 상기 지리적 위치에 대한 공통 식물상의 정보, 및 도로 정비 또는 도로 폐쇄의 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 객체를 묘사하기 위한 장치.
KR1020130109682A 2013-01-31 2013-09-12 사용자 인터페이스를 위한 지능적 주변 조명 장치 및 방법 KR20140098653A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/756,077 US9041714B2 (en) 2013-01-31 2013-01-31 Apparatus and method for compass intelligent lighting for user interfaces
US13/756,077 2013-01-31

Publications (1)

Publication Number Publication Date
KR20140098653A true KR20140098653A (ko) 2014-08-08

Family

ID=50101686

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130109682A KR20140098653A (ko) 2013-01-31 2013-09-12 사용자 인터페이스를 위한 지능적 주변 조명 장치 및 방법

Country Status (4)

Country Link
US (1) US9041714B2 (ko)
EP (1) EP2783735A3 (ko)
KR (1) KR20140098653A (ko)
CN (1) CN103968816A (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014202690A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 ナビゲーション装置及び記憶媒体
US9466149B2 (en) * 2013-05-10 2016-10-11 Google Inc. Lighting of graphical objects based on environmental conditions
US9780873B2 (en) * 2014-03-25 2017-10-03 Osram Sylvania Inc. Light-based communication transmission protocol
US10171939B2 (en) 2014-07-15 2019-01-01 Belkin International, Inc. Control based on geo-dependent conditions
WO2016010994A1 (en) * 2014-07-15 2016-01-21 Belkin International, Inc. Control based on geo-dependent conditions
US20160293142A1 (en) * 2015-03-31 2016-10-06 Upton Beall Bowden Graphical user interface (gui) shading based on context
CN205158205U (zh) * 2015-10-22 2016-04-13 乐视移动智能信息技术(北京)有限公司 一种可照明的移动终端
KR102588518B1 (ko) * 2016-07-06 2023-10-13 삼성전자주식회사 전자 장치 및 이의 디스플레이 방법
KR102568898B1 (ko) * 2016-10-26 2023-08-22 삼성전자주식회사 디스플레이 장치 및 컨텐츠를 디스플레이하는 방법
US10422903B2 (en) * 2017-07-31 2019-09-24 GM Global Technology Operations LLC Method and system for determining an intended destination
US20210134049A1 (en) * 2017-08-08 2021-05-06 Sony Corporation Image processing apparatus and method
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
CN115004237A (zh) * 2020-01-23 2022-09-02 索尼集团公司 信息处理装置、信息处理方法以及程序

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870098A (en) * 1997-02-26 1999-02-09 Evans & Sutherland Computer Corporation Method for rendering shadows on a graphical display
JPH11271069A (ja) * 1998-03-20 1999-10-05 Sony Corp 航法装置
JP4094219B2 (ja) * 2000-09-19 2008-06-04 アルパイン株式会社 車載用ナビゲーション装置の立体地図表示方法
JP4807692B2 (ja) * 2001-09-26 2011-11-02 パイオニア株式会社 画像作成装置及びその方法、並びにコンピュータプログラム
CN101534371B (zh) * 2003-09-11 2012-03-21 松下电器产业株式会社 可视处理装置、基于它的装置以及可视处理方法
WO2006035755A1 (ja) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
US7538766B2 (en) * 2005-06-08 2009-05-26 Microsoft Corporation Pre-computed shadow fields
US9563980B2 (en) * 2005-11-18 2017-02-07 Autodesk, Inc. Grip manipulatable shadows in 3D models
DE102006028010A1 (de) * 2006-06-19 2007-12-20 Robert Bosch Gmbh Verfahren zur Visualisierung von geografischen Daten
US7675518B1 (en) * 2006-09-05 2010-03-09 Adobe Systems, Incorporated System and method for generating image shadows with ray-coherent integration of extruded transparency maps
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
CN101939620A (zh) * 2008-05-02 2011-01-05 通腾科技股份有限公司 用于显示地图信息的导航装置及方法
WO2009141497A1 (en) * 2008-05-22 2009-11-26 Nokia Corporation Device and method for displaying and updating graphical objects according to movement of a device
US20110144909A1 (en) * 2009-12-14 2011-06-16 Robert Bosch Gmbh Personalized and context-sensitive 3d route guidance

Also Published As

Publication number Publication date
EP2783735A3 (en) 2016-06-15
EP2783735A2 (en) 2014-10-01
US9041714B2 (en) 2015-05-26
US20140210822A1 (en) 2014-07-31
CN103968816A (zh) 2014-08-06

Similar Documents

Publication Publication Date Title
KR20140098653A (ko) 사용자 인터페이스를 위한 지능적 주변 조명 장치 및 방법
US10708704B2 (en) Spatial audio for three-dimensional data sets
CN108391445B (zh) 一种虚拟现实显示方法及终端
JP5785302B2 (ja) ユーザの現在位置と現在方位角を用いて目的の地理的情報を検索してユーザに提供するユーザ携帯端末
JP2022547326A (ja) モバイルデバイスナビゲーションシステム
JP6064544B2 (ja) 画像処理装置、画像処理方法、プログラム及び端末装置
JP2019109252A (ja) 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法
JP2019512769A (ja) ネットワークの拡張現実表現のためのシステムおよび方法
CN103017750B (zh) 移动终端导航方法及相应的导航***
JP2010534849A (ja) 位置を判定する方法及び装置
JP2007133489A5 (ko)
JP2013527952A (ja) 地図情報を表示するための方法及び装置
AU2012360730A1 (en) An apparatus, method and computer program for displaying points of interest
US9411822B2 (en) System and method of generating and using open sky data
CN110207701A (zh) 室内导航的方法、装置、终端设备及计算机存储介质
WO2015019917A1 (ja) ユーザの位置を基準にローカルな観光情報を検索する方法
CN105224086B (zh) 一种信息处理方法及电子设备
JP6665402B2 (ja) コンテンツ表示端末、コンテンツ提供システム、コンテンツ提供方法、および、コンテンツ表示プログラム
US10964112B2 (en) Candidate geometry displays for augmented reality
JP4640011B2 (ja) 画像処理装置、遠景画像表示方法および遠景画像表示プログラム
JP4631959B2 (ja) 移動体ナビゲーション装置及び地図画像表示方法
CN105222794A (zh) 一种信息处理方法及电子设备
US20200340823A1 (en) Dynamic streetview with view images enhancement
CN117029815A (zh) 基于空间互联网的场景定位方法和相关设备
US11461976B2 (en) Visualization transitions for augmented reality

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid