KR20090067822A - 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법 - Google Patents
현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법 Download PDFInfo
- Publication number
- KR20090067822A KR20090067822A KR1020070135612A KR20070135612A KR20090067822A KR 20090067822 A KR20090067822 A KR 20090067822A KR 1020070135612 A KR1020070135612 A KR 1020070135612A KR 20070135612 A KR20070135612 A KR 20070135612A KR 20090067822 A KR20090067822 A KR 20090067822A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- world
- mixed
- information
- object information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000004891 communication Methods 0.000 claims description 23
- 230000008451 emotion Effects 0.000 claims description 9
- 230000008921 facial expression Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A63F13/12—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/33—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
- A63F13/332—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using wireless networks, e.g. cellular phone networks
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
- A63F13/87—Communicating with other players during game play, e.g. by e-mail or chat
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/61—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1012—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/40—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
- A63F2300/406—Transmission via wireless network, e.g. pager or GSM
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/57—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
- A63F2300/572—Communication between players during game play of non game information, e.g. e-mail, chat, file transfer, streaming of audio and streaming of video
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72427—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Marketing (AREA)
- Finance (AREA)
- Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
Abstract
현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법이 제공된다. 본 발명의 일 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템은 현실 세계(Real world)의 구조를 반영한 미러 세계(Mirror world)를 생성하는 미러 세계 생성부; 현실 객체 정보(Real object information)를 수집하는 객체 정보 수집부; 및 상기 수집된 현실 객체 정보(Real object information)를 상기 미러 세계에 반영함으로써 혼합 세계(Mixed world)를 생성하는 혼합 세계 생성부를 포함한다.
가상 세계, 혼합 세계, 아바타, 현실 인자
Description
본 발명은 현실 인자를 반영하는 혼합 세계 시스템 및 구현 방법에 관한 것으로, 더욱 상세하게는 현실의 상황을 반영하여 가상 세계와 현실 세계가 혼합된 혼합 세계 시스템 및 구현 방법에 관한 것이다.
이동통신 망의 발달과 무선 네트워크 환경이 성숙되면서 휴대전화 또는 휴대용 통신 기기를 이용하여 인스턴트 메시지를 주고 받을 수 있으며, 채팅 또는 영상 통화 등에 의하여 사용자 사이에 의사 소통을 할 수 있다.
이와 함께, 인터넷 웹 기반의 대화방 또는 온라인 게임 등에서의 아바타(Avatar) 기반의 캐릭터를 통하여 가상 세계 속에서 타인의 아바타와 인스턴트 메시지를 주고 받을 수 있다. 여기서, 아바타는 가상 세계에서 자신의 분신을 의미하는 시각적 객체를 의미한다. 이러한 아바타는 인터넷 채팅, 쇼핑몰, 온라인 게임 등에서 자신을 나타내는 독창적인 캐릭터로서, 가상 세계에서 자신을 표현해주는 가상 형상이라 할 수 있다.
이러한 가상 현실 속의 아바타는 사용자에 대한 어떠한 정보를 보여주거나 나타내지 아니하며, 사용자로부터 일방적, 종속적, 수동적인 명령에 의하여 조작된다. 따라서, 사용자 입장에서는 실질적으로 가상 세계 속의 아바타가 자신을 나타내는 분신이라고 느끼기가 쉽지 않다.
한편, 온라인 게임 또는 인터넷 대화방 등의 가상 세계에서는 소정의 객체로 이루어지는 환경으로 이루어 질 수 있다. 예를 들어, 온라인 게임에서는 골짜기와 산으로 이루어지는 지형 또는 지하에 형성되어 있는 던전 등과 같은 현실 세계가 아닌 가상 세계를 구성하며, 사용자는 자신의 캐릭터를 조종하여 가상 세계를 탐험할 수 있다.
하지만, 사용자는 현실 세계를 가상 세계 속에서 구현하고, 구현된 가상 세계 속에서 자신이 참여하고자 하는 욕구가 있다. 따라서, 가상 세계에 현실 세계 및/또는 사용자의 상태 등을 반영함으로써 새로운 사회를 구현할 수 있는 시스템 및 시스템 구현 방법이 필요하다.
본 발명의 일 실시예는 현실 세계에서의 객체의 상태를 가상적으로 구축한 환경에 반영할 수 있는 혼합 세계 생성 시스템 및 구현 방법을 제공하는 것을 목적으로 한다.
이와 함께, 현실 세계의 주변 환경을 반영한 혼합 세계에서 사용자의 상태를 나타내는 현실 인자를 반영할 수 있는 혼합 세계 생성 시스템 및 구현 방법을 제공하는 것을 목적으로 한다.
또한, 현실 세계의 주변 환경을 반영한 혼합 세계에 참여하는 사용자 사이에 통신, 거래, 광고 등의 온라인 활동을 제공할 수 있는 혼합 세계 생성 시스템 및 구현 방법을 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템은 현실 세계(Real world)의 구조를 반영한 미러 세계(Mirror world)를 생성하는 미러 세계 생성부; 현실 객체 정보(Real object information)를 수집하는 객체 정보 수집부; 및 상기 수집된 현실 객체 정보(Real object information)를 상기 미러 세계에 반영함으로써 혼합 세계(Mixed world)를 생성하는 혼합 세계 생성부를 포함한다.
상기 목적을 달성하기 위하여 본 발명의 다른 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 방법은 현실 세계(Real world)의 구조를 반영한 미러 세계(Mirror world)를 생성하는 단계; 현실 객체 정보(Real object information)를 수집하는 단계; 및 상기 수집된 현실 객체 정보(Real object information)를 상기 미러 세계에 반영함으로써 혼합 세계(Mixed world)를 생성하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상기한 바와 같은 본 발명의 일 실시예에 따르면, 현실 세계에서의 객체의 상태를 가상적으로 구축한 환경에 반영할 수 있다.
이와 함께, 현실 세계의 주변 환경을 반영한 혼합 세계에서 사용자의 상태를 나타내는 현실 인자를 반영함으로써 현실 세계를 현장감 있게 혼합 세계에 표현할 수 있다.
또한, 현실 세계의 주변 환경을 반영한 혼합 세계에 참여하는 사용자 사이에 통신, 거래, 광고 등의 사회적 활동을 제공할 수 있는 혼합 세계 시스템 및 구현 방법을 제공함으로써 사용자에게 다양한 사회 활동을 지원할 수 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
이하, 본 발명의 실시예들에 의하여 본 발명의 일 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
본 실시예에서 사용되는 '모듈'이라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성 요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템의 블록도를 보여준다. 도 2는 본 발명의 일 실시예에 따른 미러 세계의 예를 보여준다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템(100)은 미러 세계 생성부(110), 객체 정보 수집부(120), 혼합 세계 생성부(130), 아바타 생성부(140), 배경 생성부(150), 혼합 세계 생성부(160), 정보 광고 게재부(170) 및 데이터 가변 조절부(180)를 포함할 수 있다.
미러 세계 생성부(110)는 현실 세계의 구조를 가상 세계에 반영하여 나타내는 미러 세계(Mirror world; 250)를 생성한다. 여기서, 현실 세계(Real world; 200)란 각 사용자가 참여하고 있는 현실의 공간을 의미한다. 따라서, 현실 세계(200)에는 현실 공간을 구성하는 다양한 객체를 포함할 수 있다. 예를 들어, 도 2에서와 같이 현실 공간에서의 건물(220), 도로(230), 사람(210) 등으로 구성될 수 있다. 이외에도, 자동차, 오토바이, 다리, 강, 산 등의 현실 공간에서의 모든 객체들이 현실 세계(200)를 구성할 수 있다. 따라서, 미러 세계 생성부(110)는 이차원적 그래픽 또는 3차원적인 그래픽 효과에 의해 미러 세계(250)를 생성할 수 있다.
미러 세계 생성부(110)는 현실 세계(200)에서 정지되어 있는 구조적 형태를 반영한 미러 세계(250)를 생성한다. 예를 들어, 사용자가 박물관에서 유물을 관람 중이라면, 미러 세계 생성부(110)는 사용자가 관람 중인 박물관 건물의 구조를 그대로 옮겨 사용자 기기에 출력할 수 있다.
이와 같이, 미러 세계 생성부(110)는 현실 세계(200)에서 정지 상태에 있거나 또는 건물 등과 같이 구조물을 가상 세계에서 동일하거나 유사하게 재현한다. 여기서, 가상 세계(Virtual world)는 사용자 기기 등의 출력되는 화면상에서 구현되는 공간 또는 사회를 의미하며, 가상 세계에서 사용자들은 온라인 대화, 온라인 게임, 온라인 매매 등의 다양한 온라인 상의 활동을 할 수 있다.
미러 세계 생성부(110)는 각 사용자의 현실 세계(200)에서의 위치가 지정되면, 미리 정의되어 있는 현실 세계(200)의 구조물 데이터를 이용하여 가상 세계에서 미러 세계(250)를 생성할 수 있다. 또는 미러 세계 생성부(110)는 각 사용자의 사용자 기기로부터 획득된 현실 세계(200)의 정보를 이용하여 미러 세계(250)를 생성할 수도 있다.
미러 세계 생성부(110)에 의하여 현실 세계(200)의 구조를 반영한 미러 세계(250)를 각 사용자에게 제공할 수 있으므로, 사용자로 하여금 현실감 있게 가상 세계에 접근하고, 사용자의 시스템에 빠져드는 흡입력을 높일 수 있다.
객체 정보 수집부(120)는 현실 세계(200)로부터 현실 객체 정보(Real object information)를 수집한다. 현실 세계(200)에서 현실 객체 정보(Real object information)의 수집은 다양한 경로를 통하여 이루어 질 수 있다. 여기서, 현실 객체 정보(Real object information)는 현실 세계(200)에서의 가변성을 가지는 모든 정보를 포함할 수 있다. 예를 들어, 현실 객체 정보는 각 사용자의 움직임 정보, 각 사용자 주변의 날씨 관련 정보, 각 사용자 주변의 운행중인 자동차 정보 등의 가변성 정보를 포함할 수 있다.
예를 들어, 객체 정보 수집부(120)는 각 사용자가 소지하고 있는 사용자 기기(10; 20; 30)로부터 현실 객체 정보(Real object information)를 수신할 수 있다. 또는 객체 정보 수집부(120)는 각 사용자 주위에 위치하는 센서 네트워크로부터 현실 객체 정보(Real object information)를 수신할 수도 있다.
예를 들어, 현실 객체 정보가 움직임 정보라면, 움직임 정보는 각 사용자의 위치 정보, 이동 방향 정보, 이동 속도 정보 등을 포함할 수 있다. 이러한 움직임 정보는 사용자가 소지하고 있는 사용자 기기의 센서를 통하여 획득할 수 있다. 지피에스(GPS; Global positioning system) 센서가 사용자 기기에 포함되어 있다면, 사용자 기기를 소지하고 있는 사용자의 현실 세계(200)에서의 위치를 알 수 있다. 따라서, 상기 사용자의 위치를 아는 경우에는 시간에 따른 사용자의 궤적을 파악하면, 이동 방향 정보, 이동 속도 정보를 획득할 수 있다. 한편, 사용자 기기에 가속도 센서 또는 각속도 센서를 포함함으로써 사용자의 움직임 정보를 획득할 수도 있다. 또는 사용자 기기가 현실 공간에서의 통신망의 기지국이나 중계기에 연결되어 있는 경우에는, 상기 기지국이나 중계기로부터 사용자 기기의 위치를 전달 받아 움직임 정보를 획득할 수도 있다. 상기 획득된 움직임 정보를 사용자 기기는 객체 정보 수집부(120)에 전송한다.
다른 예로서, 현실 객체 정보가 각 사용자 주변의 날씨 관련 정보라면, 사용 자가 소지하고 있는 사용자 기기에 장착된 감지 센서에 의하여 사용자 주위의 날씨 관련 정보를 획득할 수 있다. 또는 사용자 주위에 현실 세계(200)의 곳곳에 위치하는 날씨 정보 감지기 등에 의하여 날씨 관련 정보를 획득할 수도 있다. 여기서, 날씨 관련 정보는 각 사용자 주위의 온도, 습도 등의 정보와 비, 흐림, 맑음 등의 정보를 포함할 수 있다. 상기 획득된 날씨 관련 정보를 객체 정보 수집부(120)에 전송할 수 있다.
혼합 세계 생성부(130)는 수집된 현실 객체 정보(Real object information)를 이용하여 미러 세계(250)에 반영함으로써 혼합 세계(Mixed world)를 생성한다. 혼합 세계 생성부(130)는 현실 세계(200)를 동일 또는 유사하게 옮겨놓은 미러 세계(250)에 현실 세계(200)의 실제 등장 인물 또는 실시간의 날씨, 풍경 등을 반영하여 혼합 세계를 생성할 수 있다. 혼합 세계는 실질적으로는 가상적인 세계이지만, 현실 세계(200)의 공간적 구조뿐만 아니라 현실 세계(200)의 환경을 반영함으로써 사용자로 하여금 실제 공간에서 활동하는 것과 유사한 효과를 낼 수 있는 곳이다. 따라서, 혼합 세계 생성부(130)는 이차원적 그래픽 또는 3차원적인 그래픽 효과를 이용하여 현실감 있는 혼합 세계(400)를 생성할 수 있다.
혼합 세계 생성부(130)는 현실 세계(200)의 현실 인자(Real states)를 반영할 수 있는 현실 객체 정보를 혼합 세계를 생성한다. 예를 들어, 혼합 세계 생성부(130)는 현실 객체 정보를 이용하여 미러 세계(250)에 사용자의 실제 인물을 반영한 사용자 아바타를 위치시킬 수 있다. 사용자 아바타는 사용자 기기로부터 수집한 현실 객체 정보 중에서 위치, 이동 경로, 속도 등의 움직임 정보를 이용하여 미 러 세계(250)에서 계속적으로 갱신될 수 있다.
혼합 세계 생성부(130)는 사용자에 따라 서로 다른 혼합 세계(Mixed world)를 생성할 수 있다. 혼합 세계 생성부(130)는 각 사용자의 사용자 기기마다 각 사용자에 적합한 혼합 세계를 생성할 수 있다. 혼합 세계 생성부(130)는 사용자가 소지하고 있는 사용자 기기로부터 획득된 현실 객체 정보를 이용하여, 해당 사용자를 기준으로 혼합 세계를 생성할 수 있다.
아바타 생성부(140)는 혼합 세계에 등장하는 사용자 아바타를 생성시키는 역할을 한다. 아바타는 현실 세계(200)의 실제 사용자(210)를 가상 세계에서 표현하는 캐릭터이다. 따라서, 아바타 생성부(140)는 본 발명의 일 실시예에 따라 생성된 혼합 세계에서 실제 사용자(210)를 나타내는 아바타를 생성한다.
도 3은 본 발명의 일 실시예에서 사용되는 아바타를 보여준다. 도 4a는 본 발명의 일 실시예에 따라 생성된 혼합 세계를 각 사용자의 사용자 기기 상에 출력되는 화면을 보여주며, 도 4b는 도 4a의 혼합 세계에 가상 세계의 객체를 더 포함하여 각 사용자의 사용자 기기 상에 출력되는 화면을 보여준다.
도 3을 참조하면, 사용자 아바타는 가상 아바타(320)와 현실 아바타(310)로 분류될 수 있다. 가상 아바타(320)는 사용자의 명령에 의해서만 통신을 하고 사용자의 명령에 의하여만 외모 또는 위치를 변경할 수 있는 수동적, 종속적 및 비지능적인 아바타를 의미한다.
한편, 현실 아바타(310)는 사용자의 통제뿐만 아니라 현실 객체 정보를 이용하여 대응되는 실제 사용자(210)의 외모, 위치 등을 실시간으로 반영되는 아바타를 말하며, 실제 사용자(210)에 대하여 양방향으로 통신할 수 있고, 능동적이고 지능적인 아바타이다.
본 발명의 일 실시예에서는 가상 아바타(320)와 현실 아바타(310)가 혼합 세계(400)에서 공존할 수 있으며, 현실 아바타(310)는 수집된 현실 객체 정보를 이용하여 능동적으로 움직일 수 있다. 한편, 본 발명의 일 실시예에서는 현실 아바타(310) 또는 가상 아바타(320)를 구분하기 위하여 몸체를 솔리드(Solid)하게 표현 또는 할로우(Hallow)로 표현되는 예로 나타내었지만, 상기 현실 아바타와 가상 아바타의 별다른 구분 없이 표현될 수도 있다.
도 4a를 참조하면, 본 발명의 일 실시예에 따른 혼합 세계(400)의 배치는 다음과 같다. 혼합 세계(400)는 현실 세계(200)의 도로(485), 건물(490) 등의 정적 구조를 반영하는 미러 세계(250)에 사용자를 나타내는 아바타(450; 470) 등의 동적 구조를 포함하여 나타내는 세계이다. 이와 함께, 혼합 세계 생성부(130)는 객체 정보 수집부(120)에 의하여 수집된 현실 객체 정보를 반영함으로써 미러 세계(250)를 현장감 있는 혼합 세계(400)로 변환시킬 수 있다.
상기 혼합 세계(400)에 구성원으로 제1 사용자 아바타(450) 및 제2 사용자 아바타(470)가 있는 경우를 살펴볼 수 있다. 아바타 생성부(140)는 제1 사용자 아바타(450)와 제2 사용자 아바타(470)를 현실 객체 정보를 이용하여 생성할 수 있다. 혼합 세계 생성부(130)는 사용자 아바타(450; 470)가 존재하는 혼합 세계(400)를 생성한다.
제1 사용자 기기(410)는 현실 세계(200)에서 현실 객체 정보를 수집하여 객 체 정보 수집부(120)에 전송할 수 있고, 이와 함께 제1 사용자 기기(410)는 제1 사용자에게 생성된 혼합 세계(400)를 출력하여 보여줄 수 있다. 제1 사용자는 제1 사용자 아바타(450)를 중심으로 생성된 혼합 세계(400)에 제1 사용자 아바타(450)를 통하여 구성원으로 참여할 수 있으며, 자신의 주위에 위치하는 타 사용자(여기서는 제2 사용자)와 통신, 대화, 거래, 선물 제공 등의 다양한 온라인 상의 활동을 할 수 있다. 이와 함께, 제1 사용자는 현실 세계(200)의 공간상으로 계속 이동하는 경우에 제1 사용자 기기(410)는 제1 사용자의 움직임 정보 또는 제1 사용자의 주변 환경 정보 등의 현실 객체 정보를 수집하여 객체 정보 수집부(120)에 전송한다. 혼합 세계 생성부(130)는 수집된 현실 객체 정보를 이용하여 이미 생성된 혼합 세계(400)를 계속적으로 갱신하며, 제1 사용자는 혼합 세계의 갱신된 것을 제1 사용자 기기(410)를 통하여 볼 수 있다.
한편, 제2 사용자는 제2 사용자 기기(420)를 소지하고, 제2 사용자 기기(420)를 통하여 생성된 혼합 세계(400)를 볼 수 있다. 제2 사용자는 제2 사용자 아바타(470)를 중심으로 생성된 혼합 세계(400)를 제2 사용자 기기(420)를 통하여 관람할 수 있고, 상기 생성된 혼합 세계(400)를 통하여 자신의 주위의 타 사용자(여기서는 제1 사용자)와 통신, 대화, 거래, 선물 제공 등의 오프라인에서도 할 수 있는 다양한 온라인 상의 활동을 할 수 있다. 제2 사용자 기기(420)는 제2 사용자의 움직임 정보, 제2 사용자의 감정 정보, 제2 사용자 주위의 환경 정보 등의 현실 객체 정보를 수집하여 객체 정보 수집부(120)에 전송한다. 혼합 세계 생성부(130)는 수집된 현실 객체 정보를 이용하여 미러 세계(250)에 반영한 혼합 세계를 생성 할 수 있다.
이와 같이, 본 발명의 일 실시예에 따른 혼합 세계 생성 시스템은 현실 세계(200)의 구조물뿐만 아니라 현실 세계(200)의 현실 인자를 반영하여 현장감 있는 혼합 세계를 생성할 수 있다. 또한, 각 사용자는 자신을 나타내는 아바타를 통하여 혼합 세계에 속해있는 다른 아바타와 통신, 거래, 선물 제공 등의 다양한 활동을 할 수 있다.
도 4b를 참조하면, 도 3a와 같이 생성된 혼합 세계(400)에 가상 세계의 구성 요소를 더 포함하는 경우에 대하여 살펴본다. 예를 들어, 도 3a의 현장에 있지 아니하면서 제3 사용자 기기(430)를 통하여 상기 혼합 세계(400)에 참여하려는 제3 사용자가 있는 경우이다. 여기서, 제3 사용자 기기(430)는 현실 객체 정보를 수집할 수 있는 센서 등이 구비되지 아니한 일반적인 기기를 지칭할 수 있다.
이와 같이, 혼합 세계(400)에는 가상 세계의 구성 요소로서 생성되는 구조물(495)이 더 포함될 수 있다. 혼합 세계 생성부(130)는 현실 객체 정보를 반영한 혼합 세계(400)를 생성하면서, 가상 세계의 구성 요소로서 가상의 구조물 또는 지형이 더 포함된 혼합 세계(400)를 생성할 수 있다.
제3 사용자가 혼합 세계(400)에 입장하는 경우에, 아바타 생성부(140)는 제3 사용자 아바타(480)를 생성할 수 있다. 생성된 제3 사용자 아바타(480)는 혼합 세계(400)에 구성원이지만, 제3 사용자 기기(430)로는 현실 객체 정보를 수집할 수 없기 때문에 제3 사용자의 현실 인자(Real stats)는 혼합 세계에 반영될 수 없다. 따라서, 제3 사용자 아바타(480)는 제1 사용자 아바타(450) 및 제2 사용자 아바 타(470)와는 달리 가상 아바타이다.
한편, 제3 사용자 아바타는 혼합 세계(400)에서 제1 사용자 아바타(450) 및 제2 사용자 아바타(470) 등과 같은 타 사용자의 아바타와 통신, 거래, 선물 제공 등의 다양한 사회적 활동을 할 수 있다.
상기와 같이, 본 발명의 일 실시예에 의하여 생성된 혼합 세계에 아바타를 통하여 입장하는 사용자는 현실감 있게 구성된 혼합 세계(400)에 가상 세계의 구성 요소 일부를 첨가하여 분위기를 달리 할 수 있다. 이와 함께, 혼합 세계에 입장한 사용자는 사용자 아바타를 통하여 타 사용자와 혼합 세계에서 통신, 거래 등의 다양한 사회적 활동을 할 수 있다.
다시 도 1을 참조하면, 아바타 생성부(140)는 각 사용자의 감정 정보를 이용하여 각 사용자 아바타의 표정 또는 동작을 제어할 수 있다. 상기 감정 정보는 생성된 혼합 세계(400)에서 각 사용자 아바타를 통한 통신 메시지로부터 추출된 정보이다. 또한 감정 정보는 각 사용자 아바타를 통하여 사용자가 주고 받은 말 또는 통화 상태에서의 사용자의 톤을 바탕으로 협력 필터링(Collaborative filtering)에 의하여 추출된 정보일 수 있다.
배경 생성부(150)는 미러 세계(250)와 아바타를 포함하는 혼합 세계(400)에 배경을 제공한다. 배경 생성부(150)는 현실 객체 정보를 바탕으로 혼합 세계(400)에 현실 세계(200)의 사용자의 주변 환경을 반영하는 배경을 제공할 수 있다. 예를 들어, 사용자의 사용자 기기에서 현실 세계(200)에 눈이 오거나 비가 오는 것으로 감지되면, 배경 생성부(150)는 사용자 기기로부터 전송된 비 또는 눈 정보를 현실 객체 정보를 받아들여 혼합 세계(400)에 비 또는 눈이 내리는 것으로 표현할 수 있다. 또는 사용자 기기를 통하여 주위 환경이 안개로 휩싸이거나 사용자 주위의 나무가 바람에 흔들리는 것을 감지하는 경우에, 배경 생성부(150)는 사용자 기기가 감지된 정보를 전송 받아 혼합 세계(400)에 동일한 효과를 주는 배경을 생성할 수 있다.
혼합 세계 통신부(160)는 각 사용자가 생성된 사용자 아바타를 통하여 다른 사용자와 통신할 수 있다. 각 사용자는 사용자 기기를 사용하여 생성된 혼합 세계(400)에서의 볼 수 있는 다른 사용자 아바타를 통하여 다른 사용자와 통신할 수 있다. 통신 방식으로는 텍스트(Text), 보이스(Voice), 영상(Image) 및 멀티미디어(Multimedia) 중 하나를 이용할 수 있고, 상대방과 text-to-text, text-to-voice, voice-to-text, voice-to-voice 등의 다양한 형태의 통신 또는 인스턴트 메시지를 할 수 있다.
정보 광고 게재부(170)는 생성된 혼합 세계(400)의 구성원들에게 광고 또는 정보를 혼합 세계(400)에 게재할 수 있다. 정보 광고 게재부(170)는 혼합 세계(400)의 구성원들에게 맞춤 정보를 제공하기 위하여 각 사용자가 검색한 검색어를 종합하여 추출된 키워드-타켓 광고법(Keyword-targeted advertising)을 활용할 수 있다. 또는 외부 광고를 도입하여 혼합 세계(400)의 배경의 곳곳에 배치하여, 각 사용자가 이동하면서 볼 수 있도록 할 수 있다. 이와 함께, 정보 광고 게재부(170)는 시스템 상의 공지사항, 긴급 뉴스 등의 통상의 정보 등을 제공할 수 있다.
데이터 가변 조절부(180)는 각 사용자의 사용자 기기(10; 20; 30)에 따라 데이터 전송률 및 전송 데이터량을 제어하는 역할을 한다. 데이터 가변 조절부(180)는 다양한 사용자 기기(10; 20; 30)가 혼합 세계(400)에 접근하려 할 때, 연결성이 약한 사용자 기기를 위한 데이터 싱크 기능과 서로 다른 사용자 기기 사이에 최적화된 통화로, 컨텐츠, 사용자 인터페이스를 제공하는 역할을 할 수 있다.
이와 함께, 본 발명의 일 실시예에 따른 혼합 세계 생성 시스템은 사용자가 voice-to-text 메시징 서비스를 원하는 경우 음성인식 엔진 역할을 하는 보이스 인식부(미도시됨), 사용자의 자연어 텍스트를 입력으로 받아 사용자 아바타의 감정과 동작을 생성해 내는 감정 동작 생성부(미도시됨) 및 사용자가 text-to-voice 메시징 서비스를 원하는 경우 텍스트로부터 음성을 생성해 내는 음성 생성부(미도시됨)을 더 포함할 수 있다.
상기와 같이, 본 발명의 일 실시예에 의하여 현실 인자(Real states)를 나타내는 현실 객체 정보를 미러 세계(250)에 반영함으로써 가상 세계에서 현실감 있는 혼합 세계를 생성할 수 있다. 이와 함께, 각 사용자는 아바타를 통하여 혼합 세계내의 다른 사용자와 통신, 거래, 선물 제공 등의 다양한 사회적 활동을 할 수 있다. 또한, 각 사용자의 움직임, 각 사용자의 주변 환경, 각 사용자의 감정 정보를 현실 객체 정보로서 미러 세계(250)에 반영하여 혼합 세계를 생성함으로써 현실 세계와 가상 세계의 공간적인 벽을 허물어 사용자 흡입력이 높은 시장 또는 커뮤니티를 형성할 수 있다.
도 5는 본 발명의 일 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템의 흐름도를 보여준다.
도 5를 참조하면, 먼저 현실 세계의 구조를 반영한 미러 세계(Mirro world)를 생성한다(S500). 혼합 세계를 볼 수 있는 사용자 기기를 소지하고 있는 사용자 위치가 주어지면, 미리 정의되어 있는 현실 세계의 정적인 구조들이 반영된 미러 세계가 생성된다.
미러 세계의 생성되면서, 객체 정보 수집부(120)에 의하여 현실 객체 정보를 수집한다(S510). 현실 객체 정보는 각 사용자의 사용자 기기에 장착되어 있는 다양한 센서류에 의하여 각 사용자의 움직임 정보, 날씨 관련 정보 등의 현실 객체 정보를 감지하여 객체 정보 수집부(120)에 전송할 수 있다. 또는 각 사용자의 주위에 위치하는 센서 네트워크에서 현실 객체 정보를 감지하여 객체 정보 수집부(120)에 전송할 수도 있다.
현실 객체 정보가 수집되면, 현실 객체 정보를 미러 세계(250)에 반영하여 혼합 세계(400)를 생성할 수 있다(S520). 혼합 세계(400)는 현실 세계(200)의 정적인 구조를 반영한 미러 세계(250)에 현실 세계(200)의 동적인 상황을 실시간으로 반영되는 세계이다. 현실 객체 정보에 포함된 사용자 움직임 정보를 이용하여 생성된 각 사용자의 사용자 아바타들은 혼합 세계(400)에서 통신, 거래, 선물 제공, 커뮤니티 형성 등의 다양한 온라인 활동을 할 수 있다.
도 6은 본 발명의 다른 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템의 흐름도를 보여준다. 도 6을 참조하면, 먼저 현실 세계의 구조를 반영한 미러 세계(Mirro world)를 생성한다(S500). 미러 세계의 생성되면서, 객체 정보 수 집부(120)에 의하여 현실 객체 정보를 수집한다(S510).
현실 객체 정보를 이용하여 각 사용자의 아바타를 생성한다(S620). 아바타 생성부(140)는 현실 객체 정보 중에서 각 사용자의 위치, 이동 경로 등의 움직임 정보를 이용하여 미러 세계(250)에 사용자 아바타를 생성한다. 미러 세계(250)에 사용자 아바타가 형성되어, 미러 세계(250)에서 다양한 활동을 하게 되는 세계를 혼합 세계(400)라고 할 수 있고, 여기서 사용자 아바타는 현실 세계(200)에서 동일한 영역에 존재하는 인물을 나타내는 아바타이다. 한편, 생성된 사용자 아바타는 현실 객체 정보를 바탕으로 사용자의 외모, 위치 등을 실시간으로 반영하여 사용자 아바타의 의상, 표정 또는 동작을 바꿀 수 있는 능동적이며 지능적인 현실 아바타이다.
생성된 사용자 아바타는 혼합 세계(400)의 주위 사용자 아바타와 통신할 수 있다(S630). 각 사용자는 생성된 혼합 세계(400)에서의 볼 수 있는 다른 사용자 아바타를 통하여 다른 사용자와 통신할 수 있다. 통신 방식으로는 텍스트(Text), 보이스(Voice), 영상(Image) 및 멀티미디어(Multimedia) 중 하나를 이용할 수 있고, 상대방과 text-to-text, text-to-voice, voice-to-text, voice-to-voice 등의 다양한 형태의 통신 또는 인스턴트 메시지를 할 수 있다.
현실 객체 정보 중의 날씨 관련 정보 등의 사용자 주위의 환경 정보를 이용하여 혼합 세계(400)에서의 배경을 생성하거나 갱신할 수 있다(S640). 사용자의 사용자 기기가 온도, 습도 또는 눈, 비, 맑음, 흐름 등의 날씨를 감지하여, 이를 전송 받은 배경 생성부(150)는 혼합 세계(400)에서 배경을 생성할 수 있다.
이와 함께, 생성된 혼합 세계(400)에 각 사용자가 볼 수 있도록 광고 또는 공지 정보를 게재할 수 있다(S650). 광고 게재는 각 사용자의 통신 내역에서 키워드를 추출하여 선택된 광고를 게재하거나 또는 외부 광고를 혼합 세계의 배경에 삽입함으로써 이루어질 수 있다.
상기와 같이, 가상 세계에 현실 세계(200)의 정적 구조와 동적 구조를 옮겨 놓은 혼합 세계(400)를 생성함으로써 각 사용자가 현실 세계(200)와 동질감을 가지는 시장, 커뮤니티 등을 형성할 수 있다. 이와 함께, 현실 세계의 주변 환경을 반영한 혼합 세계에 참여하는 사용자 사이에 통신, 거래, 광고 등의 다양한 온라인 활동을 제공할 수 있다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
도 1은 본 발명의 일 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 미러 세계의 예를 보여주는 도면이다.
도 3은 본 발명의 일 실시예에서 사용되는 아바타를 보여주는 도면이다.
도 4a는 본 발명의 일 실시예에 따라 생성된 혼합 세계를 각 사용자의 사용자 기기 상에 출력되는 화면을 보여주는 도면이다.
도 4b는 도 4a의 혼합 세계에 가상 세계의 객체를 더 포함하여 각 사용자의 사용자 기기 상에 출력되는 화면을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템의 흐름도이다.
도 6은 본 발명의 다른 실시예에 따른 현실 인자를 반영하는 혼합 세계 생성 시스템의 흐름도이다.
<도면의 주요 부분에 관한 부호의 설명>
110: 미러 세계 생성부
120: 객체 정보 수집부
130: 혼합 세계 생성부
140: 아바타 생성부
150: 배경 생성부
160: 혼합 세계 통신부
170: 정보 광고 게재부
180: 데이터 가변 조절부
Claims (20)
- 현실 세계(Real world)의 구조를 반영한 미러 세계(Mirror world)를 생성하는 미러 세계 생성부;현실 객체 정보(Real object information)를 수집하는 객체 정보 수집부; 및상기 수집된 현실 객체 정보(Real object information)를 상기 미러 세계에 반영함으로써 혼합 세계(Mixed world)를 생성하는 혼합 세계 생성부를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 1항에 있어서,상기 혼합 세계 생성부는 상기 현실 객체 정보를 각 사용자의 사용자 기기로부터 수집하여 상기 혼합 세계에 각 사용자 아바타를 생성시키는 아바타 생성부를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 2항에 있어서, 상기 아바타 생성부는상기 각 사용자의 현실 객체 정보를 이용하여 상기 각 사용자 아바타의 동작 또는 표정을 제어하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 2항에 있어서,상기 생성된 각 사용자 아바타를 통하여 각 사용자는 다른 사용자와 텍스 트(Text), 보이스(Voice), 영상(Image) 및 멀티미디어(Multimedia) 중 하나를 이용하여 통신할 수 있게 하는 혼합 세계 통신부를 더 포함하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 4항에 있어서, 상기 아바타 생성부는상기 각 사용자의 통신 메시지를 분석하여 추출된 감정 정보를 이용하여 상기 각 사용자 아바타의 표정 또는 동작을 제어하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 1항에 있어서,상기 혼합 세계 생성부는 상기 현실 객체 정보를 이용하여 상기 혼합 세계에서의 배경을 갱신하는 배경 생성부를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 1항에 있어서, 상기 현실 객체 정보는각 사용자의 사용자 기기로부터 획득되는 사용자 정보, 각 사용자의 움직임 정보 또는 각 사용자 주변의 날씨 관련 정보를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 1항에 있어서,상기 생성된 혼합 세계에 광고 또는 공지 정보를 삽입하는 정보 광고 게재부를 더 포함하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 8항에 있어서, 상기 정보 광고 게재부는각 사용자의 사용자 기기로부터 수집된 메시지 또는 사용자 음성을 분석하여 키워드에 따라 광고를 상기 혼합 세계에 게재하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 제 1항에 있어서,각 사용자가 사용자 기기를 개별적으로 소지하며, 상기 사용자 기기는 각 사용자의 현실 객체 정보(Real object information)를 수집하며,상기 현실 객체 정보는 상기 각 사용자의 움직임 정보 또는 상기 각 사용자 주변의 날씨 관련 정보를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 시스템.
- 현실 세계(Real world)의 구조를 반영한 미러 세계(Mirror world)를 생성하는 단계;현실 객체 정보(Real object information)를 수집하는 단계; 및상기 수집된 현실 객체 정보(Real object information)를 상기 미러 세계에 반영함으로써 혼합 세계(Mixed world)를 생성하는 단계를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 11항에 있어서,상기 현실 객체 정보를 각 사용자의 사용자 기기로부터 수집하여 상기 혼합 세계에 각 사용자 아바타를 생성시키는 단계를 더 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 12항에 있어서, 상기 각 사용자 아바타를 생성시키는 단계는상기 각 사용자의 현실 객체 정보를 이용하여 상기 각 사용자 아바타의 동작 또는 표정을 제어하는 단계를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 12항에 있어서,상기 생성된 각 사용자 아바타를 통하여 각 사용자는 다른 사용자와 텍스트(Text), 보이스(Voice), 영상(Image) 및 멀티미디어(Multimedia) 중 하나를 이용하여 통신하는 단계를 더 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 13항에 있어서, 상기 각 사용자 아바타를 생성시키는 단계는상기 각 사용자의 통신 메시지를 분석하여 추출된 감정 정보를 이용하여 상기 각 사용자 아바타의 표정 또는 동작을 제어하는 단계를 더 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 11항에 있어서,상기 현실 객체 정보를 이용하여 상기 혼합 세계에서의 배경을 갱신하는 단계를 더 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 11항에 있어서, 상기 현실 객체 정보는각 사용자의 사용자 기기로부터 획득되는 사용자 정보, 각 사용자의 움직임 정보 또는 각 사용자 주변의 날씨 관련 정보를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 12항에 있어서,상기 생성된 혼합 세계에 광고 또는 공지 정보를 삽입하는 단계를 더 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 18항에 있어서, 상기 광고 또는 공지 정보를 삽입하는 단계는각 사용자의 사용자 기기로부터 수집된 메시지 또는 사용자 음성을 분석하여 키워드에 따라 광고를 상기 혼합 세계에 게재하는 단계를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
- 제 11항에 있어서,각 사용자가 사용자 기기를 개별적으로 소지하며, 상기 사용자 기기는 각 사용자의 현실 객체 정보(Real object information)를 수집하며,상기 현실 객체 정보는 상기 각 사용자의 움직임 정보 또는 상기 각 사용자 주변의 날씨 관련 정보를 포함하는, 현실 인자를 반영하는 혼합 세계 생성 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070135612A KR20090067822A (ko) | 2007-12-21 | 2007-12-21 | 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법 |
US12/339,606 US20090164916A1 (en) | 2007-12-21 | 2008-12-19 | Method and system for creating mixed world that reflects real state |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070135612A KR20090067822A (ko) | 2007-12-21 | 2007-12-21 | 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20090067822A true KR20090067822A (ko) | 2009-06-25 |
Family
ID=40790159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070135612A KR20090067822A (ko) | 2007-12-21 | 2007-12-21 | 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090164916A1 (ko) |
KR (1) | KR20090067822A (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100138707A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 영상 장치 및 컴퓨터 판독 기록매체 |
WO2012011665A3 (ko) * | 2010-07-20 | 2012-03-29 | 삼성전자주식회사 | 생체 정보를 활용한 가상 세계 조작 장치 및 방법 |
KR101385316B1 (ko) * | 2012-04-03 | 2014-04-30 | 주식회사 로보플래닛 | 로봇을 이용한 광고 및 콘텐츠 연계형 대화 서비스 제공 시스템 및 그 방법 |
KR20200055209A (ko) * | 2018-11-12 | 2020-05-21 | 주식회사 로뎀마이크로시스템 | 체험형 콘텐츠 생성 방법, 장치 및 시스템 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8539359B2 (en) * | 2009-02-11 | 2013-09-17 | Jeffrey A. Rapaport | Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic |
US8788943B2 (en) | 2009-05-15 | 2014-07-22 | Ganz | Unlocking emoticons using feature codes |
US20110148884A1 (en) * | 2009-12-17 | 2011-06-23 | Charles Timberlake Zeleny | System and method for determining motion of a subject |
US9901828B2 (en) * | 2010-03-30 | 2018-02-27 | Sony Interactive Entertainment America Llc | Method for an augmented reality character to maintain and exhibit awareness of an observer |
US20120042263A1 (en) | 2010-08-10 | 2012-02-16 | Seymour Rapaport | Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources |
WO2012118507A1 (en) * | 2011-03-03 | 2012-09-07 | Research In Motion Limited | Methods and apparatus to generate virtual-world environments |
US8676937B2 (en) | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
US9402057B2 (en) * | 2012-04-02 | 2016-07-26 | Argela Yazilim ve Bilisim Teknolojileri San. ve Tic. A.S. | Interactive avatars for telecommunication systems |
JP5891131B2 (ja) | 2012-07-11 | 2016-03-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
KR102516124B1 (ko) | 2013-03-11 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR102318391B1 (ko) | 2013-03-15 | 2021-10-26 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9553832B2 (en) * | 2013-08-13 | 2017-01-24 | Facebook, Inc. | Techniques to interact with an application via messaging |
JP6216398B2 (ja) * | 2016-02-22 | 2017-10-18 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
JP6487512B2 (ja) * | 2017-09-22 | 2019-03-20 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイおよび画像生成方法 |
CN112639579B (zh) | 2018-08-31 | 2023-09-15 | 奇跃公司 | 用于增强现实装置的空间分辨的动态调暗 |
US11580815B2 (en) * | 2019-03-14 | 2023-02-14 | Nant Holdings Ip, Llc | Avatar-based sports betting |
US11537351B2 (en) | 2019-08-12 | 2022-12-27 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
US11223800B1 (en) | 2020-11-03 | 2022-01-11 | International Business Machines Corporation | Selective reaction obfuscation |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5880731A (en) * | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
US6476830B1 (en) * | 1996-08-02 | 2002-11-05 | Fujitsu Software Corporation | Virtual objects for building a community in a virtual world |
US6080063A (en) * | 1997-01-06 | 2000-06-27 | Khosla; Vinod | Simulated real time game play with live event |
US6023270A (en) * | 1997-11-17 | 2000-02-08 | International Business Machines Corporation | Delivery of objects in a virtual world using a descriptive container |
WO2002020111A2 (en) * | 2000-09-07 | 2002-03-14 | Omnisky Corporation | Coexistent interaction between a virtual character and the real world |
JP2002197376A (ja) * | 2000-12-27 | 2002-07-12 | Fujitsu Ltd | ユーザに応じてカストマイズされた仮想世界を提供する方法および装置 |
JP3990170B2 (ja) * | 2001-05-10 | 2007-10-10 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理システム、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法 |
WO2003095050A2 (en) * | 2002-05-13 | 2003-11-20 | Consolidated Global Fun Unlimited, Llc | Method and system for interacting with simulated phenomena |
US7099745B2 (en) * | 2003-10-24 | 2006-08-29 | Sap Aktiengesellschaft | Robot system using virtual world |
JP4393169B2 (ja) * | 2003-12-04 | 2010-01-06 | キヤノン株式会社 | 複合現実感提示方法および装置 |
US20050130725A1 (en) * | 2003-12-15 | 2005-06-16 | International Business Machines Corporation | Combined virtual and video game |
FR2869709A1 (fr) * | 2004-10-21 | 2005-11-04 | France Telecom | Systeme et procede de modelisation d'une scene tridimensionnelle par un monde virtuel, et serveur relie a un tel systeme |
US8585476B2 (en) * | 2004-11-16 | 2013-11-19 | Jeffrey D Mullen | Location-based games and augmented reality systems |
US20070118420A1 (en) * | 2005-02-04 | 2007-05-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Context determinants in virtual world environment |
US20090018910A1 (en) * | 2007-07-10 | 2009-01-15 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Virtual world interconnection technique |
US20070203828A1 (en) * | 2005-02-04 | 2007-08-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Real-world incentives offered to virtual world participants |
US20070013691A1 (en) * | 2005-07-18 | 2007-01-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Supervisory authority in virtual world environment |
US7843471B2 (en) * | 2006-03-09 | 2010-11-30 | International Business Machines Corporation | Persistent authenticating mechanism to map real world object presence into virtual world object awareness |
WO2007124590A1 (en) * | 2006-05-03 | 2007-11-08 | Affinity Media Uk Limited | Method and system for presenting virtual world environment |
US20080120558A1 (en) * | 2006-11-16 | 2008-05-22 | Paco Xander Nathan | Systems and methods for managing a persistent virtual avatar with migrational ability |
US8026918B1 (en) * | 2006-11-22 | 2011-09-27 | Aol Inc. | Controlling communications with proximate avatars in virtual world environment |
WO2008109299A2 (en) * | 2007-03-01 | 2008-09-12 | Sony Computer Entertainment America Inc. | System and method for communicating with a virtual world |
US20080215994A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Virtual world avatar control, interactivity and communication interactive messaging |
WO2008106196A1 (en) * | 2007-03-01 | 2008-09-04 | Sony Computer Entertainment America Inc. | Virtual world avatar control, interactivity and communication interactive messaging |
GB0703974D0 (en) * | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
US20080263460A1 (en) * | 2007-04-20 | 2008-10-23 | Utbk, Inc. | Methods and Systems to Connect People for Virtual Meeting in Virtual Reality |
US8675017B2 (en) * | 2007-06-26 | 2014-03-18 | Qualcomm Incorporated | Real world gaming framework |
US8902227B2 (en) * | 2007-09-10 | 2014-12-02 | Sony Computer Entertainment America Llc | Selective interactive mapping of real-world objects to create interactive virtual-world objects |
US7996113B2 (en) * | 2007-09-28 | 2011-08-09 | GM Global Technology Operations LLC | Methods of integrating real and virtual world using virtual sensor/actuator |
US7890638B2 (en) * | 2007-09-29 | 2011-02-15 | Alcatel-Lucent Usa Inc. | Communication between a real world environment and a virtual world environment |
US8024407B2 (en) * | 2007-10-17 | 2011-09-20 | Citrix Systems, Inc. | Methods and systems for providing access, from within a virtual world, to an external resource |
US20090106672A1 (en) * | 2007-10-18 | 2009-04-23 | Sony Ericsson Mobile Communications Ab | Virtual world avatar activity governed by person's real life activity |
US20090106671A1 (en) * | 2007-10-22 | 2009-04-23 | Olson Donald E | Digital multimedia sharing in virtual worlds |
US20090113314A1 (en) * | 2007-10-30 | 2009-04-30 | Dawson Christopher J | Location and placement of avatars in virtual worlds |
US9381438B2 (en) * | 2007-11-07 | 2016-07-05 | International Business Machines Corporation | Dynamically displaying personalized content in an immersive environment |
US8006182B2 (en) * | 2008-03-18 | 2011-08-23 | International Business Machines Corporation | Method and computer program product for implementing automatic avatar status indicators |
US7685023B1 (en) * | 2008-12-24 | 2010-03-23 | International Business Machines Corporation | Method, system, and computer program product for virtualizing a physical storefront |
-
2007
- 2007-12-21 KR KR1020070135612A patent/KR20090067822A/ko active IP Right Grant
-
2008
- 2008-12-19 US US12/339,606 patent/US20090164916A1/en not_active Abandoned
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100138707A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 영상 장치 및 컴퓨터 판독 기록매체 |
WO2012011665A3 (ko) * | 2010-07-20 | 2012-03-29 | 삼성전자주식회사 | 생체 정보를 활용한 가상 세계 조작 장치 및 방법 |
US9545567B2 (en) | 2010-07-20 | 2017-01-17 | Samsung Electronics Co., Ltd. | Apparatus and method for manipulating a virtual world by utilizing biometric information |
KR101385316B1 (ko) * | 2012-04-03 | 2014-04-30 | 주식회사 로보플래닛 | 로봇을 이용한 광고 및 콘텐츠 연계형 대화 서비스 제공 시스템 및 그 방법 |
KR20200055209A (ko) * | 2018-11-12 | 2020-05-21 | 주식회사 로뎀마이크로시스템 | 체험형 콘텐츠 생성 방법, 장치 및 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US20090164916A1 (en) | 2009-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20090067822A (ko) | 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법 | |
AU2023200357B2 (en) | System and method for augmented and virtual reality | |
US20200211291A1 (en) | Recognizing objects in a passable world model in augmented or virtual reality systems | |
US9824274B2 (en) | Information processing to simulate crowd | |
CN109426333A (zh) | 一种基于虚拟空间场景的信息交互方法及装置 | |
Wetzel et al. | Designing mobile augmented reality games | |
Brunnberg | Playing with the highway experience |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |