KR20200074429A - Interactive wall system, and method for providing the same - Google Patents
Interactive wall system, and method for providing the same Download PDFInfo
- Publication number
- KR20200074429A KR20200074429A KR1020180162798A KR20180162798A KR20200074429A KR 20200074429 A KR20200074429 A KR 20200074429A KR 1020180162798 A KR1020180162798 A KR 1020180162798A KR 20180162798 A KR20180162798 A KR 20180162798A KR 20200074429 A KR20200074429 A KR 20200074429A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- effect
- information
- content
- unit
- Prior art date
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 26
- 239000002131 composite material Substances 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 5
- 230000000694 effects Effects 0.000 claims description 128
- 239000000284 extract Substances 0.000 claims description 18
- 230000033001 locomotion Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 7
- 238000002864 sequence alignment Methods 0.000 claims 3
- 238000010276 construction Methods 0.000 abstract description 3
- 230000009897 systematic effect Effects 0.000 abstract description 3
- 238000004458 analytical method Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000001939 inductive effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1415—Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0261—Targeted advertisements based on user location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
- G09F9/30—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Tourism & Hospitality (AREA)
- Accounting & Taxation (AREA)
- Economics (AREA)
- Marketing (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 인터렉티브 월 시스템 및 그 제공 방법에 관한 것으로, 보다 구체적으로는, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법에 관한 것이다. The present invention relates to an interactive wall system and a method for providing the same, and more specifically, it is formed on a wall such as a road or sidewalk, and provides preset sensor-responsive content while people pass or recognize a preset object or gesture, etc. In this case, the present invention relates to an interactive wall system and a method for providing the information by overlapping and outputting the effect content with the sensor-responsive content, so that it can be used in various ways for inducing interest to people and for other learning purposes.
건물, 도로, 인도 등과 같은 통로 등의 벽면을 활용한 광고 표시 장치가 널리 사용되고 있는데, 보다 상세하게는 외벽 상에 소정 모양의 발광영역을 형성하고 그 발광영역들의 조합하여 원하는 문구나 내용을 표시하거나, 전체의 LCD 등과 같은 디스플레이 장치를 활용하여 원하는 영상을 표시할 수 있다.Advertisement display devices utilizing wall surfaces such as buildings, roads, and sidewalks are widely used. More specifically, a desired shape or content is displayed by forming a light-emitting area having a predetermined shape on an outer wall and combining the light-emitting areas. , By using a display device such as an entire LCD, a desired image can be displayed.
그러나 옥외의 디스플레이 장치는 단순히 광고용으로 정보를 한 방향으로 전달하고 있어서, 정보 전달에 한계가 있으며 사람들에게 흥미 유발하지 못하고, 그 밖의 학습용 등으로 다방면으로 활용할 수 없는 한계점이 있어 왔다. However, since outdoor display devices simply transmit information in one direction for advertisement, there are limitations in transmitting information, which do not cause interest to people, and cannot be used in various ways for other learning purposes.
본 발명은 상기의 문제점을 해결하기 위한 것으로, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법을 제공하기 위한 것이다.The present invention is to solve the above problems, it is formed on a wall surface such as a road or sidewalk, providing preset sensor-responsive content, and then reacting effect content when people pass or recognize a preset object or gesture, etc. It is intended to provide an interactive wall system and a method for providing the information by providing information transmission by overlapping with the type content and inducing people to use it in various ways for inducing interest and other learning purposes.
또한, 본 발명은 하나의 미리 설정된 센서 반응형 컨텐츠가 모니터 상에 출력되는 상태에서 이펙트 컨텐츠를 빔 프로젝터의 광원 조사로 이루어지도록 함에 체계적인 정보 구축 및 추출을 통해 각 컨텐츠 별 특성을 극대화시키도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법을 제공하기 위한 것이다.In addition, the present invention is to maximize the characteristics of each content through systematic information construction and extraction so that the effect content is made by irradiating the light source of the beam projector while one preset sensor-responsive content is output on the monitor. It is intended to provide an interactive wall system and a method of providing the same.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 인터렉티브 월 제공 방법은, 사용자 단말(400)이 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 제 1 단계; 및 사용자 단말(400)이 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 제 2 단계; 를 포함하는 것을 특징으로 한다.In order to achieve the above object, in the interactive wall providing method according to an embodiment of the present invention, when the
이때, 상기 제 2 단계의 제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며, 제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 한다.At this time, the
또한, 상기 제 2 단계 이후, 사용자 단말(400)이 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 제 3 단계; 를 더 포함하는 것이 바람직하다.In addition, after the second step, when the
또한, 상기 제 3 단계 이후, 사용자 단말(400)이 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 제 4 단계; 를 더 포함하는 것을 특징으로 한다.In addition, after the third step, when the
또한, 상기 제 4 단계 이후, 사용자 단말(400)이 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 한다.In addition, after the fourth step, the
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 인터렉티브 월 제공 시스템은, 제 1 센서 모듈(100), 제 2 센서 모듈(200), 아두이노 보드(300), 사용자 단말(400), 복합형 터치스크린(500) 및 빔 프로젝터(600)를 포함하여 이루어지는 인터렉티브 월 시스템(1)에 있어서, 사용자 단말(400)은, 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 컨텐츠 제공 모듈(421); 및 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 센싱 모듈(422); 를 포함하는 것을 특징으로 한다.In order to achieve the above object, an interactive wall providing system according to an embodiment of the present invention includes a
또한, 본 발명에 있어서, 제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며, 제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 한다.In addition, in the present invention, the
또한, 센싱 모듈(422)은, 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 것을 특징으로 한다.In addition, the sensing module 422, when receiving sensing information from each of the unit sensors, coordinates of a preset effect area of the
또한, 센싱 모듈(422)은, 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 것을 특징으로 한다.In addition, the sensing module 422 extracts all coordinate information and effect contents of each preset effect region when the preset effect regions are plural to display a sequence of effect contents, and then stores the effects stored in the storage unit 430 After sorting according to the content sequence, it is characterized in that the output unit according to the sorted sequence stores an effect unit having coordinate information and effect content as one unit in the storage unit 430.
또한, 사용자 단말(400)은, 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 스크린 제공 모듈(424); 을 더 포함하는 것을 특징으로 한다.In addition, the
본 발명의 실시예에 따른 인터렉티브 월 시스템 및 그 제공 방법은, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있는 효과를 제공한다. An interactive wall system and a method of providing the same according to an embodiment of the present invention are formed on a wall such as a road or sidewalk, and provide a pre-set sensor-responsive content while people pass or recognize a preset object or gesture, etc. By overlapping and outputting the content with sensor-responsive content, it provides information transfer, and provides an effect that can be used in various ways for inducing interest and other learning purposes.
뿐만 아니라, 본 발명의 다른 실시예에 따른 인터렉티브 월 시스템 및 그 제공 방법은, 하나의 미리 설정된 센서 반응형 컨텐츠가 모니터 상에 출력되는 상태에서 이펙트 컨텐츠를 빔 프로젝터의 광원 조사로 이루어지도록 함에 체계적인 정보 구축 및 추출을 통해 각 컨텐츠 별 특성을 극대화시킬 수 있는 효과를 제공한다. In addition, the interactive wall system according to another embodiment of the present invention and a method for providing the same are systematic information to enable effect content to be made by irradiating a light source of a beam projector while one preset sensor-responsive content is output on a monitor It provides the effect of maximizing the characteristics of each content through construction and extraction.
도 1은 본 발명의 실시예에 따른 인터렉티브 월 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 인터렉티브 월 시스템(1) 중 사용자 단말(400)의 구성요소를 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 인터렉티브 월 제공 방법을 나타내는 흐름도이다.
도 4 및 도 5는 본 발명의 실시예에 따른 인터렉티브 월 제공 방법에서 실제로 복합형 터치스크린(500)에 구현되는 빔 프로젝터(600)의 이펙트 컨텐츠를 나타내는 도면이다. 1 is a diagram showing an
2 is a block diagram showing the components of the
3 is a flowchart illustrating an interactive wall providing method according to an embodiment of the present invention.
4 and 5 are diagrams showing effect contents of a
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, a detailed description of a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, when it is determined that a detailed description of related known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.
도 1은 본 발명의 실시예에 따른 인터렉티브 월 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 인터렉티브 월 시스템(1)은 제 1 센서 모듈(100), 제 2 센서 모듈(200), 아두이노 보드(300), 사용자 단말(400), 복합형 터치스크린(500) 및 빔 프로젝터(600)를 포함할 수 있다.1 is a diagram showing an
제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합일 수 있으며, 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 등으로 이루어질 수 있다. The
제 2 센서 모듈(200)은 제 1 센서 모듈(100)과 대비되게 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합일 수 있으며, 터치센서 등으로 이루어질 수 있다. The
아두이노 보드(300)는 다양한 센서나 부품을 연결할 수 있고 입출력, 중앙처리장치가 포함되어 있는 기판으로, 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)로부터 센싱 정보를 수신한 뒤, 자체적으로 구비된 USB 포트 등으로 형성 가능한 통신 포트를 통해 사용자 단말(400)의 I/O 인터페이스(410) 중 제 1 I/O 단자(411)와 연결되는 구조를 갖는다.The Arduino
복합형 터치스크린(500)은 도로, 인도 등의 통로의 벽 전면에 형성된 대형 스크린으로, 설치된 사용자 단말(400)의 I/O 인터페이스(410) 중 제 2 I/O 단자(412)와 연결된 구조를 가지며, 사용자 단말(400)에 의해 미리 설정된 센서 반응형 컨텐츠를 출력하며, 사용자 단말(400)에 의한 아두이노 보드(300)를 통해 제 1 센서 모듈(100) 및/또는 제 2 센서 모듈(200)에 의해 센싱된 센싱 신호를 수신시, 사용자 단말(400)에 의한 I/O 인터페이스(410) 중 HDMI 단자 등으로 형성 가능한 제 3 I/O 단자(413)와 연결된 빔 프로젝터(600)로 이펙트 컨텐츠 출력 명령에 따라 빔 프로젝터(600)로부터 센서 방응형 컨텐츠 상의 각 센싱 신호와 매칭되는 미리 설정된 효과 영역에 이펙트 컨텐츠를 제공받는 역할을 수행한다. The
도 2는 본 발명의 실시예에 따른 인터렉티브 월 시스템(1) 중 사용자 단말(400)의 구성요소를 나타내는 블록도이다. 도 2를 참조하면, 사용자 단말(400)은 I/O 인터페이스(410), 제어부(420), 저장부(430) 및 입출력부(440)를 포함할 수 있다.2 is a block diagram showing the components of the
I/O 인터페이스(410)는 제 1 I/O 단자(411), 제 2 I/O 단자(412), 제 3 I/O 단자(413)를 포함할 수 있다.The I/
제 1 I/O 단자(411)는 아두이노 보드(300)로부터 각종 센싱 정보를 수신하기 위해 USB 단자 등으로 형성될 수 있으며, 제 2 I/O 단자(412)는 복합형 터치스크린(500)으로 제 1 I/O 단자(411)로부터 각 센싱 정보를 수신 전에 미리 설정된 센서 반응형 컨텐츠 정보를 제공하기 위해 모니터와 단말 사이에 제공되는 각종 통신 버스로 형성될 수 있으며, 제 3 I/O 단자(413)는 빔 프로젝터(600)와의 신호 및 데이터 송수신을 위해 HDMI 단자 등으로 형성될 수 있다. The first I/
여기서 제어부(420)는 컨텐츠 제공 모듈(421), 센싱 모듈(422), 좌표 보정 모듈(423), 스크린 제공 모듈(424)을 포함할 수 잇다. Here, the control unit 420 may include a content providing module 421, a sensing module 422, a
컨텐츠 제공 모듈(421)은 센싱 모듈(422)에 대한 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송할 수 있다. The content providing module 421 stores various sensing information from the Arduino
이후, 컨텐츠 제공 모듈(421)은 컨텐츠 제공 모듈(421)에 의해 추출된 센서 반응형 컨텐츠의 식별 ID를 센싱 모듈(422)로 통지할 수 있다. Thereafter, the content providing module 421 may notify the sensing module 422 of the identification ID of the sensor-responsive content extracted by the content providing module 421.
센싱 모듈(422)은 컨텐츠 식별 ID를 수신한 뒤, 수신된 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한다.After receiving the content identification ID, the sensing module 422 extracts at least one or more sensing information IDs stored in the storage unit 430 using the received content identification ID as metadata.
이후, 센싱 모듈(422)은 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어할 수 있다.Subsequently, the sensing module 422 transmits a detection command for each of the unit sensors in the
이에 따라, 센싱 모듈(422)은 제 1 I/O 단자(411)를 통해 감지 명령을 전송한 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출한다.Accordingly, when the sensing module 422 receives sensing information from each of the unit sensors that have transmitted the detection command through the first I/
이후, 센싱 모듈(422)은 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬할 수 있다.Thereafter, the sensing module 422 extracts all coordinate information and effect contents of each preset effect region when the preset effect regions are plural to display a sequence of effect contents, and then stores the effect contents stored in the storage 430 You can sort by sequence.
최종적으로 센싱 모듈(422)은 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 스크린 제공 모듈(424)로 전달한다. Finally, the sensing module 422 transmits the output request according to the sorted sequence of the effect unit having the coordinate information and the effect content as one unit to the screen providing module 424.
한편, 좌표 보정 모듈(423)은 스크린 제공 모듈(424)에 의한 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하기 전에, 제 3 I/O 단자(413)에 대한 제어를 통해 빔 프스크린 제공 모듈(424)은 센싱 모듈(422)로부터 출력 요청을 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 포함하여 수신한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어함으로써, 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 할 수 있다. 로젝터(600)에 대한 좌표 정보 영점 보정을 통해 빔 프로젝터(600)에 의한 각 이펙트 컨텐츠가 각 이펙트 컨텐츠에 대해서 설정된 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 정밀하게 투사되도록 할 수 있다.On the other hand, before the
이를 위해, 제 1 센서 모듈(100)을 구성하는 단위 센서 중 카메라가 빔 프로젝터(600) 상에서 복합형 터치스크린(500)을 향하여 형성되는 것이 바람직하다. 이러한 구성을 통해 좌표 보정 모듈(423)은 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하기 전에 순서 정렬 정보에 따른 최초의 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 추출한 뒤, 좌표 정보로 이펙트 컨텐츠와 동일한 복합형 터치스크린(500)의 미리 설정된 효과 영역으로 미리 설정된 색상 정보를 출력한 뒤, 카메라를 통해 영상을 획득한 뒤, 영상 분석을 통해 미리 설정된 효과 영역으로 매칭되게 광원이 투사되었는지를 확인할 수 있다.To this end, among the unit sensors constituting the
만약에 영상 분석에 따라 광원 투사 영역이 매칭되지 않는 경우, 좌표 보정 모듈(423)은 제 3 I/O(413)를 통해 빔 프로젝터(600)의 위치를 조정하기 위해 팬/틸트/요잉을 수행하는 다관절 로봇암으로 영상 분석을 통한 좌표 보정 명령을 전송할 수 있다. If the light source projection area does not match according to image analysis, the coordinate
도 3은 본 발명의 실시예에 따른 인터렉티브 월 제공 방법을 나타내는 흐름도이다. 그리도 도 4 및 도 5는 본 발명의 실시예에 따른 인터렉티브 월 제공 방법에서 실제로 복합형 터치스크린(500)에 구현되는 빔 프로젝터(600)의 이펙트 컨텐츠를 나타내는 도면이다. 3 is a flowchart illustrating an interactive wall providing method according to an embodiment of the present invention. 4 and 5 are views showing the effect contents of the
도 3을 참조하면, 사용자 단말(400)은 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장한다(S110).Referring to FIG. 3, the
단계(S110) 이후, 사용자 단말(400)은 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어한다(S120).After the step (S110), the
단계(S120) 이후, 사용자 단말(400)은 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출한다(S130).After step S120, when the
단계(S130) 이후, 사용자 단말(400)은 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장한다(S140).After the step S130, the
단계(S140) 이후, 사용자 단말(400)은 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어한다(S150). After the step S140, the
즉, 도 4와 같이 제 1 센서 모듈(100)에 형성된 모션센서 또는 제 2 센서 모듈(200)에 형성되는 적외선 센서를 통해 복합형 터치스크린(500)의 전면에 형성된 인체의 모션을 인식한 뒤, 복합형 터치스크린(500)에 미리 설정된 센서 반응형 컨텐츠로 도트 영상이 출력될 수 있으며, 여기서 이펙트 컨텐츠로 빔 프로젝터(600)에 의한 효과 영상을 오버랩시키는 영상을 구현할 수 있다.That is, after recognizing the motion of the human body formed on the front of the
또한, 도 5와 같이 제 2 센서 모듈(200)로 복합형 터치스크린(500) 상의 미리 설정된 영역에 터치모듈을 구비한 뒤, 복합형 터치스크린(500)에 미리 설정된 센서 반응형 컨텐츠로 학습 영상이 출력될 수 있으며, 사용자의 각 터치모듈에 대한 터치 입력시 터치된 좌표와 매칭되는 이펙트 컨텐츠로 시간의 흐름에 해당하는 빛의 움직임 표시 효과를 빔 프로젝터(600)에 의한 효과 영상을 오버랩시키는 영상을 구현할 수 있다.In addition, as shown in FIG. 5, after the
한편, 본 발명의 다른 실시예로, 센싱 모듈(422)은 복수의 빅 프로젝터(600)가 형성되는 경우, 아두이노 보드(300)로부터 '센싱 유닛 정보'로 단위 센서 이름, 위치 정보, 목적 정보를 추출한 뒤, 추출된 정보와 사전에 각 빅 프로젝터(600)에 대해서 설정된 전담 단위 센서, 전시 위치, 효과 카테고리와 매칭되는 빔 프로젝터(600)의 식별 ID를 추출할 수 있다.On the other hand, in another embodiment of the present invention, the sensing module 422, when a plurality of
보다 구체적으로, 센싱 모듈(422)은 '센싱 유닛 정보'의 단위 센서 이름을 포함하는 카테고리 정보를 갖는 빔 프로젝터(600)의 식별 ID를 1차로 추출한다. 센싱 모듈(422)은 1차로 추출된 식별 ID가 복수인 경우, '센싱 유닛 정보'의 위치 정보 및 목적 정보를 활용하여 최종적으로 하나의 식별 ID를 추출할 수 있다. 즉, 센싱 모듈(422)은 1차로 추출된 식별 ID를 갖는 빔 프로젝터(600)의 효과 카테고리에 해당하는 '센싱 유닛 정보'의 목적 정보에 해당하는지를 제 1 분석을 수행하고, 또한 1차로 추출된 식별 ID를 갖는 빔 프로젝터(600)가 설치된 위치를 중심으로 미리 설정된 반경에 해당하는 위치 영역 내에 '센싱 유닛 정보'의 위치 정보가 있는지에 대한 제 2 분석을 수행할 수 있다. More specifically, the sensing module 422 primarily extracts the identification ID of the
이에 따라, 센싱 모듈(422)은 제 1 분석 결과 효과 카테고리에 목적 정보를 포함하는 빔 프로젝터(600)에 대한 식별 ID를 2차로 추출하며, 2차로 추출되는 식별 ID가 없는 경우, 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID를 3차로 추출할 수 있다.Accordingly, the sensing module 422 secondarily extracts the identification ID of the
보다 구체적으로, 센싱 모듈(422)은 제 1 분석 결과 효과 카테고리에 목적 정보를 포함하는 빔 프로젝터(600)에 대한 식별 ID를 2차로 추출하며, 2차로 추출되는 식별 ID가 하나인 경우, 하나의 식별 ID를 최종 식별 ID로 선정할 수 있으며, 2차로 추출되는 식별 ID가 복수인 경우에는 다시 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID를 3차로 추출할 수 있다.More specifically, the sensing module 422 secondarily extracts the identification ID for the
여기서, 센싱 모듈(422)은 3차 추출을 위해 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID가 하나인 경우, 하나의 식별 ID를 최종 식별 ID로 선정하며, 반대로 복수인 경우, 위치 정보로부터 미리 설정된 반경의 중심 위치로부터 가까운 설치 장소를 갖는 빔 프로젝터(600)의 식별 ID를 최종 식별 ID로 선정할 수 있다.Here, the sensing module 422 selects one identification ID as the final identification ID when the identification ID of the
또한 센싱 모듈(422)은 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID가 하나도 없는 경우, 위치 정보로부터 미리 설정된 반경의 테두리로부터 가장 가까운 설치 장소를 갖는 빔 프로젝터(600)의 식별 ID를 최종 식별 ID로 선정하여, 상술한 출력 요청을 스크린 제공 모듈(424)로 젝오할 수 있다.In addition, the sensing module 422, when there is no identification ID of the
이에 따라, 스크린 제공 모듈(424)은 센싱 모듈(422)로부터 출력 요청을 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 포함하여 수신한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어함으로써, 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 할 수 있다. Accordingly, the screen providing module 424 receives the output request from the sensing module 422, including each sorting information and each effect unit according to the sorting information, and then, of the sequential time included in each sorting information. According to the flow, the
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, in the present specification and drawings, preferred embodiments of the present invention have been disclosed, and although specific terms have been used, they are merely used in a general sense to easily describe the technical contents of the present invention and to help understand the invention. , It is not intended to limit the scope of the present invention. It is apparent to those skilled in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.
1 : 인터렉티브 월 시스템
100 : 제 1 센서 모듈
200 : 제 2 센서 모듈
300 : 아두이노 보드
400 : 사용자 단말
410 : I/O 인터페이스
411 : 제 1 I/O 단자
412 : 제 2 I/O 단자
413 : 제 3 I/O 단자
420 : 제어부
421 : 컨텐츠 제공 모듈
422 : 센싱 모듈
423 : 좌표 보정 모듈
424 : 스크린 제공 모듈
430 : 저장부
440 : 입출력부
500 : 복합형 터치스크린
600 : 빔 프로젝터1: Interactive Wall System
100: first sensor module
200: second sensor module
300: Arduino board
400: user terminal
410: I/O interface
411: 1 I/O terminal
412: 2nd I/O terminal
413: Third I/O terminal
420: control unit
421: content providing module
422: sensing module
423: Coordinate correction module
424: screen providing module
430: storage unit
440: input and output unit
500: Composite touch screen
600: beam projector
Claims (10)
사용자 단말(400)이 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 제 2 단계; 를 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
When the user terminal 400 is in a state of waiting to receive various sensing information from the Arduino board 300, a plurality of stored in the storage unit 430 as a composite touch screen 500 through the second I/O terminal 412 A first step of extracting one sensor-responsive content selected through the input/output unit 440 from the sensor-responsive content in real time and storing the identification ID of the extracted sensor-responsive content in the storage unit 430;
After the user terminal 400 extracts at least one or more sensing information IDs stored in the storage unit 430 using the content identification ID as metadata, the first sensor module 100 and the second sensor that governs each extracted sensing information ID A second step of controlling the first I/O terminal 411 to transmit a detection command for each unit sensor in the module 200 to the Arduino board 300; Interactive wall providing method comprising a.
상기 제 2 단계의 제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며,
제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
The method according to claim 1,
The first sensor module 100 of the second step is a set of sensors formed on the outside of the complex touch screen 500 in contrast to the second sensor module 200, and includes a touch sensor, a motion sensor, a light receiving sensor, a camera, It includes at least one of infrared sensors,
The second sensor module 200 is an interactive wall providing method comprising a touch sensor as a set of sensors formed in a preset area of a touch module of the composite touch screen 500.
사용자 단말(400)이 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 제 3 단계; 를 더 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
The method according to claim 1, After the second step,
When the user terminal 400 receives sensing information from each of the unit sensors, coordinate information of a preset effect area of the complex touch screen 500 that matches the unit sensor ID and content identification ID that provided each sensing information, and A third step of extracting the effect content matching the coordinate information from the storage unit 430; Interactive wall providing method, characterized in that it further comprises.
사용자 단말(400)이 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 제 4 단계; 를 더 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
The method according to claim 3, After the third step,
When the user terminal 400 has a plurality of preset effect areas to display a sequence of effect content, after extracting all of the coordinate information and effect content of each preset effect area, the effect content sequence stored in the storage unit 430 is extracted. After sorting according to the fourth step of storing the output request according to the sorted sequence of the effect unit having the coordinate information and the effect content as one unit in the storage unit 430; Interactive wall providing method, characterized in that it further comprises.
사용자 단말(400)이 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
The method according to claim 4, After the fourth step,
After the user terminal 400 extracts the sequence alignment information stored with the output request and each effect unit according to the sequence alignment information from the storage unit 430, according to the sequential flow of time included in each sequence alignment information, each The coordinate information included in the effect unit and the effect content output command including the effect content are controlled to be transmitted to the beam projector 600 through the third I/O terminal 413, so that each coordinate information is transmitted by the beam projector 600. A fifth step of controlling to project a light source for reflecting an image corresponding to the effect content in a preset effect area of the corresponding composite touch screen 500; Interactive wall providing method, characterized in that it further comprises.
아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 컨텐츠 제공 모듈(421); 및
컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 센싱 모듈(422); 를 포함하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
An interactive wall system comprising a first sensor module 100, a second sensor module 200, an Arduino board 300, a user terminal 400, a complex touch screen 500, and a beam projector 600 ( In 1), the user terminal 400,
While receiving various sensing information from the Arduino board 300, input/output among a plurality of sensor-responsive contents stored in the storage unit 430 through the second I/O terminal 412 through the complex touch screen 500 A content providing module 421 for extracting one sensor-responsive content selected through the unit 440 and transmitting it in real time and storing the identification ID of the extracted sensor-responsive content in the storage unit 430; And
After extracting at least one sensing information ID stored in the storage unit 430 as the content identification ID as metadata, the first sensor module 100 and the second sensor module 200 that control each extracted sensing information ID A sensing module 422 that controls the first I/O terminal 411 to transmit a detection command for each unit sensor to the Arduino board 300; Interactive wall providing system comprising a.
제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며, 제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
The method according to claim 6,
The first sensor module 100 is a set of sensors formed on the outside of the complex touch screen 500 in contrast to the second sensor module 200, and at least one of a touch sensor, a motion sensor, a light receiving sensor, a camera, and an infrared sensor Including the above, the second sensor module 200 is an interactive wall providing system characterized in that it comprises a touch sensor as a set of sensors formed in a preset area of the touch module of the complex touch screen 500.
단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
The method according to claim 6, The sensing module (422),
When receiving sensing information from each of the unit sensors, the coordinate information of the preset effect area of the complex touch screen 500 matching the unit sensor ID and the content identification ID that provided each sensing information, and the effect matching the coordinate information Interactive wall providing system, characterized in that for extracting the content from the storage unit 430.
미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
The method according to claim 8, Sensing module (422),
When a plurality of preset effect regions are displayed to display a sequence of effect contents, after extracting all coordinate information and effect contents of each preset effect region, sorting them according to the sequence of effect contents stored in the storage unit 430, and then coordinates Interactive wall providing system, characterized in that for storing the output request according to the sorted sequence of the effect unit with information and effect content as one unit in the storage unit (430).
출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 스크린 제공 모듈(424); 을 더 포함하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
The method according to claim 9, the user terminal 400,
After order extraction information stored with the output request and each effect unit according to the order alignment information are extracted from the storage unit 430, coordinates included in each effect unit according to a sequential time flow included in each order alignment information Controlled to transmit an effect content output command including information and effect content to the beam projector 600 through the third I/O terminal 413, and thus a complex touch screen corresponding to each coordinate information by the beam projector 600. A screen providing module 424 for controlling to project a light source for reflecting an image corresponding to the effect content in a preset effect area of 500; Interactive wall providing system further comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180162798A KR102208340B1 (en) | 2018-12-17 | 2018-12-17 | Interactive wall system, and method for providing the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180162798A KR102208340B1 (en) | 2018-12-17 | 2018-12-17 | Interactive wall system, and method for providing the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200074429A true KR20200074429A (en) | 2020-06-25 |
KR102208340B1 KR102208340B1 (en) | 2021-01-26 |
Family
ID=71400280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180162798A KR102208340B1 (en) | 2018-12-17 | 2018-12-17 | Interactive wall system, and method for providing the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102208340B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220109875A (en) * | 2021-01-29 | 2022-08-05 | 선문대학교 산학협력단 | Infrared interactive projection system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110071211A (en) * | 2009-12-21 | 2011-06-29 | 한국전자통신연구원 | Virtual graffiti system and interface apparatus thereof |
KR101767569B1 (en) * | 2017-02-20 | 2017-08-11 | 주식회사 유조이월드 | The augmented reality interactive system related to the displayed image contents and operation method for the system |
-
2018
- 2018-12-17 KR KR1020180162798A patent/KR102208340B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110071211A (en) * | 2009-12-21 | 2011-06-29 | 한국전자통신연구원 | Virtual graffiti system and interface apparatus thereof |
KR101767569B1 (en) * | 2017-02-20 | 2017-08-11 | 주식회사 유조이월드 | The augmented reality interactive system related to the displayed image contents and operation method for the system |
Non-Patent Citations (1)
Title |
---|
대한민국 특허등록공보 등록번호 제10-0470866호 "디스플레이 광고 시스템(DISPLAY ADVERTISEMENT SYSTEM)" |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220109875A (en) * | 2021-01-29 | 2022-08-05 | 선문대학교 산학협력단 | Infrared interactive projection system |
Also Published As
Publication number | Publication date |
---|---|
KR102208340B1 (en) | 2021-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11614803B2 (en) | Individually interactive multi-view display system for non-stationary viewing locations and methods therefor | |
JP6367499B1 (en) | Multi-view architectural lighting system | |
EP2418621B1 (en) | Apparatus and method for providing augmented reality information | |
US20120223909A1 (en) | 3d interactive input system and method | |
Karitsuka et al. | A wearable mixed reality with an on-board projector | |
CN106843602B (en) | Large-screen remote control interaction system and interaction method thereof | |
US20140347262A1 (en) | Object display with visual verisimilitude | |
US20150293739A1 (en) | Computing apparatus, method for controlling computing apparatus thereof, and multi-display system | |
US20160139762A1 (en) | Aligning gaze and pointing directions | |
JP2011521348A (en) | System and method for determining an activation area in a representation area of a viewer interface | |
Medeiros et al. | 3D pointing gestures as target selection tools: guiding monocular UAVs during window selection in an outdoor environment | |
CN111052044A (en) | Information processing apparatus, information processing method, and program | |
KR101575063B1 (en) | multi-user recognition multi-touch interface apparatus and method using depth-camera | |
KR102208340B1 (en) | Interactive wall system, and method for providing the same | |
US10268175B2 (en) | Information presentation method and information presentation apparatus | |
US20190121450A1 (en) | Interactive display system and control method of interactive display | |
US11445107B2 (en) | Supervised setup for control device with imager | |
US20040105555A1 (en) | Sound control installation | |
US11120682B2 (en) | System and method for operating physical entities based on a virtual representation of the physical entities | |
US20200209982A1 (en) | Video interactive system | |
US10866779B2 (en) | User interactive display device and operating device | |
US20240062480A1 (en) | Information processing method, information processing device, and non-volatile storage medium | |
CN106201289A (en) | Intelligent projection device and method | |
TW201351308A (en) | Non-contact medical navigation system and control method therefof | |
KR101486488B1 (en) | multi-user recognition multi-touch interface method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |