KR20200074429A - Interactive wall system, and method for providing the same - Google Patents

Interactive wall system, and method for providing the same Download PDF

Info

Publication number
KR20200074429A
KR20200074429A KR1020180162798A KR20180162798A KR20200074429A KR 20200074429 A KR20200074429 A KR 20200074429A KR 1020180162798 A KR1020180162798 A KR 1020180162798A KR 20180162798 A KR20180162798 A KR 20180162798A KR 20200074429 A KR20200074429 A KR 20200074429A
Authority
KR
South Korea
Prior art keywords
sensor
effect
information
content
unit
Prior art date
Application number
KR1020180162798A
Other languages
Korean (ko)
Other versions
KR102208340B1 (en
Inventor
박수진
Original Assignee
주식회사 더시퀀스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 더시퀀스 filed Critical 주식회사 더시퀀스
Priority to KR1020180162798A priority Critical patent/KR102208340B1/en
Publication of KR20200074429A publication Critical patent/KR20200074429A/en
Application granted granted Critical
Publication of KR102208340B1 publication Critical patent/KR102208340B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an interactive wall system and a providing method thereof. According to the present invention, the interactive wall system comprises a first sensor module (100), a second sensor module (200), an Arduino board (300), a user terminal (400), a composite touch screen (500), and a beam projector (600), wherein the user terminal (400) includes a content providing module (421) and a sensing module (422). According to the present invention, characteristics for each content can be maximized through systematic information construction and extraction.

Description

인터렉티브 월 시스템 및 그 제공 방법{Interactive wall system, and method for providing the same} Interactive wall system, and method for providing the same}

본 발명은 인터렉티브 월 시스템 및 그 제공 방법에 관한 것으로, 보다 구체적으로는, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법에 관한 것이다. The present invention relates to an interactive wall system and a method for providing the same, and more specifically, it is formed on a wall such as a road or sidewalk, and provides preset sensor-responsive content while people pass or recognize a preset object or gesture, etc. In this case, the present invention relates to an interactive wall system and a method for providing the information by overlapping and outputting the effect content with the sensor-responsive content, so that it can be used in various ways for inducing interest to people and for other learning purposes.

건물, 도로, 인도 등과 같은 통로 등의 벽면을 활용한 광고 표시 장치가 널리 사용되고 있는데, 보다 상세하게는 외벽 상에 소정 모양의 발광영역을 형성하고 그 발광영역들의 조합하여 원하는 문구나 내용을 표시하거나, 전체의 LCD 등과 같은 디스플레이 장치를 활용하여 원하는 영상을 표시할 수 있다.Advertisement display devices utilizing wall surfaces such as buildings, roads, and sidewalks are widely used. More specifically, a desired shape or content is displayed by forming a light-emitting area having a predetermined shape on an outer wall and combining the light-emitting areas. , By using a display device such as an entire LCD, a desired image can be displayed.

그러나 옥외의 디스플레이 장치는 단순히 광고용으로 정보를 한 방향으로 전달하고 있어서, 정보 전달에 한계가 있으며 사람들에게 흥미 유발하지 못하고, 그 밖의 학습용 등으로 다방면으로 활용할 수 없는 한계점이 있어 왔다. However, since outdoor display devices simply transmit information in one direction for advertisement, there are limitations in transmitting information, which do not cause interest to people, and cannot be used in various ways for other learning purposes.

대한민국 특허등록공보 등록번호 제10-0470866호 "디스플레이 광고 시스템(DISPLAY ADVERTISEMENT SYSTEM)"Republic of Korea Patent Registration Publication No. 10-0470866 "Display Advertising System (DISPLAY ADVERTISEMENT SYSTEM)"

본 발명은 상기의 문제점을 해결하기 위한 것으로, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법을 제공하기 위한 것이다.The present invention is to solve the above problems, it is formed on a wall surface such as a road or sidewalk, providing preset sensor-responsive content, and then reacting effect content when people pass or recognize a preset object or gesture, etc. It is intended to provide an interactive wall system and a method for providing the information by providing information transmission by overlapping with the type content and inducing people to use it in various ways for inducing interest and other learning purposes.

또한, 본 발명은 하나의 미리 설정된 센서 반응형 컨텐츠가 모니터 상에 출력되는 상태에서 이펙트 컨텐츠를 빔 프로젝터의 광원 조사로 이루어지도록 함에 체계적인 정보 구축 및 추출을 통해 각 컨텐츠 별 특성을 극대화시키도록 하기 위한 인터렉티브 월 시스템 및 그 제공 방법을 제공하기 위한 것이다.In addition, the present invention is to maximize the characteristics of each content through systematic information construction and extraction so that the effect content is made by irradiating the light source of the beam projector while one preset sensor-responsive content is output on the monitor. It is intended to provide an interactive wall system and a method of providing the same.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 인터렉티브 월 제공 방법은, 사용자 단말(400)이 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 제 1 단계; 및 사용자 단말(400)이 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 제 2 단계; 를 포함하는 것을 특징으로 한다.In order to achieve the above object, in the interactive wall providing method according to an embodiment of the present invention, when the user terminal 400 receives various sensing information from the Arduino board 300, the second I/O terminal 412 ) To extract a single sensor-responsive content selected through the input/output unit 440 from a plurality of sensor-responsive content stored in the storage unit 430 through the composite touch screen 500 and transmit in real time and extract the sensor response A first step of storing the identification ID of the type content in the storage unit 430; And the user terminal 400 extracts at least one or more sensing information IDs stored in the storage unit 430 using the content identification ID as metadata, and then the first sensor module 100 and the second sensor to control each extracted sensing information ID. A second step of controlling the first I/O terminal 411 to transmit a detection command for each unit sensor in the sensor module 200 to the Arduino board 300; It characterized in that it comprises.

이때, 상기 제 2 단계의 제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며, 제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 한다.At this time, the first sensor module 100 of the second step is a set of sensors formed on the outside of the complex touch screen 500 in contrast to the second sensor module 200, a touch sensor, a motion sensor, a light receiving sensor, It includes at least one of a camera and an infrared sensor, and the second sensor module 200 is characterized by including a touch sensor as a set of sensors formed in a preset area of the touch module of the composite touch screen 500. .

또한, 상기 제 2 단계 이후, 사용자 단말(400)이 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 제 3 단계; 를 더 포함하는 것이 바람직하다.In addition, after the second step, when the user terminal 400 receives the sensing information from each of the unit sensors, in advance of the combined touch screen 500 that matches the unit sensor ID and content identification ID providing each sensing information A third step of extracting coordinate information of the set effect area and effect contents matching the coordinate information from the storage unit 430; It is preferable to further include.

또한, 상기 제 3 단계 이후, 사용자 단말(400)이 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 제 4 단계; 를 더 포함하는 것을 특징으로 한다.In addition, after the third step, when the user terminal 400 has a plurality of preset effect areas to display a sequence of effect content, after extracting all coordinate information and effect content of each preset effect area, the storage unit ( A fourth step of arranging according to the sequence of effect contents stored in 430), and storing the output request according to the aligned sequence in the effect unit having the coordinate information and the effect contents as one unit in the storage unit 430; Characterized in that it further comprises.

또한, 상기 제 4 단계 이후, 사용자 단말(400)이 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 한다.In addition, after the fourth step, the user terminal 400 extracts each of the effect units according to the order arrangement information and the order arrangement information stored together with the output request, and then sequentially includes the sequence order information. In accordance with the passage of time, the output of the effect content including the coordinate information and the effect content included in each effect unit is controlled to be transmitted to the beam projector 600 through the third I/O terminal 413 to control the beam projector ( A fifth step of controlling to project a light source for reflecting an image corresponding to the effect content to a preset effect area of the composite touch screen 500 corresponding to each coordinate information by 600); Characterized in that it further comprises.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 인터렉티브 월 제공 시스템은, 제 1 센서 모듈(100), 제 2 센서 모듈(200), 아두이노 보드(300), 사용자 단말(400), 복합형 터치스크린(500) 및 빔 프로젝터(600)를 포함하여 이루어지는 인터렉티브 월 시스템(1)에 있어서, 사용자 단말(400)은, 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 컨텐츠 제공 모듈(421); 및 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 센싱 모듈(422); 를 포함하는 것을 특징으로 한다.In order to achieve the above object, an interactive wall providing system according to an embodiment of the present invention includes a first sensor module 100, a second sensor module 200, an Arduino board 300, a user terminal 400, and a composite In the interactive wall system 1 including the type touch screen 500 and the beam projector 600, the user terminal 400 receives the various sensing information from the Arduino board 300 in a standby state. Through the I/O terminal 412, one sensor-responsive content selected through the input/output unit 440 is extracted from the plurality of sensor-responsive content stored in the storage unit 430 through the composite touch screen 500 in real time. A content providing module 421 for transmitting and storing the identification ID of the extracted sensor-responsive content in the storage unit 430; And extracting at least one or more sensing information IDs stored in the storage unit 430 as content identification IDs as metadata, in the first sensor module 100 and the second sensor module 200 that control each extracted sensing information ID. A sensing module 422 that controls the first I/O terminal 411 to transmit a detection command for each unit sensor of the Arduino board 300; It characterized in that it comprises.

또한, 본 발명에 있어서, 제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며, 제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 한다.In addition, in the present invention, the first sensor module 100 is a set of sensors formed on the outside of the complex touch screen 500 in contrast to the second sensor module 200, a touch sensor, a motion sensor, a light receiving sensor, It includes at least one of a camera and an infrared sensor, and the second sensor module 200 is characterized by including a touch sensor as a set of sensors formed in a preset area of the touch module of the composite touch screen 500. .

또한, 센싱 모듈(422)은, 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 것을 특징으로 한다.In addition, the sensing module 422, when receiving sensing information from each of the unit sensors, coordinates of a preset effect area of the composite touch screen 500 that matches the unit sensor ID and content identification ID that provided each sensing information It characterized in that the information, and the effect content matching the coordinate information is extracted from the storage unit 430.

또한, 센싱 모듈(422)은, 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 것을 특징으로 한다.In addition, the sensing module 422 extracts all coordinate information and effect contents of each preset effect region when the preset effect regions are plural to display a sequence of effect contents, and then stores the effects stored in the storage unit 430 After sorting according to the content sequence, it is characterized in that the output unit according to the sorted sequence stores an effect unit having coordinate information and effect content as one unit in the storage unit 430.

또한, 사용자 단말(400)은, 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 스크린 제공 모듈(424); 을 더 포함하는 것을 특징으로 한다.In addition, the user terminal 400 extracts each effect unit according to the order arrangement information and the order arrangement information stored together with the output request, and then extracts each effect unit according to the sequence of time included in each sequence arrangement information. Accordingly, by controlling the output to the beam projector 600 through the third I/O terminal 413, the effect content output command including the coordinate information and the effect content included in each effect unit is controlled, so that the beam projector 600 controls each output. A screen providing module 424 for controlling to project a light source for reflecting an image corresponding to the effect content in a preset effect area of the composite touch screen 500 corresponding to the coordinate information; Characterized in that it further comprises.

본 발명의 실시예에 따른 인터렉티브 월 시스템 및 그 제공 방법은, 도로나 인도 등의 벽면에 형성되어, 미리 설정된 센서 반응형 컨텐츠를 제공하다가 사람들이 지나거나 미리 설정된 객체 또는 제스쳐 등을 인식하는 경우 이펙트 컨텐츠를 센서 반응형 컨텐츠와 오버랩시켜서 출력함으로써, 정보 전달을 제공하고, 사람들에게 흥미 유발, 그 밖의 학습용 등으로 다방면으로 활용할 수 있는 효과를 제공한다. An interactive wall system and a method of providing the same according to an embodiment of the present invention are formed on a wall such as a road or sidewalk, and provide a pre-set sensor-responsive content while people pass or recognize a preset object or gesture, etc. By overlapping and outputting the content with sensor-responsive content, it provides information transfer, and provides an effect that can be used in various ways for inducing interest and other learning purposes.

뿐만 아니라, 본 발명의 다른 실시예에 따른 인터렉티브 월 시스템 및 그 제공 방법은, 하나의 미리 설정된 센서 반응형 컨텐츠가 모니터 상에 출력되는 상태에서 이펙트 컨텐츠를 빔 프로젝터의 광원 조사로 이루어지도록 함에 체계적인 정보 구축 및 추출을 통해 각 컨텐츠 별 특성을 극대화시킬 수 있는 효과를 제공한다. In addition, the interactive wall system according to another embodiment of the present invention and a method for providing the same are systematic information to enable effect content to be made by irradiating a light source of a beam projector while one preset sensor-responsive content is output on a monitor It provides the effect of maximizing the characteristics of each content through construction and extraction.

도 1은 본 발명의 실시예에 따른 인터렉티브 월 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 인터렉티브 월 시스템(1) 중 사용자 단말(400)의 구성요소를 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 인터렉티브 월 제공 방법을 나타내는 흐름도이다.
도 4 및 도 5는 본 발명의 실시예에 따른 인터렉티브 월 제공 방법에서 실제로 복합형 터치스크린(500)에 구현되는 빔 프로젝터(600)의 이펙트 컨텐츠를 나타내는 도면이다.
1 is a diagram showing an interactive wall system 1 according to an embodiment of the present invention.
2 is a block diagram showing the components of the user terminal 400 of the interactive wall system 1 according to an embodiment of the present invention.
3 is a flowchart illustrating an interactive wall providing method according to an embodiment of the present invention.
4 and 5 are diagrams showing effect contents of a beam projector 600 that is actually implemented in a complex touch screen 500 in an interactive wall providing method according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, a detailed description of a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, when it is determined that a detailed description of related known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

도 1은 본 발명의 실시예에 따른 인터렉티브 월 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 인터렉티브 월 시스템(1)은 제 1 센서 모듈(100), 제 2 센서 모듈(200), 아두이노 보드(300), 사용자 단말(400), 복합형 터치스크린(500) 및 빔 프로젝터(600)를 포함할 수 있다.1 is a diagram showing an interactive wall system 1 according to an embodiment of the present invention. Referring to FIG. 1, the interactive wall system 1 includes a first sensor module 100, a second sensor module 200, an Arduino board 300, a user terminal 400, a complex touch screen 500, and It may include a beam projector 600.

제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합일 수 있으며, 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 등으로 이루어질 수 있다. The first sensor module 100 may be a set of sensors formed on the outside of the complex touch screen 500 in contrast to the second sensor module 200, and may include a touch sensor, a motion sensor, a light receiving sensor, a camera, and an infrared sensor. And the like.

제 2 센서 모듈(200)은 제 1 센서 모듈(100)과 대비되게 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합일 수 있으며, 터치센서 등으로 이루어질 수 있다. The second sensor module 200 may be a set of sensors formed in a preset area of the touch module of the composite touch screen 500 in contrast to the first sensor module 100, and may be formed of a touch sensor or the like.

아두이노 보드(300)는 다양한 센서나 부품을 연결할 수 있고 입출력, 중앙처리장치가 포함되어 있는 기판으로, 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)로부터 센싱 정보를 수신한 뒤, 자체적으로 구비된 USB 포트 등으로 형성 가능한 통신 포트를 통해 사용자 단말(400)의 I/O 인터페이스(410) 중 제 1 I/O 단자(411)와 연결되는 구조를 갖는다.The Arduino board 300 is a board that can connect various sensors or components, and includes input/output and a central processing unit. After receiving sensing information from the first sensor module 100 and the second sensor module 200, It has a structure that is connected to the first I/O terminal 411 of the I/O interface 410 of the user terminal 400 through a communication port that can be formed of a self-contained USB port or the like.

복합형 터치스크린(500)은 도로, 인도 등의 통로의 벽 전면에 형성된 대형 스크린으로, 설치된 사용자 단말(400)의 I/O 인터페이스(410) 중 제 2 I/O 단자(412)와 연결된 구조를 가지며, 사용자 단말(400)에 의해 미리 설정된 센서 반응형 컨텐츠를 출력하며, 사용자 단말(400)에 의한 아두이노 보드(300)를 통해 제 1 센서 모듈(100) 및/또는 제 2 센서 모듈(200)에 의해 센싱된 센싱 신호를 수신시, 사용자 단말(400)에 의한 I/O 인터페이스(410) 중 HDMI 단자 등으로 형성 가능한 제 3 I/O 단자(413)와 연결된 빔 프로젝터(600)로 이펙트 컨텐츠 출력 명령에 따라 빔 프로젝터(600)로부터 센서 방응형 컨텐츠 상의 각 센싱 신호와 매칭되는 미리 설정된 효과 영역에 이펙트 컨텐츠를 제공받는 역할을 수행한다. The hybrid touch screen 500 is a large screen formed on the front wall of a passageway such as a road or sidewalk, and is structured to be connected to the second I/O terminal 412 of the I/O interface 410 of the installed user terminal 400 And outputs sensor-responsive content preset by the user terminal 400, and through the Arduino board 300 by the user terminal 400, the first sensor module 100 and/or the second sensor module ( When receiving the sensing signal sensed by 200), to the beam projector 600 connected to the third I/O terminal 413, which can be formed by an HDMI terminal, among the I/O interface 410 by the user terminal 400 In response to the effect content output command, the beam projector 600 serves to receive effect content in a preset effect area matching each sensing signal on the sensor-responsive content.

도 2는 본 발명의 실시예에 따른 인터렉티브 월 시스템(1) 중 사용자 단말(400)의 구성요소를 나타내는 블록도이다. 도 2를 참조하면, 사용자 단말(400)은 I/O 인터페이스(410), 제어부(420), 저장부(430) 및 입출력부(440)를 포함할 수 있다.2 is a block diagram showing the components of the user terminal 400 of the interactive wall system 1 according to an embodiment of the present invention. Referring to FIG. 2, the user terminal 400 may include an I/O interface 410, a control unit 420, a storage unit 430, and an input/output unit 440.

I/O 인터페이스(410)는 제 1 I/O 단자(411), 제 2 I/O 단자(412), 제 3 I/O 단자(413)를 포함할 수 있다.The I/O interface 410 may include a first I/O terminal 411, a second I/O terminal 412, and a third I/O terminal 413.

제 1 I/O 단자(411)는 아두이노 보드(300)로부터 각종 센싱 정보를 수신하기 위해 USB 단자 등으로 형성될 수 있으며, 제 2 I/O 단자(412)는 복합형 터치스크린(500)으로 제 1 I/O 단자(411)로부터 각 센싱 정보를 수신 전에 미리 설정된 센서 반응형 컨텐츠 정보를 제공하기 위해 모니터와 단말 사이에 제공되는 각종 통신 버스로 형성될 수 있으며, 제 3 I/O 단자(413)는 빔 프로젝터(600)와의 신호 및 데이터 송수신을 위해 HDMI 단자 등으로 형성될 수 있다. The first I/O terminal 411 may be formed of a USB terminal or the like to receive various sensing information from the Arduino board 300, and the second I/O terminal 412 is a composite touch screen 500 In order to provide the sensor-responsive content information preset before receiving each sensing information from the first I/O terminal 411, it may be formed of various communication buses provided between the monitor and the terminal, and the third I/O terminal 413 may be formed of an HDMI terminal or the like for transmitting and receiving signals and data with the beam projector 600.

여기서 제어부(420)는 컨텐츠 제공 모듈(421), 센싱 모듈(422), 좌표 보정 모듈(423), 스크린 제공 모듈(424)을 포함할 수 잇다. Here, the control unit 420 may include a content providing module 421, a sensing module 422, a coordinate correction module 423, and a screen providing module 424.

컨텐츠 제공 모듈(421)은 센싱 모듈(422)에 대한 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송할 수 있다. The content providing module 421 stores various sensing information from the Arduino board 300 for the sensing module 422 in the standby state for reception, and stores them in the composite touch screen 500 through the second I/O terminal 412. One sensor-responsive content selected through the input/output unit 440 among the plurality of sensor-responsive content stored in the unit 430 may be extracted and transmitted in real time.

이후, 컨텐츠 제공 모듈(421)은 컨텐츠 제공 모듈(421)에 의해 추출된 센서 반응형 컨텐츠의 식별 ID를 센싱 모듈(422)로 통지할 수 있다. Thereafter, the content providing module 421 may notify the sensing module 422 of the identification ID of the sensor-responsive content extracted by the content providing module 421.

센싱 모듈(422)은 컨텐츠 식별 ID를 수신한 뒤, 수신된 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한다.After receiving the content identification ID, the sensing module 422 extracts at least one or more sensing information IDs stored in the storage unit 430 using the received content identification ID as metadata.

이후, 센싱 모듈(422)은 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어할 수 있다.Subsequently, the sensing module 422 transmits a detection command for each of the unit sensors in the first sensor module 100 and the second sensor module 200 to control each extracted sensing information ID to the Arduino board 300. The first I/O terminal 411 can be controlled to do so.

이에 따라, 센싱 모듈(422)은 제 1 I/O 단자(411)를 통해 감지 명령을 전송한 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출한다.Accordingly, when the sensing module 422 receives sensing information from each of the unit sensors that have transmitted the detection command through the first I/O terminal 411, the sensing module 422 and the unit sensor ID and content identification ID providing each sensing information, Coordinate information of a preset effect area of the matched composite touch screen 500 and effect content matching the coordinate information are extracted from the storage unit 430.

이후, 센싱 모듈(422)은 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬할 수 있다.Thereafter, the sensing module 422 extracts all coordinate information and effect contents of each preset effect region when the preset effect regions are plural to display a sequence of effect contents, and then stores the effect contents stored in the storage 430 You can sort by sequence.

최종적으로 센싱 모듈(422)은 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 스크린 제공 모듈(424)로 전달한다. Finally, the sensing module 422 transmits the output request according to the sorted sequence of the effect unit having the coordinate information and the effect content as one unit to the screen providing module 424.

한편, 좌표 보정 모듈(423)은 스크린 제공 모듈(424)에 의한 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하기 전에, 제 3 I/O 단자(413)에 대한 제어를 통해 빔 프스크린 제공 모듈(424)은 센싱 모듈(422)로부터 출력 요청을 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 포함하여 수신한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어함으로써, 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 할 수 있다. 로젝터(600)에 대한 좌표 정보 영점 보정을 통해 빔 프로젝터(600)에 의한 각 이펙트 컨텐츠가 각 이펙트 컨텐츠에 대해서 설정된 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 정밀하게 투사되도록 할 수 있다.On the other hand, before the coordinate correction module 423 transmits the effect content output command by the screen providing module 424 to the beam projector 600 through the third I/O terminal 413, the third I/O terminal ( Through the control for 413), the beam screen providing module 424 receives an output request from the sensing module 422, including each sorting information and each effect unit according to the sorting information, and then transmits the output request to each sorting information. By controlling to transmit the effect content output command including the coordinate information and effect content included in each effect unit to the beam projector 600 through the third I/O terminal 413 according to the included sequential time flow. , It is possible to project a light source for reflecting an image corresponding to the effect content to a preset effect area of the complex touch screen 500 corresponding to each coordinate information by the beam projector 600. Through the correction of the coordinate information zero point for the projector 600, each effect content by the beam projector 600 is precisely in a preset effect area of the composite touch screen 500 corresponding to the coordinate information set for each effect content. Can be projected.

이를 위해, 제 1 센서 모듈(100)을 구성하는 단위 센서 중 카메라가 빔 프로젝터(600) 상에서 복합형 터치스크린(500)을 향하여 형성되는 것이 바람직하다. 이러한 구성을 통해 좌표 보정 모듈(423)은 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하기 전에 순서 정렬 정보에 따른 최초의 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 추출한 뒤, 좌표 정보로 이펙트 컨텐츠와 동일한 복합형 터치스크린(500)의 미리 설정된 효과 영역으로 미리 설정된 색상 정보를 출력한 뒤, 카메라를 통해 영상을 획득한 뒤, 영상 분석을 통해 미리 설정된 효과 영역으로 매칭되게 광원이 투사되었는지를 확인할 수 있다.To this end, among the unit sensors constituting the first sensor module 100, it is preferable that the camera is formed on the beam projector 600 toward the composite touch screen 500. Through this configuration, the coordinate correction module 423 transmits the effect content output command to the beam projector 600 through the third I/O terminal 413, and coordinate information included in the first effect unit according to the order alignment information. After extracting the effect contents and outputting the preset color information to the preset effect area of the same type of touch screen 500 as the effect contents as the coordinate information, the image is acquired through the camera, and the image is analyzed in advance. It can be confirmed whether the light source is projected to match the set effect area.

만약에 영상 분석에 따라 광원 투사 영역이 매칭되지 않는 경우, 좌표 보정 모듈(423)은 제 3 I/O(413)를 통해 빔 프로젝터(600)의 위치를 조정하기 위해 팬/틸트/요잉을 수행하는 다관절 로봇암으로 영상 분석을 통한 좌표 보정 명령을 전송할 수 있다. If the light source projection area does not match according to image analysis, the coordinate correction module 423 performs pan/tilt/yaw to adjust the position of the beam projector 600 through the third I/O 413 Coordinate correction command through image analysis can be transmitted to the multi-joint robot arm.

도 3은 본 발명의 실시예에 따른 인터렉티브 월 제공 방법을 나타내는 흐름도이다. 그리도 도 4 및 도 5는 본 발명의 실시예에 따른 인터렉티브 월 제공 방법에서 실제로 복합형 터치스크린(500)에 구현되는 빔 프로젝터(600)의 이펙트 컨텐츠를 나타내는 도면이다. 3 is a flowchart illustrating an interactive wall providing method according to an embodiment of the present invention. 4 and 5 are views showing the effect contents of the beam projector 600 which is actually implemented in the complex touch screen 500 in the interactive wall providing method according to the embodiment of the present invention.

도 3을 참조하면, 사용자 단말(400)은 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장한다(S110).Referring to FIG. 3, the user terminal 400 stores the various sensing information from the Arduino board 300 through the second I/O terminal 412 through the second I/O terminal 412 and stores the storage unit ( 430) extracts one sensor-responsive content selected through the input/output unit 440 from among the plurality of sensor-responsive content stored in real time and stores the identification ID of the extracted sensor-responsive content in the storage unit 430. (S110).

단계(S110) 이후, 사용자 단말(400)은 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어한다(S120).After the step (S110), the user terminal 400 extracts at least one or more sensing information IDs stored in the storage unit 430 using the content identification ID as metadata, and then controls the extracted first sensing module IDs ( 100) and the second sensor module 200 controls the first I/O terminal 411 to transmit a detection command for each of the unit sensors to the Arduino board 300 (S120).

단계(S120) 이후, 사용자 단말(400)은 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출한다(S130).After step S120, when the user terminal 400 receives the sensing information from each of the unit sensors, the preset effect of the combined touch screen 500 that matches the unit sensor ID and content identification ID that provided each sensing information The coordinate information of the region and the effect content matching the coordinate information are extracted from the storage unit 430 (S130).

단계(S130) 이후, 사용자 단말(400)은 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장한다(S140).After the step S130, the user terminal 400 extracts all coordinate information and effect contents of each preset effect region when the preset effect regions are plural to display a sequence of effect contents, and then stores them 430 After sorting according to the sequence of effect contents stored in, the output request according to the sorted sequence of the effect unit having the coordinate information and the effect content as one unit is stored in the storage unit 430 (S140).

단계(S140) 이후, 사용자 단말(400)은 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어한다(S150). After the step S140, the user terminal 400 extracts each effect unit according to the order alignment information and the order alignment information stored together with the output request, and then sequentially stores the time included in each order alignment information. In accordance with the flow of the beam projector 600 by controlling to transmit to the beam projector 600 through the third I / O terminal 413, the effect content output command including the coordinate information and the effect content included in each effect unit It is controlled to project a light source for reflecting the image corresponding to the effect content in a preset effect area of the composite touch screen 500 corresponding to each coordinate information by (S150).

즉, 도 4와 같이 제 1 센서 모듈(100)에 형성된 모션센서 또는 제 2 센서 모듈(200)에 형성되는 적외선 센서를 통해 복합형 터치스크린(500)의 전면에 형성된 인체의 모션을 인식한 뒤, 복합형 터치스크린(500)에 미리 설정된 센서 반응형 컨텐츠로 도트 영상이 출력될 수 있으며, 여기서 이펙트 컨텐츠로 빔 프로젝터(600)에 의한 효과 영상을 오버랩시키는 영상을 구현할 수 있다.That is, after recognizing the motion of the human body formed on the front of the composite touch screen 500 through the motion sensor formed on the first sensor module 100 or the infrared sensor formed on the second sensor module 200 as shown in FIG. , The dot image may be output as the sensor-responsive content preset in the composite touch screen 500, where the effect image overlapping the effect image by the beam projector 600 may be implemented as the effect content.

또한, 도 5와 같이 제 2 센서 모듈(200)로 복합형 터치스크린(500) 상의 미리 설정된 영역에 터치모듈을 구비한 뒤, 복합형 터치스크린(500)에 미리 설정된 센서 반응형 컨텐츠로 학습 영상이 출력될 수 있으며, 사용자의 각 터치모듈에 대한 터치 입력시 터치된 좌표와 매칭되는 이펙트 컨텐츠로 시간의 흐름에 해당하는 빛의 움직임 표시 효과를 빔 프로젝터(600)에 의한 효과 영상을 오버랩시키는 영상을 구현할 수 있다.In addition, as shown in FIG. 5, after the second sensor module 200 is provided with a touch module in a preset area on the complex touch screen 500, the learning image is set as sensor-responsive content preset in the complex touch screen 500. This can be output, and the image that overlaps the effect image by the beam projector 600 with the effect of displaying the movement of light corresponding to the passage of time with effect contents matching the coordinates touched when the user touches each touch module. You can implement

한편, 본 발명의 다른 실시예로, 센싱 모듈(422)은 복수의 빅 프로젝터(600)가 형성되는 경우, 아두이노 보드(300)로부터 '센싱 유닛 정보'로 단위 센서 이름, 위치 정보, 목적 정보를 추출한 뒤, 추출된 정보와 사전에 각 빅 프로젝터(600)에 대해서 설정된 전담 단위 센서, 전시 위치, 효과 카테고리와 매칭되는 빔 프로젝터(600)의 식별 ID를 추출할 수 있다.On the other hand, in another embodiment of the present invention, the sensing module 422, when a plurality of big projectors 600 are formed, the unit sensor name, location information, purpose information from the Arduino board 300 to'sensing unit information' After extracting, it is possible to extract the identification ID of the beam projector 600 that matches the extracted information and a dedicated unit sensor, display location, and effect category set for each big projector 600 in advance.

보다 구체적으로, 센싱 모듈(422)은 '센싱 유닛 정보'의 단위 센서 이름을 포함하는 카테고리 정보를 갖는 빔 프로젝터(600)의 식별 ID를 1차로 추출한다. 센싱 모듈(422)은 1차로 추출된 식별 ID가 복수인 경우, '센싱 유닛 정보'의 위치 정보 및 목적 정보를 활용하여 최종적으로 하나의 식별 ID를 추출할 수 있다. 즉, 센싱 모듈(422)은 1차로 추출된 식별 ID를 갖는 빔 프로젝터(600)의 효과 카테고리에 해당하는 '센싱 유닛 정보'의 목적 정보에 해당하는지를 제 1 분석을 수행하고, 또한 1차로 추출된 식별 ID를 갖는 빔 프로젝터(600)가 설치된 위치를 중심으로 미리 설정된 반경에 해당하는 위치 영역 내에 '센싱 유닛 정보'의 위치 정보가 있는지에 대한 제 2 분석을 수행할 수 있다. More specifically, the sensing module 422 primarily extracts the identification ID of the beam projector 600 having category information including the unit sensor name of'sensing unit information'. The sensing module 422 may finally extract one identification ID by using location information and purpose information of'sensing unit information' when there are multiple identification IDs extracted primarily. That is, the sensing module 422 performs a first analysis to determine whether it corresponds to the target information of the'sensing unit information' corresponding to the effect category of the beam projector 600 having the primary extracted ID, and also extracted first A second analysis may be performed as to whether there is location information of'sensing unit information' in a location area corresponding to a preset radius around a location where the beam projector 600 having the identification ID is installed.

이에 따라, 센싱 모듈(422)은 제 1 분석 결과 효과 카테고리에 목적 정보를 포함하는 빔 프로젝터(600)에 대한 식별 ID를 2차로 추출하며, 2차로 추출되는 식별 ID가 없는 경우, 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID를 3차로 추출할 수 있다.Accordingly, the sensing module 422 secondarily extracts the identification ID of the beam projector 600 including the target information in the effect category of the first analysis result, and if there is no identification ID extracted second, the second analysis result The identification ID of the beam projector 600 having a preset radius including location information may be extracted third.

보다 구체적으로, 센싱 모듈(422)은 제 1 분석 결과 효과 카테고리에 목적 정보를 포함하는 빔 프로젝터(600)에 대한 식별 ID를 2차로 추출하며, 2차로 추출되는 식별 ID가 하나인 경우, 하나의 식별 ID를 최종 식별 ID로 선정할 수 있으며, 2차로 추출되는 식별 ID가 복수인 경우에는 다시 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID를 3차로 추출할 수 있다.More specifically, the sensing module 422 secondarily extracts the identification ID for the beam projector 600 including the target information in the effect category of the first analysis, and when the identification ID extracted secondarily is one, one The identification ID may be selected as the final identification ID, and when there are a plurality of identification IDs that are secondarily extracted, the identification ID of the beam projector 600 having a preset radius including location information as a second analysis result is extracted thirdly can do.

여기서, 센싱 모듈(422)은 3차 추출을 위해 제 2 분석 결과 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID가 하나인 경우, 하나의 식별 ID를 최종 식별 ID로 선정하며, 반대로 복수인 경우, 위치 정보로부터 미리 설정된 반경의 중심 위치로부터 가까운 설치 장소를 갖는 빔 프로젝터(600)의 식별 ID를 최종 식별 ID로 선정할 수 있다.Here, the sensing module 422 selects one identification ID as the final identification ID when the identification ID of the beam projector 600 having the preset radius including the location information of the second analysis result for the third extraction is one On the contrary, in the case of a plurality, the identification ID of the beam projector 600 having the installation location close to the center position of the preset radius from the location information may be selected as the final identification ID.

또한 센싱 모듈(422)은 위치 정보를 포함하는 미리 설정된 반경을 갖는 빔 프로젝터(600)의 식별 ID가 하나도 없는 경우, 위치 정보로부터 미리 설정된 반경의 테두리로부터 가장 가까운 설치 장소를 갖는 빔 프로젝터(600)의 식별 ID를 최종 식별 ID로 선정하여, 상술한 출력 요청을 스크린 제공 모듈(424)로 젝오할 수 있다.In addition, the sensing module 422, when there is no identification ID of the beam projector 600 having a preset radius including location information, the beam projector 600 having the installation location closest to the border of the preset radius from the location information By selecting the identification ID of the final identification ID, the output request described above may be projected to the screen providing module 424.

이에 따라, 스크린 제공 모듈(424)은 센싱 모듈(422)로부터 출력 요청을 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 포함하여 수신한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어함으로써, 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 할 수 있다. Accordingly, the screen providing module 424 receives the output request from the sensing module 422, including each sorting information and each effect unit according to the sorting information, and then, of the sequential time included in each sorting information. According to the flow, the beam projector 600 is controlled by transmitting the coordinate information included in each effect unit and the effect content output command including the effect content to the beam projector 600 through the third I/O terminal 413. By this, it is possible to project a light source for reflecting an image corresponding to the effect content in a preset effect area of the complex touch screen 500 corresponding to each coordinate information.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, in the present specification and drawings, preferred embodiments of the present invention have been disclosed, and although specific terms have been used, they are merely used in a general sense to easily describe the technical contents of the present invention and to help understand the invention. , It is not intended to limit the scope of the present invention. It is apparent to those skilled in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

1 : 인터렉티브 월 시스템
100 : 제 1 센서 모듈
200 : 제 2 센서 모듈
300 : 아두이노 보드
400 : 사용자 단말
410 : I/O 인터페이스
411 : 제 1 I/O 단자
412 : 제 2 I/O 단자
413 : 제 3 I/O 단자
420 : 제어부
421 : 컨텐츠 제공 모듈
422 : 센싱 모듈
423 : 좌표 보정 모듈
424 : 스크린 제공 모듈
430 : 저장부
440 : 입출력부
500 : 복합형 터치스크린
600 : 빔 프로젝터
1: Interactive Wall System
100: first sensor module
200: second sensor module
300: Arduino board
400: user terminal
410: I/O interface
411: 1 I/O terminal
412: 2nd I/O terminal
413: Third I/O terminal
420: control unit
421: content providing module
422: sensing module
423: Coordinate correction module
424: screen providing module
430: storage unit
440: input and output unit
500: Composite touch screen
600: beam projector

Claims (10)

사용자 단말(400)이 아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 제 1 단계;
사용자 단말(400)이 컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 제 2 단계; 를 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
When the user terminal 400 is in a state of waiting to receive various sensing information from the Arduino board 300, a plurality of stored in the storage unit 430 as a composite touch screen 500 through the second I/O terminal 412 A first step of extracting one sensor-responsive content selected through the input/output unit 440 from the sensor-responsive content in real time and storing the identification ID of the extracted sensor-responsive content in the storage unit 430;
After the user terminal 400 extracts at least one or more sensing information IDs stored in the storage unit 430 using the content identification ID as metadata, the first sensor module 100 and the second sensor that governs each extracted sensing information ID A second step of controlling the first I/O terminal 411 to transmit a detection command for each unit sensor in the module 200 to the Arduino board 300; Interactive wall providing method comprising a.
청구항 1에 있어서,
상기 제 2 단계의 제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며,
제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
The method according to claim 1,
The first sensor module 100 of the second step is a set of sensors formed on the outside of the complex touch screen 500 in contrast to the second sensor module 200, and includes a touch sensor, a motion sensor, a light receiving sensor, a camera, It includes at least one of infrared sensors,
The second sensor module 200 is an interactive wall providing method comprising a touch sensor as a set of sensors formed in a preset area of a touch module of the composite touch screen 500.
청구항 1에 있어서, 상기 제 2 단계 이후,
사용자 단말(400)이 단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 제 3 단계; 를 더 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
The method according to claim 1, After the second step,
When the user terminal 400 receives sensing information from each of the unit sensors, coordinate information of a preset effect area of the complex touch screen 500 that matches the unit sensor ID and content identification ID that provided each sensing information, and A third step of extracting the effect content matching the coordinate information from the storage unit 430; Interactive wall providing method, characterized in that it further comprises.
청구항 3에 있어서, 상기 제 3 단계 이후,
사용자 단말(400)이 미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 제 4 단계; 를 더 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
The method according to claim 3, After the third step,
When the user terminal 400 has a plurality of preset effect areas to display a sequence of effect content, after extracting all of the coordinate information and effect content of each preset effect area, the effect content sequence stored in the storage unit 430 is extracted. After sorting according to the fourth step of storing the output request according to the sorted sequence of the effect unit having the coordinate information and the effect content as one unit in the storage unit 430; Interactive wall providing method, characterized in that it further comprises.
청구항 4에 있어서, 상기 제 4 단계 이후,
사용자 단말(400)이 출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 제 5 단계; 를 더 포함하는 것을 특징으로 하는 인터렉티브 월 제공 방법.
The method according to claim 4, After the fourth step,
After the user terminal 400 extracts the sequence alignment information stored with the output request and each effect unit according to the sequence alignment information from the storage unit 430, according to the sequential flow of time included in each sequence alignment information, each The coordinate information included in the effect unit and the effect content output command including the effect content are controlled to be transmitted to the beam projector 600 through the third I/O terminal 413, so that each coordinate information is transmitted by the beam projector 600. A fifth step of controlling to project a light source for reflecting an image corresponding to the effect content in a preset effect area of the corresponding composite touch screen 500; Interactive wall providing method, characterized in that it further comprises.
제 1 센서 모듈(100), 제 2 센서 모듈(200), 아두이노 보드(300), 사용자 단말(400), 복합형 터치스크린(500) 및 빔 프로젝터(600)를 포함하여 이루어지는 인터렉티브 월 시스템(1)에 있어서, 사용자 단말(400)은,
아두이노 보드(300)로부터 각종 센싱 정보를 수신 대기 상태에서, 제 2 I/O 단자(412)를 통해 복합형 터치스크린(500)으로 저장부(430)에 저장된 복수의 센서 반응형 컨텐츠 중 입출력부(440)를 통해 선택된 하나의 센서 반응형 컨텐츠를 추출하여 실시간으로 전송하고 추출된 센서 반응형 컨텐츠의 식별 ID를 저장부(430)에 저장하는 컨텐츠 제공 모듈(421); 및
컨텐츠 식별 ID를 메타데이터로 저장부(430)에 저장된 적어도 하나 이상의 센싱 정보 ID를 추출한 뒤, 추출된 각 센싱 정보 ID를 관할하는 제 1 센서 모듈(100) 및 제 2 센서 모듈(200)에서의 단위 센서 각각에 대한 감지 명령을 아두이노 보드(300)로 전송하도록 제 1 I/O 단자(411)를 제어하는 센싱 모듈(422); 를 포함하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
An interactive wall system comprising a first sensor module 100, a second sensor module 200, an Arduino board 300, a user terminal 400, a complex touch screen 500, and a beam projector 600 ( In 1), the user terminal 400,
While receiving various sensing information from the Arduino board 300, input/output among a plurality of sensor-responsive contents stored in the storage unit 430 through the second I/O terminal 412 through the complex touch screen 500 A content providing module 421 for extracting one sensor-responsive content selected through the unit 440 and transmitting it in real time and storing the identification ID of the extracted sensor-responsive content in the storage unit 430; And
After extracting at least one sensing information ID stored in the storage unit 430 as the content identification ID as metadata, the first sensor module 100 and the second sensor module 200 that control each extracted sensing information ID A sensing module 422 that controls the first I/O terminal 411 to transmit a detection command for each unit sensor to the Arduino board 300; Interactive wall providing system comprising a.
청구항 6에 있어서,
제 1 센서 모듈(100)은 제 2 센서 모듈(200)과 대비되게 복합형 터치스크린(500)의 외부에 형성되는 센서들의 집합으로 터치센서, 모션센서, 수광센서, 카메라, 적외선 센서 중 적어도 하나 이상을 포함하며, 제 2 센서 모듈(200)은 복합형 터치스크린(500)의 터치모듈의 미리 설정된 영역에 형성되는 센서들의 집합으로 터치센서를 포함하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
The method according to claim 6,
The first sensor module 100 is a set of sensors formed on the outside of the complex touch screen 500 in contrast to the second sensor module 200, and at least one of a touch sensor, a motion sensor, a light receiving sensor, a camera, and an infrared sensor Including the above, the second sensor module 200 is an interactive wall providing system characterized in that it comprises a touch sensor as a set of sensors formed in a preset area of the touch module of the complex touch screen 500.
청구항 6에 있어서, 센싱 모듈(422)은,
단위 센서 각각으로부터 센싱 정보를 수신하는 경우, 각 센싱 정보를 제공한 단위 센서 ID 및 컨텐츠 식별 ID와 매칭되는 복합형 터치스크린(500)의 미리 설정된 효과 영역의 좌표 정보, 그리고 좌표 정보와 매칭되는 이펙트 컨텐츠를 저장부(430)로부터 추출하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
The method according to claim 6, The sensing module (422),
When receiving sensing information from each of the unit sensors, the coordinate information of the preset effect area of the complex touch screen 500 matching the unit sensor ID and the content identification ID that provided each sensing information, and the effect matching the coordinate information Interactive wall providing system, characterized in that for extracting the content from the storage unit 430.
청구항 8에 있어서, 센싱 모듈(422)은,
미리 설정된 효과 영역이 이펙트 컨텐츠의 시퀀스를 표시하기 위해 복수인 경우, 각 미리 설정된 효과 영역의 좌표 정보 및 이펙트 컨텐츠를 모두 추출한 뒤, 저장부(430)에 저장된 이펙트 컨텐츠 시퀀스에 따라 정렬한 뒤, 좌표 정보 및 이펙트 컨텐츠를 하나의 단위로 하는 이펙트 유닛을 정렬된 시퀀스에 따른 출력 요청을 저장부(430)에 저장하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
The method according to claim 8, Sensing module (422),
When a plurality of preset effect regions are displayed to display a sequence of effect contents, after extracting all coordinate information and effect contents of each preset effect region, sorting them according to the sequence of effect contents stored in the storage unit 430, and then coordinates Interactive wall providing system, characterized in that for storing the output request according to the sorted sequence of the effect unit with information and effect content as one unit in the storage unit (430).
청구항 9에 있어서, 사용자 단말(400)은,
출력 요청과 함께 저장된 순서 정렬 정보, 그리고 순서 정렬 정보에 따른 각 이펙트 유닛을 저장부(430)에서 추출한 뒤, 각 순서 정렬 정보에 포함된 순차적인 시간의 흐름에 따라, 각 이펙트 유닛에 포함된 좌표 정보와 이펙트 컨텐츠를 포함하는 이펙트 컨텐츠 출력 명령을 제 3 I/O 단자(413)를 통해 빔 프로젝터(600)로 전송하도록 제어하여 빔 프로젝터(600)에 의해 각 좌표 정보에 해당하는 복합형 터치스크린(500)의 미리 설정된 효과 영역에 이펙트 컨텐츠에 해당하는 영상을 반영하기 위한 광원을 투사하도록 제어하는 스크린 제공 모듈(424); 을 더 포함하는 것을 특징으로 하는 인터렉티브 월 제공 시스템.
The method according to claim 9, the user terminal 400,
After order extraction information stored with the output request and each effect unit according to the order alignment information are extracted from the storage unit 430, coordinates included in each effect unit according to a sequential time flow included in each order alignment information Controlled to transmit an effect content output command including information and effect content to the beam projector 600 through the third I/O terminal 413, and thus a complex touch screen corresponding to each coordinate information by the beam projector 600. A screen providing module 424 for controlling to project a light source for reflecting an image corresponding to the effect content in a preset effect area of 500; Interactive wall providing system further comprising a.
KR1020180162798A 2018-12-17 2018-12-17 Interactive wall system, and method for providing the same KR102208340B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180162798A KR102208340B1 (en) 2018-12-17 2018-12-17 Interactive wall system, and method for providing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180162798A KR102208340B1 (en) 2018-12-17 2018-12-17 Interactive wall system, and method for providing the same

Publications (2)

Publication Number Publication Date
KR20200074429A true KR20200074429A (en) 2020-06-25
KR102208340B1 KR102208340B1 (en) 2021-01-26

Family

ID=71400280

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180162798A KR102208340B1 (en) 2018-12-17 2018-12-17 Interactive wall system, and method for providing the same

Country Status (1)

Country Link
KR (1) KR102208340B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220109875A (en) * 2021-01-29 2022-08-05 선문대학교 산학협력단 Infrared interactive projection system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110071211A (en) * 2009-12-21 2011-06-29 한국전자통신연구원 Virtual graffiti system and interface apparatus thereof
KR101767569B1 (en) * 2017-02-20 2017-08-11 주식회사 유조이월드 The augmented reality interactive system related to the displayed image contents and operation method for the system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110071211A (en) * 2009-12-21 2011-06-29 한국전자통신연구원 Virtual graffiti system and interface apparatus thereof
KR101767569B1 (en) * 2017-02-20 2017-08-11 주식회사 유조이월드 The augmented reality interactive system related to the displayed image contents and operation method for the system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 특허등록공보 등록번호 제10-0470866호 "디스플레이 광고 시스템(DISPLAY ADVERTISEMENT SYSTEM)"

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220109875A (en) * 2021-01-29 2022-08-05 선문대학교 산학협력단 Infrared interactive projection system

Also Published As

Publication number Publication date
KR102208340B1 (en) 2021-01-26

Similar Documents

Publication Publication Date Title
US11614803B2 (en) Individually interactive multi-view display system for non-stationary viewing locations and methods therefor
JP6367499B1 (en) Multi-view architectural lighting system
EP2418621B1 (en) Apparatus and method for providing augmented reality information
US20120223909A1 (en) 3d interactive input system and method
Karitsuka et al. A wearable mixed reality with an on-board projector
CN106843602B (en) Large-screen remote control interaction system and interaction method thereof
US20140347262A1 (en) Object display with visual verisimilitude
US20150293739A1 (en) Computing apparatus, method for controlling computing apparatus thereof, and multi-display system
US20160139762A1 (en) Aligning gaze and pointing directions
JP2011521348A (en) System and method for determining an activation area in a representation area of a viewer interface
Medeiros et al. 3D pointing gestures as target selection tools: guiding monocular UAVs during window selection in an outdoor environment
CN111052044A (en) Information processing apparatus, information processing method, and program
KR101575063B1 (en) multi-user recognition multi-touch interface apparatus and method using depth-camera
KR102208340B1 (en) Interactive wall system, and method for providing the same
US10268175B2 (en) Information presentation method and information presentation apparatus
US20190121450A1 (en) Interactive display system and control method of interactive display
US11445107B2 (en) Supervised setup for control device with imager
US20040105555A1 (en) Sound control installation
US11120682B2 (en) System and method for operating physical entities based on a virtual representation of the physical entities
US20200209982A1 (en) Video interactive system
US10866779B2 (en) User interactive display device and operating device
US20240062480A1 (en) Information processing method, information processing device, and non-volatile storage medium
CN106201289A (en) Intelligent projection device and method
TW201351308A (en) Non-contact medical navigation system and control method therefof
KR101486488B1 (en) multi-user recognition multi-touch interface method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant