WO2020085595A1 - 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버 - Google Patents

증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버 Download PDF

Info

Publication number
WO2020085595A1
WO2020085595A1 PCT/KR2019/005606 KR2019005606W WO2020085595A1 WO 2020085595 A1 WO2020085595 A1 WO 2020085595A1 KR 2019005606 W KR2019005606 W KR 2019005606W WO 2020085595 A1 WO2020085595 A1 WO 2020085595A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
augmented reality
mobile terminal
input
providing server
Prior art date
Application number
PCT/KR2019/005606
Other languages
English (en)
French (fr)
Inventor
박정규
김민수
Original Assignee
주식회사 로보프린트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180128706A external-priority patent/KR101993326B1/ko
Priority claimed from KR1020180128705A external-priority patent/KR102020376B1/ko
Application filed by 주식회사 로보프린트 filed Critical 주식회사 로보프린트
Priority to SG11201905437TA priority Critical patent/SG11201905437TA/en
Priority to US16/471,072 priority patent/US11449128B2/en
Publication of WO2020085595A1 publication Critical patent/WO2020085595A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • the present invention relates to a method for augmented reality providing server to provide augmented reality information to a mobile terminal and augmented reality providing server, and more specifically, a method for providing augmented reality information providing augmented reality information for a plurality of terminals and It relates to an augmented reality server.
  • Terminals may be divided into mobile / portable terminals and stationary terminals depending on whether they are mobile.
  • the mobile terminal may be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry it.
  • such terminals are implemented in the form of a multimedia player equipped with complex functions such as photography or video shooting, music or video file playback, games, and broadcast reception. .
  • a conventional terminal uses augmented reality technology to provide various information about a real thing to a user.
  • Augmented reality (AR) technology is based on the information provided by the server when the terminal provides GPS information and / or geomagnetic information to the server, determines the location and / or direction of the mobile terminal, and the target camera's camera It has been applied in a way that provides guide information (AR information) for the.
  • AR information guide information
  • the conventional augmented reality provision service remains at the level of simply displaying information provided from the augmented reality information database for the object recognized by the location-based method or the object recognized by the marker-based method, thereby making the augmented reality information more diverse and interesting. It is a situation that cannot be provided to users in a manner.
  • the present invention is to solve the above problems, augmented reality providing server capable of providing augmented reality information in a variety of ways rather than simply displaying to the user of the terminal method and augmentation to provide augmented reality information to the mobile terminal It is intended to provide a reality providing server.
  • the method for providing the augmented reality information to the mobile terminal by the augmented reality providing server is the first mobile terminal and the second mobile terminal to augmented reality providing server to capture the shooting information generated by photographing the object
  • a photographing information receiving step received from the first mobile terminal and the second mobile terminal A first that the augmented reality providing server selects first augmented reality information corresponding to the photographing information received from the first mobile terminal and the second mobile terminal and transmits to the first mobile terminal and the second mobile terminal Augmented reality information transmission step;
  • -The first mobile terminal and the second mobile terminal can display the first augmented reality information received from the augmented reality providing server to the user-The first mobile terminal receives predetermined information from the user and generates it
  • -The first mobile terminal may display the second augmented reality
  • the augmented reality providing server includes: a receiver configured to receive photographing information generated by a first mobile terminal and a second mobile terminal photographing an object from a first mobile terminal and a second mobile terminal; A control unit selecting first augmented reality information corresponding to the photographing information obtained from the receiving unit among a plurality of augmented reality information; And a transmitting unit that delivers the first augmented reality information to the first mobile terminal and the second mobile terminal, wherein the receiving unit receives predetermined input information from the first mobile terminal, and the controller receives the input. It generates second augmented reality information including information, and the transmitting unit may transmit the second augmented reality information to the first mobile terminal.
  • augmented reality information can be provided in various ways rather than simply displayed to the user of the terminal.
  • FIG. 1 is a schematic configuration diagram for explaining a method for providing augmented reality information to a mobile terminal by the augmented reality providing server according to an embodiment of the present invention.
  • Figure 2 is a schematic perspective view showing an object and a mobile terminal.
  • 3 to 12 are schematic diagrams showing that augmented reality information is displayed on a mobile terminal by a method for providing augmented reality information to a mobile terminal by an augmented reality providing server according to an embodiment of the present invention.
  • FIGS. 13 to 18 are schematic diagrams for explaining another function of a method for providing augmented reality information to a mobile terminal by an augmented reality providing server according to an embodiment of the present invention.
  • 19 to 24 are schematic diagrams for explaining another function of a method for providing augmented reality information to a mobile terminal by an augmented reality providing server according to an embodiment of the present invention.
  • 25 is a schematic configuration diagram of an augmented reality providing server implementing a method for providing augmented reality information of the present invention of the present invention.
  • 26 is a schematic configuration diagram of a mobile terminal.
  • the method for providing the augmented reality information to the mobile terminal by the augmented reality providing server is the first mobile terminal and the second mobile terminal to augmented reality providing server to capture the shooting information generated by photographing the object
  • a photographing information receiving step received from the first mobile terminal and the second mobile terminal A first that the augmented reality providing server selects first augmented reality information corresponding to the photographing information received from the first mobile terminal and the second mobile terminal and transmits to the first mobile terminal and the second mobile terminal Augmented reality information transmission step;
  • -The first mobile terminal and the second mobile terminal can display the first augmented reality information received from the augmented reality providing server to the user-The first mobile terminal receives predetermined information from the user and generates it
  • -The first mobile terminal may display the second augmented reality
  • the first mobile terminal receives the condition information for the display of the input information from the user, and the display condition information generated by the augmented reality providing server is transmitted from the first mobile terminal. Further comprising a step of receiving information, the display condition information may be information about the display of the input information in the second mobile terminal.
  • the display condition information is information on whether the input information is to be displayed on the second mobile terminal, and in the second augmented reality information transmission step, the display condition information is the input information to the second mobile terminal.
  • the augmented reality providing server transmits the second augmented reality information to the second mobile terminal, and the display condition information allows the input information to be displayed on the second mobile terminal. If not, the augmented reality providing server may not transmit the second augmented reality information to the second mobile terminal.
  • the display condition information may be information on a display position of the input information in the second mobile terminal.
  • the display condition information may be information on a display order of the input information in the second mobile terminal.
  • the display condition information may be information on a display period of the input information in the second mobile terminal.
  • the display condition information may be information on a start time point of the display of the input information in the second mobile terminal.
  • the first mobile terminal receives the condition information for the display of the input information from the user, and the display condition information generated by the augmented reality providing server is transmitted from the first mobile terminal.
  • the display condition information may be information about the display of the input information in the first mobile terminal.
  • the display condition information may be information on a display position of the input information based on the object in the first mobile terminal.
  • the first augmented reality information may include displayable information about a displayable position of the input information based on the object.
  • the second augmented reality information includes only the input information at the display position of the input information based on the object, and is not the first mobile terminal at a position other than the display position of the input information based on the object.
  • Information inputted by another plurality of mobile terminals may include overlapping information.
  • the second augmented reality information is information including the input information during a period from a first time point to a second time point, and information that includes the input information faintly from the first time point to the second time point. You can.
  • the augmented reality providing server includes: a receiver configured to receive photographing information generated by a first mobile terminal and a second mobile terminal photographing an object from a first mobile terminal and a second mobile terminal; A control unit selecting first augmented reality information corresponding to the photographing information obtained from the receiving unit among a plurality of augmented reality information; And a transmitting unit that delivers the first augmented reality information to the first mobile terminal and the second mobile terminal, wherein the receiving unit receives predetermined input information from the first mobile terminal, and the controller receives the input. It generates second augmented reality information including information, and the transmitting unit may transmit the second augmented reality information to the first mobile terminal.
  • the receiving unit receives predetermined display condition information from the first mobile terminal, and the display condition information may be information on the display of the input information in the second mobile terminal.
  • the display condition information is information on whether or not to display the input information in the second mobile terminal
  • the control unit permits the display condition information to display the input information to the second mobile terminal.
  • the transmitter Through the second augmented reality information may not be transmitted to the second mobile terminal.
  • the display condition information may be information on a display position of the input information in the second mobile terminal.
  • the display condition information may be information on a display order of the input information in the second mobile terminal.
  • the display condition information may be information on a display period of the input information in the second mobile terminal.
  • the display condition information may be information on a start time point of the display of the input information in the second mobile terminal.
  • the receiving unit receives predetermined display condition information from the first mobile terminal, and the display condition information may be information on the display of the input information in the first mobile terminal.
  • the display condition information may be information on a display position of the input information based on the object in the first mobile terminal.
  • the first augmented reality information may include displayable information about a displayable position of the input information based on the object.
  • the second augmented reality information includes only the input information at the display position of the input information based on the object, and is not the first mobile terminal at a position other than the display position of the input information based on the object.
  • Information inputted by another plurality of mobile terminals may include overlapping information.
  • the second augmented reality information is information including the input information during a period from a first time point to a second time point, and information that includes the input information faintly from the first time point to the second time point. You can.
  • the method for providing the augmented reality information to the mobile terminal by the augmented reality providing server is a location where the augmented reality providing server receives location information that is information about the location where the mobile terminal is located.
  • the augmented reality providing server satisfies a predetermined condition based on the location information and the shooting information received from the mobile terminal, augmented correspondence to transmit corresponding augmented reality information among a plurality of augmented reality information to the mobile terminal.
  • the mobile terminal can display the corresponding augmented reality information received from the augmented reality providing server to the user-wherein the predetermined condition is that the location information is previously input to the augmented reality providing server And whether the photographing information corresponds to photographing information previously input to the augmented reality providing server.
  • the predetermined condition corresponds to any one of a plurality of the previously input shooting information, but when the location information corresponds to the first location information among the plurality of previously input location information, the plurality of the The first corresponding augmented reality information among the augmented reality information is transmitted to the mobile terminal, and the second corresponding augmentation of the plurality of augmented reality information when the location information corresponds to the second location information among the plurality of previously input location information It may be a condition for transmitting reality information to the mobile terminal.
  • the location information may be information on which the mobile terminal is located when generating the photographing information.
  • the location information may be generated in conjunction with the generation of the shooting information.
  • the location augmented reality information transmitting step of the augmented reality providing server based on the location information to the mobile terminal may further include displaying the location augmented reality information received from the augmented reality providing server to a user.
  • the period in which the augmented reality providing server receives the location information from the mobile terminal does not correspond to the previously input location information than when the location information corresponds to the previously input location information. If not, it may be shorter.
  • the location augmented reality information may be information about the location information and the previously input location information.
  • the location augmented reality information may include information about a direction and a distance between the location information and the previously input location information.
  • the location augmented reality information may include order information for the plurality of previously input location information when there is a plurality of previously input location information.
  • the order information may be determined by a distance between the location information and a plurality of the previously input location information.
  • the order information may be determined by the number of times the corresponding augmented reality information is transmitted.
  • the augmented reality providing server includes: a receiving unit that receives location information, which is information about a location where a mobile terminal is located, and photographing information generated by photographing an object by the mobile terminal; A control unit for selecting corresponding augmented reality information when a predetermined condition is satisfied based on the location information and the shooting information obtained from the receiving unit among a plurality of augmented reality information; And a transmitter for transmitting the corresponding augmented reality information to the mobile terminal, wherein the predetermined condition is whether the location information corresponds to the location information previously input to the control unit and the photographing information is previously input to the control unit. It may be a condition on whether or not it corresponds to the photographed information.
  • the predetermined condition corresponds to any one of a plurality of the previously input shooting information, but when the location information corresponds to the first location information among the plurality of previously input location information, the plurality of the The first corresponding augmented reality information among the augmented reality information is transmitted to the mobile terminal, and the second corresponding augmentation of the plurality of augmented reality information when the location information corresponds to the second location information among the plurality of previously input location information It may be a condition for transmitting reality information to the mobile terminal.
  • the location information may be information on which the mobile terminal is located when generating the photographing information.
  • the location information may be generated in conjunction with the generation of the shooting information.
  • control unit may transmit location augmented reality information to the mobile terminal through the transmitter based on the location information.
  • the period in which the receiver receives the location information from the mobile terminal may be shorter when the location information does not correspond to the previously input location information than when the location information corresponds to the previously input location information.
  • the location augmented reality information may be information about the location information and the previously input location information.
  • the location augmented reality information may include information about a direction and a distance between the location information and the previously input location information.
  • the location augmented reality information may include order information for the plurality of previously input location information when there is a plurality of previously input location information.
  • the order information may be determined by a distance between the location information and a plurality of the previously input location information.
  • the order information may be determined by the number of times the corresponding augmented reality information is transmitted.
  • the method for providing augmented reality information relates to a method for providing augmented reality information to provide augmented reality information to a mobile terminal in connection with an image drawn in a predetermined work order on an object.
  • a photographing information receiving step in which the augmented reality providing server receives the photographing information generated by photographing an object from the mobile terminal;
  • an augmented reality information transmitting step in which the augmented reality providing server selects augmented reality information corresponding to the photographing information received from the mobile terminal and transmits the augmented reality information to the mobile terminal.
  • the mobile terminal can display the augmented reality information received from the augmented reality providing server to the user-The augmented reality providing server receives the input information generated by receiving the input from the user from the mobile terminal Receiving input information; And a corresponding augmented reality information transmitting step of transmitting, by the augmented reality providing server, corresponding augmented reality information corresponding to the input information received from the mobile terminal to the mobile terminal.
  • the mobile terminal may further display the corresponding augmented reality information received from the augmented reality providing server to a user.
  • the input information further includes a method for displaying the image on the object in the mobile terminal.
  • Information, and the corresponding augmented reality information may include information on which the image is drawn in a display method corresponding to the input information on the object.
  • the input information includes information that causes the image to be displayed on the object in the work order in the mobile terminal, and the corresponding augmented reality information indicates information on which the image is drawn in the work order on the object. It can contain.
  • the input information includes information on a user's touch direction in the mobile terminal
  • the corresponding augmented reality information may include information on which the image is drawn in the touch direction on the object.
  • the input information includes information on a user's touch point in the mobile terminal
  • the corresponding augmented reality information may include information on which an area on the object corresponding to the touch point is drawn.
  • the input information includes information for displaying the image in the work order on the object in the mobile terminal and information on a user's touch point in the mobile terminal, and the corresponding augmented reality information is on the object.
  • the information may include information in which a part of the image is drawn in the work order and information in which a region corresponding to the touch point among other parts of the image is drawn.
  • the input information further includes information on a method for displaying an additional image that is an image different from the image
  • the corresponding augmented reality information may include information on which the additional image is drawn on the object.
  • the input information further includes information on a display method between the image and the additional image on the object in the mobile terminal, and the corresponding augmented reality information is information on which a part of the image is drawn on the object And information on which the additional image is drawn.
  • the augmented reality providing server relates to an augmented reality providing server that provides augmented reality information to a mobile terminal in connection with an image drawn in a predetermined work order on the object, wherein the mobile terminal provides the object
  • a receiving unit that receives the photographed and generated photographing information from the mobile terminal
  • a control unit for selecting augmented reality information corresponding to the photographing information received from the mobile terminal
  • And a transmitting unit for transmitting the augmented reality information to the mobile terminal, wherein the receiving unit receives input information generated by the mobile terminal input from the user, and the control unit receives the input information from the mobile terminal.
  • the corresponding augmented reality information corresponding to the input information is generated, and the receiving unit transmits the corresponding augmented reality information to the mobile terminal, and the input information is information about a method of displaying the image on the object in the mobile terminal.
  • the corresponding augmented reality information may include information on which the image is drawn in a display method corresponding to the input information on the object.
  • the input information includes information that causes the image to be displayed on the object in the work order in the mobile terminal, and the corresponding augmented reality information indicates information on which the image is drawn in the work order on the object. It can contain.
  • the input information includes information on a user's touch direction in the mobile terminal
  • the corresponding augmented reality information may include information on which the image is drawn in the touch direction on the object.
  • the input information includes information on a user's touch point in the mobile terminal
  • the corresponding augmented reality information may include information on which an area on the object corresponding to the touch point is drawn.
  • the input information includes information for displaying the image in the work order on the object in the mobile terminal and information on a user's touch point in the mobile terminal, and the corresponding augmented reality information is on the object.
  • the information may include information in which a part of the image is drawn in the work order and information in which a region corresponding to the touch point among other parts of the image is drawn.
  • the input information further includes information on a method for displaying an additional image that is an image different from the image
  • the corresponding augmented reality information may include information on which the additional image is drawn on the object.
  • the input information further includes information on a display method between the image and the additional image on the object in the mobile terminal, and the corresponding augmented reality information is information on which a part of the image is drawn on the object And information on which the additional image is drawn.
  • FIG. 1 is a schematic configuration diagram for explaining a method for providing augmented reality information to a mobile terminal by an augmented reality providing server according to an embodiment of the present invention
  • FIG. 2 is a schematic perspective view showing an object and a mobile terminal.
  • 3 to 12 are schematic diagrams showing that augmented reality information is displayed on a mobile terminal by a method in which augmented reality providing server provides augmented reality information to a mobile terminal according to an embodiment of the present invention.
  • FIGS. 13 to 18 are schematic diagrams for explaining another function of a method for providing augmented reality information to a mobile terminal by an augmented reality providing server according to an embodiment of the present invention.
  • 19 to 24 are schematic diagrams for explaining another function of a method for providing augmented reality information to a mobile terminal by an augmented reality providing server according to an embodiment of the present invention.
  • FIG. 25 is a schematic configuration diagram of an augmented reality providing server implementing a method for providing augmented reality information of the present invention
  • FIG. 26 is a schematic configuration diagram of a mobile terminal.
  • a method for providing augmented reality information to a mobile terminal by an augmented reality providing server is the augmented reality providing server 10 and the mobile terminal (P) It may be implemented by transmitting and receiving various information and / or data.
  • the method for providing the augmented reality information to the mobile terminal by the augmented reality providing server is the first mobile terminal (P1) and the second mobile terminal (P2) is photographed by the object (B) photographing information generated (L)
  • the augmented reality providing server 10 may include a step of receiving shooting information received from the first mobile terminal P1 and the second mobile terminal P2.
  • the mobile terminal P may photograph the object B, and photograph the object B, so that the shooting information L is It can be generated in the mobile terminal (P).
  • the object (B) may be a building, but is not limited thereto, and an object that can be an object to be photographed by the terminal may correspond to the object (B).
  • the object B is assumed to be a building and will be described.
  • a separate identification object for the augmented reality providing server 10 to provide the augmented reality information to the mobile terminal P may be displayed on the object B.
  • the identification object may be displayed as a QR code (Q) on the object (B), or may be displayed as a mural having a predetermined image (E).
  • the building itself may be the identification object.
  • the photographing information L for the augmented reality providing server 10 to provide augmented reality information to the mobile terminal P may be the building itself, or a separate QR code (Q) displayed on the building. ) Or the mural.
  • the information received from the mobile terminal P in order for the augmented reality providing server 10 to provide augmented reality information to the mobile terminal P is not limited to shooting information. It may also be voice information generated by inputting voice to P).
  • the mobile terminal P may be a mobile device such as a tablet computer, a smart phone, or a wearable computer, but is not limited thereto, and may also be an electronic device such as a desktop that cannot be moved.
  • the mobile terminal P may be a concept including a plurality of mobile terminals P1 and P2.
  • the mobile terminal P may be a concept including mobile terminals P1 and P2 owned by a plurality of users, respectively.
  • the first mobile terminal P1 may be a terminal owned by a person 'A'
  • the second mobile terminal P2 may be a terminal owned by a person 'B'.
  • each of the first mobile terminal P1 and the second mobile terminal P2 may photograph the object B to generate the photographing information L, respectively, and the generated photographing information L ) Can be transmitted to the augmented reality providing server 10, respectively.
  • the augmented reality providing server 10 may receive the shooting information (L) or voice information from each of the first mobile terminal (P1) and the second mobile terminal (P2).
  • the augmented reality providing server 10 receives the shooting information L from each of the first mobile terminal P1 and the second mobile terminal P2. would.
  • the method for the augmented reality providing server to provide augmented reality information to the mobile terminal is the augmented reality providing server 10 is received from the first mobile terminal (P1) and the second mobile terminal (P2)
  • a first augmented reality information transmission step of selecting the first augmented reality information (A1) corresponding to the shooting information (L) and transmitting to the first mobile terminal (P1) and the second mobile terminal (P2) further It can contain.
  • the augmented reality providing server 10 may store a plurality of augmented reality information in advance, and may store any one augmented reality information corresponding to the shooting information (L) among a plurality of stored augmented reality information. You can choose.
  • the augmented reality providing server 10 may determine whether there is augmented reality information corresponding to the shooting information L based on the shooting information L, and if the shooting information L If there is no augmented reality information corresponding to and may not select the augmented reality information.
  • one augmented reality information corresponding to the photographing information L among a plurality of augmented reality information will be referred to as the first augmented reality information A1.
  • the augmented reality providing server 10 corresponds to the shooting information L, that is, the selected first augmented reality information A1 to the first mobile terminal P1 and the second mobile terminal P2, respectively. Can deliver.
  • the first augmented reality information A1 received from the augmented reality providing server 10 may be displayed on the first mobile terminal P1.
  • the first augmented reality information A1 may also be displayed on the second mobile terminal P2.
  • the first augmented reality information (A1) may be information about the building, or information related to the building, but for convenience of description, it is assumed that the information is related to the building.
  • the first augmented reality information (A1) may mean information about a facility existing on each floor of the building.
  • the first augmented reality information (A1) may be information including information that there is a 'cafeteria' on the first floor of the building and information that there is a 'gym' on the sixth floor. have.
  • the method in which the augmented reality providing server provides the augmented reality information to the mobile terminal is the first mobile terminal (P1) receives the predetermined information from the user input information (I) generated by the augmented reality
  • the providing server 10 may further include a step of receiving input information received from the first mobile terminal P1.
  • a user that is, an owner of the first mobile terminal P1 has a text, an image E, while the first mobile terminal P1 displays the first augmented reality information A1
  • the input information I such as an image may be generated through the first mobile terminal P1, and the input information I may be transmitted to the augmented reality providing server 10.
  • the user of the first mobile terminal P1 inputs the text 'I want someone to exercise together' through the first mobile terminal P1 to enter the input information.
  • (I) may be generated, and the first mobile terminal P1 may transmit the input information I to the augmented reality providing server 10.
  • the method in which the augmented reality providing server provides augmented reality information to the mobile terminal includes the input information I received by the augmented reality providing server 10 from the first mobile terminal P1.
  • a second augmented reality information transmission step of transmitting the second augmented reality information (A2) to the first mobile terminal (P1) may be further included.
  • the augmented reality providing server 10 receiving the input information I from the first mobile terminal P1 receives the input information I and the first augmented reality information A1.
  • the second augmented reality information A2 may be generated to transmit the second augmented reality information A2 to the first mobile terminal P1.
  • the second augmented reality information A2 received from the augmented reality providing server 10 may be displayed on the first mobile terminal P1.
  • the augmented reality providing server 10 is the second augmented reality information (A2) including the text 'I want someone to exercise together' the input information (I) received from the first mobile terminal (P1) It can be generated and delivered to the first mobile terminal (P1), the first mobile terminal (P1) includes the text 'I want someone to exercise together' the input information (I) formed by their input
  • the second augmented reality information A2 may be received from the augmented reality providing server 10 and displayed to the user.
  • the augmented reality providing server 10 provides augmented reality information to the mobile terminal P only in one direction. Rather than providing it, it is possible to provide a variety of augmented reality information to a user by receiving predetermined information from the mobile terminal P and updating the input information I to provide it to the mobile terminal P.
  • the first mobile terminal P1 receives the condition information for the display of the input information I from the user and receives the generated display condition information from the augmented reality providing server 10 ) May further include a step of receiving display condition information received from the first mobile terminal P1, for example, the display condition information is displayed on the second mobile terminal P2 in the input information I. It may be information about.
  • the user of the first mobile terminal P1 can not only generate the input information I through the first mobile terminal P1, but also the input as shown in FIG. 5.
  • the display condition information which is a condition for the display of information I, may be generated, and the first mobile terminal P1 may transmit the display condition information to the augmented reality providing server 10.
  • how the display condition information is to be displayed on the second mobile terminal P2 and / or the second mobile terminal P2 is the input information I input from the first mobile terminal P1.
  • it may be information on whether the input information I is displayed on the second mobile terminal P2.
  • the display condition information may be condition information on whether or not the input information I generated from the first mobile terminal P1 is displayed on the second mobile terminal P2 or not.
  • the user of the first mobile terminal P1 may generate the display condition information through an input window displayed on the first mobile terminal P1.
  • the display condition information is a condition that allows the input information I to be displayed as the second mobile terminal P2.
  • the display condition information does not allow the input information I to be displayed on the second mobile terminal P2.
  • the second augmented reality information transmission step is a condition that allows the display condition information to display the input information I as the second mobile terminal P2, the augmented reality providing server 10 A may transmit the second augmented reality information A2 to the second mobile terminal P2.
  • the second mobile terminal P2 receiving the second augmented reality information A2 from the augmented reality providing server 10 is the input information I generated from the first mobile terminal P1.
  • the second augmented reality information (A2) including the may be displayed to the user.
  • the second mobile terminal (P2) as shown in Figure 4, the second augmented reality information including the text 'I want someone to exercise together' generated from the first mobile terminal (P1) (A2) can be displayed to the user.
  • the augmented reality providing server 10 May not transmit the second augmented reality information A2 to the second mobile terminal P2.
  • the second mobile terminal P2 may display the first augmented reality information A1 that does not include the input information I generated from the first mobile terminal P1 to the user. .
  • the second mobile terminal (P2) as shown in Figure 3, the first augmented reality does not contain the text 'I want someone to exercise together' generated from the first mobile terminal (P1) Information A1 can be displayed to the user.
  • the display condition information may be a condition for whether or not the input information I is displayed on the second mobile terminal P2 according to a user's age and gender. .
  • the display condition information may be a condition for whether or not the input information I is displayed on the second mobile terminal P2 according to a user's country or region.
  • the display condition information is a condition that causes the input information I to be displayed only to the '10s' user. You can.
  • the augmented reality providing server 10 moves the second augmented reality information A2 including the input information I to the second It can be delivered to the terminal P2.
  • the augmented reality providing server 10 may remove the second augmented reality information A2 including the input information I from the second mobile terminal P2. 2 It may not be delivered to the mobile terminal P2, and as a result, the input information I may not be displayed on the second mobile terminal P2.
  • the display condition information is a condition for displaying the input information I only to the user who is a woman.
  • the augmented reality providing server 10 receives the second augmented reality information A2 including the input information I from the second mobile terminal ( P2).
  • the augmented reality providing server 10 moves the second augmented reality information A2 including the input information I to the second It may not be delivered to the terminal P2, and as a result, the input information I may not be displayed on the second mobile terminal P2.
  • the display condition information may be condition information in which a plurality of conditions are selected.
  • the user of the first mobile terminal P1 can touch the 'teens' and the ' woman' through the first mobile terminal P1 to generate the display condition information having a plurality of condition information. have.
  • the augmented reality providing server 10 may receive and store information about a user of the first mobile terminal P1 and a user of the second mobile terminal P2, for example, user information in advance. .
  • the augmented reality providing server 10 may receive and store information about each user's age, gender, and region from the first mobile terminal P1 and the second mobile terminal P2. .
  • the display condition information may be information on a display position of the input information I in the second mobile terminal P2.
  • the user of the first mobile terminal P1 is positioned at the location on the second augmented reality information A2 through which the input information I is displayed through the first mobile terminal P1. Can decide.
  • the user of the first mobile terminal (P1) through the first mobile terminal (P1) the text 'I want someone to exercise together' '6F Gym' augmented reality
  • the display condition information may be input to be displayed in the lower portion of the information, or the display condition information may be input to be displayed in the upper portion of the augmented reality information of '6F Gym'.
  • the display condition information is a condition to display the text 'I want someone to exercise together' under the augmented reality information of '6F Gym'
  • the second mobile terminal P2 is illustrated in FIG. 4. As can be seen, the text 'I want someone to exercise together' may be displayed at the bottom of the augmented reality information of '6F Gym'.
  • the display condition information is a condition for displaying the text 'I want someone to exercise together' in the upper part area H of the augmented reality information of '6F Gym'
  • the second mobile terminal P2 The text 'I want someone to exercise together' may be displayed in the upper part (H) of the augmented reality information of '6F Gym'.
  • the augmented reality providing server 10 receives the display condition information from the first mobile terminal P1 and receives the second augmented reality information A2 including the input information I corresponding thereto. It can be implemented by transmitting to the mobile terminal (P2).
  • the display condition information may be information on a display order of the input information I in the second mobile terminal P2.
  • the user of the first mobile terminal P1 has the input information I through the first mobile terminal P1 and the other mobile terminal P on the second augmented reality information A2.
  • the display order of the input information I may be determined in relation to other input information Y inputted through.
  • the user of the first mobile terminal P1 transmits the input information I to the augmented reality providing server 10
  • another mobile terminal P On the assumption that the users (Rinda, Michal) respectively input the input information (Y) to form the first augmented reality information (A1), the user of the first mobile terminal (P1) is' I want someone to exercise
  • the display condition information may be input so that the characters together are displayed before other input information (Y).
  • the second mobile terminal (P2) has the text 'I want someone to exercise together' the input information (I) of the first mobile terminal (P1)
  • the second augmented reality information A2 displayed before the other input information Y may be displayed.
  • the user of the second mobile terminal P2 can view the input information I and other input information Y in order through a touch or the like on the screen as shown in FIG. 6 (a).
  • the user of the first mobile terminal P1 may input the display condition information so that the input information I is displayed before other input information Y through the first mobile terminal P1.
  • the display condition information may be input to be displayed later than other input information (Y).
  • the display condition information may be information on a display position of the input information I in the second mobile terminal P2 and a display order of the input information I in the second mobile terminal P2. .
  • the user of the first mobile terminal P1 may select a display position of the input information I, and further, when there is other input information Y at a position to display the input information I
  • the display order of the input information I can also be selected.
  • the display condition information may be information on a display period of the input information I in the second mobile terminal P2.
  • the user of the first mobile terminal P1 determines how long the input information I will be displayed on the second augmented reality information A2 through the first mobile terminal P1. Can decide.
  • the input information I may be displayed for 1 day on the second augmented reality information A2 of the second mobile terminal P2. Thereafter, after one day, it may no longer be displayed on the second augmented reality information A2.
  • the second mobile terminal (P2) has the text 'I want someone to exercise together' the input information (I) of the first mobile terminal (P1)
  • the second augmented reality information A2 may be displayed for one day, and after one day, as illustrated in FIG. 6 (b), the input information I may not be displayed.
  • the display condition information may be information on a display start time of the input information I in the second mobile terminal P2.
  • the input information I is 1 pm tomorrow on the second augmented reality information A2 of the second mobile terminal P2. It may be displayed from the hour, and may not be displayed on the second augmented reality information A2 before 1 PM tomorrow.
  • the second mobile terminal (P2) has the text 'I want someone to exercise together' the input information (I) of the first mobile terminal (P1) It may be displayed on the second augmented reality information A2 from 1:00 PM tomorrow, and the input information I may not be displayed as shown in FIG. 6B before 1 PM tomorrow. .
  • FIG. 7 illustrates another example in which the first augmented reality information A1 is displayed on the first mobile terminal P1 by the shooting information receiving step and the first augmented reality information transmitting step.
  • the first augmented reality information (A1) is already input by the other mobile terminal (P) on the building '?' And information such as '!'.
  • the user of the first mobile terminal P1 may transmit predetermined input information I to the augmented reality providing server 10 through the input information receiving step, and also through the display condition information receiving step. It is possible to transmit predetermined display condition information to the augmented reality providing server 10.
  • the display condition information may mean information about the display of the input information I in the first mobile terminal P1.
  • the display condition information may mean information on how and when the input information I will be displayed on the first mobile terminal P1.
  • the display condition information may mean information on a display position of the input information I based on the object B in the first mobile terminal P1.
  • the augmented reality providing server 10 may transmit second augmented reality information A2 including the input information I to the first mobile terminal P1, as shown in FIG. 1
  • the mobile terminal P1 receives the second augmented reality information A2 including the input information I called ' ⁇ ' received from the augmented reality providing server 10 of the first mobile terminal P1. It can be displayed to the user.
  • the user of the first mobile terminal P1 displays the display condition information on which position the input information I is to be displayed on the second augmented reality information A2 to the first mobile terminal P1.
  • the display condition information can be transmitted to the augmented reality providing server 10.
  • condition for the display position of the input information I of the display condition information may be a condition based on the object B.
  • the display condition information may be a condition in which the input information I called ' ⁇ ' can be displayed only on the object B being photographed, and may be displayed in an area outside the object B. It may be a condition that cannot be.
  • the user of the first mobile terminal P1 is only to display the input information I of ' ⁇ ' at a predetermined position on the object B rather than an area outside the object B being photographed. can do.
  • the first augmented reality information A1 may include displayable information C for a displayable position of the input information I based on the object B.
  • the first mobile terminal P1 may display an area C for a location to input the input information I called ' ⁇ '.
  • the displayable position of the input information I may be a predetermined position on the object B.
  • the displayable information (C) is displayed on the object (B) with a dotted line to display a displayable area of the input information to the user.
  • the input information I called ' ⁇ ' is '?' And the character '!' May be displayed in an area other than the area already displayed, or '?' And the character '!' Can also be displayed on the already displayed area.
  • FIG. 9 illustrates an example in which the first augmented reality information A1 is displayed on the first mobile terminal P1, and input information different from another mobile terminal P is already shown. For example, '?', '!' And 'A' may be displayed.
  • '!' And 'A' characters may be displayed overlapping each other.
  • the user of the first mobile terminal P1 may input the input information I called ' ⁇ ' through the first mobile terminal P1 as '?', '!' And 'A' may be displayed by selecting an area in which 'A' is not displayed, or '?', '!' And 'A' may be selected and displayed.
  • the first move The terminal P1 may transmit the display condition information to the augmented reality providing server 10.
  • the augmented reality providing server 10 receives the input information (I) and the display condition information from the first mobile terminal (P1) and receives the second augmented reality information (A2) corresponding thereto. 1 can be transmitted to the mobile terminal P1.
  • the second augmented reality information (A2) includes only the input information (I) at the display position of the input information (I) based on the object (B), and based on the object (B) At locations other than the display location of the input information I, information input by a plurality of mobile terminals P other than the first mobile terminal P1 (for example, '!' And 'A') It may include overlapping overlap information.
  • the user of the first mobile terminal P1 displays the input information I called ' ⁇ ' in an area marked with '?' In FIG.
  • the second augmented reality information A2 transmitted to the first mobile terminal P1 is displayed only in the area marked with '?' And only the ' ⁇ ' as the input information I, In other areas, '!' And 'A' may be displayed overlapping.
  • the user of the first mobile terminal P1 who inputs the character ' ⁇ ', which is the input information I is different from the user inputting the input information I through the other mobile terminal P. It can be seen relatively clearly compared to the input information (Y).
  • the second augmented reality information (A2) is information including the input information (I) for a period from a first time point to a second time point, and the more the second time point goes from the first time point, It may be information including the input information I faintly.
  • FIG. 12 is an enlarged schematic diagram showing only the character ' ⁇ ', which is the input information I, among the second augmented reality information A2 displayed by the first mobile terminal P1.
  • the character ' ⁇ ' which is the input information (I)
  • the second augmented reality information A2 may gradually appear faintly from the first viewpoint to the second viewpoint.
  • the character ' ⁇ ' which is the input information I, is no longer included in the second augmented reality information A2. It may not be displayed on the first mobile terminal P1 and the second mobile terminal P2.
  • the user may select the first time point and / or the second time point through the first mobile terminal P1.
  • the augmented reality providing server 10 implementing the method for providing the augmented reality information and the mobile terminal P provided with the augmented reality information will be described in detail.
  • the augmented reality providing server 10 includes a receiving unit 400 receiving predetermined information from the mobile terminal P, and predetermined information received by the receiving unit 400.
  • a control unit 200 for processing, calculating, selecting, judging and / or controlling data related to augmented reality information on the basis of, and a transmitting unit 100 for transmitting predetermined information related to augmented reality information to the mobile terminal P
  • a memory unit 500 that stores data and / or information necessary to implement a method for providing augmented reality information.
  • the mobile terminal P is a terminal input unit P10 in which predetermined information and / or data related to the implementation of augmented reality information can be input by a user's touch, etc.
  • the terminal location generating unit (P20) for generating information on which the terminal (P) is located, the augmented reality providing server (10) and a terminal communication unit (P40) for receiving or transmitting predetermined information and / or data, and the augmented reality information
  • a terminal photographing unit (P50) capable of photographing related predetermined information and / or data
  • a terminal display unit (P30) for displaying information and / or data related to augmented reality information to a user
  • the mobile terminal (P) It may include a terminal terminal control unit P60 capable of processing, calculating, selecting and / or determining components and / or information necessary for controlling a component or receiving augmented reality information.
  • the augmented reality providing server 10 is the first mobile terminal (P1) and the second mobile terminal (P2) is the first photographing the object (B) generated by photographing the object (B) the first It may include a mobile terminal (P1) and the receiving unit 400 received from the second mobile terminal (P2).
  • the first mobile terminal P1 and the second mobile terminal P2 may generate the photographing information L through the terminal photographing unit P50, and the photographing information ( L) may be transmitted to the receiving unit 400 through the terminal communication unit P40.
  • the augmented reality providing server 10 is a plurality of augmented reality information
  • the control unit 200 for selecting the first augmented reality information (A1) corresponding to the shooting information (L) obtained from the receiving unit 400 It can contain.
  • the controller 200 corresponds to any one of the photographing information L received from the mobile terminal P and a plurality of photographing information L previously input to the memory unit 500.
  • the first augmented reality information A1 corresponding to the plurality of augmented reality information previously input to the memory unit 500 may be selected.
  • the meaning of the selection may include a meaning in which any one of a plurality of augmented reality information pre-input by the pre-input program is automatically calculated.
  • the augmented reality providing server 10 may include a transmitter 100 for transmitting the first augmented reality information (A1) to the first mobile terminal (P1) and the second mobile terminal (P2).
  • the first mobile terminal P1 and the second mobile terminal P2 that have received the augmented reality information through the transmitter 100 each transmit the first augmented reality information A1 to the user through the terminal display. Can be displayed.
  • the receiving unit 400 may receive the input information I from the first mobile terminal P1, and the control unit 200 may include the second augmented reality information including the input information I (A2) may be generated, and the transmitter 100 may transmit the second augmented reality information A2 to the first mobile terminal P1.
  • the receiving unit 400 may receive the display condition information from the first mobile terminal P1.
  • control unit 200 is the condition that allows the display condition information to display the input information (I) to the second mobile terminal (P2), the second augmented reality information through the transmitter 100 If (A2) is transmitted to the second mobile terminal P2, and the display condition information is a condition that does not allow the input information I to be displayed on the second mobile terminal P2, the transmitter 100 ) May not transmit the second augmented reality information A2 to the second mobile terminal P2.
  • the method for the augmented reality providing server according to an embodiment of the present invention to provide the augmented reality information to the mobile terminal is the augmented reality providing server 10, the location information that is information about the location where the mobile terminal (P) is located It may include a step of receiving location information received from the mobile terminal (P).
  • the augmented reality providing server 10 may receive the location information from the mobile terminal P and obtain information about where the mobile terminal P is located.
  • the method for providing the augmented reality information to the mobile terminal by the augmented reality providing server is the mobile terminal (P) photographing the object (B) generated by the shooting information (L)
  • the augmented reality providing server 10 may further include a step of receiving photographing information received from the mobile terminal P.
  • the augmented reality providing server 10 may receive the location information from the mobile terminal P, and further, may receive the photographing information L generated by the mobile terminal P photographing.
  • the method for providing the augmented reality information to the mobile terminal by the augmented reality providing server is the location information received by the augmented reality providing server 10 from the mobile terminal (P) And a corresponding augmented reality information transmission step of transmitting corresponding augmented reality information among a plurality of augmented reality information to the mobile terminal P when a predetermined condition is satisfied based on the photographing information L. .
  • the predetermined condition is whether the location information corresponds to the location information previously input to the augmented reality providing server 10 and the shooting information (L) is written to the augmented reality providing server 10 It may be a condition on whether or not it corresponds to the input shooting information L.
  • the augmented reality providing server 10 is any one of the location information on which the location information has been previously input based on the location information and the shooting information L received from the mobile terminal P.
  • the shooting information (L) corresponds to any one of the previously input location information, that is, when the predetermined condition is satisfied
  • the augmented reality information stored in the augmented reality providing server 10 is The corresponding augmented reality information corresponding to a combination of location information and the photographing information L may be transmitted to the mobile terminal P.
  • the information that is the basis of the selection may further include the location information, not only the shooting information L. have.
  • the mobile terminal P may display the corresponding augmented reality information received from the augmented reality providing server 10 to the user.
  • the predetermined condition is that the shooting information (L) corresponds to any one of a plurality of the previously input shooting information (L), the location information is the first of the plurality of previously input location information If it corresponds to the location information, the first corresponding augmented reality information among the plurality of augmented reality information is transmitted to the mobile terminal P, and the location information corresponds to the second location information among the plurality of previously inputted location information.
  • it may be a condition for transmitting second augmented reality information among the plurality of augmented reality information to the mobile terminal P.
  • a first identification object Q1 among the identification objects Q is displayed on one surface B1 of the object B
  • a second identification object Q2 among the identification objects Q is displayed on another surface B2 of the object B
  • the first identification object Q1 and the second identification object Q2 It may be a QR code (Q) having the same pattern.
  • FIG. 15 is a schematic view of the object B as viewed from above.
  • the position of the mobile terminal P is the first position X1 based on the object B.
  • the augmented reality providing server 10 is the first identification object (Q1) and the first location information
  • the first corresponding augmented reality information A1 (corresponding to the first augmented reality information) among a plurality of the augmented reality information by combining the location information corresponding to (D1) is transmitted to the mobile terminal P You can.
  • the location information of the mobile terminal P is in the second location X2 based on the object B, so that the location information is the second location information D2.
  • the augmented reality providing server 10 combines the second identification object Q2 and the location information corresponding to the second location information D2, and The second corresponding augmented reality information A3 different from the first corresponding augmented reality information A1 among the augmented reality information may be transmitted to the mobile terminal P.
  • the augmented reality providing server ( 10) may transmit different augmented reality information to the mobile terminal P based on the location of the mobile terminal P.
  • the location information may be information on which the mobile terminal P is located when generating the photographing information L.
  • the location information may be generated in conjunction with the generation of the shooting information (L).
  • the mobile terminal P may automatically generate the location information when generating the photographing information L.
  • the method for providing the augmented reality information to the mobile terminal by the augmented reality providing server is based on the location information when the location information does not correspond to the previously input location information
  • the augmented reality providing server 10 may further include a location augmented reality information transmitting step of transmitting the location augmented reality information to the mobile terminal P.
  • the augmented reality providing server 10 does not transmit the augmented reality information to the mobile terminal P. Instead, the location augmented reality information may be transmitted to the mobile terminal P instead.
  • the augmented reality providing server 10 may store previously input location information D.
  • the previously input location information D may be information about a location where the augmented reality providing server 10 selects the corresponding augmented reality information and transmits it to the mobile terminal P.
  • the augmented reality providing server 10 may transmit the corresponding augmented reality information (A1, A3) to the mobile terminal P based on the predetermined condition. have.
  • the augmentation The reality providing server 10 may transmit the location augmented reality information A4 rather than the corresponding augmented reality information A1 and A3 as shown in FIG. 16 to the mobile terminal P.
  • the mobile terminal P may display the location augmented reality information A4 received from the augmented reality providing server 10 to the user.
  • the location augmented reality information A4 may be information about the location information and the previously input location information D.
  • the augmented reality providing server 10 is the mobile terminal (P) the shooting
  • the augmented reality providing server 10 does not correspond to the location information (D) in which the location information, which is the third location (X3), is previously input.
  • the location augmented reality information A4 as shown in FIG. 16 may be selected and transmitted to the mobile terminal P.
  • the mobile terminal P can display the location augmented reality information A4 as shown in FIG. 16.
  • the location augmented reality information A4 is provided to the location information and the augmented reality providing server 10 which is the third location X3 where the mobile terminal P is located.
  • Pre-entered location information (D) may be included.
  • the location augmented reality information A4 includes the object B, and may be information indicating a division of a boundary or region between previously inputted location information D and previously uninputed location information. have.
  • the user of the mobile terminal P can view the location augmented reality information A4 through the mobile terminal P and move to a location corresponding to the previously input location information D.
  • the location augmented reality information A4 may include information about a direction and a distance between the location information and the previously input location information D.
  • the location augmented reality information A4 is recorded in the augmented reality providing server 10 based on the location information which is the third location X3 where the mobile terminal P is located. It may be information indicating a distance and a direction to the input location information D.
  • the user of the mobile terminal P can view the location augmented reality information A4 through the mobile terminal P and move more conveniently to a location corresponding to the previously input location information D.
  • the location augmented reality information A4 may include the location information that is the third location X3 in which the mobile terminal P is located.
  • the augmented reality providing server (10) may include area information (F) for a location having the largest number of location information received from a plurality of different mobile terminals (P). have.
  • the user of the mobile terminal P sees the location augmented reality information A4 through the mobile terminal P, and the plurality of other people among the previously input location information D are located most frequently, so the augmented reality From the provision server 10, the corresponding augmented reality information A1 and A3 may be moved to a location where they have been provided.
  • the location augmented reality information A4 may be information including sequence information for a plurality of the previously input location information D when there is a plurality of the previously input location information D. .
  • the location augmented reality information A4 may include the location information that is the third location X3 in which the mobile terminal P is located. If there is a plurality of previously input location information D including the first location information D1 and the second location information D2 within a predetermined distance from the third location X3, the first location The sequence information on which one of the location information D1 and the second location information D2 is derived may be further included.
  • the sequence information may be information represented by arrows and numbers based on the location information, which is the third location X3, and as illustrated in FIG. 18, the sequence information may include the second location information ( It may be information including an arrow and a number that are first derived to D2) and then to the first location information D1.
  • the order information may be determined by a distance between the location information and a plurality of the previously input location information (D).
  • the sequence information may be information including arrows and numbers that are first derived to the second location information D2 and then to the first location information D1, as illustrated in FIG. 18. have.
  • the order information may be determined by the number of times the corresponding augmented reality information A1 and A3 are transmitted.
  • the augmented reality providing server 10 is different from the order information before the mobile terminal P receives the location augmented reality information A4 from the augmented reality providing server 10. If the number of times corresponding to the first location information D1 among the location information received from the plurality of mobile terminals P is greater than the number of times corresponding to the second location information D2, that is, the augmented reality providing server ( 10) The number of times the number of times the first corresponding augmented reality information A1 corresponding to the first location information D1 is selected corresponds to the second corresponding augmented reality information A3 corresponding to the second location information D2. If it is more than the selected number of times, it may be information including an arrow and a number that are first derived to the first location information D1 and then to the second location information D2.
  • the augmented reality providing server 10 may not only receive the photographing information L from the mobile terminal P, but also periodically receive the location information of the mobile terminal P. have.
  • the period in which the augmented reality providing server 10 receives the location information from the mobile terminal P in the location information receiving step corresponds to the location information D in which the location information is previously input. It may be shorter than the case where it does not correspond to the previously input location information D.
  • the mobile terminal P determines that the mobile terminal P is in the third location X3 that does not correspond to the previously input location information D, the mobile terminal P The location information may be transmitted from P) in a shorter period to update the location augmented reality information A4 more accurately and transmit the location information to the mobile terminal P.
  • the augmented reality providing server 10 implementing the method for providing the augmented reality information and the mobile terminal P provided with the augmented reality information will be described in detail.
  • the augmented reality providing server 10 includes a receiving unit 400 receiving predetermined information from the mobile terminal P, and predetermined information received by the receiving unit 400.
  • a control unit 200 for processing, calculating, selecting, judging and / or controlling data related to augmented reality information on the basis of, and a transmitting unit 100 for transmitting predetermined information related to augmented reality information to the mobile terminal P
  • a memory unit 500 that stores data and / or information necessary to implement a method for providing augmented reality information.
  • the mobile terminal P is a terminal input unit P10 in which predetermined information and / or data related to the implementation of augmented reality information can be input by a user's touch, etc.
  • the terminal location generating unit (P20) for generating information on which the terminal (P) is located, the augmented reality providing server (10) and a terminal communication unit (P40) for receiving or transmitting predetermined information and / or data, and the augmented reality information Configuration of a terminal photographing unit (P50) capable of photographing related predetermined information and / or data, a terminal display unit (P30) for displaying information and / or data related to augmented reality information to a user, and the mobile terminal (P) It may include a terminal control unit (P60) that can control, calculate, select, and / or determine elements and / or data necessary to control elements or receive augmented reality information.
  • P60 terminal control unit
  • the augmented reality providing server 10 includes the location information, which is information about the location where the mobile terminal P is located, and the photographing information generated by the mobile terminal P photographing the object B. It may include a receiving unit 400 for receiving (L) from the mobile terminal (P).
  • the mobile terminal P may generate the photographing information L through the terminal photographing unit P50, and also the location information through the terminal location generating unit P20. It can be generated, and the shooting information (L) and the location information can be transmitted to the receiving unit 400 through the terminal communication unit (P40).
  • the terminal location generator P20 may be a GPS communication device.
  • the controller 200 selects the corresponding augmented reality information when the predetermined condition is satisfied based on the location information and the shooting information L obtained from the receiving unit 400 among a plurality of augmented reality information. It may include.
  • control unit 200 corresponds to any one of the photographing information L received from the mobile terminal P and a plurality of photographing information L previously input to the memory unit 500. If the predetermined condition is satisfied according to whether it corresponds to any one of the location information received from the mobile terminal P and a plurality of location information previously input to the memory unit 500, the memory unit ( The corresponding augmented reality information may be selected from a plurality of augmented reality information previously input in 500).
  • the meaning of the selection may include a meaning in which any one of a plurality of augmented reality information pre-input by a pre-input program is automatically calculated, and the predetermined condition is also in the form of a program in the memory unit 500 It may be already entered in.
  • the augmented reality providing server 10 may include a transmitting unit 100 for transmitting the corresponding augmented reality information to the mobile terminal (P).
  • the mobile terminal P receiving the augmented reality information through the transmitter 100 may display the corresponding augmented reality information to the user through the terminal display unit P30.
  • the controller 200 receives the location augmented reality information (A4) through the transmitter 100 based on the location information. (P).
  • the augmented reality providing server 10 may transmit different augmented reality information to the terminal according to the order in which the terminal P transmits the photographing information L to the augmented reality providing server 10. P).
  • the photographing information L in which the first identification object Q1 of the identification object Q is displayed on one side B1 of the object B by the terminal P is displayed.
  • the augmented reality providing server 10 is augmented reality information including A information, B information and C information corresponding to the first identification object (Q1) It can be transmitted to the terminal (P).
  • the augmented reality providing server displays the photographing information L in which the second identification object Q2 is displayed among the identification objects Q on the other side B2 of the object B by the terminal P
  • the augmented reality providing server 10 transmits augmented reality information including C information, D information and E information corresponding to the second identification object Q2 to the terminal P. can do.
  • the terminal P is first the object (B) on one side (B1) of the identification object (Q) of the first identification object (Q1) is displayed the shooting information (L) the augmented reality
  • the terminal P is any other of the object (B)
  • the augmented reality providing server 10 Does not transmit augmented reality information including C information, D information and E information corresponding to the second identification object Q2 to the terminal P, but augmented reality information including D information and E information, or Augmented reality information including F information may be transmitted to the terminal P.
  • the augmented reality providing server 10 may transmit different augmented reality information to the terminal P according to the order in consideration of the order of the shooting information L transmitted from the terminal P.
  • the method for providing the augmented reality information to the mobile terminal by the augmented reality providing server is an image drawn in a predetermined work order on the object B (E ) In connection with augmented reality information to provide augmented reality information to the mobile terminal (P).
  • the object E may be drawn on the object B by a machine or a person in the work order.
  • the object B may be an apartment
  • the image E may be a mural painted on the apartment.
  • the image (E) may be drawn on the wall of the apartment in the work order from top to bottom.
  • the augmented reality providing server 10 may actually store information in which the image E is drawn in the work order in advance in the object B.
  • the augmented reality providing server 10 receives the shooting information L generated by the mobile terminal P photographing the object B from the mobile terminal P. It may include a step of receiving information.
  • the mobile terminal P may photograph the object B on which the image E is drawn, and transmit the photographing information L to the augmented reality providing server 10.
  • the augmented reality providing server 10 selects augmented reality information corresponding to the shooting information L received from the mobile terminal P and transmits it to the mobile terminal P
  • the augmented reality information transmission step may further include.
  • the augmented reality providing server 10 compares the photographing information L and a plurality of photographing information L previously input, and among the plurality of photographing information L to which the photographing information L is previously input. If it corresponds to any one, the corresponding augmented reality information among a plurality of inputted augmented reality information may be transmitted to the mobile terminal P.
  • FIG. 19 shows an example of the augmented reality information A5, and as shown in FIG. 2, a user of the mobile terminal P photographs the object B to recall the shooting information L
  • the augmented reality information A5 on which the mural is not drawn on the object B may be transmitted to the mobile terminal P.
  • the object B displayed on the mobile terminal P may be displayed on a transition screen where the image E is not displayed and the image E is drawn on the object B.
  • the method for providing the augmented reality information is an input information receiving step in which the augmented reality providing server 10 receives the input information generated by the mobile terminal P being input from the user from the mobile terminal P. It may further include.
  • a plurality of icons K capable of inputting the input information may be displayed on the mobile terminal P on which the augmented reality information A5 is displayed.
  • the input information may be information on a method of displaying the image E on the object B in the mobile terminal P, and a plurality of icons K are on the object B. It may be an input window that the user can select how to display the image (E).
  • the input information is generated and the mobile terminal P sends the input information to the augmented reality providing server 10. Can deliver.
  • the method for providing augmented reality information transmits augmented reality information corresponding to the input information received by the augmented reality providing server 10 from the mobile terminal P to the mobile terminal P.
  • the step of transmitting the augmented reality information may be further included.
  • the augmented reality providing server 10 when the augmented reality providing server 10 receives the input information from the mobile terminal P, the augmented reality providing server 10 corresponds to the input information. Augmented reality information may be transmitted to the mobile terminal P.
  • the corresponding augmented reality information may be information on which the image E is drawn in a display method corresponding to the input information on the object B.
  • the mobile terminal P may display the corresponding augmented reality information received from the augmented reality providing server 10 to the user.
  • the input information may include information that causes the image E to be displayed in the work order on the object B in the mobile terminal P, wherein the corresponding augmented reality information is
  • the image E on the object B may include information drawn in the work order.
  • the augmented reality information (A5) in which a mural is not drawn on the object (B) is displayed on the mobile terminal (P) by the augmented reality information transmission step.
  • the input information receiving step and the The augmented reality provision server 10 may transmit the corresponding augmented reality information corresponding to the input information to the mobile terminal P by the corresponding augmented reality information transmission step.
  • FIG. 20 shows an example of the corresponding augmented reality information in which the image E on the mobile terminal P is drawn in the work order, that is, from top to bottom, on the object B in correspondence with the input information. will be.
  • the corresponding augmented reality information is displayed on the object (B).
  • the image (E) includes information drawn sequentially in the work order.
  • the user touches the second icon K2 among the icons K displayed on the mobile terminal P to display the images in the reverse order of the order in which the images E are drawn on the object B.
  • the input information may be generated such that (E) is erased from the object (B).
  • the user touches the third icon K3 among the icons K displayed on the mobile terminal P to display the corresponding augmented reality information in which the image E is drawn on the object B. You can also stop playing.
  • the user may adjust the degree to which the image E is drawn on the object B by operating the seventh icon K among the icons K displayed on the mobile terminal P.
  • the input information may include information on a user's touch direction in the mobile terminal P, wherein the corresponding augmented reality information is the image E on the object B. It may include information drawn in the touch direction.
  • the augmented reality information (A5) in which a mural is not drawn on the object (B) is displayed on the mobile terminal (P) by the augmented reality information transmission step.
  • the user touches the fourth icon K4 that causes the image E to be displayed on the object B in the touch direction, and continuously touches the mobile terminal P in a predetermined direction.
  • the augmented reality providing server 10 receives the corresponding augmented reality information corresponding to the input information by the input information receiving step and the corresponding augmented reality information transmitting step, the mobile terminal P Can be sent to
  • FIG. 21 shows an example of the corresponding augmented reality information in which the image E on the mobile terminal P is drawn in the touch direction on the object B in correspondence with the input information.
  • the corresponding augmented reality information includes information on which the image E is sequentially drawn in the touch direction on the object B.
  • the corresponding augmented reality information sequentially displays the image E on the object B from right to left. It can contain the information being drawn.
  • the user can touch the mobile terminal P in a diagonal direction from bottom to top, top to bottom, and the corresponding augmented reality information is the image E in the touch direction corresponding to the input information. It may include information drawn on the object (B).
  • the input information may include information on a user's touch point in the mobile terminal P, wherein the corresponding augmented reality information is the image E on the object B. It may include information on which a predetermined area corresponding to the touch point is drawn.
  • the augmented reality information (A5) in which a mural is not drawn on the object (B) is displayed on the mobile terminal (P) by the augmented reality information transmission step.
  • the user touches the fifth icon K5 that causes the image E to be displayed as an area having a predetermined area at a point corresponding to the touch point on the object B, and the mobile terminal (
  • the augmented reality providing server 10 receives the corresponding augmentation corresponding to the input information by the input information reception step and the corresponding augmented reality information transmission step.
  • Reality information may be transmitted to the mobile terminal P.
  • FIG. 22 shows an example of the corresponding augmented reality information drawn on a predetermined area corresponding to the touch point on the object B in which the image E corresponds to the input information on the mobile terminal P. It is shown.
  • the corresponding augmented reality information is within the area having a predetermined area based on the touch point.
  • a part of the image E corresponding to the touch point may have information drawn.
  • the corresponding augmented reality information is within an area having a predetermined area based on the touch point.
  • a part of the image E corresponding to the touch point may have information drawn further.
  • the corresponding augmented reality information is a predetermined area based on the touch point. It is possible to have information in which the remaining part of the image E corresponding to the touch point is further drawn in the region having.
  • the input information is the information that causes the image (E) to be displayed in the work order on the object (B) in the mobile terminal (P) and the user's touch point in the mobile terminal (P) It may include information, wherein, the corresponding augmented reality information is a part of the image (E) on the object (B) is drawn in the work order information and the other part of the image (E) Among them, it may include information on which an area corresponding to the touch point is drawn.
  • the augmented reality information (A5) in which a mural is not drawn on the object (B) is displayed on the mobile terminal (P) by the augmented reality information transmission step.
  • the augmented reality providing server 10 receives the input by the input information receiving step and the corresponding augmented reality information transmitting step.
  • the corresponding augmented reality information corresponding to the information may be transmitted to the mobile terminal P.
  • the corresponding augmented reality information may be drawn on the object B so that the image E corresponds to the work order.
  • the corresponding augmented reality information is touched within an area having a predetermined area based on the touch point.
  • a part of the image E corresponding to the point may have information drawn further.
  • the corresponding augmented reality information is touched within an area having a predetermined area based on the touch point.
  • a part of the image E corresponding to the point may have information drawn further.
  • the user may generate the input information redundantly by touching the first icon K1 and the fifth icon K5, and the corresponding augmented reality information displays information corresponding to the redundant input information. It can contain.
  • the user may generate the input information that is redundant by touching at least two or more of the plurality of icons (K), and the corresponding augmented reality information displays information corresponding to the redundant input information. It can contain.
  • the input information may further include information on a display method of an additional image M different from the image E, wherein the corresponding augmented reality information is the object B Information on which the additional image M is drawn may be included.
  • the augmented reality information (A5) in which a mural is not drawn on the object (B) is displayed on the mobile terminal (P) by the augmented reality information transmission step.
  • the mobile terminal P has the additional image as shown in FIG. 24 (a).
  • a window for entering or selecting (M) may be displayed.
  • a screen displaying the image E may be displayed on the object B, as shown in FIG. 24 (b), and in this state, the user recalls ' ⁇ '. It is possible to select where to display on the object B.
  • the input information for the display position of the additional image M and the additional image M may be generated, and the augmented reality is provided by the input information receiving step and the corresponding augmented reality information transmitting step.
  • the server 10 may transmit the corresponding augmented reality information corresponding to the input information to the mobile terminal P.
  • the corresponding augmented reality information may include information on which the additional image M is drawn, as well as the image E on the object B.
  • the input information further includes information on a display method between the image (E) and the additional image (M) on the object (B) in the mobile terminal (P).
  • the correspondence augmented reality information may include information on which a part of the image E is drawn on the object B and information on which the additional image M is drawn.
  • the correspondence augmented reality information may include information corresponding to the input information redundant for the image E and the additional image M.
  • the augmented reality providing server 10 implementing the method for providing the augmented reality information and the mobile terminal P provided with the augmented reality information will be described in detail.
  • the augmented reality providing server 10 includes a receiving unit 400 receiving predetermined information from the mobile terminal P, and predetermined information received by the receiving unit 400.
  • a control unit 200 for processing, calculating, selecting, judging and / or controlling data related to augmented reality information on the basis of, and a transmitting unit 100 for transmitting predetermined information related to augmented reality information to the mobile terminal P
  • a memory unit 500 that stores data and / or information necessary to implement a method for providing augmented reality information.
  • the mobile terminal P is a terminal input unit P10 in which predetermined information and / or data related to the implementation of augmented reality information can be input by a user's touch, etc.
  • the terminal location generating unit (P20) for generating information on which the terminal (P) is located, the augmented reality providing server (10) and a terminal communication unit (P40) for receiving or transmitting predetermined information and / or data, and the augmented reality information
  • a terminal photographing unit (P50) capable of photographing related predetermined information and / or data
  • a terminal display unit (P30) for displaying information and / or data related to augmented reality information to a user
  • the mobile terminal (P) It may include a terminal control unit (P60) for controlling, or processing, calculating, selecting and / or determining information and / or data necessary for controlling components or receiving augmented reality information.
  • the augmented reality providing server 10 receives the photographing information (L) generated by the mobile terminal (P) photographing the object (B) from the mobile terminal (P) receiving unit 400 It can contain.
  • the mobile terminal P may generate the photographing information L through the terminal photographing unit P50, and the photographing information L may be transmitted to the terminal communication unit P40. It can be delivered to the receiver 400 through.
  • the augmented reality providing server 10 may include a control unit 200 for selecting the augmented reality information corresponding to the shooting information (L) received from the mobile terminal (P).
  • the controller 200 corresponds to any one of the photographing information L received from the mobile terminal P and a plurality of photographing information L previously input to the memory unit 500.
  • the corresponding augmented reality information may be selected from a plurality of augmented reality information previously input to the memory unit 500.
  • the meaning of the selection may include a meaning in which any one of a plurality of augmented reality information pre-input by the pre-input program is automatically calculated.
  • the augmented reality providing server 10 may include a transmitter 100 for transmitting the augmented reality information to the mobile terminal (P).
  • the mobile terminal P receiving the augmented reality information through the transmitter 100 may display the augmented reality information to the user through the terminal display.
  • the receiving unit 400 may receive the input information generated by receiving the input from the user from the mobile terminal (P) from the mobile terminal (P).
  • control unit 200 may generate the corresponding augmented reality information corresponding to the input information received from the mobile terminal P, and the receiver 400 may receive the corresponding augmented reality information from the mobile terminal ( P).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명의 일 실시예에 따른 증강현실제공 서버는 제1 이동 단말기 및 제2 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 제1 이동 단말기 및 제2 이동 단말기로부터 전달받는 수신부; 복수의 증강현실정보 중 상기 수신부로부터 획득된 상기 촬영정보와 대응되는 제1 증강현실정보를 선택하는 제어부; 및 상기 제1 증강현실정보를 상기 제1 이동 단말기 및 상기 제2 이동 단말기로 전달하는 송신부;를 포함하며, 상기 수신부는 상기 제1 이동 단말기로부터 소정의 입력정보를 전달받고, 상기 제어부는 상기 입력정보를 포함하는 제2 증강현실정보를 생성하며, 상기 송신부는 상기 제1 이동 단말기로 상기 제2 증강현실정보를 송신할 수 있다.

Description

증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버
본 발명은 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버에 관한 것으로서, 더욱 상세하게는 복수의 단말기에 대해 증강현실정보를 제공하는 증강현실정보를 제공하는 방법 및 증강현실제공 서버에 관한 것이다.
단말기(terminal)는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다.
다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.
이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(multimedia player) 형태로 구현되고 있다.
이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.
일반적으로 종래 단말기는 증강현실 기술을 이용하여 사용자에게 현실 사물에 대한 다양한 정보를 제공한다.
증강현실(augmented reality; AR) 기술은 단말기가 서버에 GPS 정보 및/또는 지자기 정보를 제공하면 서버가 제공된 정보에 기반하여 이동 단말기의 위치 및/또는 방향을 판단하고 단말기의 카메라가 촬영하고 있는 대상에 대한 가이드 정보(AR 정보)를 제공하는 방식으로 응용되고 있다.
그러나 종래의 증강현실 제공 서비스는 위치 기반 방식으로 인식한 건물이나 마커 기반 방식으로 인식한 대상 사물에 대해 증강현실정보 데이터베이스로부터 제공된 정보를 단순히 표시하는 수준에 머물러 있어서, 증강현실정보를 보다 다양하고 흥미로운 방식으로 사용자에게 제공하지 못하고 있는 실정이다.
본 발명은 상기와 같은 문제를 해결하기 위한 것으로서, 증강현실정보를 단말기의 사용자에게 단순히 표시하는 것이 아닌 다양한 방식으로 제공할 수 있는 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버를 제공하고자 함이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 제1 이동 단말기 및 제2 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 증강현실제공 서버가 상기 제1 이동 단말기 및 상기 제2 이동 단말기로부터 전달받는 촬영정보 수신단계; 상기 증강현실제공 서버가 상기 제1 이동 단말기 및 상기 제2 이동 단말기로부터 수신한 상기 촬영정보와 대응되는 제1 증강현실정보를 선택하여 상기 제1 이동 단말기 및 상기 제2 이동 단말기로 송신하는 제1 증강현실정보 송신단계; - 상기 제1 이동 단말기 및 상기 제2 이동 단말기는 상기 증강현실제공 서버로부터 수신한 상기 제1 증강현실정보를 사용자에게 표시할 수 있음 - 상기 제1 이동 단말기가 사용자로부터 소정의 정보를 입력 받아 생성된 입력정보를 상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 전달받는 입력정보 수신단계; 및 상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 수신한 상기 입력정보를 포함하는 제2 증강현실정보를 상기 제1 이동 단말기로 송신하는 제2 증강현실정보 송신단계; - 상기 제1 이동 단말기는 상기 증강현실제공 서버로부터 수신한 상기 제2 증강현실정보를 사용자에게 표시할 수 있음 - 를 포함할 수 있다.
본 발명의 다른 일 실시예에 따른 증강현실제공 서버는 제1 이동 단말기 및 제2 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 제1 이동 단말기 및 제2 이동 단말기로부터 전달받는 수신부; 복수의 증강현실정보 중 상기 수신부로부터 획득된 상기 촬영정보와 대응되는 제1 증강현실정보를 선택하는 제어부; 및 상기 제1 증강현실정보를 상기 제1 이동 단말기 및 상기 제2 이동 단말기로 전달하는 송신부;를 포함하며, 상기 수신부는 상기 제1 이동 단말기로부터 소정의 입력정보를 전달받고, 상기 제어부는 상기 입력정보를 포함하는 제2 증강현실정보를 생성하며, 상기 송신부는 상기 제1 이동 단말기로 상기 제2 증강현실정보를 송신할 수 있다.
본 발명에 의하면 증강현실정보를 단말기의 사용자에게 단순히 표시하는 것이 아닌 다양한 방식으로 제공할 수 있는 장점이 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법을 설명하기 위한 개략 구성도.
도 2는 대상물과 이동 단말기를 도시한 개략 사시도.
도 3 내지 도 12는 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법에 의해 이동 단말기에 증강현실정보가 표시되는 것을 도시한 개략도.
도 13 내지 도 18은 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법의 다른 기능을 설명하기 위한 개략도.
도 19 내지 도 24는 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법의 또 다른 기능을 설명하기 위한 개략도.
도 25는 본 발명의 본 발명의 증강현실정보를 제공하는 방법을 구현하는 증강현실제공 서버의 개략 구성도.
도 26은 이동 단말기의 대략 구성도.
이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다.
본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 제1 이동 단말기 및 제2 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 증강현실제공 서버가 상기 제1 이동 단말기 및 상기 제2 이동 단말기로부터 전달받는 촬영정보 수신단계; 상기 증강현실제공 서버가 상기 제1 이동 단말기 및 상기 제2 이동 단말기로부터 수신한 상기 촬영정보와 대응되는 제1 증강현실정보를 선택하여 상기 제1 이동 단말기 및 상기 제2 이동 단말기로 송신하는 제1 증강현실정보 송신단계; - 상기 제1 이동 단말기 및 상기 제2 이동 단말기는 상기 증강현실제공 서버로부터 수신한 상기 제1 증강현실정보를 사용자에게 표시할 수 있음 - 상기 제1 이동 단말기가 사용자로부터 소정의 정보를 입력 받아 생성된 입력정보를 상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 전달받는 입력정보 수신단계; 및 상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 수신한 상기 입력정보를 포함하는 제2 증강현실정보를 상기 제1 이동 단말기로 송신하는 제2 증강현실정보 송신단계; - 상기 제1 이동 단말기는 상기 증강현실제공 서버로부터 수신한 상기 제2 증강현실정보를 사용자에게 표시할 수 있음 - 를 포함할 수 있다.
또, 상기 입력정보 수신단계는 상기 제1 이동 단말기가 사용자로부터 상기 입력정보의 표시에 대한 조건 정보를 입력 받아 생성된 표시조건정보를 상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 전달받는 표시조건정보 수신단계를 더 포함하며, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보가 표시될 지 여부에 대한 정보이며, 상기 제2 증강현실정보 송신단계는 상기 표시조건정보가 상기 입력정보를 상기 제2 이동 단말기로 표시하는 것을 허여하는 조건인 경우, 상기 증강현실제공 서버가 상기 제2 증강현실정보를 상기 제2 이동 단말기로 송신하고, 상기 표시조건정보가 상기 입력정보를 상기 제2 이동 단말기로 표시하는 것을 허여하지 않는 조건인 경우, 상기 증강현실제공 서버가 상기 제2 증강현실정보를 상기 제2 이동 단말기로 송신하지 않을 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시 위치에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시 순서에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시 기간에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시 시작 시점에 대한 정보일 수 있다.
또, 상기 입력정보 수신단계는 상기 제1 이동 단말기가 사용자로부터 상기 입력정보의 표시에 대한 조건 정보를 입력 받아 생성된 표시조건정보를 상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 전달받는 표시조건정보 수신단계를 더 포함하며, 상기 표시조건정보는 상기 제1 이동 단말기에서 상기 입력정보의 표시에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제1 이동 단말기에서 상기 대상물을 기준으로 상기 입력정보의 표시 위치에 대한 정보일 수 있다.
또, 상기 제1 증강현실정보는 상기 대상물을 기준으로 상기 입력정보의 표시 가능 위치에 대한 표시가능정보를 포함할 수 있다.
또, 상기 제2 증강현실정보는 상기 대상물을 기준으로 상기 입력정보의 표시 위치에서는 상기 입력정보만을 포함하고, 상기 대상물을 기준으로 상기 입력정보의 표시 위치가 아닌 위치에서는 상기 제1 이동 단말기가 아닌 다른 복수의 이동 단말기에 의해 입력된 정보들이 오버랩된 오버랩 정보를 포함할 수 있다.
또, 상기 제2 증강현실정보는 제1 시점으로부터 제2 시점까지의 기간 동안 상기 입력정보를 포함하는 정보이며, 상기 제1 시점으로부터 상기 제2 시점으로 갈수록 상기 입력정보를 희미하게 포함하는 정보일 수 있다.
본 발명의 다른 일 실시예에 따른 증강현실제공 서버는 제1 이동 단말기 및 제2 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 제1 이동 단말기 및 제2 이동 단말기로부터 전달받는 수신부; 복수의 증강현실정보 중 상기 수신부로부터 획득된 상기 촬영정보와 대응되는 제1 증강현실정보를 선택하는 제어부; 및 상기 제1 증강현실정보를 상기 제1 이동 단말기 및 상기 제2 이동 단말기로 전달하는 송신부;를 포함하며, 상기 수신부는 상기 제1 이동 단말기로부터 소정의 입력정보를 전달받고, 상기 제어부는 상기 입력정보를 포함하는 제2 증강현실정보를 생성하며, 상기 송신부는 상기 제1 이동 단말기로 상기 제2 증강현실정보를 송신할 수 있다.
또, 상기 수신부는 상기 제1 이동 단말기로부터 소정의 표시조건정보를 전달받고, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보를 표시할 지 여부에 대한 정보이며, 상기 제어부는 상기 표시조건정보가 상기 입력정보를 상기 제2 이동 단말기로 표시하는 것을 허여하는 조건인 경우, 상기 송신부를 통해 상기 제2 증강현실정보를 상기 제2 이동 단말기로 송신하고, 상기 표시조건정보가 상기 입력정보를 상기 제2 이동 단말기로 표시하는 것을 허여하지 않는 조건인 경우, 상기 송신부를 통해 상기 제2 증강현실정보를 상기 제2 이동 단말기로 송신하지 않을 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시 위치에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시 순서에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시 기간에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제2 이동 단말기에서 상기 입력정보의 표시 시작 시점에 대한 정보일 수 있다.
또, 상기 수신부는 상기 제1 이동 단말기로부터 소정의 표시조건정보를 전달받고, 상기 표시조건정보는 상기 제1 이동 단말기에서 상기 입력정보의 표시에 대한 정보일 수 있다.
또, 상기 표시조건정보는 상기 제1 이동 단말기에서 상기 대상물을 기준으로 상기 입력정보의 표시 위치에 대한 정보일 수 있다.
또, 상기 제1 증강현실정보는 상기 대상물을 기준으로 상기 입력정보의 표시 가능 위치에 대한 표시가능정보를 포함할 수 있다.
또, 상기 제2 증강현실정보는 상기 대상물을 기준으로 상기 입력정보의 표시 위치에서는 상기 입력정보만을 포함하고, 상기 대상물을 기준으로 상기 입력정보의 표시 위치가 아닌 위치에서는 상기 제1 이동 단말기가 아닌 다른 복수의 이동 단말기에 의해 입력된 정보들이 오버랩된 오버랩 정보를 포함할 수 있다.
또, 상기 제2 증강현실정보는 제1 시점으로부터 제2 시점까지의 기간 동안 상기 입력정보를 포함하는 정보이며, 상기 제1 시점으로부터 상기 제2 시점으로 갈수록 상기 입력정보를 희미하게 포함하는 정보일 수 있다.
본 발명의 다른 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 이동 단말기가 위치하는 위치에 대한 정보인 위치정보를 증강현실제공 서버가 상기 이동 단말기로부터 전달받는 위치정보 수신단계; 상기 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 상기 증강현실제공 서버가 상기 이동 단말기로부터 전달받는 촬영정보 수신단계; 및 상기 증강현실제공 서버가 상기 이동 단말기로부터 수신한 상기 위치정보 및 상기 촬영정보를 기초로 하여 미리 정해진 조건을 만족하는 경우 복수의 증강현실정보 중 대응증강현실정보를 상기 이동 단말기로 전달하는 대응증강현실정보 송신단계; - 상기 이동 단말기는 상기 증강현실제공 서버로부터 수신한 상기 대응증강현실정보를 사용자에게 표시할 수 있음 - 를 포함하며, 상기 미리 정해진 조건은 상기 위치정보가 상기 증강현실제공 서버에 기 입력된 위치정보와 대응되는지 여부 및 상기 촬영정보가 상기 증강현실제공 서버에 기 입력된 촬영정보와 대응되는지 여부에 대한 조건일 수 있다.
또, 상기 미리 정해진 조건은 상기 촬영정보가 복수의 상기 기 입력된 촬영정보 중 어느 하나와 대응되나, 상기 위치정보가 복수의 상기 기 입력된 위치정보 중 제1 위치정보와 대응되는 경우 복수의 상기 증강현실정보 중 제1 대응증강현실정보를 상기 이동 단말기로 송신하며, 상기 위치정보가 복수의 상기 기 입력된 위치정보 중 제2 위치정보와 대응되는 경우 복수의 상기 증강현실정보 중 제2 대응증강현실정보를 상기 이동 단말기로 송신하는 조건일 수 있다.
또, 상기 위치정보는 상기 촬영정보를 생성할 때의 상기 이동 단말기가 위치하는 정보일 수 있다.
또, 상기 위치정보는 상기 촬영정보의 생성과 연동되어 생성될 수 있다.
또, 상기 위치정보가 상기 기 입력된 위치정보와 대응되지 않는 경우 상기 위치정보를 기초로 한 위치증강현실정보를 상기 증강현실제공 서버가 상기 이동 단말기로 송신하는 위치증강현실정보 송신단계; - 상기 이동 단말기는 상기 증강현실제공 서버로부터 수신한 상기 위치증강현실정보를 사용자에게 표시할 수 있음 - 를 더 포함할 수 있다.
또, 상기 위치정보 수신단계에서 상기 증강현실제공 서버가 상기 이동 단말기로부터 상기 위치정보를 전달받는 주기는 상기 위치정보가 상기 기 입력된 위치정보와 대응되는 경우보다 상기 기 입력된 위치정보와 대응되지 않는 경우가 더 짧을 수 있다.
또, 상기 위치증강현실정보는 상기 위치정보와 상기 기 입력된 위치정보에 대한 정보일 수 있다.
또, 상기 위치증강현실정보는 상기 위치정보와 상기 기 입력된 위치정보 간의 방향 및 거리에 대한 정보를 포함할 수 있다.
또, 상기 위치증강현실정보는 복수의 상기 기 입력된 위치정보가 있는 경우, 복수의 상기 기 입력된 위치정보에 대한 순서정보를 포함할 수 있다.
또, 상기 순서정보는 상기 위치정보와 복수의 상기 기 입력된 위치정보간의 거리에 의해 결정될 수 있다.
또, 상기 순서정보는 상기 대응증강현실정보를 송신한 횟수에 의해 결정될 수 있다.
본 발명의 다른 일 실시예에 따른 증강현실제공 서버는 이동 단말기가 위치하는 위치에 대한 정보인 위치정보 및 상기 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 상기 이동 단말기로부터 전달받는 수신부; 복수의 증강현실정보 중 상기 수신부로부터 획득된 상기 위치정보 및 상기 촬영정보를 기초로 하여 미리 정해진 조건을 만족하는 경우 대응증강현실정보를 선택하는 제어부; 및 상기 대응증강현실정보를 상기 이동 단말기로 전달하는 송신부;를 포함하며, 상기 미리 정해진 조건은 상기 위치정보가 상기 제어부에 기 입력된 위치정보와 대응되는지 여부 및 상기 촬영정보가 상기 제어부에 기 입력된 촬영정보와 대응되는지 여부에 대한 조건일 수 있다.
또, 상기 미리 정해진 조건은 상기 촬영정보가 복수의 상기 기 입력된 촬영정보 중 어느 하나와 대응되나, 상기 위치정보가 복수의 상기 기 입력된 위치정보 중 제1 위치정보와 대응되는 경우 복수의 상기 증강현실정보 중 제1 대응증강현실정보를 상기 이동 단말기로 송신하며, 상기 위치정보가 복수의 상기 기 입력된 위치정보 중 제2 위치정보와 대응되는 경우 복수의 상기 증강현실정보 중 제2 대응증강현실정보를 상기 이동 단말기로 송신하는 조건일 수 있다.
또, 상기 위치정보는 상기 촬영정보를 생성할 때의 상기 이동 단말기가 위치하는 정보일 수 있다.
또, 상기 위치정보는 상기 촬영정보의 생성과 연동되어 생성될 수 있다.
또, 상기 제어부는 상기 위치정보가 상기 기 입력된 위치정보와 대응되지 않는 경우 상기 위치정보를 기초로 하여 상기 송신부를 통해 위치증강현실정보를 상기 이동 단말기로 송신할 수 있다.
또, 상기 수신부가 상기 위치정보를 상기 이동 단말기로부터 전달받는 주기는 상기 위치정보가 상기 기 입력된 위치정보와 대응되는 경우보다 상기 기 입력된 위치정보와 대응되지 않는 경우가 더 짧을 수 있다.
또, 상기 위치증강현실정보는 상기 위치정보와 상기 기 입력된 위치정보에 대한 정보일 수 있다.
또, 상기 위치증강현실정보는 상기 위치정보와 상기 기 입력된 위치정보 간의 방향 및 거리에 대한 정보를 포함할 수 있다.
또, 상기 위치증강현실정보는 복수의 상기 기 입력된 위치정보가 있는 경우, 복수의 상기 기 입력된 위치정보에 대한 순서정보를 포함할 수 있다.
또, 상기 순서정보는 상기 위치정보와 복수의 상기 기 입력된 위치정보간의 거리에 의해 결정될 수 있다.
또, 상기 순서정보는 상기 대응증강현실정보를 송신한 횟수에 의해 결정될 수 있다.
본 발명이 다른 일 실시예에 따른 증강현실정보 제공 방법은 대상물 상에 소정의 작업순서로 그려진 이미지와 연계하여 이동 단말기에 증강현실정보를 제공하는 증강현실정보 제공 방법에 관한 것으로서, 상기 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 상기 증강현실제공 서버가 상기 이동 단말기로부터 전달받는 촬영정보 수신단계; 및 상기 증강현실제공 서버가 상기 이동 단말기로부터 수신한 상기 촬영정보와 대응되는 증강현실정보를 선택하여 상기 이동 단말기로 송신하는 증강현실정보 송신단계; - 상기 이동 단말기는 상기 증강현실제공 서버로부터 수신한 상기 증강현실정보를 사용자에게 표시할 수 있음 - 상기 이동 단말기가 사용자로부터 입력 받아 생성된 입력정보를 상기 증강현실제공 서버가 상기 이동 단말기로부터 전달받는 입력정보 수신단계; 및 상기 증강현실제공 서버가 상기 이동 단말기로부터 수신한 상기 입력정보와 대응되는 대응증강현실정보를 상기 이동 단말기로 송신하는 대응증강현실정보 송신단계; - 상기 이동 단말기는 상기 증강현실제공 서버로부터 수신한 상기 대응증강현실정보를 사용자에게 표시할 수 있음 - 를 더 포함하며, 상기 입력정보는 상기 이동 단말기에서 상기 대상물 상에 상기 이미지의 표시방법에 대한 정보이며, 상기 대응증강현실정보는 상기 대상물 상에 상기 입력정보와 대응되는 표시방법으로 상기 이미지가 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 상기 대상물 상에 상기 이미지가 상기 작업순서로 표시되도록 하는 정보를 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지가 상기 작업순서로 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 사용자의 터치 방향에 대한 정보를 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지가 상기 터치 방향으로 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 사용자의 터치 지점에 대한 정보를 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지가 상기 터치 지점과 대응되는 영역이 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 상기 대상물 상에 상기 이미지가 상기 작업순서로 표시되도록 하는 정보 및 상기 이동 단말기에서 사용자의 터치 지점에 대한 정보를 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지의 일 부분이 상기 작업순서로 그려지는 정보 및 상기 이미지의 다른 일 부분 중 상기 터치 지점과 대응되는 영역이 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이미지와 다른 이미지인 추가 이미지의 표시방법에 대한 정보를 더 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 추가 이미지가 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 상기 대상물 상에 상기 이미지와 상기 추가 이미지간의 표시방법에 대한 정보를 더 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지의 일 부분이 그려지는 정보 및 상기 추가 이미지가 그려지는 정보를 포함할 수 있다.
본 발명의 다른 일 실시예에 따른 증강현실제공 서버는 대상물 상에 소정의 작업순서로 그려진 이미지와 연계하여 이동 단말기에 증강현실정보를 제공하는 증강현실제공 서버에 관한 것으로서, 상기 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 상기 이동 단말기로부터 전달받는 수신부; 상기 이동 단말기로부터 수신한 상기 촬영정보와 대응되는 증강현실정보를 선택하는 제어부; 및 상기 증강현실정보를 상기 이동 단말기로 전달하는 송신부;를 포함하며, 상기 수신부는 상기 이동 단말기가 사용자로부터 입력 받아 생성된 입력정보를 상기 이동 단말기로부터 전달받고, 상기 제어부는 상기 이동 단말기로부터 수신한 상기 입력정보와 대응되는 대응증강현실정보를 생성하며, 상기 수신부는 상기 대응증강현실정보를 상기 이동 단말기로 전달하고, 상기 입력정보는 상기 이동 단말기에서 상기 대상물 상에 상기 이미지의 표시방법에 대한 정보이며, 상기 대응증강현실정보는 상기 대상물 상에 상기 입력정보와 대응되는 표시방법으로 상기 이미지가 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 상기 대상물 상에 상기 이미지가 상기 작업순서로 표시되도록 하는 정보를 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지가 상기 작업순서로 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 사용자의 터치 방향에 대한 정보를 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지가 상기 터치 방향으로 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 사용자의 터치 지점에 대한 정보를 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지가 상기 터치 지점과 대응되는 영역이 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 상기 대상물 상에 상기 이미지가 상기 작업순서로 표시되도록 하는 정보 및 상기 이동 단말기에서 사용자의 터치 지점에 대한 정보를 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지의 일 부분이 상기 작업순서로 그려지는 정보 및 상기 이미지의 다른 일 부분 중 상기 터치 지점과 대응되는 영역이 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이미지와 다른 이미지인 추가 이미지의 표시방법에 대한 정보를 더 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 추가 이미지가 그려지는 정보를 포함할 수 있다.
또, 상기 입력정보는 상기 이동 단말기에서 상기 대상물 상에 상기 이미지와 상기 추가 이미지간의 표시방법에 대한 정보를 더 포함하며, 상기 대응증강현실정보는 상기 대상물 상에 상기 이미지의 일 부분이 그려지는 정보 및 상기 추가 이미지가 그려지는 정보를 포함할 수 있다.
각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
다만, 본 발명을 보다 자세히 설명하기 위해 동일한 사상의 범위 내의 기능이 동일한 구성요소라 할지라도 발명을 보다 명확히 설명하기 위해 경우에 따라 다른 참조부호를 사용하여 설명할 수도 있다.
도 1은 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법을 설명하기 위한 개략 구성도이고, 도 2는 대상물과 이동 단말기를 도시한 개략 사시도이다.
도 3 내지 도 12는 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법에 의해 이동 단말기에 증강현실정보가 표시되는 것을 도시한 개략도이다.
도 13 내지 도 18은 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법의 다른 기능을 설명하기 위한 개략도이다.
도 19 내지 도 24는 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법의 또 다른 기능을 설명하기 위한 개략도이다.
도 25는 본 발명의 본 발명의 증강현실정보를 제공하는 방법을 구현하는 증강현실제공 서버의 개략 구성도이며, 도 26은 이동 단말기의 대략 구성도이다.
첨부된 도면은 본 발명의 기술적 사상을 보다 명확하게 표현하기 위하여, 본 발명의 기술적 사상과 관련성이 떨어지거나 당업자로부터 용이하게 도출될 수 있는 부분은 간략화 하거나 생략하였다.
도 1 내지 도 12에 도시한 바와 같이, 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 증강현실제공 서버(10)와 상기 이동 단말기(P) 간의 여러 정보 및/또는 데이터들을 송수신하여 구현될 수 있다.
일례로, 상기 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 제1 이동 단말기(P1) 및 제2 이동 단말기(P2)가 대상물(B)을 촬영하여 생성된 촬영정보(L)를 상기 증강현실제공 서버(10)가 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2)로부터 전달받는 촬영정보 수신단계를 포함할 수 있다.
이를 보다 자세히 설명하자면, 일례로, 도 2에 도시한 바와 같이, 상기 이동 단말기(P)는 상기 대상물(B)을 촬영할 수 있으며, 상기 대상물(B)을 촬영하여 상기 촬영정보(L)가 상기 이동 단말기(P)에 생성될 수 있다.
일례로, 상기 대상물(B)은 건축물일 수 있으나 여기에 한정되는 것은 아니며, 상기 단말기의 촬영 대상이 될 수 있는 객체라면 상기 대상물(B)에 해당할 수 있다.
다만, 설명의 편의를 위해 상기 대상물(B)은 건축물로 가정하고 설명하겠다.
여기서, 일례로, 상기 대상물(B)에는 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)에 증강현실정보를 제공하기 위한 별도의 식별객체가 표시되어 있을 수 있다.
일례로, 상기 식별객체는 상기 대상물(B)에 QR코드(Q)로 표시되어 있을 수도 있고, 소정의 이미지(E)를 가지는 벽화로 표시되어 있을 수 있다.
나아가, 일례로, 상기 건축물 자체가 상기 식별객체일 수도 있다.
즉, 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)에 증강현실정보를 제공하기 위한 상기 촬영정보(L)는 상기 건축물 자체일 수도 있고, 상기 건축물에 표시된 별도의 상기 QR코드(Q) 또는 상기 벽화일 수도 있다.
한편, 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)에 증강현실정보를 제공하기 위해 상기 이동 단말기(P)로부터 전달받는 정보는 촬영정보에만 한정되는 것은 아니며, 사용자가 상기 이동 단말기(P)에 음성으로 입력하여 생성되는 음성정보일 수도 있다.
여기서, 상기 이동 단말기(P)는 태블릿 컴퓨터, 스마트폰, 또는 웨어러블 컴퓨터 등과 같은 모바일 기기일 수 있으나, 여기에 한정되는 것은 아니며, 이동될 수 없는 데스크 탑 등의 전자기기일 수도 있다.
일례로, 상기 이동 단말기(P)는 복수의 이동 단말기(P1, P2)를 포함하는 개념일 수 있다.
즉, 상기 이동 단말기(P)는 복수의 사용자가 각각 소유하는 이동 단말기(P1, P2)를 포함하는 개념일 수 있다.
일례로, 상기 제1 이동 단말기(P1)는 'A'라는 사람이 소유하는 단말기일 수 있고, 상기 제2 이동 단말기(P2)는 'B'라는 사람이 소유하는 단말기일 수 있다.
일례로, 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2) 각각은 상기 대상물(B)을 촬영하여 각각 상기 촬영정보(L)를 생성할 수 있으며, 생성된 상기 촬영정보(L)를 각각 상기 증강현실제공 서버(10)로 송신할 수 있다.
즉, 상기 증강현실제공 서버(10)는 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2) 각각으로부터 상기 촬영정보(L) 또는 음성정보를 전달받을 수 있다.
다만, 아래에서는 설명의 편의를 위해 상기 증강현실제공 서버(10)는 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2) 각각으로부터 상기 촬영정보(L)를 전달받는 것으로 가정하고 설명하겠다.
여기서, 일례로, 상기 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 증강현실제공 서버(10)가 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2)로부터 수신한 상기 촬영정보(L)와 대응되는 제1 증강현실정보(A1)를 선택하여 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2)로 송신하는 제1 증강현실정보 송신단계를 더 포함할 수 있다.
일례로, 상기 증강현실제공 서버(10)는 복수의 증강현실정보를 미리 저장하고 있을 수 있으며, 저장하고 있는 복수의 증강현실정보 중 상기 촬영정보(L)와 대응되는 어느 하나의 증강현실정보를 선택할 수 있다.
일례로, 상기 증강현실제공 서버(10)는 상기 촬영정보(L)를 기초로 하여 상기 촬영정보(L)와 대응되는 증강현실정보가 있는지 여부를 판단할 수 있고, 만약 상기 촬영정보(L)와 대응되는 증강현실정보가 없는 경우 증강현실정보를 선택하지 않을 수도 있다.
설명의 편의 상, 복수의 증강현실정보 중 상기 촬영정보(L)와 대응되는 어느 하나의 증강현실정보를 상기 제1 증강현실정보(A1)로 명칭 하겠다.
상기 증강현실제공 서버(10)는 상기 촬영정보(L)와 대응되는, 즉 선택된 상기 제1 증강현실정보(A1)를 상기 제1 이동 단말기(P1)와 상기 제2 이동 단말기(P2) 각각으로 전달할 수 있다.
그 결과, 도 3에 도시한 바와 같이, 상기 제1 이동 단말기(P1)에는 상기 증강현실제공 서버(10)로부터 수신한 상기 제1 증강현실정보(A1)가 표시될 수 있으며, 이와 동일하게 상기 제2 이동 단말기(P2)에도 상기 제1 증강현실정보(A1)가 표시될 수 있다.
일례로, 상기 제1 증강현실정보(A1)는 상기 건축물에 대한 정보일 수 있고, 또는 상기 건축물과 관계없는 정보일 수 있으나, 설명의 편의 상 상기 건축물과 관계 있는 정보임을 가정하고 설명하겠다.
일례로, 상기 제1 증강현실정보(A1)는 상기 건축물의 각 층에 존재하는 시설에 대한 정보를 의미할 수 있다.
일례로, 상기 제1 증강현실정보(A1)는, 도 3에 도시된 바와 같이, 상기 건축물의 1층에 'cafeteria'가 있다는 정보 및 6층에 'gym'이 있다는 정보를 포함하는 정보일 수 있다.
여기서, 일례로, 상기 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 제1 이동 단말기(P1)가 사용자로부터 소정의 정보를 입력 받아 생성된 입력정보(I)를 상기 증강현실제공 서버(10)가 상기 제1 이동 단말기(P1)로부터 전달받는 입력정보 수신단계를 더 포함할 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 이동 단말기(P1)의 사용자, 즉 소유자는 상기 제1 이동 단말기(P1)가 상기 제1 증강현실정보(A1)를 표시한 상태에서 글자, 이미지(E), 영상 등과 같은 상기 입력정보(I)를 상기 제1 이동 단말기(P1)를 통해 생성할 수 있으며, 상기 입력정보(I)를 상기 증강현실제공 서버(10)로 전달할 수 있다.
즉, 도 3에 도시된 상태에서, 일례로, 상기 제1 이동 단말기(P1)의 사용자는 'I want someone to exercise together'이라는 문자를 상기 제1 이동 단말기(P1)를 통해 입력하여 상기 입력정보(I)를 생성할 수 있으며, 상기 제1 이동 단말기(P1)는 상기 입력정보(I)를 상기 증강현실제공 서버(10)로 송신할 수 있다.
여기서, 일례로, 상기 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 증강현실제공 서버(10)가 상기 제1 이동 단말기(P1)로부터 수신한 상기 입력정보(I)를 포함하는 제2 증강현실정보(A2)를 상기 제1 이동 단말기(P1)로 송신하는 제2 증강현실정보 송신단계를 더 포함할 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 이동 단말기(P1)로부터 상기 입력정보(I)를 전달받은 상기 증강현실제공 서버(10)는 상기 입력정보(I)와 상기 제1 증강현실정보(A1)를 포함하는 상기 제2 증강현실정보(A2)를 생성하여 상기 제2 증강현실정보(A2)를 상기 제1 이동 단말기(P1)로 전달할 수 있다.
이러한 경우, 도 4에 도시된 바와 같이, 상기 제1 이동 단말기(P1)에는 상기 증강현실제공 서버(10)로부터 수신한 상기 제2 증강현실정보(A2)가 표시될 수 있다.
즉, 상기 증강현실제공 서버(10)는 상기 제1 이동 단말기(P1)로부터 수신한 상기 입력정보(I)인 'I want someone to exercise together'이라는 문자를 포함한 상기 제2 증강현실정보(A2)를 생성하여 상기 제1 이동 단말기(P1)로 전달할 수 있고, 상기 제1 이동 단말기(P1)는 자신이 입력하여 형성된 상기 입력정보(I)인 'I want someone to exercise together'이라는 문자를 포함하는 상기 제2 증강현실정보(A2)를 상기 증강현실제공 서버(10)로부터 전달받아 사용자에게 표시할 수 있다.
따라서, 본 발명의 일 실시예에 따른 상기 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 증강현실제공 서버(10)가 일 방향으로만 이동 단말기(P)에 증강현실정보를 제공하는 것이 아닌, 이동 단말기(P)로부터 소정의 정보를 입력받고, 그 입력정보(I)를 업데이트하여 이동 단말기(P)로 제공함으로서 보다 다양한 증강현실정보를 사용자에게 제공할 수 있다.
여기서, 일례로, 상기 입력정보 수신단계는 상기 제1 이동 단말기(P1)가 사용자로부터 상기 입력정보(I)의 표시에 대한 조건 정보를 입력 받아 생성된 표시조건정보를 상기 증강현실제공 서버(10)가 상기 제1 이동 단말기(P1)로부터 전달받는 표시조건정보 수신단계를 더 포함할 수 있으며, 일례로, 상기 표시조건정보는 상기 제2 이동 단말기(P2)에서 상기 입력정보(I)의 표시에 대한 정보일 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 이동 단말기(P1)의 사용자는 상기 입력정보(I)를 상기 제1 이동 단말기(P1)를 통해 생성할 수 있을 뿐만 아니라, 도 5에 도시된 바와 같이 상기 입력정보(I)의 표시에 대한 조건인 상기 표시조건정보를 생성할 수 있으며, 상기 제1 이동 단말기(P1)는 상기 표시조건정보를 상기 증강현실제공 서버(10)로 전달할 수 있다.
일례로, 상기 표시조건정보는 상기 제1 이동 단말기(P1)에서 입력된 상기 입력정보(I)가 상기 제2 이동 단말기(P2)에 어떻게 표시되도록 할 것인가 및/또는 상기 제2 이동 단말기(P2)에 표시되도록 할 것인지 표시되도록 하지 않을 것인지에 대한 정보를 의미할 수 있다.
이하에서는 상기 표시조건정보에 대해 더욱 자세히 설명하겠다.
일례로, 상기 제2 이동 단말기(P2)에서 상기 입력정보(I)가 표시될지 여부에 대한 정보일 수 있다.
즉, 상기 표시조건정보는 상기 제1 이동 단말기(P1)로부터 생성된 상기 입력정보(I)가 상기 제2 이동 단말기(P2)에도 표시되도록 할 것인지 표시되도록 하지 않을 것인지에 대한 조건 정보일 수 있다.
일례로, 도 5에 도시된 바와 같이, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)에 표시되는 입력창을 통해 상기 표시조건정보를 생성할 수 있다.
일례로, 상기 제1 이동 단말기(P1)의 사용자가 'O'를 터치하는 경우 상기 표시조건정보가 상기 입력정보(I)를 상기 제2 이동 단말기(P2)로 표시하는 것을 허여하는 조건임을 의미할 수 있고, 'X'를 터치하는 경우 상기 표시조건정보가 상기 입력정보(I)를 상기 제2 이동 단말기(P2)로 표시하는 것을 허여하지 않는 조건임을 의미할 수 있다.
이러한 경우, 상기 제2 증강현실정보 송신단계는 상기 표시조건정보가 상기 입력정보(I)를 상기 제2 이동 단말기(P2)로 표시하는 것을 허여하는 조건인 경우, 상기 증강현실제공 서버(10)가 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 송신할 수 있다.
그 결과, 상기 증강현실제공 서버(10)로부터 상기 제2 증강현실정보(A2)를 전달받은 상기 제2 이동 단말기(P2)는 상기 제1 이동 단말기(P1)로부터 생성된 상기 입력정보(I)를 포함하는 상기 제2 증강현실정보(A2)를 사용자에게 표시할 수 있다.
즉, 상기 제2 이동 단말기(P2)는, 도 4에 도시된 바와 같이, 상기 제1 이동 단말기(P1)로부터 생성된 'I want someone to exercise together'이라는 문자를 포함하는 상기 제2 증강현실정보(A2)를 사용자에게 표시할 수 있다.
이와 반대로, 상기 제2 증강현실정보 송신단계는 상기 표시조건정보가 상기 입력정보(I)를 상기 제2 이동 단말기(P2)로 표시하는 것을 허여하지 않는 조건인 경우, 상기 증강현실제공 서버(10)가 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 송신하지 않을 수 있다.
그 결과, 상기 제2 이동 단말기(P2)는 상기 상기 제1 이동 단말기(P1)로부터 생성된 상기 입력정보(I)를 포함하지 않는 상기 제1 증강현실정보(A1)를 사용자에게 표시할 수 있다.
즉, 상기 제2 이동 단말기(P2)는, 도 3에 도시된 바와 같이, 상기 제1 이동 단말기(P1)로부터 생성된 'I want someone to exercise together'이라는 문자를 포함하지 않는 상기 제1 증강현실정보(A1)를 사용자에게 표시할 수 있다.
일례로, 도 5에 도시된 바와 같이, 상기 표시조건정보는 사용자의 나이, 성별에 따라 상기 입력정보(I)가 상기 제2 이동 단말기(P2)에 표시되도록 할 것인지 여부에 대한 조건일 수도 있다.
또한, 상기 표시조건정보는 사용자의 국가, 지역에 따라 상기 입력정보(I)가 상기 제2 이동 단말기(P2)에 표시되도록 할 것인지 여부에 대한 조건일 수도 있다.
만약, 일례로, 상기 제1 이동 단말기(P1)의 사용자가 '10대'를 터치하는 경우 상기 표시조건정보가 상기 입력정보(I)를 '10대'인 사용자에게만 표시되도록 하는 조건임을 의미할 수 있다.
따라서, 상기 제2 이동 단말기(P2)의 사용자의 나이가 10대인 경우 상기 증강현실제공 서버(10)는 상기 입력정보(I)를 포함하는 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 전달할 수 있다.
그러나, 만약, 상기 제2 이동 단말기(P2)의 사용자의 나이가 20대인 경우 상기 증강현실제공 서버(10)는 상기 입력정보(I)를 포함하는 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 전달하지 않을 수 있으며, 그 결과, 상기 제2 이동 단말기(P2)에는 상기 입력정보(I)가 표시되지 않을 수 있다.
만약, 일례로, 상기 제1 이동 단말기(P1)의 사용자가 '여자'를 터치하는 경우 상기 표시조건정보가 상기 입력정보(I)를 여자인 사용자에게만 표시되도록 하는 조건임을 의미할 수 있다.
따라서, 상기 제2 이동 단말기(P2)의 사용자가 여자인 경우 상기 증강현실제공 서버(10)는 상기 입력정보(I)를 포함하는 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 전달할 수 있다.
그러나, 만약, 상기 제2 이동 단말기(P2)의 사용자가 남자인 경우 상기 증강현실제공 서버(10)는 상기 입력정보(I)를 포함하는 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 전달하지 않을 수 있으며, 그 결과, 상기 제2 이동 단말기(P2)에는 상기 입력정보(I)가 표시되지 않을 수 있다.
일례로, 상기 표시조건정보를 복수개의 조건이 선택된 조건정보일 수도 있다.
즉, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)를 통해 '10대' 및 '여자'를 터치할 수 있어 복수의 조건정보를 가지는 상기 표시조건정보를 생성할 수도 있다.
일례로, 상기 증강현실제공 서버(10)는 상기 제1 이동 단말기(P1)의 사용자 및 상기 제2 이동 단말기(P2)의 사용자에 대한 정보, 예를 들면 사용자의 정보를 미리 전달받아 저장할 수 있다.
즉, 상기 증강현실제공 서버(10)는 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2)로부터 각각의 사용자에 대한 나이, 성별, 지역 등에 대한 정보를 전달받아 저장하고 있을 수 있다.
또한, 일례로, 상기 표시조건정보는 상기 제2 이동 단말기(P2)에서 상기 입력정보(I)의 표시 위치에 대한 정보일 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)를 통해 상기 입력정보(I)가 상기 제2 증강현실정보(A2) 상의 어느 위치에 표시될지를 결정할 수 있다.
일례로, 도 4에 도시된 바와 같이, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)를 통해 'I want someone to exercise together'이라는 문자를 '6F Gym'의 증강현실정보의 아래 부분에 표시되도록 상기 표시조건정보를 입력할 수도 있고, '6F Gym'의 증강현실정보의 위 부분 영역에 표시되도록 상기 표시조건정보를 입력할 수도 있다.
만약, 상기 표시조건정보가 'I want someone to exercise together'이라는 문자를 '6F Gym'의 증강현실정보의 아래 부분에 표시되도록 하는 조건인 경우, 상기 제2 이동 단말기(P2)에는 도 4에 도시된 바와 같이, 'I want someone to exercise together'이라는 문자가 '6F Gym'의 증강현실정보의 아래 부분에 표시될 수 있다.
만약, 상기 표시조건정보가 'I want someone to exercise together'이라는 문자를 '6F Gym'의 증강현실정보의 위 부분 영역(H)에 표시되도록 하는 조건인 경우, 상기 제2 이동 단말기(P2)에는 'I want someone to exercise together'이라는 문자가 '6F Gym'의 증강현실정보의 위 부분(H)에 표시될 수 있다.
상기 증강현실제공 서버(10)는 상기 제1 이동 단말기(P1)로부터 상기 표시조건정보를 전달받아 이와 대응되는 상기 입력정보(I)를 포함하는 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 전송하여 구현될 수 있다.
또한, 일례로, 상기 표시조건정보는 상기 제2 이동 단말기(P2)에서 상기 입력정보(I)의 표시 순서에 대한 정보일 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)를 통해 상기 입력정보(I)가 상기 제2 증강현실정보(A2) 상에서 다른 이동 단말기(P)를 통해 입력된 다른 입력정보(Y)와의 관계에서 상기 입력정보(I)의 표시순서를 결정할 수 있다.
즉, 도 6(b)에 도시된 바와 같이, 상기 제1 이동 단말기(P1)의 사용자가 상기 입력정보(I)를 상기 증강현실제공 서버(10)로 전송하기 전, 이미 다른 이동 단말기(P)의 사용자(Rinda, Michal)가 각각 입력정보(Y)를 입력하여 상기 제1 증강현실정보(A1)를 구성한다는 가정하에, 상기 제1 이동 단말기(P1)의 사용자는 'I want someone to exercise together'이라는 문자가 다른 입력정보(Y)보다 먼저 표시되도록 상기 표시조건정보를 입력할 수 있다.
그 결과, 도 6(a)에 도시된 바와 같이, 상기 제2 이동 단말기(P2)에는 상기 제1 이동 단말기(P1)의 상기 입력정보(I)인 'I want someone to exercise together'이라는 문자가 다른 입력정보(Y)보다 먼저 표시되는 상기 제2 증강현실정보(A2)가 표시될 수 있다.
상기 제2 이동 단말기(P2)의 사용자는 도 6(a)에 도시된 것과 같은 화면에서 터치 등을 통해 순서대로 상기 입력정보(I) 및 다른 입력정보(Y)를 볼 수 있다.
일례로, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)를 통해 상기 입력정보(I)가 다른 입력정보(Y)보다 먼저 표시되도록 상기 표시조건정보를 입력할 수도 있고, 다른 입력정보(Y)보다 나중에 표시되도록 상기 표시조건정보를 입력할 수도 있다.
또한, 상기 표시조건정보는 상기 제2 이동 단말기(P2)에서 상기 입력정보(I)의 표시 위치 및 상기 제2 이동 단말기(P2)에서 상기 입력정보(I)의 표시 순서에 대한 정보일 수도 있다.
즉, 상기 제1 이동 단말기(P1)의 사용자는 상기 입력정보(I)의 표시 위치를 선택할 수도 있고, 나아가 상기 입력정보(I)를 표시하려고 하는 위치에 다른 입력정보(Y)가 있는 경우 상기 입력정보(I)의 표시순서도 선택할 수 있다.
또한, 상기 표시조건정보는 상기 제2 이동 단말기(P2)에서 상기 입력정보(I)의 표시 기간에 대한 정보일 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)를 통해 상기 입력정보(I)가 상기 제2 증강현실정보(A2) 상에서 얼마 동안 표시될지 여부를 결정할 수 있다.
만약, 상기 입력정보(I)의 표시 기간을 1일로 결정한 경우, 상기 입력정보(I)는 상기 제2 이동 단말기(P2)의 상기 제2 증강현실정보(A2) 상에 1일 동안 표시될 수 있으며, 1일이 지난 후에는 더 이상 상기 제2 증강현실정보(A2) 상에 표시되지 않을 수 있다.
그 결과, 도 6(a)에 도시된 바와 같이, 상기 제2 이동 단말기(P2)에는 상기 제1 이동 단말기(P1)의 상기 입력정보(I)인 'I want someone to exercise together'이라는 문자가 상기 제2 증강현실정보(A2) 상에 1일 동안 표시될 수 있으며, 만약 1일이 지난 후에는 도 6(b)에 도시된 바와 같이, 상기 입력정보(I)가 표시되지 않을 수 있다.
또한, 상기 표시조건정보는 상기 제2 이동 단말기(P2)에서 상기 입력정보(I)의 표시 시작 시점에 대한 정보일 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)를 통해 상기 입력정보(I)가 상기 제2 증강현실정보(A2) 상에서 언제부터 표시될 것인지 여부를 결정할 수 있다.
만약, 상기 입력정보(I)의 표시 시작 시점을 내일 오후 1시로 결정한 경우, 상기 입력정보(I)는 상기 제2 이동 단말기(P2)의 상기 제2 증강현실정보(A2) 상에 내일 오후 1시부터 표시될 수 있으며, 내일 오후 1시 이전에는 상기 제2 증강현실정보(A2) 상에 표시되지 않을 수 있다.
그 결과, 도 6(a)에 도시된 바와 같이, 상기 제2 이동 단말기(P2)에는 상기 제1 이동 단말기(P1)의 상기 입력정보(I)인 'I want someone to exercise together'이라는 문자가 내일 오후 1시부터 상기 제2 증강현실정보(A2) 상에 표시될 수 있으며, 내일 오후 1시 이전에는 도 6(b)에 도시된 바와 같이, 상기 입력정보(I)가 표시되지 않을 수 있다.
이하에서는 도 7 내지 12를 참조하여 본 발명의 일 실시예에 따른 상기 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법의 다른 기능에 대해 설명하겠다.
앞서 설명한 상기 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법과 중복되는 내용에 대해서는 간략히 설명하거나 설명을 생략하겠다.
도 7은 상기 촬영정보 수신단계 및 상기 제1 증강현실정보 송신단계에 의해 상기 제1 이동 단말기(P1)에 상기 제1 증강현실정보(A1)가 표시되는 다른 일 예를 나타내었다.
일례로, 상기 제1 증강현실정보(A1)는 상기 건축물 상에 다른 이동 단말기(P)에 의해 이미 입력된 '?' 및 '!'와 같은 문자가 표시되는 정보일 수 있다.
여기서, 상기 입력정보 수신단계를 통해 상기 제1 이동 단말기(P1)의 사용자는 소정의 입력정보(I)를 상기 증강현실제공 서버(10)로 전달할 수 있으며, 또한 상기 표시조건정보 수신단계를 통해 소정의 표시조건정보를 상기 증강현실제공 서버(10)로 전달할 수 있다.
여기서, 일례로, 상기 표시조건정보는 상기 제1 이동 단말기(P1)에서 상기 입력정보(I)의 표시에 대한 정보를 의미할 수 있다.
즉, 상기 표시조건정보는 상기 입력정보(I)가 상기 제1 이동 단말기(P1)에서 어떻게, 언제 표시될 것인지에 대한 정보를 의미할 수 있다.
일례로, 상기 표시조건정보는 상기 제1 이동 단말기(P1)에서 상기 대상물(B)을 기준으로 상기 입력정보(I)의 표시 위치에 대한 정보를 의미할 수 있다.
이를 보다 자세히 설명하자면, 도 7과 같이, 상기 제1 증강현실정보(A1)가 상기 제1 이동 단말기(P1)에 표시된 상태에서, 상기 제1 이동 단말기(P1)의 사용자는 '♡'라는 상기 입력정보(I)를 상기 제1 이동 단말기(P1)를 통해 상기 증강현실제공 서버(10)로 전달할 수 있다.
상기 증강현실제공 서버(10)는 상기 입력정보(I)를 포함하는 제2 증강현실정보(A2)를 상기 제1 이동 단말기(P1)로 전달할 수 있으며, 도 8에 도시된 바와 같이, 상기 제1 이동 단말기(P1)는 상기 증강현실제공 서버(10)로부터 전달받은 '♡'라는 상기 입력정보(I)를 포함하는 상기 제2 증강현실정보(A2)를 상기 제1 이동 단말기(P1)의 사용자에게 표시할 수 있다.
여기서, 상기 제1 이동 단말기(P1)의 사용자는 상기 입력정보(I)가 상기 제2 증강현실정보(A2) 상에서 어느 위치에 표시되도록 할 것인지에 관한 상기 표시조건정보를 상기 제1 이동 단말기(P1)를 통해 입력할 수 있고 상기 표시조건정보를 상기 증강현실제공 서버(10)로 송신할 수 있다.
다만, 여기서 상기 표시조건정보의 상기 입력정보(I)의 표시 위치에 대한 조건은 상기 대상물(B)을 기준으로 하는 조건일 수 있다.
일례로, 상기 표시조건정보는 '♡'라는 상기 입력정보(I)가 오로지 촬영되고 있는 상기 대상물(B) 상에만 표시될 수 있는 조건일 수 있으며, 상기 대상물(B)을 벗어난 영역에서는 표시될 수 없는 조건일 수 있다.
따라서, 상기 제1 이동 단말기(P1)의 사용자는 오로지 '♡'라는 상기 입력정보(I)를 촬영되고 있는 상기 대상물(B)을 벗어나는 영역이 아닌 상기 대상물(B) 상의 소정의 위치에 표시되도록 할 수 있다.
여기서, 일례로, 상기 제1 증강현실정보(A1)는 상기 대상물(B)을 기준으로 상기 입력정보(I)의 표시 가능 위치에 대한 표시가능정보(C)를 포함할 수 있다.
일례로, 도 8에 도시된 바와 같이, 상기 제1 이동 단말기(P1)에는 '♡'라는 상기 입력정보(I)를 입력할 수 있는 위치에 대한 영역(C)이 표시될 수 있다.
일례로, 상기 입력정보(I)의 표시 가능 위치는 상기 대상물(B) 상의 소정의 위치일 수 있다.
일례로, 상기 표시가능정보(C)는 상기 대상물(B) 상에 점선 등으로 표시되어 상기 입력 정보의 표시 가능 영역을 사용자에게 표시할 수 있다.
일례로, '♡'라는 상기 입력정보(I)는 도 8에 도시된 바와 같이, '?' 및 '!'라는 문자가 이미 표시된 영역이 아닌 다른 영역에 표시될 수도 있고, '?' 및 '!'라는 문자가 이미 표시된 영역 상에도 표시되도록 할 수 있다.
이를 보다 자세히 설명하자면, 도 9는 상기 제1 이동 단말기(P1)에 상기 제1 증강현실정보(A1)가 표시되는 일례를 도시한 것으로서, 이미 다른 이동 단말기(P)에 의해 다른 입력정보, 예를 들면 '?', '!' 및 'A'가 표시되어 있을 수 있다.
특히, '!' 및 'A' 문자는 서로 오버랩 되어 표시될 수 있다.
여기서, 상기 제1 이동 단말기(P1)의 사용자는 상기 제1 이동 단말기(P1)를 통해 '♡'라는 상기 입력정보(I)를 '?', '!' 및 'A'가 표시되지 않은 영역을 선택하여 표시되도록 할 수도 있고, '?', '!' 및 'A'가 표시된 영역을 선택하여 표시되도록 할 수 있다.
만약, 상기 제1 이동 단말기(P1)의 사용자가 '♡'라는 상기 입력정보(I)를 도 9에서 '?'가 표시된 영역에 표시되도록 상기 표시조건정보를 입력할 수 있고, 상기 제1 이동 단말기(P1)는 상기 표시조건정보를 상기 증강현실제공 서버(10)로 송신할 수 있다.
이러한 경우, 상기 증강현실제공 서버(10)는 상기 제1 이동 단말기(P1)로부터 상기 입력정보(I) 및 상기 표시조건정보를 전달받아 이와 대응되는 상기 제2 증강현실정보(A2)를 상기 제1 이동 단말기(P1)로 송신할 수 있다.
이 때, 상기 제2 증강현실정보(A2)는 상기 대상물(B)을 기준으로 상기 입력정보(I)의 표시 위치에서는 상기 입력정보(I)만을 포함하고, 상기 대상물(B)을 기준으로 상기 입력정보(I)의 표시 위치가 아닌 위치에서는 상기 제1 이동 단말기(P1)가 아닌 다른 복수의 이동 단말기(P)에 의해 입력된 정보들(예를 들어, '!' 및 'A')이 오버랩된 오버랩 정보를 포함할 수 있다.
이를 보다 자세히 설명하자면, 도 10에 도시된 바와 같이, 상기 제1 이동 단말기(P1)의 사용자가 '♡'라는 상기 입력정보(I)를 도 9에서 '?'가 표시된 영역에 표시되도록 상기 표시조건정보를 입력한 경우, 상기 제1 이동 단말기(P1)로 송신되는 상기 제2 증강현실정보(A2)는 '?'가 표시된 영역에는 오로지 상기 입력정보(I)인 '♡'만이 표시되고, 그 외의 영역에는 이전처럼 '!' 및 'A'가 오버랩 되어 표시될 수 있다.
따라서, 상기 입력정보(I)인 '♡'라는 문자를 입력한 상기 제1 이동 단말기(P1)의 사용자는 자신이 입력한 상기 입력정보(I)를 다른 이동 단말기(P)를 통해 입력된 다른 입력정보(Y)와 비교하여 상대적으로 명확하게 볼 수 있다.
그러나, 상기 제2 이동 단말기(P2)가 표시하는 상기 제2 증강현실정보(A2)에는 도 11에 도시된 바와 같이, '!' 및 'A'가 오버랩 되어있을 뿐만 아니라, '?' 및 '♡'도 오버랩 되어 표시될 수 있다.
여기서, 일례로, 상기 제2 증강현실정보(A2)는 제1 시점으로부터 제2 시점까지의 기간 동안 상기 입력정보(I)를 포함하는 정보이며, 상기 제1 시점으로부터 상기 제2 시점으로 갈수록 상기 입력정보(I)를 희미하게 포함하는 정보일 수 있다.
이를 보다 자세히 하자면, 도 12는 상기 제1 이동 단말기(P1)가 표시하는 상기 제2 증강현실정보(A2) 중 상기 입력정보(I)인 '♡'라는 문자만을 표시한 확대 개략도로서, 도 12(a)에 도시된 바와 같이 상기 입력정보(I)인 '♡'라는 문자는 상기 제1 시점부터 상기 제2 증강현실정보(A2)에 포함되어 표시될 수 있으며, 도 12(b) 및 도 12(c)에 도시된 바와 같이 상기 제1 시점으로부터 상기 제2 시점으로 갈수록 상기 제2 증강현실정보(A2)상에서 점점 희미가게 표시될 수 있다.
나아가, 도 12(d)에 도시된 바와 같이, 상기 제2 이점이 지난 시점에서는 더 이상 상기 입력정보(I)인 '♡'라는 문자는 상기 제2 증강현실정보(A2)에 포함되지 않아 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2)에 표시되지 않을 수 있다.
일례로, 사용자는 상기 제1 시점 및/또는 상기 제2 시점을 상기 제1 이동 단말기(P1)를 통해 선택할 수 있다.
이하에서는 도 25 및 도 26을 참조하여, 상기 증강현실정보 제공 방법을 구현하는 상기 증강현실제공 서버(10) 및 상기 증강현실정보가 제공되는 상기 이동 단말기(P)를 자세히 설명하겠다.
도 25에 도시된 바와 같이, 일례로, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)로부터 소정의 정보를 전달받는 수신부(400), 상기 수신부(400)에 의해 전달받은 소정의 정보를 기초로 하여 증강현실정보와 관련된 데이터를 처리, 연산, 선택, 판단 및/또는 제어하는 제어부(200), 증강현실정보와 관련된 소정의 정보를 상기 이동 단말기(P)로 전달하는 송신부(100) 및 증강현실정보 제공 방법을 구현하기 위해 필요한 데이터 및/또는 정보를 저장하는 메모리부(500)를 포함할 수 있다.
도 26에 도시된 바와 같이, 일례로, 상기 이동 단말기(P)는 증강현실정보의 구현과 관련된 소정의 정보 및/또는 데이터가 사용자의 터치 등에 의해 입력될 수 있는 단말기 입력부(P10), 상기 이동 단말기(P)가 위치하는 정보를 생성하는 단말기 위치생성부(P20), 상기 증강현실제공 서버(10)와 소정의 정보 및/또는 데이터를 전달받거나 전달하는 단말기 통신부(P40), 증강현실정보와 관련된 소정의 정보 및/또는 데이터를 촬영할 수 있는 단말기 촬영부(P50), 증강현실정보와 관련된 정보 및/또는 데이터를 사용자에게 표시하는 단말기 디스플레이부(P30) 및 상기 이동 단말기(P)를 구성하는 구성요소를 제어하거나, 증강현실정보를 제공받기 위해 필요한 정보 및/또는 데이터를 처리, 연산, 선택 및/또는 판단할 수 있는 단말기 단말기 제어부(P60)를 포함할 수 있다.
일례로, 상기 증강현실제공 서버(10)는 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2)가 상기 대상물(B)을 촬영하여 생성된 상기 촬영정보(L)를 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2)로부터 전달받는 수신부(400)를 포함할 수 있다.
상기 제1 이동 단말기(P1) 상기 제2 이동 단말기(P2)는 도 2에 도시된 바와 같이, 상기 단말기 촬영부(P50)를 통해 상기 촬영정보(L)를 생성할 수 있으며, 상기 촬영정보(L)를 상기 단말기 통신부(P40)를 통해 상기 수신부(400)로 전달할 수 있다.
여기서, 상기 증강현실제공 서버(10)는 복수의 증강현실정보 중 상기 수신부(400)로부터 획득된 상기 촬영정보(L)와 대응되는 제1 증강현실정보(A1)를 선택하는 제어부(200)를 포함할 수 있다.
앞서 설명한 바와 같이, 상기 제어부(200)는 상기 이동 단말기(P)로부터 전달받은 상기 촬영정보(L)와 상기 메모리부(500)에 기 입력된 복수의 촬영정보(L) 중 어느 하나와 대응되는 경우 상기 메모리부(500)에 기 입력된 복수의 증강현실정보 중 대응되는 상기 제1 증강현실정보(A1)를 선택할 수 있다.
여기서, 선택의 의미는 기 입력된 프로그램에 의해 기 입력된 복수의 증강현실정보 중 어느 하나가 자동으로 산출되는 의미를 포함할 수 있다.
여기서, 상기 증강현실제공 서버(10)는 상기 제1 증강현실정보(A1)를 상기 제1 이동 단말기(P1) 및 제2 이동 단말기(P2)로 전달하는 송신부(100)를 포함할 수 있다.
상기 송신부(100)를 통해 상기 증강현실정보를 전달받은 상기 제1 이동 단말기(P1) 및 상기 제2 이동 단말기(P2)는 각각 상기 단말기 디스플레이를 통해 상기 제1 증강현실정보(A1)를 사용자에게 표시할 수 있다.
여기서, 상기 수신부(400)는 상기 제1 이동 단말기(P1)로부터 상기 입력정보(I)를 전달받을 수 있고, 상기 제어부(200)는 상기 입력정보(I)를 포함하는 상기 제2 증강현실정보(A2)를 생성할 수 있으며, 상기 송신부(100)는 상기 제1 이동 단말기(P1)로 상기 제2 증강현실정보(A2)를 송신할 수 있다.
또한, 상기 수신부(400)는 상기 제1 이동 단말기(P1)로부터 상기 표시조건정보를 전달받을 수 있다.
또한, 상기 제어부(200)는 상기 표시조건정보가 상기 입력정보(I)를 상기 제2 이동 단말기(P2)로 표시하는 것을 허여하는 조건인 경우 상기 송신부(100)를 통해 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 송신하고, 상기 표시조건정보가 상기 입력정보(I)를 상기 제2 이동 단말기(P2)로 표시하는 것을 허여하지 않는 조건인 경우 상기 송신부(100)를 통해 상기 제2 증강현실정보(A2)를 상기 제2 이동 단말기(P2)로 송신하지 않을 수 있다.
이하에서는, 도 13 내지 도 18을 참조하여 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법의 다른 기능을 보다 자세히 설명하겠다.
앞서 설명한 내용과 중복되는 부분은 설명을 간략히 하거나, 설명을 생략하겠다.
본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 이동 단말기(P)가 위치하는 위치에 대한 정보인 위치정보를 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 전달받는 위치정보 수신단계를 포함할 수 있다.
상기 증강현실제공 서버(10)는 상기 이동 단말기(P)로부터 상기 위치정보를 전달받아 상기 이동 단말기(P)가 어느 위치에 있는지에 대한 정보를 획득할 수 있다.
여기서, 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 이동 단말기(P)가 상기 대상물(B)을 촬영하여 생성된 상기 촬영정보(L)를 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로 부터 전달받는 촬영정보 수신단계를 더 포함할 수 있다.
즉, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)로부터 상기 위치정보를 전달받을 수 있고 나아가 상기 이동 단말기(P)가 촬영하여 생성된 상기 촬영정보(L)를 전달받을 수 있다.
여기서, 일례로, 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 수신한 상기 위치정보 및 상기 촬영정보(L)를 기초로 하여 미리 정해진 조건을 만족하는 경우 복수의 증강현실정보 중 대응증강현실정보를 상기 이동 단말기(P)로 전달하는 대응증강현실정보 송신단계를 더 포함할 수 있다.
여기서, 일례로, 상기 미리 정해진 조건은 상기 위치정보가 상기 증강현실제공 서버(10)에 기 입력된 위치정보와 대응되는지 여부 및 상기 촬영정보(L)가 상기 증강현실제공 서버(10)에 기 입력된 촬영정보(L)와 대응되는지 여부에 대한 조건일 수 있다.
이를 보다 자세히 설명하자면, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)로부터 전달받은 상기 위치정보 및 상기 촬영정보(L)를 기초로 하여 상기 위치정보가 기 입력된 위치정보 중 어느 하나와 대응되는 동시에 상기 촬영정보(L)가 기 입력된 위치정보 중 어느 하나와 대응되는 경우, 즉 상기 미리 정해진 조건을 만족하는 경우 상기 증강현실제공 서버(10)에 저장된 복수의 증강현실정보 중 상기 위치정보 및 상기 촬영정보(L)의 조합에 대응되는 상기 대응증강현실정보를 상기 이동 단말기(P)로 전달할 수 있다.
즉, 상기 증강현실제공 서버(10)는 복수의 증강현실정보 중 상기 대응증강현실정보를 선택할 때, 선택의 기초가 되는 정보가 오직 상기 촬영정보(L)만이 아니라 상기 위치정보를 더 포함할 수 있다.
상기 이동 단말기(P)는 상기 증강현실제공 서버(10)로부터 수신한 상기 대응증강현실정보를 사용자에게 표시할 수 있다.
또한, 일례로, 상기 미리 정해진 조건은 상기 촬영정보(L)가 복수의 상기 기 입력된 촬영정보(L) 중 어느 하나와 대응되나, 상기 위치정보가 복수의 상기 기 입력된 위치정보 중 제1 위치정보와 대응되는 경우 복수의 상기 증강현실정보 중 제1 대응증강현실정보를 상기 이동 단말기(P)로 송신하며, 상기 위치정보가 복수의 상기 기 입력된 위치정보 중 제2 위치정보와 대응되는 경우 복수의 상기 증강현실정보 중 제2 대응증강현실정보를 상기 이동 단말기(P)로 송신하는 조건일 수 있다.
이를 보다 자세히 설명하자면, 일례로, 도 2 및 도 13에 도시된 바와 같이, 상기 대상물(B)의 어느 일면(B1)에 상기 식별객체(Q) 중 제1 식별객체(Q1)가 표시되어 있고, 상기 대상물(B)의 다른 어느 일면(B2)에 상기 식별객체(Q) 중 제2 식별객체(Q2)가 표시되어 있으며, 상기 제1 식별객체(Q1)와 상기 제2 식별객체(Q2)가 동일한 패턴을 가지는 QR코드(Q)일 수 있다.
여기서, 도 15는 상기 대상물(B)을 위에서 바라본 개략도로서, 도 2 및 도 15에 도시된 바와 같이, 상기 이동 단말기(P)의 위치가 상기 대상물(B)을 기준으로 제1 위치(X1)에 있어 상기 위치정보가 상기 제1 위치정보(D1)와 대응되는 경우, 도 3에 도시된 바와 같이, 상기 증강현실제공 서버(10)는 상기 제1 식별객체(Q1)와 상기 제1 위치정보(D1)에 대응되는 상기 위치정보를 조합하여 복수의 상기 증강현실정보 중 상기 제1 대응증강현실정보(A1)(상기 제1 증강현실정보와 대응됨)를 상기 이동 단말기(P)로 송신할 수 있다.
한편, 도 13 및 도 15에 도시된 바와 같이, 상기 이동 단말기(P)의 위치가 상기 대상물(B)을 기준으로 제2 위치(X2)에 있어 상기 위치정보가 상기 제2 위치정보(D2)와 대응되는 경우, 도 14에 도시된 바와 같이, 상기 증강현실제공 서버(10)는 상기 제2 식별객체(Q2)와 상기 제2 위치정보(D2)에 대응되는 상기 위치정보를 조합하여 복수의 상기 증강현실정보 중 상기 상기 제1 대응증강현실정보(A1)와 다른 상기 제2 대응증강현실정보(A3)를 상기 이동 단말기(P)로 송신할 수 있다.
즉, 상기 이동 단말기(P)가 동일한 식별객체에 대해 촬영하여 생성된 상기 촬영정보(L)를 상기 증강현실제공 서버(10)로 전달하여도 상기 위치정보가 다른 경우, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)의 위치에 기초하여 각각 다른 증강현실정보를 상기 이동 단말기(P)로 전달할 수 있다.
여기서, 일례로, 상기 위치정보는 상기 촬영정보(L)를 생성할 때의 상기 이동 단말기(P)가 위치하는 정보일 수 있다.
또한, 일례로, 상기 위치정보는 상기 촬영정보(L)의 생성과 연동되어 생성될 수 있다.
즉, 상기 이동 단말기(P)는 상기 촬영정보(L)를 생성할 때 자동으로 상기 위치정보를 생성할 수 있다.
여기서, 일례로, 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 상기 위치정보가 상기 기 입력된 위치정보와 대응되지 않는 경우 상기 위치정보를 기초로 한 위치증강현실정보를 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로 송신하는 위치증강현실정보 송신단계를 더 포함할 수 있다.
즉, 상기 위치정보가 상기 기 입력된 위치정보와 대응되지 않아 상기 미리 정해진 조건을 만족하지 않는 경우, 상기 증강현실제공 서버(10)는 상기 대응증강현실정보를 상기 이동 단말기(P)로 송신하지 않고, 그 대신 상기 위치증강현실정보를 상기 이동 단말기(P)로 송신할 수 있다.
이를 보다 자세히 설명하자면, 도 15에 도시된 바와 같이, 상기 증강현실제공 서버(10)는 기 입력된 위치정보(D)를 저장하고 있을 수 있다.
기 입력된 위치정보(D)는 상기 증강현실제공 서버(10)가 상기 대응증강현실정보를 선택하여 상기 이동 단말기(P)로 송신할 있는 위치에 대한 정보일 수 있다.
만약, 상기 이동 단말기(P)의 상기 위치정보가 기 입력된 위치정보(D) 중 하나인 상기 제1 위치(X1)에 있는 것으로 판단되는 경우 및 기 입력된 위치정보(D) 중 하나인 상기 제2 위치(X2)에 있는 것으로 판단되는 경우, 상기 증강현실제공 서버(10)는 상기 미리 정해진 조건에 기초하여 상기 대응증강현실정보(A1, A3)를 상기 이동 단말기(P)로 송신할 수 있다.
그러나, 만약, 도 15에 도시된 바와 같이, 상기 이동 단말기(P)의 상기 위치정보가 기 입력된 위치정보(D)와 대응되지 않는 제3 위치(X3)에 있는 것으로 판단되는 경우, 상기 증강현실제공 서버(10)는 도 16과 같은 상기 대응증강현실정보(A1, A3)가 아닌 상기 위치증강현실정보(A4)를 상기 이동 단말기(P)로 전달할 수 있다.
그 결과, 도 16에 도시된 바와 같이, 상기 이동 단말기(P)는 상기 증강현실제공 서버(10)로부터 수신한 상기 위치증강현실정보(A4)를 사용자에게 표시할 수 있다.
이를 보다 자세히 설명하기 위해, 이하에서는 상기 위치증강현실정보(A4)에 대해 더욱 자세히 설명하겠다.
일례로, 상기 위치증강현실정보(A4)는 상기 위치정보와 상기 기 입력된 위치정보(D)에 대한 정보일 수 있다.
만약, 상기 이동 단말기(P)의 사용자가 도 15의 상기 제3 위치(X3)에서 상기 이동 단말기(P)를 제어하여, 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 상기 촬영정보(L) 및 상기 위치정보를 전달받은 경우, 상기 증강현실제공 서버(10)는 상기 제3 위치(X3)인 상기 위치정보가 기 입력된 위치정보(D)와 대응되지 않아 도 14 또는 도 3과 같은 상기 대응증강현실정보(A1, A3)를 선택하는 것이 아닌, 도 16과 같은 상기 위치증강현실정보(A4)를 선택하여 상기 이동 단말기(P)로 전달할 수 있다.
그 결과, 상기 이동 단말기(P)는 도 16과 같은 상기 위치증강현실정보(A4)를 표시할 수 있다.
도 16에 도시된 바와 같이, 일례로, 상기 위치증강현실정보(A4)는 상기 이동 단말기(P)가 위치하는 상기 제3 위치(X3)인 상기 위치정보와 상기 증강현실제공 서버(10)에 기 입력된 위치정보(D)를 포함할 수 있다.
일례로, 상기 위치증강현실정보(A4)는 상기 대상물(B)을 포함하며, 점선으로 기 입력된 위치정보(D)와 기 입력되지 않은 위치정보의 경계 또는 영역의 구분을 표시하는 정보일 수 있다.
그 결과, 상기 이동 단말기(P)의 사용자는 상기 이동 단말기(P)를 통해 상기 위치증강현실정보(A4)를 보고 기 입력된 위치정보(D)와 대응되는 위치로 이동할 수 있다.
또한, 일례로, 상기 위치증강현실정보(A4)는 상기 위치정보와 상기 기 입력된 위치정보(D) 간의 방향 및 거리에 대한 정보를 포함할 수 있다.
도 16에 도시된 바와 같이, 상기 위치증강현실정보(A4)는 상기 이동 단말기(P)가 위치하는 상기 제3 위치(X3)인 상기 위치정보를 기준으로 상기 증강현실제공 서버(10)에 기 입력된 위치정보(D)까지의 거리 및 방향을 표시하는 정보일 수 있다.
그 결과, 상기 이동 단말기(P)의 사용자는 상기 이동 단말기(P)를 통해 상기 위치증강현실정보(A4)를 보고 기 입력된 위치정보(D)와 대응되는 위치로 더욱 편리하게 이동할 수 있다.
또한, 일례로, 상기 위치증강현실정보(A4)는 상기 위치정보와 상기 기 입력된 위치정보(D) 중 다른 복수의 이동 단말기(P)로 상기 대응증강현실정보를 송신한 횟수가 많은 영역에 대한 영역정보(F)를 포함할 수 있다.
이를 보다 자세히 설명하자면, 도 17에 도시된 바와 같이, 상기 위치증강현실정보(A4)는 상기 이동 단말기(P)가 위치하는 상기 제3 위치(X3)인 상기 위치정보를 포함할 수 있으며, 나아가 상기 기 입력된 위치정보(D) 중 상기 증강현실제공 서버(10)가 다른 복수의 이동 단말기(P)로부터 전달받은 위치정보 중 가장 많은 수를 가지는 위치에 대한 영역정보(F)를 포함할 수 있다.
따라서, 상기 이동 단말기(P)의 사용자는 상기 이동 단말기(P)를 통해 상기 위치증강현실정보(A4)를 보고 기 입력된 위치정보(D) 중 다른 복수의 사람들이 가장 많이 위치하여 상기 증강현실제공 서버(10)로부터 상기 대응증강현실정보(A1, A3)를 제공받았던 위치로 이동할 수 있다.
또한, 일례로, 상기 위치증강현실정보(A4)는 복수의 상기 기 입력된 위치정보(D)가 있는 경우 복수의 상기 기 입력된 위치정보(D)에 대한 순서정보를 포함하는 정보일 수 있다.
이를 보다 자세히 설명하자면, 도 18에 도시된 바와 같이, 상기 위치증강현실정보(A4)는 상기 이동 단말기(P)가 위치하는 상기 제3 위치(X3)인 상기 위치정보를 포함할 수 있으며, 나아가 상기 제3 위치(X3)로부터 소정의 거리 내에 상기 제1 위치정보(D1) 및 상기 제2 위치정보(D2)를 포함하는 복수의 상기 기 입력된 위치정보(D)가 존재하는 경우, 상기 제1 위치정보(D1) 및 상기 제2 위치정보(D2) 중 어느 위치정보부터 유도할 것인지에 대한 상기 순서정보를 더 포함할 수 있다.
일례로, 상기 순서정보는 상기 제3 위치(X3)인 상기 위치정보를 기준으로 화살표 및 숫자로 표시되는 정보일 수 있으며, 도 18에 도시된 바와 같이, 상기 순서정보는 상기 제2 위치정보(D2)로 먼저 유도한 후 상기 제1 위치정보(D1)로 유도하는 화살표 및 숫자를 포함하는 정보일 수 있다.
여기서, 일례로, 상기 순서정보는 상기 위치정보와 복수의 상기 기 입력된 위치정보(D)간의 거리에 의해 결정될 수 있다.
만약, 도 16에 도시된 바와 같이, 상기 제3 위치(X3)인 상기 위치정보를 기준으로 상기 제1 위치정보(D1)까지의 거리가 30m 이고, 상기 제2 위치정보(D2)까지의 거리가 20m인 경우, 상기 순서정보는 도 18에 도시된 바와 같이, 상기 제2 위치정보(D2)로 먼저 유도한 후 상기 제1 위치정보(D1)로 유도하는 화살표 및 숫자를 포함하는 정보일 수 있다.
또한, 일례로, 상기 순서정보는 상기 대응증강현실정보(A1, A3)를 송신한 횟수에 의해 결정될 수 있다.
이를 보다 자세히 설명하자면, 상기 순서정보는, 상기 이동 단말기(P)가 상기 위치증강현실정보(A4)를 상기 증강현실제공 서버(10)로부터 전달받기 전에, 상기 증강현실제공 서버(10)가 다른 복수의 이동 단말기(P)로부터 전달받은 위치정보 중 상기 제1 위치정보(D1)와 대응되는 횟수가 상기 제2 위치정보(D2)와 대응되는 횟수보다 더 많다면, 즉 상기 증강현실제공 서버(10)가 상기 제1 위치정보(D1)와 대응되는 상기 제1 대응증강현실정보(A1)를 선택한 횟수가 상기 제2 위치정보(D2)와 대응되는 상기 제2 대응증강현실정보(A3)를 선택한 횟수보다 더 많다면, 상기 제1 위치정보(D1)로 먼저 유도한 후 상기 제2 위치정보(D2)로 유도하는 화살표 및 숫자를 포함하는 정보일 수 있다.
또한, 일례로, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)로부터 상기 촬영정보(L)를 전달받을 때뿐만 아니라, 주기적으로 상기 이동 단말기(P)의 상기 위치정보를 전달받을 수 있다.
여기서, 일례로, 상기 위치정보 수신단계에서 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 상기 위치정보를 전달받는 주기는 상기 위치정보가 상기 기 입력된 위치정보(D)와 대응되는 경우보다 상기 기 입력된 위치정보(D)와 대응되지 않는 경우가 더 짧을 수 있다.
그 결과, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)가 상기 기 입력된 위치정보(D)와 대응되지 않는 상기 제3 위치(X3)에 있는 것으로 판단되는 경우, 상기 이동 단말기(P)로부터 상기 위치정보를 더 짧은 주기로 전달받아 보다 정확한 상기 위치증강현실정보(A4)를 업데이트하여 상기 이동 단말기(P)로 전송할 수 있다.
이하에서는 도 25 및 도 26을 참조하여, 상기 증강현실정보 제공 방법을 구현하는 상기 증강현실제공 서버(10) 및 상기 증강현실정보가 제공되는 상기 이동 단말기(P)를 자세히 설명하겠다.
도 25에 도시된 바와 같이, 일례로, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)로부터 소정의 정보를 전달받는 수신부(400), 상기 수신부(400)에 의해 전달받은 소정의 정보를 기초로 하여 증강현실정보와 관련된 데이터를 처리, 연산, 선택, 판단 및/또는 제어하는 제어부(200), 증강현실정보와 관련된 소정의 정보를 상기 이동 단말기(P)로 전달하는 송신부(100) 및 증강현실정보 제공 방법을 구현하기 위해 필요한 데이터 및/또는 정보를 저장하는 메모리부(500)를 포함할 수 있다.
도 26에 도시된 바와 같이, 일례로, 상기 이동 단말기(P)는 증강현실정보의 구현과 관련된 소정의 정보 및/또는 데이터가 사용자의 터치 등에 의해 입력될 수 있는 단말기 입력부(P10), 상기 이동 단말기(P)가 위치하는 정보를 생성하는 단말기 위치생성부(P20), 상기 증강현실제공 서버(10)와 소정의 정보 및/또는 데이터를 전달받거나 전달하는 단말기 통신부(P40), 증강현실정보와 관련된 소정의 정보 및/데이터를 촬영할 수 있는 단말기 촬영부(P50), 증강현실정보와 관련된 정보 및/또는 데이터를 사용자에게 표시하는 단말기 디스플레이부(P30) 및 상기 이동 단말기(P)를 구성하는 구성요소를 제어하거나, 증강현실정보를 제공받기 위해 필요한 정보 및/또는 데이터를 처리, 연산, 선택 및/또는 판단할 수 있는 단말기 제어부(P60)를 포함할 수 있다.
일례로, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)가 위치하는 위치에 대한 정보인 상기 위치정보 및 상기 이동 단말기(P)가 상기 대상물(B)을 촬영하여 생성된 상기 촬영정보(L)를 상기 이동 단말기(P)로부터 전달받는 수신부(400)를 포함할 수 있다.
상기 이동 단말기(P)는 도 2에 도시된 바와 같이, 상기 단말기 촬영부(P50)를 통해 상기 촬영정보(L)를 생성할 수 있으며, 또한 상기 단말기 위치생성부(P20)를 통해 상기 위치정보를 생성할 수 있고, 상기 촬영정보(L) 및 상기 위치정보를 상기 단말기 통신부(P40)를 통해 상기 수신부(400)로 전달할 수 있다.
일례로, 상기 단말기 위치생성부(P20)는 GPS 통신 장치일 수 있다.
여기서, 복수의 증강현실정보 중 상기 수신부(400)로부터 획득된 상기 위치정보 및 상기 촬영정보(L)를 기초로 하여 상기 미리 정해진 조건을 만족하는 경우 상기 대응증강현실정보를 선택하는 제어부(200)를 포함할 수 있다.
앞서 설명한 바와 같이, 상기 제어부(200)는 상기 이동 단말기(P)로부터 전달받은 상기 촬영정보(L)와 상기 메모리부(500)에 기 입력된 복수의 촬영정보(L) 중 어느 하나와 대응되는지 여부 및 상기 이동 단말기(P)로부터 전달받은 상기 위치정보와 상기 메모리부(500)에 기 입력된 복수의 위치정보 중 어느 하나와 대응되는지 여부에 따라 상기 미리 정해진 조건을 만족하는 경우 상기 메모리부(500)에 기 입력된 복수의 증강현실정보 중 대응되는 상기 대응증강현실정보를 선택할 수 있다.
여기서, 선택의 의미는 기 입력된 프로그램에 의해 기 입력된 복수의 증강현실정보 중 어느 하나가 자동으로 산출되는 의미를 포함할 수 있으며, 상기 미리 정해진 조건 역시 프로그램의 형식으로 상기 메모리부(500)에 기 입력되어 있을 수 있다.
여기서, 상기 증강현실제공 서버(10)는 상기 대응증강현실정보를 상기 이동 단말기(P)로 전달하는 송신부(100)를 포함할 수 있다.
상기 송신부(100)를 통해 상기 증강현실정보를 전달받은 상기 이동 단말기(P)는 상기 단말기 디스플레이부(P30)를 통해 상기 대응증강현실정보를 사용자에게 표시할 수 있다.
상기 제어부(200)는 상기 위치정보가 상기 기 입력된 위치정보(D)와 대응되지 않는 경우 상기 위치정보를 기초로 하여 상기 송신부(100)를 통해 상기 위치증강현실정보(A4)를 상기 이동 단말기(P)로 송신할 수 있다.
또한, 일례로, 상기 증강현실제공 서버(10)는 상기 단말기(P)가 상기 촬영정보(L)를 상기 증강현실제공 서버(10)에 송신하는 순서에 따라 서로 다른 증강현실정보를 상기 단말기(P)로 송신할 수 있다.
이를 보다 자세히 설명하자면, 일례로, 상기 단말기(P)가 상기 대상물(B)의 어느 일면(B1)에 상기 식별객체(Q) 중 상기 제1 식별객체(Q1)가 표시된 상기 촬영정보(L)를 상기 증강현실제공 서버(10)에 송신하는 경우, 상기 증강현실제공 서버(10)는 상기 제1 식별객체(Q1)와 대응되는 A정보, B정보 및 C정보를 포함하는 증강현실정보를 상기 단말기(P)로 송신할 수 있다.
한편, 상기 단말기(P)가 상기 대상물(B)의 어느 다른 일면(B2)에 상기 식별객체(Q) 중 상기 제2 식별객체(Q2)가 표시된 상기 촬영정보(L)를 상기 증강현실제공 서버(10)에 송신하는 경우, 상기 증강현실제공 서버(10)는 상기 제2 식별객체(Q2)와 대응되는 C정보, D정보 및 E정보를 포함하는 증강현실정보를 상기 단말기(P)로 송신할 수 있다.
여기서, 만약, 상기 단말기(P)가 먼저 상기 대상물(B)의 어느 일면(B1)에 상기 식별객체(Q) 중 상기 제1 식별객체(Q1)가 표시된 상기 촬영정보(L)를 상기 증강현실제공 서버(10)에 송신하여 상기 증강현실제공 서버(10)로부터 A정보, B정보 및 C정보를 포함하는 증강현실정보를 제공받은 후, 상기 단말기(P)가 상기 대상물(B)의 어느 다른 일면(B2)에 상기 식별객체(Q) 중 상기 제2 식별객체(Q2)가 표시된 상기 촬영정보(L)를 상기 증강현실제공 서버(10)에 송신하는 경우, 상기 증강현실제공 서버(10)는 상기 제2 식별객체(Q2)와 대응되는 C정보, D정보 및 E정보를 포함하는 증강현실정보를 상기 단말기(P)로 송신하는 것이 아니라, D정보 및 E정보를 포함하는 증강현실정보 또는 F정보를 포함하는 증강현실 정보를 상기 단말기(P)로 송신할 수 있다.
즉, 상기 증강현실제공 서버(10)는 상기 단말기(P)로부터 송신되는 상기 촬영정보(L)의 순서를 고려하여 순서에 따라 서로 다른 증강현실 정보를 상기 단말기(P)로 송신할 수 있다.
이하에서는, 도 19 내지 도 24를 참조하여 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법의 다른 기능을 보다 자세히 설명하겠다.
앞서 설명한 내용과 중복되는 부분은 설명을 간략히 하거나, 설명을 생략하겠다.
도 19 내디 도 24에 도시된 바와 같이, 본 발명의 일 실시예에 따른 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법은 대상물(B) 상에 소정의 작업순서로 그려진 이미지(E)와 연계하여 이동 단말기(P)에 증강현실정보를 제공하는 증강현실정보 제공 방법에 관한 것일 수 있다.
일례로, 상기 대상물(B)에는 기계 또는 사람에 의해 상기 이미지(E)가 상기 작업순서로 그려져 있을 수 있다.
일례로, 상기 대상물(B)은 아파트일 수 있으며, 상기 이미지(E)는 아파트에 그려진 벽화일 수 있다.
일례로, 상기 이미지(E)는 위에서 아래로의 상기 작업순서로 아파트의 벽면에 그려질 수 있다.
상기 증강현실제공 서버(10)는 실제로 상기 대상물(B)에 상기 이미지(E)가 상기 작업순서로 그려지는 정보를 미리 저장하고 있을 수 있다.
여기서, 상기 증강현실정보 제공 방법은 상기 이동 단말기(P)가 대상물(B)을 촬영하여 생성된 촬영정보(L)를 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 전달받는 촬영정보 수신단계를 포함할 수 있다.
일례로, 상기 이동 단말기(P)는 상기 이미지(E)가 그려진 상기 대상물(B)을 촬영하고, 상기 촬영정보(L)를 상기 증강현실제공 서버(10)로 전달할 수 있다.
여기서, 상기 증강현실정보 제공 방법은 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 수신한 상기 촬영정보(L)와 대응되는 증강현실정보를 선택하여 상기 이동 단말기(P)로 송신하는 증강현실정보 송신단계를 더 포함할 수 있다.
즉, 상기 증강현실제공 서버(10)는 상기 촬영정보(L)와 기 입력된 복수의 촬영정보(L)를 비교하여, 상기 촬영정보(L)가 기 입력된 복수의 촬영정보(L) 중 어느 하나와 대응되는 경우, 기 입력된 복수의 증강현실정보 중 대응되는 증강현실정보를 상기 이동 단말기(P)로 전달할 수 있다.
도 19는 상기 증강현실정보(A5)의 일례를 도시한 것으로서, 도 2에 도시된 바와 같이, 상기 이동 단말기(P)의 사용자가 상기 대상물(B)을 촬영하여 상기 촬영정보(L)를 상기 증강현실제공 서버(10)로 보내는 경우, 도 19에 도시된 바와 같이 상기 대상물(B)에 상기 벽화가 그려지지 않은 상기 증강현실정보(A5)를 상기 이동 단말기(P)로 송신할 수 있다.
그 결과, 상기 이동 단말기(P)에는 표시되는 상기 대상물(B)은 상기 이미지(E)가 표시되지 않은, 상기 이미지(E)가 상기 대상물(B)에 그려지기 전이 화면에 표시될 수 있다.
여기서, 일례로, 상기 증강현실정보 제공 방법은 상기 이동 단말기(P)가 사용자로부터 입력 받아 생성된 입력정보를 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 전달받는 입력정보 수신단계를 더 포함할 수 있다.
이를 보다 자세히 설명하자면, 일례로, 상기 증강현실정보(A5)가 표시되는 상기 이동 단말기(P)에는 상기 입력정보를 입력할 수 있는 복수의 아이콘(K)이 표시될 수 있다.
일례로, 상기 입력정보는 상기 이동 단말기(P)에서 상기 대상물(B) 상에 상기 이미지(E)의 표시방법에 대한 정보일 수 있으며, 복수의 아이콘(K)은 상기 대상물(B) 상에 상기 이미지(E)를 어떠한 방법으로 표시할 것인지에 대해 사용자가 선택할 수 있는 입력창이 될 수 있다.
여기서, 사용자가 복수의 아이콘(K) 중 적어도 어느 하나의 아이콘을 터치 및/또는 선택하는 경우 상기 입력정보가 생성되고 상기 이동 단말기(P)는 상기 입력정보를 상기 증강현실제공 서버(10)로 전달할 수 있다.
여기서, 일례로, 상기 증강현실정보 제공 방법은 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 수신한 상기 입력정보와 대응되는 대응증강현실정보를 상기 이동 단말기(P)로 송신하는 대응증강현실정보 송신단계를 더 포함할 수 있다.
이를 보다 자세히 설명하자면, 일례로, 상기 증강현실제공 서버(10)가 상기 이동 단말기(P)로부터 상기 입력정보를 전달받는 경우, 상기 증강현실제공 서버(10)는 상기 입력정보와 대응되는 상기 대응증강현실정보를 상기 이동 단말기(P)로 송신할 수 있다.
일례로, 상기 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 입력정보와 대응되는 표시방법으로 상기 이미지(E)가 그려지는 정보일 수 있다.
일례로, 상기 이동 단말기(P)는 상기 증강현실제공 서버(10)로부터 전달받은 상기 대응증강현실정보를 사용자에게 표시할 수 있다.
이하에서는, 상기 입력정보 및 상기 대응증강현실정보의 실시예를 더욱 자세히 설명하겠다.
일례로, 상기 입력정보는 상기 이동 단말기(P)에서 상기 대상물(B) 상에 상기 이미지(E)가 상기 작업순서로 표시되도록 하는 정보를 포함할 수 있으며, 이 때, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)가 상기 작업순서로 그려지는 정보를 포함할 수 있다.
이를 보다 자세히 설명하자면, 도 19에 도시된 바와 같이, 상기 증강현실정보 송신단계에 의해, 상기 이동 단말기(P)에 상기 대상물(B)에 벽화가 그려지지 않은 상기 증강현실정보(A5)가 표시되는 상태에서, 사용자가 상기 이미지(E)가 상기 대상물(B) 상에 상기 작업순서로 표시되도록 하는 제1 아이콘(K1)을 터치하여 상기 입력정보를 생성하는 경우, 상기 입력정보 수신단계 및 상기 대응증강현실정보 송신단계에 의해 상기 증강현실제공 서버(10)는 상기 입력정보와 대응되는 상기 대응증강현실정보를 상기 이동 단말기(P)로 송신할 수 있다.
도 20은 상기 이동 단말기(P) 상에서 상기 이미지(E)가 상기 입력정보와 대응하여 상기 대상물(B) 상에 상기 작업순서로 즉, 위에서 아래로 그려지는 상기 대응증강현실정보의 예를 도시한 것이다.
도 20(a)에서 도 20(b), 도 20(b)에서 도 20(c), 도 20(c)에서 도 20(d)로 갈수록, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)가 상기 작업순서로 순차적으로 그려지는 정보를 포함하고 있다.
일례로, 사용자는 상기 이동 단말기(P)에 표시되는 아이콘(K) 중 제2 아이콘(K2)을 터치하여 상기 이미지(E)가 상기 대상물(B)에 그려지는 순서의 반대의 순서로 상기 이미지(E)가 상기 대상물(B)에 지워지도록 상기 입력정보를 생성할 수도 있다.
또한, 일례로, 사용자는 상기 이동 단말기(P)에 표시되는 아이콘(K) 중 제3 아이콘(K3)을 터치하여 상기 이미지(E)가 상기 대상물(B)에 그려지는 상기 대응증강현실정보의 플레이를 정지시킬 수도 있다.
또한, 일례로, 사용자는 상기 이동 단말기(P)에 표시되는 아이콘(K) 중 제7 아이콘(K)을 조작하여 상기 이미지(E)가 상기 대상물(B)에 그려지는 정도를 조정할 수도 있다.
일례로, 상기 입력정보는 상기 이동 단말기(P)에서 사용자의 터치 방향에 대한 정보를 포함할 수 있으며, 이 때, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)가 상기 터치 방향으로 그려지는 정보를 포함할 수 있다.
이를 보다 자세히 설명하자면, 도 19에 도시된 바와 같이, 상기 증강현실정보 송신단계에 의해, 상기 이동 단말기(P)에 상기 대상물(B)에 벽화가 그려지지 않은 상기 증강현실정보(A5)가 표시되는 상태에서, 사용자가 상기 이미지(E)가 상기 대상물(B) 상에 터치 방향으로 표시되도록 하는 제4 아이콘(K4)을 터치하고, 상기 이동 단말기(P)를 소정의 방향으로 연속적으로 터치하여 상기 입력정보를 생성하는 경우, 상기 입력정보 수신단계 및 상기 대응증강현실정보 송신단계에 의해 상기 증강현실제공 서버(10)는 상기 입력정보와 대응되는 상기 대응증강현실정보를 상기 이동 단말기(P)로 송신할 수 있다.
도 21은 상기 이동 단말기(P) 상에서 상기 이미지(E)가 상기 입력정보와 대응하여 상기 대상물(B) 상에 상기 터치 방향으로 그려지는 상기 대응증강현실정보의 예를 도시한 것이다.
일례로, 사용자가 상기 이동 단말기(P)의 왼쪽으로부터 오른쪽으로 터치하는 경우, 도 21(a)에서 도 21(b), 도 21(b)에서 도 21(c), 도 21(c)에서 도 21(d)로 갈수록, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)가 상기 터치 방향으로 순차적으로 그려지는 정보를 포함하고 있다.
도면에는 도시하지 않았으나, 만약, 사용자가 상기 이동 단말기(P)를 오른쪽에서 왼쪽으로 터치하는 경우, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)가 오른쪽에서 왼쪽으로 순차적으로 그려지는 정보를 포함할 수 있다.
또한, 사용자는 아래에서 위로, 위에서 아래로, 대각방향으로 상기 이동 단말기(P)를 터치할 수 있으며, 상기 대응증강현실정보는 이러한 상기 입력정보와 대응되는 터치 방향으로 상기 이미지(E)가 상기 대상물(B) 상에 그려지는 정보를 포함할 수 있다.
일례로, 상기 입력정보는 상기 이동 단말기(P)에서 사용자의 터치 지점에 대한 정보를 포함할 수 있으며, 이 때, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)가 상기 터치 지점과 대응되는 소정의 영역이 그려지는 정보를 포함할 수 있다.
이를 보다 자세히 설명하자면, 도 19에 도시된 바와 같이, 상기 증강현실정보 송신단계에 의해, 상기 이동 단말기(P)에 상기 대상물(B)에 벽화가 그려지지 않은 상기 증강현실정보(A5)가 표시되는 상태에서, 사용자가 상기 이미지(E)가 상기 대상물(B) 상에 터치 지점과 대응되는 지점에 소정의 면적을 가지는 영역으로 표시되도록 하는 제5 아이콘(K5)을 터치하고, 상기 이동 단말기(P)의 소정의 지점에 터치하여 상기 입력정보를 생성하는 경우, 상기 입력정보 수신단계 및 상기 대응증강현실정보 송신단계에 의해 상기 증강현실제공 서버(10)는 상기 입력정보와 대응되는 상기 대응증강현실정보를 상기 이동 단말기(P)로 송신할 수 있다.
도 22는 상기 이동 단말기(P) 상에서 상기 이미지(E)가 상기 입력정보와 대응하여 상기 대상물(B) 상에 상기 터치 지점과 대응되는 소정의 영역에 대해 그려지는 상기 대응증강현실정보의 예를 도시한 것이다.
일례로, 도 22(a)에 도시된 바와 같이, 사용자가 상기 이동 단말기(P)의 왼쪽 상측을 터치하는 경우, 상기 대응증강현실정보는 상기 터치 지점을 기준으로 소정의 면적을 가지는 영역 내에 상기 터치 지점과 대응되는 상기 이미지(E) 중 일부가 그려지는 정보를 가질 수 있다.
이 상태에서, 도 22(b)에 도시된 바와 같이, 사용자가 상기 이동 단말기(P)의 왼쪽 하측을 터치하는 경우, 상기 대응증강현실정보는 상기 터치 지점을 기준으로 소정의 면적을 가지는 영역 내에 상기 터치 지점과 대응되는 상기 이미지(E) 중 일부가 더 그려지는 정보를 가질 수 있다.
나아가, 도 22(c) 및 도 22(d)에 도시된 바와 같이, 사용자가 상기 이동 단말기(P)의 다른 부분을 터치하는 경우, 상기 대응증강현실정보는 상기 터치 지점을 기준으로 소정의 면적을 가지는 영역 내에 상기 터치 지점과 대응되는 상기 이미지(E) 중 나머지 일부가 더 그려지는 정보를 가질 수 있다.
또한, 일례로, 상기 입력정보는 상기 이동 단말기(P)에서 상기 대상물(B) 상에 상기 이미지(E)가 상기 작업순서로 표시되도록 하는 정보 및 상기 이동 단말기(P)에서 사용자의 터치 지점에 대한 정보를 포함할 수 있으며, 이 때, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)의 일 부분이 상기 작업순서로 그려지는 정보 및 상기 이미지(E)의 다른 일 부분 중 상기 터치 지점과 대응되는 영역이 그려지는 정보를 포함할 수 있다.
이를 보다 자세히 설명하자면, 도 19에 도시된 바와 같이, 상기 증강현실정보 송신단계에 의해, 상기 이동 단말기(P)에 상기 대상물(B)에 벽화가 그려지지 않은 상기 증강현실정보(A5)가 표시되는 상태에서, 사용자가 상기 제1 아이콘(K1)을 터치하여 상기 입력정보를 생성하는 경우, 상기 입력정보 수신단계 및 상기 대응증강현실정보 송신단계에 의해 상기 증강현실제공 서버(10)는 상기 입력정보와 대응되는 상기 대응증강현실정보를 상기 이동 단말기(P)로 송신할 수 있다.
그 결과, 도 23(a) 및 도 23(b)에 도시된 바와 같이, 상기 대응증강현실정보는 상기 이미지(E)가 상기 작업순서와 대응되도록 상기 대상물(B) 상에 그려질 수 있다.
여기서, 도 23(b)의 상태에서, 사용자가 상기 제5 아이콘(K5)을 터치하는 경우 상기 대상물(B) 상에 상기 작업순서로 그려지는 상기 이미지(E)가 더 이상 상기 작업순서로 그려지지 않고 정지될 수 있다.
여기서, 도 23(c)에 도시된 바와 같이, 사용자가 상기 이동 단말기(P)의 오른쪽 하측을 터치하는 경우, 상기 대응증강현실정보는 상기 터치 지점을 기준으로 소정의 면적을 가지는 영역 내에 상기 터치 지점과 대응되는 상기 이미지(E) 중 일부가 더 그려지는 정보를 가질 수 있다.
또한, 도 24(d)에 도시된 바와 같이, 사용자가 상기 이동 단말기(P)의 왼쪽 하측을 터치하는 경우, 상기 대응증강현실정보는 상기 터치 지점을 기준으로 소정의 면적을 가지는 영역 내에 상기 터치 지점과 대응되는 상기 이미지(E) 중 일부가 더 그려지는 정보를 가질 수 있다.
즉, 사용자는 상기 제1 아이콘(K1) 및 상기 제5 아이콘(K5)을 터치하여 중복적인 상기 입력정보를 생성할 수 있으며, 상기 대응증강현실정보는 상기 중복적인 상기 입력정보와 대응되는 정보를 포함할 수 있다.
도면에는 도시하지 않았으나, 사용자는 복수의 상기 아이콘(K) 중 적어도 2개 이상을 터치하여 중복적인 상기 입력정보를 생성할 수 있으며, 상기 대응증강현실정보는 중복적인 상기 입력정보와 대응되는 정보를 포함할 수 있다.
또한, 일례로, 상기 입력정보는 상기 이미지(E)와 다른 이미지인 추가 이미지(M)의 표시방법에 대한 정보를 더 포함할 수 있으며, 이 때, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 추가 이미지(M)가 그려지는 정보를 포함할 수 있다.
이를 보다 자세히 설명하자면, 도 19에 도시된 바와 같이, 상기 증강현실정보 송신단계에 의해, 상기 이동 단말기(P)에 상기 대상물(B)에 벽화가 그려지지 않은 상기 증강현실정보(A5)가 표시되는 상태에서, 사용자가 상기 추가 이미지(M)를 입력할 수 있도록 하는 제6 아이콘(K6)을 터치하는 경우, 상기 이동 단말기(P)에는 도 24(a)에 도시된 바와 같이, 상기 추가 이미지(M)를 입력 또는 선택할 수 있는 창이 표시될 수 있다. 여기서, 만약 사용자가 '♡'를 선택하는 경우 도 24(b)와 같이 상기 대상물(B) 상에 상기 이미지(E)가 표시된 화면이 표시될 수 있으며, 이 상태에서 사용자는 '♡'를 상기 대상물(B) 상에 어느 위치에 표시할지 선택할 수 있다. 이러한 터치로 인해 상기 추가 이미지(M) 및 상기 추가 이미지(M)의 표시위치에 대한 상기 입력정보가 생성될 수 있으며, 상기 입력정보 수신단계 및 상기 대응증강현실정보 송신단계에 의해 상기 증강현실제공 서버(10)는 상기 입력정보와 대응되는 상기 대응증강현실정보를 상기 이동 단말기(P)로 송신할 수 있다.
그 결과, 도 24(c)에 도시된 바와 같이, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)뿐만 아니라 상기 추가 이미지(M)가 그려지는 정보를 포함할 수 있다.
도 24(c)에 도시된 바와 같이, 상기 입력정보는 상기 이동 단말기(P)에서 상기 대상물(B) 상에 상기 이미지(E)와 상기 추가 이미지(M)간의 표시방법에 대한 정보를 더 포함할 수 있으며, 상기 대응증강현실정보는 상기 대상물(B) 상에 상기 이미지(E)의 일 부분이 그려지는 정보 및 상기 추가 이미지(M)가 그려지는 정보를 포함할 수 있다.
또한, 도면에는 도시되지 않았으나, 상기 이미지(E)와 상기 추가 이미지(M)에 대해서도, 사용자가 앞서 설명한 복수의 상기 아이콘(K) 중 적어도 2개 이상을 터치하여 중복적인 상기 입력정보를 생성할 수 있으며, 상기 대응증강현실정보는 상기 이미지(E)와 상기 추가 이미지(M)에 대한 중복적인 상기 입력정보와 대응되는 정보를 포함할 수 있다.
이하에서는 도 25 및 도 26을 참조하여, 상기 증강현실정보 제공 방법을 구현하는 상기 증강현실제공 서버(10) 및 상기 증강현실정보가 제공되는 상기 이동 단말기(P)를 자세히 설명하겠다.
도 25에 도시된 바와 같이, 일례로, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)로부터 소정의 정보를 전달받는 수신부(400), 상기 수신부(400)에 의해 전달받은 소정의 정보를 기초로 하여 증강현실정보와 관련된 데이터를 처리, 연산, 선택, 판단 및/또는 제어하는 제어부(200), 증강현실정보와 관련된 소정의 정보를 상기 이동 단말기(P)로 전달하는 송신부(100) 및 증강현실정보 제공 방법을 구현하기 위해 필요한 데이터 및/또는 정보를 저장하는 메모리부(500)를 포함할 수 있다.
도 26에 도시된 바와 같이, 일례로, 상기 이동 단말기(P)는 증강현실정보의 구현과 관련된 소정의 정보 및/또는 데이터가 사용자의 터치 등에 의해 입력될 수 있는 단말기 입력부(P10), 상기 이동 단말기(P)가 위치하는 정보를 생성하는 단말기 위치생성부(P20), 상기 증강현실제공 서버(10)와 소정의 정보 및/또는 데이터를 전달받거나 전달하는 단말기 통신부(P40), 증강현실정보와 관련된 소정의 정보 및/또는 데이터를 촬영할 수 있는 단말기 촬영부(P50), 증강현실정보와 관련된 정보 및/또는 데이터를 사용자에게 표시하는 단말기 디스플레이부(P30) 및 상기 이동 단말기(P)를 구성하는 구성요소를 제어하거나, 증강현실정보를 제공받기 위해 필요한 정보 및/또는 데이터를 처리, 연산, 선택 및/또는 판단할 수 있는 단말기 제어부(P60)를 포함할 수 있다.
일례로, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)가 상기 대상물(B)을 촬영하여 생성된 상기 촬영정보(L)를 상기 이동 단말기(P)로부터 전달받는 수신부(400)를 포함할 수 있다.
상기 이동 단말기(P)는 도 2에 도시된 바와 같이, 상기 단말기 촬영부(P50)를 통해 상기 촬영정보(L)를 생성할 수 있으며, 상기 촬영정보(L)를 상기 단말기 통신부(P40)를 통해 상기 수신부(400)로 전달할 수 있다.
여기서, 상기 증강현실제공 서버(10)는 상기 이동 단말기(P)로부터 수신한 상기 촬영정보(L)와 대응되는 상기 증강현실정보를 선택하는 제어부(200)를 포함할 수 있다.
앞서 설명한 바와 같이, 상기 제어부(200)는 상기 이동 단말기(P)로부터 전달받은 상기 촬영정보(L)와 상기 메모리부(500)에 기 입력된 복수의 촬영정보(L) 중 어느 하나와 대응되는 경우 상기 메모리부(500)에 기 입력된 복수의 증강현실정보 중 대응되는 상기 증강현실정보를 선택할 수 있다.
여기서, 선택의 의미는 기 입력된 프로그램에 의해 기 입력된 복수의 증강현실정보 중 어느 하나가 자동으로 산출되는 의미를 포함할 수 있다.
여기서, 상기 증강현실제공 서버(10)는 상기 증강현실정보를 상기 이동 단말기(P)로 전달하는 송신부(100)를 포함할 수 있다.
상기 송신부(100)를 통해 상기 증강현실정보를 전달받은 상기 이동 단말기(P)는 상기 단말기 디스플레이를 통해 상기 증강현실정보를 사용자에게 표시할 수 있다.
여기서, 상기 수신부(400)는 상기 이동 단말기(P)가 사용자로부터 입력 받아 생성된 상기 입력정보를 상기 이동 단말기(P)로부터 전달받을 수 있다.
또한, 상기 제어부(200)는 상기 이동 단말기(P)로부터 수신한 상기 입력정보와 대응되는 상기 대응증강현실정보를 생성할 수 있으며, 상기 수신부(400)는 상기 대응증강현실정보를 상기 이동 단말기(P)로 전달할 수 있다.
상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.

Claims (12)

  1. 제1 이동 단말기 및 제2 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 증강현실제공 서버가 상기 제1 이동 단말기 및 상기 제2 이동 단말기로부터 전달받는 촬영정보 수신단계;
    상기 증강현실제공 서버가 상기 제1 이동 단말기 및 상기 제2 이동 단말기로부터 수신한 상기 촬영정보와 대응되는 제1 증강현실정보를 선택하여 상기 제1 이동 단말기 및 상기 제2 이동 단말기로 송신하는 제1 증강현실정보 송신단계;
    - 상기 제1 이동 단말기 및 상기 제2 이동 단말기는,
    상기 증강현실제공 서버로부터 수신한 상기 제1 증강현실정보를 사용자에게 표시할 수 있음 -
    상기 제1 이동 단말기가 사용자로부터 소정의 정보를 입력 받아 생성된 입력정보를 상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 전달받는 입력정보 수신단계; 및
    상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 수신한 상기 입력정보를 포함하는 제2 증강현실정보를 상기 제1 이동 단말기로 송신하는 제2 증강현실정보 송신단계;
    - 상기 제1 이동 단말기는,
    상기 증강현실제공 서버로부터 수신한 상기 제2 증강현실정보를 사용자에게 표시할 수 있음 -
    를 포함하며,
    상기 입력정보 수신단계는,
    상기 제1 이동 단말기가 사용자로부터 상기 입력정보의 표시에 대한 조건 정보를 입력 받아 생성된 표시조건정보를 상기 증강현실제공 서버가 상기 제1 이동 단말기로부터 전달받는 표시조건정보 수신단계를 더 포함하며,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시에 대한 정보인,
    증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법.
  2. 제1항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보가 표시될 지 여부에 대한 정보이며,
    상기 제2 증강현실정보 송신단계는,
    상기 표시조건정보가 상기 입력정보를 상기 제2 이동 단말기로 표시하는 것을 허여하는 조건인 경우, 상기 증강현실제공 서버가 상기 제2 증강현실정보를 상기 제2 이동 단말기로 송신하고,
    상기 표시조건정보가 상기 입력정보를 상기 제2 이동 단말기로 표시하는 것을 허여하지 않는 조건인 경우, 상기 증강현실제공 서버가 상기 제2 증강현실정보를 상기 제2 이동 단말기로 송신하지 않는,
    증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법.
  3. 제1항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시 위치에 대한 정보인,
    증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법.
  4. 제1항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시 순서에 대한 정보인,
    증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법.
  5. 제1항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시 기간에 대한 정보인,
    증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법.
  6. 제1항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시 시작 시점에 대한 정보인,
    증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법.
  7. 제1 이동 단말기 및 제2 이동 단말기가 대상물을 촬영하여 생성된 촬영정보를 제1 이동 단말기 및 제2 이동 단말기로부터 전달받는 수신부;
    복수의 증강현실정보 중 상기 수신부로부터 획득된 상기 촬영정보와 대응되는 제1 증강현실정보를 선택하는 제어부; 및
    상기 제1 증강현실정보를 상기 제1 이동 단말기 및 상기 제2 이동 단말기로 전달하는 송신부;를 포함하며,
    상기 수신부는,
    상기 제1 이동 단말기로부터 소정의 입력정보를 전달받고,
    상기 제어부는,
    상기 입력정보를 포함하는 제2 증강현실정보를 생성하며,
    상기 송신부는,
    상기 제1 이동 단말기로 상기 제2 증강현실정보를 송신하며,
    상기 수신부는,
    상기 제1 이동 단말기로부터 소정의 표시조건정보를 전달받고,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시에 대한 정보인,
    증강현실제공 서버.
  8. 제7항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보를 표시할 지 여부에 대한 정보이며,
    상기 제어부는,
    상기 표시조건정보가 상기 입력정보를 상기 제2 이동 단말기로 표시하는 것을 허여하는 조건인 경우, 상기 송신부를 통해 상기 제2 증강현실정보를 상기 제2 이동 단말기로 송신하고,
    상기 표시조건정보가 상기 입력정보를 상기 제2 이동 단말기로 표시하는 것을 허여하지 않는 조건인 경우, 상기 송신부를 통해 상기 제2 증강현실정보를 상기 제2 이동 단말기로 송신하지 않는,
    증강현실제공 서버.
  9. 제7항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시 위치에 대한 정보인,
    증강현실제공 서버.
  10. 제7항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시 순서에 대한 정보인,
    증강현실제공 서버.
  11. 제7항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시 기간에 대한 정보인,
    증강현실제공 서버.
  12. 제7항에 있어서,
    상기 표시조건정보는,
    상기 제2 이동 단말기에서 상기 입력정보의 표시 시작 시점에 대한 정보인,
    증강현실제공 서버.
PCT/KR2019/005606 2018-10-26 2019-05-10 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버 WO2020085595A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
SG11201905437TA SG11201905437TA (en) 2018-10-26 2019-05-10 Augmented reality provision server, and method of augmented reality provision server providing augmented reality information to mobile terminal
US16/471,072 US11449128B2 (en) 2018-10-26 2019-05-10 Augmented reality provision server, and method of augmented reality provision server providing augmented reality information to mobile terminal

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2018-0128706 2018-10-26
KR10-2018-0128705 2018-10-26
KR1020180128706A KR101993326B1 (ko) 2018-10-26 2018-10-26 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버
KR1020180128705A KR102020376B1 (ko) 2018-10-26 2018-10-26 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버

Publications (1)

Publication Number Publication Date
WO2020085595A1 true WO2020085595A1 (ko) 2020-04-30

Family

ID=70331091

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/005606 WO2020085595A1 (ko) 2018-10-26 2019-05-10 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버

Country Status (3)

Country Link
US (1) US11449128B2 (ko)
SG (1) SG11201905437TA (ko)
WO (1) WO2020085595A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100114819A (ko) * 2009-04-16 2010-10-26 한국전자통신연구원 모바일 환경에서의 증강 현실 구현 방법 및 이를 위한 장치
KR20110012524A (ko) * 2009-07-30 2011-02-09 에스케이 텔레콤주식회사 사용자 선택 지역에 의한 증강 현실을 제공하는 방법과 그를 위한 서버 및 휴대용 단말기
KR20120074669A (ko) * 2010-12-28 2012-07-06 주식회사 팬택 증강 현실 제공 단말기
KR101292083B1 (ko) * 2011-03-29 2013-08-01 주식회사 소프트맥스 증강 현실 환경에서의 위치기반 광고방법 및 그 장치
US20160163107A1 (en) * 2014-12-09 2016-06-09 Industrial Technology Research Institute Augmented Reality Method and System, and User Mobile Device Applicable Thereto

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130012242A (ko) 2011-07-06 2013-02-01 정문영 증강 현실에서 이동하는 상품 객체의 획득을 이용하는 상품 마케팅 시스템 및 상품 마케팅 방법
KR101773885B1 (ko) * 2016-10-19 2017-09-01 (주)잼투고 이미지 인증을 이용한 증강현실 객체 제공 방법 및 제공 서버
US10713489B2 (en) * 2017-10-24 2020-07-14 Microsoft Technology Licensing, Llc Augmented reality for identification and grouping of entities in social networks
US10504288B2 (en) * 2018-04-17 2019-12-10 Patrick Piemonte & Ryan Staake Systems and methods for shared creation of augmented reality
US20200066046A1 (en) * 2018-08-24 2020-02-27 Facebook, Inc. Sharing and Presentation of Content Within Augmented-Reality Environments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100114819A (ko) * 2009-04-16 2010-10-26 한국전자통신연구원 모바일 환경에서의 증강 현실 구현 방법 및 이를 위한 장치
KR20110012524A (ko) * 2009-07-30 2011-02-09 에스케이 텔레콤주식회사 사용자 선택 지역에 의한 증강 현실을 제공하는 방법과 그를 위한 서버 및 휴대용 단말기
KR20120074669A (ko) * 2010-12-28 2012-07-06 주식회사 팬택 증강 현실 제공 단말기
KR101292083B1 (ko) * 2011-03-29 2013-08-01 주식회사 소프트맥스 증강 현실 환경에서의 위치기반 광고방법 및 그 장치
US20160163107A1 (en) * 2014-12-09 2016-06-09 Industrial Technology Research Institute Augmented Reality Method and System, and User Mobile Device Applicable Thereto

Also Published As

Publication number Publication date
US20210341990A1 (en) 2021-11-04
SG11201905437TA (en) 2020-05-28
US11449128B2 (en) 2022-09-20

Similar Documents

Publication Publication Date Title
WO2019168383A1 (en) Electronic device
WO2014157908A1 (en) Device and method for displaying execution result of application
WO2019168380A1 (en) Electronic device
WO2016017945A1 (en) Mobile device and method of pairing the same with electronic device
WO2016018004A1 (en) Method, apparatus, and system for providing translated content
WO2013022218A2 (en) Electronic apparatus and method for providing user interface thereof
WO2017003007A1 (ko) 영상표시장치 및 이동 단말기
WO2013022223A2 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2013022222A2 (en) Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
WO2016089009A1 (en) Method and cloud server for managing device
WO2013022221A2 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2015030411A1 (en) Mobile terminal and method of controlling the same
WO2013069936A1 (en) Electronic apparatus and method for controlling thereof
EP3427471A1 (en) Apparatus and method for controlling auto focus of camera module
WO2015102469A1 (ko) 제어 장치 및 그 제어 방법
WO2016056737A1 (en) Display device and method for controlling the same
WO2017111321A1 (ko) 영상표시장치
WO2017010651A1 (ko) 디스플레이 시스템
WO2015093665A1 (ko) 전자기기 및 전자기기의 제어방법
WO2018088667A1 (en) Display device
WO2018070669A1 (ko) 다국어 지원 객실용 서비스요청장치를 이용한 서비스요청 시스템 및 서비스요청방법
WO2019066133A1 (ko) 혼합 현실에서의 가상 모바일 단말 구현 시스템 및 이의 제어 방법
WO2014171572A1 (ko) 쇼핑정보 제공방법 및 사용자 인터페이스
WO2016182124A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2019225979A1 (en) Camera and terminal including the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19876895

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 17/06/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19876895

Country of ref document: EP

Kind code of ref document: A1