WO2020115084A1 - Object-based method and system for collaborative problem solving - Google Patents

Object-based method and system for collaborative problem solving Download PDF

Info

Publication number
WO2020115084A1
WO2020115084A1 PCT/EP2019/083565 EP2019083565W WO2020115084A1 WO 2020115084 A1 WO2020115084 A1 WO 2020115084A1 EP 2019083565 W EP2019083565 W EP 2019083565W WO 2020115084 A1 WO2020115084 A1 WO 2020115084A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
projection zone
projection
recording
user
Prior art date
Application number
PCT/EP2019/083565
Other languages
German (de)
French (fr)
Inventor
Andera Gadeib
Volker GADEIB
Original Assignee
Smartmunk Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smartmunk Gmbh filed Critical Smartmunk Gmbh
Priority to EP19812794.6A priority Critical patent/EP3891719A1/en
Publication of WO2020115084A1 publication Critical patent/WO2020115084A1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/04Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes of buildings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/06Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes for surveying; for geography, e.g. relief models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/08Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes of scenic effects, e.g. trees, rocks, water surfaces

Definitions

  • the present invention relates to an object-based method and system for collaborative solution finding, with which user data are generated and processed and the result is visualized.
  • WO 2014/070120 describes an “augmented reality” method with which several people can simultaneously and individually examine an object.
  • an arrangement consisting of a mobile recording device (121), which is also a display (300), and a coded surface (500) on which a physical object (501) can be located or on which a virtual object is displayed becomes.
  • the recording device (a camera) and the display are arranged separately from one another.
  • the ratio of the coded surface, which is located in the recording area of the camera, to the total area is advantageously 0.01.
  • the coded surface can also have a multiplicity of differently coded segments, ie a type of grid.
  • Disadvantage of the aforementioned system is that by using Lego blocks that are specifically coded, only buildings can be replicated, so that the solution is essentially limited to how high the buildings should be, what is housed in them ( Restaurant, apartment, factory or university) and how this changes the density of traffic and / or population, and whether this development can create an innovative environment.
  • the system is fixed to the square / rectangular shapes and can only partially depict differently shaped elements such as Trees, lakes, diagonal streets, as is common in many European cities.
  • the inventors have now found a computer-based system or device and a computer-implemented method that allows a lot more degrees of freedom for the question and thus finding solutions than the known systems and methods, so that it can be used more widely.
  • the known systems is also only in relation worked on surfaces, ie in the x, y coordinate system, while with the present system the z coordinate, ie 3-dimensional, is also recorded.
  • the acceptance of the users is very large.
  • anyone can be a user.
  • the system can also be used by laypersons and experts without any technical training, technical skill or spatial imagination. Therefore, when using the invention, there is a high level of participation in solution finding processes with valid and representative solution results for e.g. a city worth living in.
  • the solution is based on broader data, since technology-skeptical or technology-inexperienced target groups are also involved, so that the results as a whole are more meaningful and reliable.
  • the system according to the invention is also suitable for simulating the effects of user actions on the content of the projection zone.
  • the high level of user acceptance is due in particular to the use of physically tangible, non-digital objects which are positioned and arranged on an area onto which content / information is projected or which are introduced into a virtual environment. As well as the directly available system-generated feedback to the user or users. Immediately after setting and / or moving the object or objects, the users see the result of their user action through the intelligent adaptation of the information and content visible in the projection zone and on the display unit.
  • the invention therefore relates to a device or system as defined in the claims and the method described therein.
  • the invention relates in particular in a [embodiment A] to a computer-aided method for collaborative solution finding, comprising the following steps: i) recording the position of one or more intelligent objects within the projection zone and / or recording the change in his or her position via one certain period of time by a recording unit; ii) recording the position of the projection zone in relation to the intelligent object; iii) processing the received information in the processor; and iv) decoding the data and controlling the information shown on the display unit and / or projection surface, the decoding of the intelligent objects taking place without the aid of a code plan, since the objects are assigned to the objects on the software side and the contents displayed on the projection zone without the aid of a code plan or fixed grid can be read.
  • the invention relates to the method as in [embodiment B].
  • the software-side attributes comprising the following parameters: a numerically unique identifier of each intelligent object, the textual description of each intelligent object, the color of the intelligent object, the textual description of the surface structure of the intelligent object, the textual description of the form of the intelligent object, the size of the intelligent object, the description of included actions of the intelligent object, the action of the intelligent object in the form that it adds or reduces something to a content on the projection surface, the action of the intelligent object in the form that the user marked a content on the projection surface positively or negatively.
  • the invention relates to the method as in [embodiment C].
  • the user actions with intelligent objects include the following parameters, namely the numerical unique designation of a user action with an intelligent object, the numerical unique designation of a user, the recording of time, date, time, second, millisecond, the recording of the x -Coordinate on the projection surface, the recording of the y-coordinate on the projection surface, the recording of the z-coordinate on the projection surface, the speed of the user action with an intelligent object and the direction of the user action with the intelligent object.
  • the invention relates to a system for collaborative solution finding for carrying out the method as described in [embodiment A], which is formed from a data collection unit 101, a processor 104, a control unit 312 and a display unit 109, wherein the data collection unit 101 comprises a projection zone and a recording unit 105, which records and processes the position and / or movement of any objects in the projection zone and a result for the solution finding on a Forwarding display unit 109 and possibly returning another result to the projection zone.
  • the aforementioned data collection unit 101 preferably records the position and / or movement of any objects in the projection zone, processes them and displays the contents on a display unit 109 and, if necessary, returns a further result to the projection zone.
  • the invention relates to the system as described in [embodiment D], which is characterized in that the content of the projection zone changes dynamically.
  • the invention relates to the method and the use of the system according to [embodiments D and E] for planning infrastructure and urban concepts.
  • the invention differs in particular from the known and described systems and methods in that the objects used are intelligent. I.e. the objects are recognized by the recording system and, as a result of which they are referred to below as “intelligent objects”.
  • the objects have attributes that are recognized independently by the system and without the aid of a code plan. They are identified by using self-learning algorithms. This is particularly advantageous because any objects can thus be used in the method according to the invention.
  • Realistic objects offer low-threshold access for users to collaborative solution finding. This results in a wide range of possible uses for the method and system and device according to the invention, and the acceptance of the users is thereby positively influenced.
  • optically and system-recognizable attributes are e.g. Shape of the object, color, size, surface texture, texture and haptic parameters. Attributes recognized by the system are also called software attributes. If the system does not recognize the objects, a learning process starts to recognize these objects in the future.
  • the objects are real, 3-dimensional objects and easily movable. Similar to playing pieces in a board game, they are moved in the projection zone, preferably on the projection surface.
  • Objects according to the invention are, for example, game pieces, Miniature figures, cars, drones, houses, street signs and trees. Schematic 3-dimensional objects can be used equally (eg emoticons).
  • a projection zone is understood to mean a location at which the desired scenario is shown.
  • the projection zone can be a surface (“projection surface”) or a room (“projection space”).
  • the projection surface has only x and y coordinates, while the projection space has x, y and z coordinates.
  • Maps and plans on which the objects are positioned are, for example, projected onto the projection surface according to the invention.
  • the projection surfaces are not touchscreens because the acceptance and commitment of the users is reduced by using such high-tech screens or tables.
  • LED screens and transparent surfaces on which information can be imaged by means of a projector are suitable as the projection surface.
  • This information includes, for example, maps, blueprints, city maps, floor plans and much more.
  • the content / information projected onto the projection surface can be freely selected depending on the use of the system or the device and the method. Playing fields as are known from board games or sports facilities are conceivable, as well as technical or architectural plans, plans about infrastructures, city maps and sketches.
  • the information projected on the projection surface can change, e.g. by projecting maps that contain live data. Such maps are known, for example Google Maps including current traffic forecasts or maps of a control center with the display of all buses and trains currently running in local public transport or emergency vehicles from the police and fire brigade. Projection spaces are, for example, virtual environments or holograms and all types of spatial animations.
  • a screen can also be used as the projection surface.
  • Suitable screens are known and are based on the following technology: LED “light emitting diode”, QD-LED “quantum dots displays”, OLED “organic light emitting diode”, ⁇ LET “organic light-emitting” transistor “, SED” surface conduction electron-emitter display “, FED” field emission display “, FED” Ferro liquid display ". Suitable screens can be found easily.
  • the recording unit records the position, position and / or movement of the object, i.e. the position of the object within the projection zone and, if the object is moved, also the temporal, directional change in position including acceleration.
  • the recording unit then records the position, position and / or movement of the objects in the projection zone and, if the objects are moved, also their temporal, directional changes in the positions, including accelerations.
  • the positioning and moving of one or more such objects in the projection zone can trigger a change in the content displayed on the projection surface and in the projection space and / or on the display unit . This is described as an example in FIG. 7.
  • the aim of these recordings is not the detection of the object itself or the objects as such, but rather its or their attributes, positioning (s) and relative movement (s) within the projection zone. Furthermore, the identification of the object or objects to be moved in relation to the content / information present on the projection surface and, if appropriate, its change in position (s) as a function of time.
  • Another aim of the recording can also be the collection of data with regard to the movement and, above all, the movement pattern of the users.
  • interesting are the reaction speeds, the speed during the positioning and the sequence of the positioning of different objects and their or their relative position on the projection surface.
  • Non-personalized information about a user that is suitable for classifying the same can also be collected.
  • Such information is, for example, gender, age, culture.
  • the method and the system according to the invention can also be used for collecting and collecting data on user behavior, which are then evaluated with the aid of algorithms or for training artificially intelligent systems.
  • the recording is done by the recording unit. All recording devices, in particular optical reading devices, e.g. Imaging cameras, sensors or other measuring devices, such as radar and sonar or combinations thereof. Two-dimensional charge coupled device (CCD) image sensors are used in common reading devices.
  • optical reading devices e.g. Imaging cameras, sensors or other measuring devices, such as radar and sonar or combinations thereof.
  • CCD charge coupled device
  • the recording unit is fixed over the projection zone.
  • the fixation is important in order to carry out a calibration of the system necessary for recording the information to be collected.
  • the recording unit is also positioned so that it captures the entire projection zone.
  • the method according to the invention for collaborative solution finding comprises the following steps: [0039] Recording the position of one or more intelligent objects within the
  • the decoding is the recognition of specific attributes of the intelligent objects without a code plan and independent of a grid system.
  • the data coding ie the characterization of characteristics with, for example, short descriptions of their characteristics, is documented in a code plan. In the present case, this would be the pseudonymization of objects, attributes and their characteristics.
  • the method essentially runs as follows: The user places or moves an object on the projection surface or in the projection space. The recording unit receives the object information that is sent via the processor to a decoding unit.
  • a user can move multiple objects or multiple users can move one or more objects.
  • the spatial position of the objects relative to one another is then detected, which enables a further depth of information, e.g. in relation to the metric distance or relative position of two or more objects to each other and in relation to their position in the projection zone.
  • a learning process for recognizing the object starts.
  • a self-learning algorithm with the aim of being able to identify the object further.
  • the object is known, then further information or contents of the projection zone are obtained. This information is then checked by the system (e.g. the processor) to determine whether the content is known. If this is not the case, a learning process also starts here. If the content is known, the question arises whether an interaction field has been recognized by the system. Interaction fields are specifically defined areas within the projection area in relation to the projected content and they lie in the projection zone. Interaction fields are used to send a targeted control signal with specific content to the projection zone and display unit using the intelligent objects via data transmission signal. The system's response to the positioning of an object on an interaction field can be dynamic or non-dynamic. A dynamic change is, for example, that the display language changes or other content appears on the projection surface.
  • the system e.g. the processor
  • the contents and coordinates of elements of the projection surface are stored in relation to the coordinates of the positioned and known object and further processed by a processor.
  • the control unit sends a data transmission signal to the processor, so that the coordinates of the object connected to the projection zone and the user interaction are stored. Each user interaction is stored line by line in the processor or in the information unit, so that finally the sum of all user interactions can be processed together.
  • This data can be used for other purposes, as described for example in EP 1 983 450.
  • the advantages of the system and method according to the invention lie in the fact that real objects, such as miniature figures, automobiles, drones, single-family houses, trees, etc., can be used.
  • Prior art systems use coded standard objects.
  • Eg Lego blocks which are color-coded using the four fields of a Lego block below and stand for a special object to be displayed.
  • the Lego brick coding 1x red, 1x blue, and 2x white can be used for a single-family house, for example.
  • the present method takes diverse parameters of the objects into account. For example, it recognizes the specific object of a single-family house and can then move between two similar houses, one with a pointed, one with a flat roof, or the like. differentiate. As already mentioned above, the parameters considered are e.g. Color, texture, geometry / polygons of the body, coordinates, size, haptic parameters.
  • the present system and method according to the invention recognizes different sizes of an object on a continuous scale.
  • Real (projected) substrates are also used instead of artificial, fixed grids.
  • the method according to the invention works on the projection surface and the projection zone with a continuous, stepless recording and interaction. While known systems work in a fixed grid (eg in a 4x4 Lego brick grid), in the present method any continuous surfaces are displayed on the projection surface. This can be a map of a country, district or playground. The shapes can take any shape, do not have to follow a fixed size and square shape to be recognized.
  • the present inventive method can also work with dynamic backgrounds and changes over time. What is meant by this is that the projected content on the projection surface or in the projection space can likewise represent, for example, moving cars or buses, which is taken into account in the recording and interaction with the intelligent objects for processing.
  • the system can measure in the third dimension (z-axis) and it can interact with the information displayed in the projection zone and, for example, record markings where something is to be added or removed from the underlying information (for example a map) (for example, two swings become one).
  • Another aspect of the invention consists in that, following the method according to the invention, the sum of the complete actions, which is referred to here as the “scenario” and, for example, represents the execution of the action sequences shown in FIG. 6, is visualized via an information system.
  • scenario represents the execution of the action sequences shown in FIG. 6
  • new structures and relationships can be obtained as a series of several scenarios, which means that complex issues can be presented in a reduced manner. It is conceivable to reconstruct a traffic accident on the basis of different witness statements or by going through different scenarios at major events such as escape routes or routes of the emergency services to the scene.
  • Information systems for visual display can be, for example, diagrams, heat maps, superimposed maps and results of several scenarios.
  • the visualization is usually carried out via an output unit (e.g. printer, monitor, smartphone, tablet).
  • an output unit e.g. printer, monitor, smartphone, tablet.
  • the generated information can be exported as a data record and used in other information systems.
  • FIG. 1 shows a schematic representation of the system according to the invention.
  • FIG. 2a shows a schematic representation of the user interface with intelligent objects and interaction of a user.
  • 2b shows a schematic representation of the user interface after a user has interacted.
  • 3 shows a schematic representation of the interactions in the method according to the invention, including electronic components.
  • 4 shows the parameters of the objects.
  • Figure 5 shows the parameters of user interaction.
  • FIG. 6 shows a flow diagram for the method according to the invention.
  • Fig. 7 is a top view of a possible user interface (user interface).
  • FIG. 8 shows a schematic representation of the system and the device, as described in connection with FIG. 1, in which an information system is also present for evaluation.
  • FIG. 9 shows a flowchart of the method according to the invention by means of which the user-generated data can be evaluated.
  • Fig. 1 shows an example of the system according to the invention, which has a rollable housing 102b, which is used to hold the processor 104 and the apparatus (s) for projecting 106 of 2-dimensional content, and on which the projection surface 103 is located .
  • the projection surface here is a flat, transparent plexiglass pane onto which 2-dimensional content (information) is projected from below and at the same time is the recording surface for the interventions shown in FIG.
  • the system according to the invention has a display unit 109 which is controlled by a data transmission signal 107 in order to transmit content to the display unit, as shown in FIG. 2b.
  • 2a shows an exemplary user interface (user interface) 201, formed from the projection surface 203, via which interaction with the user 210 is possible, in combination with the intelligent objects 208a, 208b, 208c.
  • the user 210 interacts with one or more intelligent objects 208a, 208b, 208c on the projection surface 203. Interactions take place in the parameters x, y and z axis (x, y, z).
  • the recording unit which is not shown here, collects the relevant information, which is then transmitted from the processor 104 to the display unit 209 by the data transmission signal 207.
  • 2b shows the user interface from FIG.
  • intelligent objects 208c and display unit 209 and the information 216 caused on the display unit by a user interaction are referred to as the user interaction 210 with an intelligent one Object 208c and, depending on the same intelligent object, the position of the object (x, y, z) on the content (ie the content depicted on the projection surface (e.g. city map)), by a processor (not shown here) content on the projection surface 215 and content for the display unit 216.
  • FIG. 3 shows an example of the method according to the invention in relation to the user interaction shown and described schematically in FIG. 2b.
  • Each user interaction 210 with the intelligent objects 308 is recorded via the recording unit 305 and transmitted to the processor 304.
  • the latter processes the transmitted information and sends information about the intelligent objects to the decoding unit 313.
  • the decoding unit 313 interacts with the information unit 311 with regard to the transmitted information that identifies the intelligent objects.
  • the processor interacts with the control unit 312, which transmits certain information to the projection surface 303 and correspondingly other information to the display unit 309.
  • the ObjectJD is a numerically unique identifier of every intelligent object.
  • the Object_Label is a textual description of every intelligent object. Color describes the color of the intelligent object. Texture is the textual description of the surface structure of the intelligent object. Geometry is the textual description of the shape of the intelligent object. Size numerically describes the size of the intelligent object. Function is the description of included actions of the intelligent object. Plus / Minus describes the action of the intelligent object in such a way that it adds or reduces something to a content on the projection surface. Positive / negative describes the action of the intelligent object in such a way that the user marks content on the projection surface positively or negatively.
  • ID is the numerical, unique designation of a user action with an intelligent object.
  • User ID is the numerical, unique designation of a user.
  • Time describes the recording of date, time with hour, minute, second, millisecond.
  • X is the recording of the x coordinate on the projection surface.
  • Y is the recording of the y coordinate on the projection surface.
  • Z is the recording of the z coordinate on the projection surface.
  • Accelerator describes the speed of user action with an intelligent object.
  • Direction describes the direction of a user action with the intelligent object.
  • the method begins with checking whether the present system is calibrated with the existing intelligent objects and the contents on the projection zone. If this is not the case, the calibration is started. With the user interaction, the system receives object information about the moving intelligent object. The method starts the decoding unit, which checks in the information unit whether the moving object is known. If it is not known, the decoding unit triggers a learning process. If the object is known, the content of the projection surface is transmitted. If the contents of the projection area are not known, a learning process is initiated. If the contents of the projection surface are known, the method checks the existence of an interaction field.
  • the method starts the control unit, which in turn sends control signals with contents for the display unit and further contents for the projection surface. After delivery of the content for the projection surface, the process begins again with the user interaction. If no interaction field is recognized, the coordinates (x, y, z) of the object are transmitted. The method checks whether there are dynamic contents of the projection surface. If this is the case, the status of the content is transmitted on the projection surface in connection with the object data. The contents of the projection surface are then transmitted and the processor started for further processing of all available data. Processing can also be carried out using methods outside the present system. It is then checked whether there is another user interaction with which the process is started again. If this is not the case, the procedure is ended.
  • FIG. 7 is a view from above of a possible user interface (user interface), ie one sees the projection surface 703 and the contents projected onto it (here a city map with traffic density display, the thickness of the lines representing the traffic volume) and the intelligent objects 708a-d in the form of traffic signs ("no passage sign").
  • the intelligent object 708b was positioned on an interaction field (here a crossroads) and symbolizes a passage barrier for motor vehicle traffic, as described on the projection surface on the top left. Which is positioned on the projection surface Object-related changes in traffic flow (marked in bold lines in the figure) are immediately visible as a simulation.
  • FIG. 8 shows a schematic illustration of the system and the device, as described in connection with FIG. 1, in which an information system for evaluation 818 is additionally present. Data is visualized on the output device 819, for example as a heat map 820 or diagram 821.
  • FIG. 9 shows a flowchart of the method according to the invention, by means of which the generated user data and user information can be evaluated.
  • the sequence shown in the flowchart follows the sequence as shown in FIG. 6. This leads to the visualized evaluation of all user interactions and their output.
  • the evaluation unit is usually a processor with which the collected data are processed.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to an object-based system for collaborative problem solving, said system being formed by a data collection unit (101), a processor (104), a control unit (312), and a display unit (109), wherein the data collection unit (101) comprises a projection zone and a detection unit (313) which records the position and/or movement of any objects in the projection zone (103), processes same, and passes on a result for the problem solving process to a display unit (109) and optionally returns an additional result to the projection area.

Description

Objektbasiertes Verfahren und System zur kollaborativen Lösungsfindung Object-based process and system for collaborative solution finding
GEBIET DER ERFINDUNG FIELD OF THE INVENTION
[0001 ] Die vorliegende Erfindung betrifft ein objektbasiertes Verfahren und System zur kollaborativen Lösungsfindung, mit dem Nutzerdaten generiert und verarbeitet werden und das Ergebnis visualisiert wird. The present invention relates to an object-based method and system for collaborative solution finding, with which user data are generated and processed and the result is visualized.
HINTERGRUND DER ERFINDUNG BACKGROUND OF THE INVENTION
[0002] Bei der Stadtentwicklung und der städtischen Lösungsfindung ist es von großer Bedeutung, die Allgemeinheit in die Lösungsfindungsprozesse einzubinden. Eine große Herausforderung dabei ist, Bürger, die oft Laien sind, so einzubinden, dass sie Vor- und Nachteile der vorgeschlagenen Lösungen nachvollziehen können, um sich eine Meinung zu bilden. Gängige Softwaresysteme, wie beispielsweise 3-D Simulationen, sind für den Laien oft unverständlich und kompliziert anzuwenden. Es kommt bei der Lösungsfindung deshalb oft zu einer niedrigen Bürgerbeteiligung und die Bürger, die sich doch beteiligen, sind oft diese, die mit der Entwicklung nicht einverstanden sind. Somit wird durch die Beteiligung oft ein verzerrtes Meinungsbild generiert. In urban development and urban solution finding, it is of great importance to involve the general public in the solution finding processes. It is a major challenge to involve citizens, who are often laypeople, so that they can understand the advantages and disadvantages of the proposed solutions in order to form an opinion. Common software systems, such as 3-D simulations, are often incomprehensible and complicated to use for the layperson. Therefore, there is often a low level of citizen participation in finding solutions, and the citizens who do participate are often those who disagree with the development. Participation often generates a distorted opinion.
[0003] Deshalb stellt sich das Problem, wie man alternative Lösungsräume darstellt, dass sie von Laien und Experten zugleich verstanden und angewendet werden, oder Lösungsräume gar mit Laien entworfen werden. Dabei soll eine möglichst heterogene Gruppe, als Querschnitt der Bevölkerung, an der Entscheidung beteiligt werden. Therefore, there is the problem of how alternative solution spaces are presented, that they are understood and used by laypersons and experts at the same time, or solution spaces are even designed with laypersons. A group that is as heterogeneous as possible, as a cross section of the population, should be involved in the decision.
[0004] Die Erfinder haben nun gefunden, dass die Lösungsfindung von Laien und auch von Experten sehr viel schneller und einfacher möglich ist, wenn der Benutzer spielerisch durch alternative Lösungsvorschläge geführt wird. Dabei ist die für den und von dem Benutzer objekthafte, greifbare Visualisierung der angedachten Lösungen von entscheidender Bedeutung. The inventors have now found that finding a solution by laypersons and also by experts is much quicker and easier if the user is guided through alternative solutions in a playful manner. The tangible visualization of the proposed solutions, which is tangible for and by the user, is of crucial importance.
[0005] WO 2014/070120 beschreibt ein „augmented reality“-Verfahren mit dem mehrere Personen gleichzeitig und individuell ein Objekt untersuchen können. Dafür wird eine Anordnung bereitgestellt, bestehend aus einem mobilen Aufnahmegerät (121 ), das gleichzeitig auch Display (300) ist, und einer kodierten Oberfläche (500), auf der sich ein physisches Objekt (501 ) befinden kann oder auf der ein virtuelles Objekt eingeblendet wird. In einer in Abbildung 3 dargestellten Variante der Vorrichtung, ist das Aufnahmegerät (eine Kamera) und das Display getrennt voneinander angeordnet. Gemäß WO 2014/070120 ist für die Lösung der darin gestellten Aufgabe von besonderer Bedeutung, dass die bewegliche Kamera nahe an die kodierte Oberfläche herangebracht werden kann. Vorteilhafterweise ist das Verhältnis von kodierter Oberfläche, die sich im Aufnahmebereich der Kamera befindet, zur Gesamtfläche 0,01 . Die kodierte Oberfläche kann auch eine Vielzahl unterschiedlich kodierter Segmente, d.h. eine Art Raster, aufweisen. [0005] WO 2014/070120 describes an “augmented reality” method with which several people can simultaneously and individually examine an object. For this purpose, an arrangement is provided, consisting of a mobile recording device (121), which is also a display (300), and a coded surface (500) on which a physical object (501) can be located or on which a virtual object is displayed becomes. In a variant of the device shown in Figure 3, the recording device (a camera) and the display are arranged separately from one another. According to WO 2014/070120, the solution provided in the Task of particular importance that the movable camera can be brought close to the encoded surface. The ratio of the coded surface, which is located in the recording area of the camera, to the total area is advantageously 0.01. The coded surface can also have a multiplicity of differently coded segments, ie a type of grid.
[0006] Weitere Systeme sind bekannt und sind im beschränkten Umfang auch im Gebrauch. Z.B. beschäftigt sich die MIT SCIENCE GROUP damit (siehe https:// www.media.mit.edu/projects/citymatrix/overview/). Sie haben ein System entwickelt, in dem Distrikte mit Legosteinen umgestaltet werden. Hierzu wird ein Raster auf einen Tisch projiziert, auf dem speziell kodierte Legosteine gesetzt werden. Die Distrikte werden von oben projiziert und sobald Änderungen vorgenommen werden, aktualisiert sich die Ausgabe auf dem Bildschirm entsprechend der Eingabe. Die verwendeten Legosteine werden dazu benutzt, Gebäude darzustellen. Jeder Legostein hat eine spezielle Kodierung und kann zum Beispiel für die Höhe des Gebäudes und seine Nutzungsweise (Gewerbe, Wohnung, etc.) stehen. Ein mit verschiedenen städtebaulichen Forschungsdaten gespeistes Computersystem beurteilt die Daten und gibt die Ergebnisse in Bezug auf Bevölkerungsdichte, Verkehr, Verschattung oder Sonnenlicht als Diagramm auf einem Bildschirm aus. Other systems are known and are also used to a limited extent. E.g. the MIT SCIENCE GROUP is concerned with this (see https: // www.media.mit.edu/projects/citymatrix/overview/). You have developed a system in which districts are transformed with Lego bricks. For this purpose, a grid is projected onto a table on which specially coded Lego blocks are placed. The districts are projected from above and as changes are made, the output on the screen updates as you type. The Lego bricks used are used to represent buildings. Each Lego brick has a special coding and can, for example, stand for the height of the building and its use (commercial, apartment, etc.). A computer system fed with various urban research data assesses the data and outputs the results in terms of population density, traffic, shading or sunlight as a diagram on a screen.
[0007] Nachteil des vorgenannten Systems ist, dass durch das Verwenden von Legosteinen, die spezifisch kodiert sind, lediglich Gebäude nachgebaut werden können, so dass die Lösungs findung im Wesentlichen darauf begrenzt ist, wie hoch die Gebäude werden sollen, was darin untergebracht ist (Restaurant, Wohnung, Fabrik oder Universität) und wie sich dadurch die Verkehrs- und/ oder Bevölkerungsdichte verändert, und ob durch diese Bebauung ein innovatives Umfeld entstehen kann. Zudem ist das System auf die quadratische/rechteckige Formen festgelegt und kann nur bedingt anders geformte Elemente abbilden wie z.B. Bäume, Seen, diagonale Straßenzüge, wie in vielen europäischen Städten üblich. Disadvantage of the aforementioned system is that by using Lego blocks that are specifically coded, only buildings can be replicated, so that the solution is essentially limited to how high the buildings should be, what is housed in them ( Restaurant, apartment, factory or university) and how this changes the density of traffic and / or population, and whether this development can create an innovative environment. In addition, the system is fixed to the square / rectangular shapes and can only partially depict differently shaped elements such as Trees, lakes, diagonal streets, as is common in many European cities.
DARSTELLUNG DER ERFINDUNG PRESENTATION OF THE INVENTION
[0008] Die Erfinder haben nun ein computerbasiertes System bzw. Vorrichtung sowie ein computerimplementiertes Verfahren gefunden, das sehr viel mehr Freiheitsgrade für die Fragestellung und somit Lösungsfindung zulässt als die bekannten Systeme und Verfahren, so dass es breiter eingesetzt werden kann. Mit den bekannten Systemen wird zudem nur in Bezug auf Flächen, d.h. im x-, y-Koordinatensystem gearbeitet, während mit dem vorliegenden System auch die z-Koordinate, d.h. 3-Dimensionales erfasst wird. The inventors have now found a computer-based system or device and a computer-implemented method that allows a lot more degrees of freedom for the question and thus finding solutions than the known systems and methods, so that it can be used more widely. With the known systems is also only in relation worked on surfaces, ie in the x, y coordinate system, while with the present system the z coordinate, ie 3-dimensional, is also recorded.
[0009] Mit dem erfindungsgemäßen System bzw. Vorrichtung und dem erfindungsgemäßen Verfahren ist die Akzeptanz der Benutzer sehr groß. Benutzer kann jeder sein. Das System kann auch ohne technische Vorbildung, technisches Geschick oder räumliche Vorstellungskraft ohne Weiteres von Laien und Experten verwendet werden. Daher kommt es bei der Verwendung der Erfindung zu einer hohen Beteiligung bei Lösungsfindungsprozessen mit validen und repräsentativen Lösungsergebnissen für z.B. eine lebenswertere Stadt. Die Lösungsfindung basiert auf breiteren Daten, da Technik-skeptische oder Technik-unerfahrene Zielgruppen gleichfalls eingebunden werden, so dass die Ergebnisse insgesamt aussagekräftiger und verlässlicher werden. Das erfindungsgemäße System eignet sich auch für Simulationen von Auswirkungen der Benutzeraktionen auf die Inhalte der Projektionszone. With the system or device according to the invention and the method according to the invention, the acceptance of the users is very large. Anyone can be a user. The system can also be used by laypersons and experts without any technical training, technical skill or spatial imagination. Therefore, when using the invention, there is a high level of participation in solution finding processes with valid and representative solution results for e.g. a city worth living in. The solution is based on broader data, since technology-skeptical or technology-inexperienced target groups are also involved, so that the results as a whole are more meaningful and reliable. The system according to the invention is also suitable for simulating the effects of user actions on the content of the projection zone.
[0010] Die hohe Nutzerakzeptanz liegt insbesondere am Einsatz der physisch greifbaren, nicht digitalen Objekte, die auf einer Fläche, auf die Inhalte/Informationen projiziert sind, positioniert und angeordnet oder in eine virtuelle Umgebung eingebracht werden. Sowie dem direkt erhältlichen systemgenerierten Feedback an den oder die Benutzer. Die Benutzer sehen sofort nach dem Setzen und/oder Bewegen des oder der Objekte das Resultat ihrer Benutzeraktion, durch die intelligente Anpassung der in der Projektionszone und auf der Anzeigeeinheit sichtbaren Informationen und Inhalte. The high level of user acceptance is due in particular to the use of physically tangible, non-digital objects which are positioned and arranged on an area onto which content / information is projected or which are introduced into a virtual environment. As well as the directly available system-generated feedback to the user or users. Immediately after setting and / or moving the object or objects, the users see the result of their user action through the intelligent adaptation of the information and content visible in the projection zone and on the display unit.
[001 1 ] Gleichfalls wird mit dem erfindungsgemäßen System die Projektplanung einfacher, da durch das visuelle Feedback sofort etwaige Nachteile bei der Planung gesehen werden. Das hat direkten Einfluss auf die Kosten und erhöht die Geschwindigkeit bei der Lösungsfindung und deshalb Umsetzung des Projekts. Likewise, with the system according to the invention, project planning becomes easier, since any disadvantages in planning are immediately seen through the visual feedback. This has a direct impact on costs and increases the speed in finding solutions and therefore implementing the project.
[0012] Die Erfindung betrifft deshalb eine Vorrichtung bzw. System wie in den Ansprüchen definiert sowie das darin beschriebene Verfahren. The invention therefore relates to a device or system as defined in the claims and the method described therein.
[0013] Die Erfindung betrifft insbesondere in einer [Ausführungsform A] ein computergestütztes Verfahren zur kollaborativen Lösungsfindung, umfassend die folgenden Schritte: i) Aufnahme der Position eines oder mehrerer intelligenter Objekte innerhalb der Projektionszone und/oder Aufnahme der Veränderung seiner oder deren Positionen über einen bestimmten Zeitraum durch eine Aufnahmeeinheit; ii) Aufnahme der Position der Projektionszone in Bezug auf das intelligente Objekt; iii) Verarbeitung der erhaltenen Information im Prozessor; und iv) Dekodierung der Daten und Steuerung der auf der Anzeigeeinheit und/oder Projektionsfläche gezeigten Informationen, wobei die Dekodierung der intelligenten Objekte ohne Zuhilfenahme eines Codeplans geschieht, da den Objekten softwareseitig Attribute zugeordnet sind und die dargestellten Inhalte auf der Projektionszone ohne Zuhilfenahme eines Codeplans oder fixierten Rasters gelesen werden. The invention relates in particular in a [embodiment A] to a computer-aided method for collaborative solution finding, comprising the following steps: i) recording the position of one or more intelligent objects within the projection zone and / or recording the change in his or her position via one certain period of time by a recording unit; ii) recording the position of the projection zone in relation to the intelligent object; iii) processing the received information in the processor; and iv) decoding the data and controlling the information shown on the display unit and / or projection surface, the decoding of the intelligent objects taking place without the aid of a code plan, since the objects are assigned to the objects on the software side and the contents displayed on the projection zone without the aid of a code plan or fixed grid can be read.
[0014] In einer [Ausführungsform B] betrifft die Erfindung das Verfahren wie in [AusführungsformIn one [embodiment B], the invention relates to the method as in [embodiment
A] beschrieben, wobei die softwareseitigen Attribute folgende Parameter umfassen: Einen numerischen eindeutigen Bezeichner eines jeden intelligenten Objektes, die textliche Beschreibung eines jeden intelligenten Objektes, die Farbe des intelligenten Objektes, die textliche Beschreibung der Oberflächenstruktur des intelligenten Objektes, die textliche Beschreibung der Form des intelligenten Objektes, die Größe des intelligenten Objektes, die Beschreibung inkludierter Aktionen des intelligenten Objektes, die Aktion des intelligenten Objektes in der Form, dass es einem Inhalt auf der Projektionsfläche etwas hinzufügt oder reduziert, die Aktion des intelligenten Objektes in der Form, dass der Benutzer einen Inhalt auf der Projektionsfläche positiv oder negativ markiert. A], the software-side attributes comprising the following parameters: a numerically unique identifier of each intelligent object, the textual description of each intelligent object, the color of the intelligent object, the textual description of the surface structure of the intelligent object, the textual description of the form of the intelligent object, the size of the intelligent object, the description of included actions of the intelligent object, the action of the intelligent object in the form that it adds or reduces something to a content on the projection surface, the action of the intelligent object in the form that the user marked a content on the projection surface positively or negatively.
[0015] In einer [Ausführungsform C] betrifft die Erfindung das Verfahren wie in [AusführungsformIn one [embodiment C], the invention relates to the method as in [embodiment
B] beschrieben, wobei die Benutzeraktionen mit intelligenten Objekten folgende Parameter beinhalten, nämlich die numerische eindeutige Bezeichnung einer Benutzeraktion mit einem intelligenten Objekt, die numerische eindeutige Bezeichnung eines Benutzers, die Aufzeichnung von Zeit, Datum, Uhrzeit, Sekunde, Millisekunde, die Aufzeichnung der x-Koordinate auf der Projektionsfläche, die Aufzeichnung der y-Koordinate auf der Projektionsfläche, die Aufzeichnung der z-Koordinate auf der Projektionsfläche, die Geschwindigkeit der Benutzeraktion mit einem intelligenten Objekt sowie die Richtung der Benutzeraktion mit dem intelligenten Objekt. B], wherein the user actions with intelligent objects include the following parameters, namely the numerical unique designation of a user action with an intelligent object, the numerical unique designation of a user, the recording of time, date, time, second, millisecond, the recording of the x -Coordinate on the projection surface, the recording of the y-coordinate on the projection surface, the recording of the z-coordinate on the projection surface, the speed of the user action with an intelligent object and the direction of the user action with the intelligent object.
[0016] In einer [Ausführungsform D] betrifft die Erfindung ein System zur kollaborativen Lösungsfindung zur Durchführung des Verfahrens wie in [Ausführungsform A] beschrieben, das aus einer Datensammeleinheit 101 , einem Prozessor 104, einer Steuereinheit 312 und einer Anzeigeeinheit 109 gebildet wird, wobei die Datensammeleinheit 101 eine Projektionszone und eine Aufnahmeeinheit 105 umfaßt, die die Position und/oder Bewegung beliebiger Objekte in der Projektionszone aufzeichnet, verarbeitet und ein Ergebnis für die Lösungsfindung auf einer Anzeigeeinheit 109 weitergibt und ggf. ein weiteres Ergebnis auf die Projektionszone zurückgibt. Bevorzugt zeichnet die vorgenannte Datensammeleinheit 101 die Position und/oder Bewegung beliebiger Objekte in der Projektionszone auf, verarbeitet diese und stellt die Inhalte auf einer Anzeigeeinheit 109 dar und ggf. gibt sie ein weiteres Ergebnis auf die Projektionszone zurück. In a [embodiment D], the invention relates to a system for collaborative solution finding for carrying out the method as described in [embodiment A], which is formed from a data collection unit 101, a processor 104, a control unit 312 and a display unit 109, wherein the data collection unit 101 comprises a projection zone and a recording unit 105, which records and processes the position and / or movement of any objects in the projection zone and a result for the solution finding on a Forwarding display unit 109 and possibly returning another result to the projection zone. The aforementioned data collection unit 101 preferably records the position and / or movement of any objects in the projection zone, processes them and displays the contents on a display unit 109 and, if necessary, returns a further result to the projection zone.
[0017] In einer [Ausführungsform E] betrifft die Erfindung das System wie in [Ausführungsform D] beschrieben, das dadurch gekennzeichnet ist, dass sich der Inhalt der Projektionszone dynamisch ändert. In an [embodiment E], the invention relates to the system as described in [embodiment D], which is characterized in that the content of the projection zone changes dynamically.
[0018] In einer [Ausführungsform F] betrifft die Erfindung das Verfahren sowie die Verwendung des Systems gemäß der [Ausführungsformen D und E] zur Planung von Infrastruktur und städtischen Konzepten. In one [embodiment F], the invention relates to the method and the use of the system according to [embodiments D and E] for planning infrastructure and urban concepts.
[0019] Die Erfindung unterscheidet sich insbesondere von den bekannten und oben beschriebenen Systemen und Verfahren dadurch, dass die verwendeten Objekte intelligent sind. D.h. die Objekte werden vom Aufnahmesystem und erkannt, wodurch sie im Nachfolgenden auch als„intelligente Objekte“ bezeichnet werden. The invention differs in particular from the known and described systems and methods in that the objects used are intelligent. I.e. the objects are recognized by the recording system and, as a result of which they are referred to below as “intelligent objects”.
[0020] Wie beschrieben, besitzen die Objekte Attribute, die vom System und ohne Zuhilfenahme eines Codeplans eigenständig erkannt werden. Deren Erkennung erfolgt durch Verwenden selbstlernender Algorithmen. Das ist besonders vorteilhaft, denn im erfindungsgemäßen Verfahren können somit beliebige Objekte eingesetzt werden. Realitätsnahe Objekte bieten einen niedrigschwelligen Zugang der Nutzer zur kollaborativen Lösungsfindung. Dadurch ergeben sich vielfältige Einsatzmöglichkeiten des erfindungsgemäßen Verfahrens und des Systems und der Vorrichtung, und die Akzeptanz der Nutzer wird dadurch positiv beeinflußt. As described, the objects have attributes that are recognized independently by the system and without the aid of a code plan. They are identified by using self-learning algorithms. This is particularly advantageous because any objects can thus be used in the method according to the invention. Realistic objects offer low-threshold access for users to collaborative solution finding. This results in a wide range of possible uses for the method and system and device according to the invention, and the acceptance of the users is thereby positively influenced.
[0021 ] Da die Objekte nicht kodiert sind, werden sie vom System anhand ihrer äußeren Gestalt und einem oder mehreren dazugehörenden optischen Attributen erkannt. Solche optisch und vom System erkennbaren Attribute sind z.B. Form des Objekts, Farbe, Größe, Oberflächenbeschaffenheit, Textur und haptische Parameter. Vom System erkannte Attribute werden hier auch softwareseitige Attribute genannt. Sollte das System die Objekte nicht erkennen, so startet ein Lernprozess um diese Objekte zukünftig zu erkennen. Since the objects are not coded, they are recognized by the system on the basis of their external shape and one or more associated optical attributes. Such optically and system-recognizable attributes are e.g. Shape of the object, color, size, surface texture, texture and haptic parameters. Attributes recognized by the system are also called software attributes. If the system does not recognize the objects, a learning process starts to recognize these objects in the future.
[0022] Die Objekte sind reale, 3-dimensionale Objekte und leicht bewegbar. Sie werden ähnlich wie Spielsteine in einem Gesellschaftsspiel in der Projektionszone, vorzugsweise auf der Projektionsfläche, bewegt. Erfindungsgemäße Objekte sind beispielsweise Spielsteine, Miniaturfiguren, Autos, Drohnen, Häuser, Straßenschilder und Bäume. Schematisch dargestellte 3-dimensionale Objekte können gleichermaßen verwendet werden (z.B. Emoticons). The objects are real, 3-dimensional objects and easily movable. Similar to playing pieces in a board game, they are moved in the projection zone, preferably on the projection surface. Objects according to the invention are, for example, game pieces, Miniature figures, cars, drones, houses, street signs and trees. Schematic 3-dimensional objects can be used equally (eg emoticons).
[0023] Unter Projektionszone wird ein Ort verstanden, an dem das gewünschte Szenario dargestellt ist. Die Projektionszone kann eine Fläche („Projektionsfläche“) oder ein Raum sein („Projektionsraum“). Die Projektionsfläche besitzt lediglich x- und y- Koordinaten, während der Projektionsraum x-, y- und z-Koordinaten aufweist. A projection zone is understood to mean a location at which the desired scenario is shown. The projection zone can be a surface (“projection surface”) or a room (“projection space”). The projection surface has only x and y coordinates, while the projection space has x, y and z coordinates.
[0024] Auf die erfindungsgemäße Projektionsfläche werden beispielsweise Karten und Pläne projiziert, auf denen die Objekte positioniert werden. Bei den Projektionsflächen handelt es sich nicht um Touchscreens, da die Akzeptanz und das Engagement der Benutzer durch den Einsatz solcher hochtechnisierten Bildschirme oder Tische reduziert wird. Maps and plans on which the objects are positioned are, for example, projected onto the projection surface according to the invention. The projection surfaces are not touchscreens because the acceptance and commitment of the users is reduced by using such high-tech screens or tables.
[0025] Als Projektionsfläche eignen sich LED-Bildschirme sowie transparente Flächen, auf die mittels eines Projektors (beispielsweise Beamer) Informationen abgebildet werden können. Diese Informationen sind beispielsweise Landkarten, Baupläne, Stadtpläne, Grundrisse und vieles mehr. Bevorzugt ist die Projektionsfläche eine Plexiglasscheibe mit aufgebrachter HD-Folie (HD=High Definition), auf die von unten mittels eines Beamers die gewünschten Inhalte / Informationen projiziert werden. LED screens and transparent surfaces on which information can be imaged by means of a projector (for example a projector) are suitable as the projection surface. This information includes, for example, maps, blueprints, city maps, floor plans and much more. The projection surface is preferably a plexiglass pane with an applied HD film (HD = High Definition), onto which the desired content / information is projected from below using a projector.
[0026] Die auf der Projektionsfläche projizierten Inhalte/ Informationen sind je nach Nutzung des Systems bzw. der Vorrichtung und des Verfahrens frei wählbar. Denkbar sind Spielfelder, wie sie von Gesellschaftsspielen oder Sportstätten bekannt sind, sowie technische oder architektonische Pläne, Pläne über Infrastrukturen, Stadtpläne und Skizzen. Die auf der Projektionsfläche projizierten Informationen können sich verändern, z.B. indem man Karten projiziert die Live-Daten enthalten. Solche Karten sind bekannt, zum Beispiel Google Maps inklusive aktueller Verkehrsvorhersage oder Karten einer Leitstelle mit der Darstellung aller aktuell fahrenden Busse und Bahnen des öffentlichen Nahverkehrs oder Einsatzfahrzeuge von Polizei und Feuerwehr. [0027] Projektionsräume sind beispielsweise virtuelle Umgebungen oder auch Hologramme und alle Arten von räumlichen Animationen. The content / information projected onto the projection surface can be freely selected depending on the use of the system or the device and the method. Playing fields as are known from board games or sports facilities are conceivable, as well as technical or architectural plans, plans about infrastructures, city maps and sketches. The information projected on the projection surface can change, e.g. by projecting maps that contain live data. Such maps are known, for example Google Maps including current traffic forecasts or maps of a control center with the display of all buses and trains currently running in local public transport or emergency vehicles from the police and fire brigade. Projection spaces are, for example, virtual environments or holograms and all types of spatial animations.
[0028] Als Projektionsfläche kann auch ein Bildschirm verwendet werden. Geeignete Bildschirme sind bekannt und basieren auf folgender Technologie: LED “light emitting diode”, QD-LED “quantum dots displays”, OLED „organic light emitting diode“, ÖLET „organic light-emitting transistor“, SED„surface conduction electron-emitter display“, FED„field emission display“, FED „Ferro liquid display“. Geeignete Bildschirme können ohne Weiteres aufgefunden werden. [0028] A screen can also be used as the projection surface. Suitable screens are known and are based on the following technology: LED “light emitting diode”, QD-LED “quantum dots displays”, OLED “organic light emitting diode”, ÖLET “organic light-emitting” transistor ", SED" surface conduction electron-emitter display ", FED" field emission display ", FED" Ferro liquid display ". Suitable screens can be found easily.
[0029] Wird das intelligente Objekt in der Projektionszone positioniert, so zeichnet die das Aufnahmeeinheit die Position, Lage und/oder Bewegung des Objekts auf, d.h. die Lage des Objekts innerhalb der Projektionszone und, sofern das Objekt bewegt wird, auch die zeitliche, gerichtete Veränderung der Position inklusive Beschleunigung. If the intelligent object is positioned in the projection zone, the recording unit records the position, position and / or movement of the object, i.e. the position of the object within the projection zone and, if the object is moved, also the temporal, directional change in position including acceleration.
[0030] Es können auch mehrere intelligente Objekte in der Projektionszone vorhanden sein und positioniert werden. Dann zeichnet die Aufnahmeeinheit die Position, Lage und/oder Bewegung der Objekte in der Projektionszone auf und, sofern die Objekte bewegt werden, auch deren zeitliche, gerichteten Veränderungen der Positionen inklusive Beschleunigungen. [0030] Several intelligent objects can also be present and positioned in the projection zone. The recording unit then records the position, position and / or movement of the objects in the projection zone and, if the objects are moved, also their temporal, directional changes in the positions, including accelerations.
[0031] Erfindungsgemäß kann das Positionieren und Bewegen eines oder mehrerer solcher Objekte in der Projektionszone, insbesondere deren räumliche Anordnung auf der Projektionsfläche und gegebenenfalls deren räumliches Verhältnis zueinander, eine Änderung der auf der Projektionsfläche und im Projektionsraum und/oder auf der Anzeigeeinheit angezeigten Inhalte auslösen. Beispielhaft ist das in Fig. 7 beschrieben. According to the invention, the positioning and moving of one or more such objects in the projection zone, in particular their spatial arrangement on the projection surface and possibly their spatial relationship to one another, can trigger a change in the content displayed on the projection surface and in the projection space and / or on the display unit . This is described as an example in FIG. 7.
[0032] Ziel dieser Aufzeichnungen ist nicht die Erfassung des Objekts selbst oder der Objekte als solche, sondern dessen oder deren Attribute, Positionierung(en) und relativen Bewegung(en) innerhalb der Projektionszone. Ferner die Identifikation des oder der zu bewegenden Objekte in Relation zu den auf der Projektionsfläche vorhandenen Inhalte /Informationen sowie ggf. dessen oder deren Lageveränderung(en) in Abhängigkeit von der Zeit. The aim of these recordings is not the detection of the object itself or the objects as such, but rather its or their attributes, positioning (s) and relative movement (s) within the projection zone. Furthermore, the identification of the object or objects to be moved in relation to the content / information present on the projection surface and, if appropriate, its change in position (s) as a function of time.
[0033] Ein weiteres Ziel der Aufzeichnung kann auch das Sammeln von Daten im Hinblick auf die Bewegung und vor allem das Bewegungsmuster der Benutzer sein. Interessant sind dabei unter anderem Reaktionsgeschwindigkeiten, Geschwindigkeit bei der Positionierung sowie Abfolge der Positionierung verschiedener Objekte und dessen oder deren relative Lage auf der Projektionsfläche. Another aim of the recording can also be the collection of data with regard to the movement and, above all, the movement pattern of the users. Among other things, interesting are the reaction speeds, the speed during the positioning and the sequence of the positioning of different objects and their or their relative position on the projection surface.
[0034] Auch können nicht-personalisierte Informationen über einen Nutzer, die sich zur Klassifikation derselben eignen, erhoben werden. Solche Informationen sind z.B. Geschlecht, Alter, Kulturkreis. [0035] Demzufolge kann das erfindungsgemäße Verfahren und das System auch zum Erheben und Sammeln von Daten von Nutzerverhalten verwendet werden, die dann mit Hilfe von Algorithmen ausgewertet werden oder für das Trainieren von künstlich intelligenten Systemen. [0034] Non-personalized information about a user that is suitable for classifying the same can also be collected. Such information is, for example, gender, age, culture. Accordingly, the method and the system according to the invention can also be used for collecting and collecting data on user behavior, which are then evaluated with the aid of algorithms or for training artificially intelligent systems.
[0036] Die Aufzeichnung erfolgt durch die Aufnahmeeinheit. Als Aufnahmeeinheiten eignen sich sämtliche Aufnahmegeräte, insbesondere optische Lesegeräte, z.B. Bildaufnahmekameras, Sensoren oder sonstige Messgeräte, wie beispielsweise Radar und Sonar oder Kombinationen davon. In gängigen Lesegeräten werden zweidimensionale Charge-Coupled-Device-(CCD)- Bildsensoren verwendet. The recording is done by the recording unit. All recording devices, in particular optical reading devices, e.g. Imaging cameras, sensors or other measuring devices, such as radar and sonar or combinations thereof. Two-dimensional charge coupled device (CCD) image sensors are used in common reading devices.
[0037] Die Aufnahmeeinheit ist über der Projektionszone fixiert. Die Fixierung ist wichtig, um eine für die Aufzeichnung der zu sammelnden Informationen notwendige Kalibrierung des Systems vorzunehmen. Die Aufnahmeeinheit ist ferner so positioniert, dass es die gesamte Projektionszone erfasst. The recording unit is fixed over the projection zone. The fixation is important in order to carry out a calibration of the system necessary for recording the information to be collected. The recording unit is also positioned so that it captures the entire projection zone.
[0038] In einer Ausführungsform umfasst das erfindungsgemäße Verfahren zur kollaborativen Lösungsfindung folgenden Schritte: [0039] Aufnahme der Position eines oder mehrerer intelligenter Objekte innerhalb der[0038] In one embodiment, the method according to the invention for collaborative solution finding comprises the following steps: [0039] Recording the position of one or more intelligent objects within the
Projektionszone und/oder der Veränderung seiner oder deren Positionen über einen bestimmten Zeitraum durch eine Aufnahmeeinheit mit anschließender Verarbeitung der erhaltenen Information im Prozessor, gefolgt von einer Dekodierung der Daten und Steuerung der auf der Anzeigeeinheit und/oder Projektionsfläche gezeigten Informationen, dadurch gekennzeichnet, dass die Dekodierung der intelligenten Objekte ohne Zuhilfenahme eines Codeplans geschieht, da den Objekten softwareseitig Attribute zugeordnet wurden. Gleiches gilt für die dargestellten Inhalte auf der Projektionszone, die ohne Zuhilfenahme eines Codeplans oder fixierten Rasters gelesen werden. Projection zone and / or the change of his or her positions over a certain period of time by a recording unit with subsequent processing of the information received in the processor, followed by decoding the data and controlling the information shown on the display unit and / or projection surface, characterized in that the The intelligent objects are decoded without the aid of a code plan because the objects have been assigned attributes by the software. The same applies to the displayed content on the projection zone, which is read without the aid of a code plan or a fixed grid.
[0040] Das Dekodieren ist das Erkennen von spezifischen Attributen der intelligenten Objekte ohne Codeplan und unabhängig von einem Rastersystem. In einem Codeplan wird die Datencodierung, d.h. die Charakterisierung von Merkmalen mit z.B. Kurzbezeichnungen ihrer Ausprägung dokumentiert. Vorliegend wäre das die Pseudonymisierung von Objekten, Attributen und ihrer Ausprägungen. [0041] Im Wesentlichen läuft das Verfahren wie folgt ab: Der Benutzer stellt oder bewegt ein Objekt auf die Projektionsfläche oder in den Projektionsraum. Die Aufnahmeeinheit erhält die Objektinformationen, die über den Prozessor zu einer Dekodierungseinheit gesendet werden. The decoding is the recognition of specific attributes of the intelligent objects without a code plan and independent of a grid system. The data coding, ie the characterization of characteristics with, for example, short descriptions of their characteristics, is documented in a code plan. In the present case, this would be the pseudonymization of objects, attributes and their characteristics. The method essentially runs as follows: The user places or moves an object on the projection surface or in the projection space. The recording unit receives the object information that is sent via the processor to a decoding unit.
[0042] Selbstverständlich kann ein Benutzer mehrere Objekte oder mehrere Benutzer ein oder mehrere Objekte bewegen. Dann wird die räumliche Lage der Objekte zueinander detektiert, was eine weitere Informationstiefe ermöglicht und zwar z.B. in Bezug auf die metrische Distanz oder relative Position zweier oder mehrerer Objekte zueinander und in Bezug auf deren Lage in der Projektionszone. Of course, a user can move multiple objects or multiple users can move one or more objects. The spatial position of the objects relative to one another is then detected, which enables a further depth of information, e.g. in relation to the metric distance or relative position of two or more objects to each other and in relation to their position in the projection zone.
[0043] Ist das Objekt nicht bekannt, so startet ein Lernprozess zur Erkennung des Objekts. Vorzugsweise unter Verwendung eines selbstlernenden Algorithmus mit dem Ziel das Objekt im Weiteren identifizieren zu können. If the object is not known, a learning process for recognizing the object starts. Preferably using a self-learning algorithm with the aim of being able to identify the object further.
[0044] Ist das Objekt bekannt, dann werden weitere Informationen bzw. Inhalte der Projektionszone erhalten. Diese Informationen werden dann vom System (z.B. dem Prozessor) daraufhin überprüft, ob die Inhalte bekannt sind. Wenn das nicht der Fall ist, so startet auch hier ein Lernprozess. Sind die Inhalte bekannt, so stellt sich die Frage, ob systemseitig ein Interaktionsfeld erkannt wurde. Interaktionsfelder sind in Bezug auf die projizierten Inhalte speziell definierte Bereiche innerhalb der Projektionsfläche und sie liegen in der Projektionszone. Interaktionsfelder dienen dazu, mit Hilfe der intelligenten Objekte per Datenübertragungssignal ein gezieltes Steuersignal mit konkreten Inhalten an die Projektionszone und Anzeigeeinheit zu senden. Die Reaktion des Systems auf die Positionierung eines Objekts auf ein Interaktionsfeld kann dynamisch oder nicht-dynamisch sein. Eine dynamische Änderung ist bspw., dass sich die Anzeigesprache verändert oder andere Inhalte auf der Projektionsfläche erscheinen. If the object is known, then further information or contents of the projection zone are obtained. This information is then checked by the system (e.g. the processor) to determine whether the content is known. If this is not the case, a learning process also starts here. If the content is known, the question arises whether an interaction field has been recognized by the system. Interaction fields are specifically defined areas within the projection area in relation to the projected content and they lie in the projection zone. Interaction fields are used to send a targeted control signal with specific content to the projection zone and display unit using the intelligent objects via data transmission signal. The system's response to the positioning of an object on an interaction field can be dynamic or non-dynamic. A dynamic change is, for example, that the display language changes or other content appears on the projection surface.
[0045] Handelt es sich um ein dynamisches Interaktionsfeld, so werden die Inhalte und Koordinaten von Elementen der Projektionsfläche in Bezug auf die Koordinaten des positionierten und bekannten Objekts gespeichert und durch einen Prozessor weiterverarbeitet. If it is a dynamic interaction field, the contents and coordinates of elements of the projection surface are stored in relation to the coordinates of the positioned and known object and further processed by a processor.
[0046] Handelt es sich nicht um dynamische Inhalte und sind das Objekt und die Projektionszone bekannt, dann sendet die Steuereinheit ein Datenübertragungssignal an den Prozessor, so dass die Koordinaten des Objektes verbunden mit der Projektionszone sowie die Nutzerinteraktion gespeichert werden. [0047] Je Nutzerinteraktion erfolgt eine zeilenweise Speicherung im Prozessor bzw. in der Informationseinheit, so dass abschließend die Summe aller Nutzerinteraktionen gemeinsam verarbeitet werden kann. Diese Daten können anderweitig verwendet werden, wie beispielsweise in EP 1 983 450 beschrieben. [0048] Die Vorteile des erfindungsgemäßen Systems und Verfahrens liegen, wie bereits oben beschrieben, darin, dass reale Objekte, wie beispielsweise Miniaturfiguren Automobile, Drohnen, Einfamilienhäuser, Bäume, etc. verwendet werden können. Systeme aus dem Stand der Technik verwenden kodierte Standardobjekte. Z.B. Legosteine, die über die vier Felder eines Legosteins unten farblich codiert werden und für ein spezielles darzustellendes Objekt stehen. Die Legostein- Codierung 1x rot, 1x blau, und 2x weiß kann z.B. für ein Einfamilienhaus verwendet werden. If it is not dynamic content and the object and the projection zone are known, the control unit sends a data transmission signal to the processor, so that the coordinates of the object connected to the projection zone and the user interaction are stored. Each user interaction is stored line by line in the processor or in the information unit, so that finally the sum of all user interactions can be processed together. This data can be used for other purposes, as described for example in EP 1 983 450. As already described above, the advantages of the system and method according to the invention lie in the fact that real objects, such as miniature figures, automobiles, drones, single-family houses, trees, etc., can be used. Prior art systems use coded standard objects. Eg Lego blocks, which are color-coded using the four fields of a Lego block below and stand for a special object to be displayed. The Lego brick coding 1x red, 1x blue, and 2x white can be used for a single-family house, for example.
[0049] Das vorliegende Verfahren berücksichtigt vielfältige Parameter der Objekte. Es erkennt zum Beispiel das konkrete Objekt eines Einfamilienhauses und kann dann zwischen zwei ähnlichen Häusern, einmal mit spitzem, einmal mit Flachdach, o.ä. differenzieren. Betrachtete Parameter sind wie oben bereits erwähnt z.B. Farbe, Textur, Geometrie/Polygone des Körpers, Koordinaten, Größe, haptische Parameter. [0049] The present method takes diverse parameters of the objects into account. For example, it recognizes the specific object of a single-family house and can then move between two similar houses, one with a pointed, one with a flat roof, or the like. differentiate. As already mentioned above, the parameters considered are e.g. Color, texture, geometry / polygons of the body, coordinates, size, haptic parameters.
[0050] Im Gegensatz zu bekannten Systemen erkennt das vorliegende erfindungsgemäße System und Verfahren unterschiedliche Größen eines Objektes in einer kontinuierlichen Skala. In contrast to known systems, the present system and method according to the invention recognizes different sizes of an object on a continuous scale.
[0051] Gleichfalls werden reale (projizierte) Untergründe statt künstliche, fixe Raster verwendet. Das erfindungsgemäße Verfahren arbeitet auf der Projektionsfläche und der Projektionszone mit einer kontinuierlichen, stufenlosen Aufzeichnung und Interaktion. Während bekannte Systeme im fixen Raster arbeiten (z.B. im 4x4-Legostein-Raster), werden im vorliegenden Verfahren auf der Projektionsfläche beliebige, kontinuierliche Untergründe dargestellt. Dies kann eine Landkarte eines Landes, Stadtbezirks oder auch Spielplatzes sein. Die Formen können jegliche Formen annehmen, müssen keiner festen Größe und eckigen Form folgen, um erkannt zu werden. [0052] Auch kann das vorliegende erfindungsgemäße Verfahren mit dynamischen Untergründen und Veränderungen über Zeit arbeiten. Gemeint ist hiermit, dass der projizierte Inhalt auf der Projektionsfläche oder in dem Projektionsraum gleichermaßen bspw. fahrende Autos oder Busse darstellen kann, was bei der Aufzeichnung und Interaktion mit den intelligenten Objekten für die Verarbeitung berücksichtigt wird. [0053] Weiterhin kann das System in der dritten Dimension (z-Achse) messen und es kann mit der angezeigten Information in der Projektionszone interagieren und bspw. Markierungen aufnehmen, wo etwas aus der zugrundeliegenden Information (bspw. Karte) hinzugefügt oder weggenommen werden soll (z.B. aus zwei Schaukeln wird eine). [0054] Ein weiterer Aspekt der Erfindung besteht darin, dass im Anschluß an das erfindungsgemäße Verfahren die Summe der vollständigen Handlungen, welche hier„Szenario“ genannt wird und z.B. den Durchlauf der in Fig. 6 dargestellten Handlungsabläufe darstellt, über ein Informationssystem visualisiert werden. So können z.B. neue Strukturen und Beziehungen als Reihe mehrerer Szenarien erhalten werden, wodurch komplexe Sachverhalte reduziert dargestellt werden können. Denkbar ist die Rekonstruktion eines Verkehrsunfalls aufgrund von unterschiedlichen Zeugenaussagen oder Durchspielen unterschiedlicher Szenarien bei Großveranstaltungen wie z.B. Fluchtwege oder Wege der Einsatzkräfte zum Einsatzort. Real (projected) substrates are also used instead of artificial, fixed grids. The method according to the invention works on the projection surface and the projection zone with a continuous, stepless recording and interaction. While known systems work in a fixed grid (eg in a 4x4 Lego brick grid), in the present method any continuous surfaces are displayed on the projection surface. This can be a map of a country, district or playground. The shapes can take any shape, do not have to follow a fixed size and square shape to be recognized. The present inventive method can also work with dynamic backgrounds and changes over time. What is meant by this is that the projected content on the projection surface or in the projection space can likewise represent, for example, moving cars or buses, which is taken into account in the recording and interaction with the intelligent objects for processing. Furthermore, the system can measure in the third dimension (z-axis) and it can interact with the information displayed in the projection zone and, for example, record markings where something is to be added or removed from the underlying information (for example a map) (for example, two swings become one). Another aspect of the invention consists in that, following the method according to the invention, the sum of the complete actions, which is referred to here as the “scenario” and, for example, represents the execution of the action sequences shown in FIG. 6, is visualized via an information system. For example, new structures and relationships can be obtained as a series of several scenarios, which means that complex issues can be presented in a reduced manner. It is conceivable to reconstruct a traffic accident on the basis of different witness statements or by going through different scenarios at major events such as escape routes or routes of the emergency services to the scene.
[0055] Informationssysteme zur visuellen Darstellung können beispielsweise Diagramme, Heatmaps, übereinandergelegte Karten und Ergebnisse mehrerer Szenarien sein. Die Visualisierung erfolgt in der Regel über eine Ausgabeeinheit (z.B. Drucker, Bildschirm, Smartphone, Tablet). Information systems for visual display can be, for example, diagrams, heat maps, superimposed maps and results of several scenarios. The visualization is usually carried out via an output unit (e.g. printer, monitor, smartphone, tablet).
[0056] Die erzeugte Information kann als Datensatz exportiert und in anderen Informationssystemen verwendet werden. The generated information can be exported as a data record and used in other information systems.
[0057] Zur weiteren Erläuterung der Erfindung wird im nachfolgenden Teil der Beschreibung auf die Figuren Bezug genommen, aus der weitere vorteilhafte Ausgestaltungen, Einzelheiten und Weiterbildungen der Erfindung zu entnehmen sind. To further explain the invention, reference is made to the figures in the following part of the description, from which further advantageous refinements, details and developments of the invention can be found.
KURZBESCHREIBUNG DER FIGUREN BRIEF DESCRIPTION OF THE FIGURES
[0058] Fig.1 zeigt eine schematische Darstellung des erfindungsgemäßen Systems. 1 shows a schematic representation of the system according to the invention.
[0059] Fig. 2a zeigt eine schematische Darstellung der Benutzerschnittstelle (User Interface) mit intelligenten Objekten und Interaktion eines Benutzers. 2a shows a schematic representation of the user interface with intelligent objects and interaction of a user.
[0060] Fig. 2b zeigt eine schematische Darstellung der Benutzerschnittstelle (User Interface) nach erfolgter Interaktion eines Benutzers. 2b shows a schematic representation of the user interface after a user has interacted.
[0061] Fig. 3 zeigt eine schematische Darstellung der Interaktionen im erfindungsgemäßen Verfahren einschließlich elektronischer Bauteile. [0062] Fig. 4 zeigt die Parameter der Objekte. 3 shows a schematic representation of the interactions in the method according to the invention, including electronic components. 4 shows the parameters of the objects.
[0063] Fig. 5 zeigt die Parameter einer Benutzerinteraktion. Figure 5 shows the parameters of user interaction.
[0064] Fig. 6 zeigt ein Ablaufschema für das erfindungsgemäße Verfahren. 6 shows a flow diagram for the method according to the invention.
[0065] Fig. 7 ist ein Blick von oben auf ein mögliches User-Interface (Benutzerschnittstelle). Fig. 7 is a top view of a possible user interface (user interface).
[0066] Fig. 8 zeigt eine schematische Darstellung des Systems und der Vorrichtung, wie im Zusammenhang mit Figur 1 beschrieben, bei dem zusätzlich noch ein Informationssystem zur Auswertung vorhanden ist. 8 shows a schematic representation of the system and the device, as described in connection with FIG. 1, in which an information system is also present for evaluation.
[0067] Fig. 9 zeigt ein Flussdiagramm des erfindungsgemäßen Verfahrens durch das die Benutzer generierten Daten ausgewertet werden können. 9 shows a flowchart of the method according to the invention by means of which the user-generated data can be evaluated.
AUSFÜHRUNG DER ERFINDUNG CARRYING OUT THE INVENTION
[0068] Fig. 1 zeigt beispielhaft das erfindungsgemäße System, welches über ein rollbares Gehäuse 102b, das der Aufnahme des Prozessors 104 und den Apparat(en) zum Projizieren 106 von 2-dimensionalen Inhalten dient, verfügt und auf dem sich die Projektionsfläche 103 befindet. Die Projektionsfläche ist hier eine flache transparente Plexiglasscheibe, auf die von unten 2- dimensionale Inhalte (Informationen) projiziert werden und gleichzeitig Aufnahmefläche für die in Fig. 2a dargestellten Interventionen ist. Über der Projektionsfläche 103 befindet sich eine Aufnahmeeinheit 105, die über eine Halterung 102a oberhalb der Projektionsfläche befestigt und ausgerichtet ist, so dass die gesamte Projektionsfläche aufgenommen werden kann. Gleichfalls verfügt das erfindungsgemäße System über eine Anzeigeeinheit 109, die mit einem Datenübertragungssignal 107 angesteuert wird, um, wie in Fig. 2b dargestellt, Inhalte auf die Anzeigeeinheit zu übertragen. Fig. 1 shows an example of the system according to the invention, which has a rollable housing 102b, which is used to hold the processor 104 and the apparatus (s) for projecting 106 of 2-dimensional content, and on which the projection surface 103 is located . The projection surface here is a flat, transparent plexiglass pane onto which 2-dimensional content (information) is projected from below and at the same time is the recording surface for the interventions shown in FIG. Above the projection surface 103 there is a recording unit 105 which is fastened and aligned above the projection surface via a holder 102a, so that the entire projection surface can be recorded. Likewise, the system according to the invention has a display unit 109 which is controlled by a data transmission signal 107 in order to transmit content to the display unit, as shown in FIG. 2b.
[0069] Fig. 2a zeigt ein beispielhaftes User Interface (Benutzerschnittstelle) 201 , gebildet aus der Projektionsfläche 203, über die Interaktion mit dem Benutzer 210 möglich wird, in Kombinationen mit den intelligenten Objekten 208a, 208b, 208c. Der Benutzer 210 interagiert mit einem oder mehreren intelligenten Objekten 208a, 208b, 208c auf der Projektionsfläche 203. Interaktionen erfolgen in den Parametern x-, y- und z-Achse (x, y, z). Die Aufnahmeeinheit, die hier nicht abgebildet ist, sammelt die relevanten Informationen, die dann vom Datenübertragungssignal 207 aus dem Prozessor 104 an die Anzeigeeinheit 209 übermittelt werden. [0070] Fig. 2b zeigt das User Interface aus Fig. 2a mit auf die Projektionsfläche projizierten Informationen 215, intelligenten Objekten 208c sowie Anzeigeeinheit 209 und die auf der Anzeigeeinheit durch eine Benutzerinteraktion hervorgerufene Information 216. Konkret werden abhängig von der Benutzerinteraktion 210 mit einem intelligenten Objekt 208c und abhängig von demselben intelligenten Objekt, der Lage des Objektes (x, y, z) auf dem Inhalt (d.h. des auf der Projektionsfläche abgebildeten Inhalts (z.B. Stadtplan)), durch einen Prozessor (hier nicht abgebildet) Inhalte auf die Projektionsfläche 215 und Inhalte für die Anzeigeeinheit 216 ausgesteuert. 2a shows an exemplary user interface (user interface) 201, formed from the projection surface 203, via which interaction with the user 210 is possible, in combination with the intelligent objects 208a, 208b, 208c. The user 210 interacts with one or more intelligent objects 208a, 208b, 208c on the projection surface 203. Interactions take place in the parameters x, y and z axis (x, y, z). The recording unit, which is not shown here, collects the relevant information, which is then transmitted from the processor 104 to the display unit 209 by the data transmission signal 207. 2b shows the user interface from FIG. 2a with information 215 projected onto the projection surface, intelligent objects 208c and display unit 209 and the information 216 caused on the display unit by a user interaction. Specifically, depending on the user interaction 210 with an intelligent one Object 208c and, depending on the same intelligent object, the position of the object (x, y, z) on the content (ie the content depicted on the projection surface (e.g. city map)), by a processor (not shown here) content on the projection surface 215 and content for the display unit 216.
[0071 ] Fig. 3 zeigt beispielhaft das erfindungsgemäße Verfahren in Bezug auf der in Fig. 2b schematisch dargestellten und beschriebenen Benutzerinteraktion. Jede Benutzerinteraktion 210 mit den intelligenten Objekten 308 wird über die Aufnahmeeinheit 305 aufgezeichnet und an den Prozessor 304 übermittelt. Dieser verarbeitet die übermittelten Informationen und sendet Informationen zu den intelligenten Objekten an die Decodiereinheit 313. Diese interagiert mit der Informationseinheit 311 bezüglich der übermittelten Informationen, die die intelligenten Objekte identifiziert. Der Prozessor interagiert mit der Steuereinheit 312, die bestimmte Informationen an die Projektionsfläche 303 sowie entsprechend andere Informationen an die Anzeigeeinheit 309 übermittelt. FIG. 3 shows an example of the method according to the invention in relation to the user interaction shown and described schematically in FIG. 2b. Each user interaction 210 with the intelligent objects 308 is recorded via the recording unit 305 and transmitted to the processor 304. The latter processes the transmitted information and sends information about the intelligent objects to the decoding unit 313. The decoding unit 313 interacts with the information unit 311 with regard to the transmitted information that identifies the intelligent objects. The processor interacts with the control unit 312, which transmits certain information to the projection surface 303 and correspondingly other information to the display unit 309.
[0072] Fig. 4 beschreibt beispielhaft die Parameter eines intelligenten Objekts 308a. Die ObjectJD ist ein numerischer eindeutiger Bezeichner eines jeden intelligenten Objektes. Das Object_Label ist eine textliche Beschreibung eines jeden intelligenten Objektes. Color beschreibt die Farbe des intelligenten Objektes. Texture ist die textliche Beschreibung der Oberflächenstruktur des intelligenten Objektes. Geometry ist die textliche Beschreibung der Form des intelligenten Objektes. Size beschreibt numerisch die Größe des intelligenten Objektes. Function ist die Beschreibung inkludierter Aktionen des intelligenten Objektes. Plus / Minus beschreibt die Aktion des intelligenten Objektes in der Form, dass es einem Inhalt auf der Projektionsfläche etwas hinzufügt oder reduziert. Positiv / Negativ beschreibt die Aktion des intelligenten Objektes in der Form, dass der Benutzer einen Inhalt auf der Projektionsfläche positiv oder negativ markiert. 4 describes the parameters of an intelligent object 308a by way of example. The ObjectJD is a numerically unique identifier of every intelligent object. The Object_Label is a textual description of every intelligent object. Color describes the color of the intelligent object. Texture is the textual description of the surface structure of the intelligent object. Geometry is the textual description of the shape of the intelligent object. Size numerically describes the size of the intelligent object. Function is the description of included actions of the intelligent object. Plus / Minus describes the action of the intelligent object in such a way that it adds or reduces something to a content on the projection surface. Positive / negative describes the action of the intelligent object in such a way that the user marks content on the projection surface positively or negatively.
[0073] Fig. 5 beschreibt beispielhaft die Parameter der Benutzeraktionen mit intelligenten Objekten. ID ist die numerische eindeutige Bezeichnung einer Benutzeraktion mit einem intelligenten Objekt. User ID ist die numerische eindeutige Bezeichnung eines Benutzers. Time beschreibt die Aufzeichnung von Datum, Uhrzeit mit Stunde, Minute, Sekunde, Millisekunde. X ist Aufzeichnung der x-Koordinate auf der Projektionsfläche. Y ist Aufzeichnung der y-Koordinate auf der Projektionsfläche. Z ist Aufzeichnung der z-Koordinate auf der Projektionsfläche. Accelerator beschreibt die Geschwindigkeit der Benutzeraktion mit einem intelligenten Objekt. Direction beschreibt die Richtung einer Benutzeraktion mit dem intelligenten Objekt. 5 describes, by way of example, the parameters of the user actions with intelligent objects. ID is the numerical, unique designation of a user action with an intelligent object. User ID is the numerical, unique designation of a user. Time describes the recording of date, time with hour, minute, second, millisecond. X is the recording of the x coordinate on the projection surface. Y is the recording of the y coordinate on the projection surface. Z is the recording of the z coordinate on the projection surface. Accelerator describes the speed of user action with an intelligent object. Direction describes the direction of a user action with the intelligent object.
[0074] Fig. 6 zeigt ein Flussdiagramm, mit dem das erfindungsgemäße Verfahren wie folgt beschrieben werden kann: Das Verfahren beginnt mit der Prüfung, ob das vorliegende System mit den vorhandenen intelligenten Objekten und den Inhalten auf der Projektionszone kalibriert ist. Ist dies nicht der Fall, wird die Kalibrierung gestartet. Mit der Benutzerinteraktion erhält das System Objektinformationen zum bewegten intelligenten Objekt. Das Verfahren startet die Dekodiereinheit, die per Abfrage in der Informationseinheit prüft, ob das bewegte Objekt bekannt ist. Ist es nicht bekannt, stößt die Dekodiereinheit einen Lernprozess an. Ist das Objekt bekannt, wird der Inhalt der Projektionsfläche übermittelt. Sind die Inhalte der Projektionsfläche nicht bekannt, wird ein Lernprozess angestoßen. Sind die Inhalte der Projektionsfläche bekannt, prüft das Verfahren das Vorliegen eines Interaktionsfeldes. Ist ein Interaktionsfeld vorhanden, startet das Verfahren die Steuereinheit, die wiederum Steuersignale mit Inhalten für die Anzeigeeinheit sowie weitere Inhalte für die Projektionsfläche sendet. Nach Auslieferung der Inhalte für die Projektionsfläche beginnt der Prozess erneut mit der Benutzerinteraktion. Wird kein Interaktionsfeld erkannt, werden die Koordinaten (x, y, z) des Objektes übertragen. Das Verfahren prüft, ob dynamische Inhalte der Projektionsfläche vorliegen. Ist dies der Fall, wird der Status der Inhalte auf der Projektionsfläche in Verbindung mit den Objektdaten übermittelt. Im Anschluss werden die Inhalte der Projektionsfläche übermittelt und der Prozessor zur weiteren Verarbeitung aller vorliegenden Daten gestartet. Die Verarbeitung kann auch auf Verfahren außerhalb des vorliegenden Systems erfolgen. Anschließend wird geprüft, ob eine weitere Nutzerinteraktion vorliegt, mit der der Prozess erneut gestartet wird. Ist dies nicht der Fall, wird das Verfahren beendet. 6 shows a flowchart with which the method according to the invention can be described as follows: The method begins with checking whether the present system is calibrated with the existing intelligent objects and the contents on the projection zone. If this is not the case, the calibration is started. With the user interaction, the system receives object information about the moving intelligent object. The method starts the decoding unit, which checks in the information unit whether the moving object is known. If it is not known, the decoding unit triggers a learning process. If the object is known, the content of the projection surface is transmitted. If the contents of the projection area are not known, a learning process is initiated. If the contents of the projection surface are known, the method checks the existence of an interaction field. If there is an interaction field, the method starts the control unit, which in turn sends control signals with contents for the display unit and further contents for the projection surface. After delivery of the content for the projection surface, the process begins again with the user interaction. If no interaction field is recognized, the coordinates (x, y, z) of the object are transmitted. The method checks whether there are dynamic contents of the projection surface. If this is the case, the status of the content is transmitted on the projection surface in connection with the object data. The contents of the projection surface are then transmitted and the processor started for further processing of all available data. Processing can also be carried out using methods outside the present system. It is then checked whether there is another user interaction with which the process is started again. If this is not the case, the procedure is ended.
[0075] Fig. 7 ist ein Blick von oben auf ein mögliches User-Interface (Benutzerschnittstelle), d.h. man sieht die Projektionsfläche 703 sowie die darauf projizierten Inhalte (hier ein Stadtplan mit Verkehrsdichteanzeige, wobei die Stärke der Striche für das Verkehrsaufkommen steht) und die intelligenten Objekte 708a-d in Form von Verkehrsschildern („Durchfahrt verboten-Schild“). Das intelligente Objekt 708b wurde dabei auf ein Interaktionsfeld (hier Straßenkreuzung) positioniert und symbolisiert eine Durchfahrtsperre für den Kfz-Verkehr, wie oben links auf der Projektionsfläche beschrieben ist. Die sich durch das auf der Projektionsfläche positionierte Objekt ergebenden Veränderungen im Verkehrsfluss (in der Abbildung als fette Linien markiert) sind sofort als Simulation sichtbar. Würde nun ein weiteres Objekt auf die Projektionsfläche positioniert, beispielsweise auf das Interaktionsfeld 717a oder 717b, dann würde diese neue Sperrung der Strasse die gerade angezeigten simulierten Verkehrsflüsse verändern. Der auf die Projektionsfläche projizierte Inhalt würde vom System entsprechend verändert und so die geänderte Situation reflektieren. 7 is a view from above of a possible user interface (user interface), ie one sees the projection surface 703 and the contents projected onto it (here a city map with traffic density display, the thickness of the lines representing the traffic volume) and the intelligent objects 708a-d in the form of traffic signs ("no passage sign"). The intelligent object 708b was positioned on an interaction field (here a crossroads) and symbolizes a passage barrier for motor vehicle traffic, as described on the projection surface on the top left. Which is positioned on the projection surface Object-related changes in traffic flow (marked in bold lines in the figure) are immediately visible as a simulation. If a further object were now positioned on the projection surface, for example on the interaction field 717a or 717b, this new blocking of the street would change the simulated traffic flows currently displayed. The content projected onto the projection surface would be changed accordingly by the system and thus reflect the changed situation.
[0076] Fig. 8 zeigt eine schematische Darstellung des Systems und der Vorrichtung, wie im Zusammenhang mit Fig. 1 beschrieben, bei dem zusätzlich noch ein Informationssystem zur Auswertung 818 vorhanden ist. Auf dem Ausgabegerät 819 werden Daten visualisiert, beispielsweise als Heatmap 820 oder Diagramm 821. FIG. 8 shows a schematic illustration of the system and the device, as described in connection with FIG. 1, in which an information system for evaluation 818 is additionally present. Data is visualized on the output device 819, for example as a heat map 820 or diagram 821.
[0077] Fig. 9 zeigt ein Flussdiagramm des erfindungsgemäßen Verfahrens, durch das die generierten Benutzerdaten und Benutzerinformationen ausgewertet werden können. Der im Flussdiagramm dargestellte Ablauf erfolgt im Anschluss an die Abfolge wie in Fig. 6 dargestellt. Hierdurch kommt es zur visualisierten Auswertung aller Benutzerinteraktionen und deren Ausgabe. Die Auswertungseinheit ist gewöhnlich ein Prozessor mit dem die gesammelten Daten verarbeitet werden. 9 shows a flowchart of the method according to the invention, by means of which the generated user data and user information can be evaluated. The sequence shown in the flowchart follows the sequence as shown in FIG. 6. This leads to the visualized evaluation of all user interactions and their output. The evaluation unit is usually a processor with which the collected data are processed.
BEZUGSZEICHENLISTE , 301 DatensammeleinheitREFERENCE SIGN LIST, 301 data collection unit
a Halterung für die Aufnahmeeinheita Bracket for the acquisition unit
b Rollbares Gehäuseb Rollable housing
, 203, 303, 703 Projektionsfläche, 203, 303, 703 projection surface
, 304 Prozessor, 304 processor
, 305 Aufnahmeeinheit , 305 acquisition unit
Apparat(e) zum Projizieren von 2-dimensionalen Inhalten, 207 Datenübertragungssignal Apparatus (s) for projecting 2-dimensional content, 207 data transmission signal
, 209, 309 Anzeigeeinheit , 209, 309 display unit
User Interface (Benutzerschnittstelle) User Interface
a, 208b, 208c intelligentes Objekt 1 , intelligentes Objekt 2, intelligentes a, 208b, 208c intelligent object 1, intelligent object 2, intelligent
Objekt 3 Object 3
Interaktion eines Benutzers User interaction
Inhalt /Information auf Projektionsfläche Content / information on projection surface
Inhalt/Information auf Anzeigeeinheit Content / information on display unit
intelligentes Objekt 1 ... n intelligent object 1 ... n
Informationseinheit Information unit
Steuereinheit Control unit
Dekodiereinheit Decoding unit
a, 708c, 708d Für die Benutzung bereitgestellte und noch nicht a, 708c, 708d Provided for use and not yet
positionierte intelligente Objekte. positioned intelligent objects.
b Bereits positioniertes intelligentes Objekt b Intelligent object already positioned
Inhalt / Information der Projektionsfläche 703 Content / information of the projection surface 703
a, 717b, 717c Interaktionsfeld a, 717b, 717c interaction field
Informationssystem zur Auswertung Information system for evaluation
Ausgabeeinheit, hier Bildschirm Output unit, here screen
Heatmap Heatmap
Tortendiagramm pie chart

Claims

Ansprüche Expectations
1. Computergestütztes Verfahren zur kollaborativen Lösungsfindung, umfassend die folgenden Schritte: i) Verwenden von mindestens einem 3-dimensionalen Objekt, dem mindestens ein softwareseitiges Attribut zugeordnet ist, das ausgewählt ist unter den folgenden Attributen: numerische eindeutige Bezeichner, textliche Beschreibung des Objekts, textliche Beschreibung der Oberflächenbeschaffenheit und Oberflächenstruktur des Objekts, Objektfarbe, Objektgröße und Objektform; ii) sequentielle oder gleichzeitige Aufnahme des oder der Objekte innerhalb einer Projektionszone und Aufnahme des Inhalts der Projektionszone durch eine über der1. Computer-aided method for collaborative solution finding, comprising the following steps: i) using at least one 3-dimensional object, to which at least one software-side attribute is assigned, which is selected from the following attributes: numerical unique identifier, textual description of the object, textual Description of the surface quality and surface structure of the object, object color, object size and object shape; ii) sequential or simultaneous recording of the object or objects within a projection zone and recording of the content of the projection zone by one above the
Projektionszone fixierte Aufnahmeeinheit, wobei die Projektionszone gleichzeitig mit dem oder den Objekten vorher oder nachher aufgenommen werden kann; iii) Verarbeitung der objektbezogenen Daten und der aufgenommenen Inhalte aus der Projektionszone im Prozessor und Dekodierung der objektbezogenen Daten unter Zuhilfenahme von selbstlernenden Systemen und ohne Zuhilfenahme eines Codeplans, wobei die Verarbeitung sofort nach Aufnahme der objektbezogenen Daten oder zusammen mit der Verarbeitung durch die Aufnahme der Informationen in der Projektionszone erfolgen kann; und iv) Steuerung der in der Projektionszone und/oder Anzeigeeinheit gezeigten Informationen. Projection zone fixed recording unit, wherein the projection zone can be recorded with the object or objects before or after; iii) Processing the object-related data and the recorded content from the projection zone in the processor and decoding the object-related data with the aid of self-learning systems and without the aid of a code plan, the processing being carried out immediately after recording the object-related data or together with the processing by recording the information can take place in the projection zone; and iv) control of the information shown in the projection zone and / or display unit.
2. Verfahren nach Anspruch 1 , wobei die Position des oder der Objekte in der Projektionszone und/oder deren räumliches Verhältnis zueinander sowie deren Lageveränderung aufgenommen wird. 2. The method according to claim 1, wherein the position of the object or objects in the projection zone and / or their spatial relationship to one another and their change in position is recorded.
3. Verfahren nach Anspruch 1 oder 2, wobei die softwareseitigen Attribute in Schritt i) zusätzlich die Beschreibung inkludierter Aktionen des Objekts enthält, in der Form, dass das inkludierte Attribut, basierend auf der durch einen Nutzer erfolgten Positionierung oder Bewegung eines oder mehrerer Objekte, einem auf der Projektionsfläche vorhandenen Inhalt etwas hinzufügt oder reduziert. 3. The method according to claim 1 or 2, wherein the software-side attributes in step i) additionally contain the description of included actions of the object, in the form that the included attribute, based on the positioning or movement of one or more objects by a user, add or reduce something to content on the projection screen.
4. Verfahren nach einem der vorherigen Ansprüche, wobei durch die Aufnahme des oder der Objekte zusätzlich Informationen in Bezug auf Benutzeraktionen erhalten werden, wobei die Auswertung unter Berücksichtigung von mindestens einem der folgenden Parameter erfolgt: numerische eindeutige Bezeichnung einer Benutzeraktion mit einem Objekt, die numerische eindeutige Bezeichnung eines Benutzers, Datum, Uhrzeit mit Stunde, Minute, Sekunde, Millisekunde der Aktion, x-, y- und z-Koordinate des Objekts in der Projektionszone, die Geschwindigkeit der Benutzeraktion beim Positionieren oder Umsetzen eines Objekts innerhalb der Projektionszone sowie die Richtung der Benutzeraktion mit dem intelligenten Objekt. 4. The method according to any one of the preceding claims, wherein additional information relating to user actions is obtained by the inclusion of the object or objects, the Evaluation takes into account at least one of the following parameters: numerically unique designation of a user action with an object, the numerical unique designation of a user, date, time with hour, minute, second, millisecond of the action, x, y and z coordinate the object in the projection zone, the speed of the user action when positioning or relocating an object within the projection zone and the direction of the user action with the intelligent object.
5. Verfahren nach einem der vorherigen Ansprüche, wobei die Aufnahmeeinheit die Position, Lage und/oder Bewegung des Objekts aufzeichnet und, sofern das Objekt bewegt wird, auch die zeitliche, gerichtete Veränderung der Position. 5. The method according to any one of the preceding claims, wherein the recording unit records the position, position and / or movement of the object and, if the object is moved, also the temporal, directional change in position.
6. Verfahren nach Anspruch 5, in dem mehrere Objekte in der Projektionszone vorhanden sind und positioniert werden, wobei die Aufnahmeeinheit die Position, Lage und/oder Bewegung der Objekte in der Projektionszone aufzeichnet und, sofern die Objekte bewegt werden, auch deren zeitliche, gerichtete Veränderungen der Positionen. 6. The method according to claim 5, in which a plurality of objects are present and positioned in the projection zone, the recording unit recording the position, position and / or movement of the objects in the projection zone and, if the objects are moved, also their temporal, directional Changes in positions.
7. Verfahren nach einem der vorherigen Ansprüchen, wobei im Anschluss an das erfindungsgemäße Verfahren die Summe der vollständigen Handlungen über ein Informationssystem visualisiert werden, so dass neue Strukturen und Beziehungen als Reihe mehrerer Szenarien erhalten werden. 7. The method according to any one of the preceding claims, wherein the sum of the complete actions are visualized via an information system after the inventive method, so that new structures and relationships are obtained as a series of several scenarios.
8. Ein System zur kollaborativen Lösungsfindung zur Durchführung des Verfahrens nach einem der vorherigen Ansprüche, das aus einer Datensammeleinheit 101 , einem Prozessor 104, einer Steuereinheit 312 und einer Anzeigeeinheit 109 gebildet wird, wobei die Datensammeleinheit 101 eine Projektionszone und eine Aufnahmeeinheit 105 umfasst, die die Position und/oder Bewegung beliebiger Objekte in der Projektionszone aufzeichnet, verarbeitet und ein Ergebnis für die Lösungsfindung auf einer Anzeigeeinheit 109 weitergibt und ggf. ein weiteres Ergebnis auf die Projektionszone zurückgibt. 8. A system for collaborative solution finding for carrying out the method according to one of the preceding claims, which is formed from a data collection unit 101, a processor 104, a control unit 312 and a display unit 109, the data collection unit 101 comprising a projection zone and a recording unit 105 which records and processes the position and / or movement of any objects in the projection zone and passes on a result for the solution finding on a display unit 109 and, if necessary, returns a further result on the projection zone.
9. Das System nach Anspruch 8, dadurch gekennzeichnet, dass sich der Inhalt der Projektionszone dynamisch ändert. 9. The system according to claim 8, characterized in that the content of the projection zone changes dynamically.
10. Verwendung des Verfahrens oder des Systems nach einem der vorherigen Ansprüche zur Erfassung von dessen oder deren Attribute, Positionierung(en) und relativen Bewegung(en) innerhalb der Projektionszone sowie Identifikation des oder der zu bewegenden Objekte in Relation zu den auf der Projektionsfläche vorhandenen Informationen sowie ggf. dessen oder deren Lageveränderung(en). 10. Use of the method or system according to one of the preceding claims for detecting its or its attributes, positioning (s) and relative movement (s) within the projection zone and identification of the object or objects to be moved in Relation to the information available on the projection surface and, if applicable, its or its change in position (s).
1 1. Verwendung des Verfahrens oder des Systems nach Anspruch 10 zum Erheben und Sammeln von Daten über Nutzerverhalten. 1 1. Use of the method or system according to claim 10 for collecting and collecting data on user behavior.
PCT/EP2019/083565 2018-12-03 2019-12-03 Object-based method and system for collaborative problem solving WO2020115084A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP19812794.6A EP3891719A1 (en) 2018-12-03 2019-12-03 Object-based method and system for collaborative problem solving

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18209693.3 2018-12-03
EP18209693 2018-12-03

Publications (1)

Publication Number Publication Date
WO2020115084A1 true WO2020115084A1 (en) 2020-06-11

Family

ID=64661058

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/083565 WO2020115084A1 (en) 2018-12-03 2019-12-03 Object-based method and system for collaborative problem solving

Country Status (2)

Country Link
EP (1) EP3891719A1 (en)
WO (1) WO2020115084A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030034976A1 (en) * 2001-08-14 2003-02-20 Ramesh Raskar System and method for registering multiple images with three-dimensional objects
EP1983450A2 (en) 2007-04-18 2008-10-22 Dialego AG Method and device for detecting and providing information about a picture
EP2267595A2 (en) * 2008-02-12 2010-12-29 Gwangju Institute of Science and Technology Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality
DE102012201202A1 (en) * 2012-01-27 2013-08-01 Siemens Aktiengesellschaft Model structure for production site, has flat base with multiple models of production equipments, where surface section is marked on base by mechanically readable carrier of an information characteristic within surface section
WO2014070120A2 (en) 2012-10-31 2014-05-08 Grék Andrej Method of interaction using augmented reality
WO2016018422A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Virtual changes to a real object

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030034976A1 (en) * 2001-08-14 2003-02-20 Ramesh Raskar System and method for registering multiple images with three-dimensional objects
EP1983450A2 (en) 2007-04-18 2008-10-22 Dialego AG Method and device for detecting and providing information about a picture
EP2267595A2 (en) * 2008-02-12 2010-12-29 Gwangju Institute of Science and Technology Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality
DE102012201202A1 (en) * 2012-01-27 2013-08-01 Siemens Aktiengesellschaft Model structure for production site, has flat base with multiple models of production equipments, where surface section is marked on base by mechanically readable carrier of an information characteristic within surface section
WO2014070120A2 (en) 2012-10-31 2014-05-08 Grék Andrej Method of interaction using augmented reality
WO2016018422A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Virtual changes to a real object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YAN ZHANG ET AL: "Real-time Machine Learning Prediction of an Agent-Based Model for Urban Decision-making (Extended Abstract)", PROCEEDINGS OF THE 17TH INTERNATIONAL CONFERENCE ON AUTONOMOUS AGENTS AND MULTIAGENT SYSTEMS, 9 July 2018 (2018-07-09), pages 2171 - 2173, XP055559878 *

Also Published As

Publication number Publication date
EP3891719A1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
EP3438901A1 (en) Test drive scenario database system for realistic virtual test drive scenarios
DE69904492T3 (en) COMPUTER GAME
EP2030173A1 (en) Method for producing a three-dimensional computer model of a town
DE102005013225A1 (en) Object tracking and situation analysis system
DE102009041431A1 (en) Driving simulation apparatus, wide-angle camera video simulation apparatus and image deforming / composing apparatus
Sun et al. Development and application of an integrated traffic simulation and multi-driving simulators
EP2201524A2 (en) Method for creating and/or updating textures of background object models, video monitoring system for carrying out the method, and computer program
DE102018122864A1 (en) Distributed multi-user simulation system
DE102014110992A1 (en) Register a clustered scene with location tracking
EP2553660B1 (en) Method for visualizing zones of higher activity in monitoring scenes
DE102020127855A1 (en) SAFETY SYSTEM, AUTOMATED DRIVING SYSTEM AND PROCEDURE FOR IT
DE102018207566A1 (en) A system for performing simulated collision scenarios of a motor vehicle with a non-motorized road user
WO2020115084A1 (en) Object-based method and system for collaborative problem solving
EP3711392B1 (en) Method and device for position determination
DE102019125075A1 (en) Method for the computer-implemented simulation of a LIDAR sensor in a virtual environment
EP2940624B1 (en) Three-dimensional virtual model of an environment for applications for determining positions
EP1725986A1 (en) Real-time movement analysis device
DE102021104110A1 (en) Process for parameterizing an image synthesis from a 3D model
EP3352139B1 (en) Method for representing the surroundings of a vehicle
DE102019125612A1 (en) Method for the computer-implemented simulation of an optical sensor in a virtual environment
DE102019207090A1 (en) Method for providing an object tracking function
DE102014110995A1 (en) Registration of a clustered scene with scan request
AT525369B1 (en) Test environment for urban human-machine interaction
EP3384469A2 (en) Method for reproducing a simulated environment
EP3446289A1 (en) Method and system for representing a simulation environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19812794

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019812794

Country of ref document: EP

Effective date: 20210705