EP3891719A1 - Objektbasiertes verfahren und system zur kollaborativen lösungsfindung - Google Patents

Objektbasiertes verfahren und system zur kollaborativen lösungsfindung

Info

Publication number
EP3891719A1
EP3891719A1 EP19812794.6A EP19812794A EP3891719A1 EP 3891719 A1 EP3891719 A1 EP 3891719A1 EP 19812794 A EP19812794 A EP 19812794A EP 3891719 A1 EP3891719 A1 EP 3891719A1
Authority
EP
European Patent Office
Prior art keywords
objects
projection zone
projection
recording
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP19812794.6A
Other languages
English (en)
French (fr)
Inventor
Andera Gadeib
Volker GADEIB
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SmartMunk GmbH
Original Assignee
SmartMunk GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SmartMunk GmbH filed Critical SmartMunk GmbH
Publication of EP3891719A1 publication Critical patent/EP3891719A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/04Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes of buildings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/06Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes for surveying; for geography, e.g. relief models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/08Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes of scenic effects, e.g. trees, rocks, water surfaces

Definitions

  • the present invention relates to an object-based method and system for collaborative solution finding, with which user data are generated and processed and the result is visualized.
  • WO 2014/070120 describes an “augmented reality” method with which several people can simultaneously and individually examine an object.
  • an arrangement consisting of a mobile recording device (121), which is also a display (300), and a coded surface (500) on which a physical object (501) can be located or on which a virtual object is displayed becomes.
  • the recording device (a camera) and the display are arranged separately from one another.
  • the ratio of the coded surface, which is located in the recording area of the camera, to the total area is advantageously 0.01.
  • the coded surface can also have a multiplicity of differently coded segments, ie a type of grid.
  • Disadvantage of the aforementioned system is that by using Lego blocks that are specifically coded, only buildings can be replicated, so that the solution is essentially limited to how high the buildings should be, what is housed in them ( Restaurant, apartment, factory or university) and how this changes the density of traffic and / or population, and whether this development can create an innovative environment.
  • the system is fixed to the square / rectangular shapes and can only partially depict differently shaped elements such as Trees, lakes, diagonal streets, as is common in many European cities.
  • the inventors have now found a computer-based system or device and a computer-implemented method that allows a lot more degrees of freedom for the question and thus finding solutions than the known systems and methods, so that it can be used more widely.
  • the known systems is also only in relation worked on surfaces, ie in the x, y coordinate system, while with the present system the z coordinate, ie 3-dimensional, is also recorded.
  • the acceptance of the users is very large.
  • anyone can be a user.
  • the system can also be used by laypersons and experts without any technical training, technical skill or spatial imagination. Therefore, when using the invention, there is a high level of participation in solution finding processes with valid and representative solution results for e.g. a city worth living in.
  • the solution is based on broader data, since technology-skeptical or technology-inexperienced target groups are also involved, so that the results as a whole are more meaningful and reliable.
  • the system according to the invention is also suitable for simulating the effects of user actions on the content of the projection zone.
  • the high level of user acceptance is due in particular to the use of physically tangible, non-digital objects which are positioned and arranged on an area onto which content / information is projected or which are introduced into a virtual environment. As well as the directly available system-generated feedback to the user or users. Immediately after setting and / or moving the object or objects, the users see the result of their user action through the intelligent adaptation of the information and content visible in the projection zone and on the display unit.
  • the invention therefore relates to a device or system as defined in the claims and the method described therein.
  • the invention relates in particular in a [embodiment A] to a computer-aided method for collaborative solution finding, comprising the following steps: i) recording the position of one or more intelligent objects within the projection zone and / or recording the change in his or her position via one certain period of time by a recording unit; ii) recording the position of the projection zone in relation to the intelligent object; iii) processing the received information in the processor; and iv) decoding the data and controlling the information shown on the display unit and / or projection surface, the decoding of the intelligent objects taking place without the aid of a code plan, since the objects are assigned to the objects on the software side and the contents displayed on the projection zone without the aid of a code plan or fixed grid can be read.
  • the invention relates to the method as in [embodiment B].
  • the software-side attributes comprising the following parameters: a numerically unique identifier of each intelligent object, the textual description of each intelligent object, the color of the intelligent object, the textual description of the surface structure of the intelligent object, the textual description of the form of the intelligent object, the size of the intelligent object, the description of included actions of the intelligent object, the action of the intelligent object in the form that it adds or reduces something to a content on the projection surface, the action of the intelligent object in the form that the user marked a content on the projection surface positively or negatively.
  • the invention relates to the method as in [embodiment C].
  • the user actions with intelligent objects include the following parameters, namely the numerical unique designation of a user action with an intelligent object, the numerical unique designation of a user, the recording of time, date, time, second, millisecond, the recording of the x -Coordinate on the projection surface, the recording of the y-coordinate on the projection surface, the recording of the z-coordinate on the projection surface, the speed of the user action with an intelligent object and the direction of the user action with the intelligent object.
  • the invention relates to a system for collaborative solution finding for carrying out the method as described in [embodiment A], which is formed from a data collection unit 101, a processor 104, a control unit 312 and a display unit 109, wherein the data collection unit 101 comprises a projection zone and a recording unit 105, which records and processes the position and / or movement of any objects in the projection zone and a result for the solution finding on a Forwarding display unit 109 and possibly returning another result to the projection zone.
  • the aforementioned data collection unit 101 preferably records the position and / or movement of any objects in the projection zone, processes them and displays the contents on a display unit 109 and, if necessary, returns a further result to the projection zone.
  • the invention relates to the system as described in [embodiment D], which is characterized in that the content of the projection zone changes dynamically.
  • the invention relates to the method and the use of the system according to [embodiments D and E] for planning infrastructure and urban concepts.
  • the invention differs in particular from the known and described systems and methods in that the objects used are intelligent. I.e. the objects are recognized by the recording system and, as a result of which they are referred to below as “intelligent objects”.
  • the objects have attributes that are recognized independently by the system and without the aid of a code plan. They are identified by using self-learning algorithms. This is particularly advantageous because any objects can thus be used in the method according to the invention.
  • Realistic objects offer low-threshold access for users to collaborative solution finding. This results in a wide range of possible uses for the method and system and device according to the invention, and the acceptance of the users is thereby positively influenced.
  • optically and system-recognizable attributes are e.g. Shape of the object, color, size, surface texture, texture and haptic parameters. Attributes recognized by the system are also called software attributes. If the system does not recognize the objects, a learning process starts to recognize these objects in the future.
  • the objects are real, 3-dimensional objects and easily movable. Similar to playing pieces in a board game, they are moved in the projection zone, preferably on the projection surface.
  • Objects according to the invention are, for example, game pieces, Miniature figures, cars, drones, houses, street signs and trees. Schematic 3-dimensional objects can be used equally (eg emoticons).
  • a projection zone is understood to mean a location at which the desired scenario is shown.
  • the projection zone can be a surface (“projection surface”) or a room (“projection space”).
  • the projection surface has only x and y coordinates, while the projection space has x, y and z coordinates.
  • Maps and plans on which the objects are positioned are, for example, projected onto the projection surface according to the invention.
  • the projection surfaces are not touchscreens because the acceptance and commitment of the users is reduced by using such high-tech screens or tables.
  • LED screens and transparent surfaces on which information can be imaged by means of a projector are suitable as the projection surface.
  • This information includes, for example, maps, blueprints, city maps, floor plans and much more.
  • the content / information projected onto the projection surface can be freely selected depending on the use of the system or the device and the method. Playing fields as are known from board games or sports facilities are conceivable, as well as technical or architectural plans, plans about infrastructures, city maps and sketches.
  • the information projected on the projection surface can change, e.g. by projecting maps that contain live data. Such maps are known, for example Google Maps including current traffic forecasts or maps of a control center with the display of all buses and trains currently running in local public transport or emergency vehicles from the police and fire brigade. Projection spaces are, for example, virtual environments or holograms and all types of spatial animations.
  • a screen can also be used as the projection surface.
  • Suitable screens are known and are based on the following technology: LED “light emitting diode”, QD-LED “quantum dots displays”, OLED “organic light emitting diode”, ⁇ LET “organic light-emitting” transistor “, SED” surface conduction electron-emitter display “, FED” field emission display “, FED” Ferro liquid display ". Suitable screens can be found easily.
  • the recording unit records the position, position and / or movement of the object, i.e. the position of the object within the projection zone and, if the object is moved, also the temporal, directional change in position including acceleration.
  • the recording unit then records the position, position and / or movement of the objects in the projection zone and, if the objects are moved, also their temporal, directional changes in the positions, including accelerations.
  • the positioning and moving of one or more such objects in the projection zone can trigger a change in the content displayed on the projection surface and in the projection space and / or on the display unit . This is described as an example in FIG. 7.
  • the aim of these recordings is not the detection of the object itself or the objects as such, but rather its or their attributes, positioning (s) and relative movement (s) within the projection zone. Furthermore, the identification of the object or objects to be moved in relation to the content / information present on the projection surface and, if appropriate, its change in position (s) as a function of time.
  • Another aim of the recording can also be the collection of data with regard to the movement and, above all, the movement pattern of the users.
  • interesting are the reaction speeds, the speed during the positioning and the sequence of the positioning of different objects and their or their relative position on the projection surface.
  • Non-personalized information about a user that is suitable for classifying the same can also be collected.
  • Such information is, for example, gender, age, culture.
  • the method and the system according to the invention can also be used for collecting and collecting data on user behavior, which are then evaluated with the aid of algorithms or for training artificially intelligent systems.
  • the recording is done by the recording unit. All recording devices, in particular optical reading devices, e.g. Imaging cameras, sensors or other measuring devices, such as radar and sonar or combinations thereof. Two-dimensional charge coupled device (CCD) image sensors are used in common reading devices.
  • optical reading devices e.g. Imaging cameras, sensors or other measuring devices, such as radar and sonar or combinations thereof.
  • CCD charge coupled device
  • the recording unit is fixed over the projection zone.
  • the fixation is important in order to carry out a calibration of the system necessary for recording the information to be collected.
  • the recording unit is also positioned so that it captures the entire projection zone.
  • the method according to the invention for collaborative solution finding comprises the following steps: [0039] Recording the position of one or more intelligent objects within the
  • the decoding is the recognition of specific attributes of the intelligent objects without a code plan and independent of a grid system.
  • the data coding ie the characterization of characteristics with, for example, short descriptions of their characteristics, is documented in a code plan. In the present case, this would be the pseudonymization of objects, attributes and their characteristics.
  • the method essentially runs as follows: The user places or moves an object on the projection surface or in the projection space. The recording unit receives the object information that is sent via the processor to a decoding unit.
  • a user can move multiple objects or multiple users can move one or more objects.
  • the spatial position of the objects relative to one another is then detected, which enables a further depth of information, e.g. in relation to the metric distance or relative position of two or more objects to each other and in relation to their position in the projection zone.
  • a learning process for recognizing the object starts.
  • a self-learning algorithm with the aim of being able to identify the object further.
  • the object is known, then further information or contents of the projection zone are obtained. This information is then checked by the system (e.g. the processor) to determine whether the content is known. If this is not the case, a learning process also starts here. If the content is known, the question arises whether an interaction field has been recognized by the system. Interaction fields are specifically defined areas within the projection area in relation to the projected content and they lie in the projection zone. Interaction fields are used to send a targeted control signal with specific content to the projection zone and display unit using the intelligent objects via data transmission signal. The system's response to the positioning of an object on an interaction field can be dynamic or non-dynamic. A dynamic change is, for example, that the display language changes or other content appears on the projection surface.
  • the system e.g. the processor
  • the contents and coordinates of elements of the projection surface are stored in relation to the coordinates of the positioned and known object and further processed by a processor.
  • the control unit sends a data transmission signal to the processor, so that the coordinates of the object connected to the projection zone and the user interaction are stored. Each user interaction is stored line by line in the processor or in the information unit, so that finally the sum of all user interactions can be processed together.
  • This data can be used for other purposes, as described for example in EP 1 983 450.
  • the advantages of the system and method according to the invention lie in the fact that real objects, such as miniature figures, automobiles, drones, single-family houses, trees, etc., can be used.
  • Prior art systems use coded standard objects.
  • Eg Lego blocks which are color-coded using the four fields of a Lego block below and stand for a special object to be displayed.
  • the Lego brick coding 1x red, 1x blue, and 2x white can be used for a single-family house, for example.
  • the present method takes diverse parameters of the objects into account. For example, it recognizes the specific object of a single-family house and can then move between two similar houses, one with a pointed, one with a flat roof, or the like. differentiate. As already mentioned above, the parameters considered are e.g. Color, texture, geometry / polygons of the body, coordinates, size, haptic parameters.
  • the present system and method according to the invention recognizes different sizes of an object on a continuous scale.
  • Real (projected) substrates are also used instead of artificial, fixed grids.
  • the method according to the invention works on the projection surface and the projection zone with a continuous, stepless recording and interaction. While known systems work in a fixed grid (eg in a 4x4 Lego brick grid), in the present method any continuous surfaces are displayed on the projection surface. This can be a map of a country, district or playground. The shapes can take any shape, do not have to follow a fixed size and square shape to be recognized.
  • the present inventive method can also work with dynamic backgrounds and changes over time. What is meant by this is that the projected content on the projection surface or in the projection space can likewise represent, for example, moving cars or buses, which is taken into account in the recording and interaction with the intelligent objects for processing.
  • the system can measure in the third dimension (z-axis) and it can interact with the information displayed in the projection zone and, for example, record markings where something is to be added or removed from the underlying information (for example a map) (for example, two swings become one).
  • Another aspect of the invention consists in that, following the method according to the invention, the sum of the complete actions, which is referred to here as the “scenario” and, for example, represents the execution of the action sequences shown in FIG. 6, is visualized via an information system.
  • scenario represents the execution of the action sequences shown in FIG. 6
  • new structures and relationships can be obtained as a series of several scenarios, which means that complex issues can be presented in a reduced manner. It is conceivable to reconstruct a traffic accident on the basis of different witness statements or by going through different scenarios at major events such as escape routes or routes of the emergency services to the scene.
  • Information systems for visual display can be, for example, diagrams, heat maps, superimposed maps and results of several scenarios.
  • the visualization is usually carried out via an output unit (e.g. printer, monitor, smartphone, tablet).
  • an output unit e.g. printer, monitor, smartphone, tablet.
  • the generated information can be exported as a data record and used in other information systems.
  • FIG. 1 shows a schematic representation of the system according to the invention.
  • FIG. 2a shows a schematic representation of the user interface with intelligent objects and interaction of a user.
  • 2b shows a schematic representation of the user interface after a user has interacted.
  • 3 shows a schematic representation of the interactions in the method according to the invention, including electronic components.
  • 4 shows the parameters of the objects.
  • Figure 5 shows the parameters of user interaction.
  • FIG. 6 shows a flow diagram for the method according to the invention.
  • Fig. 7 is a top view of a possible user interface (user interface).
  • FIG. 8 shows a schematic representation of the system and the device, as described in connection with FIG. 1, in which an information system is also present for evaluation.
  • FIG. 9 shows a flowchart of the method according to the invention by means of which the user-generated data can be evaluated.
  • Fig. 1 shows an example of the system according to the invention, which has a rollable housing 102b, which is used to hold the processor 104 and the apparatus (s) for projecting 106 of 2-dimensional content, and on which the projection surface 103 is located .
  • the projection surface here is a flat, transparent plexiglass pane onto which 2-dimensional content (information) is projected from below and at the same time is the recording surface for the interventions shown in FIG.
  • the system according to the invention has a display unit 109 which is controlled by a data transmission signal 107 in order to transmit content to the display unit, as shown in FIG. 2b.
  • 2a shows an exemplary user interface (user interface) 201, formed from the projection surface 203, via which interaction with the user 210 is possible, in combination with the intelligent objects 208a, 208b, 208c.
  • the user 210 interacts with one or more intelligent objects 208a, 208b, 208c on the projection surface 203. Interactions take place in the parameters x, y and z axis (x, y, z).
  • the recording unit which is not shown here, collects the relevant information, which is then transmitted from the processor 104 to the display unit 209 by the data transmission signal 207.
  • 2b shows the user interface from FIG.
  • intelligent objects 208c and display unit 209 and the information 216 caused on the display unit by a user interaction are referred to as the user interaction 210 with an intelligent one Object 208c and, depending on the same intelligent object, the position of the object (x, y, z) on the content (ie the content depicted on the projection surface (e.g. city map)), by a processor (not shown here) content on the projection surface 215 and content for the display unit 216.
  • FIG. 3 shows an example of the method according to the invention in relation to the user interaction shown and described schematically in FIG. 2b.
  • Each user interaction 210 with the intelligent objects 308 is recorded via the recording unit 305 and transmitted to the processor 304.
  • the latter processes the transmitted information and sends information about the intelligent objects to the decoding unit 313.
  • the decoding unit 313 interacts with the information unit 311 with regard to the transmitted information that identifies the intelligent objects.
  • the processor interacts with the control unit 312, which transmits certain information to the projection surface 303 and correspondingly other information to the display unit 309.
  • the ObjectJD is a numerically unique identifier of every intelligent object.
  • the Object_Label is a textual description of every intelligent object. Color describes the color of the intelligent object. Texture is the textual description of the surface structure of the intelligent object. Geometry is the textual description of the shape of the intelligent object. Size numerically describes the size of the intelligent object. Function is the description of included actions of the intelligent object. Plus / Minus describes the action of the intelligent object in such a way that it adds or reduces something to a content on the projection surface. Positive / negative describes the action of the intelligent object in such a way that the user marks content on the projection surface positively or negatively.
  • ID is the numerical, unique designation of a user action with an intelligent object.
  • User ID is the numerical, unique designation of a user.
  • Time describes the recording of date, time with hour, minute, second, millisecond.
  • X is the recording of the x coordinate on the projection surface.
  • Y is the recording of the y coordinate on the projection surface.
  • Z is the recording of the z coordinate on the projection surface.
  • Accelerator describes the speed of user action with an intelligent object.
  • Direction describes the direction of a user action with the intelligent object.
  • the method begins with checking whether the present system is calibrated with the existing intelligent objects and the contents on the projection zone. If this is not the case, the calibration is started. With the user interaction, the system receives object information about the moving intelligent object. The method starts the decoding unit, which checks in the information unit whether the moving object is known. If it is not known, the decoding unit triggers a learning process. If the object is known, the content of the projection surface is transmitted. If the contents of the projection area are not known, a learning process is initiated. If the contents of the projection surface are known, the method checks the existence of an interaction field.
  • the method starts the control unit, which in turn sends control signals with contents for the display unit and further contents for the projection surface. After delivery of the content for the projection surface, the process begins again with the user interaction. If no interaction field is recognized, the coordinates (x, y, z) of the object are transmitted. The method checks whether there are dynamic contents of the projection surface. If this is the case, the status of the content is transmitted on the projection surface in connection with the object data. The contents of the projection surface are then transmitted and the processor started for further processing of all available data. Processing can also be carried out using methods outside the present system. It is then checked whether there is another user interaction with which the process is started again. If this is not the case, the procedure is ended.
  • FIG. 7 is a view from above of a possible user interface (user interface), ie one sees the projection surface 703 and the contents projected onto it (here a city map with traffic density display, the thickness of the lines representing the traffic volume) and the intelligent objects 708a-d in the form of traffic signs ("no passage sign").
  • the intelligent object 708b was positioned on an interaction field (here a crossroads) and symbolizes a passage barrier for motor vehicle traffic, as described on the projection surface on the top left. Which is positioned on the projection surface Object-related changes in traffic flow (marked in bold lines in the figure) are immediately visible as a simulation.
  • FIG. 8 shows a schematic illustration of the system and the device, as described in connection with FIG. 1, in which an information system for evaluation 818 is additionally present. Data is visualized on the output device 819, for example as a heat map 820 or diagram 821.
  • FIG. 9 shows a flowchart of the method according to the invention, by means of which the generated user data and user information can be evaluated.
  • the sequence shown in the flowchart follows the sequence as shown in FIG. 6. This leads to the visualized evaluation of all user interactions and their output.
  • the evaluation unit is usually a processor with which the collected data are processed.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Ein Objekt-basiertes System zur kollaborativen Lösungsfindung, das aus einer Datensammeleinheit (101), einem Prozessor (104), einer Steuereinheit (312) und einer Anzeigeeinheit (109) gebildet wird, wobei die Datensammeleinheit (101) eine Projektionszone und eine Detektionseinheit (313) umfasst, die die Position und/oder Bewegung beliebiger Objekte in der Projektionszone (103) aufzeichnet, verarbeitet und ein Ergebnis für die Lösungsfindung auf einer Anzeigeeinheit (109) weitergibt und ggf. ein weiteres Ergebnis auf die Projektionsfläche zurückgibt.

Description

Objektbasiertes Verfahren und System zur kollaborativen Lösungsfindung
GEBIET DER ERFINDUNG
[0001 ] Die vorliegende Erfindung betrifft ein objektbasiertes Verfahren und System zur kollaborativen Lösungsfindung, mit dem Nutzerdaten generiert und verarbeitet werden und das Ergebnis visualisiert wird.
HINTERGRUND DER ERFINDUNG
[0002] Bei der Stadtentwicklung und der städtischen Lösungsfindung ist es von großer Bedeutung, die Allgemeinheit in die Lösungsfindungsprozesse einzubinden. Eine große Herausforderung dabei ist, Bürger, die oft Laien sind, so einzubinden, dass sie Vor- und Nachteile der vorgeschlagenen Lösungen nachvollziehen können, um sich eine Meinung zu bilden. Gängige Softwaresysteme, wie beispielsweise 3-D Simulationen, sind für den Laien oft unverständlich und kompliziert anzuwenden. Es kommt bei der Lösungsfindung deshalb oft zu einer niedrigen Bürgerbeteiligung und die Bürger, die sich doch beteiligen, sind oft diese, die mit der Entwicklung nicht einverstanden sind. Somit wird durch die Beteiligung oft ein verzerrtes Meinungsbild generiert.
[0003] Deshalb stellt sich das Problem, wie man alternative Lösungsräume darstellt, dass sie von Laien und Experten zugleich verstanden und angewendet werden, oder Lösungsräume gar mit Laien entworfen werden. Dabei soll eine möglichst heterogene Gruppe, als Querschnitt der Bevölkerung, an der Entscheidung beteiligt werden.
[0004] Die Erfinder haben nun gefunden, dass die Lösungsfindung von Laien und auch von Experten sehr viel schneller und einfacher möglich ist, wenn der Benutzer spielerisch durch alternative Lösungsvorschläge geführt wird. Dabei ist die für den und von dem Benutzer objekthafte, greifbare Visualisierung der angedachten Lösungen von entscheidender Bedeutung.
[0005] WO 2014/070120 beschreibt ein „augmented reality“-Verfahren mit dem mehrere Personen gleichzeitig und individuell ein Objekt untersuchen können. Dafür wird eine Anordnung bereitgestellt, bestehend aus einem mobilen Aufnahmegerät (121 ), das gleichzeitig auch Display (300) ist, und einer kodierten Oberfläche (500), auf der sich ein physisches Objekt (501 ) befinden kann oder auf der ein virtuelles Objekt eingeblendet wird. In einer in Abbildung 3 dargestellten Variante der Vorrichtung, ist das Aufnahmegerät (eine Kamera) und das Display getrennt voneinander angeordnet. Gemäß WO 2014/070120 ist für die Lösung der darin gestellten Aufgabe von besonderer Bedeutung, dass die bewegliche Kamera nahe an die kodierte Oberfläche herangebracht werden kann. Vorteilhafterweise ist das Verhältnis von kodierter Oberfläche, die sich im Aufnahmebereich der Kamera befindet, zur Gesamtfläche 0,01 . Die kodierte Oberfläche kann auch eine Vielzahl unterschiedlich kodierter Segmente, d.h. eine Art Raster, aufweisen.
[0006] Weitere Systeme sind bekannt und sind im beschränkten Umfang auch im Gebrauch. Z.B. beschäftigt sich die MIT SCIENCE GROUP damit (siehe https:// www.media.mit.edu/projects/citymatrix/overview/). Sie haben ein System entwickelt, in dem Distrikte mit Legosteinen umgestaltet werden. Hierzu wird ein Raster auf einen Tisch projiziert, auf dem speziell kodierte Legosteine gesetzt werden. Die Distrikte werden von oben projiziert und sobald Änderungen vorgenommen werden, aktualisiert sich die Ausgabe auf dem Bildschirm entsprechend der Eingabe. Die verwendeten Legosteine werden dazu benutzt, Gebäude darzustellen. Jeder Legostein hat eine spezielle Kodierung und kann zum Beispiel für die Höhe des Gebäudes und seine Nutzungsweise (Gewerbe, Wohnung, etc.) stehen. Ein mit verschiedenen städtebaulichen Forschungsdaten gespeistes Computersystem beurteilt die Daten und gibt die Ergebnisse in Bezug auf Bevölkerungsdichte, Verkehr, Verschattung oder Sonnenlicht als Diagramm auf einem Bildschirm aus.
[0007] Nachteil des vorgenannten Systems ist, dass durch das Verwenden von Legosteinen, die spezifisch kodiert sind, lediglich Gebäude nachgebaut werden können, so dass die Lösungs findung im Wesentlichen darauf begrenzt ist, wie hoch die Gebäude werden sollen, was darin untergebracht ist (Restaurant, Wohnung, Fabrik oder Universität) und wie sich dadurch die Verkehrs- und/ oder Bevölkerungsdichte verändert, und ob durch diese Bebauung ein innovatives Umfeld entstehen kann. Zudem ist das System auf die quadratische/rechteckige Formen festgelegt und kann nur bedingt anders geformte Elemente abbilden wie z.B. Bäume, Seen, diagonale Straßenzüge, wie in vielen europäischen Städten üblich.
DARSTELLUNG DER ERFINDUNG
[0008] Die Erfinder haben nun ein computerbasiertes System bzw. Vorrichtung sowie ein computerimplementiertes Verfahren gefunden, das sehr viel mehr Freiheitsgrade für die Fragestellung und somit Lösungsfindung zulässt als die bekannten Systeme und Verfahren, so dass es breiter eingesetzt werden kann. Mit den bekannten Systemen wird zudem nur in Bezug auf Flächen, d.h. im x-, y-Koordinatensystem gearbeitet, während mit dem vorliegenden System auch die z-Koordinate, d.h. 3-Dimensionales erfasst wird.
[0009] Mit dem erfindungsgemäßen System bzw. Vorrichtung und dem erfindungsgemäßen Verfahren ist die Akzeptanz der Benutzer sehr groß. Benutzer kann jeder sein. Das System kann auch ohne technische Vorbildung, technisches Geschick oder räumliche Vorstellungskraft ohne Weiteres von Laien und Experten verwendet werden. Daher kommt es bei der Verwendung der Erfindung zu einer hohen Beteiligung bei Lösungsfindungsprozessen mit validen und repräsentativen Lösungsergebnissen für z.B. eine lebenswertere Stadt. Die Lösungsfindung basiert auf breiteren Daten, da Technik-skeptische oder Technik-unerfahrene Zielgruppen gleichfalls eingebunden werden, so dass die Ergebnisse insgesamt aussagekräftiger und verlässlicher werden. Das erfindungsgemäße System eignet sich auch für Simulationen von Auswirkungen der Benutzeraktionen auf die Inhalte der Projektionszone.
[0010] Die hohe Nutzerakzeptanz liegt insbesondere am Einsatz der physisch greifbaren, nicht digitalen Objekte, die auf einer Fläche, auf die Inhalte/Informationen projiziert sind, positioniert und angeordnet oder in eine virtuelle Umgebung eingebracht werden. Sowie dem direkt erhältlichen systemgenerierten Feedback an den oder die Benutzer. Die Benutzer sehen sofort nach dem Setzen und/oder Bewegen des oder der Objekte das Resultat ihrer Benutzeraktion, durch die intelligente Anpassung der in der Projektionszone und auf der Anzeigeeinheit sichtbaren Informationen und Inhalte.
[001 1 ] Gleichfalls wird mit dem erfindungsgemäßen System die Projektplanung einfacher, da durch das visuelle Feedback sofort etwaige Nachteile bei der Planung gesehen werden. Das hat direkten Einfluss auf die Kosten und erhöht die Geschwindigkeit bei der Lösungsfindung und deshalb Umsetzung des Projekts.
[0012] Die Erfindung betrifft deshalb eine Vorrichtung bzw. System wie in den Ansprüchen definiert sowie das darin beschriebene Verfahren.
[0013] Die Erfindung betrifft insbesondere in einer [Ausführungsform A] ein computergestütztes Verfahren zur kollaborativen Lösungsfindung, umfassend die folgenden Schritte: i) Aufnahme der Position eines oder mehrerer intelligenter Objekte innerhalb der Projektionszone und/oder Aufnahme der Veränderung seiner oder deren Positionen über einen bestimmten Zeitraum durch eine Aufnahmeeinheit; ii) Aufnahme der Position der Projektionszone in Bezug auf das intelligente Objekt; iii) Verarbeitung der erhaltenen Information im Prozessor; und iv) Dekodierung der Daten und Steuerung der auf der Anzeigeeinheit und/oder Projektionsfläche gezeigten Informationen, wobei die Dekodierung der intelligenten Objekte ohne Zuhilfenahme eines Codeplans geschieht, da den Objekten softwareseitig Attribute zugeordnet sind und die dargestellten Inhalte auf der Projektionszone ohne Zuhilfenahme eines Codeplans oder fixierten Rasters gelesen werden.
[0014] In einer [Ausführungsform B] betrifft die Erfindung das Verfahren wie in [Ausführungsform
A] beschrieben, wobei die softwareseitigen Attribute folgende Parameter umfassen: Einen numerischen eindeutigen Bezeichner eines jeden intelligenten Objektes, die textliche Beschreibung eines jeden intelligenten Objektes, die Farbe des intelligenten Objektes, die textliche Beschreibung der Oberflächenstruktur des intelligenten Objektes, die textliche Beschreibung der Form des intelligenten Objektes, die Größe des intelligenten Objektes, die Beschreibung inkludierter Aktionen des intelligenten Objektes, die Aktion des intelligenten Objektes in der Form, dass es einem Inhalt auf der Projektionsfläche etwas hinzufügt oder reduziert, die Aktion des intelligenten Objektes in der Form, dass der Benutzer einen Inhalt auf der Projektionsfläche positiv oder negativ markiert.
[0015] In einer [Ausführungsform C] betrifft die Erfindung das Verfahren wie in [Ausführungsform
B] beschrieben, wobei die Benutzeraktionen mit intelligenten Objekten folgende Parameter beinhalten, nämlich die numerische eindeutige Bezeichnung einer Benutzeraktion mit einem intelligenten Objekt, die numerische eindeutige Bezeichnung eines Benutzers, die Aufzeichnung von Zeit, Datum, Uhrzeit, Sekunde, Millisekunde, die Aufzeichnung der x-Koordinate auf der Projektionsfläche, die Aufzeichnung der y-Koordinate auf der Projektionsfläche, die Aufzeichnung der z-Koordinate auf der Projektionsfläche, die Geschwindigkeit der Benutzeraktion mit einem intelligenten Objekt sowie die Richtung der Benutzeraktion mit dem intelligenten Objekt.
[0016] In einer [Ausführungsform D] betrifft die Erfindung ein System zur kollaborativen Lösungsfindung zur Durchführung des Verfahrens wie in [Ausführungsform A] beschrieben, das aus einer Datensammeleinheit 101 , einem Prozessor 104, einer Steuereinheit 312 und einer Anzeigeeinheit 109 gebildet wird, wobei die Datensammeleinheit 101 eine Projektionszone und eine Aufnahmeeinheit 105 umfaßt, die die Position und/oder Bewegung beliebiger Objekte in der Projektionszone aufzeichnet, verarbeitet und ein Ergebnis für die Lösungsfindung auf einer Anzeigeeinheit 109 weitergibt und ggf. ein weiteres Ergebnis auf die Projektionszone zurückgibt. Bevorzugt zeichnet die vorgenannte Datensammeleinheit 101 die Position und/oder Bewegung beliebiger Objekte in der Projektionszone auf, verarbeitet diese und stellt die Inhalte auf einer Anzeigeeinheit 109 dar und ggf. gibt sie ein weiteres Ergebnis auf die Projektionszone zurück.
[0017] In einer [Ausführungsform E] betrifft die Erfindung das System wie in [Ausführungsform D] beschrieben, das dadurch gekennzeichnet ist, dass sich der Inhalt der Projektionszone dynamisch ändert.
[0018] In einer [Ausführungsform F] betrifft die Erfindung das Verfahren sowie die Verwendung des Systems gemäß der [Ausführungsformen D und E] zur Planung von Infrastruktur und städtischen Konzepten.
[0019] Die Erfindung unterscheidet sich insbesondere von den bekannten und oben beschriebenen Systemen und Verfahren dadurch, dass die verwendeten Objekte intelligent sind. D.h. die Objekte werden vom Aufnahmesystem und erkannt, wodurch sie im Nachfolgenden auch als„intelligente Objekte“ bezeichnet werden.
[0020] Wie beschrieben, besitzen die Objekte Attribute, die vom System und ohne Zuhilfenahme eines Codeplans eigenständig erkannt werden. Deren Erkennung erfolgt durch Verwenden selbstlernender Algorithmen. Das ist besonders vorteilhaft, denn im erfindungsgemäßen Verfahren können somit beliebige Objekte eingesetzt werden. Realitätsnahe Objekte bieten einen niedrigschwelligen Zugang der Nutzer zur kollaborativen Lösungsfindung. Dadurch ergeben sich vielfältige Einsatzmöglichkeiten des erfindungsgemäßen Verfahrens und des Systems und der Vorrichtung, und die Akzeptanz der Nutzer wird dadurch positiv beeinflußt.
[0021 ] Da die Objekte nicht kodiert sind, werden sie vom System anhand ihrer äußeren Gestalt und einem oder mehreren dazugehörenden optischen Attributen erkannt. Solche optisch und vom System erkennbaren Attribute sind z.B. Form des Objekts, Farbe, Größe, Oberflächenbeschaffenheit, Textur und haptische Parameter. Vom System erkannte Attribute werden hier auch softwareseitige Attribute genannt. Sollte das System die Objekte nicht erkennen, so startet ein Lernprozess um diese Objekte zukünftig zu erkennen.
[0022] Die Objekte sind reale, 3-dimensionale Objekte und leicht bewegbar. Sie werden ähnlich wie Spielsteine in einem Gesellschaftsspiel in der Projektionszone, vorzugsweise auf der Projektionsfläche, bewegt. Erfindungsgemäße Objekte sind beispielsweise Spielsteine, Miniaturfiguren, Autos, Drohnen, Häuser, Straßenschilder und Bäume. Schematisch dargestellte 3-dimensionale Objekte können gleichermaßen verwendet werden (z.B. Emoticons).
[0023] Unter Projektionszone wird ein Ort verstanden, an dem das gewünschte Szenario dargestellt ist. Die Projektionszone kann eine Fläche („Projektionsfläche“) oder ein Raum sein („Projektionsraum“). Die Projektionsfläche besitzt lediglich x- und y- Koordinaten, während der Projektionsraum x-, y- und z-Koordinaten aufweist.
[0024] Auf die erfindungsgemäße Projektionsfläche werden beispielsweise Karten und Pläne projiziert, auf denen die Objekte positioniert werden. Bei den Projektionsflächen handelt es sich nicht um Touchscreens, da die Akzeptanz und das Engagement der Benutzer durch den Einsatz solcher hochtechnisierten Bildschirme oder Tische reduziert wird.
[0025] Als Projektionsfläche eignen sich LED-Bildschirme sowie transparente Flächen, auf die mittels eines Projektors (beispielsweise Beamer) Informationen abgebildet werden können. Diese Informationen sind beispielsweise Landkarten, Baupläne, Stadtpläne, Grundrisse und vieles mehr. Bevorzugt ist die Projektionsfläche eine Plexiglasscheibe mit aufgebrachter HD-Folie (HD=High Definition), auf die von unten mittels eines Beamers die gewünschten Inhalte / Informationen projiziert werden.
[0026] Die auf der Projektionsfläche projizierten Inhalte/ Informationen sind je nach Nutzung des Systems bzw. der Vorrichtung und des Verfahrens frei wählbar. Denkbar sind Spielfelder, wie sie von Gesellschaftsspielen oder Sportstätten bekannt sind, sowie technische oder architektonische Pläne, Pläne über Infrastrukturen, Stadtpläne und Skizzen. Die auf der Projektionsfläche projizierten Informationen können sich verändern, z.B. indem man Karten projiziert die Live-Daten enthalten. Solche Karten sind bekannt, zum Beispiel Google Maps inklusive aktueller Verkehrsvorhersage oder Karten einer Leitstelle mit der Darstellung aller aktuell fahrenden Busse und Bahnen des öffentlichen Nahverkehrs oder Einsatzfahrzeuge von Polizei und Feuerwehr. [0027] Projektionsräume sind beispielsweise virtuelle Umgebungen oder auch Hologramme und alle Arten von räumlichen Animationen.
[0028] Als Projektionsfläche kann auch ein Bildschirm verwendet werden. Geeignete Bildschirme sind bekannt und basieren auf folgender Technologie: LED “light emitting diode”, QD-LED “quantum dots displays”, OLED „organic light emitting diode“, ÖLET „organic light-emitting transistor“, SED„surface conduction electron-emitter display“, FED„field emission display“, FED „Ferro liquid display“. Geeignete Bildschirme können ohne Weiteres aufgefunden werden.
[0029] Wird das intelligente Objekt in der Projektionszone positioniert, so zeichnet die das Aufnahmeeinheit die Position, Lage und/oder Bewegung des Objekts auf, d.h. die Lage des Objekts innerhalb der Projektionszone und, sofern das Objekt bewegt wird, auch die zeitliche, gerichtete Veränderung der Position inklusive Beschleunigung.
[0030] Es können auch mehrere intelligente Objekte in der Projektionszone vorhanden sein und positioniert werden. Dann zeichnet die Aufnahmeeinheit die Position, Lage und/oder Bewegung der Objekte in der Projektionszone auf und, sofern die Objekte bewegt werden, auch deren zeitliche, gerichteten Veränderungen der Positionen inklusive Beschleunigungen.
[0031] Erfindungsgemäß kann das Positionieren und Bewegen eines oder mehrerer solcher Objekte in der Projektionszone, insbesondere deren räumliche Anordnung auf der Projektionsfläche und gegebenenfalls deren räumliches Verhältnis zueinander, eine Änderung der auf der Projektionsfläche und im Projektionsraum und/oder auf der Anzeigeeinheit angezeigten Inhalte auslösen. Beispielhaft ist das in Fig. 7 beschrieben.
[0032] Ziel dieser Aufzeichnungen ist nicht die Erfassung des Objekts selbst oder der Objekte als solche, sondern dessen oder deren Attribute, Positionierung(en) und relativen Bewegung(en) innerhalb der Projektionszone. Ferner die Identifikation des oder der zu bewegenden Objekte in Relation zu den auf der Projektionsfläche vorhandenen Inhalte /Informationen sowie ggf. dessen oder deren Lageveränderung(en) in Abhängigkeit von der Zeit.
[0033] Ein weiteres Ziel der Aufzeichnung kann auch das Sammeln von Daten im Hinblick auf die Bewegung und vor allem das Bewegungsmuster der Benutzer sein. Interessant sind dabei unter anderem Reaktionsgeschwindigkeiten, Geschwindigkeit bei der Positionierung sowie Abfolge der Positionierung verschiedener Objekte und dessen oder deren relative Lage auf der Projektionsfläche.
[0034] Auch können nicht-personalisierte Informationen über einen Nutzer, die sich zur Klassifikation derselben eignen, erhoben werden. Solche Informationen sind z.B. Geschlecht, Alter, Kulturkreis. [0035] Demzufolge kann das erfindungsgemäße Verfahren und das System auch zum Erheben und Sammeln von Daten von Nutzerverhalten verwendet werden, die dann mit Hilfe von Algorithmen ausgewertet werden oder für das Trainieren von künstlich intelligenten Systemen.
[0036] Die Aufzeichnung erfolgt durch die Aufnahmeeinheit. Als Aufnahmeeinheiten eignen sich sämtliche Aufnahmegeräte, insbesondere optische Lesegeräte, z.B. Bildaufnahmekameras, Sensoren oder sonstige Messgeräte, wie beispielsweise Radar und Sonar oder Kombinationen davon. In gängigen Lesegeräten werden zweidimensionale Charge-Coupled-Device-(CCD)- Bildsensoren verwendet.
[0037] Die Aufnahmeeinheit ist über der Projektionszone fixiert. Die Fixierung ist wichtig, um eine für die Aufzeichnung der zu sammelnden Informationen notwendige Kalibrierung des Systems vorzunehmen. Die Aufnahmeeinheit ist ferner so positioniert, dass es die gesamte Projektionszone erfasst.
[0038] In einer Ausführungsform umfasst das erfindungsgemäße Verfahren zur kollaborativen Lösungsfindung folgenden Schritte: [0039] Aufnahme der Position eines oder mehrerer intelligenter Objekte innerhalb der
Projektionszone und/oder der Veränderung seiner oder deren Positionen über einen bestimmten Zeitraum durch eine Aufnahmeeinheit mit anschließender Verarbeitung der erhaltenen Information im Prozessor, gefolgt von einer Dekodierung der Daten und Steuerung der auf der Anzeigeeinheit und/oder Projektionsfläche gezeigten Informationen, dadurch gekennzeichnet, dass die Dekodierung der intelligenten Objekte ohne Zuhilfenahme eines Codeplans geschieht, da den Objekten softwareseitig Attribute zugeordnet wurden. Gleiches gilt für die dargestellten Inhalte auf der Projektionszone, die ohne Zuhilfenahme eines Codeplans oder fixierten Rasters gelesen werden.
[0040] Das Dekodieren ist das Erkennen von spezifischen Attributen der intelligenten Objekte ohne Codeplan und unabhängig von einem Rastersystem. In einem Codeplan wird die Datencodierung, d.h. die Charakterisierung von Merkmalen mit z.B. Kurzbezeichnungen ihrer Ausprägung dokumentiert. Vorliegend wäre das die Pseudonymisierung von Objekten, Attributen und ihrer Ausprägungen. [0041] Im Wesentlichen läuft das Verfahren wie folgt ab: Der Benutzer stellt oder bewegt ein Objekt auf die Projektionsfläche oder in den Projektionsraum. Die Aufnahmeeinheit erhält die Objektinformationen, die über den Prozessor zu einer Dekodierungseinheit gesendet werden.
[0042] Selbstverständlich kann ein Benutzer mehrere Objekte oder mehrere Benutzer ein oder mehrere Objekte bewegen. Dann wird die räumliche Lage der Objekte zueinander detektiert, was eine weitere Informationstiefe ermöglicht und zwar z.B. in Bezug auf die metrische Distanz oder relative Position zweier oder mehrerer Objekte zueinander und in Bezug auf deren Lage in der Projektionszone.
[0043] Ist das Objekt nicht bekannt, so startet ein Lernprozess zur Erkennung des Objekts. Vorzugsweise unter Verwendung eines selbstlernenden Algorithmus mit dem Ziel das Objekt im Weiteren identifizieren zu können.
[0044] Ist das Objekt bekannt, dann werden weitere Informationen bzw. Inhalte der Projektionszone erhalten. Diese Informationen werden dann vom System (z.B. dem Prozessor) daraufhin überprüft, ob die Inhalte bekannt sind. Wenn das nicht der Fall ist, so startet auch hier ein Lernprozess. Sind die Inhalte bekannt, so stellt sich die Frage, ob systemseitig ein Interaktionsfeld erkannt wurde. Interaktionsfelder sind in Bezug auf die projizierten Inhalte speziell definierte Bereiche innerhalb der Projektionsfläche und sie liegen in der Projektionszone. Interaktionsfelder dienen dazu, mit Hilfe der intelligenten Objekte per Datenübertragungssignal ein gezieltes Steuersignal mit konkreten Inhalten an die Projektionszone und Anzeigeeinheit zu senden. Die Reaktion des Systems auf die Positionierung eines Objekts auf ein Interaktionsfeld kann dynamisch oder nicht-dynamisch sein. Eine dynamische Änderung ist bspw., dass sich die Anzeigesprache verändert oder andere Inhalte auf der Projektionsfläche erscheinen.
[0045] Handelt es sich um ein dynamisches Interaktionsfeld, so werden die Inhalte und Koordinaten von Elementen der Projektionsfläche in Bezug auf die Koordinaten des positionierten und bekannten Objekts gespeichert und durch einen Prozessor weiterverarbeitet.
[0046] Handelt es sich nicht um dynamische Inhalte und sind das Objekt und die Projektionszone bekannt, dann sendet die Steuereinheit ein Datenübertragungssignal an den Prozessor, so dass die Koordinaten des Objektes verbunden mit der Projektionszone sowie die Nutzerinteraktion gespeichert werden. [0047] Je Nutzerinteraktion erfolgt eine zeilenweise Speicherung im Prozessor bzw. in der Informationseinheit, so dass abschließend die Summe aller Nutzerinteraktionen gemeinsam verarbeitet werden kann. Diese Daten können anderweitig verwendet werden, wie beispielsweise in EP 1 983 450 beschrieben. [0048] Die Vorteile des erfindungsgemäßen Systems und Verfahrens liegen, wie bereits oben beschrieben, darin, dass reale Objekte, wie beispielsweise Miniaturfiguren Automobile, Drohnen, Einfamilienhäuser, Bäume, etc. verwendet werden können. Systeme aus dem Stand der Technik verwenden kodierte Standardobjekte. Z.B. Legosteine, die über die vier Felder eines Legosteins unten farblich codiert werden und für ein spezielles darzustellendes Objekt stehen. Die Legostein- Codierung 1x rot, 1x blau, und 2x weiß kann z.B. für ein Einfamilienhaus verwendet werden.
[0049] Das vorliegende Verfahren berücksichtigt vielfältige Parameter der Objekte. Es erkennt zum Beispiel das konkrete Objekt eines Einfamilienhauses und kann dann zwischen zwei ähnlichen Häusern, einmal mit spitzem, einmal mit Flachdach, o.ä. differenzieren. Betrachtete Parameter sind wie oben bereits erwähnt z.B. Farbe, Textur, Geometrie/Polygone des Körpers, Koordinaten, Größe, haptische Parameter.
[0050] Im Gegensatz zu bekannten Systemen erkennt das vorliegende erfindungsgemäße System und Verfahren unterschiedliche Größen eines Objektes in einer kontinuierlichen Skala.
[0051] Gleichfalls werden reale (projizierte) Untergründe statt künstliche, fixe Raster verwendet. Das erfindungsgemäße Verfahren arbeitet auf der Projektionsfläche und der Projektionszone mit einer kontinuierlichen, stufenlosen Aufzeichnung und Interaktion. Während bekannte Systeme im fixen Raster arbeiten (z.B. im 4x4-Legostein-Raster), werden im vorliegenden Verfahren auf der Projektionsfläche beliebige, kontinuierliche Untergründe dargestellt. Dies kann eine Landkarte eines Landes, Stadtbezirks oder auch Spielplatzes sein. Die Formen können jegliche Formen annehmen, müssen keiner festen Größe und eckigen Form folgen, um erkannt zu werden. [0052] Auch kann das vorliegende erfindungsgemäße Verfahren mit dynamischen Untergründen und Veränderungen über Zeit arbeiten. Gemeint ist hiermit, dass der projizierte Inhalt auf der Projektionsfläche oder in dem Projektionsraum gleichermaßen bspw. fahrende Autos oder Busse darstellen kann, was bei der Aufzeichnung und Interaktion mit den intelligenten Objekten für die Verarbeitung berücksichtigt wird. [0053] Weiterhin kann das System in der dritten Dimension (z-Achse) messen und es kann mit der angezeigten Information in der Projektionszone interagieren und bspw. Markierungen aufnehmen, wo etwas aus der zugrundeliegenden Information (bspw. Karte) hinzugefügt oder weggenommen werden soll (z.B. aus zwei Schaukeln wird eine). [0054] Ein weiterer Aspekt der Erfindung besteht darin, dass im Anschluß an das erfindungsgemäße Verfahren die Summe der vollständigen Handlungen, welche hier„Szenario“ genannt wird und z.B. den Durchlauf der in Fig. 6 dargestellten Handlungsabläufe darstellt, über ein Informationssystem visualisiert werden. So können z.B. neue Strukturen und Beziehungen als Reihe mehrerer Szenarien erhalten werden, wodurch komplexe Sachverhalte reduziert dargestellt werden können. Denkbar ist die Rekonstruktion eines Verkehrsunfalls aufgrund von unterschiedlichen Zeugenaussagen oder Durchspielen unterschiedlicher Szenarien bei Großveranstaltungen wie z.B. Fluchtwege oder Wege der Einsatzkräfte zum Einsatzort.
[0055] Informationssysteme zur visuellen Darstellung können beispielsweise Diagramme, Heatmaps, übereinandergelegte Karten und Ergebnisse mehrerer Szenarien sein. Die Visualisierung erfolgt in der Regel über eine Ausgabeeinheit (z.B. Drucker, Bildschirm, Smartphone, Tablet).
[0056] Die erzeugte Information kann als Datensatz exportiert und in anderen Informationssystemen verwendet werden.
[0057] Zur weiteren Erläuterung der Erfindung wird im nachfolgenden Teil der Beschreibung auf die Figuren Bezug genommen, aus der weitere vorteilhafte Ausgestaltungen, Einzelheiten und Weiterbildungen der Erfindung zu entnehmen sind.
KURZBESCHREIBUNG DER FIGUREN
[0058] Fig.1 zeigt eine schematische Darstellung des erfindungsgemäßen Systems.
[0059] Fig. 2a zeigt eine schematische Darstellung der Benutzerschnittstelle (User Interface) mit intelligenten Objekten und Interaktion eines Benutzers.
[0060] Fig. 2b zeigt eine schematische Darstellung der Benutzerschnittstelle (User Interface) nach erfolgter Interaktion eines Benutzers.
[0061] Fig. 3 zeigt eine schematische Darstellung der Interaktionen im erfindungsgemäßen Verfahren einschließlich elektronischer Bauteile. [0062] Fig. 4 zeigt die Parameter der Objekte.
[0063] Fig. 5 zeigt die Parameter einer Benutzerinteraktion.
[0064] Fig. 6 zeigt ein Ablaufschema für das erfindungsgemäße Verfahren.
[0065] Fig. 7 ist ein Blick von oben auf ein mögliches User-Interface (Benutzerschnittstelle).
[0066] Fig. 8 zeigt eine schematische Darstellung des Systems und der Vorrichtung, wie im Zusammenhang mit Figur 1 beschrieben, bei dem zusätzlich noch ein Informationssystem zur Auswertung vorhanden ist.
[0067] Fig. 9 zeigt ein Flussdiagramm des erfindungsgemäßen Verfahrens durch das die Benutzer generierten Daten ausgewertet werden können.
AUSFÜHRUNG DER ERFINDUNG
[0068] Fig. 1 zeigt beispielhaft das erfindungsgemäße System, welches über ein rollbares Gehäuse 102b, das der Aufnahme des Prozessors 104 und den Apparat(en) zum Projizieren 106 von 2-dimensionalen Inhalten dient, verfügt und auf dem sich die Projektionsfläche 103 befindet. Die Projektionsfläche ist hier eine flache transparente Plexiglasscheibe, auf die von unten 2- dimensionale Inhalte (Informationen) projiziert werden und gleichzeitig Aufnahmefläche für die in Fig. 2a dargestellten Interventionen ist. Über der Projektionsfläche 103 befindet sich eine Aufnahmeeinheit 105, die über eine Halterung 102a oberhalb der Projektionsfläche befestigt und ausgerichtet ist, so dass die gesamte Projektionsfläche aufgenommen werden kann. Gleichfalls verfügt das erfindungsgemäße System über eine Anzeigeeinheit 109, die mit einem Datenübertragungssignal 107 angesteuert wird, um, wie in Fig. 2b dargestellt, Inhalte auf die Anzeigeeinheit zu übertragen.
[0069] Fig. 2a zeigt ein beispielhaftes User Interface (Benutzerschnittstelle) 201 , gebildet aus der Projektionsfläche 203, über die Interaktion mit dem Benutzer 210 möglich wird, in Kombinationen mit den intelligenten Objekten 208a, 208b, 208c. Der Benutzer 210 interagiert mit einem oder mehreren intelligenten Objekten 208a, 208b, 208c auf der Projektionsfläche 203. Interaktionen erfolgen in den Parametern x-, y- und z-Achse (x, y, z). Die Aufnahmeeinheit, die hier nicht abgebildet ist, sammelt die relevanten Informationen, die dann vom Datenübertragungssignal 207 aus dem Prozessor 104 an die Anzeigeeinheit 209 übermittelt werden. [0070] Fig. 2b zeigt das User Interface aus Fig. 2a mit auf die Projektionsfläche projizierten Informationen 215, intelligenten Objekten 208c sowie Anzeigeeinheit 209 und die auf der Anzeigeeinheit durch eine Benutzerinteraktion hervorgerufene Information 216. Konkret werden abhängig von der Benutzerinteraktion 210 mit einem intelligenten Objekt 208c und abhängig von demselben intelligenten Objekt, der Lage des Objektes (x, y, z) auf dem Inhalt (d.h. des auf der Projektionsfläche abgebildeten Inhalts (z.B. Stadtplan)), durch einen Prozessor (hier nicht abgebildet) Inhalte auf die Projektionsfläche 215 und Inhalte für die Anzeigeeinheit 216 ausgesteuert.
[0071 ] Fig. 3 zeigt beispielhaft das erfindungsgemäße Verfahren in Bezug auf der in Fig. 2b schematisch dargestellten und beschriebenen Benutzerinteraktion. Jede Benutzerinteraktion 210 mit den intelligenten Objekten 308 wird über die Aufnahmeeinheit 305 aufgezeichnet und an den Prozessor 304 übermittelt. Dieser verarbeitet die übermittelten Informationen und sendet Informationen zu den intelligenten Objekten an die Decodiereinheit 313. Diese interagiert mit der Informationseinheit 311 bezüglich der übermittelten Informationen, die die intelligenten Objekte identifiziert. Der Prozessor interagiert mit der Steuereinheit 312, die bestimmte Informationen an die Projektionsfläche 303 sowie entsprechend andere Informationen an die Anzeigeeinheit 309 übermittelt.
[0072] Fig. 4 beschreibt beispielhaft die Parameter eines intelligenten Objekts 308a. Die ObjectJD ist ein numerischer eindeutiger Bezeichner eines jeden intelligenten Objektes. Das Object_Label ist eine textliche Beschreibung eines jeden intelligenten Objektes. Color beschreibt die Farbe des intelligenten Objektes. Texture ist die textliche Beschreibung der Oberflächenstruktur des intelligenten Objektes. Geometry ist die textliche Beschreibung der Form des intelligenten Objektes. Size beschreibt numerisch die Größe des intelligenten Objektes. Function ist die Beschreibung inkludierter Aktionen des intelligenten Objektes. Plus / Minus beschreibt die Aktion des intelligenten Objektes in der Form, dass es einem Inhalt auf der Projektionsfläche etwas hinzufügt oder reduziert. Positiv / Negativ beschreibt die Aktion des intelligenten Objektes in der Form, dass der Benutzer einen Inhalt auf der Projektionsfläche positiv oder negativ markiert.
[0073] Fig. 5 beschreibt beispielhaft die Parameter der Benutzeraktionen mit intelligenten Objekten. ID ist die numerische eindeutige Bezeichnung einer Benutzeraktion mit einem intelligenten Objekt. User ID ist die numerische eindeutige Bezeichnung eines Benutzers. Time beschreibt die Aufzeichnung von Datum, Uhrzeit mit Stunde, Minute, Sekunde, Millisekunde. X ist Aufzeichnung der x-Koordinate auf der Projektionsfläche. Y ist Aufzeichnung der y-Koordinate auf der Projektionsfläche. Z ist Aufzeichnung der z-Koordinate auf der Projektionsfläche. Accelerator beschreibt die Geschwindigkeit der Benutzeraktion mit einem intelligenten Objekt. Direction beschreibt die Richtung einer Benutzeraktion mit dem intelligenten Objekt.
[0074] Fig. 6 zeigt ein Flussdiagramm, mit dem das erfindungsgemäße Verfahren wie folgt beschrieben werden kann: Das Verfahren beginnt mit der Prüfung, ob das vorliegende System mit den vorhandenen intelligenten Objekten und den Inhalten auf der Projektionszone kalibriert ist. Ist dies nicht der Fall, wird die Kalibrierung gestartet. Mit der Benutzerinteraktion erhält das System Objektinformationen zum bewegten intelligenten Objekt. Das Verfahren startet die Dekodiereinheit, die per Abfrage in der Informationseinheit prüft, ob das bewegte Objekt bekannt ist. Ist es nicht bekannt, stößt die Dekodiereinheit einen Lernprozess an. Ist das Objekt bekannt, wird der Inhalt der Projektionsfläche übermittelt. Sind die Inhalte der Projektionsfläche nicht bekannt, wird ein Lernprozess angestoßen. Sind die Inhalte der Projektionsfläche bekannt, prüft das Verfahren das Vorliegen eines Interaktionsfeldes. Ist ein Interaktionsfeld vorhanden, startet das Verfahren die Steuereinheit, die wiederum Steuersignale mit Inhalten für die Anzeigeeinheit sowie weitere Inhalte für die Projektionsfläche sendet. Nach Auslieferung der Inhalte für die Projektionsfläche beginnt der Prozess erneut mit der Benutzerinteraktion. Wird kein Interaktionsfeld erkannt, werden die Koordinaten (x, y, z) des Objektes übertragen. Das Verfahren prüft, ob dynamische Inhalte der Projektionsfläche vorliegen. Ist dies der Fall, wird der Status der Inhalte auf der Projektionsfläche in Verbindung mit den Objektdaten übermittelt. Im Anschluss werden die Inhalte der Projektionsfläche übermittelt und der Prozessor zur weiteren Verarbeitung aller vorliegenden Daten gestartet. Die Verarbeitung kann auch auf Verfahren außerhalb des vorliegenden Systems erfolgen. Anschließend wird geprüft, ob eine weitere Nutzerinteraktion vorliegt, mit der der Prozess erneut gestartet wird. Ist dies nicht der Fall, wird das Verfahren beendet.
[0075] Fig. 7 ist ein Blick von oben auf ein mögliches User-Interface (Benutzerschnittstelle), d.h. man sieht die Projektionsfläche 703 sowie die darauf projizierten Inhalte (hier ein Stadtplan mit Verkehrsdichteanzeige, wobei die Stärke der Striche für das Verkehrsaufkommen steht) und die intelligenten Objekte 708a-d in Form von Verkehrsschildern („Durchfahrt verboten-Schild“). Das intelligente Objekt 708b wurde dabei auf ein Interaktionsfeld (hier Straßenkreuzung) positioniert und symbolisiert eine Durchfahrtsperre für den Kfz-Verkehr, wie oben links auf der Projektionsfläche beschrieben ist. Die sich durch das auf der Projektionsfläche positionierte Objekt ergebenden Veränderungen im Verkehrsfluss (in der Abbildung als fette Linien markiert) sind sofort als Simulation sichtbar. Würde nun ein weiteres Objekt auf die Projektionsfläche positioniert, beispielsweise auf das Interaktionsfeld 717a oder 717b, dann würde diese neue Sperrung der Strasse die gerade angezeigten simulierten Verkehrsflüsse verändern. Der auf die Projektionsfläche projizierte Inhalt würde vom System entsprechend verändert und so die geänderte Situation reflektieren.
[0076] Fig. 8 zeigt eine schematische Darstellung des Systems und der Vorrichtung, wie im Zusammenhang mit Fig. 1 beschrieben, bei dem zusätzlich noch ein Informationssystem zur Auswertung 818 vorhanden ist. Auf dem Ausgabegerät 819 werden Daten visualisiert, beispielsweise als Heatmap 820 oder Diagramm 821.
[0077] Fig. 9 zeigt ein Flussdiagramm des erfindungsgemäßen Verfahrens, durch das die generierten Benutzerdaten und Benutzerinformationen ausgewertet werden können. Der im Flussdiagramm dargestellte Ablauf erfolgt im Anschluss an die Abfolge wie in Fig. 6 dargestellt. Hierdurch kommt es zur visualisierten Auswertung aller Benutzerinteraktionen und deren Ausgabe. Die Auswertungseinheit ist gewöhnlich ein Prozessor mit dem die gesammelten Daten verarbeitet werden.
BEZUGSZEICHENLISTE , 301 Datensammeleinheit
a Halterung für die Aufnahmeeinheit
b Rollbares Gehäuse
, 203, 303, 703 Projektionsfläche
, 304 Prozessor
, 305 Aufnahmeeinheit
Apparat(e) zum Projizieren von 2-dimensionalen Inhalten, 207 Datenübertragungssignal
, 209, 309 Anzeigeeinheit
User Interface (Benutzerschnittstelle)
a, 208b, 208c intelligentes Objekt 1 , intelligentes Objekt 2, intelligentes
Objekt 3
Interaktion eines Benutzers
Inhalt /Information auf Projektionsfläche
Inhalt/Information auf Anzeigeeinheit
intelligentes Objekt 1 ... n
Informationseinheit
Steuereinheit
Dekodiereinheit
a, 708c, 708d Für die Benutzung bereitgestellte und noch nicht
positionierte intelligente Objekte.
b Bereits positioniertes intelligentes Objekt
Inhalt / Information der Projektionsfläche 703
a, 717b, 717c Interaktionsfeld
Informationssystem zur Auswertung
Ausgabeeinheit, hier Bildschirm
Heatmap
Tortendiagramm

Claims

Ansprüche
1. Computergestütztes Verfahren zur kollaborativen Lösungsfindung, umfassend die folgenden Schritte: i) Verwenden von mindestens einem 3-dimensionalen Objekt, dem mindestens ein softwareseitiges Attribut zugeordnet ist, das ausgewählt ist unter den folgenden Attributen: numerische eindeutige Bezeichner, textliche Beschreibung des Objekts, textliche Beschreibung der Oberflächenbeschaffenheit und Oberflächenstruktur des Objekts, Objektfarbe, Objektgröße und Objektform; ii) sequentielle oder gleichzeitige Aufnahme des oder der Objekte innerhalb einer Projektionszone und Aufnahme des Inhalts der Projektionszone durch eine über der
Projektionszone fixierte Aufnahmeeinheit, wobei die Projektionszone gleichzeitig mit dem oder den Objekten vorher oder nachher aufgenommen werden kann; iii) Verarbeitung der objektbezogenen Daten und der aufgenommenen Inhalte aus der Projektionszone im Prozessor und Dekodierung der objektbezogenen Daten unter Zuhilfenahme von selbstlernenden Systemen und ohne Zuhilfenahme eines Codeplans, wobei die Verarbeitung sofort nach Aufnahme der objektbezogenen Daten oder zusammen mit der Verarbeitung durch die Aufnahme der Informationen in der Projektionszone erfolgen kann; und iv) Steuerung der in der Projektionszone und/oder Anzeigeeinheit gezeigten Informationen.
2. Verfahren nach Anspruch 1 , wobei die Position des oder der Objekte in der Projektionszone und/oder deren räumliches Verhältnis zueinander sowie deren Lageveränderung aufgenommen wird.
3. Verfahren nach Anspruch 1 oder 2, wobei die softwareseitigen Attribute in Schritt i) zusätzlich die Beschreibung inkludierter Aktionen des Objekts enthält, in der Form, dass das inkludierte Attribut, basierend auf der durch einen Nutzer erfolgten Positionierung oder Bewegung eines oder mehrerer Objekte, einem auf der Projektionsfläche vorhandenen Inhalt etwas hinzufügt oder reduziert.
4. Verfahren nach einem der vorherigen Ansprüche, wobei durch die Aufnahme des oder der Objekte zusätzlich Informationen in Bezug auf Benutzeraktionen erhalten werden, wobei die Auswertung unter Berücksichtigung von mindestens einem der folgenden Parameter erfolgt: numerische eindeutige Bezeichnung einer Benutzeraktion mit einem Objekt, die numerische eindeutige Bezeichnung eines Benutzers, Datum, Uhrzeit mit Stunde, Minute, Sekunde, Millisekunde der Aktion, x-, y- und z-Koordinate des Objekts in der Projektionszone, die Geschwindigkeit der Benutzeraktion beim Positionieren oder Umsetzen eines Objekts innerhalb der Projektionszone sowie die Richtung der Benutzeraktion mit dem intelligenten Objekt.
5. Verfahren nach einem der vorherigen Ansprüche, wobei die Aufnahmeeinheit die Position, Lage und/oder Bewegung des Objekts aufzeichnet und, sofern das Objekt bewegt wird, auch die zeitliche, gerichtete Veränderung der Position.
6. Verfahren nach Anspruch 5, in dem mehrere Objekte in der Projektionszone vorhanden sind und positioniert werden, wobei die Aufnahmeeinheit die Position, Lage und/oder Bewegung der Objekte in der Projektionszone aufzeichnet und, sofern die Objekte bewegt werden, auch deren zeitliche, gerichtete Veränderungen der Positionen.
7. Verfahren nach einem der vorherigen Ansprüchen, wobei im Anschluss an das erfindungsgemäße Verfahren die Summe der vollständigen Handlungen über ein Informationssystem visualisiert werden, so dass neue Strukturen und Beziehungen als Reihe mehrerer Szenarien erhalten werden.
8. Ein System zur kollaborativen Lösungsfindung zur Durchführung des Verfahrens nach einem der vorherigen Ansprüche, das aus einer Datensammeleinheit 101 , einem Prozessor 104, einer Steuereinheit 312 und einer Anzeigeeinheit 109 gebildet wird, wobei die Datensammeleinheit 101 eine Projektionszone und eine Aufnahmeeinheit 105 umfasst, die die Position und/oder Bewegung beliebiger Objekte in der Projektionszone aufzeichnet, verarbeitet und ein Ergebnis für die Lösungsfindung auf einer Anzeigeeinheit 109 weitergibt und ggf. ein weiteres Ergebnis auf die Projektionszone zurückgibt.
9. Das System nach Anspruch 8, dadurch gekennzeichnet, dass sich der Inhalt der Projektionszone dynamisch ändert.
10. Verwendung des Verfahrens oder des Systems nach einem der vorherigen Ansprüche zur Erfassung von dessen oder deren Attribute, Positionierung(en) und relativen Bewegung(en) innerhalb der Projektionszone sowie Identifikation des oder der zu bewegenden Objekte in Relation zu den auf der Projektionsfläche vorhandenen Informationen sowie ggf. dessen oder deren Lageveränderung(en).
1 1. Verwendung des Verfahrens oder des Systems nach Anspruch 10 zum Erheben und Sammeln von Daten über Nutzerverhalten.
EP19812794.6A 2018-12-03 2019-12-03 Objektbasiertes verfahren und system zur kollaborativen lösungsfindung Withdrawn EP3891719A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18209693 2018-12-03
PCT/EP2019/083565 WO2020115084A1 (de) 2018-12-03 2019-12-03 Objektbasiertes verfahren und system zur kollaborativen lösungsfindung

Publications (1)

Publication Number Publication Date
EP3891719A1 true EP3891719A1 (de) 2021-10-13

Family

ID=64661058

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19812794.6A Withdrawn EP3891719A1 (de) 2018-12-03 2019-12-03 Objektbasiertes verfahren und system zur kollaborativen lösungsfindung

Country Status (2)

Country Link
EP (1) EP3891719A1 (de)
WO (1) WO2020115084A1 (de)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6930681B2 (en) * 2001-08-14 2005-08-16 Mitsubishi Electric Research Labs, Inc. System and method for registering multiple images with three-dimensional objects
DE102007018562A1 (de) 2007-04-18 2008-10-23 Dialego Ag Verfahren und Vorrichtung zur Ermittlung und Bereitstellung von Information zu einem Bild
KR100963238B1 (ko) * 2008-02-12 2010-06-10 광주과학기술원 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
DE102012201202A1 (de) * 2012-01-27 2013-08-01 Siemens Aktiengesellschaft Modellaufbau einer Fertigungsstätte, Werkzeug zur Kennzeichnung von Flächenabschnitten, Verfahren zur Kennzeichnung und Verfahren zum Erfassen von Flächenabschnitten
SK500492012A3 (sk) 2012-10-31 2014-05-06 Andrej Grék Spôsob interakcie pomocou rozšírenej reality
EP3175614A4 (de) * 2014-07-31 2018-03-28 Hewlett-Packard Development Company, L.P. Virtuelle veränderungen an einem realen objekt

Also Published As

Publication number Publication date
WO2020115084A1 (de) 2020-06-11

Similar Documents

Publication Publication Date Title
EP3438901A1 (de) Testfahrtszenario-datenbanksystem für realitätsnahe virtuelle testfahrtszenarien
DE69904492T3 (de) Computerspiel
WO2007147830A1 (de) Verfahren zur erzeugung eines dreidimensionalen computermodells einer stadt
DE102005013225A1 (de) Objektverfolgungs- und Situationsanalysesystem
DE102009041431A1 (de) Fahrsimulationsvorrichtung, Weitwinkelkamera-Videosimulationsvorrichtung und Bilddeformierungs-/-zusammensetzungsvorrichtung
Sun et al. Development and application of an integrated traffic simulation and multi-driving simulators
EP2201524A2 (de) Verfahren zur erzeugung und aktualisierung von texturen von drei-dimensionalen aus mehreren bildern rekonstruierten hintergrundmodellen für ein videoüberwachungssystem
DE102018122864A1 (de) Verteiltes Mehrbenutzer-Simulationssystem
DE102014110992A1 (de) Registrierung einer in Cluster zerfallenden Szene mit Standortverfolgung
EP2553660B1 (de) Verfahren zur visualisierung von aktivitätsschwerpunkten in überwachungsszenen
DE102020127855A1 (de) Sicherheitssystem, automatisiertes fahrsystem und verfahren dafür
WO2020115084A1 (de) Objektbasiertes verfahren und system zur kollaborativen lösungsfindung
EP3711392B1 (de) Verfahren und vorrichtung zur positionsbestimmung
Holländer et al. All fun and games: obtaining critical pedestrian behavior data from an online simulation
DE102019125075A1 (de) Verfahren zur computerimplementierten Simulation eines LIDAR-Sensors in einer virtuellen Umgebung
EP2940624B1 (de) Dreidimensionales virtuelles Modell einer Umgebung für Anwendungen zur Positionsbestimmung
EP1725986A1 (de) Echtzeit-bewegungsanalysevorrichtung
DE102021104110A1 (de) Verfahren zur Parametrierung einer Bildsynthese aus einem 3D-Modell
EP3352139B1 (de) Verfahren zur darstellung einer umgebung eines fahrzeuges
DE102019125612A1 (de) Verfahren zur computerimplementierten Simulation eines optischen Sensors in einer virtuellen Umgebung
DE102019207090A1 (de) Verfahren zum Bereitstellen einer Objektverfolgungsfunktion
DE102014110995A1 (de) Registrierung einer in Cluster zerfallenden Szene mit Scan-Anforderung
AT525369B1 (de) Testumfeld für urbane Mensch-Maschine Interaktion
DE102015120927A1 (de) Verfahren zur Darstellung einer Simulationsumgebung
EP3446289A1 (de) Verfahren und system zur darstellung einer simulationsumgebung

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210705

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20230912

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20240123