WO2021190932A1 - System zur interaktion mit einem anwendergerät - Google Patents

System zur interaktion mit einem anwendergerät Download PDF

Info

Publication number
WO2021190932A1
WO2021190932A1 PCT/EP2021/056049 EP2021056049W WO2021190932A1 WO 2021190932 A1 WO2021190932 A1 WO 2021190932A1 EP 2021056049 W EP2021056049 W EP 2021056049W WO 2021190932 A1 WO2021190932 A1 WO 2021190932A1
Authority
WO
WIPO (PCT)
Prior art keywords
cutting board
user device
designed
protective layer
touch
Prior art date
Application number
PCT/EP2021/056049
Other languages
English (en)
French (fr)
Inventor
Markus Helminger
Philipp Kleinlein
Philip Koene
Frank Schaefer
Original Assignee
BSH Hausgeräte GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BSH Hausgeräte GmbH filed Critical BSH Hausgeräte GmbH
Priority to EP21712435.3A priority Critical patent/EP4127890A1/de
Publication of WO2021190932A1 publication Critical patent/WO2021190932A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J47/00Kitchen containers, stands or the like, not provided for in other groups of this subclass; Cutting-boards, e.g. for bread
    • A47J47/005Cutting boards
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B29/00Combinations of cameras, projectors or photographic printing apparatus with non-photographic non-optical apparatus, e.g. clocks or weapons; Cameras having the shape of other objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • the invention relates to the interaction of a user with a mobile user device, in particular with a smartphone or with a tablet PC, in a kitchen environment.
  • Mobile user devices in particular smartphones and / or tablet PCs, are also increasingly used in the kitchen environment, e.g. to access recipes from a recipe database, to play videos with cooking tips and / or to communicate via social networks. Interaction with a mobile user device is often difficult because a user has damp or dirty fingers during a cooking process. The use of a mobile user device in the kitchen environment is therefore often not very convenient and / or not reliable.
  • KR 1020160028864 A describes a cutting board that is designed as a protective cover for a tablet PC.
  • DE 10 2015 211 425 A1 describes a system for determining a recipe.
  • WO 2011/066593 A1 describes an electronic game device.
  • EP 3379 475 A1 describes a system for projecting information onto a kitchen work surface.
  • DE 20 2010 009 137 U1 describes a non-slip cutting board.
  • DE 202004017 100 U1 describes a sliding door with a light curtain.
  • This document deals with the technical task of increasing the convenience and reliability when using a mobile user device in a kitchen environment.
  • the cutting board can be designed to be used in a kitchen.
  • the cutting board can be made watertight, so that the cutting board, for example, after use in a sink and / or a Washing machine can be washed off.
  • the cutting board can thus be designed to be used permanently in the kitchen environment.
  • the cutting board can be made dishwasher-proof.
  • the cutting board can, for example, have an (upper) area of 20 cm x 20 cm or more available for cutting.
  • the cutting board comprises a protective layer which is designed as a base for cutting and / or chopping food.
  • the protective layer can be designed in such a way that food (e.g. with a kitchen knife and / or with a cleaver) can be comminuted, cut up and / or chopped up (without the protective layer being damaged in the process, in particular without the Break the protective layer and / or the cutting board).
  • the protective layer can comprise polyethylene, wood, polypropylene, slate and / or glass.
  • the cutting board comprises a touch sensor which is designed to detect touch data relating to the position of a touch on the protective layer.
  • the touch sensor can be designed to detect the position of contact with the protective layer with a spatial resolution of 1 cm or less, in particular 1 mm or less (in every direction of the surface of the cutting board).
  • touches can be detected essentially over the entire surface of the protective layer (e.g. on 80% or more of the surface of the protective layer).
  • the touch sensor can comprise a sensor layer that is (completely) covered by the protective layer.
  • the sensor layer can comprise a capacitive and / or resistive sensor layer.
  • the touch sensor can comprise at least one light element which is designed to effect a light curtain, in particular a curtain of infrared light, over the protective layer (in particular over 80% or more of the surface of the protective layer).
  • the touch sensor can then be designed to detect touch data in relation to a position at which the light curtain is broken.
  • the sensor layer comprises acceleration sensors which are designed to detect vibrations caused by touching the protective layer in order to determine the position of the contact by evaluating the transit time differences of shock waves enable.
  • tapping the protective layer in the cutting board triggers a structure-borne sound wave which, starting from the contact position, propagates radially in the cutting board. If this structure-borne sound wave is picked up at several positions, the contact position can be deduced from the differences in transit time of the structure-borne sound wave.
  • several sensor technologies and evaluation methods can be combined with one another in order to improve the reliability and accuracy of the position determination.
  • the cutting board can thus be designed to recognize the position of a contact on the surface of the cutting board.
  • the position of the touch on the surface of the cutting board can be displayed by the touch data detected by the touch sensor of the cutting board.
  • the cutting board further comprises a control unit which is designed to send the touch data and / or data derived therefrom as operating input to a user device (e.g. to a smartphone or to a tablet PC).
  • the cutting board can comprise a communication unit which is designed to send the contact data and / or the data derived therefrom via a wireless and / or wired communication connection, in particular via Bluetooth and / or WLAN (Wireless Local Area Network), to the To send to the user device.
  • a wireless and / or wired communication connection in particular via Bluetooth and / or WLAN (Wireless Local Area Network)
  • the touch data (and / or the data derived therefrom) can indicate the position of a touch on the surface of the cutting board.
  • the touch data (and / or the data derived therefrom) can indicate a type of touch on the surface of the cutting board, such as a single touch, a single tap, a double tap, a swiping movement, etc.
  • the user device can be set up to effect an operator input of the user device on the basis of the touch data (and / or the data derived therefrom).
  • the type of operator input can be determined (for example a single touch, a single tap, a double tap, a swiping movement, etc.).
  • it can be determined which symbol and / or which function was activated or triggered by the operator input.
  • this can User device can be operated as a function of the detected operator input (for example, to trigger the function associated with the activated symbol).
  • a cutting board is thus described which is designed to be used as an input device for a (mobile) user device (in particular for a smartphone, for a tablet PC, for a laptop or for a personal computer).
  • a user of the cutting board can thereby be enabled to touch the surface of the cutting board in order to effect an input on the user device.
  • the input on the user device can be changed by changing the position of the touch. In this way, reliable and comfortable interaction with the user device can be made possible for the user even with dirty and / or damp fingers.
  • the cutting board can be designed to be used as a touchpad for the user device.
  • the cutting board can be designed to cause the position of a cursor displayed on the screen of the user device to be changed in a corresponding manner by changing the position of a contact with the protective layer of the cutting board. This enables particularly reliable and convenient interaction with the user device.
  • the protective layer of the cutting board can be designed as a projection surface.
  • the protective layer can be non-transparent and / or the protective layer can comprise a non-transparent material.
  • the protective layer of the cutting board can be such that the surface of the cutting board has a reflection factor or gain of 0.8 or higher, in particular 0.9 or higher.
  • the cutting board can be designed in such a way that the cutting board does not have its own screen.
  • the cutting board can in particular be designed as a cost-efficient input device for a user device.
  • the screen available in a user device can then be used to display information.
  • a projector can be used to display information.
  • the cutting board can be designed to record weight data relating to the weight of an object placed on the protective layer.
  • the cutting board can be designed as a scale.
  • the control unit can be set up to send the weight data and / or data derived therefrom to the user device.
  • the display of the weight of the object can then take place via the screen of the user device (with the screen content possibly being projected onto the surface of the cutting board by means of a projector).
  • a particularly cost-efficient scale can be provided.
  • the cutting board can comprise a microphone which is designed to record audio data in relation to a voice input effected by a user.
  • the control unit of the cutting board can be designed to send the audio data and / or data derived therefrom as an operator input to the user device.
  • a system for interaction with a (mobile) user device comprises a (2D) projector which is designed to display a pictorial representation on the screen of the user device as a projected image onto a projection surface (e.g. onto a wall in a kitchen or onto the surface of a kitchen worktop and / or onto the surface a cutting board).
  • the projector can be connected to the user device via a wireless and / or a wired communication connection (for example Bluetooth and / or WLAN).
  • the data relating to the pictorial representation (ie relating to the screen content) of the user device can be sent to the projector via the communication link and can be received by the projector.
  • the system also includes one of the cutting boards described in this document.
  • the cutting board can be designed to use the touch sensor of the cutting board to detect an operator input for the user device.
  • the system can thus be designed to use a cutting board as an input device and a projector as an output device for a (mobile) user device. This enables particularly convenient and reliable interaction with the user device.
  • the projector can be arranged above the surface, in particular above the protective layer, of the cutting board.
  • the projection surface can then be formed by the surface, in particular by the protective layer, of the cutting board.
  • the projector can be designed in such a way that the projected image covers between 80% and 100% of the surface of the cutting board and / or the surface of the protective layer.
  • the projector and the cutting board can in particular be synchronized with one another and / or arranged with one another in such a way that a function of the user device associated with the symbol can be brought about or triggered by touching a symbol displayed on the projected image.
  • the projection of the screen content of the user device can thus be coordinated with the touch sensor of the cutting board in such a way that the surface of the cutting board can be used like the touch-sensitive screen of the user device. In this way, the convenience and the reliability of the interaction with the user device can be further increased.
  • the projector preferably projects at least one virtual marking and the cutting board has at least one real marking which, in particular for calibrating the system, is to be brought into overlap with the virtual marking. It can be made possible for a user in the calibration phase to move the image projected by the projector with the at least one virtual marking laterally along the projection surface in order to move the to bring at least one virtual marking into overlap with the corresponding at least one real marking. Alternatively or in addition, it can be made possible for the user to change the size, in particular the length and / or the width, of the projected image (e.g. by changing the distance between the projector and the projection surface) in order to include the at least one virtual marking with the corresponding to bring at least one real marker into overlap.
  • the projector can project a crosshair at the beginning.
  • the user places the cutting board under the projector in such a way that this crosshair exactly meets a corresponding crosshair arranged on the cutting board.
  • the size, in particular the length and / or the width, of the projected cross-hairs can be adapted in such a way that the projected cross-hairs exactly cover the corresponding cross-hairs arranged on the cutting board. In this way, during later operation, a position on the cutting board can be correlated with a position in the image projected by the projector.
  • a system is thus described that enables a user in a kitchen to interact reliably and comfortably with a user device, e.g. with a smartphone belonging to the user.
  • the system has a projector which is designed to project the image displayed on the user device onto a cutting board designed as a projection surface.
  • the cutting board has a touch sensor which enables the user to effect an operating input on the user device by touching the image projected onto the cutting board. It can thus be made possible for the user to interact comfortably with his user device via the cutting board (in particular without having to wash and dry his hands beforehand).
  • the system may further comprise the user device of the user of the system.
  • the user device can be designed to recognize that the user device in the context of the system together with a projector (as an alternative to the screen of the user device) and together with a cutting board (as an alternative to an input element, in particular to the touch-sensitive screen of the user device) is operated.
  • the user device can further be set up, in response to this, to suppress the output via the screen of the user device and / or to prevent the input option via the input element of the user device.
  • it can possibly be effected that a visual output of the user device (possibly alone) takes place via the projector and / or an operating input of the user device (possibly alone) takes place via the cutting board.
  • the user device can be designed to determine that the projected image corresponding to the pictorial representation is projected by the projector onto a projection surface. In response to this, the output of the pictorial representation on the screen of the user device can then be suppressed.
  • the screen of the user device can be deactivated.
  • the user device can be set up to determine that the user device has received the touch data and / or the data derived therefrom as an operator input. In response to this, an operating input by a user on the user device can then be ignored. If necessary, the touch-sensitive screen of the user device can be blocked for direct operator input on the touch-sensitive screen (as long as the user device is integrated into the system).
  • the (temporary) deactivation of the direct output and / or input options of the user device can enable particularly reliable operation of the user device using a cutting board (in particular because there is no (possibly confusing) display on two different display units and / or there is no (possibly confusing) display . ambiguous) input via two different input methods).
  • FIG. 1 shows an exemplary system for interacting with a mobile user device; and FIG. 2 exemplary components of an interactive cutting board.
  • FIG. 1 shows an exemplary mobile user device 130 which has a (typically touch-sensitive) screen on which a pictorial representation 131 is shown.
  • the pictorial representation 131 can include, for example, one or more symbols for applications that can be touched by a user in order to execute the respective application.
  • the pictorial representation 131 can comprise a search field into which text for a search query can be entered.
  • the mobile user device 130 can thus comprise a touch-sensitive screen via which a user interface of the user device 130 is provided.
  • the mobile user device 130 can be used in the kitchen environment, e.g. to play a video with cooking tips and / or to search for a recipe from a recipe database. Since the user often has dirty and / or wet fingers when cooking, the interaction with the mobile user device 130 can turn out to be uncomfortable and / or unreliable.
  • the system 100 shown in FIG. 1 comprises a projector 120 which is connected to the mobile user device 130 via a communication link 102 (e.g. via Bluetooth).
  • the projector 120 is designed to project the pictorial representation 131 shown on the screen of the user device 130 as a projected image 121 onto a projection surface.
  • the projection surface is formed by a cutting board 110.
  • the projected image 121 corresponding to the pictorial representation 131 of the user device 130 can be reproduced on the surface of the cutting board 110.
  • the cutting board 110 includes a touch-sensitive surface.
  • the cutting board 110 can comprise a sensor layer 202 which is designed to detect contact with the surface of the cutting board 110.
  • the sensor layer 202 can in particular be designed to detect the position of a contact on the surface of the cutting board 110.
  • the position of the touch can be determined with a certain spatial resolution (e.g. 1cm or smaller, io or 1mm or smaller).
  • the sensor layer 202 can be designed as a capacitive and / or resistive touch sensor, for example.
  • the cutting board 110 can comprise a protective layer 201, by means of which the surface of the cutting board 110 is formed.
  • the protective layer 201 can be designed in such a way that food (e.g. meat or vegetables) can be cut and / or chopped up on the protective layer 201 without impairing and / or damaging the sensor layer 202 located under the protective layer 201.
  • the protective layer 201 can comprise, for example, polyethylene, wood, polypropylene, slate or glass.
  • the protective layer 201 thus covers the sensor layer 202 of the cutting board 110.
  • the cutting board 110 can comprise a base layer and / or a base region 203, which is arranged on the side of the sensor layer 202 that faces away from the protective layer 201.
  • a control unit 205 of the cutting board 110 can be arranged in the base region 203, which control unit is designed to determine the sensor data (also referred to as contact data in this document) of the sensor layer 202 and, if necessary, to evaluate it.
  • the control unit 205 can be designed to send the contact data or data derived therefrom by means of a communication unit 206 of the cutting board 110 via a communication connection 102 (e.g. Bluetooth or WLAN) to the mobile user device 130.
  • a communication connection 102 e.g. Bluetooth or WLAN
  • the cutting board 110 can be designed in such a way that the cutting board 110 can be placed with the base area 203 on a worktop of a kitchen (so that the base area 203 touches the worktop).
  • the cutting board 110 is designed to be waterproof and / or dishwasher-proof.
  • the cutting board comprises an accumulator for the energy supply, which can be charged via a coil that receives electrical energy from the outside by means of induction. This principle is often referred to as wireless charging.
  • the touch data captured by the sensor layer 202 of the cutting board 110 can be used by the mobile user device 130 as touch input. It can thus be made possible for a user to make an input on the mobile user device 130 by touching the surface of the cutting board 110.
  • the system 100 can thus be designed using the projector 120 to project the pictorial representation 131 (as a projected image 121) shown on the screen of the mobile user device 130 onto the surface of the cutting board 110. The user can then touch a symbol displayed on the surface of the cutting board 110 and thereby cause the software (SW) application associated with the symbol to be executed on the mobile user device 130.
  • SW software
  • the cutting board 110 can furthermore have an electrical energy supply which is designed to supply the components 202, 205, 206 of the cutting board 110 with electricity.
  • the cutting board 110 can include a battery from which the components 202, 205, 206 can be supplied with power.
  • the cutting board 110 can comprise a power supply unit, via which the cutting board 110 can be connected to an electrical supply network.
  • wireless charging is also conceivable, for example in that the cutting board comprises a coil in order to be supplied with electrical energy from the outside by means of induction.
  • the projector 120 can be configured to be mounted on a wall cabinet of a kitchen.
  • the cutting board 110 can then be arranged on a worktop below the projector 120, so that the pictorial representation 131 of the mobile user device 130 can be projected onto the protective layer 201 of the cutting board 110.
  • a calibration is preferably carried out during commissioning.
  • the cutting board 110 in particular the protective layer 201 of the cutting board 110, can thus be designed as a projection surface.
  • the protective layer 201 and / or the surface of the cutting board 110 preferably have a white color and / or are preferably non-transparent.
  • the cutting board 110 serves exclusively as a
  • the board 110 can be designed in such a way that the board 110 is suitable as a projection surface. Furthermore, the board 110 has a touch sensor, so that the board 110 has the function of a trackpad or trackbar. As shown in FIG. 2, the touch sensor can be formed by a dedicated sensor layer 202. As an alternative or in addition, the touch sensor can be formed by a light curtain (for example by a process of infrared light) that extends over the surface of the cutting board 110. In this case, the touch sensor can be designed to detect the position of the light curtain at which the light curtain is pierced by a finger.
  • the cutting board 110 can further comprise a weighing unit (not shown) which is designed to determine weight data relating to the weight of an object that is located on the surface of the cutting board 110.
  • the weight data can optionally be sent to the user device 130 via the communication unit 206 and displayed by the user device 130 (so that the weight is possibly displayed on the surface of the cutting board 110 via the projector 120).
  • the cutting board 110 can thus have the function of a scale.
  • the cutting board 110 can comprise a microphone (not shown) which is set up to record audio data in relation to a voice input of a user of the cutting board 110.
  • the audio data can be sent to the mobile user device 130 via the communication unit 206 and evaluated there as voice input. Reliable voice control of the user device 130 can thus be made possible.
  • the system 100 can have a projector 120 as a projection unit, which is designed to generate a sharp and sufficiently bright image 121 on the cutting board 110 at a certain distance (e.g. between 50 cm and 1 meter).
  • the projector 120 can be connected via a cable and / or wirelessly to a user device 130 of a user in order to display the pictorial representation 131 on the screen of the user device 130.
  • Transmission methods such as Chromecast (from Google), Miracast (from WFi Alliance) and / or Airplay (from Apple) can be used for this purpose.
  • the inputs for controlling the user device 130 can be detected via the cutting board 110.
  • the cutting board 110 can thus be used as an input device for controlling a mobile user device 130.
  • the projector 120 can be set up to project the graphic representation 131 of the user device 130 onto another projection surface in the kitchen (e.g. onto a kitchen rear wall).
  • the contents 131 to be projected on a mobile user device 130 can thus be transmitted to the projector 120 via a (wired and / or wireless) communication connection 102.
  • the cutting board 110 is connected to the user device 130 via a communication connection 102.
  • the user device 130 can, if necessary, be placed or stored in a docking station at a relatively large distance from the projection surface.
  • the cutting board 110 can be designed as a type of touchpad, so that a pointer (i.e. a cursor) can be secured on the graphic representation 131 of the user device 130 by touching the cutting board 110 with the finger. By changing the touch position, the position of the pointer can then be changed, e.g. to move the pointer to a certain displayed symbol. The symbol and / or the software application associated with it can then be selected and / or activated, for example, by double-clicking (i.e. double-tapping) on cutting board 110.
  • a particularly reliable input on the mobile user device 130 can be made possible.
  • the cutting board 110 and the projector 120 can be coordinated with one another in such a way that a user can activate the corresponding software application on the user device 130 directly by touching a symbol shown on the surface of the cutting board 110.
  • the user when the system 100 is put into operation, the user can be requested to align the projector 120 and the cutting board 110 with one another in such a way that the image 121 projected by the projector 120 is arranged on a specific area of the surface of the cutting board 110. It can thus be ensured that a specific position on the surface of the cutting board 110 corresponds to a corresponding specific position on the screen of the user device 130.
  • the measures described in this document can enable a user of a mobile user device 130 in a convenient and reliable manner to interact with the user device 130 even in a kitchen environment.
  • the present invention is not restricted to the exemplary embodiments shown. In particular, it should be noted that the description and the figures are only intended to illustrate the principle of the proposed system and / or the proposed cutting board.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Food Science & Technology (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein System (100) zur Interaktion mit einem Anwendergerät (130) beschrieben. Das System (100) umfasst einen Projektor (120), der ausgebildet ist, eine auf einem Bildschirm des Anwendergeräts (130) dargestellte bildliche Darstellung (131) als projiziertes Bild (121) auf eine Projektionsfläche zu projizieren, sowie ein Schneidbrett (110). Das Schneidbrett (110) umfasst eine Schutzschicht (201), die als Unterlage zum Schneiden von Lebensmitteln ausgebildet ist; wobei die Schutzschicht (201) als die Projektionsfläche für das projizierte Bild (121) ausgebildet ist. Des Weiteren umfasst das Schneidbrett (110) einen Berührungssensor, der ausgebildet ist, Berührungsdaten in Bezug auf die Position einer Berührung der Schutzschicht (201) zu erfassen, sowie eine Steuereinheit (205), die ausgebildet ist, die Berührungsdaten und/oder davon abgeleitete Daten als Bedieneingabe an das Anwendergerät (130) zu senden. Der Projektor (120) und das Schneidbrett (110) sind derart miteinander synchronisiert und/oder derart zueinander angeordnet, dass durch Berühren eines auf dem projizierten Bild (121) dargestellten Symbols eine mit dem Symbol assoziierte Funktion des Anwendergeräts (130) bewirkt werden kann.

Description

System zur Interaktion mit einem Anwendergerät
Die Erfindung betrifft die Interaktion eines Nutzers mit einem mobilen Anwendergerät, insbesondere mit einem Smartphone oder mit einem Tablet-PC, in einem Küchenumfeld.
Mobile Anwendergeräte, insbesondere Smartphones und/oder Tablet PCs, werden vermehrt auch im Küchenumfeld genutzt, z.B. um auf Rezepte aus einer Rezept- Datenbank zuzugreifen, um Videos mit Kochtipps wiederzugeben und/oder um über Soziale Netzwerke zu kommunizieren. Die Interaktion mit einem mobilen Anwendergerät ist dabei häufig schwierig, da ein Nutzer während eines Kochvorgangs feuchte oder verschmutzte Finger aufweist. Die Nutzung eines mobilen Anwendergeräts im Küchenumfeld ist daher häufig wenig komfortabel und/oder nicht zuverlässig.
KR 1020160028864 A beschreibt ein Schneidbrett, das als Schutzhülle für einen Tablet PC ausgebildet ist. DE 10 2015 211 425 A1 beschreibt ein System zur Ermittlung eines Rezeptes. WO 2011/066593 A1 beschreibt eine elektronische Spielvorrichtung. EP 3379 475 A1 beschreibt ein System zur Projektion von Information auf eine Küchenarbeitsfläche. DE 20 2010 009 137 U1 beschreibt ein rutschfestes Schneidbrett. DE 202004017 100 U1 beschreibt eine Schiebe-Tür mit einem Lichtvorhang.
Das vorliegende Dokument befasst sich mit der technischen Aufgabe, den Komfort und die Zuverlässigkeit bei der Nutzung eines mobilen Anwendergeräts in einem Küchenumfeld zu erhöhen.
Die Aufgabe wird durch den Gegenstand des unabhängigen Patentanspruchs gelöst. Vorteilhafte Ausführungsformen sind insbesondere in den abhängigen Patentansprüchen definiert, in nachfolgender Beschreibung beschrieben oder in der beigefügten Zeichnung dargestellt.
In diesem Dokument wird ein Schneidbrett zum Schneiden von Lebensmitteln beschrieben. Das Schneidbrett kann ausgebildet sein, in einer Küche verwendet zu werden. Insbesondere kann das Schneidbrett wasserdicht ausgebildet sein, so dass das Schneidbrett z.B. nach der Nutzung in einem Spülbecken und/oder ein einer Waschmaschine abgewaschen werden kann. Das Schneidbrett kann somit dazu ausgebildet sein, dauerhaft im Küchenumfeld genutzt zu werden. Insbesondere kann das Schneidbrett spülmaschinenfest ausgebildet sein. Das Schneidbrett kann z.B. eine zum Schneiden verfügbare (Ober-) Fläche von 20cm x 20cm oder mehr aufweisen.
Das Schneidbrett umfasst eine Schutzschicht, die als Unterlage zum Schneiden und/oder zum Hacken von Lebensmitteln ausgebildet ist. Insbesondere kann die Schutzschicht derart ausgebildet sein, dass auf der Schutzschicht Lebensmittel (z.B. mit einem Küchenmesser und/oder mit einem Hackbeil) zerkleinert, zerschnitten und/oder zerhackt werden können (ohne, dass dabei die Schutzschicht beschädigt wird, insbesondere ohne, dass dabei die Schutzschicht und/oder das Schneidbrett brechen). Die Schutzschicht kann zu diesem Zweck Polyethylen, Holz, Polypropylen, Schiefer und/oder Glas umfassen.
Des Weiteren umfasst das Schneidbrett einen Berührungssensor, der ausgebildet ist, Berührungsdaten in Bezug auf die Position einer Berührung der Schutzschicht zu erfassen. Dabei kann der Berührungssensor ausgebildet sein, die Position der Berührung der Schutzschicht mit einer räumlichen Auflösung von 1cm oder weniger, insbesondere von 1mm oder weniger, (in jeder Richtung der Oberfläche des Schneidbretts) zu erfassen. In einem bevorzugten Beispiel sind dabei Berührungen im Wesentlichen auf der gesamten Fläche der Schutzschicht (z.B. auf 80% oder mehr der Fläche der Schutzschicht) erfassbar.
Der Berührungssensor kann eine Sensorschicht umfassen, die (vollständig) von der Schutzschicht bedeckt wird. Die Sensorschicht kann eine kapazitive und/oder resistive Sensorschicht umfassen. Alternativ oder ergänzend kann der Berührungssensor zumindest ein Lichtelement umfassen, das ausgebildet ist, einen Lichtvorhang, insbesondere einen Vorhang aus Infrarot-Licht, über der Schutzschicht (insbesondere über 80% oder mehr der Fläche der Schutzschicht) zu bewirken. Der Berührungssensor kann dann ausgebildet sein, Berührungsdaten in Bezug auf eine Position zu erfassen, an der der Lichtvorhang durchbrochen wird. Es ist ebenfalls denkbar, dass die Sensorschicht Beschleunigungssensoren umfasst, die dafür ausgebildet sind, durch Berührung der Schutzschicht verursachte Erschütterungen zu erfassen, um eine Ermittlung der Position der Berührung durch Auswertung von Laufzeitunterschieden von Erschütterungswellen zu ermöglichen. In diesem Falle wird also ausgenutzt, dass ein Tippen auf die Schutzschicht im Schneidbrett eine Körperschallwelle auslöst, die sich ausgehend von der Berührungsposition radial im Schneidbrett ausbreitet. Wenn diese Körperschallwelle an mehreren Positionen aufgefangen wird, kann aus den Laufzeitunterschieden der Körperschallwelle auf die Berührungsposition geschlossen werden. Natürlich können mehrere Sensortechnologien und Auswerteverfahren mit einander kombiniert werden, um die Verlässlichkeit und die Genauigkeit der Positionsbestimmung zu verbessern.
Das Schneidbrett kann somit ausgebildet sein, die Position einer Berührung auf der Oberfläche des Schneidbretts zu erkennen. Die Position der Berührung auf der Oberfläche des Schneidbretts kann dabei durch die von dem Berührungssensor des Schneidbretts erfassten Berührungsdaten angezeigt werden.
Das Schneidbrett umfasst ferner eine Steuereinheit, die ausgebildet ist, die Berührungsdaten und/oder davon abgeleitete Daten als Bedieneingabe an ein Anwendergerät (z.B. an ein Smartphone oder an ein Tablet-PC) zu senden. Das Schneidbrett kann zu diesem Zweck eine Kommunikationseinheit umfassen, die ausgebildet ist, die Berührungsdaten und/oder die davon abgeleiteten Daten über eine drahtlose und/oder über eine drahtgebundene Kommunikationsverbindung, insbesondere über Bluetooth und/oder WLAN (Wireless Local Area Network), an das Anwendergerät zu senden.
Die Berührungsdaten (und/oder die davon abgeleiteten Daten) können die Position einer Berührung auf der Oberfläche des Schneidbretts anzeigen. Alternativ oder ergänzend können die Berührungsdaten (und/oder die davon abgeleiteten Daten) einen Typ der Berührung auf der Oberfläche des Schneidbretts anzeigen, wie z.B. ein einfaches Berühren, ein einfaches Tippen, ein doppeltes Tippen, eine Wischbewegung, etc.
Das Anwendergerät kann eingerichtet sein, auf Basis der Berührungsdaten (und/oder der davon abgeleiteten Daten) eine Bedieneingabe des Anwendergeräts zu bewirken. Insbesondere kann der Typ der Bedieneingabe ermittelt werden (z.B. ein einfaches Berühren, ein einfaches Tippen, ein doppeltes Tippen, eine Wischbewegung, etc.). Alternativ oder ergänzend kann ermittelt werden, welches Symbol und/oder welche Funktion durch die Bedieneingabe betätigt bzw. ausgelöst wurde. Ferner kann das Anwendergerät in Abhängigkeit von der erkannten Bedieneingabe betrieben werden (z.B. um die mit dem betätigten Symbol assoziierte Funktion auszulösen).
Es wird somit ein Schneidbrett beschrieben, das ausgebildet ist, als Eingabegerät für ein (mobiles) Anwendergerät (insbesondere für ein Smartphone, für einen Tablet-PC, für einen Laptop oder für einen Personal Computer) verwendet zu werden. Dabei kann es einem Nutzer des Schneidbretts ermöglicht werden, die Oberfläche des Schneidbretts zu berühren, um eine Eingabe an dem Anwendergerät zu bewirken. Dabei kann durch Veränderung der Position der Berührung die Eingabe an dem Anwendergerät verändert werden. So kann dem Nutzer auch mit schmutzigen und/oder feuchten Fingern eine zuverlässige und komfortable Interaktion mit dem Anwendergerät ermöglicht werden.
Das Schneidbrett kann ausgebildet sein, als Touchpad für das Anwendergerät genutzt zu werden. Insbesondere kann das Schneidbrett ausgebildet sein, zu bewirken, dass durch eine Änderung der Position einer Berührung der Schutzschicht des Schneidbretts die Position eines auf dem Bildschirm des Anwendergeräts dargestellten Cursors in entsprechender Weise geändert wird. So kann eine besonders zuverlässige und komfortable Interaktion mit dem Anwendergerät ermöglicht werden.
Die Schutzschicht des Schneidbretts kann als Projektionsfläche ausgebildet sein. Zu diesem Zweck kann die Schutzschicht intransparent sein und/oder die Schutzschicht kann ein intransparentes Material umfassen. Alternativ oder ergänzend kann die Schutzschicht des Schneidbretts derart sein, dass die Oberfläche des Schneidbretts einen Reflektionsfaktor bzw. Gain von 0,8 oder höher, insbesondere von 0,9 oder höher, aufweist. Durch die Ausbildung der Oberfläche des Schneidbretts als Projektionsfläche, kann es ermöglicht werden, mittels eines Projektors den Bildschirminhalt des Anwendergeräts auf die Oberfläche des Schneidbretts, insbesondere auf die Schutzschicht des Schneidbretts, zu projizieren. So kann eine besonders komfortable und zuverlässige Interaktion mit den Anwendergerät ermöglicht werden.
Das Schneidbrett kann derart ausgebildet sein, dass das Schneidbrett keinen eigenen Bildschirm aufweist. Das Schneidbrett kann insbesondere als kosteneffizientes Eingabegerät für ein Anwendergerät ausgebildet sein. Es kann dann der in einem Anwendergerät verfügbare Bildschirm genutzt werden, um Information darzustellen. Alternativ oder ergänzend kann ein Projektor verwendet werden, um Information darzustellen.
Das Schneidbrett kann ausgebildet sein, Gewichtsdaten in Bezug auf das Gewicht eines auf der Schutzschicht abgelegten Gegenstands zu erfassen. Mit anderen Worten, das Schneidbrett kann als Waage ausgebildet sein. Die Steuereinheit kann eingerichtet sein, die Gewichtsdaten und/oder davon abgeleitete Daten an das Anwendergerät zu senden. Die Anzeige des Gewichts des Gegenstands kann dann über den Bildschirm des Anwendergeräts erfolgen (wobei der Bildschirminhalt ggf. mittels eines Projektors auf die Oberfläche des Schneidbrett projiziert werden kann). Durch die Verwendung des Bildschirms des Anwendergeräts als Anzeigevorrichtung kann eine besonders kosteneffiziente Waage bereitgestellt werden.
Das Schneidbrett kann ein Mikrofon umfassen, das ausgebildet ist, Audiodaten in Bezug auf eine von einem Nutzer bewirkte Spracheingabe zu erfassen. Die Steuereinheit des Schneidbretts kann ausgebildet sein, die Audiodaten und/oder davon abgeleitete Daten als Bedieneingabe an das Anwendergerät zu senden. Durch die Bereitstellung eines Mikrofons direkt an dem Schneidbrett kann in besonders zuverlässiger Weise eine Sprachinteraktion mit dem Anwendergerät ermöglicht werden (während der Nutzer an dem Schneidbrett arbeitet).
Gemäß einem Aspekt der Erfindung wird ein System zur Interaktion mit einem (mobilen) Anwendergerät beschrieben. Das System umfasst einen (2D) Projektor, der ausgebildet ist, eine auf dem Bildschirm des Anwendergeräts dargestellte bildliche Darstellung als projiziertes Bild auf eine Projektionsfläche (z.B. auf eine Wand in einer Küche oder auf die Oberfläche einer Arbeitsplatte der Küche und/oder auf die Oberfläche eines Schneidbretts) zu projizieren. Der Projektor kann über eine drahtlose und/oder eine drahtgebundene Kommunikationsverbindung (z.B. Bluetooth und/oder WLAN) mit dem Anwendergerät verbunden sein. Die Daten in Bezug auf die bildliche Darstellung (d.h. in Bezug auf den Bildschirminhalt) des Anwendergeräts können über die Kommunikationsverbindung an den Projektor gesendet und von dem Projektor empfangen werden. Das System umfasst ferner eines der in diesem Dokument beschriebenen Schneidbretter. Das Schneidbrett kann ausgebildet sein, anhand des Berührungssensors des Schneidbretts eine Bedieneingabe für das Anwendergerät zu erfassen.
Das System kann somit ausgebildet sein, ein Schneidbrett als Eingabegerät und einen Projektor als Ausgabegerät für ein (mobilen) Anwendergerät zu nutzen. So kann eine besonders komfortable und zuverlässige Interaktion mit dem Anwendergerät ermöglicht werden.
Der Projektor kann über der Oberfläche, insbesondere über der Schutzschicht, des Schneidbretts angeordnet sein. Die Projektionsfläche kann dann durch die Oberfläche, insbesondere durch die Schutzschicht, des Schneidbretts gebildet werden. Dabei kann der Projektor derart ausgebildet sein, dass das projiziert Bild zwischen 80% und 100% der Oberfläche des Schneidbretts und/oder der Fläche der Schutzschicht bedeckt. Durch die kombinierte Verwendung des Schneidbretts als Eingabegerät und als Ausgabefläche kann eine besonders komfortable und zuverlässige Interaktion mit einem Anwendergerät ermöglicht werden.
Der Projektor und das Schneidbrett können insbesondere derart miteinander synchronisiert und/oder derart zueinander angeordnet sein, dass durch Berühren eines auf dem projizierten Bild dargestellten Symbols eine mit dem Symbol assoziierte Funktion des Anwendergeräts bewirkt werden kann bzw. auslösbar ist. Die Projektion des Bildschirminhalts des Anwendergeräts kann somit derart mit dem Berührungssensor des Schneidbretts abgestimmt sein, dass die Oberfläche des Schneidbretts wie der berührungsempfindliche Bildschirm des Anwendergeräts genutzt werden kann. So können der Komfort und die Zuverlässigkeit der Interaktion mit den Anwendergerät weiter erhöht werden.
Vorzugsweise projiziert der Projektor in einer Kalibrierungsphase mindestens eine virtuelle Markierung und das Schneidbrett weist mindestens eine reale Markierung auf, die, insbesondere zur Kalibrierung des Systems, mit der virtuellen Markierung in eine Überdeckung zu bringen ist. Dabei kann es einen Nutzer in der Kalibrierungsphase ermöglicht werden, das von dem Projektor projizierte Bild mit der zumindest einen virtuellen Markierung lateral entlang der Projektionsfläche zu verschieben, um die zumindest eine virtuelle Markierung mit der entsprechenden zumindest einen realen Markierung in Überdeckung zu bringen. Alternativ oder ergänzend kann es dem Nutzer ermöglicht werden, die Größe, insbesondere die Länge und/oder die Breite, des projizierten Bildes zu verändern (z.B. durch Änderung des Abstands zwischen dem Projektor und der Projektionsfläche), um die zumindest eine virtuelle Markierung mit der entsprechenden zumindest einen realen Markierung in Überdeckung zu bringen.
Beispielsweise kann der Projektor am Anfang ein Fadenkreuz projizieren. Der Nutzer stellt das Schneidbrett dann so unter den Projektor, dass dieses Fadenkreuz genau auf ein entsprechendes auf dem Schneidbrett angeordnetes Fadenkreuz trifft. Ferner kann die Größe, insbesondere die Länge und/oder die Breite, des projizierten Fadenkreuzes derart angepasst werden, dass das projizierte Fadenkreuz das entsprechende auf dem Schneidbrett angeordnete Fadenkreuz genau überdeckt. Auf diese Weise kann im späteren Betrieb eine Position auf dem Schneidbrett mit einer Position im durch den Projektor projizierten Bild korreliert werden.
Es wird somit ein System beschrieben, das es einem Nutzer in einer Küche ermöglicht, in zuverlässiger und komfortabler Weise mit einem Anwendergerät, z.B. mit einem Smartphone des Nutzers, zu interagieren. Zu diesem Zweck weist das System einen Projektor auf, der ausgebildet ist, das auf dem Anwendergerät dargestellte Bild auf ein als Projektionsfläche ausgebildetes Schneidbrett zu projizieren. Ferner weist das Schneidbrett einen Berührungssensor auf, der es dem Nutzer ermöglicht, durch Berührung des auf das Schneidbrett projizierten Bildes eine Bedieneingabe an das Anwendergerät zu bewirken. Es kann somit dem Nutzer ermöglicht werden, in komfortabler Weise über das Schneidbrett mit seinem Anwendergerät zu interagieren (insbesondere ohne sich zuvor die Hände waschen und trocknen zu müssen).
Das System kann ferner das Anwendergerät des Nutzers des Systems umfassen. Das Anwendergerät kann ausgebildet sein, zu erkennen, dass das Anwendergerät im Rahmen des Systems zusammen mit einem Projektor (als Alternative zu dem Bildschirm des Anwendergeräts) und zusammen mit einem Schneidbrett (als Alternative zu einem Eingabeelement, insbesondere zu dem berührungsempfindlichen Bildschirm, des Anwendergeräts) betrieben wird. Das Anwendergerät kann ferner eingerichtet sein, in Reaktion darauf, die Ausgabe über den Bildschirm des Anwendergeräts zu unterbinden und/oder die Eingabemöglichkeit über das Eingabeelement des Anwendergeräts zu unterbinden. Mit anderen Worten, es kann ggf. bewirkt werden, dass eine bildliche Ausgabe des Anwendergeräts (ggf. allein) über den Projektor und/oder eine Bedieneingabe des Anwendergeräts (ggf. allein) über das Schneidbrett erfolgt.
Mit anderen Worten, das Anwendergerät kann ausgebildet sein, zu bestimmen, dass das der bildlichen Darstellung entsprechende projizierte Bild von dem Projektor auf eine Projektionsfläche projiziert wird. In Reaktion darauf kann dann die Ausgabe der bildlichen Darstellung auf dem Bildschirm des Anwendergeräts unterbunden werden. Beispielsweise kann der Bildschirm des Anwendergeräts deaktiviert werden. Alternativ oder ergänzend kann das Anwendergerät eingerichtet sein, zu bestimmen, dass das Anwendergerät die Berührungsdaten und/oder die davon abgeleiteten Daten als Bedieneingabe empfangen hat. In Reaktion darauf kann dann eine Bedieneingabe eines Nutzers an dem Anwendergerät ignoriert werden. Ggf. kann der berührungsempfindliche Bildschirm des Anwendergeräts für direkt Bedieneingaben an dem berührungsempfindlichen Bildschirm gesperrt werden (solange das Anwendergerät in das System integriert ist).
Durch die (vorübergehende) Deaktivierung der direkten Ausgabe- und/oder Eingabemöglichkeiten des Anwendergeräts kann eine besonders zuverlässige Bedienung des Anwendergeräts anhand eines Schneidbretts ermöglicht werden (insbesondere, da keine (ggf. verwirrende) Anzeige über zwei unterschiedliche Anzeigeeinheiten und/oder da keine (ggf. mehrdeutige) Eingabe über zwei unterschiedliche Eingabewege erfolgt).
Es ist zu beachten, dass jegliche Aspekte des in diesem Dokument beschriebenen Schneidbretts und/oder Systems in vielfältiger Weise miteinander kombiniert werden können. Insbesondere können die Merkmale der Patentansprüche in vielfältiger Weise miteinander kombiniert werden.
Im Weiteren wird die Erfindung anhand von in der beigefügten Zeichnung dargestellten Ausführungsbeispielen näher beschrieben. Dabei zeigen
Figur 1 ein beispielhaftes System zur Interaktion mit einem mobilen Anwendergerät; und Figur 2 beispielhafte Komponenten eines interaktiven Schneidbretts. Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der Erhöhung des Komforts und der Zuverlässigkeit der Nutzung eines mobilen Anwendergeräts, insbesondere eines Smartphones und/oder eines Tablet-PCs, im Küchenumfeld. In diesem Zusammenhang zeigt Fig. 1 ein beispielhaftes mobiles Anwendergerät 130, das einen (typischerweise berührungsempfindlichen) Bildschirm aufweist, auf dem eine bildliche Darstellung 131 dargestellt ist. Die bildliche Darstellung 131 kann z.B. ein oder mehrere Symbole für Applikationen umfassen, die von einem Nutzer berührt werden können, um die jeweilige Applikation auszuführen. Des Weiteren kann die bildliche Darstellung 131 ein Suchfeld umfassen, in das Text für eine Suchanfrage eingegeben werden kann.
Das mobile Anwendergerät 130 kann somit einen berührungsempfindlichen Bildschirm umfassen, über den eine Benutzerschnittstelle des Anwendergeräts 130 bereitgestellt wird. Das mobile Anwendergerät 130 kann im Küchenumfeld genutzt werden, z.B. um ein Video mit Kochtipps abzuspielen und/oder um ein Rezept aus einer Rezept-Datenbank zu suchen. Da der Nutzer beim Kochen häufig schmutzige und/oder feuchte Finger aufweist, kann sich die Interaktion mit dem mobilen Anwendergerät 130 unkomfortabel und/oder unzuverlässig gestalten.
Das in Fig. 1 dargestellte System 100 umfasst einen Projektor 120, der über eine Kommunikationsverbindung 102 (z.B. über Bluetooth) mit dem mobilen Anwendergerät 130 verbunden ist. Der Projektor 120 ist ausgebildet, die auf dem Bildschirm des Anwendergeräts 130 dargestellte bildliche Darstellung 131 als projiziertes Bild 121 auf eine Projektionsfläche zu projizieren. Die Projektionsfläche wird in dem in Fig. 1 dargestellten System 100 durch ein Schneidbrett 110 gebildet. Wie in Fig. 1 dargestellt kann auf der Oberfläche des Schneidbrett 110 das der bildlichen Darstellung 131 des Anwendergeräts 130 entsprechende projizierte Bild 121 wiedergegeben werden.
Das Schneidbrett 110 umfasst eine berührungsempfindliche Oberfläche. Insbesondere kann das Schneidbrett 110 wie in Fig. 2 dargestellt, eine Sensorschicht 202 umfassen, die ausgebildet ist, eine Berührung der Oberfläche des Schneidbretts 110 zu detektieren. Dabei kann die Sensorschicht 202 insbesondere ausgebildet sein, die Position einer Berührung auf der Oberfläche des Schneidbretts 110 zu erfassen. Die Position der Berührung kann dabei mit einer bestimmten örtlichen Auflösung (z.B. 1cm oder kleiner, io oder 1mm oder kleiner) erfasst werden. Die Sensorschicht 202 kann z.B. als kapazitiver und/oder als resistiver Berührungssensor ausgebildet sein.
Das Schneidbrett 110 kann, wie in Fig. 2 dargestellt, eine Schutzschicht 201 umfassen, durch die die Oberfläche des Schneidbretts 110 gebildet wird. Die Schutzschicht 201 kann derart ausgebildet sein, dass auf der Schutzschicht 201 Lebensmittel (z.B. Fleisch oder Gemüse) geschnitten und/oder zerhackt werden können, ohne dass dabei die unter der Schutzschicht 201 liegende Sensorschicht 202 beeinträchtigt und/oder beschädigt wird. Die Schutzschicht 201 kann z.B. Polyethylen, Holz, Polypropylen, Schiefer oder Glas umfassen.
Die Schutzschicht 201 bedeckt somit die Sensorschicht 202 des Schneidbretts 110. Ferner kann das Schneidbrett 110 eine Basisschicht und/oder einen Basisbereich 203 umfassen, die bzw. der auf der Seite der Sensorschicht 202 angeordnet ist, die von der Schutzschicht 201 abgewandt ist. In dem Basisbereich 203 kann eine Steuereinheit 205 des Schneidbretts 110 angeordnet sein, die ausgebildet ist, die Sensordaten (in diesem Dokument auch als Berührungsdaten bezeichnet) der Sensorschicht 202 zu ermitteln und ggf. auszuwerten. Des Weiteren kann die Steuereinheit 205 ausgebildet sein, die Berührungsdaten oder davon abgeleitete Daten mittels einer Kommunikationseinheit 206 des Schneidbretts 110 über eine Kommunikationsverbindung 102 (z.B. Bluetooth oder WLAN) an das mobile Anwendergerät 130 zu senden. Das Schneidbrett 110 kann derart ausgebildet sein, dass das Schneidbrett 110 mit dem Basisbereich 203 auf eine Arbeitsplatte einer Küche gestellt werden kann (so dass der Basisbereich 203 die Arbeitsplatte berührt). In einem bevorzugten Beispiel ist das Schneidbrett 110 wasserdicht und/oder spülmaschinenfest ausgebildet. Dafür ist es besonders vorteilhaft, wenn das Schneidbrett einen Akkumulator zur Energieversorgung umfasst, der über eine Spule aufgeladen werden kann, die elektrische Energie mittels Induktion von außen aufnimmt. Dieses Prinzip wird häufig als Wireless Charging bezeichnet.
Die von der Sensorschicht 202 des Schneidbretts 110 erfassten Berührungsdaten (oder davon abgeleitete Daten) können von dem mobilen Anwendergerät 130 als Berührungseingabe verwendet werden. Es kann somit einem Nutzer ermöglicht werden, durch eine Berührung der Oberfläche des Schneidbretts 110 eine Eingabe an dem mobilen Anwendergerät 130 zu tätigen. Das System 100 kann somit ausgebildet sein, anhand des Projektors 120 die auf dem Bildschirm des mobilen Anwendergeräts 130 dargestellte bildliche Darstellung 131 (als projiziertes Bild 121) auf die Oberfläche des Schneidbretts 110 zu projizieren. Der Nutzer kann dann ein auf der Oberfläche des Schneidbretts 110 dargestelltes Symbol berühren, und dadurch bewirken, dass die mit dem Symbol assoziierte Software (SW)-Applikation auf dem mobilen Anwendergerät 130 ausgeführt wird.
Das Schneidbrett 110 kann ferner eine elektrische Energieversorgung aufweisen, die ausgebildet ist, die Komponenten 202, 205, 206 des Schneidbretts 110 mit Strom zu versorgen. Beispielsweise kann das Schneidbrett 110 eine Batterie umfassen, aus der die Komponenten 202, 205, 206 mit Strom versorgt werden können. Alternativ oder ergänzend kann das Schneidbrett 110 ein Netzteil umfassen, über das das Schneidbrett 110 an ein elektrisches Versorgungsnetz angeschlossen werden kann. Wie bereits beschrieben, ist auch Wireless Charging denkbar, beispielsweise indem das Schneidbrett eine Spule umfasst, um mittels Induktion von außen mit elektrischer Energie versorgt zu werden.
Der Projektor 120 kann z.B. ausgebildet sein, an einen Hängeschrank einer Küche montiert zu werden. Das Schneidbrett 110 kann dann auf einer Arbeitsplatte unter dem Projektor 120 angeordnet werden, so dass die bildliche Darstellung 131 des mobilen Anwendergeräts 130 auf die Schutzschicht 201 des Schneidbretts 110 projiziert werden kann. Vorzugsweise wird bei der Inbetriebnahme eine Kalibrierung durchgeführt.
Das Schneidbrett 110, insbesondere die Schutzschicht 201 des Schneidbretts 110, kann somit als Projektionsfläche ausgebildet sein. Zu diesem Zweck weisen die Schutzschicht 201 und/oder die Oberfläche des Schneidbretts 110 bevorzugt eine weiße Farbe auf und/oder sind bevorzugt intransparent. Das Schneidbrett 110 dient dabei in Bezug auf die bildliche Darstellung 121, 131 des Anwendergeräts 130 ausschließlich als
Projektionsfläche und weist keinen eigenen Bildschirm auf. So kann ein kosteneffizientes Schneidbrett 110 bereitgestellt werden.
Es wird somit ein System 100 mit einem sensorischen Cuttingboard bzw. Schneidbrett 110 beschrieben. Das Brett 110 kann derart beschaffen sein, dass sich das Brett 110 als Projektionsfläche eignet. Des Weiteren weist das Brett 110 einen Berührungssensor auf, so dass das Brett 110 die Funktion eines Trackpads oder Trackbars aufweist. Der Berührungssensor kann, wie in Fig. 2 dargestellt, durch eine dedizierte Sensorschicht 202 gebildet werden. Alternativ oder ergänzend kann der Berührungssensor durch einen Lichtvorhang (z.B. durch einen Vorgang aus Infrarot-Licht) gebildet werden, der sich über der Oberfläche des Schneidbretts 110 erstreckt. Der Berührungssensors kann in diesem Fall ausgebildet sein, die Position des Lichtvorhangs zu detektieren, an dem der Lichtvorhang von einem Finger durchbrochen wird.
Das Schneidbrett 110 kann ferner eine Wiegeeinheit (nicht dargestellt) umfassen, die ausgebildet ist, Gewichtsdaten in Bezug auf das Gewicht eines Objektes zu ermitteln, das sich auf der Oberfläche des Schneidbretts 110 befindet. Die Gewichtsdaten können ggf. über die Kommunikationseinheit 206 an das Anwendergerät 130 gesendet, und von dem Anwendergerät 130 angezeigt werden (so dass das Gewicht ggf. über den Projektor 120 auf der Oberfläche des Schneidbretts 110 dargestellt wird). Das Schneidbrett 110 kann somit die Funktion einer Waage aufweisen.
Alternativ oder ergänzend kann das Schneidbrett 110 ein Mikrofon (nicht dargestellt) umfassen, das eingerichtet ist, Audiodaten in Bezug auf eine Spracheingabe eines Nutzers des Schneidbretts 110 zu erfassen. Die Audiodaten können über die Kommunikationseinheit 206 an das mobile Anwendergerät 130 gesendet, und dort als Spracheingabe ausgewertet werden. So kann eine zuverlässige Sprachsteuerung des Anwendergeräts 130 ermöglicht werden.
Wie in Fig. 1 dargestellt, kann das System 100 als Projektionseinheit einen Projektor 120 aufweisen, der ausgebildet ist, in einem bestimmten Abstand (z.B. zwischen 50 cm und 1 Meter) ein scharfes und ausreichend helles Bild 121 auf dem Schneidbrett 110 zu erzeugen. Der Projektor 120 kann über ein Kabel und/oder drahtlos mit einem Anwendergerät 130 eines Nutzers verbunden sein, um die bildliche Darstellung 131 auf dem Bildschirm des Anwendergeräts 130 anzuzeigen. Zu diesem Zweck können z.B. Übertragungsverfahren wie Chromecast (der Firma Google), Miracast (der WFi Alliance) und/oder Airplay (der Firma Apple) verwendet werden.
Alternativ oder ergänzend kann es ermöglicht werden, das Anwendergerät 130 weiterhin als Anzeige zu verwenden. Die Eingaben zur Steuerung des Anwendergeräts 130 können über das Schneidbrett 110 erfasst werden. Das Schneidbrett 110 kann somit als Eingabegerät zur Steuerung eines mobilen Anwendergeräts 130 verwendet werden.
Alternativ oder ergänzend kann der Projektor 120 eingerichtet sein, die bildliche Darstellung 131 des Anwendergeräts 130 auf eine anderweitige Projektionsfläche in der Küche (z.B. auf eine Küchenrückwand) zu projizieren.
Die zu projizierenden Inhalte 131 auf einem mobilen Anwendergerät 130 können somit über eine (drahtgebundene und/oder drahtlose) Kommunikationsverbindung 102 an den Projektor 120 übertragen werden. Um das sensorische Board 110 nutzen zu können, wird das Schneidbrett 110 über eine Kommunikationsverbindung 102 mit dem Anwendergerät 130 verbunden. Das Anwendergerät 130 kann ggf. in einem relativ großen Abstand zu der Projektionsfläche in eine Dockingstation gestellt oder abgelegt werden.
Das Schneidbrett 110 kann als eine Art Touchpad ausgebildet sein, so dass durch die Berührung des Schneidbretts 110 mit dem Finger ein Zeiger (d.h. ein Cursor) auf der bildlichen Darstellung 131 des Anwendergeräts 130 sicherbar wird. Durch Änderung der Berührposition kann dann die Position des Zeigers verändert werden, z.B. um den Zeiger auf ein bestimmtes dargestelltes Symbol zu bewegen. Das Symbol und/oder die damit assoziierte SW-Applikation können dann z.B. durch einen Doppel-Klick (d.h. durch ein doppeltes Tippen) auf dem Schneidbrett 110 ausgewählt und/oder aktiviert werden. Durch die Verwendung des Schneidbretts 110 als Touchpad kann eine besonders zuverlässige Eingabe an dem mobilen Anwendergerät 130 ermöglicht werden.
Alternativ oder ergänzend können das Schneidbrett 110 und der Projektor 120 derart aufeinander abgestimmt sein, dass ein Nutzer direkt durch Berühren eines auf der Oberfläche des Schneidbretts 110 dargestellten Symbols die Aktivierung der entsprechenden SW-Applikation auf dem Anwendergerät 130 bewirken kann. Zu diesem Zweck kann der Nutzer bei der Inbetriebnahme des Systems 100 aufgefordert werden, den Projektor 120 und das Schneidbrett 110 derart zueinander auszurichten, dass das von dem Projektor 120 projizierte Bild 121 auf einem bestimmten Bereich der Oberfläche des Schneidbretts 110 angeordnet ist. So kann sichergestellt werden, dass eine bestimmte Position auf der Oberfläche des Schneidbretts 110 einer entsprechenden bestimmten Position auf dem Bildschirm des Anwendergeräts 130 entspricht. Durch die in diesem Dokument beschriebenen Maßnahmen kann es einem Nutzer eines mobilen Anwendergeräts 130 in komfortabler und zuverlässiger Weise ermöglicht werden, auch in einem Küchenumfeld mit dem Anwendergerät 130 zu interagieren. Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip des vorgeschlagenen Systems und/oder des vorgeschlagenen Schneidbretts veranschaulichen sollen.

Claims

PATENTANSPRÜCHE
1. System (100) zur Interaktion mit einem Anwendergerät (130); wobei
- das System (100) einen Projektor (120) umfasst, der ausgebildet ist, eine auf einem Bildschirm des Anwendergeräts (130) dargestellte bildliche Darstellung (131) als projiziertes Bild (121) auf eine Projektionsfläche zu projizieren;
- das System (100) ein Schneidbrett (110) umfasst; wobei das Schneidbrett (110) umfasst,
- eine Schutzschicht (201), die als Unterlage zum Schneiden von Lebensmitteln ausgebildet ist; wobei die Schutzschicht (201) als die Projektionsfläche für das projizierte Bild (121) ausgebildet ist;
- einen Berührungssensor, der ausgebildet ist, Berührungsdaten in Bezug auf die Position einer Berührung der Schutzschicht (201) zu erfassen; und - eine Steuereinheit (205), die ausgebildet ist, die Berührungsdaten und/oder davon abgeleitete Daten als Bedieneingabe an das Anwendergerät (130) zu senden; und
- der Projektor (120) und das Schneidbrett (110) derart miteinander synchronisiert und/oder derart zueinander angeordnet sind, dass durch Berühren eines auf dem projizierten Bild (121) dargestellten Symbols eine mit dem Symbol assoziierte Funktion des Anwendergeräts (130) bewirkt werden kann.
2. System (100) gemäß Anspruch 1, wobei
- der Projektor (120) über einer Oberfläche, insbesondere über der Schutzschicht (201), des Schneidbretts (110) angeordnet ist; und
- die Projektionsfläche durch die Oberfläche, insbesondere durch die Schutzschicht (201), des Schneidbretts (110) gebildet wird.
3. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- der Berührungssensor eine Sensorschicht (202) umfasst, die von der Schutzschicht (201) bedeckt wird; und
- die Sensorschicht (202) insbesondere eine kapazitive und/oder resistive Sensorschicht umfasst; und/oder - die Sensorschicht (202) Beschleunigungssensoren umfasst, die dafür ausgebildet sind, durch Berührung der Schutzschicht (201) verursachte Erschütterungen zu erfassen, um eine Ermittlung der Position der Berührung durch Auswertung von Laufzeitunterschieden von Erschütterungswellen zu ermöglichen.
4. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- der Berührungssensor ein Lichtelement umfasst, das ausgebildet ist, einen Lichtvorhang, insbesondere einen Vorhang aus Infrarot-Licht, über der Schutzschicht (201) zu bewirken; und
- der Berührungssensor ausgebildet ist, Berührungsdaten in Bezug auf eine Position zu erfassen, an der der Lichtvorhang durchbrochen wird.
5. System (100) gemäß einem der vorhergehenden Ansprüche, wobei das Schneidbrett (110) eine Kommunikationseinheit (206) umfasst, die ausgebildet ist, die Berührungsdaten und/oder die davon abgeleiteten Daten über eine drahtlose und/oder über eine drahtgebundene Kommunikationsverbindung (102), insbesondere über Bluetooth und/oder WLAN, an das Anwendergerät (130) zu senden.
6. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- die Schutzschicht (201) intransparent ist und/oder ein intransparentes Material umfasst; und/oder
- die Schutzschicht (201) Polyethylen, Holz, Polypropylen, Schiefer und/oder Glas umfasst.
7. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- das Schneidbrett (110) ausgebildet ist, als Touchpad für das Anwendergerät (130) genutzt zu werden; und/oder
- das Schneidbrett (110) ausgebildet ist, zu bewirken, dass durch eine Änderung der Position einer Berührung der Schutzschicht (201) eine Position eines auf einem Bildschirm des Anwendergeräts (130) dargestellten Cursors in entsprechender Weise geändert wird.
8. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- das Schneidbrett (110) ausgebildet ist, Gewichtsdaten in Bezug auf das Gewicht eines auf der Schutzschicht (201) abgelegten Gegenstands zu erfassen; und
- die Steuereinheit (205) eingerichtet ist, die Gewichtsdaten und/oder davon abgeleitete Daten an das Anwendergerät (130) zu senden.
9. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- das Schneidbrett (110) ein Mikrofon umfasst, das ausgebildet ist, Audiodaten in Bezug auf eine von einem Nutzer bewirkte Spracheingabe zu erfassen; und
- die Steuereinheit (205) ausgebildet ist, die Audiodaten und/oder davon abgeleitete Daten als Bedieneingabe an das Anwendergerät (130) zu senden.
10. System (100) gemäß einem der vorhergehenden Ansprüche, wobei das
Schneidbrett (110) keinen eigenen Bildschirm umfasst.
11. System (100) gemäß einem der vorhergehenden Ansprüche, wobei der
Berührungssensor ausgebildet ist, die Position der Berührung der Schutzschicht (201) mit einer räumlichen Auflösung von 1cm oder weniger, insbesondere von 1mm oder weniger, zu erfassen.
12. System (100) gemäß einem der vorhergehenden Ansprüche, wobei das
Schneidbrett (110) eine zum Schneiden verfügbare Fläche von 20cm x 20cm oder mehr aufweist.
13. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- das Schneidbrett (110) wasserdicht ausgebildet ist; und/oder
- das Schneidbrett (110) spülmaschinenfest ausgebildet ist; und/oder
- das Schneidbrett (110) eine Batterie zur Energieversorgung der Steuereinheit und/oder des Berührungssensors umfasst; und/oder
- das Schneidbrett (110) eine Spule umfasst, um mittels Induktion von außen mit elektrischer Energie versorgt zu werden, und/oder das Schneidbrett (110) ein Netzteil zum Anschluss des Schneidbretts (110) an ein elektrisches Versorgungsnetz umfasst.
14. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- das Schneidbrett (110) mindestens eine reale Markierung aufweist; und
- der Projektor (120) ausgebildet ist, in einer Kalibrierungsphase mindestens eine virtuelle Markierung auf die Schutzschicht (201) des Schneidbretts (110) zu projizieren, die zur Kalibrierung des Systems (100) mit der realen Markierung in Überdeckung zu bringen ist.
15. System (100) gemäß einem der vorhergehenden Ansprüche, wobei
- das System (100) das Anwendergerät (130) umfasst; und
- das Anwendergerät (130) ausgebildet ist,
-zu bestimmen, dass das der bildlichen Darstellung (131) entsprechende projizierte Bild (121) von dem Projektor (120) auf eine Projektionsfläche projiziert wird, und in Reaktion darauf, die Ausgabe der bildlichen Darstellung (131) auf dem Bildschirm des Anwendergeräts (130) zu unterbinden; und/oder
-zu bestimmen, dass das Anwendergerät (130) die Berührungsdaten und/oder die davon abgeleiteten Daten als Bedieneingabe empfangen hat, und in Reaktion darauf, eine Bedieneingabe eines Nutzers an dem Anwendergerät (130) zu ignorieren.
PCT/EP2021/056049 2020-03-26 2021-03-10 System zur interaktion mit einem anwendergerät WO2021190932A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP21712435.3A EP4127890A1 (de) 2020-03-26 2021-03-10 System zur interaktion mit einem anwendergerät

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020203920.8A DE102020203920B4 (de) 2020-03-26 2020-03-26 System zur Interaktion mit einem Anwendergerät
DE102020203920.8 2020-03-26

Publications (1)

Publication Number Publication Date
WO2021190932A1 true WO2021190932A1 (de) 2021-09-30

Family

ID=74884922

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/056049 WO2021190932A1 (de) 2020-03-26 2021-03-10 System zur interaktion mit einem anwendergerät

Country Status (3)

Country Link
EP (1) EP4127890A1 (de)
DE (1) DE102020203920B4 (de)
WO (1) WO2021190932A1 (de)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6334684B1 (en) * 1998-03-20 2002-01-01 Minolta Co., Ltd. Built-in kitchen having projector, and cooking assisting image projecting system
DE202004017100U1 (de) 2004-10-29 2005-03-03 Gretsch-Unitas GmbH Baubeschläge Beschlag für eine Hebe-Schiebe-Tür
US20100182136A1 (en) * 2004-09-07 2010-07-22 Timothy Pryor Control of appliances, kitchen and home
DE202010009137U1 (de) 2010-03-31 2010-10-07 YUEN YOUNG PLASTICS CO., LTD., Yongjing Rutschfestes Schneidbrett
DE102009026447A1 (de) * 2009-05-25 2010-12-09 BSH Bosch und Siemens Hausgeräte GmbH Hausgerät mit einer Benutzerschnittstelle
WO2011066593A1 (de) 2009-12-04 2011-06-09 Michael Leczek Elektronische spielvorrichtung und identifikationsgerät hiefür
US20130300659A1 (en) * 2012-05-14 2013-11-14 Jinman Kang Recognizing Commands with a Depth Sensor
KR20160028864A (ko) 2014-09-04 2016-03-14 대우조선해양 주식회사 배관 커플링을 이용한 신축이음장치
DE102015211425A1 (de) 2015-06-22 2016-12-22 BSH Hausgeräte GmbH Steuereinheit und Verfahren zur Ermittlung eines Rezeptes
EP3379475A1 (de) 2017-03-23 2018-09-26 Panasonic Intellectual Property Management Co., Ltd. Informationspräsentationvorrichtung und informationspräsentationsverfahren

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160028865A (ko) 2014-09-04 2016-03-14 김기현 터치센서가 구비된 방수형 스마트 도마

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6334684B1 (en) * 1998-03-20 2002-01-01 Minolta Co., Ltd. Built-in kitchen having projector, and cooking assisting image projecting system
US20100182136A1 (en) * 2004-09-07 2010-07-22 Timothy Pryor Control of appliances, kitchen and home
DE202004017100U1 (de) 2004-10-29 2005-03-03 Gretsch-Unitas GmbH Baubeschläge Beschlag für eine Hebe-Schiebe-Tür
DE102009026447A1 (de) * 2009-05-25 2010-12-09 BSH Bosch und Siemens Hausgeräte GmbH Hausgerät mit einer Benutzerschnittstelle
WO2011066593A1 (de) 2009-12-04 2011-06-09 Michael Leczek Elektronische spielvorrichtung und identifikationsgerät hiefür
DE202010009137U1 (de) 2010-03-31 2010-10-07 YUEN YOUNG PLASTICS CO., LTD., Yongjing Rutschfestes Schneidbrett
US20130300659A1 (en) * 2012-05-14 2013-11-14 Jinman Kang Recognizing Commands with a Depth Sensor
KR20160028864A (ko) 2014-09-04 2016-03-14 대우조선해양 주식회사 배관 커플링을 이용한 신축이음장치
DE102015211425A1 (de) 2015-06-22 2016-12-22 BSH Hausgeräte GmbH Steuereinheit und Verfahren zur Ermittlung eines Rezeptes
EP3379475A1 (de) 2017-03-23 2018-09-26 Panasonic Intellectual Property Management Co., Ltd. Informationspräsentationvorrichtung und informationspräsentationsverfahren

Also Published As

Publication number Publication date
EP4127890A1 (de) 2023-02-08
DE102020203920B4 (de) 2021-10-28
DE102020203920A1 (de) 2021-09-30

Similar Documents

Publication Publication Date Title
DE102016124419A1 (de) Gestenbasierte steuerung einer benutzerschnittstelle
EP2901251B1 (de) Anzeigevorrichtung und verfahren zu ihrer ansteuerung
CN103763427B (zh) 手持设备、单手控制方法和控制器
KR101735902B1 (ko) 터치 스크린 장치에 사용되는 사용자 인터페이스의 인터랙션 방법, 장치, 터치 스크린 장치, 프로그램 및 기록매체
US8451248B1 (en) Display device and control method thereof
CA2878801A1 (en) Method and apparatus of touch control for multi-point touch terminal
WO2012080029A1 (de) System mit gestenerkennungseinheit
CN104898822B (zh) 一种控制方法及电子设备
CN104516658B (zh) 一种单手操作手持设备屏幕的方法
EP2754016A1 (de) Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug
CN109660241A (zh) 一种调整触摸按键灵敏度的方法以及装置
DE112012006801T5 (de) Operationsschnittstellenvorrichtung und Operationsschnittstellenverfahren
US20090160794A1 (en) Method for Scroll Control on Window by a Touch Panel
DE112016000745B4 (de) System und Verfahren zum Steuern einer Endgeräteeinrichtung
DE102011114151A1 (de) Ausdehnen des berührbaren bereichs eines berührungsbildschirms über die grenzen des bildschirms hinaus
WO2010083821A1 (de) Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
CN105204754B (zh) 触摸屏的单手操作方法及装置
DE202016107236U1 (de) Vorrichtung zum Bereitstellen von haptischem Feedback für Computergeräte
WO2021190932A1 (de) System zur interaktion mit einem anwendergerät
DE102014110893A1 (de) Verfahren zum Bedienen eines Datenverarbeitungsgerätes, Waage und Kombination aus Waage und Datenverarbeitungsgerät
CN103793061A (zh) 一种控制方法及电子设备
JP2015141592A5 (de)
JP2015141592A (ja) 表示装置及び表示制御プログラム
CN110502142A (zh) 基于振动传感器的触控方法、触控显示设备及触摸屏***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21712435

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021712435

Country of ref document: EP

Effective date: 20221026