DE102021205548A1 - Softwarebasiertes, sprachbetriebenes und objektives Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen neurologischen Störung - Google Patents

Softwarebasiertes, sprachbetriebenes und objektives Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen neurologischen Störung Download PDF

Info

Publication number
DE102021205548A1
DE102021205548A1 DE102021205548.6A DE102021205548A DE102021205548A1 DE 102021205548 A1 DE102021205548 A1 DE 102021205548A1 DE 102021205548 A DE102021205548 A DE 102021205548A DE 102021205548 A1 DE102021205548 A1 DE 102021205548A1
Authority
DE
Germany
Prior art keywords
test person
analysis module
emotion
diagnostic tool
biomarker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021205548.6A
Other languages
English (en)
Inventor
Peter O. Owotoki
Leah W. Owotoki
David Lehmann
Diana Wanjiku
Moriah-Jane Lorentz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vitafluence Ai GmbH
VitafluenceAi GmbH
Original Assignee
Vitafluence Ai GmbH
VitafluenceAi GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vitafluence Ai GmbH, VitafluenceAi GmbH filed Critical Vitafluence Ai GmbH
Priority to DE102021205548.6A priority Critical patent/DE102021205548A1/de
Priority to PCT/EP2022/064578 priority patent/WO2022253742A1/de
Priority to EP22732938.0A priority patent/EP4346558A1/de
Publication of DE102021205548A1 publication Critical patent/DE102021205548A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/06Children, e.g. for attention deficit diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/749Voice-controlled interfaces

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Developmental Disabilities (AREA)
  • Physiology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Die Erfindung betrifft ein softwarebasiertes Diagnosewerkzeug, ein Betriebsverfahren hierfür und ein Diagnosesystem zur Verwendung in der Diagnose einer chronischen, neurologischen Störung wie z.B. Autismus sowohl bei Kindern als auch Erwachsenen. Es umfasst ein Sprachanalysemodul (21) zur Ermittlung von Kennwerten (28) eines vokalen Biomarkers eines Sprachsignals (26) einer Testperson (11), wenigstens ein weiteres Modul (22, 23) zur Ermittlung von Kennwerten (30, 32) eines zweiten Biomarkers, und eine nachgeschaltete Bewertungseinheit (25). Das Sprachanalysemodul (21) umfasst eine Sprachsignal-Auslösesteuerung (21a), die Bilddaten auf einer Bildwiedergabeeinrichtung (7) darstellt, um wenigstens ein Sprachsignal (26) bei der Testperson (11) auszulösen, eine Sprachaufzeichnungseinheit (21b), die das Sprachsignal (26) aufzeichnet, und einen Sprachsignalanalysator (21 c), der das Sprachsignal (26) anschließend zunächst daraufhin auswertet, zu welchem Zeitpunkt welche Tonhöhe vorkommt, und anschließend eine Häufigkeitsverteilung der Tonhöhen über eine Anzahl an Frequenzbändern eines betrachteten Frequenzspektrums ermittelt, wobei diese Häufigkeitsverteilung die Kennwerte (28) des vokalen Biomarkers bildet. Die Bewertungseinheit (25) stellt aufgrund der Kennwerte (28, 30, 32) der Biomarker unter Anwendung eines maschinellen Lernalgorithmus durch Vergleich mit einer mehrdimensionalen Grenzfläche fest, ob die Testperson (11) die chronische, neurologische Störung aufweist.

Description

  • Die Erfindung betrifft ein softwarebasiertes Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen, neurologischen Störung bei einem Menschen unter Verwendung künstlicher Intelligenz, sowie ein Verfahren zum Betreiben des Diagnosewerkzeugs und ein das Diagnosewerkezeug umfassendes System.
  • Chronische, neurologische Störungen treten bei Menschen häufig auf. Sie äußern sich in einer atypischen geistigen Entwicklung und/ oder einem atypischen Sozialverhalten. Beispiele derartiger Störungen sind Autismus, Aufmerksamkeitsdefizitstörung (ADHS), Schizophrenie, Alzheimer, Psychose, etc. Dabei ist Autismus ist eine der bekanntesten chronischen neurologischen Störungen, weshalb sie nachfolgend beispielhaft aber stellvertretend für alle chronischen, neurologischen Störungen als Ausgangspunkt für die Erfindung betrachtet wird.
  • Unter „Autismus“ wird eine tiefgreifende Störung der neuronalen und mentalen Entwicklung des Menschen verstanden, die in unterschiedlichen Stärken und Formen bereits im Kindesalter auftreten kann und allgemein als Autismus-Spektrum-Störung, abgekürzt ASS oder englisch ASD (Austism-Spectrum-Disorder), diagnostiziert wird. Autismus zeigt sich äußerlich vor allem im Verhalten und bei der Kommunikation. Auffällig ist bei dieser Entwicklungsstörung einerseits die soziale Interaktion bzw. der Umgang und Austausch mit anderen Menschen sowie ein eingeschränktes Interesse an sich wiederholenden, gleichen oder gleichartigen Abläufen, und andererseits die verbale und nonverbale Sprache des Autisten, d.h. die Stimme und die Körpersprache wie Mimik, Blickkontakt und Gestik. Häufig ist auch eine Minderung der Intelligenz festzustellen, jedoch gibt es ebenso Autismusformen, bei denen die betroffene Person durchschnittlich oder sogar hoch intelligent ist. Dies kann beispielsweise bei Menschen mit dem sogenannten Asperger-Syndrom der Fall sein, welches in der Regel mit einer weniger eingeschränkten Sprachentwicklung einhergeht und deshalb als leichte Ausprägung von Autismus gilt. Nach Berichten der Weltgesundheitsorganisation (WHO) haben grob 1-2% der Weltbevölkerung eine ASS, mithin durchschnittlich 100 Millionen Menschen weltweit. Da Autisten aufgrund dieser Entwicklungsstörung eine besondere Förderung und Unterstützung im Alltag benötigen, ist dessen frühe und korrekte Diagnose von großer Bedeutung.
  • Die Diagnose von Autismus erfolgt in klassischer Weise von einem spezialisierten Arzt, einem Neurologen oder Therapeuten durch die Stellung einer mehr oder weniger großen Anzahl speziell entwickelter Fragen eines Fragenkatalogs an den potentiell autistischen Patienten und durch sich daran anschließende Beobachtungen und Auswertungen der Antworten und Reaktionen. Dabei ist es allerdings bekannt, dass erst die Kombination autismusspezifischer Symptome, d.h. die Symptomkonstellation, eine eindeutige Diagnose zulassen, da einzelne, ähnlich auffällige Verhaltensmerkmale auch bei anderen Störungen auftreten.
  • Die klassische Diagnostik hat mehrere Nachteile. Zum einen ist hervorzugehen, dass die Bewertung durch einen medizinischen Experten stets subjektiv ist und somit unzutreffend sein kann, und zwar in beide Richtungen der Diagnose, was fatale Folgen für den Patienten und seine Angehörigen haben kann. Dieser Grad an Subjektivität, der u.a. durch eine gewisse Voreingenommenheit bedingt ist, ist ein integraler Bestandteil des Evaluierungsprozesses, was in Einzelfällen zu falschen Ergebnissen führen kann. Ein wohlbekanntes Beispiel ist die Erkenntnis, dass Mädchen in der Diagnostik unterrepräsentiert sind, weil sie anpassungsfähiger sind und deshalb weniger stark ausgeprägte Verhaltensauffälligkeiten zeigen. Ein weiteres Beispiel ist das Vorurteil, das Autismus vorwiegend bei Jungen auftritt, siehe Lockwood Estrin, G., Milner, V., Spain, D. et al., „Barriers to Autism Spectrum Disorder Diagnosis for Young Women and Girls: a Systematic Review“, Review Journal of Autism and Developmental Disorders, 2020). Selbst wenn die Bewertung versucht wird, bestmöglich objektiv vorzunehmen, benötigen Ärzte oder Therapeuten viele Jahre, um sich die hierfür benötigte Erfahrung anzueignen, eine Erfahrung die nur schwer verbalisierbar, lehrbar, quantifizierbar, standardisierbar oder validierbar ist.
  • Weitere Nachteile sind die zeitlich und geografisch eingeschränkte Verfügbarkeit der medizinischen Experten, der eingeschränkte Zugang zu ihnen und ihrer Diagnostik, insbesondere in gesellschaftlich weniger weit entwickelten Regionen der Welt wie beispielsweise in Afrika oder Südamerika, und die mit einer Expertendiagnose verbundenen hohen Kosten, zumal es wenige Experten gibt und die Diagnose regelmäßig vor Ort in dessen Praxis, Klinik oder sonstigen Einrichtung des Experten vorgenommen wird. So müssen betroffene Personen und deren Angehörige häufig lange, beschwerliche und kostenintensive Anfahrten oder Anreisen in Kauf nehmen, um zu einem Experten zu gelangen und dessen Diagnose in Anspruch nehmen zu können. Dabei hat die weltweite, durch den neuartigen Coronavirus SARS-CoV-2 bedingte Pandemie, den Zugang zu den Experten zusätzlich beschränkt.
  • Unabhängig davon ist die Anzahl von Experten im Vergleich zum Bedarf gering, so dass es zu langen Wartezeiten kommen kann, um einen Untersuchungstermin zu erhalten. Selbst in Deutschland kann diese Wartezeit in manchen Fällen einige Jahre sein, vor allem bei Erwachsenen, weil Kinder bevorzugt werden. In manchen Teilen der Welt wie z.B. in Teilen Afrikas haben Kinder demgegenüber überhaupt keine Möglichkeit einer Diagnose.
  • Schließlich ist die Diagnose anhand eines Fragenkatalogs auch deshalb nachteilig, weil die Stellung der Fragen viel Zeit in Anspruch nimmt, beispielsweise zwischen einer und drei Stunden dauert, und die Fragen samt Beobachtungen an das Alter, die regionale Sprache und die ethnische Herkunft des Patienten angepasst sein müssen. Letzteres erfordert, dass der medizinische Experten mit den ethnischen Besonderheiten des Patienten vertraut ist, weil sich das Verhalten, die verbale und die nonverbale Kommunikation von Volk zu Volk unterschieden.
  • Die vorgenannten, am Beispiel von Autismus erläuterten Defizite treffen auch auf anderen chronischen, neurologischen Störung zu. Auch hier fehlt es an ausreichend Experten und Expertenwissen, ihrer schnellen und einfachen Erreichbarkeit und vor allem einer objektiven Diagnose.
  • Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung, ein System und ein Betriebsverfahren bereitzustellen, die bzw. das die genannten Nachteile überwindet und eine objektive, zumindest assistive Diagnose einer chronischen, neurologischen Störung, insbesondere von Autismus und dessen neurologischen Begleiterkrankungen ermöglicht, die vorzugsweise jederzeit und von überall aus in der Welt unabhängig von der Sprache und ethnischen Herkunft der betroffenen Person zugänglich ist.
  • Diese Aufgabe wird durch ein Diagnosewerkzeug mit den Merkmalen des Anspruchs 1, ein System gemäß Anspruch 18 und ein Betriebsverfahren nach Anspruch 22 gelöst. Vorteilhafte Weiterbildungen sind in den jeweiligen Unteransprüchen angegeben.
  • Das erfindungsgemäße Diagnosewerkzeug und das von ihm angewandte und ausgeführte Verfahren basieren auf Verbesserungen des Stands der Wissenschaft und Innovationen im Bereich der künstlichen Intelligenz. Durch die Gewinnung und Auswertung bestimmter Biomarker als objektiver und unumstößlicher Beweis für das Vorliegen oder Nichtvorliegen von Autismus, wird mit Hilfe des erfindungsgemäßen Diagnosewerkzeugs und dessen Betriebsverfahren eine kostengünstige, benutzerfreundliche und schnelle Diagnose erstellt.
  • Bei einem Biomarker handelt es sich um eine messbare und damit auswertbare Größe eines biologischen Merkmals einer Person, genauer gesagt um eine Größe, die eine qualitative oder quantitative Bewertung einer physischen, physiologischen oder verhaltenstypischen Eigenschaft einer Person ermöglicht.
  • Erfindungsgemäß wird ein softwarebasiertes Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen, neurologischen Störung bei einer menschlichen Testperson unter Verwendung künstlicher Intelligenz vorgeschlagen, umfassend
    • - eine übergeordnete Betriebssoftware,
    • - ein Sprachanalysemodul zur Ermittlung von Kennwerten eines ersten, und zwar vokalen Biomarkers eines Sprachsignals der Testperson,
    • - wenigstens ein weiteres Modul zur Ermittlung von Kennwerten eines zweiten Biomarkers, und
    • - eine dem Sprachanalysemodul und dem weiteren Modul nachgeschaltete Gesamtergebnisbewertungseinheit.
    Die Betriebssoftware ist eingerichtet, das Sprachanalysemodul und das wenigstens eine weitere Modul nacheinander auszulösen und deren ermittelten Kennwerte der Gesamtergebnisbewertungseinheit zuzuführen.
  • Das Sprachanalysemodul umfasst
    • - eine Sprachsignal-Auslösesteuerung, welche eingerichtet ist, einen von Einzelbildern und/ oder Einzelvideos oder einen Text auf einer Bildwiedergabeeinrichtung für die Testperson darzustellen, um wenigstens ein Sprachsignal bei der Testperson in Gestalt einer Benennung eines in dem jeweiligen Einzelbild oder Einzelvideo enthaltenden Objekts oder in Gestalt eines Vorlesens des Textes auszulösen,
    • - eine Sprachaufzeichnungseinheit, welche eingerichtet ist, das Sprachsignal mit Hilfe einer Spracheingabeeinrichtung in einer Audioaufnahme aufzuzeichnen, und
    • - einen Sprachsignalanalysator, der eingerichtet ist, das Sprachsignal in der Audioaufnahme zunächst daraufhin auszuwerten, zu welchem Zeitpunkt welche Tonhöhe vorkommt, und anschließend eine Häufigkeitsverteilung der Tonhöhen über eine Anzahl an Frequenzbändern eines betrachteten Frequenzspektrums zu ermitteln, wobei diese Häufigkeitsverteilung die Kennwerte des ersten Biomarkers bildet.
  • Die Gesamtergebnisbewertungseinheit ist eingerichtet, aufgrund der Kennwerte der Biomarker der Testperson unter Anwendung eines maschinellen Lernalgorithmus auf Basis künstlicher Intelligenz durch Vergleich mit einer mehrdimensionalen Grenzfläche festzustellen, ob die Testperson die chronische, neurologische Störung aufweist. Die Grenzfläche kann als eine mathematische Hyperebene in einem multidimensionalen Raum verstanden werden, dessen Dimensionen durch die Anzahl der Kennwerte aller Biomarker definiert sind. Die Grenzfläche stellt eine mathematische Grenze zwischen den Biomarkerkennwerten von Personen mit der chronischen, neurologischen Störung und Personen ohne eine solche Störung dar.
  • Genauer betrachtet, ist die Gesamtergebnisbewertungseinheit ein mit Biomarkerkennwerten von Vergleichspersonen angelerntes Klassifizierungsmodell, das feststellt, ob und zu welchem Wahrscheinlichkeitsgrad die ermittelten Biomarkerkennwerte der Testperson auf der den Vergleichspersonen mit der chronischen, neurologischen Störung zugeordneten Seite der Grenzfläche oder auf der den Vergleichspersonen ohne die chronische, neurologische Störung zugeordneten Seite der Grenzfläche liegt.
  • Vorzugsweise ist der Lernalgorithmus eine Support Vector Machine (SVM), ein sogenannter Random Forest oder ein Deep Convolutional Neuronal Network - Algorithmus, wobei der Lernalgorithmus mit einer Anzahl von ersten und zweiten Vergleichsdatensätzen aus Kennwerten der Biomarker trainiert worden ist, die ersten Vergleichsdatensätze einer Gruppe von Referenzpersonen zugeordnet sind, die die chronische, neurologische Störung aufweisen, und die zweiten Vergleichsdatensätze einer Gruppe von Referenzpersonen zugeordnet sind, die die chronische, neurologische Störung nicht aufweisen.
  • Eine Besonderheit bei der Verwendung des Lernalgorithmus besteht darin, dass er kontinuierlich optimiert bzw. mit neuen Vergleichsdatensätzen trainiert werden kann, um eine möglichst genaue Klassifizierung der Biomarkerkennwerte durchzuführen, so dass er in der Abgrenzung der Biomarkerkennungen zwischen Personen mit und ohne chronische, neurologische Störung, bzw. in der Definition der Grenzfläche, zunehmend besser wird. Ein Random Forest ist beispielsweise in A. Paul, D. P. Mukherjee, P. Das, A. Gangopadhyay, A. R. Chintha and S. Kundu, „Improved Random Forest for Classification,“ in IEEE Transactions on Image Processing, Band 27, Nr. 8, Seiten 4012-4024, Aug. 2018 beschrieben. Er stellt insbesondere dann eine gute Wahl für den Lernalgorithmus dar, wenn die Trainingsdaten, d.h. die Anzahl der Vergleichsdatensätze, um das Klassifikationsmodell zu erstellen, größer werden, insbesondere zwischen einigen hundert und einigen tausend Vergleichsdatensätzen liegt. Ferner ist ein Deep Convolutional Neuronal Network - Algorithmus besonders geeignet, wenn die Trainingsdaten, d.h. die Anzahl der Vergleichsdatensätze, um das Klassifikationsmodell zu erstellen, besonders groß ist, insbesondere über 5000 liegt, wobei ein solches Modell sogar eine Klassifikationsgenauigkeit nahe 99% erreicht.
  • Das Diagnosewerkzeug wertet somit mindestens zwei Biomarker aus, wobei der erste Biomarker (vokaler Biomarker) von besonderer Bedeutung ist und eine Eigenschaft der Stimme der Testperson kennzeichnet. Genauer gesagt, kennzeichnet der erste Biomarker das von der Testperson verwendete Tonspektrum als ein erstes Kriterium für die Beurteilung des Vorliegens einer chronischen, neurologischen Störung. Mit Hilfe dieses vokalen Biomarkers lässt sich mit einer Sicherheit von 95% feststellen, ob bei der Testperson eine bestimmte chronische, neurologische Störung vorliegt. Um die Genauigkeit der Diagnose zu verbessern, wird wenigstens ein zweiter Biomarker verwendet, dessen Kennwerte von dem zumindest einen weiteren Modul ermittelt werden.
  • In einer Ausführungsvariante kann das weitere Modul ein Emotionsanalysemodul zur Auswertung der Reaktion der Testperson auf einen Emotionsstimulus als zweiter Biomarker sein und zumindest Folgendes umfassen:
    • - eine Emotions-Auslösungssteuerung, welche eingerichtet ist, einen Satz von Einzelbildern und/ oder Einzelvideos oder wenigstens ein einzelnes Video auf der Bildwiedergabeeinrichtung darzustellen, um eine Anzahl einzelner Emotionen bei der Testperson zu stimulieren, und
    • - eine Emotionsbeobachtungseinheit, welche eingerichtet ist, eine mit Hilfe einer Bildaufnahmeeinrichtung gewonnene (Video-) Aufnahme des Gesichts der Testperson zumindest daraufhin auszuwerten, wann sie eine emotionale Reaktion zeigt.
    Das Emotionsanalysemodul ist eingerichtet, zumindest die jeweilige Reaktionszeit zwischen der Stimulierung der jeweiligen Emotion und des Auftretens der emotionalen Reaktion zu ermitteln, wobei in dieser Ausführungsvariante wenigstens diese Reaktionszeiten die Kennwerte des zweiten Biomarkers bilden.
  • In einer anderen Ausführungsvariante kann das weitere Modul ein Blickrichtungsanalysemodul zur Auswertung der Blickrichtung der Testperson als zweiter Biomarker sein und zumindest Folgendes umfassen:
    • - eine Blickrichtungslenkung, welche eingerichtet ist, wenigstens ein Bild oder Video auf der Bildwiedergabeeinrichtung darzustellen, um die Blickrichtung der Testperson zu lenken, und
    • - eine Blickrichtungsbeobachtungseinheit, welche eingerichtet ist, aus einer mit Hilfe einer Bildaufnahmeeinrichtung gewonnenen (Video-) Aufnahme des Gesichts der Testperson deren Blickrichtung über der Zeit zu ermitteln, wobei in dieser Ausführungsvariante dieser Blickrichtungsverlauf die Kennwerte des zweiten Biomarkers bildet.
  • Somit kann gemäß dieser Ausführungsvarianten der zweite Biomarker entweder eine Eigenschaft der Emotionsverarbeitung oder des Blicks der Testperson sein. Er kennzeichnet somit eine Eigenschaft ihrer sozialen Interaktionsfähigkeit, nämlich wahlweise die Reaktionszeit auf einen Emotionsstimulus oder die Blickrichtung, und kann somit als „sozialer Biomarker“ bezeichnet werden.
  • Es besteht aber auch die Möglichkeit, die Reaktion auf einen Emotionsstimulus als ein erster weiterer Biomarker und die Blickrichtung als ein zweiter weiterer Biomarker kumulativ auszuwerten, so dass das Diagnosewerkzeug insgesamt drei Biomarker untersucht.
  • Somit können in einer Ausführungsvariante des Diagnosewerkzeugs nur das Sprachanalysemodul und das Emotionsanalysemodul vorhanden sein, in einer anderen Ausführungsvariante nur das Sprachanalysemodul und das Blickrichtungsanalysemodul, und in einer dritten Ausführungsvariante das Sprachanalysemodul, das Emotionsanalysemodul und das Blickrichtungsanalysemodul.
  • In der dritten Ausführungsvariante bildet das Emotionsanalysemodul dann ein erstes weiteres Modul und das Blickrichtungsanalysemodul ein zweites weiteres Modul, wobei wenigstens die Reaktionszeiten auf die Emotionsstimuli Kennwerte des zweiten Biomarkers bilden und die Blickrichtung über der Zeit Kennwerte eines dritten Biomarkers der Testperson bildet. Die Gesamtergebnisbewertungseinheit ist dann eingerichtet, aufgrund der Kennwerte des ersten, zweiten und dritten Biomarkers der Testperson unter Anwendung des maschinellen Lernalgorithmus auf Basis künstlicher Intelligenz durch Vergleich mit einer mehrdimensionalen Grenzfläche (Hyperebene) festzustellen, ob die Testperson die chronische, neurologische Störung aufweist. Auf die Reihenfolge bei der Bestimmung der Kennwerte des zweiten und dritten Biomarkers kommt es nicht an.
  • Vorzugsweise ist das Diagnosewerkzeug eingerichtet, den Satz von Einzelbildern und/ oder Einzelvideos oder den Text zur Auslösung des Sprachsignals, und/ oder den Satz von Einzelbildern und/ oder Einzelvideos oder das zumindest eine Video für die Emotionsstimulierung und/ oder das wenigstens ein Bild oder Video für die Blickrichtungslenkung in Abhängigkeit von personenspezifischen Daten der Testperson auszuwählen und darzustellen. Unter anderem kann dabei vorgesehen sein, dass die Sprachsignal-Auslösesteuerung eingerichtet ist, in Abhängigkeit des Alters der Testperson entweder den Satz von Einzelbildern und/ oder Einzelvideos oder den Text auszuwählen und darzustellen. So kann Kindern bevorzugt der Satz von Einzelbildern und/ oder Einzelvideos, und Erwachsenen der Text auf der Bildwiedergabeeinrichtung gezeigt werden, sofern die Testperson nicht lesen kann. Anderenfalls ist die Verwendung eines vorzulesenden Textes zu bevorzugen, weil das Sprachelement auf diese Weise länger, klang- und tonlich umfangreicher und insgesamt homogener ist.
  • Vorzugsweise kann das Diagnosewerkzeug einen Filter aufweisen, um Hintergrund- oder Nebengeräusche aus dem Sprachsignal vor der Tonhöhenauswertung herauszufiltern, insbesondere die Stimme oder Stimmen anderer Personen wie beispielsweise einer Assistenzperson, die in der Umgebung der Testperson möglicherweise anwesend ist oder sind und während der Audioaufnahme spricht.
  • Vorzugsweise kann das Diagnosewerkzeug einen Bandpassfilter aufweisen, der eingerichtet ist, das betrachtete Tonhöhenspektrum auf den Bereich zwischen 30 und 600 Hz zu beschränken. Zwar umfasst die menschliche Stimme einen Frequenzumfang zwischen 30Hz und 2000 Hz, wobei die gesprochene Sprache üblicherweise unter 600Hz liegt. Eine Begrenzung des Tonhöhenspektrums auf den Bereich zwischen 30 und 600 Hz bei gleicher Anzahl an Frequenzbänden verbessert die Genauigkeit der Tonhöhenanalyse, weil die einzelnen Frequenzbänder schmaler sind.
  • Vorzugsweise liegt die Anzahl an Frequenzbändern zwischen 6 und 18, idealerweise bei 12. Diese Anzahl stellt einen guten Mittelweg zwischen der Genauigkeit der Tonhöhenermittlung und der dafür benötigten Rechenzeit und Rechenleistung dar.
  • Vorzugsweise umfasst der Sprachsignalanalysator einen Deep Convolutional Neuronal Network - Algorithmus, um die Tonhöhen zu schätzen, im Fachjargon auch als Pitch-Detektion bezeichnet. Es kann jedoch auch ein anderer hochqualitative Tonhöhenschätzalgorithmus verwendet werden, wie z.B. „PRAAT“. Eine entscheidende Besonderheit des Sprachsignalanalysators, insbesondere des Deep Convolutional Neuronal Network - Algorithmus, ist seine Fähigkeit zu lernen, indem die von ihm eingesetzten Modelle zur Tonhöhenschätzung kontinuierlich verbessert und alte Modelle durch verbesserte neue Modelle ersetzt werden können, sei es aufgrund von mehr vorliegenden Vergleichsdaten, die zum Trainieren der Modelle verwendet werden können, oder weil ein intelligenterer Optimierungsweg gefunden wurde.
  • Gemäß einer Ausführungsvariante ist die Emotionsbeobachtungseinheit und/ oder die Blickrichtungsbeobachtungseinheit eingerichtet, die Gesichtsaufnahme in Echtzeit auszuwerten. Mit anderen Worten erfolgt die Untersuchung während die Testperson auf die Bildwiedergabeeinrichtung schaut bzw. ihr der Satz von Einzelbildern und/ oder Einzelvideos oder das zumindest eine Video oder Bild darauf gezeigt wird.
  • Alternativ kann eine offline Untersuchung erfolgen. In diesem Fall können die Emotionsbeobachtungseinheit und/ oder die Blickrichtungsbeobachtungseinheit je eine Videoaufzeichnungseinheit aufweisen oder sich einer solchen Videoaufzeichnungseinheit, die Teil des Diagnosewerkzeugs ist, bedienen, um eine entsprechende Videoaufnahme abzuspeichern, während der Testperson der Satz von Einzelbildern und/ oder Einzelvideos oder das zumindest eine Video oder Bild gezeigt wird. Diese entsprechende Videoaufnahme kann der Emotionsbeobachtungseinheit bzw. der Blickrichtungsbeobachtungseinheit zur Auswertung zur Verfügung gestellt werden.
  • Vorzugsweise umfasst die Emotionsbeobachtungseinheit eine Gesichtserkennungssoftware auf Basis einer mitfühlenden künstlichen Intelligenz (Compassionate Artificial Intelligence), die auf bestimmte Emotionen trainiert ist, nämlich sinnvollerweise auf diejenigen Emotionen, die durch die Einzelbilder oder Einzelvideos des Satzes oder durch das Video stimuliert werden, wie z.B. Freude, Trauer, Wut oder Angst.
  • Vorzugsweise ist die Emotionsbeobachtungseinheit eingerichtet, zusätzlich zum Reaktionszeitpunkt die Reaktionsart auf die jeweils stimulierte Emotion festzustellen, wobei diese Reaktionsart Teil der Kennwerte des zweiten Biomarkers ist. Die Reaktionsart kann im einfachsten Fall eine binäre Information sein, die angibt, ob es sich bei der Reaktion um eine positive oder negative Emotion handelt. Beispielsweise können Freude und Trauer als einen positive, Wut und Angst als eine negative Emotion interpretiert werden. Alternativ kann die Reaktionsart die konkrete Emotion sein, mit der die Testperson reagiert. Die Reaktionsart kann dann gemeinsam mit der entsprechenden Reaktionszeit für die jeweilige emotionale Reaktion, mit der die Reaktionsart verknüpft ist, einen Bestandteil der Kennwerte des zweiten Biomarkers bilden.
  • Es kann zusätzlich vorgesehen sein, dass das Emotionsanalysemodul eingerichtet ist festzustellen, ob die von der Testperson gezeigte Reaktion der stimulierten Emotion entspricht. Dies kann im einfachsten Fall durch einen Vergleich erfolgen, ob es sich sowohl bei dem Emotionsstimulus als auch bei der Reaktionsart jeweils um eine positive oder jeweils um eine negative Emotion handelt. Ist dies der Fall, hat die Testperson erwartungsgemäß bzw. „normal“ reagiert. Ist dies nicht der Fall, d.h. ist die emotionale Reaktion positiv, obgleich der Emotionsstimulus negativ war oder umgekehrt, hat die Testperson unerwartet bzw. „unnormal“ reagiert. Bestenfalls kann auch ein Vergleich erfolgen, ob die konkret ermittelte Emotion, mit der die Testperson reagiert, derjenigen der stimulierten Emotion entspricht oder diese Emotionen verschieden sind. Das Ergebnis dieses jeweiligen Vergleichs kann in einem Kongruenzindikator angegeben werden, z.B. derart, dass eine „1“ eine Übereinstimmung der emotionalen Reaktion mit der stimulierten Emotion angibt und eine „0“ eine fehlende Übereinstimmung angibt, zumindest im Hinblick darauf, ob es sich um positive oder negative Emotionen handelt. Alternativ kann eine „-1“ eine fehlende Übereinstimmung der emotionalen Reaktion mit der stimulierten Emotion angeben und eine „0“ die Tatsache, dass die Testperson gar keine Reaktion gezeigt hat. Der Kongruenzindikator kann dann, gemeinsam mit der entsprechenden Reaktionszeit für die emotionale Reaktion, mit der der Kongruenzindikator verknüpft ist, ebenfalls einen Bestandteil der Kennwerte des zweiten Biomarkers bilden.
  • Bei dem Kongruenzindikator handelt es sich um eine besonders hilfreiche und aussagekräftige Information, jedenfalls dann, wenn die Testperson auf einen bestimmten Stimulus nicht mit einer Emotion reagiert, die zu erwarten gewesen wäre, weil dies ein Indiz für eine chronische, neurologische Störung ist.
  • Vorzugsweise kann vorgesehen sein, dass das Emotionsanalysemodul für jede stimulierte Emotion drei Informationen liefert, nämlich die Reaktionszeit auf die Stimulation, die emotionale Reaktion hierauf (positiv/ negativ oder konkret ermittelte Emotion) und den Kongruenzindikator. Diese drei Informationen für jede der stimulierten Emotionen bilden dann die Kennwerte des zweiten Biomarkers. Im Fall von n stimulierten Reaktionen umfasst der zweite Biomarker in diesem Fall 3n Kennwerte.
  • Vorzugsweise ist vorgesehen, dass die Emotions-Auslösungssteuerung eingerichtet ist, zwischen 4 und 12 Emotionen, vorzugsweise 6 Emotionen zu stimulieren.
  • In einer Ausführungsvariante kann die Blickrichtungslenkung eingerichtet sein, das wenigstens eine Bild oder Video auf diskreten Positionen der Bildwiedergabeeinrichtung nacheinander darzustellen oder entlang eines kontinuierlichen Pfades zu bewegen. Das Bild oder Video wird somit kleiner wiedergegeben als die Wiedergabefläche (Bildschirm) der Bildwiedergabeeinrichtung ist, und über die Wiedergabefläche bewegt, wobei die Testperson der zeitlichen Abfolge der Wiedergabeorte bzw. dem Wiedergabepfad mit dem Blick folgen soll. Es ist allerding auch möglich, ein einziges Video ganzflächig auf der Wiedergabefläche zu zeigen, wobei dann in diesem Video ein oder mehrere Objekte enthalten sind, deren Position sich bezogen auf die räumliche Begrenzung der Wiedergabefläche ändert, z.B. ein hin und her fliegender Schmetterling.
  • Vorzugsweise umfasst die Blickrichtungsbeobachtungseinheit eine Eye-Tracking Software.
  • Das erfindungsgemäße Diagnosewerkzeugs kann vorteilhafterweise als eine Softwareapplikation für ein tragbares Kommunikationsendgerät, insbesondere ein Smartphone oder Tablet verwendet werden. Damit ist die Verwendbarkeit des Diagnosewerkzeugs für nahezu Jedermann jederzeit gegeben.
  • Das erfindungsgemäße Diagnosewerkzeugs kann auch als eine Softwareapplikation auf einem Server verwendet werden, der über ein Computernetzwerk von einem Browser auf einem externen Endgerät ansteuerbar ist, um das Diagnosewerkzeug auszuführen. Auch diese Variante gewährleistet eine hohe Zugänglichkeit des Diagnosewerkzeugs bzw. einen Zugriff darauf jederzeit von jedem Ort der Welt, wobei die Variante auch dem Umstand Rechnung trägt, dass die Rechenleistung in einem tragbaren Kommunikationsendgerät möglicherweise nicht ausreicht, um die genannten Algorithmen der künstlichen Intelligenz auszuführen. Ein Server mit einer Verarbeitungseinheit mit ausreichend Rechenleistung ist hierfür besser geeignet.
  • Erfindungsgemäß wird außerdem ein Diagnosesystem zur Verwendung in der Diagnose einer chronischen, neurologischen Störung bei einer menschlichen Testperson unter Verwendung künstlicher Intelligenz vorgeschlagen, umfassend
    • - ein erfindungsgemäßes Diagnosewerkzeug,
    • - wenigstens einen nicht flüchtigen Speicher mit das Diagnosewerkzeug bildenden Programmcode und Daten,
    • - eine Verarbeitungseinheit wie z.B. einen Prozessor, zur Ausführung des Programmcodes und Verarbeitung der Daten des Diagnosewerkzeugs sowie
    • - die folgenden Peripheriegeräte:
    • - eine Spracheingabeeinrichtung, wie z.B. ein Mikrofon, zur Aufnahme wenigstens eines Sprachsignals der Testperson für das Diagnosewerkzeug,
    • - eine Bildaufnahmeeinrichtung, wie z.B. eine CCD-Kamera, zur bildlichen Aufnahme des Gesichts der Testperson für das Diagnosewerkzeug,
    • - eine Bildwiedergabeeinrichtung, wie z.B. einen Monitor oder ein Display, zur Darstellung von Bilddaten für die Testperson und
    • - wenigstens ein Eingabemittel, wie z.B. Tasten oder ein Touch-Screen, zur Vornahme von Eingaben durch die Testperson,
    wobei die Peripheriegeräte mit der Verarbeitungseinheit in Wirkverbindung stehen und das Diagnosewerkzeug eingerichtet ist, die Spracheingabeeinrichtung, die Bildaufnahmeeinrichtung und die Bildwiedergabeeinrichtung zumindest mittelbar anzusteuern und die Aufnahmen von der Spracheingabeeinrichtung und der Bildaufnahmeeinrichtung auszuwerten.
  • Vorzugsweise ist das Diagnosesystem ein tragbares Kommunikationsendgerät, insbesondere ein Smartphone oder Tablet, auf dem das Diagnosewerkzeug als Softwareapplikation ausgeführt wird. Der nicht flüchtige Speicher, die Verarbeitungseinheit, die Spracheingabeeinrichtung, die Bildaufnahmeeinrichtung, die Bildwiedergabeeinrichtung und das Eingabemittel stellen in diesem Fall integrale Bestandteile des Kommunikationsendgeräts dar.
  • Alternativ kann die Verarbeitungseinheit Teil eines mit einem Computernetzwerk wie dem Internet verbundenen und über einen Browser ansteuerbaren Servers sein, wobei der nicht flüchtige Speicher mit dem Server in Verbindung steht, und die Peripheriegeräte Teil eines externen Endgeräts, insbesondere eines tragbaren Kommunikationsendgeräts sind. Mit anderen Worten kann das Diagnosewerkzeug in dieser Ausführungsvariante über das Netzwerk/ Internet aufgerufen und auf dem Server ausgeführt werden.
  • In einer weiteren Ausführungsvariante kann auch das externe Endgerät einen flüchtigen Speicher aufweisen, wobei das Diagnosewerkzeug teilweise auf dem serverseitigen Speicher und teilweise auf dem endgeräteseitigen Speicher gespeichert ist. So können beispielsweise die von den Modulen verwendeten Bild- oder Textdaten, sowie zumindest die Sprachsignal-Auslösungssteuerung und die Sprachaufzeichnungseinheit des Sprachanalysemoduls, die Emotions-Auslösungssteuerung des Emotionsanalysemoduls und/ oder die Blickrichtungslenkung des Blickrichtungsanalysemoduls auf dem Endgerät gespeichert sein und dort ausgeführt werden, wohingegen auf dem serverseitigen Speicher der Sprachsignalanalysator, die Emotionsbeobachtungseinheit und die Reaktionsbewertungseinheit sowie die Blickrichtungsbeobachtungseinheit und die Gesamtergebnisbewertungseinheit gespeichert sind und ausgeführt werden. Mithin sind alle rechenintensiven Funktionseinheiten des Diagnosewerkzeugs serverseitig angeordnet. Es besteht ebenfalls die Möglichkeit, alle Funktionseinheiten des Diagnosewerkzeugs endgeräteseitig anzuordnen bis auf die Gesamtergebnisbewertungseinheit. Dies ist einerseits deshalb sinnvoll, weil die Gesamtergebnisbewertungseinheit kontinuierlich mit neuen Vergleichsdatensätzen trainiert und damit verbessert werden kann. Ein weiterer Vorteil besteht darin, dass die an den Server zu übertragenden Daten, nämlich die von der Gesamtergebnisbewertungseinheit zu bewertenden Biomarker-Kennwerte, keine personenspezifischen Daten enthalten, so das diese Verfahrensweise aus Datenschutzgründen vorteilhaft ist.
  • Erfindungsgemäß wird ferner ein Verfahren zum Betreiben des softwarebasierten Diagnosewerkzeugs zur Verwendung in der Diagnose einer chronischen, neurologischen Störung bei einer menschlichen Testperson unter Verwendung künstlicher Intelligenz vorgeschlagen, umfassend
    • - eine übergeordnete Betriebssoftware,
    • - ein Sprachanalysemodul zur Ermittlung von Kennwerten eines ersten, und zwar vokalen Biomarkers eines Sprachsignals der Testperson,
    • - wenigstens ein weiteres Modul zur Ermittlung von Kennwerten eines zweiten Biomarkers, und
    • - eine dem Sprachanalysemodul und dem weiteren Modul nachgeschaltete Gesamtergebnisbewertungseinheit,
    wobei
    • - die Betriebssoftware das Sprachanalysemodul und das wenigstens eine weitere Modul nacheinander auslöst und deren ermittelte Kennwerte der Gesamtergebnisbewertungseinheit zuführt,
    • - eine Sprachsignal-Auslösesteuerung des Sprachanalysemoduls einen Satz von Einzelbildern und/ oder Einzelvideos oder einen Text auf einer Bildwiedergabeeinrichtung für die Testperson darstellt, um wenigstens ein Sprachsignal bei der Testperson in Gestalt einer Benennung eines in dem jeweiligen Einzelbild oder Einzelvideo enthaltenden Objekts oder in Gestalt eines Vorlesens des Textes auszulösen,
    • - eine Sprachaufzeichnungseinheit des Sprachanalysemoduls das Sprachsignal mit Hilfe einer Spracheingabeeinrichtung in einer Audioaufnahme aufzeichnet, und
    • - ein Sprachsignalanalysator des Sprachanalysemoduls das Sprachsignal in der Audioaufnahme zunächst daraufhin auswertet, zu welchem Zeitpunkt welche Tonhöhe vorkommt, und anschließend eine Häufigkeitsverteilung der Tonhöhen über eine Anzahl an Frequenzbändern eines betrachteten Frequenzspektrums ermittelt, wobei diese Häufigkeitsverteilung die Kennwerte des ersten Biomarkers bildet, und
    • - die Gesamtergebnisbewertungseinheit aufgrund der Kennwerte der Biomarkers der Testperson unter Anwendung eines maschinellen Lernalgorithmus auf Basis künstlicher Intelligenz durch Vergleich mit einer mehrdimensionalen Grenzfläche feststellt, ob die Testperson die chronische, neurologische Störung aufweist.
  • Ergänzend kann in einer Ausführungsvariante des Betriebsverfahrens, in der das weitere Modul ein Emotionsanalysemodul zur Auswertung der Reaktion der Testperson auf einen Emotionsstimulus als zweiter Biomarker ist, vorgesehen sein, dass
    • - eine Emotions-Auslösungssteuerung des Emotionsanalysemoduls einen Satz von Einzelbildern und/ oder Einzelvideos oder wenigstens ein einzelnes Video auf der Bildwiedergabeeinrichtung darstellt, um eine Anzahl einzelner Emotionen bei der Testperson zu stimulieren, und
    • - eine Emotionsbeobachtungseinheit des Emotionsanalysemoduls eine mit Hilfe einer Bildaufnahmeeinrichtung (6) gewonnenen Aufnahme des Gesichts der Testperson zumindest daraufhin auswertet, wann sie eine emotionale Reaktion zeigt, und
    • - das Emotionsanalysemodul die jeweilige Reaktionszeit zwischen der Stimulierung der jeweiligen Emotion und ihres Auftretens ermittelt, und wenigstens diese Reaktionszeiten die Kennwerte des zweiten Biomarkers bilden.
  • Wie oben ausgeführt, kann die Emotionsbeobachtungseinheit die Aufnahme des Gesichts der Testperson auch daraufhin auswerten, welche emotionale Reaktion sie zeigt, d.h. die Reaktionsart, beispielsweise in der Art, ob es sich um eine positive oder negative emotionale Reaktion handelt, oder in der Art der Bestimmung der konkreten Emotion. In diesem Fall bilden für jede stimulierte Emotion die jeweilige Reaktionszeit und Reaktionsart die Kennwerte des zweiten Biomarkers.
  • Wie ebenfalls oben ausgeführt, kann das Emotionsanalysemodul außerdem einen Kongruenzindikator ermitteln, der angibt, ob die emotionale Reaktion der stimulierten Emotion entspricht, beispielsweise ob beides jeweils positive oder negative Emotionen sind oder sogar die Emotionsart übereinstimmt. In diesem Fall bilden für jede stimulierte Emotion die jeweilige Reaktionszeit und der Kongruenzindikator die Kennwerte des zweiten Biomarkers. Bevorzugt ermittelt das Emotionsanalysemodul jedoch zu jeder stimulierten Emotion drei Informationen, nämlich sowohl die Reaktionszeit, als auch die Reaktionsart und den Kongruenzindikator. In diesem Fall bilden für jede stimulierte Emotion die jeweilige Reaktionszeit, Reaktionsart und der Kongruenzindikator die Kennwerte des zweiten Biomarkers.
  • Ergänzend kann in einer anderen Ausführungsvariante des Betriebsverfahrens, in der das weitere Modul ein Blickrichtungsanalysemodul zur Auswertung der Blickrichtung der Testperson als zweiter Biomarker ist, vorgesehen sein, dass
    • - eine Blickrichtungslenkung des Blickrichtungsanalysemoduls wenigstens ein Bild oder Video auf der Bildwiedergabeeinrichtung darstellt, um die Blickrichtung der Testperson zu lenken, und
    • - eine Blickrichtungsbeobachtungseinheit des Blickrichtungsanalysemoduls aus einer mit Hilfe einer Bildaufnahmeeinrichtung (6) gewonnenen Aufnahme des Gesichts der Testperson deren Blickrichtung über der Zeit ermittelt, wobei dieser Blickrichtungsverlauf die Kennwerte des zweiten Biomarkers bildet.
  • Schließlich kann in einer weiteren Ausführungsvariante des Betriebsverfahrens vorgesehen sein, dass das Emotionsanalysemodul ein erstes weiteres Modul und das Blickrichtungsanalysemodul ein zweites weiteres Modul ist und diese Module nacheinander ausgelöst werden, wobei wenigstens die Reaktionszeiten auf die Emotionsstimuli Kennwerte des zweiten Biomarkers bilden und die Blickrichtung über der Zeit Kennwerte eines dritten Biomarker der Testperson bildet, und wobei die Gesamtergebnisbewertungseinheit aufgrund der Kennwerte des ersten, zweiten und dritten Biomarkers der Testperson unter Anwendung des maschinellen Lernalgorithmus auf Basis künstlicher Intelligenz durch Vergleich mit einer mehrdimensionalen Grenzfläche feststellt, ob die Testperson die chronische, neurologische Störung aufweist.
  • Im Übrigen ist das Betriebsverfahren eingerichtet, das Diagnosewerkzeug so zu steuern, dass es die Schritte und Funktionen ausführt, zu denen es entsprechend, wie zuvor beschrieben, eingerichtet ist.
  • Das softwarebasierte Diagnosewerkzeug und dessen Betriebsverfahren werden nachfolgend anhand eines konkreten Beispiels und der beigefügten Figuren näher beschrieben.
  • Es zeigen:
    • 1: eine Prinzipdarstellung des Aufbaus eines ersten erfindungsgemäßen Diagnosesystems
    • 2: eine Prinzipdarstellung des Aufbaus eines zweiten erfindungsgemäßen Diagnosesystems
    • 3: eine schematische Darstellung der Funktionseinheiten des Sprachanalysemoduls des Diagnosewerkzeugs
    • 4: eine schematische Darstellung der Funktionseinheiten des Emotionsanalysemoduls des Diagnosewerkzeugs
    • 5: eine schematische Darstellung der Funktionseinheiten des Blickrichtungsanalysemoduls des Diagnosewerkzeugs
    • 6: eine Prinzipdarstellung des Aufbaus eines dritten erfindungsgemäßen Diagnosesystems
    • 7: ein Ablaufdiagramm eines erfindungsgemäßen Betriebsverfahrens
    • 8: ein schematisches Signalflussdiagramm
    • 9: ein aufgezeichnetes Sprachsignal umfassend acht einzelne Sprachsignale
    • 10: die Tonhöhensignale der acht einzelnen Sprachsignale aus 9 über der Zeit (Pitch-Spektrum)
    • 11: ein Tonhöhenhistogramm zu den acht Tonhöhensignalen in 10
    • 12: ein beispielhaftes Tonhöhenhistogramm einer autistischen Testperson
    • 13: ein beispielhaftes Tonhöhenhistogramm einer nicht-autistischen Testperson
    • 14: weitere Beispiele von Tonhöhenhistogrammen autistischer Testpersonen
    • 15: weitere Beispiele von Tonhöhenhistogrammen nicht-autistischer Testpersonen
    • 16: ein Diagramm, das Emotionsstimuli und deren Wirkung auf die Testperson veranschaulicht
    • 17: eine zeitliche Abfolge von Darstellungen eines Bildes auf der Bildwiedergabeeinrichtung an verschiedenen Positionen
    • 18: ein ermittelter Blickrichtungspfad
  • 1 zeigt ein softwarebasiertes Diagnosewerkzeug als Teil eines Diagnosesystems 1 gemäß einer ersten Ausführungsvariante. 7 veranschaulicht ein Betriebsverfahren für dieses Diagnosewerkzeug bzw. für das Diagnosesystem. Das Diagnosesystem 1 umfasst einerseits ein Computersystem 2, das wenigstens eine Verarbeitungseinheit 3 in Gestalt eines Prozessors 3 mit einem, zwei oder mehr Kernen, sowie zumindest einen nicht-flüchtigen Speicher 4 aufweist, und Peripheriegeräte 5, 6, 7, 8 andererseits, die mit dem Computersystem 2 in Wirkverbindung stehen, genauer gesagt mit diesem kommunikationstechnisch verbunden sind, so dass die Peripheriegeräte 5, 6, 7, 8 von dem Computersystem 2 Steuerdaten erhalten, mithin angesteuert werden und/ oder Nutzdaten, insbesondere Bild- und Tondaten an dieses übertragen können.
  • Bei den Peripheriegeräten 5, 6, 7, 8 handelt es sich um eine Spracheingabeeinrichtung 5 in Gestalt eines Mikrofons 5, eine Bildaufnahmeeinrichtung 6 in Gestalt einer Kamera 6, beispielsweise einer CCD-Kamera, eine Bildwiedergabeeinrichtung 7 in Gestalt eines Displays 7 oder Monitors und ein Eingabemittel 8, z.B. in Gestalt von Bedientasten, einer Tastatur oder einer berührungssensitiven Oberfläche der Bildwiedergabeeinrichtung 7 in Verbindung mit einer darauf dargestellten grafischen Benutzeroberfläche, die für eine mögliche Eingabe die zu berührenden Teilfläche der der Bildwiedergabeeinrichtung 7 grafisch herausstellt. Das Eingabemittel 8 kann auch durch ein Spracherkennungsmodul gebildet sein. Die Peripheriegeräte 5, 6, 7, 8 sind örtlich einer Testperson 11 zugeordnet, insbesondere für diese zugänglich, so dass sie mit den Peripheriegeräte 5, 6, 7, 8 interagieren kann.
  • In einer Ausführungsvariante können die Peripheriegeräte 5, 6, 7, 8 mit dem Computersystem 2 über eine oder mehrere Kabelverbindungen verbunden sein, entweder über eine gemeinsame Kabelverbindung oder über jeweils einzelne Kabelverbindungen. Anstelle der Kabelverbindung können die Peripheriegeräte 5, 6, 7, 8 mit dem Computersystem 2 auch über eine kabellose, insbesondere eine Funkverbindung wie beispielsweise Bluetooth oder WLAN verbunden sein. Es ist ferner eine Mischung dieser Verbindungstypen möglich, so dass eines oder mehrere der Peripheriegeräte 5, 6, 7, 8 mit dem Computersystem 2 über eine Kabelverbindung und eines oder mehrere der Peripheriegeräte 5, 6, 7, 8 über eine kabellose, insbesondere Funkverbindung mit dem Computersystem 2 verbunden ein kann. Des Weiteren können die Peripheriegeräte 5, 6, 7, 8 direkt mit dem Computersystem verbunden sein oder indirekt über ein externes Gerät 12, beispielsweise über einen externen Computer wie einem Personal Computer, welcher wiederum kabellos oder via Kabel über wenigstens ein lokales und/ oder globales Netzwerk 9 wie dem Internet mit dem Computersystem 2 zur Kommunikation verbunden sein kann. Dies ist in 2 veranschaulicht.
  • Die Peripheriegeräte 5, 6, 7, 8 können jeweils einzelne Geräte bilden. Sie können alternativ jedoch auch einzeln miteinander kombiniert in einem Gerät verbaut sein. So können beispielsweise Kamera 6 und Mikrofon 5 in einem gemeinsamen Gehäuse untergebracht sein, oder das Display 7 und die Eingabeeinrichtung 8 eine integrierte Funktionseinheit bilden. Weiter alternativ können die Peripheriegeräte allesamt integraler Bestandteil des externen Gerätes 12 sein, welches dann beispielsweise ein mobiles Endgerätes 12 der Telekommunikation sein kann, insbesondere ein Laptop, eines Smartphone oder ein Tablet. Eine Ausführungsvariante des externen Geräts 12 in Gestalt eines Smartphones 12 ist in 2 veranschaulicht. Die Kommunikation der Peripheriegeräte 5, 6, 7, 8 mit dem Computersystem 2 erfolgt dann auch in diesem Fall über das externe Gerät 12 und ein lokales und/ oder globales Netzwerk 9 wie dem Internet 9, mit dem das externe Gerät 12 einerseits, kabellos oder via Kabel, und das Computersystem 2 andererseits, kabellos oder via Kabel, verbunden ist.
  • Das Computersystem 2 fungiert im Falle eines Zugriffs aus dem Netzwerk 9, insbesondere dem Internet als zentraler Server und besitzt hierfür eine entsprechende Kommunikationsschnittstelle 10, insbesondere eine IP-basierte Schnittstelle, über die die Kommunikation mit dem externen Gerät 12 erfolgt. Dies ermöglicht einen zeitlich und örtlich uneingeschränkten Zugriff auf das Diagnosewerkzeug. Insbesondere kann die Kommunikation mit dem Computersystem 2 als Server über eine spezielle Softwareapplikation auf dem externen Gerät oder über eine Internetadresse bzw. Webseite erfolgen, die in einem Browser auf dem externen Gerät 12 aufgerufen werden kann.
  • Bei der Realisierung der Peripheriegeräte 5, 6, 7, 8 und deren Verbindung mit dem Computersystem gibt es somit zahlreiche physischen Gestaltungsmöglichkeiten, die für den Einsatz des erfindungsgemäßen Diagnosewerkzeugs mehrere Szenarien ermöglichen.
  • So kann das Diagnosesystem 1 bzw. das Computersystem 2 und die damit in Wirkverbindung stehenden Peripheriegeräte 5, 6, 7, 8 als eine gemeinsame Funktionseinheit örtlich am Arbeitsplatz eines Arztes oder Therapeuten, z.B. in dessen Praxis oder Klinik stehen. Die Testperson 11 muss in diesem Fall persönlich dort anwesend sein, um das Diagnosesystem 1 nutzen zu können. Ebenfalls möglich ist es, dass an besagtem Arbeitsplatz nur das externe Gerät 12 mit den Peripheriegeräten 5, 6, 7, 8 steht, welches über das Netzwerk 9 auf das Computersystem 2 bzw. auf das Diagnosewerkzeug zugreift. Die Testperson 11 muss in diesem Fall zwar immer noch persönlich beim Arzt oder Therapeuten anwesend sein, jedoch sind die Investitionskosten für den Arzt oder Therapeuten geringer. Von besonderem Vorteil ist es jedoch, wenn das externe Gerät 12 ein mobiles Gerät ist, beispielsweise ein Laptop, Smartphone oder Tablet, welche den Zugriff auf das Computersystem 2 bzw. auf das Diagnosewerkzeug auch von zu Hause aus ermöglicht. Somit entfallen zeitaufwändige Anreisen zum Arzt oder Therapeuten.
  • Für die Verwendung des erfindungsgemäßen Diagnosesystems 1 ist ein medizinischer Experte grundsätzlich nicht erforderlich, da die Diagnose vom Diagnosewerkzeug aufgrund der ihm von der Testperson 11 über das Mikrofon 5 und die Kamera 6 bereitgestellten Informationen selbständig und vor allem objektiv durchgeführt wird. Die Interaktion der Testperson 11 mit dem Diagnosesystems 1 erfolgt aufgrund von textlichen oder sprachlichen Anweisungen, die es auf der Bildwiedergabeeinrichtung 7 oder einem Lautsprecher als weiteres Peripheriegerät ausgibt und denen die Testperson 11 Folge zu leisten hat. Bei Kindern und solchen Erwachsenen, die im Umgang mit Laptops, Smartphones oder Tablets und deren Programmen unerfahren sind, kann eine weitere Person, wie ein Elternteil oder ein Betreuer bei der Bedienung des Diagnosesystems 1 unterstützen, jedoch Bedarf es hierzu keines medizinischen Experten. Gleichwohl ist das Diagnoseergebnis mit einem medizinischen Experten zu besprechen und zu bewerten, insbesondere hinsichtlich einer etwaigen Therapie, die sich aus einer positiven Autismusdiagnose ergibt. Auch ist es auch Gründen emotionaler Betroffenheit im Falle einer positiven Autismusdiagnose empfehlenswert, die Verwendung des Diagnosesystems 1 unter Aufsicht einer weiteren erwachsenen Person durchzuführen.
  • Das erfindungsgemäße Diagnosewerkzeug besteht im engeren Sinn durch eine Kombination von Software 15 und Daten 14, die in einem nicht flüchtigen Speicher 4 hinterlegt sind. 1 und 2 stellen den einfachen Fall dar, dass die Software 15 und Daten 14 gemeinsam in einem Speicher 4 gespeichert sind, der Teil des Computersystems 2 ist, beispielsweise ein Festplattenspeicher. Dieser Speicher 4 kann jedoch auch außerhalb des Computersystems 2 angeordnet sein, beispielsweise in Gestalt eines Netzlaufwerks oder einer Cloud. Des Weiteren ist es nicht zwingend, dass die Software und die Daten in demselben Speicher 4 liegen. Die Daten 14 und die Software 15 können vielmehr auch verteilt in verschiedenen Speichern, innerhalb oder außerhalb des Computersystems z.B. in einem Netzwerkspeicher oder einer Cloud gespeichert sein, auf die das Computersystem 2 bei Bedarf zugreift. Ferner können nicht nur die Gesamtheit der Daten 14 und die Gesamtheit der Software 15 in getrennten Speichern gespeichert sein, vielmehr können auch Teile der Daten und/ oder Teile der Software auf unterschiedlichen Speichern gespeichert sein. Somit gibt es auch hier zahlreiche Gestaltungsmöglichkeiten für die Anordnung und Verteilung des Diagnosewerkzeugs innerhalb des Diagnosesystems 1.
  • Im Besonderen umfassen die Daten 14 des Diagnosewerkzeugs Bilddaten 16, 18, 19 in Gestalt von Einzelbildern und/ oder Einzelvideos und Textdaten 17, die dazu vorgesehen sind, vom Diagnosewerkzeug auf der Bildwiedergabeeinrichtung 7 dargestellt zu werden, um eine sprachliche Äußerung, eine emotionale Reaktion und eine Blickrichtungslenkung zu erwirken. Die Bild- und Textdaten 16, 17, 18, 19 sind im Hinblick auf diese Zweckbestimmung vorzugsweise jeweils zu einer bestimmten Gruppe oder einem bestimmten Datensatz zusammengefasst, die in Abhängigkeit von personenspezifischen Angaben der Testperson vom Diagnosewerkzeug ausgewählt werden.
  • Die Textdaten 17 sind vorgesehen, um sie einem lesefähigen Erwachsenden als Testperson 11 auf der Bildwiedergabeeinrichtung 7 zum Vorlesen anzuzeigen. Die Textdaten 17 können einen ersten Text 17a in einer ersten Sprache z.B. Englisch, und einen zweiten Text in einer zweiten Sprache z.B. Suaheli umfassen. Bei dem Text kann es sich beispielsweise um einen wohlbekannten Standardtext, z.B. ein Märchen oder eine Geschichte handeln, wie z.B. Rotkäppchen oder „A Tale of two Cities“.
  • Ein erster Teil 16 der Bilddaten ist vorgesehen, um einem leseunfähigen Erwachsenden oder einem Kind als Testperson 11 auf der Bildwiedergabeeinrichtung 7 Einzelbilder und/ oder Einzelvideos nacheinander anzuzeigen, damit die Testperson 11 den auf den Einzelbildern und/ oder Einzelvideos gezeigten Gegenstand benennt. Diese Einzelbilder und/ oder Einzelvideos 16 sind dabei so ausgestaltet, dass nur ein einziger, vergleichsweise leicht zu benennender Gegenstand auf ihnen gezeigt ist, wie z.B. ein Elefant, ein Auto, ein Flugzeug, eine Puppe, ein Fußball etc. Im Falle eines Videos können dieses Gegenstände in Bewegung dargestellt sein. Die Einzelbilder und/ oder Einzelvideos können die Realität wiedergeben oder gezeichnet sein. Da Personen, insbesondere Kinder, unterschiedlichen Alters, Geschlechts und ethnischer Herkunft unterschiedliche Interessen und einen unterschiedlichen soziokulturellen Hintergrund haben, können die Einzelbilder und/ oder Einzelvideos unterteilt sein in einzelne Sätze 16a, 16b von Einzelbildern und/ oder Einzelvideos, deren Inhalte auf das Alter, Geschlecht und die ethnische Herkunft abgestimmt sind bzw. einen speziellen altersbezogenen, geschlechtsbezogenen und/ oder kulturellen Kontext haben, um sicherzustellen, dass die Testperson 11 den jeweiligen Gegenstand tatsächlich erkennt und benennt. Dabei kommt es allerdings nicht auf die Sprache an, in der die Benennung erfolgt, da diese für das Diagnosewerkzeug ohne Bedeutung ist.
  • So kann ein erster Satz von Einzelbildern 16a dazu vorgesehen, einem Jungen oder einem Kind einer ersten ethnischen Herkunft auf der Bildwiedergabeeinrichtung 7 dargestellt zu werden, und ein zweiter Satz von Einzelbildern 16a dazu vorgesehen sein, einem Mädchen oder einem Kind einer zweiten ethnischen Herkunft auf der Bildwiedergabeeinrichtung 7 dargestellt zu werden.
  • Ein zweiter Teil 18 der Bilddaten ist vorgesehen, um der Testperson 11 auf der Bildwiedergabeeinrichtung 7 Einzelbilder und/ oder Einzelvideos nacheinander anzuzeigen, um bei der Testperson 11 eine bestimmte emotionale Reaktion auszulösen, z.B. Freude, Trauer, Wut oder Angst. Obgleich Einzelbilder grundsätzlich geeignet sind, eine emotionale Reaktion auszulösen, wie z.B. ein kurzer Comic mit einem darin enthaltenen Witz, vermögen Videos Situationen zu zeigen, die intensivere Emotionen hervorzurufen, weshalb Videos grundsätzlich besser geeignet sind. Auch in diesem Fall, kann der zweite Teil 18 der Bilddaten 16, 18 unterteilt sein in einzelne Sätze 18a, 18b von Einzelbildern und/ oder Einzelvideos, deren Inhalt auf das Alter, Geschlecht und die ethnische Herkunft abgestimmt sind, um sicherzustellen, dass die Testperson 11 auf eine bestimmte Situation mit einer bestimmten Emotion reagiert. Die Einzelbilder und/ oder Einzelvideos können die Realität wiedergeben oder gezeichnet sein. Letzteres bietet sich bei Kindern an.
  • Optional kann ein dritter Teil 19 von Bilddaten vorgesehen sein, umfassend wenigstens ein Einzelbild oder Video, das der Testperson 11 auf der Bildwiedergabeeinrichtung 7, insbesondere an verschiedenen Positionen derselben nacheinander angezeigt wird, um deren Blickrichtung auf die Bildwiedergabeeinrichtung 7 zu lenken. Hierzu genügt grundsätzlich ein einzelnes Einzelbild 19a (vgl. 17), welches an verschiedene Positionen diskret nacheinander angezeigt oder zu verschiedenen Positionen kontinuierlich bewegt wird. Bei dem Einzelbild 19a kann es sich im einfachsten Fall um ein beliebiges grafisches Objekt wie ein Symbol, ein Icon, ein Logo, ein Text oder eine Figur handeln. Es kann alternativ ein Foto oder eine Zeichnung sein. Das Einzelbild kann aus der Menge der Einzelbilder des ersten Teils 16 oder zweiten Teils 18 der Bilddaten stammen, so dass für die Blickrichtungslenkung in diesem Fall kein dritter Teil 19 von Bilddaten erforderlich ist. Um sicherzustellen, dass das Interesse der Testperson 11 an der Bildverfolgung nicht verloren geht, empfiehlt es sich, unterschiedliche Einzelbilder oder wenigstens ein Video für die Blickrichtungslenkung zu verwenden, welche oder welches dann den dritten Teil 19 der Bilddaten bildet/ bilden. Jedoch können auch diese Einzelbilder oder das Video aus dem ersten Teil 16 oder zweiten Teil 18 der Bilddaten stammen, so dass auch in diesem Fall kein dritter Teil 19 von Bilddaten erforderlich ist.
  • Wie zuvor erläutert, besteht das Diagnosewerkzeug neben den Daten 14 aus Software 15 (Programmcode) mit Instruktionen zur Ausführung auf dem Prozessor 3. Genauer gesagt umfasst diese Software eine Betriebssoftware 20, mehrere Analysemodule 21, 22, 23 und eine Gesamtergebnisbewertungseinheit 24, wobei die Betriebssoftware 20 die übergeordnete Steuerung der Abläufe im Diagnosewerkzeug übernimmt, insbesondere die einzelnen Analysemodule 21, 22, 23 nacheinander und die Gesamtergebnisbewertungseinheit 24 ansteuert, vergleiche 7.
  • Bei dem ersten der Analysemodule handelt es sich um Sprachanalysemodul 21 zur Ermittlung von Kennwerten 27 eines ersten Biomarkers, der hier als vokaler Biomarkers eines Sprachsignals 26 der Testperson 11 bezeichnet wird, das in einer Audioaufnahme 26 enthalten ist. Um das Sprachsignal 26 auszulösen und die Audioaufnahme 26 zu gewinnen, umfasst das Sprachanalysemodul 21 eine Sprachsignals-Auslösesteuerung 21a und eine Sprachaufzeichnungseinheit 21b. Zur Gewinnung von Kennwerten des vokalen Biomarkers ist außerdem ein Sprachsignalanalysator 21c Teil des Sprachanalysemodul 21, wie dies schematisch in 3 dargestellt ist.
  • Das Sprachanalysemodul 21 wird als erstes Analysemodul von der Betriebssoftware 20 ausgelöst, nachdem die Testperson 11 oder eine andere, ihr assistierende Person, wie z.B. ein Erwachsener oder der Hausarzt, das Diagnosewerkzeug aktiviert hat, siehe 7, und gegebenenfalls nach Anforderung des Diagnosewerkzeugs personenspezifische Daten, insbesondere zum Alter, Geschlecht und der ethnischen Herkunft eingegeben hat. Es besteht auch die Möglichkeit, dass diese personenspezifischen Daten Teil eines Personenprofils sind, das bereits vor dem Start des Diagnosewerkzeugs vorliegt und von diesem verwendet werden kann.
  • Die personenspezifischen Daten können über das Eingabemittel 8 von der Testperson 11 vorgegeben werden. Das Diagnosewerkzeugs erwartet hierzu eine entsprechende Eingabe über das Eingabemittel 8, um anschließend anhand der erfolgten Eingabe die Daten 14 auszuwählen. Sofern jedoch in einer einfachen Variante des erfindungsgemäßen Diagnosewerkzeugs nur eine bestimmte Personengruppe, z.B. nur Erwachsene oder nur Kinder, können die Daten speziell auf diese Personengruppe abgestimmt sein und kann auf eine Eingabe der personenspezifischen Daten verzichtet werden. Vorzugsweise sind dann die Daten bzw. Einzelbilder und Einzelvideos geschlechtsneutral und ethnisch-kulturell neutral ausgewählt im Speicher 4 hinterlegt.
  • Das Sprachanalysemodul 21 ist eingerichtet, zunächst die Sprachsignal-Auslösesteuerung 21a auszuführen. Diese ist wiederum eingerichtet, aus den ersten Bilddaten 16 im Speicher 4 einen Satz 16a, 16b von Einzelbildern oder Einzelvideos, oder aus den Textdaten 17 im Speicher 4 einen Text 17a, 17b zu laden und auf der Bildwiedergabeeinrichtung 7 zur Anzeige zu bringen. Im Falle der Einzelbilder oder Einzelvideos erfolgt dies nacheinander.
  • Die Auswahl des Satzes 16a, 16b von Einzelbildern oder Einzelvideos oder Textes 17a, 17b erfolgt bevorzugt in Abhängigkeit der personenspezifischen Daten. Besagen die personenspezifischen Daten, dass die Testperson 11 ein Kind ist bzw. dessen Alter unter einem bestimmten Grenzalter von z.B. 12 Jahren liegt, wird der Satz 16a, 16b von Einzelbildern oder Einzelvideos, anderenfalls der Text 17a, 17b geladen. Diese Bedingung kann noch mit der zusätzlich zu prüfenden Bedingung verknüpft sein, ob die Testperson 11 eine Leseschwäche aufweist, was ebenfalls Teil der personenspezifischen Daten sein kann. Liegt eine solche Leseschwäche vor, wird ebenfalls der Satz 16a, 16b von Einzelbildern oder Einzelvideos verwendet. Des Weiteren kann in Abhängigkeit des Geschlechts und/ oder der ethnischen Herkunft der Testperson 11 die Auswahl eines ersten Satzes 16a oder eines zweiten Satzes 16b an Einzelbildern oder Einzelvideos erfolgen, die in diesem jeweiligen Satz jeweils speziell auf die entsprechende Personengruppe zugeschnitten ist. Ferner kann in Abhängigkeit der ethnischen Herkunft oder der Landessprache der Testperson 11 ein erster Text 17a oder ein zweiter Text 17b ausgewählt werden, der jeweils an die entsprechende Personengruppe angepasst ist.
  • Die Auswertung der personenspezifischen Daten, genauer gesagt die Prüfung, ob die Testperson 11 das Grenzalter unterschreitet, eine Leseschwäche hat, welchen Geschlechts sie angehört, welche ethnische Herkunft sie hat oder welche Sprache die Testperson 11 spricht oder versteht, respektive die Auswahl des entsprechenden Satzes 16a, 16b von Einzelbildern oder Einzelvideos oder Textes 17a, 17b sind Verfahrensschritte, die die Sprachsignal-Auslösesteuerung 21a ausführt. Anschließend lädt sie den entsprechenden Satz 16a, 16b an Einzelbildern oder Einzelvideos oder den entsprechenden Text 17a, 17b aus dem Speicher 4 und steuert die Bildwiedergabeeinrichtung 7 derart an, dass die Einzelbilder oder Einzelvideos des Satzes 16a, 16b nacheinander oder der Text 17a, 17b auf der Bildwiedergabeeinrichtung 7 angezeigt werden.
  • Die Einzelbilder und Einzelvideos des Satzes 16a, 16b und der Text 17a, 17b sind dafür vorgesehen, eine sprachliche Äußerung von der Testperson 11 zu erhalten, nachfolgend Sprachsignal 26 genannt. Im Falle der Einzelbilder oder Einzelvideos ist vorgesehen, dass die sprachliche Äußerung eine Einzelwortbenennung des Objektes ist, das auf dem jeweiligen Einzelbild oder in dem jeweiligen Einzelvideo dargestellt ist. Im Falle des Textes 17a, 17b ist vorgesehen, dass die sprachliche Äußerung das Vorlesen dieses Textes 17a, 17b ist. Um dies der Testperson 11 zu vermitteln, kann vorgesehen sein, dass das Diagnosewerkzeug, insbesondere die übergeordnete Betriebssoftware 20 oder das Sprachanalysemodul 21, vor der Wiedergabe der Einzelbilder oder Einzelvideos des Satzes 16a, 16b oder des Textes 17a, 17b eine entsprechende textliche oder verbale Handlungsanweisung an die Testperson 11 ausgibt, beispielsweise über die Bildwiedergabeeinrichtung 7 und/ oder einen Lautsprecher.
  • Beispielsweise kann der Satz 16a, 16b sieben oder mehr Einzelbilder oder Einzelvideos umfassen. Die Wiedergabe der einzelnen Einzelbilder oder Einzelvideos kann jeweils für eine feste zeitliche Dauer erfolgen, z.B. jeweils für 5 oder 6s, so dass nach Ablauf dieser Dauer das nächste Einzelbild oder Einzelvideo wiedergegeben wird, bis alle Einzelbilder oder Einzelvideos wiedergegeben worden sind.
  • Gleichzeitig mit oder kurz vor Beginn der Wiedergabe der Einzelbilder oder Einzelvideos des Satzes 16a, 16b oder des Textes 17a, 17b auf der Bildwiedergabeeinrichtung 7 aktiviert die Sprachsignal-Auslösesteuerung 21a die Sprachaufzeichnungseinheit 21b, um die Stimme der Testperson 11 als ein Sprachsignal 26 aufzunehmen. Hierzu schaltet die Sprachaufzeichnungseinheit 21b die Spracheingabeeinrichtung 5 (Mikrofon) ein, nimmt das zeitkontinuierliches Sprachsignal 26 oder Sprachsignale in einer Audioaufnahme 26 auf und speichert diese in einem Audiodatenspeicher 13a für aufzuzeichnende/ aufgezeichnete Sprachsignale ab. Die Audioaufnahme 26 selbst ist dabei digital, wobei eine Digitalisierung des Sprachsignals 26 bzw. dessen Abtastung (Sampling) bereits in der Spracheingabeeinrichtung 5 oder in einem dieser nachgelagerten Analog/ Digitalwandler erfolgen kann, der Teil der Verarbeitungseinheit 3 oder eines separaten digitalen Signalprozessors (DSP) sein kann. Der Audiodatenspeicher 13a kann Teil des nichtflüchtigen Speichers 4 sein. Er kann alternativ ein hierzu separater Speicher im Computersystem 2 oder ein zum Computersystem 2 separater Speicher sein, beispielsweise ein Speicher in einem Netzwerklaufwerk oder in einer Cloud.
  • Die Sprachaufzeichnungseinheit 21b kann eingerichtet sein, die Aufnahme nach einer festgelegten Dauer zu beenden, um eine Audioaufnahme 27 bestimmter zeitlicher Länge zu erhalten, beispielsweise bei Kindern durchschnittlich 45 Sekunden und bei Erwachsenen durchschnittlich 60 Sekunden. Anschließend kann auch die Spracheingabeeinrichtung 5 ausgeschaltet werden. Alternativ kann das Ausschalten dann erfolgen, wenn das Audiosignal der Spracheingabeeinrichtung 5 für eine bestimmte Zeit nach einem Sprachsignal 26 unterhalb eines bestimmten Grenzwerts liegt, d.h. die Testperson 11 nicht mehr redet.
  • Gemäß einer anderen Ausführungsvariante kann eine manuelle Auslösung und Beendigung der Audioaufnahme vorgesehen sein. Das Diagnosewerkzeug erhält in diesem Fall eine entsprechende Start- oder Stopp-Eingabe über das Eingabemittel 8.
  • Des Weiteren kann das Audiosignal für die Dauer der Wiedergabe der Einzelbilder, Einzelvideos oder des Texts ununterbrochen erfolgen, so dass die Aufnahme einmalig gestartet wird, nämlich zu Beginn der Wiedergabe, und einmalig beendet wird, nämlich am Ende der Widergabe. Es ist alternativ möglich, bei jedem Einzelbild oder Einzelvideo eine neue Audioaufnahme zu starten, so dass jedes Sprachsignal 26 in einer eigenen Audioaufnahme enthalten ist. So kann die Aufnahme vor oder zu Beginn der Widergabe jedes Einzelbildes oder Einzelvideos gestartet und anschließend, insbesondere nach Erhalt des Sprachsignals 26 der Testperson 11 beendet werden, entweder nach Ablauf einer festgelegten Zeitspanne oder wenn das Audiosignal der Spracheingabeeinrichtung 5 für eine bestimmte Zeit nach einem Sprachsignal 26 unterhalb eines bestimmten Grenzwerts liegt. Ein Beispiel solcher einzelnen Audioaufnahmen ist in 9 dargestellt.
  • 9 zeigt die Verläufe der Amplitude bzw. den Schalldruckpegel von acht einzelnen, in je einer Audioaufnahme aufgezeichneten Sprachsignalen 26 über der Zeit. Den Sprachsignalen 26 liegt jeweils ein einzelnes mehr oder weniger langes ausgesprochenes Wort zu Grunde. Die einzelnen Audioaufnahmen können zunächst einzeln weiterverarbeitet oder zu einer Gesamtaufnahme zusammengefasst werden, welche dann weiterverarbeitet wird. In 8 ist die Gesamtheit der Audioaufnahmen mit der Bezugsziffer 27 versehen, unabhängig davon, ob es sich dabei um eine Anzahl einzelner Audioaufnahmen oder um eine einzige Gesamtaufnahme handelt.
  • Die Audioaufnahme(n) 27 wird/werden anschließend in dem Sprachsignalanalysator 21c ausgewertet, wobei Kennwerte 28 eines vokalen Biomarkers des aufgenommenen Sprachsignals 26 ermittelt werden, vergleiche 8. Welche Sprache und welches Wort die Testperson 11 konkret gesprochen hat, ist hierfür indes ohne Bedeutung. Es kommt folglich nicht darauf an, ob die Benennung des Objekts auf dem jeweiligen Einzelbild oder Einzelvideo korrekt war.
  • Die Auswertung der Audioaufnahme(n) 27 durch den Sprachsignalanalysator 21c erfolgt dadurch, dass zunächst die vokalen Grundfrequenzen bzw. Tonhöhen in dem in der Audioaufnahme 27 enthaltenen Sprachsignal 26 mit Hilfe künstlicher Intelligenz über der Zeit geschätzt werden. Dies wird als Pitch-Spektrum bezeichnet.
  • Der Sprachsignalanalysator 21c untersucht somit die tonale Grundstruktur des Sprachsignals 26 in der Audioaufnahme 27. Hierzu wird die Audioaufnahme 27 in einem „Deep Convolutional Neural Network“ - Algorithmus verarbeitet, der Teil des Sprachsignalanalysator 21c ist. Das Grundprinzip eines solchen Algorithmus ist in dem Fachaufsatz „Luc Ardaillon, Axel Roebe: Fully-Convolutional Network for Pitch Estimation of Speech Signals“ Insterspeech 2019, Sep 2019, Graz, Austria, 10.21437/Interspeech, 2019-2815, hal-02439798" beschrieben. Ein Beispiel eines Deep Convolutional Neural Network - Algorithmus zur Schätzung des Pitch-Spektrums ist CREPE (Convolutional Representation for Pitch Estimation), das auf einem 6 Faltungsebenen tiefen neuronalen Netzwerk beruht, das ein Audiosignal im Zeitbereich verarbeitet.
  • Der Deep Convolutional Neural Network - Algorithmus schätzt die Tonhöhe (engl. Pitch) des Audiosignals 26 zu jedem Zeitpunkt, insbesondere innerhalb eines konkreten Frequenzspektrums von 30Hz bis 1000Hz, das alle möglichen Töne der menschlichen Stimme umfasst. Der Verlauf der Tonhöhe über der Zeit wird als Pitch-Spektrum bezeichnet. 10 zeigt die Pitch-Spektren für die acht einzelnen Audioaufnahmen aus 9.
  • Erfahrungen haben gezeigt, dass die Berücksichtigung des Frequenzbereichs größer 600Hz zu keiner nennenswerten Verbesserung der Analyse des vokalen Biomarkers führt, so dass dieser Frequenzbereich vernachlässigt werden kann. Dies kann beispielsweise durch eine Bandpassfilterung erfolgen, bei der der Frequenzbereich von 30Hz bis 600Hz aus dem Sprachsignal 26 extrahiert wird. Vorzugsweise erfolgt das nach der Tonhöhenschätzung bzw. Ermittlung des Pitch-Spektrums, so dass der weitergehenden Analyse nur der relevante Teil der menschlichen Stimme zugrunde liegt. Hierzu kann ein digitaler Bandpassfilter auf die Audioaufnahme(n) 27 angewendet werden, der ebenfalls ein Bestandteil des Sprachsignalanalysator 21c ist. In einer Ausführungsvariante kann dieser Bandpassfilter feste Grenzfrequenzen aufweisen, insbesondere bei 30Hz und 600Hz. Alternativ kann der Bandpassfilter veränderliche Grenzfrequenzen besitzen, wobei vorgesehen ist, die Minimal- und Maximalfrequenz im Pitch-Spektrum zu bestimmen und anschließend den Bandpassfilter so zu konfigurieren, dass die untere Grenzfrequenz der ermittelten Minimalfrequenz und die obere Grenzfrequenz der ermittelten Maximalfrequenz entspricht.
  • Vor der Verarbeitung der Audioaufnahme im Deep Convolutional Neural Network - Algorithmus kann außerdem eine Filterung des Sprachsignals 26 derart erfolgen, dass Hintergrundgeräusche wie z.B. die Sprache anderer Personen als der Testperson 11 in dem Sprachsignal 26 eliminiert werden. Hierzu kann ein entsprechender digitaler Filter auf die Audioaufnahme(n) 27 angewendet werden, der ebenfalls ein Bestandteil des Sprachsignalanalysator 21c ist. Digitale Filter dieser Art sind an sich bekannt. Die Herausfilterung von Hintergrundgeräuschen erfolgt sinnvollerweise vor der Tonhöhenschätzung bzw. Ermittlung des Pitch-Spektrums, damit das Ergebnis dieser Schätzung nicht verfälscht wird.
  • Auf das Pitch-Spektrum der Audioaufnahme(n) wird anschließend eine Histogramm-Analyse angewendet. Ein Histogramm, das das Ergebnis dieser Analyse ist, zeigt 11. Bei der Histogramm-Analyse wird der betrachtete Frequenzbereich, hier der Bereich zwischen 30Hz und 600Hz, in eine Anzahl n gleicher Abschnitte unterteilt, die jeweils einen Container bilden. Anschließend erfolgt eine Zuordnung jeder einzelnen, in der Audioaufnahme über der Zeit ermittelten Tonhöhen zu dem entsprechenden Abschnitt bzw. Container. Dies entspricht einer bereichsbezogenen Aufsummierung der Vorkommnisse der einzelnen Tonhöhen. Mit anderen Worten wird für jeden Frequenzabschnitt ermittelt, wie häufig eine seiner Tonhöhen in der Audioaufnahme enthalten ist. Die ermittelte Anzahl jeweils aufsummierter Tonhöhen eines jeden Abschnitts wird anschließend durch die Anzahl insgesamt ermittelter Tonhöhen geteilt. Das Histogramm gibt somit in % an, wie häufig die Tonhöhen bzw. Frequenzen eines bestimmten Frequenzabschnitts in der Audioaufnahme vorkamen. In Falle mehrerer einzelner Audioaufnahmen, wie sie in 9 gezeigt sind, wird hierzu die Gesamtheit aller Audioaufnahmen bzw. die Gesamt aller Pitch-Spektren (10) betrachtet. Im vorliegenden Beispiel wurde der relevante Frequenzbereich in 12 Abschnitte unterteilt, wobei es auch weniger oder mehr sein können.
  • Beispiel: Tritt eine Tonhöhe von 320Hz in der Audioaufnahme 27 auf, wird diese dem 7. Abschnitt zugeordnet. Tritt eine weitere Tonhöhe bei 280Hz auf, wird diese dem 6. Abschnitt zugeordnete. Eine Tonhöhe von 340Hz wird erneut dem 7. Abschnitt zugeordnet usw. Tritt dieselbe Tonhöhe, z.B. 320Hz, ein weiteres Mal auf, erfolgt eine erneute Zuordnung zum 7. Abschnitt. Würde es bei diesen vier Tonhöhen bleiben, hätte der 6. Abschnitt eine und der 7. Abschnitt drei Zuordnungen, so dass sich für den Frequenzbereich zwischen 250Hz und 300Hz (6. Abschnitt) eine Häufigkeit von 25% und für den für den Frequenzbereich zwischen 300Hz und 350Hz (7. Abschnitt) eine Häufigkeit von 75% ergibt. Ein Histogramm veranschaulicht diese Häufigkeiten.
  • In dem Tonhöhen-Histogramm in 11 ist beispielsweise der Frequenzbereich zwischen 200Hz und 250Hz (5. Abschnitt) mit einer Häufigkeit von ca. 13%, der Frequenzbereich zwischen 250Hz und 300Hz (6. Abschnitt) mit einer Häufigkeit von ca. 23,5%, der Frequenzbereich zwischen 300Hz und 350Hz (7. Abschnitt) mit einer Häufigkeit von ca. 26% und der Frequenzbereich zwischen 350Hz und 400Hz (8. Abschnitt) mit einer Häufigkeit von ca. 14% vertreten.
  • 12 und 13 zeigen jeweils ein weiteres Tonhöhen-Histogramm als Ergebnis einer Histogramm-Analyse. Dabei gehört das Histogramm in 12 zu einem Sprachsignal einer nachweislich autistischen Testperson 11, wohingegen das Histogramm in 13 zu einem Sprachsignal einer nachweislich nicht autistischen Referenzperson gehört. Das Histogramm liefert eine Aussage über die Tonhöhenvariabilität in der Stimme der Testperson 11, was ein objektiver Biomarker zur Abgrenzung einer autistischen Person 11 gegenüber einer Referenzperson ohne Autismus ist. Wie die 12 und 13 im Vergleich miteinander veranschaulichen, variiert die Stimme bezüglich ihrer Tonhöhe bei einer nicht autistischen Person weniger stark, sie ist mehr auf bestimmte Frequenzen beschränkt. Die verwendeten Frequenzen liegen hier in einem vergleichsweise schmalen Frequenzband, nämlich zwischen 250 Hz und 400Hz, und haben dort einen deutlichen Peak, nämlich bei ca. 300 Hz, siehe 13. Demgegenüber ist die Variabilität der Tonhöhe der Stimme bei einer autistischen Person stärker, wie 11 zeigt. Hier erstrecken sich die dominanten Frequenzen über ein deutlich breiteres Frequenzband, nämlich zwischen 50 Hz und 350Hz, siehe 12, und deren Verteilung ist gleichmäßiger, d.h. sie weist keinen deutlich ausgeprägten Peak auf.
  • Diese Erkenntnis belegen auch die Histogramme autistischer Testpersonen in 14 im Vergleich zu den Histogrammen nicht-autistischer Referenzpersonen in 15. 14 und 15 zeigen jeweils vier Histogramme. Man erkennt deutlich, dass autistische Personen ein breiteres Tonspektrum verwenden,
  • Das Tonhöhen-Histogramm kann als vokaler Biomarker verstanden werden. Die Kennwerte dieses Biomarkers sind in diesem Fall durch die Auftrittshäufigkeiten der n Frequenzabschnitte gebildet. Mit anderen Worten liefert die Histogramm-Analyse gemäß 11 zwölf Kennwerte, d.h. für jeden Frequenzabschnitt eine Auftrittshäufigkeit.
  • Das Histogramm bzw. die Kennwerte dieses Biomarkers kann/ können anschließend in einer Vorab-Bewertungseinheit 24a daraufhin ausgewertet werden, ob die Testperson 11 nicht autistisch ist, vergleiche 8. Dies ist mit einer Sicherheit von mehr als 95% feststellbar. Der vokale Biomarker ist aber alleine nicht aussagekräftig genug, um eine eindeutig positive Diagnose von Autismus vornehmen zu können, so dass weitere Untersuchungen erforderlich sind, wie sie nachfolgend erläutert werden. Das Ergebnis der Vorab-Bewertungseinheit 24a ist somit die Zwischendiagnose 33, dass die Testperson 11 eindeutig nicht-autistisch ist, oder weiter untersucht werden muss.
  • Die Vorab-Bewertungseinheit 24a kann ebenfalls Teil des Sprachanalysemoduls 21 sein, vgl. 3, oder aber durch die Gesamtbewertungseinheit 24 gebildet sein, die für die Zwischendiagnose 33 verwendet wird. Es sei angemerkt, dass die Zwischendiagnose 33 durch die Vorab-Bewertungseinheit 24a nicht zwingend erforderlich ist. Vielmehr kann vorgesehen sein, dass jede Testperson 11 alle vom Diagnosewerkzeug angebotenen Analysen durchführt.
  • Die Vorab-Bewertungseinheit 24a ist ein Algorithmus, der die Kennwerte mit einer multidimensionalen Ebene, auch Hyperebene genannt, vergleicht, die bildlich gesprochen, eine Grenzfläche zwischen Testpersonen mit und Testpersonen ohne Autismus in einem multidimensionalen Datenraum bildet. Der Algorithmus kann ein Machine-Learning-Algorithmus oder vorzugsweise eine Support Vector Machine (SVM) sein. Derartige Algorithmen sind allgemein bekannt, beispielsweise aus Boser, Bernhard E.; Guyon, Isabelle M.; Vapnik, Vladimir N. (1992). „A training algorithm for optimal margin classifiers“. Proceedings of the fifth annual workshop on Computational learning theory - COLT '92. p. 144, oder Fradkin, Dmitriy; Muchnik, Ilya (2006). „Support Vector Machines for Classification“. In Abello, J.; Carmode, G. (eds.). Discrete Methods in Epidemiology. DIMACS Series in Discrete Mathematics and Theoretical Computer Science. 70. pp. 13-20. Dabei handelt es sich um ein Modell, das mit Datensätzen vokaler Biomarker einer Vielzahl an Referenzpersonen mit und ohne Autismus trainiert worden ist, so dass das Modell die ermittelten Kennwerte 28 des vokalen Biomarkers der Testperson 11 mit hoher Genauigkeit einer Person mit Autismus oder einer Person ohne Autismus zuordnen kann, wobei die Zuordnungsgenauigkeit bei Testpersonen 11 ohne Autismus mehr als 95% beträgt.
  • Ist der Ergebnis der Zwischendiagnose 33, dass die Testperson 11 nicht eindeutig nicht autistisch ist, oder wird auf eine Zwischendiagnose 33 verzichtet, folgt nach der Analyse des vokalen Biomarkers die Analyse eines weiteren Biomarkers, entweder in Gestalt der Reaktionszeit der Testperson 11 auf einen Emotionsstimulus, oder in Gestalt der Blickrichtung der Testperson 11, wobei bevorzugt beide genannten weiteren Biomarker analysiert werden, und wobei es auf eine bestimmte Reihenfolge nicht ankommt.
  • Gemäß einer Ausführungsvariante aktiviert die Betriebssoftware 20 nach dem Sprachanalysemodul 21 das Emotionsanalysemodul 22, siehe 7. Dies kann automatisch oder aufgrund einer entsprechenden Eingabe der Testperson 11 erfolgen, die das Diagnosewerkzeug erwartet. Das Emotionsanalysemodul 22 umfasst eine Emotions-Auslösungssteuerung 22a, eine Emotionsbeobachtungseinheit 22b und eine Reaktionsbewertungseinheit 22c, vgl. 4. Das Emotionsanalysemodul 22 misst die Reaktionszeit der Testperson 11 auf einen emotionalen Stimulus, der bei der Testperson 11 durch die Darstellung ausgewählter Bilddaten 18 in Gestalt von Einzelbildern oder Einzelvideos auf der Bildwiedergabeeinrichtung 7 ausgelöst wird, wobei die Messung unter Anwendung einer Gesichtserkennungssoftware und mitfühlender künstlicher Intelligenz (compassionate AI) erfolgt, die in der Lage ist, bestimmte Emotionen in einem Gesicht zu erkennen. Vorzugsweise handelt es sich bei dieser künstlichen Intelligenz um ein sogenanntes „Deep Learning Modell“, das mit repräsentativen Datensätzen zu den zu stimulierenden Emotionen trainiert wurde.
  • Das Emotionsanalysemodul 22 startet hierzu in einem ersten Schritt die Emotions-Auslösungssteuerung 22a. Diese ist eingerichtet, einen Satz 18a, 18b von Bilddaten 18 aus dem Speicher 4 zu laden und auf der Bildwiedergabeeinrichtung 7 anzuzeigen bzw. anzeigen zu lassen. Wie beim Sprachanalysemodul 21 kann die Auswahl eines Satzes 18a, 18b aus mehreren Sätzen in Abhängigkeit der zuvor genannten personenspezifischen Daten erfolgen, so dass Kinder, oder Mädchen oder Personen einer ersten ethnischen Herkunft einen ersten Satz 18a der Bilddaten 18, und Erwachsene, oder Jungen oder Personen einer zweiten ethnischen Herkunft einen zweiten Satz 18b der Bilddaten 18 gezeigt bekommen. Bei diesen Bilddaten 18 handelt es sich um eine Anzahl an Einzelbildern oder Einzelvideos, die nacheinander auf der Bildwiedergabeeinrichtung 7 gezeigt werden. Ihr Inhalt ist so gewählt, dass er bei der Testperson eine emotionale Reaktion in Gestalt von Freude, Heiterkeit, Trauer, Angst oder Wut auslöst.
  • Geeigneterweise umfasst der Bilddatensatz 18 insgesamt 6 Einzelbildern und/ oder Einzelvideos die jeweils eine gleiche Anzahl an positiven Emotionen wie Freude oder Heiterkeit und negativen Emotionen wie Trauer, Angst oder Wut stimulieren.
  • Zeitgleich oder kurz vor der Wiedergabe des ersten Einzelbildes oder Videos aktiviert die Emotions-Auslösungssteuerung 22a die Emotionsbeobachtungseinheit 22b, welche wiederum die Bildaufnahmeeinrichtung 7 aktiviert, um das Gesicht der Testperson 11 bzw. deren Gesichtsausdruck zu erfassen, gegebenenfalls, zumindest temporär, auch aufzunehmen. Die Emotionsbeobachtungseinheit 22b kann in einer Ausführungsvariante eingerichtet sein, das erfasste Gesicht in einer Videoaufnahme aufzuzeichnen und „offline“ zu analysieren, d.h. nachdem der gesamte Satz 18a, 18b an Einzelbildern oder Videos gezeigt worden ist. Alternativ kann eine Echtzeit-Auswertung des von der Bildaufnahmeeinrichtung 7 erfassten Gesichts erfolgen, so dass keine Videoaufnahme abgespeichert werden muss. In 8 ist eine Videoaufnahme 29 dargestellt, die das Ausgangssignal der Bildaufnahmeeinrichtung 7 repräsentiert und entweder eine abgespeicherte Videoaufnahme oder eine Echtzeitaufnahme sein kann, welche der Emotionsbeobachtungseinheit 22b signaltechnisch zugeführt wird.
  • Die Emotions-Auslösungssteuerung 22a kann mit jeder Wiedergabe eines neuen Einzelbildes oder Einzelvideos eine Startzeitmarke t1, t2, t3, t4 setzen, die später als Referenz dient. 16 veranschaulicht dies anhand von vier Einzelvideos 18a1, 18a2, 18a3, 18a4 des ersten Satzes 18a der Bilddaten 18, die nacheinander gezeigt werden. Die genannte Gesichtserkennungssoftware mit mitfühlender künstlicher Intelligenz ist Bestandteil der Emotionsbeobachtungseinheit 22b, die die Videoaufnahme 29 daraufhin auswertet, wann sich die Gesichtszüge der Testperson 11 über ein Maß verändern, das eindeutig einer emotionalen Reaktion, insbesondere einer bestimmten erwarteten Emotion zuzuordnen ist. In jedem dieser erkannten Fälle, setzt die Emotionsbeobachtungseinheit 22b eine Reaktionszeitmarke E1, E2, E4. Aus der Differenz zwischen der jeweiligen Reaktionszeitmarke E1, E2, E3, E4 und der entsprechenden zuvor gesetzten Startzeitmarke t1, t2, t3, t4 als Referenz wird dann für jede der stimulierten Emotionen die Reaktionszeit R1, R2, R4 ermittelt (Ri = Ei - ti, mit i = 1, 2, 4). Dies erfolgt in der Reaktionsbewertungseinheit 22c. Bei dem in 16 gezeigten Beispiel ist angenommen, dass die Testperson 11 bei dem dritten Einzelvideo 18a3 keine oder keine ausreichende Emotion zeigt, so dass hier auch keine Reaktionszeitmarke gesetzt werden konnte.
  • Die der Wiedergabe der einzelnen Einzelbilder oder Einzelvideos 18a1, 18a2, 18a3, 18a4 durch die Emotions-Auslösungssteuerung 22a kann für eine bestimmte festgelegte Dauer erfolgen, wobei die einzelnen Dauern gleich oder unterschiedlich sein können. Somit wird das nächste Einzelbild oder Video gezeigt, wenn die Dauer des vorherigen Bildes abgelaufen ist. Alternativ oder zusätzlich kann das nächste Einzelbild oder Einzelvideo gezeigt werden, sobald oder kurz nachdem die Emotionsbeobachtungseinheit 22b eine Emotion erkannt hat. In diesem Fall gibt die Emotionsbeobachtungseinheit 22b eine Rückmeldung an die Emotions-Auslösungssteuerung 22a, um das nächste Einzelbild oder Einzelvideo zu zeigen. Da jedoch die Gefahr besteht, dass eine bestimmte Emotion bei der Testperson 11 gar nicht ausgelöst wird, bildet die Beendigung der Wiedergabe eines Einzelbildes oder Einzelvideos nach der entsprechenden Dauer eine notwenige Rückfallposition.
  • Das Nichtstimulieren einer Emotion wird in diesem ebenfalls von der Reaktionsbewertungseinheit 22c vermerkt, z.B. mit dem Wert null.
  • In einer Ausführungsvariante kann vorgesehen sein, dass die Emotions-Auslösungssteuerung 22a anstelle der Startzeitmarken einen Timer auslöst, wobei anstelle des Setzens der Reaktionszeitmarken die Emotionsbeobachtungseinheit 22b bei der Erkennung einer Emotion den Timer wieder stoppen kann. Der Timerstand wird dann von der Reaktionsbewertungseinheit 22c ausgelesen und abgespeichert, da er die jeweilige Reaktionszeit auf die jeweils stimulierte Emotion darstellt. Sofern eine bestimmte Emotion bei der Testperson 11 nicht ausgelöst wird, kann mit der Wiedergabe des nächsten Einzelbildes oder Einzelvideos oder dem Ende der Wiedergabedauer des letzten Einzelbildes oder Einzelvideos ein Reset des Timers erfolgen. Auch dieser Fall der Nichtstimulierung einer Emotion wird von der Reaktionsbewertungseinheit 22c vermerkt.
  • Zusätzlich zu der Feststellung einer emotionalen Reaktion kann die Emotionsbeobachtungseinheit 22b eingerichtet sein festzustellen, ob eine positive oder negative Emotion bei der Testperson 11 stimuliert wurde. Diese Feststellung, nachfolgend Reaktionsart genannt, kann in Form einer binären Information +1 oder - 1 dargestellt und mit der entsprechenden Reaktionszeit R1, R2, R4 verknüpft werden. Sie dient der Plausibilitätsprüfung bzw. ermöglicht, die Kongruenz der emotionalen Reaktion auf die stimulierte Emotion festzustellen.
  • Es kann somit zusätzlich vorgesehen sein, anhand der Reaktionsart festzustellen, ob die Testperson 11 eine auf die Stimulation zu erwartende Reaktion zeigt. Dies ist in 16 anhand eines Kongruenzindikators K1, K2, K3, K4 veranschaulicht. Dieser ergibt sich aus dem Ergebnis eines Vergleichs, ob die festgestellte Reaktionsart, der stimulierten Emotion entspricht. Dieser Vergleich kann ebenfalls von der Reaktionsbewertungseinheit 22c durchgeführt werden. Sind die Reaktionsart und die stimulierte Emotion jeweils positiv oder jeweils negativ, besteht Kongruenz bzw. Übereinstimmung. Diesen Fall kann der Kongruenzindikator mit dem Wert 1 anzeigen. Bezogen auf 16 reagiert die Testperson 11 auf die durch die ersten beiden Einzelbilder oder Einzelvideos 18a1, 18a2 stimulierten Emotionen erwartungsgemäß, so dass der erste und zweite Kongruenzindikator K1, K2 jeweils den Wert 1 besitzen. Sind die Reaktionsart und die stimulierte Emotion unterschiedlich, fehlt es an einer Kongruenz bzw. Übereinstimmung. Diesen Fall kann der Kongruenzindikator mit dem Wert 0 oder -1 anzeigen. In 16 ist der Wert -1 gewählt, damit mit dem Kongruenzindikatorwert 0 angezeigt werden kann, dass keine Reaktion erfolgt ist. Dies ist bei dem dritten Einzelbild oder Einzelvideo 18a3 der Fall, bei dem der dritte Kongruenzindikator K3 = 0 ist. In dem Beispiel in 16 reagiert die Testperson 11 auf die durch das vierte Einzelbild oder Einzelvideo 18a4 stimulierte Emotion unerwartet. Hier stimmt die Art der emotionalen Reaktion nicht mit der stimulierten Emotion überein, so dass der vierte Kongruenzindikator K4 den Wert -1 besitzt.
  • Alternativ zu der vorstehend beschriebenen Variante mit Einzelbildern und/ oder Einzelvideos kann vorgesehen sein, dass ein einziges Video von der Emotions-Auslösungssteuerung 22a auf der Bildwiedergabeeinrichtung 7 gezeigt wird, welches die einzelnen Emotionsstimuli zu bestimmten, der Emotions-Auslösungssteuerung 22a bekannten Zeiten enthält. Somit ist das Setzen von Startzeitmarken nicht erforderlich.
  • Das Emotionsanalysemodul 22 liefert somit für eine Anzahl bei der Testperson 11 stimulierter Emotionen je eine Reaktionszeit Ri, eine Reaktionsart (positive oder negative Emotion, +1, -1) und einen Kongruenzindikator (Werte -1, 0, +1), die in ihrer Gesamtheit die Kennwerte 30 des zweiten Biomarkers bilden, in 8 „Emotionsantwort- Biomarker“ genannt. Nachfolgend ist eine Tabelle dieser Kennwerte dargestellt:
    Stimulus 1 Stimulus 2 Stimulus 3 Stimulus 4
    Reaktionsart +1 -1 - +1
    Reaktionszeit R1 R2 R4
    Kongruenzindikator +1 -1 0 -1
  • Nach der Ermittlung der Kennwerte 30 des zweiten Biomarkers durch das Emotionsanalysemodul 22 aktiviert die Betriebssoftware 20 das Blickrichtungsanalysemodul 23, das für die Ermittlung von Kennwerten 32 eines dritten Biomarkers der Testperson 11 zuständig ist, siehe 7. Dies kann automatisch oder aufgrund einer entsprechenden Eingabe der Testperson 11 erfolgen, die das Diagnosewerkzeug erwartet. Das Blickrichtungsanalysemodul 23 umfasst eine Blickrichtungslenkung 23a und eine Blickrichtungsbeobachtungseinheit 23b, vgl. 5. Das Blickrichtungsanalysemodul 23 misst und verfolgt die Blickrichtung der Testperson 11, während sie auf die Bildwiedergabeeinrichtung 7 blickt. Die Bildaufnahmeeinrichtung 6 ist dabei sinnvollerweise relativ zur Bildwiedergabeeinrichtung 7 so angeordnet, dass sie das Gesicht der Testperson 11 erfasst.
  • Das Blickrichtungsanalysemodul 23 startet hierzu in einem ersten Schritt die Blickrichtungslenkung 23a. Diese ist eingerichtet, wenigsten ein Einzelbild 19a oder Video der Bilddaten 16, 18 19 aus dem Speicher 4 zu laden und auf der Bildwiedergabeeinrichtung 7 anzuzeigen bzw. anzeigen zu lassen. Wie beim Sprachanalysemodul 21 und Emotionsanalysemodul 22 kann die Auswahl des wenigstens einen Einzelbildes 19a oder Videos in Abhängigkeit der zuvor genannten personenspezifischen Daten erfolgen.
  • Um den Blick der Testperson 11 zu lenken, sind verschiedene Ausführungsvarianten denkbar. Im Falle eines Einzelbildes19a wird dieses kleiner auf der Bildwiedergabeeinrichtung 7 wiedergegeben, als ihre Gesamtfläche oder Auflösung ermöglicht, so dass das Einzelbild 19a nur einen Teil des Wiedergabeschirms der Bildwiedergabeeinrichtung 7 ausfüllt. Es wird dann in dieser Form von der Blickrichtungslenkung 23a zeitlich nacheinander an unterschiedlichen Positionen des Wiedergabeschirms dargestellt, wobei das Einzelbild 19a diskret an diesen Positionen nacheinander erscheinen oder kontinuierlich von Position zu Position entlang eines kontinuierlichen Pfads bewegt werden kann. Diese Variante ist in 17 veranschaulicht.
  • Im Falle des diskreten Erscheinens können anstelle eines einzigen Einzelbildes auch zwei oder mehr unterschiedliche Einzelbilder der Bilddaten 16, 18 19 aus dem Speicher 4 geladen und abwechselnd oder zufällig auf verschiedenen Bildschirmpositionen der Bildwiedergabeeinrichtung 7 wiedergegeben werden. Ferner ist es möglich, anstelle des oder der Einzelbilder ein oder mehrere Videos zu verwenden, dessen oder deren Wiedergabe auf den einzelnen Positionen nacheinander erfolgt. Somit ist auch die Wiedergabegröße dieses Videos oder dieser Videos kleiner als die Gesamtfläche oder Auflösung der Bildwiedergabeeinrichtung 7.
  • Die Testperson 11 ist dabei gehalten, dem Wiedergabeort des Einzelbildes oder der Einzelbilder aufmerksam zu folgen. Hierzu kann das Diagnosewerkzeug vorab eine entsprechende Aufforderung auf der Bildwiedergabeeinrichtung 7 oder über einen Lautsprecher ausgeben.
  • Anstelle des einen oder der mehreren Einzelbilder kann die Blickrichtungslenkung 23a ein Video auf der Bildwiedergabeeinrichtung 7 zeigen, und zwar vollflächig, welches derart ausgestaltet ist, den Blick der Testperson 11 über die Bildwiedergabeeinrichtung 7 entlang eines bestimmten Pfades zu lenken. Hierzu kann das Video beispielsweise ein sich gegenüber einem stationären Hintergrund bewegendes Objekts enthalten, wie z.B. ein sich in einem Aquarium bewegender Clownfisch. Alternativ können in dem Video an räumlich unterschiedlichen Stellen zeitlich nacheinander Geschehnisse vorkommen, die die Aufmerksamkeit der Testperson anziehen. In diesen Fällen benötigt die Blickrichtungslenkung 23a folglich nur dieses eine Video.
  • Zeitgleich oder kurz vor der Wiedergabe des Einzelbildes oder Videos aktiviert die Blickrichtungslenkung 23a die Blickrichtungsbeobachtungseinheit 23b, welche wiederum die Bildaufnahmeeinrichtung 7 aktiviert, um das Gesicht der Testperson 11 bzw. deren Blickrichtung zu erfassen, gegebenenfalls, zumindest temporär, auch aufzunehmen. Blickrichtungsanalysemodul 23 kann in einer Ausführungsvariante eingerichtet sein, das erfasste Gesicht in einer Videoaufnahme aufzuzeichnen und „offline“ zu analysieren, d.h. nachdem das wenigstens eine Einzelbild oder Video gezeigt worden ist. Bevorzugt erfolgt jedoch eine Echtzeit-Auswertung der Blickrichtung des von der Bildaufnahmeeinrichtung 7 erfassten Gesichts, so dass keine Videoaufnahme dauerhaft abgespeichert werden muss. In 8 ist eine Videoaufnahme 31 dargestellt, die das Ausgangssignal der Bildaufnahmeeinrichtung 7 repräsentiert und entweder eine abgespeicherte Videoaufnahme oder eine Echtzeitaufnahme sein kann, welche der Blickrichtungsbeobachtungseinheit 23b signaltechnisch zugeführt wird.
  • Die Blickrichtungsbeobachtungseinheit 23b ist durch eine Eye-Tracking Software auf Basis künstlicher Intelligenz gebildet. Eine solche Software ist wohl bekannt, beispielsweise aus Krafka K, Khosla A, Kellnhofer P, Kannan H., „Eye Tracking for Everyone“, IEEE Conference on Computer Vision and Pattern Recognition. 2016; 2176-2184. Sie ermittelt die Blickrichtung der Testperson 11 in Form von x, y Koordinaten des Augenfokus zu jedem Zeitpunkt und abspeichert sie ab, so dass sich über der Zeit ein Blickrichtungspfad 35 ergibt, wie er in 18 dargestellt ist. Dieser repräsentiert die Kennwerte 32 des dritten Biomarkers, nachfolgend Blickrichtungs-Biomarker genannt, vgl. auch 8. Die Koordinaten können solche des realen Raumes oder bezogen auf die Wiedergabefläche der Bildwiedergabeeinrichtung 7 sein.
  • Wie 8 zeigt, werden die Kennwerte 28, 30, 21 der drei Biomarker, genauer gesagt des vokalen Biomarkers, des Emotionsantwort-Biomarkers und des Blickrichtungs-Biomarkers, einer Gesamtergebnisbewertungseinheit 24 zugeführt, die Bestandteil des erfindungsgemäßen Diagnosewerkzeugs ist und die die Kennwerte 28, 30, 21 der Biomarker kombiniert. Wie die Vorab-Bewertungseinheit 24a, ist die Gesamtergebnisbewertungseinheit 24 ein Algorithmus auf Basis künstlicher Intelligenz und in Form eines Modells, das mit Datensätzen der drei Biomarker einer Vielzahl an Referenzpersonen mit und ohne Autismus trainiert worden ist. Genau betrachtet handelt es sich bei dem Algorithmus um einen Klassifizierungsalgorithmus, der die Biomarker der Testperson mit einem gewissen Wahrscheinlichkeitsgrad als „autistisch“ oder „nicht-autistisch“ klassifiziert. Der Algorithmus kann ein Machine-Learning-Algorithmus oder vorzugsweise eine Support Vector Machine (SVM) sein. Er vergleicht die Gesamtheit aller Kennwerte 28, 30, 21 der drei Biomarker gleichzeitig mit einer eine Grenzfläche zwischen Testpersonen mit und Testpersonen ohne Autismus in einem multidimensionalen Datenraum bildenden Hyperebene, um eine Zuordnung der Gesamtheit der durch die Kennwerte gebildeten Daten entweder zu einer Referenzgruppe aus Personen mit Autismus oder zu einer Referenzgruppe aus Personen ohne Autismus zu erhalten. In Abhängigkeit dieses Zuordnungsergebnisses erfolgt dann als Diagnose 34, dass die Testperson 11 mit einer gewissen Wahrscheinlichkeit autistisch oder nicht autistisch ist.
  • Durch die unterstützende Verwendung des erfindungsgemäßen Diagnosewerkzeugs in der Diagnose von Autismus kann mit einer Genauigkeit von mehr als 95% festgestellt werden, ob eine Testperson 11 an Autismus leidet. Dabei führt die Auswertung der Biomarker zu einem robusten und vor allem objektiven Ergebnis. Unter der Vielzahl von Personen, die potentiell an Autismus leiden und darauf warten, von einem medizinischen Experten diagnostiziert zu werden, kann durch die Verwendung des Diagnosewerkzeugs ein Beitrag zum Abbau des Diagnoserückstaus erreicht und die Entscheidung erleichtert werden, welche Patenten für die Diagnose durch den medizinischen Experten vorgezogen werden sollten.
  • Dabei ist ein besonderer Vorteil des Diagnosewerkzeugs, dass sowohl Erwachsene als auch Kinder mit ihm untersucht werden können und die Verwendung des Diagnosewerkzeugs von fast überall und jederzeit möglich ist, insbesondere von zu Hause aus.
  • Wie in Bezug zu 1 erläutert, ist das softwarebasierte Diagnosewerkzeug Teil eines Diagnosesystems 1. Dieses kann in einer ersten Ausführungsvariante ein Computersystem 2 mit daran angeschlossenen Peripheriegeräten sein, insbesondere einem Mikrofon 5, einer Kamera 6, einem Display/ Monitor und einem Eingabemittel 8. Das Computersystem 2 selbst kann ein Personal Computer mit einem nicht flüchtigen Speicher 4 sein, in dem das Diagnosewerkzeug bestehend aus den zuvor genannten Softwarekomponenten bzw. -module und Daten abgespeichert ist.
  • In einer zweiten Ausführungsvariante, die in 2 gezeigt ist, kann das Computersystem 2 als Server fungieren, der über das Internet 9 mit einem externen, insbesondere mobilen Gerät 12 erreichbar ist. Die Peripheriegeräte 5, 6, 7, 8 sind in diesem Fall Bestandteil des externen Geräts, das beispielsweise ein Smartphone oder ein Tablet ist. Das Diagnosewerkzeug ist in diesem Fall nach wie vor durch die in dem Speicher 4 des Computersystems 2 gespeicherten Softwarekomponenten bzw. -module und Daten gebildet.
  • In einer dritten Ausführungsvariante, die in 6 veranschaulicht ist, kann das Diagnosewerkzeug verteilt angeordnet sein, genauer gesagt teilweise in dem Computersystem 2 und teilweise in dem externen Gerät 12 ausgebildet sein. Diese Ausführungsvariante realisiert eine offline Analyse der Biomarker. So kann in dem externen Gerät 12 ein nichtflüchtiger Speicher 4' sowie ein hier nicht dargestellter Prozessor vorhanden sein. In dem nichtflüchtigen Speicher 4' sind die Bilddaten 16, 18, 19 und die Textdaten 17 einerseits sowie ein Teil 20' der Betriebssoftware und diejenigen Komponenten 21a, 21b, 22a, 23a der Analysemodule 22, 22, 23 gespeichert, die keine hohe Rechenleistung und keinen besonderen Anforderungen an den Prozessor, z.B. einen mehrkernigen Prozessor stellen. Im Speicher 4' ist vom Sprachanalysemodul 21 die Sprachsignal-Auslösesteuerung 21a und die Sprachaufzeichnungseinheit 21b. Sie führen dasselbe Verfahren aus, wie zuvor erläutert, wobei ein Unterschied allerdings darin besteht, dass die Audioaufnahme 27 in dem Audiodatenspeicher 13a gespeichert und nicht auf dem externen Gerät 12 analysiert wird. Außerdem ist im Speicher 4' vom Emotionsanalysemodul 22 die Emotions-Auslösesteuerung 22a und vom Blickrichtungsanalysemodul 23 die Blickrichtungslenkung 23a hinterlegt. Diese führen ebenfalls jeweils dasselbe Verfahren aus, wie zuvor erläutert, wobei ein Unterschied darin besteht, dass während der jeweiligen Widergabe der Bilder oder des Bildes eine Videoaufnahme 29, 31 erfolgt, die in dem Videodatenspeicher 13b gespeichert und nicht auf dem externen Gerät 12 analysiert wird. Für die Aufnahme der Videoaufnahmen 29, 31 ist in dem Speicher 4' außerdem, analog zur Sprachaufzeichnungseinheit 21b eine Videoaufzeichnungseinheit 25 vorhanden.
  • Demgegenüber sind seitens des Computersystems 2 in dessen Speicher 4 neben einem zweiten Teil 20' der Betriebssoftware lediglich diejenigen Komponenten der Analysemodule 21, 22, 23 vorhanden, die die eigentliche Analyse der Biomarker durchführen, nämlich der Sprachsignalanalysator 21c des Sprachanalysemoduls 21, die Emotionsbeobachtungseinheit 22b und die Reaktionsbewertungseinheit 22c des Emotionsanalysemoduls 22 und die Blickrichtungsbeobachtungseinheit 23b des Blickrichtungsanalysemoduls 23. Schließlich ist aber auch die Gesamtergebnisbewertungseinheit im Speicher 4 vorhanden. Des Weiteren sind im Speicher 4 des Computersystems 2 auch ein Audiodatenspeicher 13a und ein Videodatenspeicher 13b vorgesehen, in welche die auf dem externen Gerät 12 gespeicherten Audio- und Videoaufnahmen 27, 29, 31 übertragen werden. Dies kann jeweils unmittelbar nach der Abspeicherung der entsprechenden Aufnahme erfolgen oder aber erst nachdem alle Aufnahmen erfolgt sind. Die Auswertung der einzelnen Biomarker und die gemeinsame Bewertung ihrer Kennwerte erfolgt dann weiterhin auf dem Computersystem.
  • In einer nicht dargestellten, vierten Ausführungsvariante kann in Weiterbildung der dritten Variante vorgesehen sein, dass auch die analysierenden Komponenten 21c, 22b, 22c, 23b der Analysemodule 21, 22, 23 im externen Gerät 12 angeordnet sind, so dass die Ermittlung der Kennwerte 28, 30, 32 der Biomarker ebenfalls im externen Gerät 12 erfolgt. Im Ergebnis werden dann lediglich diese Kennwerte 28, 30, 31 an das Computersystem 2 übertragen, wo sie entsprechend mit der Gesamtergebnisbewertungseinheit 24 gemeinsam ausgewertet werden. Dies ist aus Datenschutzgründen vorteilhaft, weil die Kennwerte der Biomarker keine Identifizierung der Testperson ermöglichen.
  • In einer fünften Ausführungsvariante ist vorgesehen, dass das Diagnosewerkzeug vollständig im externen Gerät 12 angeordnet ist, so dass das Diagnosesystem 1 nur aus diesem externen Gerät 12 mit den darin bereits integrierten Peripheriegeräten 5, 6, 7, 8 und dem darauf gespeicherten Diagnosewerkzeug gebildet ist. Das Diagnosewerkzeug kann dabei in einer Applikation, kurz App genannt, implementiert sein und auf einem entsprechenden Prozessor des externen Geräts ausgeführt werden. Vorzugsweise ist das externe Gerät ein Smartphone oder Tablet.
  • Bezugszeichenliste
  • 1
    Diagnosesystem
    2
    Computersystem/ Server
    3
    Verarbeitungseinheit/ Prozessor
    4, 4'
    nichtflüchtiger Speicher
    5
    Spracheingabeeinrichtung/ Mikrofon
    6
    Bildaufnahmeeinrichtung/ Kamera
    7
    Bildwiedergabeeinrichtung/ Display
    8
    Eingabemittel/ Bedientasten
    9
    Netzwerk/ Internet
    10
    Schnittstelle
    11
    Testperson
    12
    externes ggf. mobiles Endgerät, Tablet/ Smartphone/ Laptop
    13a
    Audiodatenspeicher für aufzuzeichnende/ aufgezeichnete Sprachelemente
    13b
    Videodatenspeicher für aufzuzeichnende/ aufgezeichnete Videoaufnahmen
    14
    Daten
    15
    Programmcode/ Software
    16
    erste Bilddaten, zur Sprachauslösung
    16a
    erster Satz wiederzugebender Einzelbilder oder Videos
    16b
    zweiter Satz wiederzugebender Einzelbilder oder Videos
    17
    Textdaten wiederzugebender Texte
    17a
    erster Satz von Textdaten
    17b
    zweiter Satz von Textdaten
    18
    zweite Bilddaten, zur Emotionsauslösung
    18a
    erster Satz wiederzugebender Einzelbilder oder Videos
    18b
    zweiter Satz wiederzugebender Einzelbilder oder Videos
    18a1, 18a2, 18a3, 18a4
    Einzelvidoes
    19
    dritte Bilddaten, zur Blickrichtungslenkung
    19a
    Einzelbild
    20, 20', 20"
    Betriebssoftware
    21
    Sprachanalysemodul
    21a
    Sprachsignal-Auslösungssteuerung
    21b
    Sprachaufzeichnungseinheit
    21c
    Sprachsignalanalysator
    22
    Emotionsanalysemodul
    22a
    Emotions-Auslösungssteuerung
    22b
    Emotionsbeobachtungseinheit
    22c
    Reaktionsbewertungseinheit
    23
    Blickrichtungsanalysemodul
    23a
    Blickrichtungslenkung
    23b
    Blickrichtungsbeobachtungseinheit/ Eye-Tracking
    24
    Gesamtergebnisbewertungseinheit
    24a
    Vorab-Bewertungseinheit
    25
    Videoaufzeichnungseinheit
    26
    Sprachsignal
    27
    Audioaufnahme
    28
    Kennwerte des vokalen Biomarkers
    29
    erste Videoaufnahme
    30
    Kennwerte des Emotionsantwort-Biomarkers
    31
    zweite Videoaufnahme
    32
    Kennwerte des Blickrichtungs-Biomarkers
    33
    Bewertungsergebnis/ Zwischendiagnose
    34
    Bewertungsergebnis/ Diagnose
    35
    Blickrichtungspfad

Claims (25)

  1. Softwarebasiertes Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen, neurologischen Störung bei einer menschlichen Testperson (11) unter Verwendung künstlicher Intelligenz, gekennzeichnet durch - eine übergeordnete Betriebssoftware (20, 20', 20"), - ein Sprachanalysemodul (21) zur Ermittlung von Kennwerten (28) eines ersten, und zwar vokalen Biomarkers eines Sprachsignals (26) der Testperson (11), - wenigstens ein weiteres Modul (22, 23) zur Ermittlung von Kennwerten (30, 32) eines zweiten Biomarkers, und - eine dem Sprachanalysemodul (21) und dem weiteren Modul (22, 23) nachgeschaltete Gesamtergebnisbewertungseinheit (25), wobei - die Betriebssoftware (20, 20', 20") eingerichtet ist, das Sprachanalysemodul (21) und das wenigstens eine weitere Modul (22, 23) nacheinander auszulösen und deren ermittelten Kennwerte (28, 30, 32) der Gesamtergebnisbewertungseinheit (25) zuzuführen, - das Sprachanalysemodul (21) Folgendes umfasst: - eine Sprachsignal-Auslösesteuerung (21a), welche eingerichtet ist, einen Satz (16a, 16b) von Einzelbildern und/ oder Einzelvideos (16) oder einen Text (17a, 17b) auf einer Bildwiedergabeeinrichtung (7) für die Testperson (11) darzustellen, um wenigstens ein Sprachsignal (26) bei der Testperson (11) in Gestalt einer Benennung eines in dem jeweiligen Einzelbild oder Einzelvideo (16) enthaltenden Objekts oder in Gestalt eines Vorlesens des Textes (17a, 17b) auszulösen, - eine Sprachaufzeichnungseinheit (21b), welche eingerichtet ist, das Sprachsignal (26) mit Hilfe einer Spracheingabeeinrichtung (5) in einer Audioaufnahme (27) aufzuzeichnen, und - einen Sprachsignalanalysator (21c), der eingerichtet ist, das Sprachsignal (26) in der Audioaufnahme (27) zunächst daraufhin auszuwerten, zu welchem Zeitpunkt welche Tonhöhe vorkommt, und anschließend eine Häufigkeitsverteilung der Tonhöhen über eine Anzahl an Frequenzbändern eines betrachteten Frequenzspektrums zu ermitteln, wobei diese Häufigkeitsverteilung die Kennwerte (28) des ersten Biomarkers bildet, und - die Gesamtergebnisbewertungseinheit (25) eingerichtet ist, aufgrund der Kennwerte (28, 30, 32) der Biomarker der Testperson (11) unter Anwendung eines maschinellen Lernalgorithmus auf Basis künstlicher Intelligenz durch Vergleich mit einer mehrdimensionalen Grenzfläche festzustellen, ob die Testperson (11) die chronische, neurologische Störung aufweist.
  2. Diagnosewerkzeug nach Anspruch 1, dadurch gekennzeichnet, dass das weitere Modul (22, 23) ein Emotionsanalysemodul (22) zur Auswertung der Reaktion der Testperson (11) auf einen Emotionsstimulus als zweiter Biomarker ist, und das Emotionsanalysemodul (22) zumindest Folgendes umfasst: - eine Emotions-Auslösungssteuerung (22a), welche eingerichtet ist, einen Satz (18a, 18b) von Einzelbildern und/ oder Einzelvideos (18) oder wenigstens ein einzelnes Video auf der Bildwiedergabeeinrichtung (7) darzustellen, um eine Anzahl einzelner Emotionen bei der Testperson (11) zu stimulieren, und - eine Emotionsbeobachtungseinheit (21b), welche eingerichtet ist, eine mit Hilfe einer Bildaufnahmeeinrichtung (6) gewonnene Aufnahme des Gesichts der Testperson (11) zumindest daraufhin auszuwerten, wann sie eine emotionale Reaktion zeigt, wobei das Emotionsanalysemodul (22) eingerichtet ist, zumindest die jeweilige Reaktionszeit (R1, R2, R4) zwischen der Stimulierung der jeweiligen Emotion und des Auftretens der emotionalen Reaktion zu ermitteln, und wenigstens diese Reaktionszeiten die Kennwerte (30) des zweiten Biomarkers bilden.
  3. Diagnosewerkzeug nach Anspruch 1, dadurch gekennzeichnet, dass das weitere Modul (22, 23) ein Blickrichtungsanalysemodul (23) zur Auswertung der Blickrichtung der Testperson (11) als zweiter Biomarker ist, und das Blickrichtungsanalysemodul (23) zumindest Folgendes umfasst: - eine Blickrichtungslenkung (23a), welche eingerichtet ist, wenigstens ein Bild (19) oder Video auf der Bildwiedergabeeinrichtung (7) darzustellen, um die Blickrichtung der Testperson (11) zu lenken, und - eine Blickrichtungsbeobachtungseinheit (23b), welche eingerichtet ist, aus einer mit Hilfe einer Bildaufnahmeeinrichtung (6) gewonnenen Aufnahme des Gesichts der Testperson (11) deren Blickrichtung über der Zeit zu ermitteln, wobei dieser Blickrichtungsverlauf die Kennwerte (32) des zweiten Biomarkers bildet.
  4. Diagnosewerkzeug nach Anspruch 2 und 3, dadurch gekennzeichnet, dass das Emotionsanalysemodul (22) ein erstes weiteres Modul (22, 23) und das Blickrichtungsanalysemodul (23) ein zweites weiteres Modul (22, 23) ist, und wenigstens die Reaktionszeiten (R1, R2, R4) auf die Emotionsstimuli Kennwerte des zweiten Biomarkers bilden und die Blickrichtung über der Zeit Kennwerte eines dritten Biomarkers der Testperson (11) bildet, wobei die Gesamtergebnisbewertungseinheit (25) eingerichtet ist, aufgrund der Kennwerte (28, 30, 32) des ersten, zweiten und dritten Biomarkers der Testperson (11) unter Anwendung des maschinellen Lernalgorithmus auf Basis künstlicher Intelligenz durch Vergleich mit einer mehrdimensionalen Grenzfläche festzustellen, ob die Testperson (11) die chronische, neurologische Störung aufweist.
  5. Diagnosewerkzeug nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Lernalgorithmus eine Support Vector Machine (SVM), ein Random Forest oder ein Deep Convolutional Neuronal Network - Algorithmus ist, wobei der Lernalgorithmus mit einer Anzahl von ersten und zweiten Vergleichsdatensätzen aus Kennwerten der Biomarker trainiert worden ist, wobei die ersten Vergleichsdatensätze einer Gruppe von Referenzpersonen zugeordnet sind, die die chronische, neurologische Störung aufweisen, und die zweiten Vergleichsdatensätze einer Gruppe von Referenzpersonen zugeordnet sind, die die chronische, neurologische Störung nicht aufweisen.
  6. Diagnosewerkzeug nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass sie eingerichtet ist, den Satz (16a, 16b) von Einzelbildern und/ oder Einzelvideos (16) oder den Text (17a, 17b) zur Auslösung des Sprachsignals, und/ oder den Satz (18a, 18b) von Einzelbildern und/ oder Einzelvideos (18) oder das zumindest eine Video für die Emotionsstimulierung und/ oder das wenigstens ein Bild (19) oder Video für die Blickrichtungslenkung in Abhängigkeit von personenspezifischen Daten der Testperson (11) auszuwählen und darzustellen, insbesondere dass die Sprachsignal-Auslösesteuerung (21a) eingerichtet ist, in Abhängigkeit des Alters der Testperson (11) entweder den Satz (16a, 16b) von Einzelbildern und/ oder Einzelvideos (16) oder den Text (17a, 17b) auszuwählen und darzustellen.
  7. Diagnosewerkzeug nach einem der vorherigen Ansprüche, gekennzeichnet durch einen Bandpassfilter, der eingerichtet ist, das betrachtete Tonhöhenspektrum auf den Bereich zwischen 30 und 600 Hz zu beschränken.
  8. Diagnosewerkzeug nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Anzahl an Frequenzbändern zwischen 6 und 18, vorzugsweise bei 12 liegt.
  9. Diagnosewerkzeug nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Sprachsignalanalysator (21c) einen Deep Convolutional Neuronal Network - Algorithmus, insbesondere CREPE, oder einen PRAAT-Algorithmus umfasst, um die Tonhöhen zu schätzen.
  10. Diagnosewerkzeug zumindest nach Anspruch 2, 3 oder 4, dadurch gekennzeichnet, dass die Emotionsbeobachtungseinheit (21b) und/ oder die Blickrichtungsbeobachtungseinheit (23b) eingerichtet sind, die Gesichtsaufnahme in Echtzeit auszuwerten.
  11. Diagnosewerkzeug zumindest nach Anspruch 2 oder 4, dadurch gekennzeichnet, dass die Emotionsbeobachtungseinheit (21b) eine Gesichtserkennungssoftware auf Basis einer mitfühlenden künstlichen Intelligenz umfasst, die auf bestimmte Emotionen trainiert ist.
  12. Diagnosewerkzeug zumindest nach Anspruch 2 oder 4, dadurch gekennzeichnet, dass die Emotionsbeobachtungseinheit (21b) eingerichtet ist, zusätzlich zum Reaktionszeitpunkt die Reaktionsart auf die jeweils stimulierte Emotion festzustellen, und dass diese Reaktionsart Teil der Kennwerte des zweiten Biomarkers ist.
  13. Diagnosewerkzeug zumindest nach Anspruch 2 oder 4, dadurch gekennzeichnet, dass die Emotions-Auslösungssteuerung (22a) eingerichtet ist, zwischen 4 und 12 Emotionen, vorzugsweise 6 Emotionen zu stimulieren.
  14. Diagnosewerkzeug zumindest nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Blickrichtungslenkung (23a) eingerichtet ist, das wenigstens eine Bild (19) oder Video auf diskreten Positionen der Bildwiedergabeeinrichtung (7) nacheinander darzustellen oder entlang eines kontinuierlichen Pfades zu bewegen.
  15. Diagnosewerkzeug zumindest nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Blickrichtungsbeobachtungseinheit (23b) eine Eye-Tracking Software umfasst.
  16. Verwendung des Diagnosewerkzeugs nach einem der Ansprüche 1 bis 15 als eine Softwareapplikation für ein tragbares Kommunikationsendgerät, insbesondere ein Smartphone (12) oder Tablet.
  17. Verwendung des Diagnosewerkzeugs nach einem der Ansprüche 1 bis 15 als eine Softwareapplikation auf einem Server, der über ein Computernetzwerk (9) von einem Browser auf einem externen Endgerät (12) ansteuerbar ist, um das Diagnosewerkzeug auszuführen.
  18. Diagnosesystem zur Verwendung in der Diagnose einer chronischen, neurologischen Störung bei einer menschlichen Testperson (11) unter Verwendung künstlicher Intelligenz, gekennzeichnet durch - ein Diagnosewerkzeug nach einem der Ansprüche 1 bis 15, - wenigstens einen nicht flüchtigen Speicher (4, 4') mit das Diagnosewerkzeug bildenden Programmcode (15) und Daten (14), - eine Verarbeitungseinheit (2) zur Ausführung des Programmcodes (15) und Verarbeitung der Daten (14) des Diagnosewerkzeugs sowie - die folgenden Peripheriegeräte (5, 6, 7, 8): - eine Spracheingabeeinrichtung (5) zur Aufnahme wenigstens eines Sprachsignals (26) der Testperson (11) für das Diagnosewerkzeug, - eine Bildaufnahmeeinrichtung (6) zur bildlichen Aufnahme des Gesichts der Testperson (11) für das Diagnosewerkzeug, - eine Bildwiedergabeeinrichtung (7) zur Darstellung von Bilddaten für die Testperson (11) und - wenigstens ein Eingabemittel (8) zur Vornahme von Eingaben durch die Testperson (11),wobei die Peripheriegeräte (5, 6, 7, 8) mit der Verarbeitungseinheit (2) in Wirkverbindung stehen und das Diagnosewerkzeug eingerichtet ist, die Spracheingabeeinrichtung (5), die Bildaufnahmeeinrichtung (6) und die Bildwiedergabeeinrichtung (7) zumindest mittelbar anzusteuern und die Aufnahmen (27, 29, 31) von der Spracheingabeeinrichtung (5) und der Bildaufnahmeeinrichtung (6) auszuwerten.
  19. Diagnosesystem nach Anspruch 18, dadurch gekennzeichnet, dass es ein tragbares Kommunikationsendgerät, insbesondere ein Smartphone (12) oder Tablet ist.
  20. Diagnosesystem nach Anspruch 18, dadurch gekennzeichnet, dass die Verarbeitungseinheit (2) Teil eines mit einem Computernetzwerk (9) verbundenen und über einen Browser ansteuerbaren Servers ist, und der nicht flüchtige Speicher (4) mit dem Server in Verbindung steht, und dass die Peripheriegeräte Teil eines externen Endgeräts (12), insbesondere eines tragbaren Kommunikationsendgeräts sind.
  21. Diagnosesystem nach Anspruch 20, dadurch gekennzeichnet, dass das externe Endgerät (12) einen weiteren flüchtigen Speicher (4') aufweist, wobei das Diagnosewerkzeug teilweise auf dem serverseitigen Speicher (4) und teilweise auf dem endgeräteseitigen Speicher (4') gespeichert ist.
  22. Verfahren zum Betreiben eines softwarebasierten Diagnosewerkzeugs zur Verwendung in der Diagnose einer chronischen, neurologischen Störung bei einer menschlichen Testperson (11) unter Verwendung künstlicher Intelligenz, umfassend - eine übergeordnete Betriebssoftware (20, 20', 20"), - ein Sprachanalysemodul (21) zur Ermittlung von Kennwerten (28) eines ersten, und zwar vokalen Biomarkers eines Sprachsignals (26) der Testperson (11), - wenigstens ein weiteres Modul (22, 23) zur Ermittlung von Kennwerten (30, 32) eines zweiten Biomarkers, und - eine dem Sprachanalysemodul (21) und dem weiteren Modul (22, 23) nachgeschaltete Gesamtergebnisbewertungseinheit (25), wobei - die Betriebssoftware (20, 20', 20") das Sprachanalysemodul (21) und das wenigstens eine weitere Modul (22, 23) nacheinander auslöst und deren ermittelte Kennwerte (28, 30, 32) der Gesamtergebnisbewertungseinheit (25) zuführt, - eine Sprachsignal-Auslösesteuerung (21a) des Sprachanalysemoduls (21) einen Satz (16a, 16b) von Einzelbildern und/ oder Einzelvideos (16) oder einen Text (17a, 17b) auf einer Bildwiedergabeeinrichtung (7) für die Testperson (11) darstellt, um wenigstens ein Sprachsignal (26) bei der Testperson (11) in Gestalt einer Benennung eines in dem jeweiligen Einzelbild oder Einzelvideo (16) enthaltenden Objekts oder in Gestalt eines Vorlesens des Textes (17a, 17b) auszulösen, - eine Sprachaufzeichnungseinheit (21b) des Sprachanalysemoduls (21) das Sprachsignal (26) mit Hilfe einer Spracheingabeeinrichtung (5) in einer Audioaufnahme (27) aufzeichnet, und - ein Sprachsignalanalysator (21c) des Sprachanalysemoduls (21) das Sprachsignal (26) in der Audioaufnahme (27) zunächst daraufhin auswertet, zu welchem Zeitpunkt welche Tonhöhe vorkommt, und anschließend eine Häufigkeitsverteilung der Tonhöhen über eine Anzahl an Frequenzbändern eines betrachteten Frequenzspektrums ermittelt, wobei diese Häufigkeitsverteilung die Kennwerte (28) des ersten Biomarkers bildet, und - die Gesamtergebnisbewertungseinheit (25) aufgrund der Kennwerte (28, 30, 32) der Biomarker der Testperson (11) unter Anwendung eines maschinellen Lernalgorithmus auf Basis künstlicher Intelligenz durch Vergleich mit einer mehrdimensionalen Grenzfläche feststellt, ob die Testperson (11) die chronische, neurologische Störung aufweist.
  23. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass das weitere Modul (22, 23) ein Emotionsanalysemodul (22) zur Auswertung der Reaktion der Testperson (11) auf einen Emotionsstimulus als zweiter Biomarker ist, und das Emotionsanalysemodul (22) folgende Schritte ausführt: - eine Emotions-Auslösungssteuerung (22a) des Emotionsanalysemoduls (22) einen Satz (18a, 18b) von Einzelbildern und/ oder Einzelvideos (18) oder wenigstens ein einzelnes Video auf der Bildwiedergabeeinrichtung (7) darstellt, um eine Anzahl einzelner Emotionen bei der Testperson (11) zu stimulieren, und - eine Emotionsbeobachtungseinheit (21b) des Emotionsanalysemoduls (22) eine mit Hilfe einer Bildaufnahmeeinrichtung (6) gewonnene Aufnahme (29) des Gesichts der Testperson (11) zumindest daraufhin auswertet, wann sie eine emotionale Reaktion zeigt, und - das Emotionsanalysemodul (22) zumindest die jeweilige Reaktionszeit (R1, R2, R4) zwischen der Stimulierung der jeweiligen Emotion und des Auftretens der emotionalen Reaktion ermittelt, wobei wenigstens diese Reaktionszeiten die Kennwerte (30) des zweiten Biomarkers bilden.
  24. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass das weitere Modul (22, 23) ein Blickrichtungsanalysemodul (23) zur Auswertung der Blickrichtung der Testperson (11) als zweiter Biomarker ist, und das Blickrichtungsanalysemodul (23) folgende Schritte ausführt: - eine Blickrichtungslenkung (23a) des Blickrichtungsanalysemoduls (23) wenigstens ein Bild (19) oder Video auf der Bildwiedergabeeinrichtung (7) darstellt, um die Blickrichtung der Testperson (11) zu lenken, und - eine Blickrichtungsbeobachtungseinheit (23b) des Blickrichtungsanalysemoduls (23) aus einer mit Hilfe einer Bildaufnahmeeinrichtung (6) gewonnenen Aufnahme des Gesichts der Testperson (11) deren Blickrichtung über der Zeit ermittelt, wobei dieser Blickrichtungsverlauf die Kennwerte (32) des zweiten Biomarkers bildet.
  25. Verfahren nach Anspruch 23 und 24, dadurch gekennzeichnet, dass das Emotionsanalysemodul (22) ein erstes weiteres Modul (22, 23) und das Blickrichtungsanalysemodul (23) ein zweites weiteres Modul (22, 23) ist und diese Module (22, 23) nacheinander ausgelöst werden, wobei wenigstens die Reaktionszeiten (R1, R2, R4) auf die Emotionsstimuli Kennwerte des zweiten Biomarkers bilden und die Blickrichtung über der Zeit Kennwerte eines dritten Biomarker der Testperson (11) bildet, und wobei die Gesamtergebnisbewertungseinheit (25) aufgrund der Kennwerte (28, 30, 32) des ersten, zweiten und dritten Biomarkers der Testperson (11) unter Anwendung des maschinellen Lernalgorithmus auf Basis künstlicher Intelligenz durch Vergleich mit einer mehrdimensionalen Grenzfläche feststellt, ob die Testperson (11) die chronische, neurologische Störung aufweist.
DE102021205548.6A 2021-05-31 2021-05-31 Softwarebasiertes, sprachbetriebenes und objektives Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen neurologischen Störung Pending DE102021205548A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021205548.6A DE102021205548A1 (de) 2021-05-31 2021-05-31 Softwarebasiertes, sprachbetriebenes und objektives Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen neurologischen Störung
PCT/EP2022/064578 WO2022253742A1 (de) 2021-05-31 2022-05-30 Softwarebasiertes, sprachbetriebenes und objektives diagnosewerkzeug zur verwendung in der diagnose einer chronischen neurologischen störung
EP22732938.0A EP4346558A1 (de) 2021-05-31 2022-05-30 Softwarebasiertes, sprachbetriebenes und objektives diagnosewerkzeug zur verwendung in der diagnose einer chronischen neurologischen störung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021205548.6A DE102021205548A1 (de) 2021-05-31 2021-05-31 Softwarebasiertes, sprachbetriebenes und objektives Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen neurologischen Störung

Publications (1)

Publication Number Publication Date
DE102021205548A1 true DE102021205548A1 (de) 2022-12-01

Family

ID=82163363

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021205548.6A Pending DE102021205548A1 (de) 2021-05-31 2021-05-31 Softwarebasiertes, sprachbetriebenes und objektives Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen neurologischen Störung

Country Status (3)

Country Link
EP (1) EP4346558A1 (de)
DE (1) DE102021205548A1 (de)
WO (1) WO2022253742A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170188930A1 (en) 2014-09-10 2017-07-06 Oregon Health & Science University Animation-based autism spectrum disorder assessment
US20190110754A1 (en) 2017-10-17 2019-04-18 Satish Rao Machine learning based system for identifying and monitoring neurological disorders
US20190239791A1 (en) 2018-02-05 2019-08-08 Panasonic Intellectual Property Management Co., Ltd. System and method to evaluate and predict mental condition
US20200365275A1 (en) 2017-10-24 2020-11-19 Cambridge Cognition Limited System and method for assessing physiological state
US20210110894A1 (en) 2018-06-19 2021-04-15 Ellipsis Health, Inc. Systems and methods for mental health assessment
US20210133509A1 (en) 2019-03-22 2021-05-06 Cognoa, Inc. Model optimization and data analysis using machine learning techniques

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11848079B2 (en) * 2019-02-06 2023-12-19 Aic Innovations Group, Inc. Biomarker identification

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170188930A1 (en) 2014-09-10 2017-07-06 Oregon Health & Science University Animation-based autism spectrum disorder assessment
US20190110754A1 (en) 2017-10-17 2019-04-18 Satish Rao Machine learning based system for identifying and monitoring neurological disorders
US20200365275A1 (en) 2017-10-24 2020-11-19 Cambridge Cognition Limited System and method for assessing physiological state
US20190239791A1 (en) 2018-02-05 2019-08-08 Panasonic Intellectual Property Management Co., Ltd. System and method to evaluate and predict mental condition
US20210110894A1 (en) 2018-06-19 2021-04-15 Ellipsis Health, Inc. Systems and methods for mental health assessment
US20210133509A1 (en) 2019-03-22 2021-05-06 Cognoa, Inc. Model optimization and data analysis using machine learning techniques

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Brownlee, J. „Why Training a Neural Network Is Hard". March 1, 2019. Machine Learning Mastery.

Also Published As

Publication number Publication date
EP4346558A1 (de) 2024-04-10
WO2022253742A1 (de) 2022-12-08

Similar Documents

Publication Publication Date Title
Halim et al. On identification of driving-induced stress using electroencephalogram signals: A framework based on wearable safety-critical scheme and machine learning
Hannant et al. Sensorimotor difficulties are associated with the severity of autism spectrum conditions
Gomez-Pilar et al. Neurofeedback training with a motor imagery-based BCI: neurocognitive improvements and EEG changes in the elderly
Lindenberger et al. Sensory functioning and intelligence in old age: a strong connection.
EP1110500A2 (de) Verfahren und Vorrichtung zur Selbstkontrolle des Ist-Zustands eines an einer neurologischen Erkrankung leidenden Patienten
US20230320647A1 (en) Cognitive health assessment for core cognitive functions
Ethridge et al. Risk and resilience in an acute stress paradigm: Evidence from salivary cortisol and time-frequency analysis of the reward positivity
Künecke et al. Facial responsiveness of psychopaths to the emotional expressions of others
EP3755226B1 (de) System und verfahren zur erkennung und messung affektiver zustände
Jones et al. Using time perception to explore implicit sensitivity to emotional stimuli in autism spectrum disorder
EP3930563A1 (de) Verfahren zur evaluierung von hautläsionen unter verwendung künstlicher intelligenz
WO2020128999A1 (en) System and method for reading and analysing behaviour including verbal, body language and facial expressions in order to determine a person's congruence
DE102020127613A1 (de) Vorrichtung und Verfahren zum Erzeugen eines Fahrer-Erfahrungs-Fahrmodells mittels Fehlerüberwachung
DE19842046A1 (de) System zum Ermitteln und Ausgeben von Analysedaten
Kaiser et al. EEG beta 2 power as surrogate marker for memory impairment: a pilot study
Arbel et al. Learning with and without feedback in children with developmental language disorder
DE212020000450U1 (de) Technik zur Verwendung bei der Fahrzeugherstellung
DE102006016716A1 (de) Feedbacktraining im Fahrzeug
Srimaharaj et al. Effective method for identifying student learning ability during classroom focused on cognitive performance
WO2021253139A1 (en) Methods for assessing brain health using behavioural and/or electrophysiological measures of visual processing
Amd et al. A derived transformation of emotional functions using self-reports, implicit association tests, and frontal alpha asymmetries
Lei Driver mental states monitoring based on brain signals
DE102021205548A1 (de) Softwarebasiertes, sprachbetriebenes und objektives Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen neurologischen Störung
DE102015109853A1 (de) Assistenz- und Entscheidungssystem und Verfahren zur Auswertung von Elektroenzephalogrammen
Ben Abdessalem et al. Toward Personalizing Alzheimer’s Disease Therapy Using an Intelligent Cognitive Control System

Legal Events

Date Code Title Description
R012 Request for examination validly filed