Die leichte kognitive Beeinträchtigung (Mild Cognitive Impairment, MCI) äußert sich häufig durch subtile, kaum wahrnehmbare Veränderungen der Sprache. Sie betrifft die Betonung, die Intonation, die Sprachmelodie und den Rhythmus: Faktoren, die in der klinischen Routine oft nur schwer zu erfassen sind.
Eine in The Lancet Regional Health – Western Pacific veröffentlichte Studie zeigt nun, wie sich diese Merkmale durch den Einsatz von künstlicher Intelligenz (KI) in objektive Biomarker umwandeln lassen [1]. Forscher hoffen, MCI früher und präziser als bislang zu diagnostizieren. Wenn die Erkrankung bereits im Frühstadium erkannt wird, können Neurologen Therapien eher einleiten, um das Fortschreiten der Symptome hinauszuzögern. Die klinische Forschung zu Demenzen würde ebenfalls davon profitieren, Patienten bereits in früheren Krankheitsstadien in Studien aufzunehmen.
Sprachdaten als nicht invasive und kostengünstige Grundlage der Diagnostik
Die Studie schloss 1.461 Menschen im Durchschnittsalter von 79,5 Jahren ein, die alle in häuslicher Umgebung lebten. Das Team befragte jeden Teilnehmer in einem offenen, 3-minütigen Interview und nahm Sprachdaten anschließend auf.
Mithilfe des Sprachmodells Wav2Vec2 extrahierten die Forschenden daraus akustisch-prosodische Merkmale in 512 Dimensionen. Sie ergänzten diese Daten durch wichtige demographische Faktoren wie Alter, Geschlecht und Bildungsjahre.
Um eine mögliche leichte kognitive Beeinträchtigung zu diagnostizieren, arbeiteten sie mit dem „MCI Screen“, einem klinisch validierten Instrument zur zuverlässigen Erkennung kognitiver Defizite.
KI-Algorithmen liefern präzise Ergebnisse
In nächsten Schritt entwickelten die Wissenschaftler 2 verschiedene Vorhersagemodelle, um eine mögliche leichte kognitive Beeinträchtigung präzise zu erkennen. Das 1. Modell basiert auf dem XGBoost-Algorithmus, das 2. setzt auf tiefe neuronale Netze. Sie trainierten beide Tools zunächst mit den Daten von 979 Teilnehmern und überprüften sie anschließend anhand einer unabhängigen Testkohorte mit 482 Personen.
Die Genauigkeit der Modelle bewerteten sie mit der AUC (Area Under the Curve), einem Maß für die Trennschärfe diagnostischer Tests. Das Resultat war eindeutig und überzeugend: Durch die Berücksichtigung von Sprachdaten stieg der AUC-Wert im Modell „Alter + Geschlecht“ von 0,80 auf 0,88. Im erweiterten Modell, das auch das Bildungsniveau einbezog, verbesserte sich der Wert von 0,78 auf 0,89. Beide Werte sind statistisch hochsignifikant (p
Die Stimme als digitaler Biomarker der Neurogeriatrie
Die Ergebnisse der Studie zeigen, dass bereits wenige Minuten frei gesprochener Sprache wertvolle Informationen über den kognitiven Status liefern können. Sie machen deutlich, wie KI-basierte Modelle diese feinen Muster erfassen und diagnostisch nutzen. Algorithmen haben das Potenzial, eine leichte kognitive Beeinträchtigung bereits früh zu erkennen und sie von normalen Alterungsprozessen abzugrenzen.
Gerade in der Primärversorgung könnten diese Ansätze eine wichtige Rolle spielen – besonders in ländlichen oder ressourcenarmen Regionen. Hier ermöglicht die Technologie eine kontinuierliche, nicht invasive und kostengünstige Überwachung älterer Menschen. Damit lassen sich gezielt präventive Maßnahmen einleiten und der Verlauf von kognitiven Beeinträchtigungen frühzeitig begleiten.
Alles in allem legt die japanische Arbeit den Grundstein für eine neue Dimension der kognitiven Diagnostik, bei der feinste Ausdrucksmuster durch KI-Analysen zugänglich werden. Die Forschenden wollen jetzt überprüfen, wie sich das Verfahren in unterschiedlichen kulturellen und sprachlichen Kontexten bewährt und wie es bei einer längeren Nachbeobachtung abschneidet.
Der Beitrag ist im Original erschienen auf Elmedicointeractivo.com.