Ein Patient mit Querschnittslähmung hat in München eine Hirn-Computer-Schnittstelle erhalten – ein in Europa bislang einmaliger Eingriff. Damit soll er künftig sein Smartphone und einen Roboterarm steuern. Die Operation führte ein Forscherteam des Klinikums Rechts der Isar der Technischen Universität München (TUM) durch, das nun weitere Betroffene für die Studie sucht. Über die ethischen Herausforderungen, die dieser Fortschritt bereithält, sprach TUM-Ethikprofessor Marcello Ienca, der das Projekt eng begleitet, am Mittwoch mit dem Evangelischen Pressedienst (epd).

Herr Ienca, welche Voraussetzungen braucht es, damit ein Patient einem solchen Eingriff informiert zustimmen kann?

Marcello Ienca: Zentral ist, dass der Patient versteht, worum es geht: medizinisch, technisch und praktisch. Es reicht nicht, eine Einverständniserklärung zu unterschreiben. Die Betroffenen müssen nachvollziehen können, was die Operation bedeutet, welche Chancen realistisch sind und welche Risiken bestehen. Nur wenn diese Informationen transparent und verständlich vermittelt werden, kann man von echter Selbstbestimmung sprechen. In dieser Studie ist der Aufklärungsprozess außergewöhnlich gründlich.

Wie stellt man sicher, dass die Interessen des Patienten im Fokus bleiben – und nicht nur die Forschung?

Der Patient darf nie Mittel zum Zweck der Forschung sein. Ziel ist es immer, seine Lebensqualität und Selbstständigkeit zu verbessern. Die Forschung steht im Dienst des Menschen. Das gelingt nur, wenn Ärztinnen, Ingenieure, Ethikerinnen und Psychologen gemeinsam und im Austausch mit den Betroffenen arbeiten. Das Team trifft – nach dem Prinzip „patient first“ – alle Entscheidungen im engen Austausch mit dem Patienten. Die Studie wurde von der Ethikkommission geprüft, und die Forschenden führen regelmäßig Gespräche mit dem Patienten über seine Erfahrungen und sein Wohlbefinden.

Wie hoch ist das Risiko, dass die Persönlichkeit des Patienten durch die Schnittstelle beeinflusst wird?

Aktuell gibt es keine sichere Hinweise, dass Brain-Computer-Interfaces die Persönlichkeit „verändern“. Sie können jedoch das Selbstverständnis des Patienten beeinflussen, etwa durch ein neues Gefühl von Kontrolle oder Abhängigkeit von Technik. Das erfordert eine sensible psychologische und neuroethische Begleitung. Es geht nicht darum, Angst zu schüren, sondern Verantwortung bewusst wahrzunehmen. In der Studie gibt es psychologische Betreuung, und das Team achtet darauf, wie sich das Erleben des Patienten im Alltag verändert. Ziel ist, die Autonomie zu stärken, und nicht, sie zu gefährden.

Wie können die sensiblen Daten geschützt werden, die durch die Schnittstelle anfallen?

Diese Daten sind hochsensibel, weil sie neuronale Aktivität abbilden – also etwas, das mit unseren Gedanken und Handlungsabsichten verbunden ist. Sie müssen daher mit derselben Sorgfalt behandelt werden wie genetische oder medizinische Hochrisikodaten. Die Risiken sind jedoch im außerklinischen Bereich wesentlich größer. In der Biomedizin gelten besonders strenge Regeln für die Überwachung und den Datenschutz. Die Daten werden pseudonymisiert, verschlüsselt und ausschließlich zu wissenschaftlichen Zwecken verarbeitet. Der Zugriff ist auf ein kleines autorisiertes Team beschränkt, und es gibt eine klare Trennung zwischen medizinischen, technischen und forschungsspezifischen Daten. Außerdem wird jede Nutzung der Daten kontinuierlich überprüft. Das entspricht dem höchsten Standard im medizinischen Datenschutz.

Bringt eine solche Technologie vor allem mehr soziale Teilhabe – oder kann sie auch zu neuen Ungleichheiten führen?

Sie hat ein enormes Potenzial, Teilhabe zu fördern. Wenn jemand, der querschnittsgelähmt ist, wieder kommunizieren, essen oder ein Gerät steuern kann, ist das ein Gewinn an Freiheit und Autonomie. Gleichzeitig müssen wir dafür sorgen, dass der Zugang zu solchen Innovationen nicht vom Einkommen oder Wohnort abhängt. Das Team ist sich bewusst, dass solche Technologien langfristig nur dann ethisch vertretbar sind, wenn sie auch zugänglich bleiben. Das ist aber eine ethisch-politische, keine medizinische Frage.

Wer trägt die Verantwortung, wenn die Schnittstelle fehlerhaft funktioniert?

Die Verantwortung ist klar verteilt. Das System wurde nach medizinischen Standards entwickelt und implantiert. Es gibt laufende technische Kontrollen, klinische Nachsorge und ethische Begleitung. Jeder Schritt ist dokumentiert, und die Sicherheit des Patienten steht über allem. Wichtig ist, dass es klare Sicherheitsstandards gibt und ein kontinuierliches Monitoring. Patienten dürfen mit möglichen Fehlfunktionen nicht alleingelassen werden.

Wie ist die Spannung auszuhalten zwischen Hoffnung auf ein besseres Leben und Enttäuschung, wenn der Erfolg ausbleibt?

Das ist eine schwierige, aber menschliche Frage. Forschung bedeutet, Hoffnung zu haben, aber auch, Ungewissheit auszuhalten. Wir müssen offen darüber sprechen, dass Fortschritte Zeit brauchen und nicht jeder Versuch erfolgreich sein wird. Ehrlichkeit ist hier der beste Schutz vor Enttäuschung. Das Team geht verantwortungsvoll mit dieser Dynamik um. Die Patientinnen und Patienten werden darauf vorbereitet, dass nicht jeder Fortschritt unmittelbar spürbar ist. Gleichzeitig ist die Hoffnung ein wichtiger Motor. Forschung lebt davon, realistische Hoffnung mit wissenschaftlicher Sorgfalt zu verbinden.

Gibt es ethische Grenzen eines solchen technischen Eingriffs am Menschen?

Ja, natürlich. Jede Forschung muss die Würde, Freiheit und Integrität des Menschen achten. Aber solange diese Grundprinzipien gewahrt bleiben, ist es nicht nur vertretbar, sondern geradezu eine moralische Verpflichtung, solche Entwicklungen voranzutreiben. Wenn wir die Möglichkeit haben, Menschen mit schwerer Behinderung mehr Selbstbestimmung und Teilhabe zu ermöglichen, dann sollten wir das auch tun.