Bereits Kunde? Jetzt einloggen.
Lesezeit ca. 13 Min.

HIRNIMPLANTATE DIE INTENTIONSMASCHINE


Spektrum der Wissenschaft - epaper ⋅ Ausgabe 4/2020 vom 21.03.2020

Querschnittsgelähmten wieder zu selbstständigen Bewegungen verhelfen – das sollen Neuroprothesen ermöglichen. Eine neue Generation von Gehirn-Computer- Schnittstellen könnte den Durchbruch bringen.


Artikelbild für den Artikel "HIRNIMPLANTATE DIE INTENTIONSMASCHINE" aus der Ausgabe 4/2020 von Spektrum der Wissenschaft. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: Spektrum der Wissenschaft, Ausgabe 4/2020

SETH HANSEN FÜR CALTECH

Richard Andersen ist Physiologe und Professor für Neurowissenschaften sowie Direktor des Tianqiao and Chrissy Chen Brain-Machine Interface Center am California Institute of Technology in Pasadena (USA). Seine Arbeitsgruppe forscht über die neuronalen Grundlagen der Sinneswahrnehmungen sowie der Motorik und entwickelt neuronale Prothesen.

►► spektrum.de/artikel/1706910

Wenn ich es sehe, ...

Weiterlesen
epaper-Einzelheft 5,99€
NEWS 14 Tage gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von Spektrum der Wissenschaft. Alle Rechte vorbehalten.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 4/2020 von SPEKTROGRAMM. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
SPEKTROGRAMM
Titelbild der Ausgabe 4/2020 von GENTECHNIK: DIE NEUE GRÜNE REVOLUTION. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
GENTECHNIK: DIE NEUE GRÜNE REVOLUTION
Titelbild der Ausgabe 4/2020 von STREITGESPRÄCH »ES GEHT UM NACHHALTIGE LANDWIRTSCHAFT«. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
STREITGESPRÄCH »ES GEHT UM NACHHALTIGE LANDWIRTSCHAFT«
Titelbild der Ausgabe 4/2020 von FORSCHUNG AKTUELL. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
FORSCHUNG AKTUELL
Titelbild der Ausgabe 4/2020 von SPRINGERS EINWÜRFE ERKENNTNISTHEORIE DER HUMMEL. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
SPRINGERS EINWÜRFE ERKENNTNISTHEORIE DER HUMMEL
Titelbild der Ausgabe 4/2020 von NEUROETHIK DER FREIE WILLE UND DIE ALGORITHMEN. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
NEUROETHIK DER FREIE WILLE UND DIE ALGORITHMEN
Vorheriger Artikel
SPRINGERS EINWÜRFE ERKENNTNISTHEORIE DER HUMMEL
aus dieser Ausgabe
Nächster Artikel NEUROETHIK DER FREIE WILLE UND DIE ALGORITHMEN
aus dieser Ausgabe

... bekomme ich jedes Mal eine Gänsehaut: Ein gelähmter Proband steuert vom Rollstuhl aus einen Computer oder einen Roboterarm ausschließlich kraft seiner Gedanken – ermöglicht durch eine Schnittstelle zwischen Mensch und Maschine, kurz BCI (brain-computer interface) oder BMI (brain-machine interface) genannt.

Im Jahr 2013 saß Erik Sorto, der seit seinem 21. Lebensjahr wegen einer Schussverletzung vollständig gelähmt ist, in meinem Labor und konnte zum ersten Mal seit zehn Jahren wieder selbstständig ein Bier trinken. Ein Jahr zuvor hatten wir ihm Elektroden in seine Hirnrinde implantiert, um die Bewegungssignale des Gehirns zu registrieren und an einen elektromechanischen Arm weiterzuleiten. Dieser ergriff die Bierdose und führte sie an Sortos Lippen. Fasziniert beobachteten wir, wie unser Proband diese vermeint- lich einfache, in Wirklichkeit aber hochkomplexe Aufgabe bewältigte.

Wie lässt sich eine mechanische Prothese per Gedankenkraft steuern? Tag für Tag bewegen wir unsere Gliedmaßen, ohne darüber nachzudenken. Das sollte genauso problemlos mit künstlichen Prothesen möglich sein. Schon seit Jahrzehnten versuchen daher Neurowissenschaftler, die Hirnsignale zu entschlüsseln, mit denen wir Bewegungen initiieren und Objekte ergreifen – lange nur mit mäßigem Erfolg. Inzwischen haben wir bessere Methoden entwickelt, um die Kakophonie elektrischer Aktivitäten anzuzapfen, die während der Kommunikation unserer fast 100 Milliarden Hirnzellen entsteht. Eine neue Generation von BCIs verspricht nun, dem Ziel einer effektiven Kommunikation zwischen Mensch und Maschine näherzukommen.

Es gibt zwei Hauptklassen solcher Schnittstellen. Bei der einen überträgt ein einspeisendes Gerät ein externes Signal mittels Elektrostimulation an ein neuronales Netzwerk im Gehirn. Diese Technik wird schon erfolgreich angewendet. So stimuliert ein Cochleaimplantat den Hörnerv bei einem Schwerhörigen, und eine tiefe Hirnstimulation der Basalganglien mildert motorische Störungen wie das Zittern bei einem Parkinsonpatienten. Geräte zur Stimulation der Netzhaut für Blinde werden derzeit klinisch getestet.

Auslesende BCIs, die neuronale Aktivitäten aufzeichnen, befinden sich dagegen noch im Entwicklungsstadium. Recht grobkörnige Verfahren hierzu gibt es bereits: Ein Elektroenzephalogramm (EEG) misst die durchschnittliche Aktivität des Hirngewebes in einer Distanz von einigen Zentimetern. Dabei registriert es allerdings lediglich die aufsummierten Signale von vielen Millionen Neuronen und nicht etwa die einzelner Hirnzellen in einem bestimmten Netzwerk. Die funktionelle Magnetresonanztomografie (fMRT) erlaubt indirekte Messungen, indem sie den verstärkten Blutfluss in einer neuronal aktiven Region erfasst. Sie kann zwar kleinere Zonen abbilden als das EEG, besitzt jedoch immer noch eine ziem- lich geringe Auflösung. Zudem reagiert die Durchblutung recht träge, so dass die fMRT rasche Veränderungen der Hirnaktivität nicht erkennen kann.

Eine Gehirn-Computer- Schnittstelle kann Signale aus dem Gehirn empfangen oder auch zu ihm senden. Solche Hirnimplantate könnten für Querschnittsgelähmte hoffnungsvoll sein.


MARK ROSS STUDIO / SCIENTIFIC AMERICAN APRIL 2019

Um diese Einschränkungen zu überwinden, versuchen Forscher, einzelne Zellen oder wenigstens eine Gruppe von Neuronen zu erfassen. In den letzten Jahren gelangen solche Aufzeichnungen mit Implantaten aus feinsten rasterartig angeordneten Elektroden. Bei den derzeit verwendeten Arrays handelt es sich um 4 mal 4 Millimeter große Plättchen mit 100 Elektroden, die jeweils 1 bis 1,5 Millimeter lang sind. Ein solches nagelbrettartiges Bauelement kann die Aktivitäten von 100 bis 200 Neuronen aufzeichnen.

Die von den Elektroden erfassten Messdaten fließen zu einem Decoder, der mit mathematischen Algorithmen das Entladungsmuster in ein Signal übersetzt, das eine bestimmte Aktion wie eine Roboterarmbewegung oder einen Computerbefehl auslöst. Solche auslesenden BCIs könnten in Zukunft Patienten helfen, deren Mobilität durch Rückenmarksverletzungen oder Krankheiten eingeschränkt ist.

Unser Team konzentriert sich auf tetraplegische Patienten, die auf Grund von Verletzungen des oberen Rückenmarks weder Arme noch Beine bewegen können. Dafür brauchen wir die Signale aus ihrem Kortex – jener etwa drei Millimeter dicken Oberflächenschicht der beiden Hirnhälften, die ausgebreitet jeweils eine Fläche von ungefähr 800 Quadratzentimetern bedecken würde.

Ein BCI kann mit unterschiedlichen Bereichen der Hirnrinde interagieren. Nach derzeitigen Forschungsstand kennen wir mittlerweile mehr als 180 Areale, die spezifische Hirnfunktionen steuern. Zu nennen wären hier die primären Regionen, die Sinnesreize vom Auge, vom Ohr oder von den Drucksensoren der Haut verarbeiten. Auch die darunter liegenden, dicht vernetzten Bereiche des Assoziationskortex, die auf Sprache, Objekterkennung, Emotion oder exekutive Kontrolle spezialisiert sind, können von den Geräten gezielt angesteuert werden.

Einige Forscherteams haben damit begonnen, Hirnsignale bei gelähmten Patienten aufzuzeichnen, um unter kontrollierten Laborbedingungen eine motorische Prothese zu steuern. Bis sich neuronal gesteuerte Prothesen so einfach implantieren lassen wie heute ein Herzschrittmacher, liegt noch ein steiniger Weg vor uns. Mein Team verfolgt den Ansatz, statt vom motorischen Kortex Signale der neuronalen Assoziationsareale abzuleiten. Wir hoffen, dass wir damit die Bewegungsabsichten des Patienten schneller und präziser bestimmen können.

Nach gelungener Implantation folgten »zwei Wochen des Schreckens«

Dabei konzentrieren wir uns auf den posterioren Parietalkortex (PPC) im hinteren Scheitellappen, wo sich die Intention zur Einleitung einer Bewegung herausbildet (siehe »Mit Gedankenkraft«, S. 40/41). Bei Experimenten mit Affen stießen wir auf einen Bereich des PPC, den so genannten lateralen intraparietalen Kortex, der Augenbewegungen kontrolliert. Signale für die Gliedmaßen werden dagegen von anderen Regionen des PPC verarbeitet. So initiiert das anteriore intraparietale Areal Greifbewegungen, wie das Team von Hideo Sakata von der Nihon-Universität in Tokio bereits Ende der 1990er Jahre herausfand.

Der PPC ist aus mehreren Gründen für die Steuerung eines Roboterarms oder Computercursors besonders geeignet: Im Gegensatz zum motorischen Kortex einer Hirnhälfte, der jeweils nur die gegenüberliegende Extremität aktiviert, kontrolliert der PPC beide Arme. Außerdem wird hier das Ziel der Bewegung angepeilt. Wenn etwa ein Affe nach einem Objekt greifen soll, schaltet sich der PPC sofort ein und lokalisiert es. Der motorische Kortex hingegen kontrolliert den Verlauf der Greifbewegung. Kennt man das Ziel einer beabsichtigten motorischen Handlung, vermag ein BCI, sie binnen weniger hundert Millisekunden zu entschlüsseln. Bei aufgezeichneten Signalen aus dem motorischen Kortex kann es dagegen mehr als eine Sekunde dauern, um daraus die beabsichtigte Bewegung zu errechnen

Gewappnet mit diesen Erkenntnissen setzten wir uns kurz vor der Jahrtausendwende das Ziel, einem Menschen ein BCI-Implantat in den PPC einzupflanzen. Zunächst implantierten wir die Elektrodenarrays bei Affen, die dann lernten, damit einen Computercursor oder einen künstlichen Arm zu steuern. Etwa 15 Jahre vergingen, bis schließlich unser Team aus Wissenschaftlern, Ärzten und Rehabilitationsexperten des California Institute of Technology, der University of Southern California, der University of California in Los Angeles sowie den Rehabilitationskliniken Rancho Los Amigos und Casa Colina von der Food and Drug Administration sowie den Ethikkommissionen grünes Licht für einen ersten Test an Menschen erhielt.

Probanden eines solchen Projekts sind wahre Pioniere. Denn dass sie selbst davon direkt profitieren, ist keineswegs sicher. Vielmehr helfen sie, eine Technik zu entwickeln, die anderen zugutekommen kann, sobald die Alltagstauglichkeit bewiesen ist. Am 17. April 2013 war es endlich so weit: Die Neurochirurgen Charles Liu und Brian Lee implantierten unserem ersten Patienten Erik Sorto ein BCI. Die Operation verlief einwandfrei – dann begann das lange Warten.

Meine Kollegen von der NASA, die den Mars-Rover zu unserem Nachbarplaneten schickten, sprechen von den »sieben Minuten des Schreckens« für den Zeitraum vom Eindringen in die Marsatmosphäre bis zur Landung. Für mich standen zwei Wochen äußerster Anspannung bevor, bis der Bereich um das Implantat vollständig verheilt war. Wird es funktionieren? Trotz der viel versprechend ausgefallenen Tierversuche betraten wir mit der Implantation eines BCI in den menschlichen PPC Neuland. Niemand hatte je versucht, dort Signale abzuleiten.

Erik Sorto (rechts) ist querschnittsgelähmt. Dank eines von Richard Andersen (links) entwickelten Hirnimplantats kann er kraft seiner Gedanken mit einem Roboterarm einen Becher greifen.


LANCE HAYASHIDA UND CALIFORNIA INSTITUTE OF TECHNOLOGY

Schon am ersten Testtag detektieren wir neuronale Aktivitäten, und gegen Ende der Woche erfassten wir genug Signale, um auszuprobieren, ob Sorto einen Roboterarm über das Implantat steuern konnte. Einige Neurone veränderten ihre Aktivität, sobald unser Proband sich vorstellte, er drehe seine Hand. Seine erste Aufgabe bestand darin, die Roboterhand in verschiedene Richtungen zu wenden, um einem Doktoranden die Hand zu schütteln. Sorto war genauso begeistert wie wir: Zum ersten Mal seit seiner Rückenmarksverletzung konnte er mit der Welt aktiv interagieren – über einen Roboter.

Wir werden oft gefragt, ob es lange dauert, bis ein Mensch ein BCI bedienen kann. Tatsächlich funktionierte die Technik mehr oder weniger sofort. Den Roboterarm zu steuern, erwies sich für Sorto als intuitiv und erstaunlich einfach. Indem er sich verschiedene Bewegungsabläufe vorstellte, konnte er seine Hirnzellen quasi nach Belieben ein- und ausschalten.

Gemeinsam mit Forschern von der Johns Hopkins University gelang es uns, die Intentionssignale aus Sortos Gehirn mit maschineller Bildverarbeitung und intelligenter Robotertechnik für die Bewegungssteuerung nutzbar zu machen. Dabei verrechnet der Algorithmus Videoaufzeichnungen mit den Intentionssignalen, um den Roboterarm in Bewegung zu setzen.

Wir hatten Sorto zu Beginn der Studie gefragt, was er mit dem Roboterarm am liebsten machen würde. Seine Antwort: ohne fremde Hilfe ein Bier trinken. Unter dem Jubel aller Anwesenden schaffte er dieses Kunststück nach etwa einem Jahr.

Sorto ist nicht unser einziger Patient. Seit fünf Jahren nimmt Nancy Smith an unseren Studien teil. Die ehemalige Computergrafikerin, die in ihrer Freizeit Klavier gespielt hatte, ist durch einen Autounfall vor etwa zehn Jahren an allen vier Gliedmaßen gelähmt. In ihrem PPC stießen wir auf eine detaillierte Repräsentation der Finger beider Hände. Mittels virtueller Realität lernte Smith, die zehn Finger der auf einem Bildschirm erscheinenden Avatar-Hände einzeln zu bewegen. Sie konnte sogar mit den fünf virtuellen Fingern einer Hand einfache Melodien auf einer computergenerierten Klaviertastatur spielen.

Die Arbeit mit unseren Patienten erwies sich für uns als äußerst spannend und lehrreich. Die Menge an Information, die sich aus der Aktivität von wenigen hundert Neuronen ziehen ließ, war überwältigend. Wir konnten eine Reihe von kognitiven Aktivitäten decodieren, darunter mentale Strategieplanung, Verarbeitung visueller Reize, verbale Manifestationen von Aktionen wie Greifen oder Drücken, Fingerbewegungen oder mathematische Berechnungen. Zu unserer Überraschung genügte die Implantation von einigen winzigen Elektrodenarrays, um vieles zu entschlüsseln, was eine Person vorhatte.

Der PPC als visuelles Kontrollzentrum

Vor der Frage, wie viel Information sich aus den Aktivitäten eines kleinen Hirnareals ableiten lässt, stand ich bereits zu Beginn meiner wissenschaftlichen Laufbahn: Als Postdoc bei Vernon Mountcastle (1918–2015) an der Johns Hopkins University untersuchte ich, wie der PPC von Affen den visuellen Raum repräsentiert. Das Auge funktioniert im Prinzip wie eine Kamera, wobei die lichtempfindliche Netzhaut die jeweilige Position der visuellen Reize signalisiert. Das im Gehirn repräsentierte Bild wird als retinotope Karte bezeichnet.

In einem wesentlichen Punkt unterscheidet sich jedoch unser visuelles System grundsätzlich von einer Kamera: Wenn sich Letztere bewegt, verschiebt sich ebenfalls das aufgenommene Bild. Dagegen erscheint uns die Umgebung stets ortsfest. Das Gehirn muss also das von der Netzhaut gelieferte Bild derart umwandeln, dass die Welt nicht so wirkt, als schwenke eine Filmkamera durch die Szene.

Hier kommt der PPC ins Spiel. Er stellt ein Rechenzentrum für die hochintegrierte visuelle Darstellung des Raums dar. Um zielsicher nach einem Objekt zu greifen, muss das Gehirn berücksichtigen, in welche Richtung die Augen gerade blicken. Schädigungen des PPC führen dazu, dass der Zugriff unsicher wird. In Mountcastles Labor identifizierten wir einzelne PPC-Neurone, die einen Ausschnitt einer Szene registrieren. Dieselben Zellen liefern auch Informationen zur Position der Augen. Beide Signale interagieren, indem sie die visuelle Reaktion mit der Ausrichtung der Augen verrechnen – das resultierende Produkt wird als Gain Field bezeichnet.

Das Problem der mentalen Repräsentation des Raums verfolgte ich als Dozent am Salk Institute weiter. Gemeinsam mit dem Neurowissenschaftler David Zipser von der University of California in San Diego beschrieb ich 1988 ein Computermodell eines neuronalen Netzwerks, das retinotope Positionsinformationen mit der Blickrichtung verrechnet und damit gegenüber Augenbewegungen unabhängige Karten des Raums erstellt. Während des Trainings der neuronalen Netze entwickelten ihre mittleren Schichten Gain Fields, wie es bei den PPC-Experimenten der Fall war. Indem sie Daten zu visuellen Reizen und der Augenposition in einer einzigen Zelle verrechnen, können bereits neun Zellen das gesamte Gesichtsfeld repräsentieren.

Das Konzept der gemischten Repräsentation – Populationen von Neuronen sprechen auf verschiedene Variablen an – findet inzwischen vermehrt Beachtung. So zeigen Signalaufzeichnungen vom präfrontalen Kortex, dass dortige Neurone unterschiedliche Gedächtnisleistungen mit verschiedenen visuellen Objekten verrechnen.

Die Semantik der Bewegung aus partiell gemischten Repräsentationen

Diese Erkenntnisse könnten erhellen, was im PPC geschieht. Wir bemerkten das, als wir Nancy Smith baten, mit Hilfe ihres Avatars auf dem Computerbildschirm acht verschiedene Entscheidungen zu fällen. Eine bestand darin, sich eine Aktion nur vorzustellen oder sie tatsächlich zu probieren. Eine andere erforderte, nach links oder nach rechts zu greifen; eine dritte, die Hand zu bewegen oder mit den Schultern zu zucken. Wie wir dabei beobachteten, vermischten die Hirnzellen des PPC diese Variablenpaare zu einem spezifischen Muster, das ganz anders aussah als die eher zufälligen Interaktionen, die bei Tierversuchen auftraten.

Die Neuronengruppen, die bei der Steuerung der beiden Körperhälften mitwirken, überlappen sich teilweise. Wenn zum Beispiel eine Hirnzelle feuert, um eine Bewegung der linken Hand zu initiieren, tut sie das mit hoher Wahrscheinlichkeit auch bei einer versuchten Bewegung der rechten Hand. Dagegen agieren die Neurone, die Bewegungen der Schulter und der Hand steuern, eher unabhängig voneinander. Diese Form der Repräsentation bezeichnen wir als partiell gemischte Selektivität.

Solche partiell gemischten Repräsentationen bilden offenbar eine Art Semantik der Bewegung: Ein Neuron, das auf Videoaufnahmen einer Person reagiert, die ein Objekt ergreift, regt sich wahrscheinlich auch, wenn der Proband lediglich das Wort »greifen« liest. Davon separiert sind Zellen, die auf andere Aktionen wie »drücken« ansprechen. Im Allgemeinen scheint die partiell gemischte Codierung ähnliche Rechenoperationen zusammenzufassen (Bewegung der rechten oder der linken Hand) und diese von denjenigen abzusetzen, die bei der anstehenden neuronalen Verarbeitung stören könnten (Bewegung der Schulter oder der Hand).

Gemischte sowie partiell gemischte Codierung ließen sich in bestimmten Teilen des Assoziationskortex nachweisen. Künftige Studien sollten zeigen, ob sie auch in anderen Hirnarealen vorkommen – etwa in denen für Sprache, Objekterkennung oder Handlungskontrolle. Darüber hinaus möchten wir wissen, ob die primären sensorischen oder motorischen Kortexareale ähnliche partiell gemischte Codierungsstrukturen nutzen.

Anstehende Forschungen sollten zudem klären, inwiefern das Erlernen neuer Fähigkeiten die Leistungsfähigkeit von Probanden mit Neuroprothesen beeinflusst. Sollten Lernprozesse sich quasi von selbst einstellen, könnte im Prinzip jeglicher Bereich des Gehirns mit einem BCI versorgt und dann auf passende Aufgaben trainiert werden. Ein Implantat im primären visuellen Kortex könnte dann nach einer entsprechenden Trainingsphase auch nichtvisuelle Aufgaben steuern. Andernfalls ließen sich Implantate etwa in motorischen Arealen ausschließlich auf motorische Aufgaben trainieren. Erste Studienergebnisse deuten darauf hin, dass ein BCI tatsächlich in dem Hirnareal eingepflanzt werden muss, das für die gewünschte kognitive Aktivität zuständig ist.

Ohne sensorische Rückkopplung sind flüssige Bewegungen kaum möglich

Ein BCI muss allerdings mehr können, als nur Hirnsignale zu empfangen und zu verarbeiten – es muss auch eine Rückmeldung von einer Prothese zum Gehirn leiten. Wenn wir den Arm ausstrecken, um ein Objekt zu greifen, hilft die visuelle Rückkopplung, die Hand genauer zum Ziel zu führen. Die Positionierung der Hand hängt ebenfalls von der Form des zu greifenden Objekts ab. Wenn wir beim Zugreifen keine Tastsignale spüren, wird das Vorhaben meist scheitern.

Diese sensorischer Rückkopplung ist gerade für unsere Patienten mit Rückenmarksverletzungen entscheidend. Sie sind nicht nur gelähmt, sondern nehmen auch keine taktilen Reize oder Signale zur Position ihrer Gliedmaßen war, was für flüssige Bewegungen unabdingbar ist. Eine ideale Neuroprothese muss diese ausgefallenen Funktionen über bidirektionale Signale kompensieren: Einerseits gilt es, die Intention des Probanden zu übermitteln, andererseits aber auch, Daten zu Berührung und Position aus den Sensoren am Roboterarm zu verarbeiten.

Dieser Herausforderung stellte sich 2016 das Team um Robert Gaunt von der University of Pittsburgh, indem es einem tetraplegischen Patienten Mikroelektroden-Arrays in den somatosensorischen Kortex implantierte – also jenen Hirnbereich, der sensorische Signale aus den Gliedmaßen verarbeitet. Als die Forscher winzige elektrische Impulse durch die Mikroelektroden sendeten, spürte der Proband tatsächlich etwas an seiner Handfläche.

Ähnliche Implantate setzten wir im Armareal des somatosensorischen Kortex ein. Zu unserer großen Freude nahm unser Proband F. G. Reize wahr wie Quetschen, Klopfen oder Vibrationen auf der Haut, die er als natürlich empfand. Er spürte ebenfalls, dass sich sein Arm bewegte, was als Propriozeption bekannt ist. Diese Experimente beweisen, dass Patienten, die jegliche Wahrnehmung in ihren Gliedmaßen verloren haben, diese ersatzweise durch einspeisende BCIs wiedererlangen könnten. Der nächste Schritt wäre zu prüfen, ob sich die Geschicklichkeit von sensorbestückten, hirngesteuerten Roboterhänden durch eine solche somatosensorische Rückmeldung steigern lässt. Außerdem möchten wir gern wissen, ob bei den Probanden ein »Embodiment « einsetzt – also das Gefühl, das künstliche Glied sei Teil des eigenen Körpers.

Eine weitere Herausforderung besteht darin, leistungsfähigere Elektroden zu entwickeln. Unsere Implantate funktionieren meist über einen Zeitraum von fünf Jahren. Bei zukünftigen Geräten sollten idealerweise die Lebensdauer sowie die Anzahl der angezapften Neurone weiter ansteigen. Wichtig wäre auch, die feinen Elektrodenfortsätze noch zu verlängern, um Areale zu erreichen, die tiefer in den Hirnfurchen liegen.

Flexible Eletroden, die leichte Bewegungen des Gehirns etwa beim Atmen oder bei Blutdruckschwankungen nachvollziehen, sollten stabilere Signalaufzeichnungen ermöglichen. Bei den jetzigen steifen Elektroden muss der Decoder immer wieder neu eingestellt werden, da sich ihre Position jeden Tag leicht verschiebt – schließlich wollen die Forscher die Aktivität derselben Hirnzellen über Wochen oder Monate erfassen.

Künftige Implantate sollten möglichst klein sein, mit geringer elektrischer Leistung arbeiten, um eine Erwärmung des Gehirns zu vermeiden, sowie drahtlos kommunizieren, so dass wir keine Kabel mehr brauchen, die externe Gerätschaften mit dem Gehirn verbinden. Bislang müssen alle Arrays chirurgisch ins Gehirn verpflanzt werden. Doch eines Tages gibt es hoffentlich Geräte, die neuronale Signale mit gleicher Präzision von außen durch die Schädeldecke senden und empfangen.

BCIs sind primär für Menschen mit schweren Lähmungen gedacht. Doch Sciencefiction-Autoren spekulieren bereits darüber, diese Technik einzusetzen, etwa um schneller laufen oder höher springen zu können, als es für einen Menschen möglich ist. Eine solche körperliche Verbesserung lässt sich aber nur erreichen, wenn einzelne Neurone ohne invasiv implantierte Arrays zielsicher erfasst werden können.

Grundlagenforschung wie diese ist nötig für Erkenntnisse, die wiederum Voraussetzungen für innovative Therapien darstellen. Erst wenn eine Entdeckung in eine praktische Anwendung mündet, hat ein solches Forschungsprojekt seine eigentliche Bestimmung gefunden. Für den Wissenschaftler bleibt die Genugtuung, sich mit einem gelähmten Patienten zu freuen, der über einen hirngesteuerten Roboterarm selbstständig mit der Außenwelt interagiert.

QUELLEN

Aflalo, T. et al.: Decoding motor imagery from the posterior parietal cortex of a tetraplegic human. Science 348, 2015

Armonta Salas, M. et al.: Proprioceptive and cutaneous sensations in humans elicited by intracortical microstimulation. eLife 7, e32904, 2018

Flesher, S. N. et al.: Intracortical microstimulation of human somatosensory cortex. Science Translational Medicine 8, 361ra141, 2016

Hochberg, L. R. et al.: Reach and grasp by people with tetraplegia using a neutrally controlled robotic arm. Nature 485, 2012

SERIE: Das menschliche Gehirn

Teil 1:
Februar 2020
Was ist Bewusstsein?
Christof Koch
Unsere inneren Universen
Anil K. Seth

Teil 2:
März 2020
Das Netzwerk des Geistes
Max Bertolero und Danielle S. Bassett
Ein Schaltplan fürs Gehirn
Sarah DeWeerdt

Teil 3:
April 2020
Die Intentionsmaschine
Richard Andersen
Der freie Wille und die Algorithmen
Liam Drew

AUF EINEN BLICK KOMMUNIKATION ZWISCHEN MENSCH UND MASCHINE

1 Gehirn-Computer-Schnittstellen sollen eine Kommunikation des Menschen mit einem Computer ermöglichen.

2 Ein solches Hirnimplantat erlaubt, motorische Befehle eines Querschnittsgelähmten etwa durch einen Roboterarm umsetzen zu lassen.

3 Statt in den motorischen Kortex eines Patienten implantiert die Arbeitsgruppe des Autors die Schnittstelle in ein Hirnareal, in dem die Intention zur Bewegung entsteht.