Brain2Robot

Wünsch dir was

EEG-gesteuerter Roboterarm lässt sich durch Gedanken steuern
Ein Blick und ein Gedanke genügen: Der Proband wünscht sich ein Glas Wasser – über das EEG werden die der Vorstellungen entsprechenden Signale aufgezeichnet, der Computer wertet sie aus und steuert den Roboterarm. (Foto: Born)
Menschen, die durch Unfälle oder schwere Krankheiten gelähmt sind, sind in vielen Situationen auf die Hilfe anderer angewiesen. Das Projekt Brain2Robot könnte Betroffenen einen Teil ihrer Selbstständigkeit zurückgeben. Dahinter steckt eine Schnittstelle, die aus Gehirnsignalen Steuersignale für den Computer macht.

Ein internationales Forscherteam hat im Projekt Brain2Robot eine Robotersteuerung auf der Basis von Elektroenzephalogramm-Signalen (EEG) entwickelt. Der EEG-gesteuerte Roboterarm soll gelähmten Menschen künftig einen Teil ihrer Freiheit zurückgeben können. Der Patient steuert den Roboterarm einfach mit seinen Gedanken: Denkt er daran, die rechte Hand zu bewegen, schaltet sich der Roboterarm ein.

Das funktioniert mit dem Brain-Computer Interface (BCI), kombiniert mit einem Eyetracker: Der Eyetracker stellt anhand des Blickes fest, wohin sich die Prothese, also zum Beispiel der Roboterarm, bewegen soll. Zwei Kameras, die an einer Spezialbrille befestigt sind, nehmen zunächst die Blickrichtung des Patienten auf; dabei wird die exakte Position der Pupillen erstmals in stereo erfasst (stereo eyetracking). Zusätzlich ermittelt ein Headtracker die Stellung des Kopfes. Eibe Software wertet die Daten beider Systeme aus und leitet daraus die intendierte Bewegungsrichtung ab. Der Proband sieht einen Gegenstand, blickt ihn an, denkt daran, seinen Arm zu bewegen – und der Roboter ergreift das gewünschte Objekt.

Anzeige

Forscher vom Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik (First) und der Charité Berlin arbeiten schon seit mehreren Jahren an der Entwicklung der Gehirn-Computer-Schnittstelle. Das Signal aus dem kliniküblichen EEG wird zu dieser Schnittstelle geleitet – und sie löst schließlich die Bewegung des Arms aus. Algorithmen werten die Signale mithilfe von Verfahren des maschinellen Lernens aus. Sie können Veränderungen in der Hirnaktivität erkennen, die durch bloße Vorstellung einer Verhaltensweise ausgelöst werden. Anschließend werden sie in Steuerbefehle für den Computer übersetzt. Die Hauptlernaufgabe liegt beim Computer – und nicht beim Menschen.

Der Fokus bei der Entwicklung des Brain2Robot liegt auf medizinischen Anwendungsbereichen, etwa auf der Steuerung von Prothesen und unterstützenden Robotern oder Rollstühlen. Im Rahmen der BCI-Forschung ist auch eine „mentale“ Schreibmaschine entstanden – ein Kommunikationsgerät, mit dem Schwerstgelähmte Buchstaben auswählen und Texte schreiben können. Auch andere Anwendungsfelder sind denkbar, zum Beispiel die Steuerung von Computerspielen sowie die Fahrerassistenz im Automobilbereich.
Das Projekt Brain2Robot wird auf Basis eines Marie Curie Excellence Grants gefördert. Weitere Partner und Förderer sind die Charité Berlin, die Technische Universität Berlin und das Bundesministerium für Bildung und Forschung. pb

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige

Cobots

Kollaboration mit sieben Achsen

Sieben-achsige Cobots. Mit dem Robotik-Ingenieur Kristian Kassow und seinen zwei Partnern steckt hinter dem 2014 in Kopenhagen gegründeten Start-Up Kassow Robots ein erfahrenes Gründerteam.

mehr...
Anzeige
Zur Startseite