Brain2Robot

Wünsch dir was

EEG-gesteuerter Roboterarm lässt sich durch Gedanken steuern
Ein Blick und ein Gedanke genügen: Der Proband wünscht sich ein Glas Wasser – über das EEG werden die der Vorstellungen entsprechenden Signale aufgezeichnet, der Computer wertet sie aus und steuert den Roboterarm. (Foto: Born)
Menschen, die durch Unfälle oder schwere Krankheiten gelähmt sind, sind in vielen Situationen auf die Hilfe anderer angewiesen. Das Projekt Brain2Robot könnte Betroffenen einen Teil ihrer Selbstständigkeit zurückgeben. Dahinter steckt eine Schnittstelle, die aus Gehirnsignalen Steuersignale für den Computer macht.

Ein internationales Forscherteam hat im Projekt Brain2Robot eine Robotersteuerung auf der Basis von Elektroenzephalogramm-Signalen (EEG) entwickelt. Der EEG-gesteuerte Roboterarm soll gelähmten Menschen künftig einen Teil ihrer Freiheit zurückgeben können. Der Patient steuert den Roboterarm einfach mit seinen Gedanken: Denkt er daran, die rechte Hand zu bewegen, schaltet sich der Roboterarm ein.

Das funktioniert mit dem Brain-Computer Interface (BCI), kombiniert mit einem Eyetracker: Der Eyetracker stellt anhand des Blickes fest, wohin sich die Prothese, also zum Beispiel der Roboterarm, bewegen soll. Zwei Kameras, die an einer Spezialbrille befestigt sind, nehmen zunächst die Blickrichtung des Patienten auf; dabei wird die exakte Position der Pupillen erstmals in stereo erfasst (stereo eyetracking). Zusätzlich ermittelt ein Headtracker die Stellung des Kopfes. Eibe Software wertet die Daten beider Systeme aus und leitet daraus die intendierte Bewegungsrichtung ab. Der Proband sieht einen Gegenstand, blickt ihn an, denkt daran, seinen Arm zu bewegen – und der Roboter ergreift das gewünschte Objekt.

Anzeige

Forscher vom Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik (First) und der Charité Berlin arbeiten schon seit mehreren Jahren an der Entwicklung der Gehirn-Computer-Schnittstelle. Das Signal aus dem kliniküblichen EEG wird zu dieser Schnittstelle geleitet – und sie löst schließlich die Bewegung des Arms aus. Algorithmen werten die Signale mithilfe von Verfahren des maschinellen Lernens aus. Sie können Veränderungen in der Hirnaktivität erkennen, die durch bloße Vorstellung einer Verhaltensweise ausgelöst werden. Anschließend werden sie in Steuerbefehle für den Computer übersetzt. Die Hauptlernaufgabe liegt beim Computer – und nicht beim Menschen.

Der Fokus bei der Entwicklung des Brain2Robot liegt auf medizinischen Anwendungsbereichen, etwa auf der Steuerung von Prothesen und unterstützenden Robotern oder Rollstühlen. Im Rahmen der BCI-Forschung ist auch eine „mentale“ Schreibmaschine entstanden – ein Kommunikationsgerät, mit dem Schwerstgelähmte Buchstaben auswählen und Texte schreiben können. Auch andere Anwendungsfelder sind denkbar, zum Beispiel die Steuerung von Computerspielen sowie die Fahrerassistenz im Automobilbereich.
Das Projekt Brain2Robot wird auf Basis eines Marie Curie Excellence Grants gefördert. Weitere Partner und Förderer sind die Charité Berlin, die Technische Universität Berlin und das Bundesministerium für Bildung und Forschung. pb

Anzeige

Das könnte Sie auch interessieren

Anzeige

„Dahl Linear Move“

Aktionsradius vergrößert

Die Verfahreinheit „Dahl Linear Move“ von Rollon und Dahl Automation macht die leichten, flexiblen Roboter von Universal Robots mobil und erhöht ihre Reichweite. Das Komplettpaket besteht aus einer Rollon-Linearachse, einem B&R-Servoverstärker...

mehr...
Anzeige

Materialfluss gezielt optimieren

Die Prinzipien der schlanken Produktion, kompakt für Sie zusammengefasst. Informieren Sie sich im kostenfreien Leitfaden von item: Was heißt „lean“? Welche Schritte sind erforderlich? Hierbei liegt der Fokus auf dem Einsatz und Bau kosteneffizienter Betriebsmittel.

mehr...

Montageanlage

Alle 40 Sekunden ist die Baugruppe fertig

Die Automobilindustrie investiert nach wie vor in die Herstellung von Dieselantrieben. Sondermaschinenbauer MartinMechanic hat eine Anlage fertiggestellt, mit der Abschirmteile für Abgasanlagen von Dieselfahrzeugen montiert und verschweißt werden.

mehr...
Anzeige

Integriertes Leistungspaket

3D-Vision-Sensor am Roboter

Mit dem 3D-Vision Sensor von Fanuc lassen sich Aufnahmen während der Bewegung eines Roboters erstellen, die zur Bestimmung der Greifposition dienen. Diese „snap-in-motion“-Funktion spart bei schnellen Greifvorgängen Zeit, weil der Roboter für eine...

mehr...
Anzeige

Highlight der Woche

Schmal gebaut und direkt auf den Bodenroller
Das neue Palettierer-Modell der AST-Baureihe von Hirata vereint das schmalbauende Gestell der AST-Serie mit den Vorteilen der direkten De-/Palettierung von bzw. auf klassische Bodenroller.

Zum Highlight der Woche...
Anzeige

Highlight der Woche

Das Kompetenzzentrum Fabrikplanung von Hinterschwepfinger unterstützt Fertigungsunternehmen bei Neuplanung, Modernisierung und Restrukturierung von Standorten - für optimale Flächeneffizienz und Materialflüsse sowie intelligent integrierte Industrie-4.0-Lösungen.

Zum Highlight der Woche...

Integrierte Antriebe

Integrierte Antriebe

In Zeiten smarter und digitaler Automation erleben integrierte Antriebe aufgrund ihrer Dynamik und Flexibilität einen rasanten Aufschwung. Darauf verweist Heidrive und bietet auf Basis eines neuen, modularen Baukastens speziell konzipierte Antriebe...

mehr...

MRK-Einsätze

Vom Robot zum Cobot

Mit der Robotergeneration TX2 bietet Stäubli Sechsachser, die sowohl als Standardroboter als auch als Cobots einzusetzen sind. Dieses Konzept bringt Flexibilität und qualifiziert die Maschinen für Einsätze in der Automobil- und Zulieferindustrie.

mehr...
Zur Startseite