< Return to Video

Miguel Nicolelis: Ein Affe steuert einen Roboter – nur durch Gedanken!

  • 0:00 - 0:03
    Die Neurowissenschaft, die meine
    Kollegen und ich praktizieren
  • 0:03 - 0:05
    ähnelt der Meteorologie.
  • 0:05 - 0:09
    Wir suchen ständig nach Gewittern.
  • 0:09 - 0:14
    Wir beobachten und messen
    Gewitter – Geistesblitze.
  • 0:14 - 0:17
    Wir alle sprechen in unserem
    Alltagsleben über Geistesblitze,
  • 0:17 - 0:20
    aber wir sehen oder hören selten einen.
  • 0:20 - 0:22
    Ich beginne Vorträge gerne damit,
  • 0:22 - 0:25
    Ihnen einen davon vorzustellen.
  • 0:25 - 0:28
    Als wir erstmals mehr als
    ein Neuron aufgezeichnet haben –
  • 0:28 - 0:30
    hundert Gehirnzellen gleichzeitig –
  • 0:30 - 0:33
    konnten wir die elektrischen Entladungen
  • 0:33 - 0:35
    von hundert Zellen
    bei einem Tier messen,
  • 0:35 - 0:37
    das ist das erste Bild davon,
  • 0:37 - 0:39
    die ersten 10 Sekunden dieser Aufnahme.
  • 0:39 - 0:43
    Wir haben hier ein Gedankenbruchstück,
  • 0:43 - 0:46
    das wir vor uns sehen konnten.
  • 0:46 - 0:47
    Ich sage den Studenten,
  • 0:47 - 0:51
    dass man Neurowissenschaftler
    auch Astronomen nennen könnte,
  • 0:51 - 0:52
    denn es geht um ein System,
  • 0:52 - 0:55
    dessen Anzahl an Zellen
    nur vergleichbar ist
  • 0:55 - 0:58
    mit der Anzahl an
    Galaxien im Universum.
  • 0:58 - 1:01
    Wir haben von Milliarden von Neuronen,
  • 1:01 - 1:04
    vor 10 Jahren nur 100 aufgezeichnet.
  • 1:04 - 1:06
    Jetzt erfassen wir 1.000.
  • 1:06 - 1:11
    Wir hoffen, Wesentliches über
    die menschliche Natur zu erfahren.
  • 1:11 - 1:13
    Vielleicht war Ihnen das
    bisher nicht bewusst,
  • 1:13 - 1:18
    aber wir definieren die menschliche
    Natur ausschließlich über
  • 1:18 - 1:23
    diese Stürme, die über die Hügel
    und Täler unseres Gehirns rollen
  • 1:23 - 1:27
    und unsere Erinnerung,
    unsere Vorstellungen,
  • 1:27 - 1:30
    unsere Gefühle,
    unsere Zukunftspläne.
  • 1:30 - 1:32
    Alles was wir machen,
  • 1:32 - 1:37
    alles was ein Mensch je
    getan hat, tut oder tun wird,
  • 1:37 - 1:42
    erfordert den Einsatz von Neuronenpopulationen,
    um diese Gewitter zu erzeugen.
  • 1:42 - 1:45
    Der Klang eines Gehirnsturms,
    falls Sie noch keinen gehört haben,
  • 1:45 - 1:48
    ist ungefähr so.
  • 1:48 - 1:51
    Man kann es noch lauter drehen.
  • 1:51 - 1:58
    Mein Sohn nennt das
    "Popcorn machen, wenn das Radio rauscht".
  • 1:58 - 1:59
    Das ist ein Gehirn.
  • 1:59 - 2:03
    So klingen diese elektrischen Stürme
    über einen Lautsprecher.
  • 2:03 - 2:06
    Sie hören die Entladung hunderter Gehirnzellen,
  • 2:06 - 2:10
    so hört sich jedes Gehirn an.
  • 2:10 - 2:14
    Als Neurowissenschaftler wollen wir uns
  • 2:14 - 2:19
    diese Symphonien des Gehirns anhören,
  • 2:19 - 2:23
    und ihre Botschaften herausfiltern.
  • 2:23 - 2:26
    Vor etwa 12 Jahren schufen wir
  • 2:26 - 2:29
    ein Präparat, das wir die Schnittstelle
    von Gehirn und Maschine nannten.
  • 2:29 - 2:31
    Dieses Schema beschreibt, wie es funktioniert.
  • 2:31 - 2:37
    Die Sensoren sollen den Stürmen,
    dieser elektrischen Entladung, lauschen,
  • 2:37 - 2:40
    und feststellen, ob man in der Zeit,
    die der Sturm braucht,
  • 2:40 - 2:45
    um vom Gehirn zu den Beinen oder
    Armen eines Tieres zu gelangen –
  • 2:45 - 2:48
    etwa eine halbe Sekunde –
  • 2:48 - 2:50
    die Signale lesen kann,
  • 2:50 - 2:54
    die enthaltenen motorischen
    Signale entnehmen,
  • 2:54 - 2:56
    sie in digitale Befehle verwandeln
  • 2:56 - 2:58
    und sie an ein Gerät senden kann,
  • 2:58 - 3:04
    das die willkürliche Motorik
    des Gehirns in Echtzeit abbildet.
  • 3:04 - 3:08
    Wir beobachten, wie gut wir
    das Signal übertragen können,
  • 3:08 - 3:11
    im Vergleich zur
    körpereigenen Weise.
  • 3:11 - 3:14
    Und ob wir wirklich eine Rückkopplung
    über sensorische Signale
  • 3:14 - 3:20
    vom roboter-mechanischen,
    rechnerbasierten Auslöser,
  • 3:20 - 3:22
    der jetzt vom Gehirn kontrolliert wird,
  • 3:22 - 3:23
    zurück zum Gehirn, erzeugen können,
  • 3:23 - 3:25
    und wie das Gehirn Signale verarbeitet,
  • 3:25 - 3:30
    die von einem künstlichen
    Mechanismus ausgehen.
  • 3:30 - 3:33
    Genau das taten wir vor 10 Jahren.
  • 3:33 - 3:36
    Wir begannen mit dem
    Affen-Superstar Aurora,
  • 3:36 - 3:38
    der auf diesem Gebiet zu
    einem Superstar wurde.
  • 3:38 - 3:40
    Aurora spielte gerne Videospiele.
  • 3:40 - 3:42
    Wie Sie hier sehen,
  • 3:42 - 3:47
    sie benutzte, wie jeder von uns,
    beim Spielen gern einen Joystick.
  • 3:47 - 3:51
    Als braver Primat, versuchte sie sogar
    zu mogeln, um die richtige Antwort rauszufinden.
  • 3:51 - 3:56
    Sogar bevor ein Ziel erscheint,
    das sie mit dem
  • 3:56 - 3:58
    Joystick gesteuerten
    Cursor anzielen soll.
  • 3:58 - 4:02
    versucht Aurora das Ziel
    zu finden, egal wo es ist.
  • 4:02 - 4:04
    Und wenn sie das macht, erhält sie,
  • 4:04 - 4:07
    jedes Mal wenn sie das Ziel mit
    dem kleinen Cursor erfasst,
  • 4:07 - 4:10
    einen Tropfen brasilianischen Orangensafts.
  • 4:10 - 4:13
    Und jeder Affe wird alles für Sie tun,
  • 4:13 - 4:16
    wenn er einen Tropfen
    dieses Orangensafts bekommt.
  • 4:16 - 4:19
    Eigentlich würde das jeder Primat machen.
  • 4:19 - 4:20
    Überlegen Sie sich das mal.
  • 4:20 - 4:24
    Während Aurora dieses Spiel spielte
  • 4:24 - 4:26
    und tausend Versuche am Tag machte
  • 4:26 - 4:30
    und 97% richtig machte und
    350 ml Orangensaft bekam,
  • 4:30 - 4:33
    zeichneten wir die Gehirnstürme auf,
    die in ihrem Kopf enstanden
  • 4:33 - 4:35
    und sendeten sie an einen Roboterarm,
  • 4:35 - 4:39
    der lernte die Bewegungen
    Auroras zu reproduzieren.
  • 4:39 - 4:43
    Die Idee war diese Schnittstelle von
    Gehirn und Maschine einzuschalten
  • 4:43 - 4:47
    und Aurora dieses Spiel allein
    durch Denken spielen zu lassen,
  • 4:47 - 4:50
    ohne Eingriff ihres Körpers.
  • 4:50 - 4:53
    Ihre Gehirnströme würden
    einen Arm kontrollieren,
  • 4:53 - 4:56
    der den Cursor bewegt
    und das Ziel erfasst.
  • 4:56 - 4:59
    Zu unserem Entsetzen,
    tat Aurora genau das.
  • 4:59 - 5:03
    Sie spielte das Spiel,
    ohne ihren Körper zu bewegen.
  • 5:03 - 5:05
    Jede Bewegungslinie des Cursors,
    die Sie jetzt sehen,
  • 5:05 - 5:08
    ist vom ersten Moment,
    wo es ihr gelang.
  • 5:08 - 5:10
    Das ist das allererste Mal,
  • 5:10 - 5:17
    dass ein Gehirnbefehl vom physischen Bereich
    eines Primatenkörpers befreit wurde
  • 5:17 - 5:21
    und außerhalb davon agieren konnte,
  • 5:21 - 5:24
    allein durch Steuerung
    eines Geräts.
  • 5:24 - 5:29
    Und Aurora spielte weiter,
    fand weiter das kleine Ziel,
  • 5:29 - 5:32
    bekam weiterhin den
    Orangensaft, den sie wollte.
  • 5:32 - 5:39
    Sie tat das, weil sie damals
    einen neuen Arm bekommen hatte.
  • 5:39 - 5:42
    Der Roboterarm, den Sie hier 30 Tage
  • 5:42 - 5:45
    nach dem vorhin gezeigten Video
    in Bewegung sehen,
  • 5:45 - 5:47
    ist unter der Kontrolle
    von Auroras Gehirn
  • 5:47 - 5:51
    und bewegt den Cursor,
    um das Ziel zu erreichen.
  • 5:51 - 5:55
    Aurora weiß, dass Sie das Spiel mit Hilfe
    dieses Roboterarms spielen kann,
  • 5:55 - 6:00
    aber sie hat nicht die Fähigkeit verloren,
    ihren biologischen Arm zu benutzen.
  • 6:00 - 6:04
    Sie kann ihren Rücken und jeden von uns kratzen,
    sie kann auch etwas anderes spielen.
  • 6:04 - 6:06
    In jeder Hinsicht hatte
  • 6:06 - 6:10
    Auroras Gehirn das Gerät
  • 6:10 - 6:13
    als eine Erweiterung ihres Körpers integriert.
  • 6:13 - 6:16
    Auroras Selbstbild, das sie im Kopf hatte,
  • 6:16 - 6:20
    hatte sich erweitert, um einen
    weiteren Arm aufzunehmen.
  • 6:20 - 6:23
    Das haben wir vor 10 Jahren gemacht.
  • 6:23 - 6:26
    Spulen Sie bloß 10 Jahre vor.
  • 6:26 - 6:31
    Erst letztes Jahr merkten wir, dass wir
    nicht mal ein roboterhaftes Gerät brauchen.
  • 6:31 - 6:36
    Man baut einfach einen
    rechnerbasierten Körper, einen Affen-Avatar.
  • 6:36 - 6:40
    Diesen kann man nutzen, damit die Affen
    entweder damit interagieren können
  • 6:40 - 6:45
    oder man kann sie so trainieren,
    dass sie in einer künstlichen Welt
  • 6:45 - 6:48
    die Ich-Perspektive des Avatars einnehmen
  • 6:48 - 6:53
    und mit ihrem Gehirn die Bewegungen
    der Arme oder Beine des Avatars kontrollieren.
  • 6:53 - 6:56
    Grundsätzlich trainierten wir die Tiere,
  • 6:56 - 6:59
    damit sie lernten,
    diese Avatare zu kontrollieren
  • 6:59 - 7:03
    und Objekte in der
    virtuellen Welt zu erforschen.
  • 7:03 - 7:05
    Diese Objekte sind optisch identisch,
  • 7:05 - 7:09
    aber wenn der Avatar die Oberfläche
    dieser Objekte durchbricht,
  • 7:09 - 7:16
    senden sie ein elektrisches Signal,
    angepasst an die mikrotaktilen Textur des Objekts.
  • 7:16 - 7:20
    Dieses geht direkt an das Gehirn
    des Affen zurück
  • 7:20 - 7:25
    und teilt dem Gehirn mit,
    was der Avatar berührt.
  • 7:25 - 7:30
    In nur vier Wochen lernt das Gehirn
    diesen neuen Sinneseindruck zu verarbeiten
  • 7:30 - 7:36
    und erzeugt eine neue Sinnesbahn
    – ähnlich einem neuen Sinn.
  • 7:36 - 7:38
    Das Gehirn wird jetzt wirklich befreit,
  • 7:38 - 7:43
    denn es kann Befehle senden,
    um den Avatar zu bewegen.
  • 7:43 - 7:48
    Und die Rückmeldung vom Avatar
    wird direkt vom Gehirn verarbeitet,
  • 7:48 - 7:50
    ohne die Einbindung der Haut.
  • 7:50 - 7:53
    Hier sieht man den
    Aufbau dieser Aufgabe.
  • 7:53 - 7:57
    Sie sehen, wie ein Tier
    diese drei Ziele berührt.
  • 7:57 - 8:01
    Und er muss eins auswählen,
    denn nur eins führt zur Belohnung,
  • 8:01 - 8:03
    den Orangensaft, den sie haben wollen.
  • 8:03 - 8:09
    Und er muss es mit einem nicht
    existierenden, virtuellen Arm auswählen.
  • 8:09 - 8:11
    Und genau das machen sie.
  • 8:11 - 8:14
    Das ist eine völlige Befreiung des Gehirns
  • 8:14 - 8:19
    von physischen Beschränkungen des Körpers
    und der Motorik in einer Wahrnehmungsaufgabe.
  • 8:19 - 8:23
    Das Tier kontrolliert den Avatar,
    um die Ziele zu berühren.
  • 8:23 - 8:28
    Und es fühlt die Textur durch elektrische Signale,
    die er direkt im Gehirn empfängt.
  • 8:28 - 8:32
    Das Gehirn bestimmt dann, welche
    Textur mit der Belohnung verknüpft ist.
  • 8:32 - 8:36
    Die Beschriftungen, die Sie im
    Film sehen, sieht der Affe nicht.
  • 8:36 - 8:39
    Und außerdem lesen sie
    sowieso kein Englisch,
  • 8:39 - 8:44
    sind also nur für Sie, damit Sie wissen,
    dass das Ziel die Position wechselt.
  • 8:44 - 8:48
    Sie finden sie durch taktile Unterscheidung
  • 8:48 - 8:51
    und sie können sie
    drücken und auswählen.
  • 8:51 - 8:54
    Wenn wir nun die Gehirne
    dieser Tiere betrachten,
  • 8:54 - 8:57
    sieht man auf der obersten Tafel
    die Ausrichtung von 125 Zellen,
  • 8:57 - 9:02
    was zeigt, was mit der Gehirnaktivität
    passiert, den elektrischen Stürmen,
  • 9:02 - 9:04
    dieser Auswahl von
    Neuronen im Gehirn,
  • 9:04 - 9:06
    wenn das Tier einen Joystick benutzt.
  • 9:06 - 9:08
    Das ist ein Bild, das jeder Neurophysiologe kennt.
  • 9:08 - 9:13
    Die Grundausrichtung zeigt, dass diese Zellen
    für alle möglichen Richtungen kodiert sind.
  • 9:13 - 9:19
    Das untere Bild zeigt, was passiert,
    wenn der Körper sich nicht mehr bewegt
  • 9:19 - 9:25
    und das Tier beginnt, eine roboterhaftes Gerät
    oder einen Computer-Avatar zu kontrollieren.
  • 9:25 - 9:28
    So schnell wie wir unsere
    Computer neu einstellen können,
  • 9:28 - 9:34
    verlagert sich die Gehirnaktivität
    um dieses neue Werkzeug abzubilden,
  • 9:34 - 9:39
    als wenn es ein Körperteil des Primaten wäre.
  • 9:39 - 9:44
    Das Gehirn erfasst das schneller
    als wir messen können.
  • 9:44 - 9:48
    Das deutet darauf hin, dass unser Selbstbild
  • 9:48 - 9:52
    nicht bei der Haut
    unseres Körpers aufhört,
  • 9:52 - 9:58
    sondern beim letzten Elektron der Werkzeuge,
    die wir mit unseren Gehirnen steuern.
  • 9:58 - 10:02
    Unsere Violinen, Autos, Fahrräder,
    Fußbälle, Kleidung —
  • 10:02 - 10:09
    sie alle werden in das unersättliche,
    dynamische System namens Gehirn integriert.
  • 10:09 - 10:11
    Wie weit können wir das treiben?
  • 10:11 - 10:15
    In einem Experiment, das wir vor einigen
    Jahren machten, gingen wir ans Limit.
  • 10:15 - 10:18
    Wir hatten ein Tier, das in einer Tretmühle lief
  • 10:18 - 10:20
    — an der Duke Universität
    an der Ostküste der USA —
  • 10:20 - 10:23
    und das die notwendigen Gehirnstürme
    für die Bewegung produzierte.
  • 10:23 - 10:27
    Und es gab einen humanoiden Roboter,
  • 10:27 - 10:29
    in Kyoto, Japan, in den ATR-Laboratorien,
  • 10:29 - 10:35
    der sein ganzes Leben davon
    geträumt hatte, von einem Gehirn,
  • 10:35 - 10:38
    einem menschlichen oder einem
    Primatengehirn, kontrolliert zu werden.
  • 10:38 - 10:43
    Die Gehirnaktivität, die die
    Bewegung im Affen erzeugte,
  • 10:43 - 10:47
    wurde nach Japan gesendet
    und ließ den Roboter laufen,
  • 10:47 - 10:51
    während eine Videoaufzeichnung dieser
    Bewegung wieder an Duke gesendet wurde,
  • 10:51 - 10:56
    damit der Affe vor sich sah, wie sich
    die Beine des Roboters bewegten.
  • 10:56 - 11:00
    So wurde sie nicht für etwas belohnt,
    was ihr Körper machte,
  • 11:00 - 11:05
    sondern für jeden richtigen Schritt des Roboters
    auf der anderen Seite der Erde,
  • 11:05 - 11:07
    den sie mit ihrer Gehirnaktivität kontrollierte.
  • 11:07 - 11:15
    Witzigerweise brauchte die Reise
    um den Globus 20 Millisekunden weniger,
  • 11:15 - 11:19
    als der Geistesblitz braucht, um
    den Kopf des Affen zu verlassen
  • 11:19 - 11:23
    und seinen eigenen Muskel zu erreichen.
  • 11:23 - 11:29
    Der Affe bewegte einen Roboter, auf der anderen Seite des Planeten, der sechsmal größer war.
  • 11:29 - 11:35
    In diesem Experiment konnte
    der Roboter selbständig laufen.
  • 11:35 - 11:40
    Hier lebt CB1 gerade
    seinen Traum in Japan,
  • 11:40 - 11:44
    kontrolliert von der
    Gehirnaktivität eines Primaten.
  • 11:44 - 11:46
    Wie weit treiben wir das alles?
  • 11:46 - 11:48
    Was machen wir mit der ganzen Forschung,
  • 11:48 - 11:54
    außer das dynamische Universum
    zwischen unseren Ohren zu studieren?
  • 11:54 - 11:59
    Wir wollen mit diesem Wissen
    und dieser Technologie
  • 11:59 - 12:04
    eines der schwersten neurologischen
    Probleme der Welt auflösen.
  • 12:04 - 12:09
    Millionen von Menschen haben
    die Fähigkeit verloren, diese Hirnströme
  • 12:09 - 12:11
    in Bewegung umzusetzen.
  • 12:11 - 12:16
    Obwohl die Gehirne weiterhin diese
    Stürme und Bewegungscodes erzeugen,
  • 12:16 - 12:21
    gelangen sie nicht über die Barriere, die durch eine Verletzung des Rückenmarks entstanden ist.
  • 12:21 - 12:24
    Wir wollen einen Bypass schaffen,
  • 12:24 - 12:28
    um mit der Schnittstelle von Gehirn
    und Maschine diese Signale zu lesen,
  • 12:28 - 12:32
    größere Hirnstürme, die das Verlangen
    nach Bewegung in sich tragen,
  • 12:32 - 12:36
    umgehen die Verletzung unter
    Nutzung von Mikrotechnologie
  • 12:36 - 12:43
    und senden es an einen komplett
    neuen Korpus namens Ektoskelett,
  • 12:43 - 12:49
    ein Roboteranzug, der zum neuen
    Körper dieser Patienten wird.
  • 12:49 - 12:53
    Sie sehen hier ein Bild, das von
    dieser Gruppe produziert wurde.
  • 12:53 - 12:57
    Diese gemeinnützige Organisation
    nennt sich "Walk Again Project".
  • 12:57 - 13:00
    Sie führt Wissenschaftler
    zusammen, aus Europa,
  • 13:00 - 13:01
    den Vereinigten Staaten und Brasilien,
  • 13:01 - 13:06
    um diesen neuen Körper zu bauen –
  • 13:06 - 13:09
    ein Körper, der es uns ermöglicht, durch
    dieselben plastischen Mechanismen,
  • 13:09 - 13:15
    die Aurora und die anderen Affen ermächtigte, dieses Instrument über diese Schnittstelle zu nutzen,
  • 13:15 - 13:21
    die Hilfsmittel zu integrieren, die wir
    im Alltag produzieren und verwenden.
  • 13:21 - 13:24
    Wir hoffen, dass genau dieser Mechanismus
    diesen Patienten dazu befähigt,
  • 13:24 - 13:28
    sich die Bewegungen, die sie
    machen wollen, nicht nur vorzustellen
  • 13:28 - 13:31
    und in Bewegungen des
    neuen Körpers zu übertragen,
  • 13:31 - 13:38
    sondern dass dies als neuer, vom Gehirn
    gesteuerter, Körper einverleibt wird.
  • 13:38 - 13:42
    Vor 10 Jahren wurde mir gesagt,
  • 13:42 - 13:47
    dass es so gut wie unmöglich wäre.
  • 13:47 - 13:49
    Und ich kann Ihnen das nur als Wissenschaftler sagen,
  • 13:49 - 13:52
    der in den '60ern im Süden Brasiliens aufwuchs,
  • 13:52 - 13:58
    und ein paar Verrückte sah, die sagten,
    dass sie zum Mond gehen würden.
  • 13:58 - 13:59
    Ich war fünf Jahre alt
  • 13:59 - 14:03
    und ich habe nie verstanden, warum die NASA nicht Captain Kirk und Spock für den Job angeheuerte hat;
  • 14:03 - 14:06
    schließlich waren sie sehr erfahren –
  • 14:06 - 14:09
    aber das als Kind zu sehen,
  • 14:09 - 14:12
    ließ mich, wie meine Großmutter
    mir oft sagte, glauben,
  • 14:12 - 14:14
    dass "das Unmögliche nur das Mögliche ist,
  • 14:14 - 14:18
    um dessen Verwirklichung sich noch
    niemand genügend bemüht hat."
  • 14:18 - 14:22
    Sie sagten mir, es wäre unmöglich
    jemanden zum Laufen zu bringen.
  • 14:22 - 14:25
    Ich werde wohl den Rat
    meiner Großmutter befolgen.
  • 14:25 - 14:26
    Danke.
  • 14:26 - 14:34
    (Applaus)
Title:
Miguel Nicolelis: Ein Affe steuert einen Roboter – nur durch Gedanken!
Speaker:
Miguel Nicolelis
Description:

Können wir unser Gehirn benutzen, um Geräte direkt zu kontrollieren — ohne einen Körper dazwischen? Miguel Nicolelis erzählt von einem erstaunlichen Experiment, in dem ein schlauer Affe in den USA lernt, erst einen Affen-Avatar und dann einen Roboterarm in Japan, allein durch seine Gedanken, zu steuern. Diese Forschung hat große Auswirkungen für Tetraplegiker — und vielleicht für uns alle. (Gefilmt auf der TEDMED 2012.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:55

German subtitles

Revisions