< Return to Video

Miguel Nicolelis : Un singe qui contrôle un robot avec sa pensée. Oui, c'est vrai.

  • 0:00 - 0:03
    Le genre de neurosciences à laquelle
    mes collègues et moi nous nous consacrons,
  • 0:03 - 0:05
    est presque comme le présentateur de la météo.
  • 0:05 - 0:09
    On est à la recherche d'orages
    en permanence.
  • 0:09 - 0:14
    On veut voir et mesurer des orages -- c'est-à-dire des orages de cerveau -- ou brainstorm.
  • 0:14 - 0:17
    Et on parle tous de brainstorming
  • 0:17 - 0:20
    au quotidien, mais on en voit
    ou en écoute rarement un.
  • 0:20 - 0:22
    Alors j'aime bien commencer ces discours
  • 0:22 - 0:25
    en en présentant un.
  • 0:25 - 0:28
    En fait, la première fois qu'on a enregistré
    plus d'un neurone --
  • 0:28 - 0:30
    une centaine de cellules cérébrales en même temps --
  • 0:30 - 0:33
    on a pu mesurer les étincelles électriques
  • 0:33 - 0:35
    d'une centaine de cellules dans le même animal,
  • 0:35 - 0:37
    voici la première image qu'on a obtenue,
  • 0:37 - 0:39
    les 10 premières secondes
    de cet enregistrement.
  • 0:39 - 0:43
    Donc on a obtenu un petit fragment de pensée,
  • 0:43 - 0:46
    qu'on pouvait voir devant nos yeux.
  • 0:46 - 0:47
    Je dis tout le temps aux étudiants
  • 0:47 - 0:51
    qu'on pourrait aussi appeler les neuro-scientifiques des astronomes d'une certaine sorte,
  • 0:51 - 0:52
    parce qu'on a affaire à un système
  • 0:52 - 0:55
    qui est uniquement comparable
    en termes de nombre de cellules
  • 0:55 - 0:58
    au nombre de galaxies dans l'univers.
  • 0:58 - 1:01
    Et nous y voilà, enregistrant il y a 10 ans
  • 1:01 - 1:04
    une centaine de neurones
    sur les milliards qui existent.
  • 1:04 - 1:06
    Maintenant, on en enregistre un millier.
  • 1:06 - 1:11
    Et on espère comprendre quelque chose
    de fondamental sur notre nature humaine.
  • 1:11 - 1:13
    Parce que, au cas où vous ne le sauriez pas déjà,
  • 1:13 - 1:18
    tout ce qu'on utilise pour définir ce qu'est
    la nature humaine vient de ces orages,
  • 1:18 - 1:23
    de ces orages qui éclatent sur les collines
    et les vallées de nos cerveaux
  • 1:23 - 1:27
    et définissent nos souvenirs, nos croyances,
  • 1:27 - 1:30
    nos sentiments, nos plans pour le futur.
  • 1:30 - 1:32
    Tout ce qu'on a fait jusqu'ici,
  • 1:32 - 1:37
    tout ce que chaque être humain a fait, fait ou fera,
  • 1:37 - 1:42
    nécessite le dur labeur de populations entières de neurones qui produisent ce genre d'orages.
  • 1:42 - 1:45
    Et le son d'un orage de cerveau, au cas où
    vous n'en avez jamais entendu un,
  • 1:45 - 1:48
    ça ressemble à ça.
  • 1:48 - 1:51
    On peut monter le son si vous voulez.
  • 1:51 - 1:58
    Mon fils appelle ça "faire du popcorn en écoutant une station de radio grandes ondes mal réglée."
  • 1:58 - 1:59
    Ceci est un cerveau.
  • 1:59 - 2:03
    Voici ce qui arrive quand on branche
    ces orages électriques à des enceintes
  • 2:03 - 2:06
    et qu'on écoute une centaine de cellules
    du cerveau s'activer,
  • 2:06 - 2:10
    votre cerveau va faire ce genre de bruit
    -- mon cerveau, n'importe quel cerveau.
  • 2:10 - 2:14
    Et nous, neuroscientifiques,
    ce qu'on veut faire à cet instant,
  • 2:14 - 2:19
    c'est écouter ces symphonies,
    ces symphonies de cerveau,
  • 2:19 - 2:23
    et essayer d'en extraire
    les messages qu'elles contiennent.
  • 2:23 - 2:26
    En particulier, il y a environ 12 ans,
  • 2:26 - 2:29
    nous avons créé une préparation que nous avons appelée interfaces cerveau-machine.
  • 2:29 - 2:31
    Et voici un schéma qui montre
    comment ça marche.
  • 2:31 - 2:37
    L'idée c'est d'avoir des senseurs qui écoutent
    ces orages, ces incendies électriques,
  • 2:37 - 2:40
    et voir si on peut, pendant le temps
    que ça prend
  • 2:40 - 2:45
    à cet orage pour quitter le cerveau
    et atteindre les jambes ou les bras d'un animal
  • 2:45 - 2:48
    -- environ une demi-seconde --
  • 2:48 - 2:50
    voir si on peut lire ces signaux,
  • 2:50 - 2:54
    extraire les messages moteurs
    qui y sont intégrés,
  • 2:54 - 2:56
    les traduire en commandes digitales
  • 2:56 - 2:58
    et les envoyer à un équipement artificiel
  • 2:58 - 3:04
    qui reproduira la roue motrice volontaire
    de ce cerveau en temps réel.
  • 3:04 - 3:08
    Et voir si on peut mesurer la qualité
    de la traduction de ce message
  • 3:08 - 3:11
    en le comparant à la manière
    dont le corps se comporte.
  • 3:11 - 3:14
    Et si on arrive à fournir un retour,
  • 3:14 - 3:20
    des signaux sensoriels qui vont de cet
    équipement informatique, robotique, mécanique
  • 3:20 - 3:22
    qui est maintenant
    sous l'emprise du cerveau,
  • 3:22 - 3:23
    vers le cerveau,
  • 3:23 - 3:25
    comment le cerveau se comporte,
  • 3:25 - 3:30
    quand il reçoit des messages
    d'une machine artificielle.
  • 3:30 - 3:33
    Et c'est exactement
    ce qu'on a fait il y a 10 ans.
  • 3:33 - 3:36
    On a commencé avec un singe superstar
    qui s'appelle Aurora
  • 3:36 - 3:38
    et qui est devenu
    une des superstars dans ce domaine.
  • 3:38 - 3:40
    Aurora aimait jouer aux jeux vidéo.
  • 3:40 - 3:42
    Comme vous pouvez le voir ici,
  • 3:42 - 3:47
    elle aime utiliser un joystick, comme nous tous, comme tous nos enfants, pour jouer à ce jeu.
  • 3:47 - 3:51
    Et en bon primate, elle essaie même
    de tricher avant d'obtenir la bonne réponse.
  • 3:51 - 3:56
    Alors, avant même que n'apparaisse une cible qu'elle est censée marquer d'une croix
  • 3:56 - 3:58
    à l'aide du curseur qu'elle contrôle avec le joystick,
  • 3:58 - 4:02
    Aurora essaie de trouver la cible,
    peu importe où elle est.
  • 4:02 - 4:04
    Et si elle fait ça,
  • 4:04 - 4:07
    c'est parce que chaque fois qu'elle marque
    d'une croix cette cible avec le curseur,
  • 4:07 - 4:10
    on lui donne une goutte
    de jus d'orange du Brésil.
  • 4:10 - 4:13
    Et je peux vous dire que n'importe quel singe
    fait tout ce que vous voulez
  • 4:13 - 4:16
    tant que vous lui donnez une goutte
    de jus d'orange du Brésil.
  • 4:16 - 4:19
    En fait, c'est vrai pour n'importe quel primate.
  • 4:19 - 4:20
    Pensez-y.
  • 4:20 - 4:24
    Alors pendant qu'Aurora jouait à ce jeu,
    comme vous venez de le voir,
  • 4:24 - 4:26
    faisant un millier de tentatives par jour
  • 4:26 - 4:30
    et obtenant 97% de réponses correctes
    et 350 millilitres de jus d'orange,
  • 4:30 - 4:33
    on enregistrait les orages de cerveau
    qui se produisaient dans sa tête
  • 4:33 - 4:35
    et on les envoyait à un bras robotique
  • 4:35 - 4:39
    qui apprenait à reproduire
    les mouvements d'Aurora.
  • 4:39 - 4:43
    Parce que l'idée était en fait de faire fonctionner
    cette interface entre le cerveau et la machine
  • 4:43 - 4:47
    afin qu'Aurora puisse jouer
    en ne faisant que penser,
  • 4:47 - 4:50
    sans interférence avec son corps.
  • 4:50 - 4:53
    Ses orages de cerveau contrôleraient un bras
  • 4:53 - 4:56
    qui ferait bouger le curseur et
    marquerait la cible d'une croix.
  • 4:56 - 4:59
    Et à notre grande surprise,
    c'est exactement ce qu'Aurora a fait.
  • 4:59 - 5:03
    Elle a joué à ce jeu
    sans bouger son corps.
  • 5:03 - 5:05
    Alors la trajectoire du curseur
    que vous voyez maintenant,
  • 5:05 - 5:08
    est exactement le premier mouvement
    qu'elle a fait.
  • 5:08 - 5:10
    C'est l'instant même
  • 5:10 - 5:17
    où l'intention du cerveau a été libérée
    du domaine physique du corps d'un primate
  • 5:17 - 5:21
    et a pu agir à l'extérieur,
    dans ce monde extérieur,
  • 5:21 - 5:24
    en contrôlant simplement
    un équipement artificiel.
  • 5:24 - 5:29
    Et Aurora a continué à jouer,
    a continué à trouver la petite cible
  • 5:29 - 5:32
    et a continué à obtenir le jus d'orange
    qu'elle souhaitait, auquel elle aspirait.
  • 5:32 - 5:39
    Elle a continué parce qu'à ce moment-là,
    elle avait un nouveau bras.
  • 5:39 - 5:42
    Le bras robotique que vous voyez
    bouger ici 30 jours plus tard,
  • 5:42 - 5:45
    après la première vidéo
    que je vous ai montrée,
  • 5:45 - 5:47
    et sous le contrôle du cerveau d'Aurora
  • 5:47 - 5:51
    et qui déplace le curseur
    pour atteindre la cible.
  • 5:51 - 5:55
    Aurora sait maintenant qu'elle peut jouer
    à ce jeu en utilisant ce bras robotique,
  • 5:55 - 6:00
    mais elle n'a pas pour autant perdu
    sa capacité à utiliser son bras biologique
    pour faire ce qui lui plaît.
  • 6:00 - 6:04
    Elle peut se gratter le dos, elle peut gratter
    l'un d'entre-nous, et peut jouer à un autre jeu.
  • 6:04 - 6:06
    À toute fin utile et par tous les moyens,
  • 6:06 - 6:10
    le cerveau d'Aurora s'est approprié
    cet équipement artificiel
  • 6:10 - 6:13
    comme une extension de son corps.
  • 6:13 - 6:16
    La perception qu'Aurora
    avait d'elle-même à l'esprit
  • 6:16 - 6:20
    s'est trouvée modifiée par l'addition
    d'un bras supplémentaire.
  • 6:20 - 6:23
    Eh bien, on a fait ça il y a 10 ans.
  • 6:23 - 6:26
    Nous allons avancer de 10 ans.
  • 6:26 - 6:31
    L'année dernière, on a réalisé qu'on n'a
    même pas besoin d'un équipement robotique.
  • 6:31 - 6:36
    Il suffit de créer un corps virtuel,
    un avatar, un singe avatar.
  • 6:36 - 6:40
    Et en fait on peut l'utiliser
    soit pour interagir avec nos singes
  • 6:40 - 6:45
    soit pour les entraîner à s'approprier,
    dans un monde virtuel,
  • 6:45 - 6:48
    la perspective de cet avatar lui-même
  • 6:48 - 6:53
    et utiliser leur activité cérébrale pour contrôler
    le mouvement des bras ou des jambes de l'avatar.
  • 6:53 - 6:56
    En gros ce qu'on a fait,
    c'est entraîner les animaux
  • 6:56 - 6:59
    à apprendre comment contrôler ces avatars
  • 6:59 - 7:03
    et examiner des objets qui apparaissent
    dans le monde virtuel.
  • 7:03 - 7:05
    Et ces objets sont visuellement identiques
  • 7:05 - 7:09
    mais quand l'avatar touche
    la surface de ces objets,
  • 7:09 - 7:16
    ils envoient un message électrique qui est proportionnel à la texture micro tactile de l'objet
  • 7:16 - 7:20
    qui est envoyé directement
    au cerveau du singe,
  • 7:20 - 7:25
    informant ainsi le cerveau
    de ce que l'avatar touche.
  • 7:25 - 7:30
    Et en seulement quatre semaines, le cerveau apprend à incorporer cette nouvelle sensation
  • 7:30 - 7:36
    et acquiert un nouveau chemin sensoriel
    -- comme un nouveau sens.
  • 7:36 - 7:38
    À ce stade, on libère réellement le cerveau
  • 7:38 - 7:43
    parce qu'on lui permet d'envoyer des commandes motrices afin de déplacer cet avatar.
  • 7:43 - 7:48
    Et le feedback qui vient de l'avatar
    est traité directement par le cerveau
  • 7:48 - 7:50
    sans interférence de la peau.
  • 7:50 - 7:53
    Ce que vous voyez ici,
    c'est la conception de la tâche.
  • 7:53 - 7:57
    Vous allez voir un animal qui touche
    tout simplement ces trois cibles.
  • 7:57 - 8:01
    Et il doit en sélectionner une car seule l'une
    d'entre elles donne droit à une récompense,
  • 8:01 - 8:03
    le jus d'orange qu'il veut obtenir.
  • 8:03 - 8:09
    Et il doit la sélectionner en utilisant
    un bras virtuel, un bras qui n'existe pas.
  • 8:09 - 8:11
    Et c'est exactement ce qu'il fait.
  • 8:11 - 8:14
    C'est une libération totale du cerveau
  • 8:14 - 8:19
    des contraintes physiques du corps
    et de la motricité pour une tâche conceptuelle.
  • 8:19 - 8:23
    L'animal contrôle l'avatar
    pour atteindre les cibles.
  • 8:23 - 8:28
    Et il ressent la texture grâce à la réception d'un message électrique directement dans le cerveau.
  • 8:28 - 8:32
    Et le cerveau décide quelle texture
    associer à la récompense.
  • 8:32 - 8:36
    Le singe ne voit pas la légende
    que vous voyez dans la vidéo.
  • 8:36 - 8:39
    Et de toute façon, les singes ne parlent pas anglais,
  • 8:39 - 8:44
    donc elle est là uniquement pour que vous
    sachiez que la bonne cible change de position.
  • 8:44 - 8:48
    Et ils arrivent à la trouver
    grâce à la reconnaissance tactile,
  • 8:48 - 8:51
    et ils arrivent à appuyer sur la cible
    et à la sélectionner.
  • 8:51 - 8:54
    Alors quand on regarde
    le cerveau de ces animaux,
  • 8:54 - 8:57
    sur le panneau du haut, on voit
    l'alignement de 125 cellules
  • 8:57 - 9:02
    qui exposent l'activité cérébrale,
    les orages électriques,
  • 9:02 - 9:04
    de cet échantillon de neurones du cerveau
  • 9:04 - 9:06
    quand l'animal utilise un joystick.
  • 9:06 - 9:08
    Et c'est une photo
    que tout neurophysiologue connaît.
  • 9:08 - 9:13
    L'alignement basique montre que ces cellules
    ont un code pour toutes les directions possibles.
  • 9:13 - 9:19
    La photo du bas montre ce qui se passe
    quand le corps est immobile
  • 9:19 - 9:25
    et que l'animal commence à contrôler soit
    un appareil robotique, soit un avatar informatique.
  • 9:25 - 9:28
    Aussi vite qu'on arrive
    à redémarrer nos ordinateurs,
  • 9:28 - 9:34
    l'activité cérébrale se modifie
    pour représenter ce nouvel outil,
  • 9:34 - 9:39
    comme s'il faisait partie intégrante
    du corps du primate.
  • 9:39 - 9:44
    Le cerveau assimile ça aussi,
    aussi vite qu'on arrive à le mesurer.
  • 9:44 - 9:48
    Donc cela suggère que la perception
    que nous avons de nous-mêmes
  • 9:48 - 9:52
    ne s'arrête pas à la dernière couche
    d'épithélium de notre corps,
  • 9:52 - 9:58
    elle prend fin avec la dernière couche d'électrons des outils que nous contrôlons avec notre cerveau.
  • 9:58 - 10:02
    Nos violons, nos voitures, nos vélos,
    nos ballons de football, nos vêtements --
  • 10:02 - 10:09
    tous sont assimilés par cet incroyable et vorace système dynamique qu'on appelle le cerveau.
  • 10:09 - 10:11
    Jusqu'où peut-on aller ?
  • 10:11 - 10:15
    Eh bien, lors d'une expérience que
    nous avons menée il y a quelques années,
    on est allé jusqu'au bout.
  • 10:15 - 10:18
    Un animal courait sur un tapis de course
  • 10:18 - 10:20
    à l'Université de Duke
    sur la côte Est des États-Unis,
  • 10:20 - 10:23
    et produisait les orages de cerveau
    nécessaires au mouvement.
  • 10:23 - 10:27
    Et on avait disposé un appareil robotique,
    un robot humanoïde,
  • 10:27 - 10:29
    à Kyoto, au Japon,
    dans les laboratoires ATR
  • 10:29 - 10:35
    qui rêvait depuis toujours
    d'être contrôlé par un cerveau,
  • 10:35 - 10:38
    un cerveau humain,
    ou un cerveau de primate.
  • 10:38 - 10:43
    Et ce qui s'est passé, c'est qu'on a transmis
    au Japon l'activité cérébrale
  • 10:43 - 10:47
    qui générait les mouvements du singe
    et on a fait marcher le robot,
  • 10:47 - 10:51
    et on a renvoyé à Duke les images
    de cette marche,
  • 10:51 - 10:56
    afin que le singe puisse voir les jambes
    de ce robot marcher face à elle.
  • 10:56 - 11:00
    Ainsi elle pouvait être récompensée,
    non pas pour ce que son corps faisait
  • 11:00 - 11:05
    mais pour chaque pas correct du robot
    à l'autre bout de la planète,
  • 11:05 - 11:07
    contrôlé à l'aide son activité cérébrale.
  • 11:07 - 11:15
    Ce qui est amusant, c'est que cet aller-retour
    d'un point à l'autre du globe a pris
    20 millisecondes de moins
  • 11:15 - 11:19
    que le temps nécessaire à l'orage de cerveau
    pour quitter la tête, la tête du singe,
  • 11:19 - 11:23
    et atteindre son propre muscle.
  • 11:23 - 11:29
    Le singe déplaçait un robot qui était six fois
    plus gros, à l'autre bout de la planète.
  • 11:29 - 11:35
    C'est l'une des expériences durant laquelle
    ce robot a réussi à marcher de manière autonome,
  • 11:35 - 11:40
    Il s'agit de CB1 accomplissant
    son rêve au Japon
  • 11:40 - 11:44
    sous le contrôle de l'activité cérébrale
    d'un primate.
  • 11:44 - 11:46
    Mais que va-t-on faire de tout ça ?
  • 11:46 - 11:48
    Que va-t-on faire grâce à cette recherche,
  • 11:48 - 11:54
    si ce n'est étudier les propriétés de cet univers dynamique qui est entre nos oreilles ?
  • 11:54 - 11:59
    Eh bien l'idée, grâce à ce savoir
    et cette technologie
  • 11:59 - 12:04
    c'est d'essayer de résoudre un des problèmes neurologiques les plus graves qui existent.
  • 12:04 - 12:09
    Des millions de personnes perdent leur capacité
    à traduire ces orages de cerveau
  • 12:09 - 12:11
    en action, en mouvement.
  • 12:11 - 12:16
    Bien que leur cerveau continue à produire
    ces orages et codes pour les mouvements,
  • 12:16 - 12:21
    ils n'arrivent pas à franchir la barrière
    créée par une lésion à la moelle épinière.
  • 12:21 - 12:24
    Alors notre idée est
    de créer un détour,
  • 12:24 - 12:28
    d'utiliser ces interfaces cerveau-machine
    pour lire ces signaux,
  • 12:28 - 12:32
    des orages de cerveau à grande échelle qui contiennent le désir de bouger à nouveau,
  • 12:32 - 12:36
    de contourner la lésion en utilisant
    un micro-procédé informatique
  • 12:36 - 12:43
    et de l'envoyer à un corps nouveau,
    un corps entier appelé exosquelette,
  • 12:43 - 12:49
    un costume robotique entier qui deviendra
    le nouveau corps de ces patients.
  • 12:49 - 12:53
    Et vous voyez une image
    produite par ce consortium.
  • 12:53 - 12:57
    Il s'agit d'un consortium sans but lucratif,
    appelé le Projet Marcher à Nouveau,
  • 12:57 - 13:00
    qui rassemble des scientifiques d'Europe,
  • 13:00 - 13:01
    d'ici aux États-Unis et du Brésil
  • 13:01 - 13:06
    pour travailler à la réalisation
    effective de ce nouveau corps --
  • 13:06 - 13:09
    un corps qui selon nous,
    grâce aux mêmes mécanismes de plastique
  • 13:09 - 13:15
    qui permettent à Aurora et à d'autres singes d'utiliser ces outils à l'aide d'une
    interface cerveau-machine,
  • 13:15 - 13:21
    permette d'incorporer les outils que nous fabriquons et utilisons dans notre vie courante.
  • 13:21 - 13:24
    Nous espérons que ce même mécanisme
    permettra à ces patients
  • 13:24 - 13:28
    non seulement d'imaginer à nouveau
    les mouvements qu'ils souhaitent faire
  • 13:28 - 13:31
    et les traduire en mouvements
    de ce nouveau corps,
  • 13:31 - 13:38
    mais aussi d'assimiler ce nouveau corps contrôlé par le cerveau comme étant leur propre corps.
  • 13:38 - 13:42
    Alors on m'a dit il y a environ 10 ans
  • 13:42 - 13:47
    que ça n'arriverait jamais,
    que c'était quasiment impossible.
  • 13:47 - 13:49
    Et je ne peux que vous dire
    en tant que scientifique,
  • 13:49 - 13:52
    que j'ai grandi dans la partie Sud
    du Brésil au milieu des années 60
  • 13:52 - 13:58
    et je regardais quelques fous
    qui nous disaient qu'ils iraient sur la lune.
  • 13:58 - 13:59
    J'avais alors cinq ans,
  • 13:59 - 14:03
    et je n'ai jamais compris pourquoi la NASA n'a pas engagé le Capitaine Kirk et Spock pour faire ça ;
  • 14:03 - 14:06
    après tout, ils étaient des experts --
  • 14:06 - 14:09
    mais le fait d'avoir vu ça
    quand j'étais enfant
  • 14:09 - 14:12
    m'a porté à croire,
    comme ma grand-mère me disait,
  • 14:12 - 14:14
    que « ce qui est impossible est tout
    simplement quelque chose de possible
  • 14:14 - 14:18
    sans que quelqu'un n'aie fait l'effort
    suffisant pour que ça se réalise. »
  • 14:18 - 14:22
    Donc, on m'a dit que c'est impossible
    de faire marcher quelqu'un.
  • 14:22 - 14:25
    Je pense que je vais suivre
    le conseil de ma grand-mère.
  • 14:25 - 14:26
    Merci.
  • 14:26 - 14:34
    (Applaudissements)
Title:
Miguel Nicolelis : Un singe qui contrôle un robot avec sa pensée. Oui, c'est vrai.
Speaker:
Miguel Nicolelis
Description:

Peut-on utiliser notre cerveau pour contrôler directement des machines -- sans avoir besoin d'un corps pour faire l'intermédiaire ? Miguel Nicolelis présente une expérience étonnante, par laquelle un singe intelligent situé aux États-Unis apprend à contrôler un singe avatar, puis un bras-robot situé au Japon, uniquement à l'aide de sa pensée. Cette recherche a de vastes implications pour les quadraplégiques -- et peut-être pour nous tous. (Filmé à TEDMED 2012.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:55
Shadia Ramsahye approved French subtitles for A monkey that controls a robot with its thoughts. No, really. Mar 25, 2013, 1:21 PM
Shadia Ramsahye edited French subtitles for A monkey that controls a robot with its thoughts. No, really. Mar 25, 2013, 12:59 PM
Shadia Ramsahye edited French subtitles for A monkey that controls a robot with its thoughts. No, really. Mar 25, 2013, 12:59 PM
Hichem Merouche accepted French subtitles for A monkey that controls a robot with its thoughts. No, really. Mar 21, 2013, 12:54 AM
Hichem Merouche edited French subtitles for A monkey that controls a robot with its thoughts. No, really. Mar 21, 2013, 12:29 AM
Hichem Merouche edited French subtitles for A monkey that controls a robot with its thoughts. No, really. Mar 21, 2013, 12:29 AM
serge pizot edited French subtitles for A monkey that controls a robot with its thoughts. No, really. Mar 20, 2013, 10:13 PM
serge pizot edited French subtitles for A monkey that controls a robot with its thoughts. No, really. Mar 20, 2013, 10:13 PM
Show all

French subtitles

Revisions