Miguel Nicolelis: Un mono que controla un robot con sus pensamientos. De verdad.
-
0:00 - 0:03El tipo de neurociencia que hacemos mis colegas y yo
-
0:03 - 0:05es casi como de meteorólogo.
-
0:05 - 0:08Estamos siempre persiguiendo tormentas.
-
0:08 - 0:13Queremos ver y medir tormentas; tormentas de ideas, claro está.
-
0:13 - 0:16Todos hablamos de tormentas de ideas en nuestra vida cotidiana,
-
0:16 - 0:19pero rara vez vemos o escuchamos una.
-
0:19 - 0:21Por eso a mi me gusta comenzar siempre estas charlas
-
0:21 - 0:24presentando una.
-
0:24 - 0:28La primera vez que registramos más de una neurona,
-
0:28 - 0:30100 células cerebrales, simultáneamente,
-
0:30 - 0:32pudimos medir las chispas eléctricas
-
0:32 - 0:35de 100 células del mismo animal.
-
0:35 - 0:37Esta es la primera imagen que conseguimos,
-
0:37 - 0:39los primeros 10 segundos de esta grabación.
-
0:39 - 0:42Tomamos un pequeño fragmento de un pensamiento,
-
0:42 - 0:45y lo pudimos ver al frente.
-
0:45 - 0:46Siempre les digo a los estudiantes
-
0:46 - 0:50que también podríamos considerar a los neurocientíficos como una especie de astrónomos,
-
0:50 - 0:52porque estamos tratando con un sistema
-
0:52 - 0:55que solo es comparable, en términos del número de células,
-
0:55 - 0:58con el número de galaxias en el universo.
-
0:58 - 1:01Y aquí estamos hace 10 años,
-
1:01 - 1:04grabando apenas un centenar de los miles de millones de neuronas.
-
1:04 - 1:05Ahora lo hacemos con un millar.
-
1:05 - 1:11Y esperamos entender algo fundamental sobre la naturaleza humana.
-
1:11 - 1:13Porque, si no lo sabían,
-
1:13 - 1:18todo lo que utilizamos para definir la naturaleza humana proviene de estas tormentas
-
1:18 - 1:23que ruedan por las colinas y valles de nuestro cerebro
-
1:23 - 1:26y definen nuestros recuerdos, nuestras creencias,
-
1:26 - 1:29nuestros sentimientos, nuestros planes para el futuro.
-
1:29 - 1:31Todo lo que hacemos,
-
1:31 - 1:37lo que alguna vez ha hecho, hace o hará todo ser humano,
-
1:37 - 1:42requiere del trabajo de conglomerados de neuronas que producen este tipo de tormentas.
-
1:42 - 1:44Y el sonido de una tormenta de ideas, si no han escuchado uno,
-
1:44 - 1:48es algo parecido a esto.
-
1:48 - 1:51Se puede poner más fuerte si quieren.
-
1:51 - 1:57Mi hijo llama a esto "haciendo palomitas de maiz mientras se escucha una emisora AM mal sintonizada".
-
1:57 - 1:59Esto es un cerebro.
-
1:59 - 2:02Esto es lo que sucede cuando se enrutan estas tormentas eléctricas a un altavoz
-
2:02 - 2:05y se escucha un centenar de neuronas disparando.
-
2:05 - 2:10Tu cerebro sonará así; mi cerebro, cualquier cerebro.
-
2:10 - 2:14Y lo que queremos hacer como neurocientíficos actualmente
-
2:14 - 2:19es, en efecto, escuchar estas sinfonías del cerebro,
-
2:19 - 2:22y tratar de extraer de ellas los mensajes que llevan.
-
2:22 - 2:25En particular, hace unos 12 años,
-
2:25 - 2:28creamos lo que llamamos interfaz cerebro-máquina.
-
2:28 - 2:31Aquí se ve un esquema que describe cómo funciona.
-
2:31 - 2:36La idea es tener unos sensores que escuchan estas tormentas, estos disparos eléctricos,
-
2:36 - 2:40y ver si se puede, en el mismo tiempo que tarda
-
2:40 - 2:45esta tormenta en dejar el cerebro y llegar a las piernas o los brazos de un animal,
-
2:45 - 2:47cerca de medio segundo,
-
2:47 - 2:50ver si podemos leer estas señales,
-
2:50 - 2:53extractar el mensaje motor que está inmerso en ellas,
-
2:53 - 2:55traducirlo a comandos digitales
-
2:55 - 2:57y enviarlo a un dispositivo artificial
-
2:57 - 3:03que reproduzca el impulso motor voluntario de ese cerebro en tiempo real.
-
3:03 - 3:07Ver si podemos medir qué tan bien podemos traducir ese mensaje
-
3:07 - 3:11comparado con la forma como lo hace el cuerpo.
-
3:11 - 3:13Y ver si realmente podemos dar retroalimentación;
-
3:13 - 3:19señales sensoriales que regresen de este actor robótico, mecánico, computacional,
-
3:19 - 3:21ahora bajo el control del cerebro,
-
3:21 - 3:23de regreso al cerebro,
-
3:23 - 3:25y ver cómo el cerebro maneja esto
-
3:25 - 3:30de recibir mensajes de una máquina artificial.
-
3:30 - 3:32Eso es exactamente lo que hicimos hace 10 años.
-
3:32 - 3:35Empezamos con una mona llamada Aurora
-
3:35 - 3:37que se convirtió en una de las superestrellas en este campo.
-
3:37 - 3:40A Aurora le gustaban los videojuegos.
-
3:40 - 3:41Como se puede ver aquí,
-
3:41 - 3:46le gustaba usar un comando, como a cualquiera de nosotros, de nuestros hijos, para este juego.
-
3:46 - 3:51Y como buena primate, incluso intenta hacer trampa para obtener la respuesta correcta.
-
3:51 - 3:55Incluso antes de que aparezca el objetivo que ella debe cazar
-
3:55 - 3:58con el cursor que está controlando con este comando,
-
3:58 - 4:02Aurora trata de dar con el objetivo, adivinando.
-
4:02 - 4:03Y si ella está haciendo eso,
-
4:03 - 4:07es porque cada vez que caza el objetivo con el pequeño cursor,
-
4:07 - 4:10consigue una gota de jugo de naranja brasileño.
-
4:10 - 4:13Y puedo decirles que cualquier mono hará lo que sea,
-
4:13 - 4:16si consigue una pequeña gota de jugo de naranja brasileño a cambio.
-
4:16 - 4:18A decir verdad, cualquier primate lo hará.
-
4:18 - 4:20Piensen en eso.
-
4:20 - 4:23Bien, mientras Aurora estaba jugando este juego, como vieron,
-
4:23 - 4:26haciendo mil ensayos al día
-
4:26 - 4:29consiguiendo un 97 % de aciertos y 350 ml de jugo de naranja,
-
4:29 - 4:33estábamos grabando las sesiones de tormenta de ideas que se producían en su cabeza
-
4:33 - 4:34y enviándolas a un brazo robótico
-
4:34 - 4:38que estaba aprendiendo a reproducir los movimientos que hacía Aurora.
-
4:38 - 4:42Porque la idea era hacer realidad esta interfaz cerebro-máquina
-
4:42 - 4:47y tener a Aurora jugando solo con el pensamiento,
-
4:47 - 4:49sin la interferencia de su cuerpo.
-
4:49 - 4:52Sus tormentas cerebrales controlarían un brazo
-
4:52 - 4:55que movería el cursor y cazaría el objetivo.
-
4:55 - 4:58Y para nuestro asombro, eso fue exactamente lo que hizo Aurora.
-
4:58 - 5:02Ella jugaba sin mover su cuerpo.
-
5:02 - 5:05Cada trayectoria del cursor que están viendo,
-
5:05 - 5:08corresponde a la primera vez que ella lo logró.
-
5:08 - 5:10Esta es exactamente la primera vez
-
5:10 - 5:16en que una orden del cerebro fue liberada de los dominios físicos del cuerpo de un primate
-
5:16 - 5:20y pudo actuar afuera, en el mundo exterior,
-
5:20 - 5:23simplemente controlando un dispositivo artificial.
-
5:23 - 5:28Y Aurora se mantuvo jugando, tratando de encontrar el pequeño objetivo
-
5:28 - 5:32y consiguiendo el jugo de naranja que quería, que anhelaba.
-
5:32 - 5:39Lo hizo porque ella, en ese momento, había adquirido un nuevo brazo.
-
5:39 - 5:42El brazo robótico que ven moviéndose aquí, 30 días
-
5:42 - 5:44después del primer video que les mostré,
-
5:44 - 5:47está bajo el control del cerebro de Aurora,
-
5:47 - 5:50y ella mueve el cursor para alcanzar el objetivo.
-
5:50 - 5:54Aurora ahora sabe que puede jugar con este brazo robótico.
-
5:54 - 6:00Pero no ha perdido la capacidad de utilizar sus brazos biológicos para hacer lo que le agrada.
-
6:00 - 6:04Puede rascarse la espalda, puede rascar a uno de nosotros, puede jugar otro juego.
-
6:04 - 6:05Para todos los fines y propósitos,
-
6:05 - 6:10el cerebro de Aurora ha incorporado ese dispositivo artificial
-
6:10 - 6:12como una extensión de su cuerpo.
-
6:12 - 6:16La imagen de sí misma que ella tenía en su mente
-
6:16 - 6:20se ha ampliado con un brazo adicional.
-
6:20 - 6:22Esto fue hace 10 años.
-
6:22 - 6:25Demos un salto rápido adelante de 10 años.
-
6:25 - 6:30El año pasado nos dimos cuenta que ni siquiera es necesario tener un dispositivo robótico.
-
6:30 - 6:36Se puede simplemente crear un cuerpo computacional, un avatar, un avatar de mono.
-
6:36 - 6:40Se lo puede usar bien sea para que los monos interactúen con él,
-
6:40 - 6:44o para entrenarlos para asumir la perspectiva
-
6:44 - 6:47de primera persona de ese avatar, en un mundo virtual,
-
6:47 - 6:53y usar su actividad cerebral para controlar los movimientos de brazos o piernas del avatar.
-
6:53 - 6:56Y lo que hicimos básicamente fue entrenar a los animales
-
6:56 - 6:59para aprender a controlar esos avatares
-
6:59 - 7:03y explorar los objetos que aparecen en el mundo virtual.
-
7:03 - 7:05Estos objetos son visualmente idénticos,
-
7:05 - 7:09pero cuando el avatar caza la superficie de estos objetos,
-
7:09 - 7:15mandan un mensaje eléctrico según la textura microtáctil del objeto
-
7:15 - 7:19que vuelve directamente al cerebro del mono,
-
7:19 - 7:24informándole lo que el avatar está tocando.
-
7:24 - 7:29Y en solo 4 semanas, el cerebro aprende a procesar esta nueva sensación
-
7:29 - 7:35y adquiere una nueva vía sensorial, como un nuevo sentido.
-
7:35 - 7:38El cerebro está efectivamente liberado ahora
-
7:38 - 7:42porque se le permite enviar comandos motores para mover el avatar
-
7:42 - 7:47y la retroalimentación que proviene del avatar es procesada directamente por el cerebro,
-
7:47 - 7:50sin interferencia de la piel.
-
7:50 - 7:52Lo que ven aquí es el diseño de la tarea.
-
7:52 - 7:57Van a ver un animal que, básicamente, toca estos 3 objetivos
-
7:57 - 8:01y que tiene que seleccionar uno, porque solo uno tiene recompensa,
-
8:01 - 8:03el deseado jugo de naranja.
-
8:03 - 8:08Debe seleccionarlo por tacto, usando un brazo virtual, un brazo que no existe.
-
8:08 - 8:10Y eso es exactamente lo que hacen.
-
8:10 - 8:14Se trata de una liberación completa del cerebro
-
8:14 - 8:18de las restricciones físicas del cuerpo y del sistema motor, en una tarea perceptual.
-
8:18 - 8:22El animal está controlando el avatar para tocar los objetivos.
-
8:22 - 8:28Y siente la textura al recibir un mensaje eléctrico directamente en el cerebro.
-
8:28 - 8:32El cerebro está decidiendo la textura asociada con la recompensa.
-
8:32 - 8:36Las leyendas que se ven en la película no aparecen para el mono.
-
8:36 - 8:38Y por cierto, de todas formas no sabe leer,
-
8:38 - 8:43Estan ahí solo para que ustedes sepan que el objetivo correcto está cambiando de posición.
-
8:43 - 8:47Y aún así, ellos son capaces de encontrarlos por discriminación táctil,
-
8:47 - 8:50y son capaces de presionar y seleccionarlo.
-
8:50 - 8:53Observamos los cerebros de estos animales y
-
8:53 - 8:57en el panel superior se puede ver la alineación de 125 células
-
8:57 - 9:01que muestran lo que sucede con la actividad del cerebro, las tormentas eléctricas
-
9:01 - 9:03de esa muestra de neuronas en el cerebro
-
9:03 - 9:05cuando el animal está usando un comando.
-
9:05 - 9:08Esta es una imagen que todo neurofisiólogo reconoce.
-
9:08 - 9:13La alineación básica muestra que estas células están codificadas para todas las direcciones posibles.
-
9:13 - 9:19En la foto de abajo está lo que ocurre cuando el cuerpo se detiene
-
9:19 - 9:25y el animal comienza a controlar un dispositivo robótico o un avatar computacional.
-
9:25 - 9:28No hemos acabado de reiniciar las computadoras,
-
9:28 - 9:34cuando la actividad cerebral cambia para empezar a representar esta nueva herramienta,
-
9:34 - 9:39como si fuera una parte más del cuerpo de ese primate.
-
9:39 - 9:44El cerebro está asimilando eso también, tan rápido que casi no podemos medirlo.
-
9:44 - 9:47Esto nos sugiere que nuestro sentido del yo
-
9:47 - 9:51no termina en la última capa del epitelio del cuerpo,
-
9:51 - 9:57sino que termina en la última capa de electrones de las herramientas que manejamos con el cerebro.
-
9:57 - 10:02Nuestros violines, nuestros coches, nuestras bicicletas, los balones de fútbol, nuestra ropa,
-
10:02 - 10:09todos son asimilados por este sistema voraz, asombroso, dinámico, llamado cerebro.
-
10:09 - 10:10¿Qué tan lejos podemos llevar esto?
-
10:10 - 10:15Verán. En un experimento que hicimos hace unos años, lo llevamos al límite.
-
10:15 - 10:17Pusimos un animal a correr en una caminadora
-
10:17 - 10:19en la Universidad de Duke, en la costa este de los EE.UU.,
-
10:19 - 10:22produciendo las tormentas de ideas necesarias para moverse.
-
10:22 - 10:26Teniamos un dispositivo robótico, un robot humanoide,
-
10:26 - 10:29en Kyoto, Japón, en los laboratorios ATR,
-
10:29 - 10:35que estaba esperando toda su vida ser controlado por un cerebro,
-
10:35 - 10:38un cerebro humano, o uno de primate.
-
10:38 - 10:43Y sucedió que la actividad del cerebro del mono que generaba los movimientos
-
10:43 - 10:46fue transmitida a Japón e hizo que este robot caminara
-
10:46 - 10:50mientras tanto las imágenes de esta caminata fueron devueltas a Duke,
-
10:50 - 10:55para que el mono pudiera ver las piernas del robot caminar frente a el.
-
10:55 - 10:59La recompensa, no era por lo que estaba haciendo su cuerpo,
-
10:59 - 11:04sino por cada paso correcto del robot controlado por su actividad cerebral
-
11:04 - 11:07al otro lado del planeta.
-
11:07 - 11:14Lo divertido es que el viaje redondo alrededor de la Tierra tomó 20 milisegundos menos
-
11:14 - 11:18de lo que tarda esta tormenta en salir de la cabeza del mono,
-
11:18 - 11:22y llegar a sus músculos.
-
11:22 - 11:28El mono estaba moviendo un robot 6 veces más grande que él en el otro extremo del planeta.
-
11:28 - 11:35Este es uno de los experimentos en que ese robot pudo caminar autónomamente.
-
11:35 - 11:40Este es CB1 cumpliendo su sueño en Japón
-
11:40 - 11:43bajo el control de la actividad del cerebro de un primate.
-
11:43 - 11:45¿Hasta dónde vamos a llevar todo esto?
-
11:45 - 11:48¿Qué vamos a hacer con toda esta investigación,
-
11:48 - 11:53además de estudiar las propiedades de este universo dinámico que tenemos entre oreja y oreja?
-
11:53 - 11:58Verán. La idea es tomar todo este conocimiento y tecnología
-
11:58 - 12:04para tratar de resolver uno de los más graves problemas neurológicos del mundo.
-
12:04 - 12:08Millones de personas han perdido la capacidad para traducir estas tormentas cerebrales
-
12:08 - 12:11en acción, en movimiento.
-
12:11 - 12:16Aunque sus cerebros continúan produciendo esas tormentas y códigos para el movimiento,
-
12:16 - 12:21no pueden cruzar una barrera creada por una lesión en la médula espinal.
-
12:21 - 12:23Así, nuestra idea es crear un puente,
-
12:23 - 12:27utilizar estas interfaces cerebro-máquina para leer esas señales,
-
12:27 - 12:31esas tormentas cerebrales de gran escala que contienen el deseo de moverse otra vez,
-
12:31 - 12:35sortear la lesión usando la microtécnica computacional
-
12:35 - 12:43y enviarlas a un nuevo cuerpo, un cuerpo entero llamado exoesqueleto,
-
12:43 - 12:48un traje entero robótico que se convertirá en el nuevo cuerpo de estos pacientes.
-
12:48 - 12:52Pueden ver una imagen producida por un consorcio.
-
12:52 - 12:56Se trata de un consorcio sin ánimo de lucro llamado Proyecto Volver a Caminar,
-
12:56 - 12:59que ha puesto a trabajar juntos a científicos de Europa,
-
12:59 - 13:01de aquí de los EE.UU. y de Brasil
-
13:01 - 13:05para lograr efectivamente construir este nuevo cuerpo.
-
13:05 - 13:09Un cuerpo que con los mismos mecanismos plásticos
-
13:09 - 13:15que permiten a Aurora y a otros monos utilizar estas herramientas a través de una interfaz cerebro-máquina,
-
13:15 - 13:20nos permita incorporar las herramientas que producimos y utilizamos en nuestra vida diaria.
-
13:20 - 13:24Este mismo mecanismo, esperamos, permitirá que estos pacientes,
-
13:24 - 13:28no solo imaginen otra vez los movimientos que quieren hacer
-
13:28 - 13:31y que los traduzcan en movimientos para este nuevo cuerpo,
-
13:31 - 13:38sino que este sea asimilado como el nuevo cuerpo que el cerebro controla.
-
13:38 - 13:41Me dijeron hace unos 10 años
-
13:41 - 13:47que esto nunca pasaría, que esto estaba cerca de lo imposible.
-
13:47 - 13:49Solo diré que
-
13:49 - 13:52crecí en el sur de Brasil a mediados de los 60
-
13:52 - 13:57viendo a unos locos diciéndo que irían a la luna.
-
13:57 - 13:58Yo tenía 5 años,
-
13:58 - 14:03y no entendía por qué la NASA no contrataba al capitán Kirk y a Spock para hacer el trabajo;
-
14:03 - 14:05¿no eran acaso bien eficientes?
-
14:05 - 14:09Pero fue ver esto de niño
-
14:09 - 14:12lo que me hizo creer, como mi abuela solía decirme,
-
14:12 - 14:13"imposible es solo lo posible
-
14:13 - 14:17que nadie se ha esforzado lo suficiente en realizar".
-
14:17 - 14:21Me dijeron que es imposible hacer que alguien impedido camine.
-
14:21 - 14:24Creo que voy a seguir el consejo de mi abuela.
-
14:24 - 14:26Gracias.
-
14:26 - 14:34(Aplausos)
- Title:
- Miguel Nicolelis: Un mono que controla un robot con sus pensamientos. De verdad.
- Speaker:
- Miguel Nicolelis
- Description:
-
¿Podemos utilizar nuestro cerebro para controlar directamente máquinas, sin necesidad de un cuerpo como intermediario? Miguel Nicolelis habla de un experimento sorprendente en el que un mono inteligente en Estados Unidos aprende a controlar un avatar de mono y luego un robot en Japón, únicamente con sus pensamientos. La investigación tiene grandes implicaciones para personas cuadripléjicas... y tal vez para todos nosotros. (Filmado en TEDMED 2012).
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:55
![]() |
Francisco Gnecco approved Spanish subtitles for A monkey that controls a robot with its thoughts. No, really. | |
![]() |
Francisco Gnecco edited Spanish subtitles for A monkey that controls a robot with its thoughts. No, really. | |
![]() |
Francisco Gnecco edited Spanish subtitles for A monkey that controls a robot with its thoughts. No, really. | |
![]() |
Francisco Gnecco edited Spanish subtitles for A monkey that controls a robot with its thoughts. No, really. | |
![]() |
Carlos Arturo Morales accepted Spanish subtitles for A monkey that controls a robot with its thoughts. No, really. | |
![]() |
Carlos Arturo Morales edited Spanish subtitles for A monkey that controls a robot with its thoughts. No, really. | |
![]() |
Carlos Arturo Morales edited Spanish subtitles for A monkey that controls a robot with its thoughts. No, really. | |
![]() |
Carlos Arturo Morales edited Spanish subtitles for A monkey that controls a robot with its thoughts. No, really. |