En la frontera entre la ciencia y la ciencia ficción, los avances en interfaces cerebro-máquina han sido una de las áreas más emocionantes y esperanzadoras de la tecnología médica en las últimas décadas. Hasta ahora, nombres como Elon Musk y su proyecto Neuralink han dominado los titulares. Sin embargo, un nuevo estudio publicado en Chinese Academy of Sciences, ha dado un paso que algunos expertos consideran aún más impresionante: permitir que un hombre con parálisis controle no solo un ordenador, sino robots completos con sus pensamientos, sin necesidad de movimientos físicos.. Este logro no es un simple truco tecnológico: representa una evolución en cómo podemos reducir la barrera entre la mente y el mundo físico, ofreciendo posibilidades reales para personas con discapacidades motoras severas y redefiniendo la forma en que interactuamos con máquinas.. ¿Qué se ha logrado exactamente? El estudio, que se basa en años de trabajo en neurociencia computacional, registros de actividad cerebral y robótica avanzada, muestra que un hombre paralizado puede manejar robots complejos usando únicamente señales eléctricas de su cerebro. Esta tecnología se apoya en una interfaz no invasiva o mínimamente invasiva (según la configuración del estudio), que capta la actividad neuronal directamente desde la corteza cerebral y la traduce en órdenes claras para sistemas robóticos.. En términos prácticos, esto significa que el sistema puede interpretar intenciones mentales, como “mover brazo”, “agarrar objeto” o “cambiar dirección” y convertirlas en comandos ejecutables por un robot en tiempo real. El avance se probó en un paciente, Zhang, de 28 años, que debido a un accidente quedó paralizado de cuello para abajo. En el vídeo se lo puede ver controlando una silla de ruedas y también un robot que trae la compra.. Proyectos como Neuralink han mostrado interfaces cerebro-ordenador capaces de ayudar a personas con parálisis a escribir mensajes en una pantalla o mover un cursor con el pensamiento. Sin embargo, el avance chino va más allá por varias razones. Por ejemplo, en lugar de controlar un cursor o una aplicación, el participante del estudio fue capaz de dirigir robots con múltiples grados de libertad, algo que implica interpretar señales mucho más variadas y precisas del cerebro.. El sistema no solo interpreta pensamiento aislado, sino que lo integra con sensores físicos de retroalimentación, generando acciones complejas que requieren coordinación espacio-temporal, como mover un brazo robótico mientras se evita un obstáculo o se agarra un objeto con la fuerza adecuada. Aunque los detalles específicos del dispositivo varían según las condiciones del paciente, el enfoque apunta a una interfaz que no requiera cirugía cerebral intensiva, lo que puede hacerlo más accesible y seguro a largo plazo.. Pero ¿cómo funciona? Imagina que el cerebro es una central eléctrica de señales. Cada vez que queremos mover un dedo o pensar una intención, millones de neuronas se encienden en patrones específicos. Los autores han desarrollado algoritmos capaces de leer esos patrones y mapearlos directamente a acciones concretas del robot.. En el caso del participante del estudio, sensores captan la actividad cerebral desde la superficie o desde electrodos implantados de forma mínimamente invasiva. Luego, redes neuronales entrenadas decodifican esa actividad y la convierten en instrucciones robóticas. Es un proceso similar, en esencia, a aprender un lenguaje entre el cerebro humano y una máquina.. Este avance es trascendental por varias razones. Para personas con lesiones de la médula espinal o enfermedades neuromusculares severas como ELA, esta tecnología podría suponer la capacidad de interactuar con su entorno sin asistencia física continua. También nos acerca a un futuro de robots asistenciales que podrían operar en hospitales o incluso controlar maquinaria compleja en entornos peligrosos.. El avance logrado por el equipo chino va más allá de las expectativas de muchos en la comunidad científica: no es solo una alternativa a proyectos como Neuralink, sino una expansión del campo entero de las interfaces mente-máquina. Al permitir que la actividad cerebral controle robots complejos con precisión y confiabilidad, este desarrollo allana el camino para una generación de tecnologías que antes solo eran imaginadas en la ciencia ficción.
Ha sido probada en humanos, es mínimamente invasiva y no solo se utiliza con ordenadores, también con robots.
En la frontera entre la ciencia y la ciencia ficción, los avances en interfaces cerebro-máquina han sido una de las áreas más emocionantes y esperanzadoras de la tecnología médica en las últimas décadas. Hasta ahora, nombres como Elon Musk y su proyecto Neuralink han dominado los titulares. Sin embargo, un nuevo estudio publicado en Chinese Academy of Sciences, ha dado un paso que algunos expertos consideran aún más impresionante: permitir que un hombre con parálisis controle no solo un ordenador, sino robots completos con sus pensamientos, sin necesidad de movimientos físicos.. Este logro no es un simple truco tecnológico: representa una evolución en cómo podemos reducir la barrera entre la mente y el mundo físico, ofreciendo posibilidades reales para personas con discapacidades motoras severas y redefiniendo la forma en que interactuamos con máquinas.. ¿Qué se ha logrado exactamente? El estudio, que se basa en años de trabajo en neurociencia computacional, registros de actividad cerebral y robótica avanzada, muestra que un hombre paralizado puede manejar robots complejos usando únicamente señales eléctricas de su cerebro. Esta tecnología se apoya en una interfaz no invasiva o mínimamente invasiva (según la configuración del estudio), que capta la actividad neuronal directamente desde la corteza cerebral y la traduce en órdenes claras para sistemas robóticos.. En términos prácticos, esto significa que el sistema puede interpretar intenciones mentales, como “mover brazo”, “agarrar objeto” o “cambiar dirección” y convertirlas en comandos ejecutables por un robot en tiempo real. El avance se probó en un paciente, Zhang, de 28 años, que debido a un accidente quedó paralizado de cuello para abajo. En el vídeo se lo puede ver controlando una silla de ruedas y también un robot que trae la compra.. Proyectos como Neuralink han mostrado interfaces cerebro-ordenador capaces de ayudar a personas con parálisis a escribir mensajes en una pantalla o mover un cursor con el pensamiento. Sin embargo, el avance chino va más allá por varias razones. Por ejemplo, en lugar de controlar un cursor o una aplicación, el participante del estudio fue capaz de dirigir robots con múltiples grados de libertad, algo que implica interpretar señales mucho más variadas y precisas del cerebro.. El sistema no solo interpreta pensamiento aislado, sino que lo integra con sensores físicos de retroalimentación, generando acciones complejas que requieren coordinación espacio-temporal, como mover un brazo robótico mientras se evita un obstáculo o se agarra un objeto con la fuerza adecuada. Aunque los detalles específicos del dispositivo varían según las condiciones del paciente, el enfoque apunta a una interfaz que no requiera cirugía cerebral intensiva, lo que puede hacerlo más accesible y seguro a largo plazo.. Pero ¿cómo funciona? Imagina que el cerebro es una central eléctrica de señales. Cada vez que queremos mover un dedo o pensar una intención, millones de neuronas se encienden en patrones específicos. Los autores han desarrollado algoritmos capaces de leer esos patrones y mapearlos directamente a acciones concretas del robot.. En el caso del participante del estudio, sensores captan la actividad cerebral desde la superficie o desde electrodos implantados de forma mínimamente invasiva. Luego, redes neuronales entrenadas decodifican esa actividad y la convierten en instrucciones robóticas. Es un proceso similar, en esencia, a aprender un lenguaje entre el cerebro humano y una máquina.. Este avance es trascendental por varias razones. Para personas con lesiones de la médula espinal o enfermedades neuromusculares severas como ELA, esta tecnología podría suponer la capacidad de interactuar con su entorno sin asistencia física continua. También nos acerca a un futuro de robots asistenciales que podrían operar en hospitales o incluso controlar maquinaria compleja en entornos peligrosos.. El avance logrado por el equipo chino va más allá de las expectativas de muchos en la comunidad científica: no es solo una alternativa a proyectos como Neuralink, sino una expansión del campo entero de las interfaces mente-máquina. Alpermitir que la actividad cerebral controle robots complejos con precisión y confiabilidad, este desarrollo allana el camino para una generación de tecnologías que antes solo eran imaginadas en la ciencia ficción.
Noticias de Tecnología y Videojuegos en La Razón
