La robótica y la inteligencia artificial llevan décadas intentando imitar al ser humano, no solo en su forma o en sus cálculos, sino también en su manera de percibir el mundo. Hasta ahora, los robots eran máquinas que “veían” con cámaras, “escuchaban” con micrófonos y finalmente actuaban según instrucciones programadas. Sin embargo, faltaba algo esencial: la capacidad de sentir el entorno de forma visceral. El último avance en este terreno propone un concepto enormemente ambicioso: dotar a las máquinas de una piel que detecta estímulos físicos complejos (incluido lo que podríamos llamar “dolor”) de manera similar al sentido táctil humano.. Un equipo de científicos de las universidades de Shanghái y Hong Kong, ha desarrollado una piel robótica flexible y conductora capaz de funcionar como un sensor completo, no un conjunto de sensores fragmentados, como ocurre tradicionalmente. Esta superficie sintética puede transformar toda una mano robótica en una red sensorial capaz de detectar presión, temperatura, daños e incluso múltiples puntos de contacto al mismo tiempo, gracias a una estructura interna con más de 860.000 vías microscópicas que transmiten señales eléctricas.. A diferencia de las tecnologías precedentes, que requerían sensores especializados (uno para presión, otro para temperatura y un tercero para fuerza), la piel desarrollada por los científicos chinos y descrita en un estudio publicado en Proceedings of the National Academy of Sciences actúa como un único sensor multimodal. Esto es algo parecido a la piel humana, un órgano que recoge distintos tipos de estímulos y los traslada al sistema nervioso para su interpretación.. Ahora viene la pregunta lógica: ¿Qué significa que un robot “sienta”? Cuando hablamos de un robot que “siente”, no nos referimos a consciencia o experiencia subjetiva como los humanos, sino a la capacidad de detectar y procesar estímulos dañinos o críticos, y responder de manera automática y eficiente. En términos funcionales, ese “dolor” artificial equivale a una alerta sobre daño físico, potencial o real, que desencadena acciones para proteger el sistema. Esta noción, en robótica, se denomina nocicepción artificial, y busca imitar la función biológica de los receptores del dolor que tenemos en la piel.. En la práctica, una piel robótica sensible permite que un robot no solo detecte, por ejemplo, la fuerza de un apretón, sino también que identifique cuándo un objeto es demasiado caliente, demasiado frío, o incluso cuando la superficie ha sufrido un corte o un pinchazo. Esto se traduce en mayor seguridad y un comportamiento más sofisticado en interacción con humanos y entornos complejos.. Para que un robot pueda desempeñarse de forma segura y eficaz en contextos complejos, debe tener un entendimiento más fino del mundo físico. La piel robótica no solo detecta un toque: puede aprender de las señales sensoriales para discriminar el tipo de interacción y adaptar su respuesta. Esta capacidad de percepción es una pieza clave para que las máquinas puedan colaborar con las personas sin causar daño y con un nivel de sofisticación sensorial que hasta ahora solo se encontraba en los seres vivos.. Este tipo de “sensibilidad robótica” abre posibilidades importantes. Por un lado, puede mejorar la seguridad en robots diseñados para trabajar cerca o con humanos, identificando estímulos que podrían resultar peligrosos para las personas o para la propia máquina. Por otro lado, la piel robótica de tipo multimodal podría ser un elemento fundamental en la evolución de prótesis avanzadas, donde la percepción sensorial es crucial para la funcionalidad y la integración con el usuario.. Además, este avance no solo afecta al “cuerpo” de los robots, sino también a cómo estos procesan y aprenden de su interacción con el mundo. El uso de técnicas de aprendizaje automático para interpretar las señales recogidas por la piel permite que la red sensorial “entienda” qué tipo de contacto se ha producido, mejorando con el tiempo su capacidad de interpretación y respuesta.. Es importante aclarar que, aunque en el lenguaje coloquial se hable de robots que “sienten dolor”, esto no implica que las máquinas tengan experiencias subjetivas o consciencia del sufrimiento como los seres humanos o los animales. La nocicepción artificial se basa en un procesamiento sofisticado de señales físicas, similares a un reflejo sensorial automatizado, pero no en una experiencia interna consciente. Los investigadores destacan que esta capacidad no equivale a “sentir” en el sentido humano, sino más bien a reconocer estímulos potencialmente dañinos y reaccionar para protegerse o proteger a otros.. Este tipo de distinción es crucial: un robot puede reaccionar ante una señal nociva, obedecer protocolos de seguridad y adaptar su comportamiento, pero no tiene una experiencia emocional asociada a ese estímulo como lo hacen los seres vivos. La intención de los científicos que trabajan en esta línea no es convertir a las máquinas en entidades conscientes, sino dotarlas de mecanismos de sensación que mejoren su autonomía, seguridad y utilidad práctica.. ¿Y qué viene después? Este avance es apenas un paso en una dirección que podría marcar el futuro de la cobots o robots colaborativos, y de la robótica general: máquinas que no solo perciben el mundo con sensores externos, sino que tienen una superficie sensorial integrada que les permite interactuar con él de manera más rica y significativa. A medida que estos sistemas se perfeccionen, podríamos ver robots que detectan estados que hoy solo atribuimos a seres vivos: presión, temperatura, daño potencial y respuestas adaptativas inteligentes.
Pero también es capaz de sentir la temperatura, la presión y otros detalles gracias a sus de 860.000 puntos de sensibilidad.
La robótica y la inteligencia artificial llevan décadas intentando imitar al ser humano, no solo en su forma o en sus cálculos, sino también en su manera de percibir el mundo. Hasta ahora, los robots eran máquinas que “veían” con cámaras, “escuchaban” con micrófonos y finalmente actuaban según instrucciones programadas. Sin embargo, faltaba algo esencial: la capacidad de sentir el entorno de forma visceral. El último avance en este terreno propone un concepto enormemente ambicioso: dotar a las máquinas de una piel que detecta estímulos físicos complejos (incluido lo que podríamos llamar “dolor”) de manera similar al sentido táctil humano.. Un equipo de científicos de las universidades de Shanghái y Hong Kong, ha desarrollado una piel robótica flexible y conductora capaz de funcionar como un sensor completo, no un conjunto de sensores fragmentados, como ocurre tradicionalmente. Esta superficie sintética puede transformar toda una mano robótica en una red sensorial capaz de detectar presión, temperatura, daños e incluso múltiples puntos de contacto al mismo tiempo, gracias a una estructura interna con más de 860.000 vías microscópicas que transmiten señales eléctricas.. A diferencia de las tecnologías precedentes, que requerían sensores especializados (uno para presión, otro para temperatura y un tercero para fuerza), la piel desarrollada por los científicos chinos y descrita en un estudio publicado en Proceedings of the National Academy of Sciences actúa como un único sensor multimodal. Esto es algo parecido a la piel humana, un órgano que recoge distintos tipos de estímulos y los traslada al sistema nervioso para su interpretación.. Ahora viene la pregunta lógica: ¿Qué significa que un robot “sienta”? Cuando hablamos de un robot que “siente”, no nos referimos a consciencia o experiencia subjetiva como los humanos, sino a la capacidad de detectar y procesar estímulos dañinos o críticos, y responder de manera automática y eficiente. En términos funcionales, ese “dolor” artificial equivale a una alerta sobre daño físico, potencial o real, que desencadena acciones para proteger el sistema. Esta noción, en robótica, se denomina nocicepción artificial, y busca imitar la función biológica de los receptores del dolor que tenemos en la piel.. En la práctica, una piel robótica sensible permite que un robot no solo detecte, por ejemplo, la fuerza de un apretón, sino también que identifique cuándo un objeto es demasiado caliente, demasiado frío, o incluso cuando la superficie ha sufrido un corte o un pinchazo. Esto se traduce en mayor seguridad y un comportamiento más sofisticado en interacción con humanos y entornos complejos.. Para que un robot pueda desempeñarse de forma segura y eficaz en contextos complejos, debe tener un entendimiento más fino del mundo físico. La piel robótica no solo detecta un toque: puede aprender de las señales sensoriales para discriminar el tipo de interacción y adaptar su respuesta. Esta capacidad de percepción es una pieza clave para que las máquinas puedan colaborar con las personas sin causar daño y con un nivel de sofisticación sensorial que hasta ahora solo se encontraba en los seres vivos.. Este tipo de “sensibilidad robótica” abre posibilidades importantes. Por un lado, puede mejorar la seguridad en robots diseñados para trabajar cerca o con humanos, identificando estímulos que podrían resultar peligrosos para las personas o para la propia máquina. Por otro lado, la piel robótica de tipo multimodal podría ser un elemento fundamental en la evolución de prótesis avanzadas, donde la percepción sensorial es crucial para la funcionalidad y la integración con el usuario.. Además, este avance no solo afecta al “cuerpo” de los robots, sino también a cómo estos procesan y aprenden de su interacción con el mundo. El uso de técnicas de aprendizaje automático para interpretar las señales recogidas por la piel permite que la red sensorial “entienda” qué tipo de contacto se ha producido, mejorando con el tiempo su capacidad de interpretación y respuesta.. Es importante aclarar que, aunque en el lenguaje coloquial se hable de robots que “sienten dolor”, esto no implica que las máquinas tengan experiencias subjetivas o consciencia del sufrimiento como los seres humanos o los animales. La nocicepción artificial se basa en un procesamiento sofisticado de señales físicas, similares a un reflejo sensorial automatizado, pero no en una experiencia interna consciente. Los investigadores destacan que esta capacidad no equivale a “sentir” en el sentido humano, sino más bien a reconocer estímulos potencialmente dañinos y reaccionar para protegerse o proteger a otros.. Este tipo de distinción es crucial: un robot puede reaccionar ante una señal nociva, obedecer protocolos de seguridad y adaptar su comportamiento, pero no tiene una experiencia emocional asociada a ese estímulo como lo hacen los seres vivos. La intención de los científicos que trabajan en esta línea no es convertir a las máquinas en entidades conscientes, sino dotarlas de mecanismos de sensación que mejoren su autonomía, seguridad y utilidad práctica.. ¿Y qué viene después? Este avance es apenas un paso en una dirección que podría marcar el futuro de la cobots o robots colaborativos, y de la robótica general: máquinas que no solo perciben el mundo con sensores externos, sino quetienen una superficie sensorial integrada que les permite interactuar con él de manera más rica y significativa. A medida que estos sistemas se perfeccionen, podríamos ver robots que detectan estados que hoy solo atribuimos a seres vivos: presión, temperatura, daño potencial y respuestas adaptativas inteligentes.
Noticias de Tecnología y Videojuegos en La Razón
