Durante décadas, los ingenieros han intentado que los ordenadores piensen como nosotros. No en el sentido filosófico, sino en el más práctico: lograr que procesen información con la eficiencia, la flexibilidad y el bajo consumo energético del cerebro humano. Porque, aunque la inteligencia artificial avanza a pasos agigantados, lo hace apoyada en una infraestructura que consume cantidades colosales de energía. Y ahí es donde la biología, una vez más, ofrece pistas.. Un nuevo estudio, publicado en Science Advances y liderado por la Universidad de Cambridge propone una solución que parece sacada directamente del sistema nervioso: microchips inspirados en el cerebro, capaces de aprender y procesar información de forma mucho más eficiente. En el centro de este avance se encuentra un componente llamado memristor, una especie de interruptor electrónico que no solo regula el paso de corriente, sino que también “recuerda” su estado previo, imitando así el comportamiento de las neuronas y sus conexiones.. Para entender la magnitud del cambio, conviene detenerse en cómo funcionan los ordenadores actuales. En los chips tradicionales, los datos deben viajar constantemente entre la memoria y la unidad de procesamiento. Ese ir y venir requiere una enorme cantidad de energía. En contraste, el cerebro humano almacena y procesa información en el mismo lugar: en las conexiones entre neuronas. Esa arquitectura, afinada por millones de años de evolución, es extraordinariamente eficiente.. Los nuevos dispositivos desarrollados en Cambridge replican precisamente esa lógica. En lugar de depender de los mecanismos habituales, basados en la formación de diminutos filamentos conductores dentro de materiales, los autores, liderados por Babak Bakhit, han creado una película ultrafina de óxido de hafnio modificada con estroncio y titanio. Este material permite controlar el flujo eléctrico de una manera mucho más estable y precisa, mediante pequeñas “puertas” electrónicas internas. Igual que ocurre en las sinapsis neuronales.. El resultado es un dispositivo capaz de cambiar de estado con corrientes hasta un millón de veces más bajas que las de tecnologías comparables. Dicho de otro modo: el mismo tipo de operación que se produce en el cerebro, con un coste energético radicalmente inferior. En un contexto en el que la inteligencia artificial podría llegar a consumir una fracción significativa de la electricidad global, reducir ese gasto hasta en un 70%, como sugiere el estudio, podría redefinir el futuro de la computación.. “Uno de los grandes desafíos del hardware actual es el consumo energético – señala Bakhit -. Para resolverlo, necesitamos dispositivos con corrientes extremadamente bajas, gran estabilidad y la capacidad de operar en múltiples estados”. Y eso es precisamente lo que han conseguido.. Pero hay algo aún más interesante que la eficiencia: la capacidad de aprendizaje. Estos memristores no solo almacenan información; también reproducen principios básicos del aprendizaje biológico, como la llamada plasticidad dependiente del tiempo de disparo (spike-timing dependent plasticity, en inglés). En términos sencillos, pueden fortalecer o debilitar sus conexiones en función del momento en que reciben señales, del mismo modo que lo hacen nuestras neuronas cuando aprendemos algo nuevo.. Esto abre la puerta a una nueva generación de sistemas informáticos: máquinas que no solo ejecutan instrucciones, sino que se adaptan, evolucionan y aprenden de forma más orgánica, literalmente. Es lo que se conoce como computación neuromórfica, un campo que busca romper con el modelo clásico de la informática para acercarse a la lógica del cerebro.. Sin embargo, como ocurre con casi todos los avances prometedores, aún hay obstáculos. El principal tiene que ver con la fabricación: los dispositivos requieren temperaturas de unos 700 grados Celsius, superiores a las toleradas por los procesos industriales estándar. “Es nuestro mayor reto ahora mismo – reconoce Bakhit -. Pero estamos trabajando para reducir esa temperatura y hacer la tecnología compatible con la industria”.. Aun así, el potencial es difícil de ignorar. Si estos dispositivos logran integrarse en chips comerciales, podrían transformar desde los centros de datos hasta los dispositivos personales, pasando por sensores inteligentes o sistemas autónomos. Y, sobre todo, podrían hacer que la inteligencia artificial sea mucho más sostenible.. Quizá lo más fascinante de este avance no sea solo su impacto tecnológico, sino su origen conceptual. En un momento en el que la innovación parece depender cada vez más de la complejidad, este estudio recuerda una idea sencilla: que el sistema más sofisticado que conocemos, el cerebro humano, sigue siendo también el más eficiente. Y que, a veces, avanzar no consiste en inventar algo completamente nuevo, sino en aprender a imitar mejor lo que ya existe.
Se trata de un avance de la Universidad de Cambridge que apunta directamente a la inteligencia artificial y a reducir su consumo un 70%.
Durante décadas, los ingenieros han intentado que los ordenadores piensen como nosotros. No en el sentido filosófico, sino en el más práctico: lograr que procesen información con la eficiencia, la flexibilidad y el bajo consumo energético del cerebro humano. Porque, aunque la inteligencia artificial avanza a pasos agigantados, lo hace apoyada en una infraestructura que consume cantidades colosales de energía. Y ahí es donde la biología, una vez más, ofrece pistas.. Un nuevo estudio, publicado en Science Advances y liderado por la Universidad de Cambridge propone una solución que parece sacada directamente del sistema nervioso: microchips inspirados en el cerebro, capaces de aprender y procesar información de forma mucho más eficiente. En el centro de este avance se encuentra un componente llamado memristor, una especie de interruptor electrónico que no solo regula el paso de corriente, sino que también “recuerda” su estado previo, imitando así el comportamiento de las neuronas y sus conexiones.. Para entender la magnitud del cambio, conviene detenerse en cómo funcionan los ordenadores actuales. En los chips tradicionales, los datos deben viajar constantemente entre la memoria y la unidad de procesamiento. Ese ir y venir requiere una enorme cantidad de energía. En contraste, el cerebro humano almacena y procesa información en el mismo lugar: en las conexiones entre neuronas. Esa arquitectura, afinada por millones de años de evolución, es extraordinariamente eficiente.. Los nuevos dispositivos desarrollados en Cambridge replican precisamente esa lógica. En lugar de depender de los mecanismos habituales, basados en la formación de diminutos filamentos conductores dentro de materiales, los autores, liderados por Babak Bakhit, han creado una película ultrafina de óxido de hafnio modificada con estroncio y titanio. Este material permite controlar el flujo eléctrico de una manera mucho más estable y precisa, mediante pequeñas “puertas” electrónicas internas. Igual que ocurre en las sinapsis neuronales.. El resultado es un dispositivo capaz de cambiar de estado con corrientes hasta un millón de veces más bajas que las de tecnologías comparables. Dicho de otro modo: el mismo tipo de operación que se produce en el cerebro, con un coste energético radicalmente inferior. En un contexto en el que la inteligencia artificial podría llegar a consumir una fracción significativa de la electricidad global, reducir ese gasto hasta en un 70%, como sugiere el estudio, podría redefinir el futuro de la computación.. “Uno de los grandes desafíos del hardware actual es el consumo energético – señala Bakhit -. Para resolverlo, necesitamos dispositivos con corrientes extremadamente bajas, gran estabilidad y la capacidad de operar en múltiples estados”. Y eso es precisamente lo que han conseguido.. Pero hay algo aún más interesante que la eficiencia: la capacidad de aprendizaje. Estos memristores no solo almacenan información; también reproducen principios básicos del aprendizaje biológico, como la llamada plasticidad dependiente del tiempo de disparo (spike-timing dependent plasticity, en inglés). En términos sencillos, pueden fortalecer o debilitar sus conexiones en función del momento en que reciben señales, del mismo modo que lo hacen nuestras neuronas cuando aprendemos algo nuevo.. Esto abre la puerta a una nueva generación de sistemas informáticos: máquinas que no solo ejecutan instrucciones, sino que se adaptan, evolucionan y aprenden de forma más orgánica, literalmente. Es lo que se conoce como computación neuromórfica, un campo que busca romper con el modelo clásico de la informática para acercarse a la lógica del cerebro.. Sin embargo, como ocurre con casi todos los avances prometedores, aún hay obstáculos. El principal tiene que ver con la fabricación: los dispositivos requieren temperaturas de unos 700 grados Celsius, superiores a las toleradas por los procesos industriales estándar. “Es nuestro mayor reto ahora mismo – reconoce Bakhit -. Pero estamos trabajando para reducir esa temperatura y hacer la tecnología compatible con la industria”.. Aun así, el potencial es difícil de ignorar. Si estos dispositivos logran integrarse en chips comerciales, podrían transformar desde los centros de datos hasta los dispositivos personales, pasando por sensores inteligentes o sistemas autónomos. Y, sobre todo, podrían hacer que la inteligencia artificial sea mucho más sostenible.. Quizá lo más fascinante de este avance no sea solo su impacto tecnológico, sino su origen conceptual. En un momento en el que la innovación parece depender cada vez más de la complejidad, este estudio recuerda una idea sencilla: queel sistema más sofisticado que conocemos, el cerebro humano, sigue siendo también el más eficiente.Y que, a veces, avanzar no consiste en inventar algo completamente nuevo, sino en aprender a imitar mejor lo que ya existe.
Noticias de Tecnología y Videojuegos en La Razón
