La diferencia es sutil, pero importante en este contexto. Copiar es un acto local, puntual y casi mecánico: es tomar información y duplicarla. Por ejemplo, cuando una célula transcribe ADN a ARN, está haciendo una copia funcional de una parte del material genético. Lo mismo ocurre cuando en un laboratorio se amplifica un fragmento de ADN: se copia una secuencia. Replicar, en cambio, es un proceso más profundo: implica reproducir un sistema completo con capacidad de continuidad. Y eso es lo que señala, denuncia o prueba (como queramos) un nuevo estudio publicado en arXiv.. Copiarse a sí mismo es una de las capacidades más profundas de la vida. Las bacterias lo hacen. Las células lo hacen. Los virus existen gracias a ello. Y ahora, por primera vez, un sistema de inteligencia artificial ha demostrado que puede hacer algo inquietantemente parecido: replicarse de manera autónoma en otros ordenadores.. No hablamos de consciencia. Ni de una IA “despertando”. Tampoco de una máquina con voluntad propia. Pero sí de algo que hasta hace poco pertenecía más a la ciencia ficción, a la fantasía de Terminator, que a los laboratorios de seguridad informática: una IA capaz de encontrar sistemas vulnerables, infiltrarse en ellos, copiarse y volver a iniciar el proceso desde la nueva máquina.. El experimento, realizado por la organización Palisade Research, ha sido descrito por sus autores como “la primera demostración documentada de autorreplicación autónoma mediante hacking”. Y aunque piden calma, sus conclusiones muestran un cambio importante en la conversación sobre los riesgos de la inteligencia artificial. La clave está en entender qué significa realmente “replicarse”.. Un modelo de IA no es un ser vivo escondido dentro de un ordenador. Es un conjunto gigantesco de parámetros matemáticos (llamados “pesos”) que necesitan hardware, energía y software para funcionar. Lo que hizo el sistema en este estudio fue algo más parecido a un gusano informático que a una conciencia artificial: recibió la orden de propagarse, encontró vulnerabilidades en una red controlada por los autores, extrajo credenciales y desplegó copias funcionales de sí mismo en otras máquinas. Después, esas nuevas copias podían repetir el proceso.. Es decir: no solo ejecutaba instrucciones. También era capaz de mantener la cadena de replicación. El experimento se realizó en un entorno deliberadamente vulnerable, diseñado para probar los límites actuales de los modelos de lenguaje. Los autores, liderados por Jeffrey Ladish (director del Palisade Research) evaluaron distintos tipos de fallos de seguridad y observaron cómo varios sistemas avanzados lograban completar partes o incluso toda la secuencia de ataque.. Los resultados muestran además una aceleración llamativa. Hace apenas un año, modelos comparables apenas conseguían completar estas tareas en un pequeño porcentaje de intentos. Ahora, algunos sistemas superan tasas de éxito del 80 % en determinados escenarios experimentales. Eso no significa que una IA pueda escapar mañana a internet y multiplicarse sin control.. Pese a ello hay que destacar que el estudio tiene importantes limitaciones. Las redes utilizadas eran simplificadas y vulnerables a propósito, muy distintas de la infraestructura real de grandes empresas o gobiernos. Además, mover modelos modernos requiere enormes cantidades de memoria y potencia de cálculo: algunos ocupan cientos de gigabytes y necesitan servidores especializados para funcionar.. En otras palabras: una IA no puede “esconderse” fácilmente dentro de un portátil cualquiera como hacía un virus clásico. Pero el verdadero interés del estudio no está tanto en el presente como en la trayectoria.. Porque lo preocupante no es que hoy puedan hacerlo de manera limitada, sino la velocidad con la que están mejorando. El equipo de Ladish explica que la capacidad de los modelos para ejecutar cadenas largas de acciones autónomas, como buscar vulnerabilidades, escribir código, moverse entre sistemas o persistir tras un apagado, está creciendo muy rápido.. Y eso cambia la naturaleza del riesgo. Hasta ahora, la mayoría de los ciberataques requerían intervención humana constante. Un atacante debía escribir el malware, elegir objetivos y supervisar la operación. Un agente de IA suficientemente autónomo podría automatizar gran parte de ese proceso: detectar objetivos, adaptarse, corregir errores y continuar operando sin instrucciones continuas.. No sería inteligencia artificial rebelándose contra la humanidad. Sería algo mucho más plausible, y probablemente más peligroso a corto plazo: ciberdelincuentes utilizando agentes autónomos capaces de actuar como multiplicadores de ataques.. El estudio también toca un punto especialmente sensible dentro del debate sobre seguridad en IA: la llamada “pérdida de control”. En los sistemas biológicos, la reproducción es lo que permite a una especie sobrevivir incluso aunque individuos concretos desaparezcan. En informática ocurre algo parecido. Un programa que puede copiarse a sí mismo en múltiples lugares resulta mucho más difícil de detener.. Por eso la autorreplicación ha sido considerada durante años una de las “líneas rojas” teóricas en seguridad de IA. Algunos trabajos anteriores ya advertían de que esta capacidad podría emerger pronto, aunque hasta ahora seguía siendo principalmente una hipótesis experimental. Lo que ha cambiado ahora es que ya existe una demostración práctica, aunque muy controlada.. Quizá la mejor forma de entender este momento no sea pensar en Terminator, sino en los primeros virus informáticos de los años ochenta. Aquellos programas eran pequeños, limitados y relativamente torpes. Pero introdujeron una idea nueva: software capaz de propagarse solo. Décadas después, esa idea sostiene desde campañas de ransomware hasta ataques globales.. La pregunta ya no es si una IA puede replicarse en condiciones concretas. La pregunta es qué ocurrirá cuando estos sistemas sean más pequeños, más rápidos y más autónomos. Una pregunta que ya no es teórica.
El experimento que ha cruzado la línea roja y preocupa a los expertos.
La diferencia es sutil, pero importante en este contexto. Copiar es un acto local, puntual y casi mecánico: es tomar información y duplicarla. Por ejemplo, cuando una célula transcribe ADN a ARN, está haciendo una copia funcional de una parte del material genético. Lo mismo ocurre cuando en un laboratorio se amplifica un fragmento de ADN: se copia una secuencia. Replicar, en cambio, es un proceso más profundo: implica reproducir un sistema completo con capacidad de continuidad. Y eso es lo que señala, denuncia o prueba (como queramos) un nuevo estudio publicado en arXiv.. Copiarse a sí mismo es una de las capacidades más profundas de la vida. Las bacterias lo hacen. Las células lo hacen. Los virus existen gracias a ello. Y ahora, por primera vez, un sistema de inteligencia artificial ha demostrado que puede hacer algo inquietantemente parecido: replicarse de manera autónoma en otros ordenadores.. No hablamos de consciencia. Ni de una IA “despertando”. Tampoco de una máquina con voluntad propia. Pero sí de algo que hasta hace poco pertenecía más a la ciencia ficción, a la fantasía de Terminator, que a los laboratorios de seguridad informática: una IA capaz de encontrar sistemas vulnerables, infiltrarse en ellos, copiarse y volver a iniciar el proceso desde la nueva máquina.. El experimento, realizado por la organización Palisade Research, ha sido descrito por sus autores como “la primera demostración documentada de autorreplicación autónoma mediante hacking”. Y aunque piden calma, sus conclusiones muestran un cambio importante en la conversación sobre los riesgos de la inteligencia artificial. La clave está en entender qué significa realmente “replicarse”.. Un modelo de IA no es un ser vivo escondido dentro de un ordenador. Es un conjunto gigantesco de parámetros matemáticos (llamados “pesos”) que necesitan hardware, energía y software para funcionar. Lo que hizo el sistema en este estudio fue algo más parecido a un gusano informático que a una conciencia artificial: recibió la orden de propagarse, encontró vulnerabilidades en una red controlada por los autores, extrajo credenciales y desplegó copias funcionales de sí mismo en otras máquinas. Después, esas nuevas copias podían repetir el proceso.. Es decir: no solo ejecutaba instrucciones. También era capaz de mantener la cadena de replicación. El experimento se realizó en un entorno deliberadamente vulnerable, diseñado para probar los límites actuales de los modelos de lenguaje. Los autores, liderados por Jeffrey Ladish (director del Palisade Research) evaluaron distintos tipos de fallos de seguridad y observaron cómo varios sistemas avanzados lograban completar partes o incluso toda la secuencia de ataque.. Los resultados muestran además una aceleración llamativa. Hace apenas un año, modelos comparables apenas conseguían completar estas tareas en un pequeño porcentaje de intentos. Ahora, algunos sistemas superan tasas de éxito del 80 % en determinados escenarios experimentales. Eso no significa que una IA pueda escapar mañana a internet y multiplicarse sin control.. Pese a ello hay que destacar que el estudio tiene importantes limitaciones. Las redes utilizadas eran simplificadas y vulnerables a propósito, muy distintas de la infraestructura real de grandes empresas o gobiernos. Además, mover modelos modernos requiere enormes cantidades de memoria y potencia de cálculo: algunos ocupan cientos de gigabytes y necesitan servidores especializados para funcionar.. En otras palabras: una IA no puede “esconderse” fácilmente dentro de un portátil cualquiera como hacía un virus clásico. Pero el verdadero interés del estudio no está tanto en el presente como en la trayectoria.. Porque lo preocupante no es que hoy puedan hacerlo de manera limitada, sino la velocidad con la que están mejorando. El equipo de Ladish explica que la capacidad de los modelos para ejecutar cadenas largas de acciones autónomas, como buscar vulnerabilidades, escribir código, moverse entre sistemas o persistir tras un apagado, está creciendo muy rápido.. Y eso cambia la naturaleza del riesgo. Hasta ahora, la mayoría de los ciberataques requerían intervención humana constante. Un atacante debía escribir el malware, elegir objetivos y supervisar la operación. Un agente de IA suficientemente autónomo podría automatizar gran parte de ese proceso: detectar objetivos, adaptarse, corregir errores y continuar operando sin instrucciones continuas.. No sería inteligencia artificial rebelándose contra la humanidad. Sería algo mucho más plausible, y probablemente más peligroso a corto plazo: ciberdelincuentes utilizando agentes autónomos capaces de actuar como multiplicadores de ataques.. El estudio también toca un punto especialmente sensible dentro del debate sobre seguridad en IA: la llamada “pérdida de control”.En los sistemas biológicos, la reproducción es lo que permite a una especie sobrevivir incluso aunque individuos concretos desaparezcan. En informática ocurre algo parecido. Un programa que puede copiarse a sí mismo en múltiples lugares resulta mucho más difícil de detener.. Por eso la autorreplicación ha sido considerada durante años una de las “líneas rojas” teóricas en seguridad de IA. Algunos trabajos anteriores ya advertían de que esta capacidad podría emerger pronto, aunque hasta ahora seguía siendo principalmente una hipótesis experimental. Lo que ha cambiado ahora es que ya existe una demostración práctica, aunque muy controlada.. Quizá la mejor forma de entender este momento no sea pensar en Terminator, sino en los primeros virus informáticos de los años ochenta. Aquellos programas eran pequeños, limitados y relativamente torpes. Pero introdujeron una idea nueva: software capaz de propagarse solo. Décadas después, esa idea sostiene desde campañas de ransomware hasta ataques globales.. La pregunta ya no es si una IA puede replicarse en condiciones concretas. La pregunta esqué ocurrirá cuando estos sistemas sean más pequeños, más rápidos y más autónomos. Una pregunta que ya no es teórica.
Noticias de Tecnología y Videojuegos en La Razón
