Skip to content
Crónica Actual
  viernes 15 mayo 2026
  • Titulares
  • Ciencia
    • Tecnología
  • Cultura
    • Libros
    • Música
    • Teatro
    • Arte
  • Televisión y Cine
  • Deportes
    • Fútbol
    • Motor
    • Baloncesto
  • Internacional
  • España
    • Madrid
    • Andalucía
    • Galicia
    • Comunidad de Valencia
    • Castilla La-Mancha
    • Castilla y León
    • Región de Murcia
    • Cataluña
  • Economía
  • Más
    • Gente
    • Sociedad
    • Opinión
Tendencias
15 de mayo de 2026España, puerto de atraque de barcos con virus 15 de mayo de 2026Reconocimiento a la solidaridad que salva vidas 15 de mayo de 2026Chaves, Griñán y Carmen Romero asisten al mitin de cierre de Montero con Pedro Sánchez 15 de mayo de 2026Tadeo Corrales afirma que Sthefany Pérez está «rehaciendo su vida» y Anita Williams lo aclara: «Doy fe» 15 de mayo de 2026La Comunitat Valenciana se suma a los detectores de radiofrecuencia ante el miedo a las trampas en la PAU 15 de mayo de 2026El ejército de EEUU lanza sus drones impresos en 3D 15 de mayo de 2026¿Murió realmente por una sobredosis? La teoría sobre la muerte del mánager de los Beatles que apunta a la mafia 15 de mayo de 2026La Junta entrega dos puntos limpios móviles con camión eléctrico para su transporte al Ayuntamiento de Ponferrada y a la Mancomunidad Ribera del Boeza 15 de mayo de 2026Sanidad Exterior inspeccionará el crucero del norovirus para decidir si deja desembarcar a los pasajeros 15 de mayo de 2026Los «corsarios» del Grupo 43: así es el peligroso vuelo extremo de los pilotos que salvan los bosques de España
Crónica Actual
Crónica Actual
  • Titulares
  • Ciencia
    • Tecnología
  • Cultura
    • Libros
    • Música
    • Teatro
    • Arte
  • Televisión y Cine
  • Deportes
    • Fútbol
    • Motor
    • Baloncesto
  • Internacional
  • España
    • Madrid
    • Andalucía
    • Galicia
    • Comunidad de Valencia
    • Castilla La-Mancha
    • Castilla y León
    • Región de Murcia
    • Cataluña
  • Economía
  • Más
    • Gente
    • Sociedad
    • Opinión
Crónica Actual
  Ciencia  Una IA logra clonarse a sí misma por primera vez
CienciaTecnología

Una IA logra clonarse a sí misma por primera vez

15 de mayo de 2026
FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail

La diferencia es sutil, pero importante en este contexto. Copiar es un acto local, puntual y casi mecánico: es tomar información y duplicarla. Por ejemplo, cuando una célula transcribe ADN a ARN, está haciendo una copia funcional de una parte del material genético. Lo mismo ocurre cuando en un laboratorio se amplifica un fragmento de ADN: se copia una secuencia. Replicar, en cambio, es un proceso más profundo: implica reproducir un sistema completo con capacidad de continuidad. Y eso es lo que señala, denuncia o prueba (como queramos) un nuevo estudio publicado en arXiv.. Copiarse a sí mismo es una de las capacidades más profundas de la vida. Las bacterias lo hacen. Las células lo hacen. Los virus existen gracias a ello. Y ahora, por primera vez, un sistema de inteligencia artificial ha demostrado que puede hacer algo inquietantemente parecido: replicarse de manera autónoma en otros ordenadores.. No hablamos de consciencia. Ni de una IA “despertando”. Tampoco de una máquina con voluntad propia. Pero sí de algo que hasta hace poco pertenecía más a la ciencia ficción, a la fantasía de Terminator, que a los laboratorios de seguridad informática: una IA capaz de encontrar sistemas vulnerables, infiltrarse en ellos, copiarse y volver a iniciar el proceso desde la nueva máquina.. El experimento, realizado por la organización Palisade Research, ha sido descrito por sus autores como “la primera demostración documentada de autorreplicación autónoma mediante hacking”. Y aunque piden calma, sus conclusiones muestran un cambio importante en la conversación sobre los riesgos de la inteligencia artificial. La clave está en entender qué significa realmente “replicarse”.. Un modelo de IA no es un ser vivo escondido dentro de un ordenador. Es un conjunto gigantesco de parámetros matemáticos (llamados “pesos”) que necesitan hardware, energía y software para funcionar. Lo que hizo el sistema en este estudio fue algo más parecido a un gusano informático que a una conciencia artificial: recibió la orden de propagarse, encontró vulnerabilidades en una red controlada por los autores, extrajo credenciales y desplegó copias funcionales de sí mismo en otras máquinas. Después, esas nuevas copias podían repetir el proceso.. Es decir: no solo ejecutaba instrucciones. También era capaz de mantener la cadena de replicación. El experimento se realizó en un entorno deliberadamente vulnerable, diseñado para probar los límites actuales de los modelos de lenguaje. Los autores, liderados por Jeffrey Ladish (director del Palisade Research) evaluaron distintos tipos de fallos de seguridad y observaron cómo varios sistemas avanzados lograban completar partes o incluso toda la secuencia de ataque.. Los resultados muestran además una aceleración llamativa. Hace apenas un año, modelos comparables apenas conseguían completar estas tareas en un pequeño porcentaje de intentos. Ahora, algunos sistemas superan tasas de éxito del 80 % en determinados escenarios experimentales. Eso no significa que una IA pueda escapar mañana a internet y multiplicarse sin control.. Pese a ello hay que destacar que el estudio tiene importantes limitaciones. Las redes utilizadas eran simplificadas y vulnerables a propósito, muy distintas de la infraestructura real de grandes empresas o gobiernos. Además, mover modelos modernos requiere enormes cantidades de memoria y potencia de cálculo: algunos ocupan cientos de gigabytes y necesitan servidores especializados para funcionar.. En otras palabras: una IA no puede “esconderse” fácilmente dentro de un portátil cualquiera como hacía un virus clásico. Pero el verdadero interés del estudio no está tanto en el presente como en la trayectoria.. Porque lo preocupante no es que hoy puedan hacerlo de manera limitada, sino la velocidad con la que están mejorando. El equipo de Ladish explica que la capacidad de los modelos para ejecutar cadenas largas de acciones autónomas, como buscar vulnerabilidades, escribir código, moverse entre sistemas o persistir tras un apagado, está creciendo muy rápido.. Y eso cambia la naturaleza del riesgo. Hasta ahora, la mayoría de los ciberataques requerían intervención humana constante. Un atacante debía escribir el malware, elegir objetivos y supervisar la operación. Un agente de IA suficientemente autónomo podría automatizar gran parte de ese proceso: detectar objetivos, adaptarse, corregir errores y continuar operando sin instrucciones continuas.. No sería inteligencia artificial rebelándose contra la humanidad. Sería algo mucho más plausible, y probablemente más peligroso a corto plazo: ciberdelincuentes utilizando agentes autónomos capaces de actuar como multiplicadores de ataques.. El estudio también toca un punto especialmente sensible dentro del debate sobre seguridad en IA: la llamada “pérdida de control”. En los sistemas biológicos, la reproducción es lo que permite a una especie sobrevivir incluso aunque individuos concretos desaparezcan. En informática ocurre algo parecido. Un programa que puede copiarse a sí mismo en múltiples lugares resulta mucho más difícil de detener.. Por eso la autorreplicación ha sido considerada durante años una de las “líneas rojas” teóricas en seguridad de IA. Algunos trabajos anteriores ya advertían de que esta capacidad podría emerger pronto, aunque hasta ahora seguía siendo principalmente una hipótesis experimental. Lo que ha cambiado ahora es que ya existe una demostración práctica, aunque muy controlada.. Quizá la mejor forma de entender este momento no sea pensar en Terminator, sino en los primeros virus informáticos de los años ochenta. Aquellos programas eran pequeños, limitados y relativamente torpes. Pero introdujeron una idea nueva: software capaz de propagarse solo. Décadas después, esa idea sostiene desde campañas de ransomware hasta ataques globales.. La pregunta ya no es si una IA puede replicarse en condiciones concretas. La pregunta es qué ocurrirá cuando estos sistemas sean más pequeños, más rápidos y más autónomos. Una pregunta que ya no es teórica.

Más noticias

Así es el RQ-170 Sentinel, el dron furtivo que habría sido clave en la operación para capturar a Maduro

5 de enero de 2026

Descubren una isla desconocida en la Antártida dentro de una zona «peligrosa»

11 de abril de 2026

EE. UU. prohíbe la venta de nuevos routers fabricados en el extranjero por motivos de seguridad nacional

24 de marzo de 2026

Este dron tiene autonomía infinita y el motivo es muy sencillo; vive en la red eléctrica

26 de diciembre de 2025

 

El experimento que ha cruzado la línea roja y preocupa a los expertos.

  

La diferencia es sutil, pero importante en este contexto. Copiar es un acto local, puntual y casi mecánico: es tomar información y duplicarla. Por ejemplo, cuando una célula transcribe ADN a ARN, está haciendo una copia funcional de una parte del material genético. Lo mismo ocurre cuando en un laboratorio se amplifica un fragmento de ADN: se copia una secuencia. Replicar, en cambio, es un proceso más profundo: implica reproducir un sistema completo con capacidad de continuidad. Y eso es lo que señala, denuncia o prueba (como queramos) un nuevo estudio publicado en arXiv.. Copiarse a sí mismo es una de las capacidades más profundas de la vida. Las bacterias lo hacen. Las células lo hacen. Los virus existen gracias a ello. Y ahora, por primera vez, un sistema de inteligencia artificial ha demostrado que puede hacer algo inquietantemente parecido: replicarse de manera autónoma en otros ordenadores.. No hablamos de consciencia. Ni de una IA “despertando”. Tampoco de una máquina con voluntad propia. Pero sí de algo que hasta hace poco pertenecía más a la ciencia ficción, a la fantasía de Terminator, que a los laboratorios de seguridad informática: una IA capaz de encontrar sistemas vulnerables, infiltrarse en ellos, copiarse y volver a iniciar el proceso desde la nueva máquina.. El experimento, realizado por la organización Palisade Research, ha sido descrito por sus autores como “la primera demostración documentada de autorreplicación autónoma mediante hacking”. Y aunque piden calma, sus conclusiones muestran un cambio importante en la conversación sobre los riesgos de la inteligencia artificial. La clave está en entender qué significa realmente “replicarse”.. Un modelo de IA no es un ser vivo escondido dentro de un ordenador. Es un conjunto gigantesco de parámetros matemáticos (llamados “pesos”) que necesitan hardware, energía y software para funcionar. Lo que hizo el sistema en este estudio fue algo más parecido a un gusano informático que a una conciencia artificial: recibió la orden de propagarse, encontró vulnerabilidades en una red controlada por los autores, extrajo credenciales y desplegó copias funcionales de sí mismo en otras máquinas. Después, esas nuevas copias podían repetir el proceso.. Es decir: no solo ejecutaba instrucciones. También era capaz de mantener la cadena de replicación. El experimento se realizó en un entorno deliberadamente vulnerable, diseñado para probar los límites actuales de los modelos de lenguaje. Los autores, liderados por Jeffrey Ladish (director del Palisade Research) evaluaron distintos tipos de fallos de seguridad y observaron cómo varios sistemas avanzados lograban completar partes o incluso toda la secuencia de ataque.. Los resultados muestran además una aceleración llamativa. Hace apenas un año, modelos comparables apenas conseguían completar estas tareas en un pequeño porcentaje de intentos. Ahora, algunos sistemas superan tasas de éxito del 80 % en determinados escenarios experimentales. Eso no significa que una IA pueda escapar mañana a internet y multiplicarse sin control.. Pese a ello hay que destacar que el estudio tiene importantes limitaciones. Las redes utilizadas eran simplificadas y vulnerables a propósito, muy distintas de la infraestructura real de grandes empresas o gobiernos. Además, mover modelos modernos requiere enormes cantidades de memoria y potencia de cálculo: algunos ocupan cientos de gigabytes y necesitan servidores especializados para funcionar.. En otras palabras: una IA no puede “esconderse” fácilmente dentro de un portátil cualquiera como hacía un virus clásico. Pero el verdadero interés del estudio no está tanto en el presente como en la trayectoria.. Porque lo preocupante no es que hoy puedan hacerlo de manera limitada, sino la velocidad con la que están mejorando. El equipo de Ladish explica que la capacidad de los modelos para ejecutar cadenas largas de acciones autónomas, como buscar vulnerabilidades, escribir código, moverse entre sistemas o persistir tras un apagado, está creciendo muy rápido.. Y eso cambia la naturaleza del riesgo. Hasta ahora, la mayoría de los ciberataques requerían intervención humana constante. Un atacante debía escribir el malware, elegir objetivos y supervisar la operación. Un agente de IA suficientemente autónomo podría automatizar gran parte de ese proceso: detectar objetivos, adaptarse, corregir errores y continuar operando sin instrucciones continuas.. No sería inteligencia artificial rebelándose contra la humanidad. Sería algo mucho más plausible, y probablemente más peligroso a corto plazo: ciberdelincuentes utilizando agentes autónomos capaces de actuar como multiplicadores de ataques.. El estudio también toca un punto especialmente sensible dentro del debate sobre seguridad en IA: la llamada “pérdida de control”.En los sistemas biológicos, la reproducción es lo que permite a una especie sobrevivir incluso aunque individuos concretos desaparezcan. En informática ocurre algo parecido. Un programa que puede copiarse a sí mismo en múltiples lugares resulta mucho más difícil de detener.. Por eso la autorreplicación ha sido considerada durante años una de las “líneas rojas” teóricas en seguridad de IA. Algunos trabajos anteriores ya advertían de que esta capacidad podría emerger pronto, aunque hasta ahora seguía siendo principalmente una hipótesis experimental. Lo que ha cambiado ahora es que ya existe una demostración práctica, aunque muy controlada.. Quizá la mejor forma de entender este momento no sea pensar en Terminator, sino en los primeros virus informáticos de los años ochenta. Aquellos programas eran pequeños, limitados y relativamente torpes. Pero introdujeron una idea nueva: software capaz de propagarse solo. Décadas después, esa idea sostiene desde campañas de ransomware hasta ataques globales.. La pregunta ya no es si una IA puede replicarse en condiciones concretas. La pregunta esqué ocurrirá cuando estos sistemas sean más pequeños, más rápidos y más autónomos. Una pregunta que ya no es teórica.

 Noticias de Tecnología y Videojuegos en La Razón

Un informe ve «insostenible» un modelo económico catalán basado en sectores con sueldos bajos
Se vende el apartamento de ‘Emily in Paris’: un edificio histórico, con 180 metros y un gran salón… por 3,5 millones de euros
Leer también
Sociedad

España, puerto de atraque de barcos con virus

15 de mayo de 2026 9209
Castilla y León

Reconocimiento a la solidaridad que salva vidas

15 de mayo de 2026 10939
Andalucía

Chaves, Griñán y Carmen Romero asisten al mitin de cierre de Montero con Pedro Sánchez

15 de mayo de 2026 11914
Televisión y Cine

Tadeo Corrales afirma que Sthefany Pérez está «rehaciendo su vida» y Anita Williams lo aclara: «Doy fe»

15 de mayo de 2026 10037
Comunidad de Valencia

La Comunitat Valenciana se suma a los detectores de radiofrecuencia ante el miedo a las trampas en la PAU

15 de mayo de 2026 10182
Ciencia

El ejército de EEUU lanza sus drones impresos en 3D

15 de mayo de 2026 2164
Cargar más
Entradas Recientes

España, puerto de atraque de barcos con virus

15 de mayo de 2026

Reconocimiento a la solidaridad que salva vidas

15 de mayo de 2026

Chaves, Griñán y Carmen Romero asisten al mitin de cierre de Montero con Pedro Sánchez

15 de mayo de 2026

Tadeo Corrales afirma que Sthefany Pérez está «rehaciendo su vida» y Anita Williams lo aclara: «Doy fe»

15 de mayo de 2026

La Comunitat Valenciana se suma a los detectores de radiofrecuencia ante el miedo a las trampas en la PAU

15 de mayo de 2026

El ejército de EEUU lanza sus drones impresos en 3D

15 de mayo de 2026
    Crónica Actual
    En ‘Crónica Actual’, nos dedicamos a la búsqueda incansable de la verdad y la precisión en el periodismo. Con un equipo de reporteros experimentados y una red de corresponsales en todo el mundo, ofrecemos cobertura en tiempo real de los eventos más importantes. Nuestra misión es informar a nuestros lectores con reportajes detallados, análisis profundos y una narrativa que conecta los puntos en el complejo tapiz de la sociedad. Desde conflictos internacionales hasta avances científicos, pasando por las últimas tendencias culturales, ‘Crónica Actual’ es su fuente confiable de noticias que importan.
    CRONICAACTUAL.COM © 2025 | Todos los derechos reservados.
    • Contacto
    • Sobre Nosotros
    • Aviso Legal
    • Política de Cookies
    • Política de Privacidad