Es un signo de los tiempos actuales: apenas se produce un accidente o una catástrofe natural, las redes se llenan de especulaciones, teorías, conspiraciones y, en el último año, de imágenes falsas generadas por inteligencia artificial. Y no es atribuir una imagen de tiempos pasados a un hecho actual, es crear una imagen (y hasta una narrativa) nueva aplicable al suceso.. Si a esto le sumamos que el 85% de los jóvenes (entre 16 y 24 años) y más de la mitad de los adultos se informan a través de las redes sociales (datos de la Asociación de Prensa de Madrid), el caldo de cultivo (imágenes falsas, redes sociales y anonimato) nos lo bebemos como sopa boba.. El descarrilamiento de dos trenes de alta velocidad en Adamuz (Córdoba), que ha dejado al menos 39 personas muertas y más de un centenar de heridos graves (cifras actuales al escribir esta pieza), ha sido una tragedia de enormes dimensiones humanas y sociales. Y, a la conmoción por las víctimas y el desconcierto por las causas del accidente se ha sumado este fenómeno de redes sociales y fake news. Identificar qué es real y qué no lo es no solo importa por precisión, sino porque la desinformación puede agravar el sufrimiento de las víctimas, enturbiar el debate público y perjudicar gravemente a quienes estuvieron allí.. Según los datos oficiales más recientes, el accidente se produjo a las 19:45 h en un tramo recto de la línea de alta velocidad Madrid–Sevilla, cuando un tren de Iryo que cubría la ruta Málaga–Madrid descarriló e invadió la vía contigua. En ese instante, un tren Alvia que circulaba en sentido contrario colisionó con el Iryo. La velocidad de ambos trenes estaba dentro de los límites operativos, y la vía había sido renovada recientemente, lo que ha llevado a las autoridades a calificar el suceso de “extraño” y a abrir una investigación independiente para esclarecer las causas.. Mientras los equipos de emergencia trabajaban en la zona y los testimonios de pasajeros describían lo ocurrido, las redes sociales y aplicaciones de mensajería se llenaron con idéntica velocidad de información errónea.. Una de las versiones falsas que más se ha difundido mostraba una imagen de los trenes después del accidente. Sin embargo, esta fotografía no era real: fue generada por inteligencia artificial y contenía errores notables como una composición incorrecta de los trenes implicados y una marca de agua que identifica a la herramienta que la creó (Google Gemini).. A pesar de ello se repitió y se difundió sin importar que la etiqueta de IA fuera obvia. El modelo y compañía de los trenes puede confundirse, pero la imagen se hace con intención (confusión, fama, crear un clima polémico…) y rara vez se penaliza.. Otro mensaje igual de falso señalaba que las autoridades pedían a la población acudir a la zona del accidente con chalecos reflectantes para ayudar en las labores de auxilio. Esto es completamente falso: los servicios de emergencia y el teléfono oficial del 112 han insistido en que solo el personal autorizado debe estar en el lugar del siniestro, precisamente para no entorpecer la labor de rescate y para evitar riesgos para terceros.. Las autoridades españolas instan a acudir a la zona del descarrilamiento en Córdoba con chalecos reflectantes si se quiere participar en las labores de auxilio.Seguir: @elalcazar_es https://t.co/zOAMrPuwOz pic.twitter.com/OBtWpOw4Xq— El Alcázar (@elalcazar_es) January 18, 2026 . Este tipo de mensajes pueden poner en peligro a personas bienintencionadas que, al compartirlos o actuar en consecuencia, obstaculicen la respuesta de los servicios de emergencia o incluso se expongan a accidentes. Lo llamativo es que la misma fuente que señalaba la sugerencia de acudir con chalecos basándose en “autoridades”, poco después apuntaba al error de otro medio al difundir la imagen hecha con IA.. La SER pone en portada una imagen hecha con inteligencia artificial con la marca de agua de la IA de Google “Gemini”.Seguir: @elalcazar_es pic.twitter.com/y1ecLdYYnq— El Alcázar (@elalcazar_es) January 19, 2026 . El lema de décadas pasadas que aseguraba que era importante que hablaran de uno, aunque sea mal, ha sido reemplazado por ser el primero en publicar, sin importar la fuente, la veracidad o las consecuencias. Otras noticias falsas que también recibieron cientos de personas en sus teléfonos tenían que ver con testimonios anónimos o no verificados de pasajeros o técnicos ferroviarios. Allí se hablaba desde fallos técnicos detectados hace semanas o errores humanos. Nada de eso demostrado o comprobado.. Es lícito preguntarse por qué proliferan estos bulos. Las tragedias de gran impacto generan incertidumbre y, en ausencia de información definitiva, el vacío suele llenarse con especulación y sensacionalismo. Necesitamos saber qué ocurrió y si la versión que nos llega coincide con nuestro pensamiento, el sesgo de confirmación, reafirma la versión y la convierte en sólida y creíble. Pero en estos casos, lo creíble no es lo confirmado.
Imágenes falsas y comunicados oficiales que nunca se produjeron. Estas son las primeras horas de lo ocurrido en internet tras el accidente ocurrido en Córdoba.
Es un signo de los tiempos actuales: apenas se produce un accidente o una catástrofe natural, las redes se llenan de especulaciones, teorías, conspiraciones y, en el último año, de imágenes falsas generadas por inteligencia artificial. Y no es atribuir una imagen de tiempos pasados a un hecho actual, es crear una imagen (y hasta una narrativa) nueva aplicable al suceso.. Si a esto le sumamos que el 85% de los jóvenes (entre 16 y 24 años) y más de la mitad de los adultos se informan a través de las redes sociales (datos de la Asociación de Prensa de Madrid), el caldo de cultivo (imágenes falsas, redes sociales y anonimato) nos lo bebemos como sopa boba.. El descarrilamiento de dos trenes de alta velocidad en Adamuz (Córdoba), que ha dejado al menos 39 personas muertas y más de un centenar de heridos graves (cifras actuales al escribir esta pieza), ha sido una tragedia de enormes dimensiones humanas y sociales. Y, a la conmoción por las víctimas y el desconcierto por las causas del accidente se ha sumado este fenómeno de redes sociales y fake news. Identificar qué es real y qué no lo es no solo importa por precisión, sino porque la desinformación puede agravar el sufrimiento de las víctimas, enturbiar el debate público y perjudicar gravemente a quienes estuvieron allí.. Según los datos oficiales más recientes, el accidente se produjo a las 19:45 h en un tramo recto de la línea de alta velocidad Madrid–Sevilla, cuando un tren de Iryo que cubría la ruta Málaga–Madrid descarriló e invadió la vía contigua. En ese instante, un tren Alvia que circulaba en sentido contrario colisionó con el Iryo. La velocidad de ambos trenes estaba dentro de los límites operativos, y la vía había sido renovada recientemente, lo que ha llevado a las autoridades a calificar el suceso de “extraño” y a abrir una investigación independiente para esclarecer las causas.. Mientras los equipos de emergencia trabajaban en la zona y los testimonios de pasajeros describían lo ocurrido, las redes sociales y aplicaciones de mensajería se llenaron con idéntica velocidad de información errónea.. Una de las versiones falsas que más se ha difundido mostraba una imagen de los trenes después del accidente. Sin embargo, esta fotografía no era real: fue generada por inteligencia artificial y contenía errores notables como una composición incorrecta de los trenes implicados y una marca de agua que identifica a la herramienta que la creó (Google Gemini).. A pesar de ello se repitió y se difundió sin importar que la etiqueta de IA fuera obvia. El modelo y compañía de los trenes puede confundirse, pero la imagen se hace con intención (confusión, fama, crear un clima polémico…) y rara vez se penaliza.. Otro mensaje igual de falso señalaba que las autoridades pedían a la población acudir a la zona del accidente con chalecos reflectantes para ayudar en las labores de auxilio. Esto es completamente falso: los servicios de emergencia y el teléfono oficial del 112 han insistido en que solo el personal autorizado debe estar en el lugar del siniestro, precisamente para no entorpecer la labor de rescate y para evitar riesgos para terceros.. Este tipo de mensajes pueden poner en peligro a personas bienintencionadas que, al compartirlos o actuar en consecuencia, obstaculicen la respuesta de los servicios de emergencia o incluso se expongan a accidentes.Lo llamativo es que la misma fuente que señalaba la sugerencia de acudir con chalecos basándose en “autoridades”, poco después apuntaba al error de otro medio al difundir la imagen hecha con IA.. El lema de décadas pasadas que aseguraba que era importante que hablaran de uno, aunque sea mal, ha sido reemplazado por ser el primero en publicar, sin importar la fuente, la veracidad o las consecuencias.Otras noticias falsas que también recibieron cientos de personas en sus teléfonos tenían que ver con testimonios anónimos o no verificados de pasajeros o técnicos ferroviarios. Allí se hablaba desde fallos técnicos detectados hace semanas o errores humanos. Nada de eso demostrado o comprobado.. Es lícito preguntarse por qué proliferan estos bulos. Las tragedias de gran impacto generan incertidumbre y,en ausencia de información definitiva, el vacío suele llenarse con especulación y sensacionalismo. Necesitamos saber qué ocurrió y si la versión que nos llega coincide con nuestro pensamiento, el sesgo de confirmación, reafirma la versión y la convierte en sólida y creíble. Pero en estos casos, lo creíble no es lo confirmado.
Noticias de Tecnología y Videojuegos en La Razón
