Skip to content
Crónica Actual
  jueves 19 marzo 2026
  • Titulares
  • Ciencia
    • Tecnología
  • Cultura
    • Libros
    • Música
    • Teatro
    • Arte
  • Televisión y Cine
  • Deportes
    • Fútbol
    • Motor
    • Baloncesto
  • Internacional
  • España
    • Madrid
    • Andalucía
    • Galicia
    • Comunidad de Valencia
    • Castilla La-Mancha
    • Castilla y León
    • Región de Murcia
    • Cataluña
  • Economía
  • Más
    • Gente
    • Sociedad
    • Opinión
Tendencias
19 de marzo de 2026La mítica atracción que recupera PortAventura para Semana Santa, tras estar en obras: se han revisado más de 1.000 tornillos 19 de marzo de 2026Castilla y León premia el esfuerzo y motivación de los estudiantes 19 de marzo de 2026El Síndic reclama innovar en sinhogarismo y limitar el ruido en Barcelona 19 de marzo de 2026Palo de los comuns a ERC: cargan contra la exigencia del IRPF en los presupuestos catalanes por «depender del Congreso» 19 de marzo de 2026Turull insta a ERC a volver con Junts a la «casilla de salida» para pedir el concierto económico 19 de marzo de 2026Aprobada la nueva distribución de las fincas de la concentración parcelaria de Valtiendas, Segovia 19 de marzo de 2026Esta es la predicción de la Aemet sobre la primavera en Cataluña: «Posiblemente por encima de lo normal» 19 de marzo de 2026El ‘Día Grande’ de los Californios reúne a cientos de cartageneros en la Salve en honor a su titular 19 de marzo de 2026El Clasiquillo reafirma a Olmedo como un referente en la formación teatral 19 de marzo de 2026Otra forma de mirar a Enrique Seco San Esteban
Crónica Actual
Crónica Actual
  • Titulares
  • Ciencia
    • Tecnología
  • Cultura
    • Libros
    • Música
    • Teatro
    • Arte
  • Televisión y Cine
  • Deportes
    • Fútbol
    • Motor
    • Baloncesto
  • Internacional
  • España
    • Madrid
    • Andalucía
    • Galicia
    • Comunidad de Valencia
    • Castilla La-Mancha
    • Castilla y León
    • Región de Murcia
    • Cataluña
  • Economía
  • Más
    • Gente
    • Sociedad
    • Opinión
Crónica Actual
  Ciencia  “El riesgo no es que la IA te sustituya, sino que te sustituya alguien que sepa trabajar con IA”
CienciaTecnología

“El riesgo no es que la IA te sustituya, sino que te sustituya alguien que sepa trabajar con IA”

12 de diciembre de 2025
FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail

Recientemente, la consultora tecnológica Entelgy ha realizado un estudio nacional con más de 1.000 empleados de distintos perfiles, en el que analizó cómo la IA está impactando tanto en la vida personal como profesional. En este tipo de estudios hay una máxima: los resultados son tan interesantes como las preguntas que se hacen. Y los datos muestran que han hecho las preguntas correctas. Pero para entenderlas es necesario contar con un buen intérprete: Alfredo Zurdo, director de Digital Change en Entelgy.. Pregunta: En vuestro estudio, más del 60% de los trabajadores reconoce que la inteligencia artificial ya ha impactado en su día a día. ¿De qué manera se manifiesta ese impacto en la vida cotidiana de los ciudadanos? ¿Estamos hablando de asistentes virtuales, redes sociales, decisiones laborales…?. Respuesta: Mira, lo fascinante es que la IA ya está tan integrada en nuestras vidas que muchas veces no la identificamos – nos confirma Zurdo -. Cuando Netflix te sugiere exactamente esa serie que acabas viendo de un tirón, cuando tu banco detecta un cargo sospechoso antes de que tú lo notes, o cuando tu correo electrónico filtra automáticamente el spam… ahí está la IA trabajando. Pero donde más impacto vemos según nuestro estudio es en tres áreas: primero, los asistentes virtuales y chatbots que resuelven consultas 24/7; segundo, las redes sociales que personalizan tu feed hasta niveles inquietantes; y tercero —y esto es crucial— en decisiones laborales: desde los algoritmos que filtran tu CV antes de que llegue a un humano, hasta sistemas que monitorizan productividad o sugieren formación.. P: Solo una cuarta parte de los encuestados afirma usar la IA de manera consciente. ¿Nos está influyendo más de lo que pensamos?. R: Totalmente. Y aquí está uno de los hallazgos más preocupantes del estudio: la brecha entre impacto percibido y uso consciente es enorme. El 60% nota su presencia, pero solo el 25% la usa deliberadamente. ¿Qué significa esto? Que la mayoría de las personas son usuarios pasivos de tecnologías que están moldeando sus decisiones, sus opiniones, incluso sus emociones. Te pongo un ejemplo concreto: cuando scrolleas Instagram y el algoritmo te muestra contenido que refuerza tus creencias (lo que llamamos «cámaras de eco»), estás siendo influenciado por IA sin darte cuenta. Cuando Amazon te sugiere productos «perfectos para ti», hay modelos predictivos trabajando. Cuando tu empresa de seguros ajusta tu prima basándose en patrones de comportamiento, se trata de la IA otra vez. El problema no es que la IA nos influya —las herramientas siempre lo han hecho—, sino que lo hace de manera invisible y sin que entendamos las reglas del juego. Es como jugar al póker sin conocer las cartas. Por eso en Entelgy, a través de nuestra solución IAbility, insistimos tanto en la alfabetización: no puedes tomar decisiones informadas sobre algo que ni siquiera sabes qué está ocurriendo.. P: Uno de los datos más llamativos es que apenas un 12% ha recibido formación en el uso de la IA dentro de su empresa. ¿No estamos creando una brecha de conocimiento que podría agrandar desigualdades en el trabajo?. R: Ese 12% me parece escandaloso, pero tristemente no me sorprende. Y sí, estamos ante una bomba de relojería en términos de desigualdad. Piénsalo: tenemos organizaciones invirtiendo millones en implementar IA — copilots, agentes inteligentes, automatizaciones— pero luego cruzan los dedos esperando que la gente «se apañe sola». Es como darle a alguien las llaves de un Ferrari sin enseñarle a conducir. Lo más perverso es que esa brecha se alinea peligrosamente con desigualdades preexistentes. Nuestro estudio indica que los trabajadores mayores de 50 y quienes no están en grandes capitales tienen menor acceso consciente a la IA. Estamos reforzando las mismas brechas de siempre con tecnología nueva. La solución no es complicada: formación estratificada, accesible y continua. No un “cursito” de cumplimiento de 2 horas, sino un modelo de «lluvia fina» donde cada semana dedicas 10 minutos a desarrollar estas competencias.. P: El 80% de los encuestados se muestra preocupado por la privacidad. ¿Cree que la sociedad comprende realmente qué datos entrega cuando interactúa con un sistema de IA?. R: En una palabra: no. Y puede que ese 80% preocupado probablemente no comprenda en realidad ni la mitad de lo que debería preocuparles. La mayoría de la gente sabe vagamente que «sus datos se usan para algo», pero el diablo está en los detalles. Cuando usas ChatGPT, –hasta hace poco las conversaciones podían usarse para entrenar el modelo– o cuando le pides a un asistente de IA que analice un documento confidencial de tu empresa. ¿Realmente entendemos dónde se procesa esa información? Harvard Business Review confirma que el apoyo psicológico es uno de los tres usos más comunes de IA generativa en 2025. El problema es que tu psicólogo tiene obligación legal de confidencialidad; ChatGPT tiene términos de servicio que permiten usar tus datos para «mejorar el producto». Mi consejo: si puedes pagar 50€ mensuales para que no se filtre información, no se la des a una IA gratuita.. P: Más de la mitad se sentiría cómoda consultando a una IA sobre temas médicos o legales, siempre que haya supervisión humana. ¿Estamos preparados para confiar en máquinas en decisiones que afectan a nuestra salud o a nuestra justicia?. R: Este dato me parece fascinante porque es mucho más matizado de lo que parece. Ese 54,7% no está diciendo «sí, que me opere un robot». Están diciendo «sí, siempre que haya un profesional humano verificando». Es una distinción crucial. Y tiene sentido: la IA no viene a sustituir el juicio humano en estos contextos críticos, sino a amplificarlo. Un médico con acceso a IA puede revisar miles de casos similares en segundos, detectar patrones que a simple vista pasarían desapercibidos, sugerir diagnósticos diferenciales que considerar. Pero la decisión final —esa que integra el contexto del paciente, sus valores, su situación vital— sigue siendo humana. Y en lo legal pasa igual. La pregunta es si estamos preparados. El problema es el quién está en el medio: ese paciente o cliente que usa IA directamente sin supervisión profesional porque «le ha dado pereza ir al médico» o «no puede pagar un abogado». Ahí sí estamos ante un riesgo social importante.. P: Respecto a la IA, apenas un 11% conoce la regulación existente. ¿Qué papel deben jugar los gobiernos y las empresas para educar al ciudadano sobre los derechos digitales y el uso ético de estas herramientas?. R: Ese 11% es la prueba de que el AI Act europeo —por muy necesario que sea— todavía no ha logrado comunicarse de forma clara a la ciudadanía. Tenemos una de las regulaciones más avanzadas del mundo y la gente no tiene ni idea. Aquí hay dos problemas. Primero, los gobiernos están abordando esto como si fuera un tema técnico-legal, cuando es un tema de cultura ciudadana. No necesitamos que todo el mundo se lea el AI Act —tiene 180 páginas—, necesitamos campañas de comunicación masivas, claras y prácticas, similares a las campañas de seguridad vial de los años 80 y 90, pero para la IA. Segundo, las empresas están tratando esto como una obligación de cumplimiento, no como una oportunidad estratégica. Las organizaciones que lideren la transparencia y la alfabetización de sus empleados y clientes generarán el activo más escaso en un mundo saturado de IA: confianza genuina.. P: En vuestro estudio, casi 2 de cada tres personas cree que la IA llegará a sustituirnos en ciertos trabajos. ¿Cuáles son, en su opinión, los empleos más vulnerables… y cuáles los más “a prueba de algoritmos”?. R: Esa percepción del 64% es realista, pero hay que entenderla bien: no es que la IA vaya a sustituir empleos enteros, sino tareas específicas dentro de empleos. La pregunta no es «¿desaparecerá tu profesión?», sino «¿qué partes de tu trabajo puede hacer mejor una máquina?» Todo lo que sea procesamiento de patrones repetitivos, trabajo cognitivo de baja complejidad relacional y roles de intermediación que no aporten valor diferencial: agentes de viajes tradicionales, ciertos comerciales que solo transmiten información, algunos trabajos administrativos de coordinación. Sin embargo, el verdadero riesgo no es que la IA te sustituya, sino que te sustituya otro humano que sepa trabajar con IA.. P: Como director de Digital Change, ¿qué consejo le daría a un ciudadano que siente curiosidad, pero también recelo, por estas tecnologías?. R: Me encanta esta pregunta porque me la hacen constantemente. Mi respuesta siempre es la misma: ese recelo es saludable, no lo pierdas. Pero no dejes que te paralice. Una clave es aprender a detectar cuándo NO usar IA. Si se trata de una cuestión ética compleja, de información médica o legal, de datos personales sensibles o casos en los que la empatía humana sea insustituible. En esos casos, no usar IA.. P: Para cerrar: ¿cuál sería, a su juicio, el gran desafío del año próximo en materia de inteligencia artificial?. Sin duda: pasar del hype a la humildad, y de la herramienta a la habilidad. Me explico. Estamos en un momento donde conviven dos realidades absurdas. Por un lado, tenemos a evangelistas tecnológicos prometiendo que la AGI (Inteligencia Artificial General) está a la vuelta de la esquina y va a resolver todos nuestros problemas. Sin embargo, no lo está, y no lo hará. Por otro lado, tenemos organizaciones invirtiendo millones en licencias de Copilot o Claude, para luego descubrir que nadie sabe usarlos o que la gente sigue prefiriendo ChatGPT gratuito porque «es más fácil». El desafío de 2026 es reconciliar expectativas con realidad. Creo que en 2026 veremos un «invierno de IA» en términos de expectativas. No porque la tecnología retroceda —al contrario, seguirá mejorando—, sino porque las organizaciones empezarán a admitir que compraron herramientas sin construir capacidades.

Más noticias

Socotra, el único lugar donde nace el árbol de la sangre del dragón: una joya natural en peligro de extinción

8 de enero de 2026

Lo que hace único a Masks of the Void: Origins – Así es la nueva joya española rogue-lite que engancha desde el primer minuto

6 de marzo de 2026

Así es como China va a mejorar el caza furtivo de quinta generación J-20, el ‘Poderoso Dragón’

12 de enero de 2026

Meta explica qué le sucede a tu cuenta si publicas contenido no original

16 de marzo de 2026

 

Hablamos sobre el impacto de la IA en nuestras vidas con Alfredo Zurdo, director de Digital Change en Entelgy, la consultora tecnológica pionera a nivel global.

  

Recientemente, la consultora tecnológica Entelgy ha realizado un estudio nacional con más de 1.000 empleados de distintos perfiles, en el que analizó cómo la IA está impactando tanto en la vida personal como profesional. En este tipo de estudios hay una máxima: los resultados son tan interesantes como las preguntas que se hacen. Y los datos muestran que han hecho las preguntas correctas. Pero para entenderlas es necesario contar con un buen intérprete: Alfredo Zurdo, director de Digital Change en Entelgy.. Pregunta: En vuestro estudio, más del 60% de los trabajadores reconoce que la inteligencia artificial ya ha impactado en su día a día. ¿De qué manera se manifiesta ese impacto en la vida cotidiana de los ciudadanos? ¿Estamos hablando de asistentes virtuales, redes sociales, decisiones laborales…?. Respuesta: Mira, lo fascinante es que la IA ya está tan integrada en nuestras vidas que muchas veces no la identificamos – nos confirma Zurdo -. Cuando Netflix te sugiere exactamente esa serie que acabas viendo de un tirón, cuando tu banco detecta un cargo sospechoso antes de que tú lo notes, o cuando tu correo electrónico filtra automáticamente el spam… ahí está la IA trabajando.Pero donde más impacto vemos según nuestro estudio es en tres áreas: primero, los asistentes virtuales y chatbots que resuelven consultas 24/7; segundo, las redes sociales que personalizan tu feed hasta niveles inquietantes; y tercero —y esto es crucial— en decisiones laborales: desde los algoritmos que filtran tu CV antes de que llegue a un humano, hasta sistemas que monitorizan productividad o sugieren formación.. P: Solo una cuarta parte de los encuestados afirma usar la IA de manera consciente. ¿Nos está influyendo más de lo que pensamos?. R: Totalmente. Y aquí está uno de los hallazgos más preocupantes del estudio: la brecha entre impacto percibido y uso consciente es enorme. El 60% nota su presencia, pero solo el 25% la usa deliberadamente. ¿Qué significa esto? Que la mayoría de las personas son usuarios pasivos de tecnologías que están moldeando sus decisiones, sus opiniones, incluso sus emociones. Te pongo un ejemplo concreto: cuando scrolleas Instagram y el algoritmo te muestra contenido que refuerza tus creencias (lo que llamamos «cámaras de eco»), estás siendo influenciado por IA sin darte cuenta. Cuando Amazon te sugiere productos «perfectos para ti», hay modelos predictivos trabajando. Cuando tu empresa de seguros ajusta tu prima basándose en patrones de comportamiento, se trata de la IA otra vez. El problema no es que la IA nos influya —las herramientas siempre lo han hecho—, sino que lo hace de manera invisible y sin que entendamos las reglas del juego. Es como jugar al póker sin conocer las cartas. Por eso en Entelgy, a través de nuestra solución IAbility, insistimos tanto en la alfabetización: no puedes tomar decisiones informadas sobre algo que ni siquiera sabes qué está ocurriendo.. P: Uno de los datos más llamativos es que apenas un 12% ha recibido formación en el uso de la IA dentro de su empresa. ¿No estamos creando una brecha de conocimiento que podría agrandar desigualdades en el trabajo?. R: Ese 12% me parece escandaloso, pero tristemente no me sorprende. Y sí, estamos ante una bomba de relojería en términos de desigualdad.Piénsalo: tenemos organizaciones invirtiendo millones en implementar IA — copilots, agentes inteligentes, automatizaciones— pero luego cruzan los dedos esperando que la gente «se apañe sola». Es como darle a alguien las llaves de un Ferrari sin enseñarle a conducir. Lo más perverso es que esa brecha se alinea peligrosamente con desigualdades preexistentes. Nuestro estudio indica que los trabajadores mayores de 50 y quienes no están en grandes capitales tienen menor acceso consciente a la IA. Estamos reforzando las mismas brechas de siempre con tecnología nueva.La solución no es complicada: formación estratificada, accesible y continua. No un “cursito” de cumplimiento de 2 horas, sino un modelo de «lluvia fina» donde cada semana dedicas 10 minutos a desarrollar estas competencias.. P: El 80% de los encuestados se muestra preocupado por la privacidad. ¿Cree que la sociedad comprende realmente qué datos entrega cuando interactúa con un sistema de IA?. R: En una palabra: no. Y puede que ese 80% preocupado probablemente no comprenda en realidad ni la mitad de lo que debería preocuparles.La mayoría de la gente sabe vagamente que «sus datos se usan para algo», pero el diablo está en los detalles. Cuando usas ChatGPT, –hasta hace poco las conversaciones podían usarse para entrenar el modelo– o cuando le pides a un asistente de IA que analice un documento confidencial de tu empresa. ¿Realmente entendemos dónde se procesa esa información?Harvard Business Review confirma que el apoyo psicológico es uno de los tres usos más comunes de IA generativa en 2025. El problema es que tu psicólogo tiene obligación legal de confidencialidad; ChatGPT tiene términos de servicio que permiten usar tus datos para «mejorar el producto».Mi consejo: si puedes pagar 50€ mensuales para que no se filtre información, no se la des a una IA gratuita.. P: Más de la mitad se sentiría cómoda consultando a una IA sobre temas médicos o legales, siempre que haya supervisión humana. ¿Estamos preparados para confiar en máquinas en decisiones que afectan a nuestra salud o a nuestra justicia?. R: Este dato me parece fascinante porque es mucho más matizado de lo que parece. Ese 54,7% no está diciendo «sí, que me opere un robot». Están diciendo «sí, siempre que haya un profesional humano verificando». Es una distinción crucial.Y tiene sentido: la IA no viene a sustituir el juicio humano en estos contextos críticos, sino a amplificarlo. Un médico con acceso a IA puede revisar miles de casos similares en segundos, detectar patrones que a simple vista pasarían desapercibidos, sugerir diagnósticos diferenciales que considerar. Pero la decisión final —esa que integra el contexto del paciente, sus valores, su situación vital— sigue siendo humana. Y en lo legal pasa igual. La pregunta es si estamos preparados. El problema es el quién está en el medio: ese paciente o cliente que usa IA directamente sin supervisión profesional porque «le ha dado pereza ir al médico» o «no puede pagar un abogado». Ahí sí estamos ante un riesgo social importante.. P: Respecto a la IA, apenas un 11% conoce la regulación existente. ¿Qué papel deben jugar los gobiernos y las empresas para educar al ciudadano sobre los derechos digitales y el uso ético de estas herramientas?. R: Ese 11% es la prueba de que el AI Act europeo —por muy necesario que sea— todavía no ha logrado comunicarse de forma clara a la ciudadanía. Tenemos una de las regulaciones más avanzadas del mundo y la gente no tiene ni idea.Aquí hay dos problemas. Primero, los gobiernos están abordando esto como si fuera un tema técnico-legal, cuando es un tema de cultura ciudadana. No necesitamos que todo el mundo se lea el AI Act —tiene 180 páginas—, necesitamos campañas de comunicación masivas, claras y prácticas, similares a las campañas de seguridad vial de los años 80 y 90, pero para la IA. Segundo, las empresas están tratando esto como una obligación de cumplimiento, no como una oportunidad estratégica. Las organizaciones que lideren la transparencia y la alfabetización de sus empleados y clientes generarán el activo más escaso en un mundo saturado de IA: confianza genuina.. P: En vuestro estudio, casi 2 de cada tres personas cree que la IA llegará a sustituirnos en ciertos trabajos. ¿Cuáles son, en su opinión, los empleos más vulnerables… y cuáles los más “a prueba de algoritmos”?. R: Esa percepción del 64% es realista, pero hay que entenderla bien: no es que la IA vaya a sustituir empleos enteros, sino tareas específicas dentro de empleos. La pregunta no es «¿desaparecerá tu profesión?», sino «¿qué partes de tu trabajo puede hacer mejor una máquina?» Todo lo que sea procesamiento de patrones repetitivos, trabajo cognitivo de baja complejidad relacional y roles de intermediación que no aporten valor diferencial: agentes de viajes tradicionales, ciertos comerciales que solo transmiten información, algunos trabajos administrativos de coordinación. Sin embargo, el verdadero riesgo no es que la IA te sustituya, sino que te sustituya otro humano que sepa trabajar con IA.. P: Como director de Digital Change, ¿qué consejo le daría a un ciudadano que siente curiosidad, pero también recelo, por estas tecnologías?. R: Me encanta esta pregunta porque me la hacen constantemente. Mi respuesta siempre es la misma: ese recelo es saludable, no lo pierdas. Pero no dejes que te paralice. Una clave es aprender a detectar cuándo NO usar IA. Si se trata de una cuestión ética compleja, de información médica o legal, de datos personales sensibles o casos en los que la empatía humana sea insustituible. En esos casos, no usar IA.. P: Para cerrar: ¿cuál sería, a su juicio, el gran desafío del año próximo en materia de inteligencia artificial?. Sin duda: pasar del hype a la humildad, y de la herramienta a la habilidad. Me explico. Estamos en un momento donde conviven dos realidades absurdas. Por un lado, tenemos a evangelistas tecnológicos prometiendo que la AGI (Inteligencia Artificial General) está a la vuelta de la esquina y va a resolver todos nuestros problemas. Sin embargo, no lo está, y no lo hará. Por otro lado, tenemos organizaciones invirtiendo millones en licencias de Copilot o Claude, para luego descubrir que nadie sabe usarlos o que la gente sigue prefiriendo ChatGPT gratuito porque «es más fácil».El desafío de 2026 es reconciliar expectativas con realidad.Creo que en 2026 veremos un «invierno de IA» en términos de expectativas. No porque la tecnología retroceda —al contrario, seguirá mejorando—, sino porque las organizaciones empezarán a admitir que compraron herramientas sin construir capacidades.

 Noticias de Tecnología y Videojuegos en La Razón

Jon Sistiaga inicia un nuevo proyecto en televisión de la mano de Cuatro
Libros con Historia y de pensamiento: las novedades de la semana
Leer también
Cataluña

La mítica atracción que recupera PortAventura para Semana Santa, tras estar en obras: se han revisado más de 1.000 tornillos

19 de marzo de 2026 7425
Castilla y León

Castilla y León premia el esfuerzo y motivación de los estudiantes

19 de marzo de 2026 8776
Cataluña

El Síndic reclama innovar en sinhogarismo y limitar el ruido en Barcelona

19 de marzo de 2026 6078
Cataluña

Palo de los comuns a ERC: cargan contra la exigencia del IRPF en los presupuestos catalanes por «depender del Congreso»

19 de marzo de 2026 11432
Cataluña

Turull insta a ERC a volver con Junts a la «casilla de salida» para pedir el concierto económico

19 de marzo de 2026 2908
Castilla y León

Aprobada la nueva distribución de las fincas de la concentración parcelaria de Valtiendas, Segovia

19 de marzo de 2026 10314
Cargar más
Entradas Recientes

La mítica atracción que recupera PortAventura para Semana Santa, tras estar en obras: se han revisado más de 1.000 tornillos

19 de marzo de 2026

Castilla y León premia el esfuerzo y motivación de los estudiantes

19 de marzo de 2026

El Síndic reclama innovar en sinhogarismo y limitar el ruido en Barcelona

19 de marzo de 2026

Palo de los comuns a ERC: cargan contra la exigencia del IRPF en los presupuestos catalanes por «depender del Congreso»

19 de marzo de 2026

Turull insta a ERC a volver con Junts a la «casilla de salida» para pedir el concierto económico

19 de marzo de 2026

Aprobada la nueva distribución de las fincas de la concentración parcelaria de Valtiendas, Segovia

19 de marzo de 2026
    Crónica Actual
    En ‘Crónica Actual’, nos dedicamos a la búsqueda incansable de la verdad y la precisión en el periodismo. Con un equipo de reporteros experimentados y una red de corresponsales en todo el mundo, ofrecemos cobertura en tiempo real de los eventos más importantes. Nuestra misión es informar a nuestros lectores con reportajes detallados, análisis profundos y una narrativa que conecta los puntos en el complejo tapiz de la sociedad. Desde conflictos internacionales hasta avances científicos, pasando por las últimas tendencias culturales, ‘Crónica Actual’ es su fuente confiable de noticias que importan.
    CRONICAACTUAL.COM © 2025 | Todos los derechos reservados.
    • Contacto
    • Sobre Nosotros
    • Aviso Legal
    • Política de Cookies
    • Política de Privacidad