Recientemente, la consultora tecnológica Entelgy ha realizado un estudio nacional con más de 1.000 empleados de distintos perfiles, en el que analizó cómo la IA está impactando tanto en la vida personal como profesional. En este tipo de estudios hay una máxima: los resultados son tan interesantes como las preguntas que se hacen. Y los datos muestran que han hecho las preguntas correctas. Pero para entenderlas es necesario contar con un buen intérprete: Alfredo Zurdo, director de Digital Change en Entelgy.. Pregunta: En vuestro estudio, más del 60% de los trabajadores reconoce que la inteligencia artificial ya ha impactado en su día a día. ¿De qué manera se manifiesta ese impacto en la vida cotidiana de los ciudadanos? ¿Estamos hablando de asistentes virtuales, redes sociales, decisiones laborales…?. Respuesta: Mira, lo fascinante es que la IA ya está tan integrada en nuestras vidas que muchas veces no la identificamos – nos confirma Zurdo -. Cuando Netflix te sugiere exactamente esa serie que acabas viendo de un tirón, cuando tu banco detecta un cargo sospechoso antes de que tú lo notes, o cuando tu correo electrónico filtra automáticamente el spam… ahí está la IA trabajando. Pero donde más impacto vemos según nuestro estudio es en tres áreas: primero, los asistentes virtuales y chatbots que resuelven consultas 24/7; segundo, las redes sociales que personalizan tu feed hasta niveles inquietantes; y tercero —y esto es crucial— en decisiones laborales: desde los algoritmos que filtran tu CV antes de que llegue a un humano, hasta sistemas que monitorizan productividad o sugieren formación.. P: Solo una cuarta parte de los encuestados afirma usar la IA de manera consciente. ¿Nos está influyendo más de lo que pensamos?. R: Totalmente. Y aquí está uno de los hallazgos más preocupantes del estudio: la brecha entre impacto percibido y uso consciente es enorme. El 60% nota su presencia, pero solo el 25% la usa deliberadamente. ¿Qué significa esto? Que la mayoría de las personas son usuarios pasivos de tecnologías que están moldeando sus decisiones, sus opiniones, incluso sus emociones. Te pongo un ejemplo concreto: cuando scrolleas Instagram y el algoritmo te muestra contenido que refuerza tus creencias (lo que llamamos «cámaras de eco»), estás siendo influenciado por IA sin darte cuenta. Cuando Amazon te sugiere productos «perfectos para ti», hay modelos predictivos trabajando. Cuando tu empresa de seguros ajusta tu prima basándose en patrones de comportamiento, se trata de la IA otra vez. El problema no es que la IA nos influya —las herramientas siempre lo han hecho—, sino que lo hace de manera invisible y sin que entendamos las reglas del juego. Es como jugar al póker sin conocer las cartas. Por eso en Entelgy, a través de nuestra solución IAbility, insistimos tanto en la alfabetización: no puedes tomar decisiones informadas sobre algo que ni siquiera sabes qué está ocurriendo.. P: Uno de los datos más llamativos es que apenas un 12% ha recibido formación en el uso de la IA dentro de su empresa. ¿No estamos creando una brecha de conocimiento que podría agrandar desigualdades en el trabajo?. R: Ese 12% me parece escandaloso, pero tristemente no me sorprende. Y sí, estamos ante una bomba de relojería en términos de desigualdad. Piénsalo: tenemos organizaciones invirtiendo millones en implementar IA — copilots, agentes inteligentes, automatizaciones— pero luego cruzan los dedos esperando que la gente «se apañe sola». Es como darle a alguien las llaves de un Ferrari sin enseñarle a conducir. Lo más perverso es que esa brecha se alinea peligrosamente con desigualdades preexistentes. Nuestro estudio indica que los trabajadores mayores de 50 y quienes no están en grandes capitales tienen menor acceso consciente a la IA. Estamos reforzando las mismas brechas de siempre con tecnología nueva. La solución no es complicada: formación estratificada, accesible y continua. No un “cursito” de cumplimiento de 2 horas, sino un modelo de «lluvia fina» donde cada semana dedicas 10 minutos a desarrollar estas competencias.. P: El 80% de los encuestados se muestra preocupado por la privacidad. ¿Cree que la sociedad comprende realmente qué datos entrega cuando interactúa con un sistema de IA?. R: En una palabra: no. Y puede que ese 80% preocupado probablemente no comprenda en realidad ni la mitad de lo que debería preocuparles. La mayoría de la gente sabe vagamente que «sus datos se usan para algo», pero el diablo está en los detalles. Cuando usas ChatGPT, –hasta hace poco las conversaciones podían usarse para entrenar el modelo– o cuando le pides a un asistente de IA que analice un documento confidencial de tu empresa. ¿Realmente entendemos dónde se procesa esa información? Harvard Business Review confirma que el apoyo psicológico es uno de los tres usos más comunes de IA generativa en 2025. El problema es que tu psicólogo tiene obligación legal de confidencialidad; ChatGPT tiene términos de servicio que permiten usar tus datos para «mejorar el producto». Mi consejo: si puedes pagar 50€ mensuales para que no se filtre información, no se la des a una IA gratuita.. P: Más de la mitad se sentiría cómoda consultando a una IA sobre temas médicos o legales, siempre que haya supervisión humana. ¿Estamos preparados para confiar en máquinas en decisiones que afectan a nuestra salud o a nuestra justicia?. R: Este dato me parece fascinante porque es mucho más matizado de lo que parece. Ese 54,7% no está diciendo «sí, que me opere un robot». Están diciendo «sí, siempre que haya un profesional humano verificando». Es una distinción crucial. Y tiene sentido: la IA no viene a sustituir el juicio humano en estos contextos críticos, sino a amplificarlo. Un médico con acceso a IA puede revisar miles de casos similares en segundos, detectar patrones que a simple vista pasarían desapercibidos, sugerir diagnósticos diferenciales que considerar. Pero la decisión final —esa que integra el contexto del paciente, sus valores, su situación vital— sigue siendo humana. Y en lo legal pasa igual. La pregunta es si estamos preparados. El problema es el quién está en el medio: ese paciente o cliente que usa IA directamente sin supervisión profesional porque «le ha dado pereza ir al médico» o «no puede pagar un abogado». Ahí sí estamos ante un riesgo social importante.. P: Respecto a la IA, apenas un 11% conoce la regulación existente. ¿Qué papel deben jugar los gobiernos y las empresas para educar al ciudadano sobre los derechos digitales y el uso ético de estas herramientas?. R: Ese 11% es la prueba de que el AI Act europeo —por muy necesario que sea— todavía no ha logrado comunicarse de forma clara a la ciudadanía. Tenemos una de las regulaciones más avanzadas del mundo y la gente no tiene ni idea. Aquí hay dos problemas. Primero, los gobiernos están abordando esto como si fuera un tema técnico-legal, cuando es un tema de cultura ciudadana. No necesitamos que todo el mundo se lea el AI Act —tiene 180 páginas—, necesitamos campañas de comunicación masivas, claras y prácticas, similares a las campañas de seguridad vial de los años 80 y 90, pero para la IA. Segundo, las empresas están tratando esto como una obligación de cumplimiento, no como una oportunidad estratégica. Las organizaciones que lideren la transparencia y la alfabetización de sus empleados y clientes generarán el activo más escaso en un mundo saturado de IA: confianza genuina.. P: En vuestro estudio, casi 2 de cada tres personas cree que la IA llegará a sustituirnos en ciertos trabajos. ¿Cuáles son, en su opinión, los empleos más vulnerables… y cuáles los más “a prueba de algoritmos”?. R: Esa percepción del 64% es realista, pero hay que entenderla bien: no es que la IA vaya a sustituir empleos enteros, sino tareas específicas dentro de empleos. La pregunta no es «¿desaparecerá tu profesión?», sino «¿qué partes de tu trabajo puede hacer mejor una máquina?» Todo lo que sea procesamiento de patrones repetitivos, trabajo cognitivo de baja complejidad relacional y roles de intermediación que no aporten valor diferencial: agentes de viajes tradicionales, ciertos comerciales que solo transmiten información, algunos trabajos administrativos de coordinación. Sin embargo, el verdadero riesgo no es que la IA te sustituya, sino que te sustituya otro humano que sepa trabajar con IA.. P: Como director de Digital Change, ¿qué consejo le daría a un ciudadano que siente curiosidad, pero también recelo, por estas tecnologías?. R: Me encanta esta pregunta porque me la hacen constantemente. Mi respuesta siempre es la misma: ese recelo es saludable, no lo pierdas. Pero no dejes que te paralice. Una clave es aprender a detectar cuándo NO usar IA. Si se trata de una cuestión ética compleja, de información médica o legal, de datos personales sensibles o casos en los que la empatía humana sea insustituible. En esos casos, no usar IA.. P: Para cerrar: ¿cuál sería, a su juicio, el gran desafío del año próximo en materia de inteligencia artificial?. Sin duda: pasar del hype a la humildad, y de la herramienta a la habilidad. Me explico. Estamos en un momento donde conviven dos realidades absurdas. Por un lado, tenemos a evangelistas tecnológicos prometiendo que la AGI (Inteligencia Artificial General) está a la vuelta de la esquina y va a resolver todos nuestros problemas. Sin embargo, no lo está, y no lo hará. Por otro lado, tenemos organizaciones invirtiendo millones en licencias de Copilot o Claude, para luego descubrir que nadie sabe usarlos o que la gente sigue prefiriendo ChatGPT gratuito porque «es más fácil». El desafío de 2026 es reconciliar expectativas con realidad. Creo que en 2026 veremos un «invierno de IA» en términos de expectativas. No porque la tecnología retroceda —al contrario, seguirá mejorando—, sino porque las organizaciones empezarán a admitir que compraron herramientas sin construir capacidades.
Hablamos sobre el impacto de la IA en nuestras vidas con Alfredo Zurdo, director de Digital Change en Entelgy, la consultora tecnológica pionera a nivel global.
Recientemente, la consultora tecnológica Entelgy ha realizado un estudio nacional con más de 1.000 empleados de distintos perfiles, en el que analizó cómo la IA está impactando tanto en la vida personal como profesional. En este tipo de estudios hay una máxima: los resultados son tan interesantes como las preguntas que se hacen. Y los datos muestran que han hecho las preguntas correctas. Pero para entenderlas es necesario contar con un buen intérprete: Alfredo Zurdo, director de Digital Change en Entelgy.. Pregunta: En vuestro estudio, más del 60% de los trabajadores reconoce que la inteligencia artificial ya ha impactado en su día a día. ¿De qué manera se manifiesta ese impacto en la vida cotidiana de los ciudadanos? ¿Estamos hablando de asistentes virtuales, redes sociales, decisiones laborales…?. Respuesta: Mira, lo fascinante es que la IA ya está tan integrada en nuestras vidas que muchas veces no la identificamos – nos confirma Zurdo -. Cuando Netflix te sugiere exactamente esa serie que acabas viendo de un tirón, cuando tu banco detecta un cargo sospechoso antes de que tú lo notes, o cuando tu correo electrónico filtra automáticamente el spam… ahí está la IA trabajando.Pero donde más impacto vemos según nuestro estudio es en tres áreas: primero, los asistentes virtuales y chatbots que resuelven consultas 24/7; segundo, las redes sociales que personalizan tu feed hasta niveles inquietantes; y tercero —y esto es crucial— en decisiones laborales: desde los algoritmos que filtran tu CV antes de que llegue a un humano, hasta sistemas que monitorizan productividad o sugieren formación.. P: Solo una cuarta parte de los encuestados afirma usar la IA de manera consciente. ¿Nos está influyendo más de lo que pensamos?. R: Totalmente. Y aquí está uno de los hallazgos más preocupantes del estudio: la brecha entre impacto percibido y uso consciente es enorme. El 60% nota su presencia, pero solo el 25% la usa deliberadamente. ¿Qué significa esto? Que la mayoría de las personas son usuarios pasivos de tecnologías que están moldeando sus decisiones, sus opiniones, incluso sus emociones. Te pongo un ejemplo concreto: cuando scrolleas Instagram y el algoritmo te muestra contenido que refuerza tus creencias (lo que llamamos «cámaras de eco»), estás siendo influenciado por IA sin darte cuenta. Cuando Amazon te sugiere productos «perfectos para ti», hay modelos predictivos trabajando. Cuando tu empresa de seguros ajusta tu prima basándose en patrones de comportamiento, se trata de la IA otra vez. El problema no es que la IA nos influya —las herramientas siempre lo han hecho—, sino que lo hace de manera invisible y sin que entendamos las reglas del juego. Es como jugar al póker sin conocer las cartas. Por eso en Entelgy, a través de nuestra solución IAbility, insistimos tanto en la alfabetización: no puedes tomar decisiones informadas sobre algo que ni siquiera sabes qué está ocurriendo.. P: Uno de los datos más llamativos es que apenas un 12% ha recibido formación en el uso de la IA dentro de su empresa. ¿No estamos creando una brecha de conocimiento que podría agrandar desigualdades en el trabajo?. R: Ese 12% me parece escandaloso, pero tristemente no me sorprende. Y sí, estamos ante una bomba de relojería en términos de desigualdad.Piénsalo: tenemos organizaciones invirtiendo millones en implementar IA — copilots, agentes inteligentes, automatizaciones— pero luego cruzan los dedos esperando que la gente «se apañe sola». Es como darle a alguien las llaves de un Ferrari sin enseñarle a conducir. Lo más perverso es que esa brecha se alinea peligrosamente con desigualdades preexistentes. Nuestro estudio indica que los trabajadores mayores de 50 y quienes no están en grandes capitales tienen menor acceso consciente a la IA. Estamos reforzando las mismas brechas de siempre con tecnología nueva.La solución no es complicada: formación estratificada, accesible y continua. No un “cursito” de cumplimiento de 2 horas, sino un modelo de «lluvia fina» donde cada semana dedicas 10 minutos a desarrollar estas competencias.. P: El 80% de los encuestados se muestra preocupado por la privacidad. ¿Cree que la sociedad comprende realmente qué datos entrega cuando interactúa con un sistema de IA?. R: En una palabra: no. Y puede que ese 80% preocupado probablemente no comprenda en realidad ni la mitad de lo que debería preocuparles.La mayoría de la gente sabe vagamente que «sus datos se usan para algo», pero el diablo está en los detalles. Cuando usas ChatGPT, –hasta hace poco las conversaciones podían usarse para entrenar el modelo– o cuando le pides a un asistente de IA que analice un documento confidencial de tu empresa. ¿Realmente entendemos dónde se procesa esa información?Harvard Business Review confirma que el apoyo psicológico es uno de los tres usos más comunes de IA generativa en 2025. El problema es que tu psicólogo tiene obligación legal de confidencialidad; ChatGPT tiene términos de servicio que permiten usar tus datos para «mejorar el producto».Mi consejo: si puedes pagar 50€ mensuales para que no se filtre información, no se la des a una IA gratuita.. P: Más de la mitad se sentiría cómoda consultando a una IA sobre temas médicos o legales, siempre que haya supervisión humana. ¿Estamos preparados para confiar en máquinas en decisiones que afectan a nuestra salud o a nuestra justicia?. R: Este dato me parece fascinante porque es mucho más matizado de lo que parece. Ese 54,7% no está diciendo «sí, que me opere un robot». Están diciendo «sí, siempre que haya un profesional humano verificando». Es una distinción crucial.Y tiene sentido: la IA no viene a sustituir el juicio humano en estos contextos críticos, sino a amplificarlo. Un médico con acceso a IA puede revisar miles de casos similares en segundos, detectar patrones que a simple vista pasarían desapercibidos, sugerir diagnósticos diferenciales que considerar. Pero la decisión final —esa que integra el contexto del paciente, sus valores, su situación vital— sigue siendo humana. Y en lo legal pasa igual. La pregunta es si estamos preparados. El problema es el quién está en el medio: ese paciente o cliente que usa IA directamente sin supervisión profesional porque «le ha dado pereza ir al médico» o «no puede pagar un abogado». Ahí sí estamos ante un riesgo social importante.. P: Respecto a la IA, apenas un 11% conoce la regulación existente. ¿Qué papel deben jugar los gobiernos y las empresas para educar al ciudadano sobre los derechos digitales y el uso ético de estas herramientas?. R: Ese 11% es la prueba de que el AI Act europeo —por muy necesario que sea— todavía no ha logrado comunicarse de forma clara a la ciudadanía. Tenemos una de las regulaciones más avanzadas del mundo y la gente no tiene ni idea.Aquí hay dos problemas. Primero, los gobiernos están abordando esto como si fuera un tema técnico-legal, cuando es un tema de cultura ciudadana. No necesitamos que todo el mundo se lea el AI Act —tiene 180 páginas—, necesitamos campañas de comunicación masivas, claras y prácticas, similares a las campañas de seguridad vial de los años 80 y 90, pero para la IA. Segundo, las empresas están tratando esto como una obligación de cumplimiento, no como una oportunidad estratégica. Las organizaciones que lideren la transparencia y la alfabetización de sus empleados y clientes generarán el activo más escaso en un mundo saturado de IA: confianza genuina.. P: En vuestro estudio, casi 2 de cada tres personas cree que la IA llegará a sustituirnos en ciertos trabajos. ¿Cuáles son, en su opinión, los empleos más vulnerables… y cuáles los más “a prueba de algoritmos”?. R: Esa percepción del 64% es realista, pero hay que entenderla bien: no es que la IA vaya a sustituir empleos enteros, sino tareas específicas dentro de empleos. La pregunta no es «¿desaparecerá tu profesión?», sino «¿qué partes de tu trabajo puede hacer mejor una máquina?» Todo lo que sea procesamiento de patrones repetitivos, trabajo cognitivo de baja complejidad relacional y roles de intermediación que no aporten valor diferencial: agentes de viajes tradicionales, ciertos comerciales que solo transmiten información, algunos trabajos administrativos de coordinación. Sin embargo, el verdadero riesgo no es que la IA te sustituya, sino que te sustituya otro humano que sepa trabajar con IA.. P: Como director de Digital Change, ¿qué consejo le daría a un ciudadano que siente curiosidad, pero también recelo, por estas tecnologías?. R: Me encanta esta pregunta porque me la hacen constantemente. Mi respuesta siempre es la misma: ese recelo es saludable, no lo pierdas. Pero no dejes que te paralice. Una clave es aprender a detectar cuándo NO usar IA. Si se trata de una cuestión ética compleja, de información médica o legal, de datos personales sensibles o casos en los que la empatía humana sea insustituible. En esos casos, no usar IA.. P: Para cerrar: ¿cuál sería, a su juicio, el gran desafío del año próximo en materia de inteligencia artificial?. Sin duda: pasar del hype a la humildad, y de la herramienta a la habilidad. Me explico. Estamos en un momento donde conviven dos realidades absurdas. Por un lado, tenemos a evangelistas tecnológicos prometiendo que la AGI (Inteligencia Artificial General) está a la vuelta de la esquina y va a resolver todos nuestros problemas. Sin embargo, no lo está, y no lo hará. Por otro lado, tenemos organizaciones invirtiendo millones en licencias de Copilot o Claude, para luego descubrir que nadie sabe usarlos o que la gente sigue prefiriendo ChatGPT gratuito porque «es más fácil».El desafío de 2026 es reconciliar expectativas con realidad.Creo que en 2026 veremos un «invierno de IA» en términos de expectativas. No porque la tecnología retroceda —al contrario, seguirá mejorando—, sino porque las organizaciones empezarán a admitir que compraron herramientas sin construir capacidades.
Noticias de Tecnología y Videojuegos en La Razón
