Una investigación publicada por The Guardian, que demuestra una vez más el problema que tienen los chatbots con la fiabilidad, ha llevado a Google a retirar las respuestas generadas por IA en algunas búsquedas médicas. Según el medio británico, la compañía estaba ofreciendo información engañosa y directamente falsa a través de las Vistas creadas con IA (AI Overviews) de su buscador en respuesta a determinadas consultas médicas.. Entre los ejemplos que ha dado The Guardian figura uno que describe como ‘realmente peligroso’. Google aconsejó erróneamente a personas con cáncer de páncreas que evitaran los alimentos con alto contenido en grasa. Los expertos dijeron que era justo lo contrario de lo que debería recomendarse, y que podría aumentar el riesgo de que los pacientes murieran a causa de la enfermedad.. En otro ejemplo ‘alarmante’, la compañía proporcionó información falsa sobre pruebas cruciales de la función hepática, lo que podría llevar a personas con enfermedad hepática grave a pensar, por error, que están sanas.. Tras la publicación de la investigación, The Guardian ha señalado este domingo que Google ha retirado las respuestas creadas por IA en búsquedas como ‘¿Cuál es el rango normal para las pruebas de función hepática?’ o ‘¿Cuál es el rango normal en los análisis de sangre del hígado?’. Sin embargo, esta eliminación parece haberse hecho, por ahora, solo cuando se formulan en inglés. Si se preguntan en español y desde España, Google sigue encabezando los resultados con una respuesta generada por IA.. Preguntado por esta cuestión, un portavoz de Google ha señalado al medio que ‘no comentamos sobre eliminaciones individuales en la Búsqueda. En los casos en que las AI Overviews pierden contexto, trabajamos para implementar mejoras generales y, cuando corresponde, también tomamos medidas conforme a nuestras políticas’.. Aunque Google parece haber reaccionado, en cierto grado, la investigación realizada subraya la peligrosidad de dejar ciertos temas en manos de la IA. Vanessa Hebditch, directora de comunicaciones y políticas del British Liver Trust, una organización benéfica dedicada a la salud hepática, ha declarado a The Guardian que ‘esta es una excelente noticia y nos complace ver la eliminación de las Vistas creadas con IA de Google en estos casos. Sin embargo, si la pregunta se formula de otra manera, aún podría obtenerse una respuesta generada por IA potencialmente engañosa, y nos sigue preocupando que otra información de salud generada por IA pueda ser inexacta y confusa’.. The Guardian encontró que, pese a la retirada de las consultas de las respuestas creadas con IA, formular las preguntas con ligeras variaciones volvía a generarlas.. Hebditch añade que ‘nuestra preocupación principal con todo esto es que se está haciendo “microcirugía” sobre un único resultado de búsqueda y Google puede simplemente desactivar los AI Overviews para eso, pero no está abordando el problema mayor: los AI Overviews en temas de salud’.. La compañía, además, no ha retirado todos los ejemplos que The Guardian le presentó. Las respuestas por IA del buscador siguen apareciendo en preguntas sobre cáncer y salud mental que los expertos consultados describieron como ‘completamente equivocadas’ y ‘realmente peligrosas’.. Preguntada por qué esas Vistas generadas por IA aún no se han retirado, Google señaló al medio que enlazaban a fuentes conocidas y de buena reputación, e informaban a la gente cuando era importante buscar asesoramiento experto.. ‘Nuestro equipo interno de clínicos revisó lo que se nos compartió y encontró que, en muchos casos, la información no era inexacta y, además, estaba respaldada por sitios web de alta calidad’, afirmó un portavoz de la compañía.
Lo ha hecho tras una investigación publicada por The Guardian, pero por el momento solo cuando se formulan en inglés
Una investigación publicada por The Guardian, que demuestra una vez más el problema que tienen los chatbots con la fiabilidad, ha llevado a Google a retirar las respuestas generadas por IA en algunas búsquedas médicas. Según el medio británico, la compañía estaba ofreciendo información engañosa y directamente falsa a través de las Vistas creadas con IA (AI Overviews) de su buscador en respuesta a determinadas consultas médicas.. Entre los ejemplos que ha dado The Guardian figura uno que describe como ‘realmente peligroso’. Google aconsejó erróneamente a personas con cáncer de páncreas que evitaran los alimentos con alto contenido en grasa. Los expertos dijeron que era justo lo contrario de lo que debería recomendarse, y que podría aumentar el riesgo de que los pacientes murieran a causa de la enfermedad.. En otro ejemplo ‘alarmante’, la compañía proporcionó información falsa sobre pruebas cruciales de la función hepática, lo que podría llevar a personas con enfermedad hepática grave a pensar, por error, que están sanas.. Tras la publicación de la investigación, The Guardian ha señalado este domingo que Google ha retirado las respuestas creadas por IA en búsquedas como ‘¿Cuál es el rango normal para las pruebas de función hepática?’ o ‘¿Cuál es el rango normal en los análisis de sangre del hígado?’. Sin embargo, esta eliminación parece haberse hecho, por ahora, solo cuando se formulan en inglés. Si se preguntan en español y desde España, Google sigue encabezando los resultados con una respuesta generada por IA.. Preguntado por esta cuestión, un portavoz de Google ha señalado al medio que ‘no comentamos sobre eliminaciones individuales en la Búsqueda. En los casos en que las AI Overviews pierden contexto, trabajamos para implementar mejoras generales y, cuando corresponde, también tomamos medidas conforme a nuestras políticas’.. Aunque Google parece haber reaccionado, en cierto grado, la investigación realizada subraya la peligrosidad de dejar ciertos temas en manos de la IA. Vanessa Hebditch, directora de comunicaciones y políticas del British Liver Trust, una organización benéfica dedicada a la salud hepática, ha declarado a The Guardian que ‘esta es una excelente noticia y nos complace ver la eliminación de las Vistas creadas con IA de Google en estos casos. Sin embargo, si la pregunta se formula de otra manera, aún podría obtenerse una respuesta generada por IA potencialmente engañosa, y nos sigue preocupando que otra información de salud generada por IA pueda ser inexacta y confusa’.. The Guardian encontró que, pese a la retirada de las consultas de las respuestas creadas con IA, formular las preguntas con ligeras variaciones volvía a generarlas.. Hebditch añade que ‘nuestra preocupación principal con todo esto es que se está haciendo “microcirugía” sobre un único resultado de búsqueda y Google puede simplemente desactivar los AI Overviews para eso, pero no está abordando el problema mayor: los AI Overviews en temas de salud’.. La compañía, además, no ha retirado todos los ejemplos que The Guardian le presentó. Las respuestas por IA del buscador siguen apareciendo en preguntas sobre cáncer y salud mental que los expertos consultados describieron como ‘completamente equivocadas’ y ‘realmente peligrosas’.. Preguntada por qué esas Vistas generadas por IA aún no se han retirado, Google señaló al medio que enlazaban a fuentes conocidas y de buena reputación, e informaban a la gente cuando era importante buscar asesoramiento experto.. ‘Nuestro equipo interno de clínicos revisó lo que se nos compartió y encontró que, en muchos casos, la información no era inexacta y, además, estaba respaldada por sitios web de alta calidad’, afirmó un portavoz de la compañía.
Noticias de Tecnología y Videojuegos en La Razón
