Google está retirando algunos resúmenes generados por su inteligencia artificial (IA) en temas de salud luego de que una investigación periodística revelara que la función podía ofrecer información equivocada y potencialmente peligrosa para los usuarios.
La controversial función se llama AI Overviews (Visión general creada por IA, en español), con la que Google genera resúmenes de información directamente en la parte superior de los resultados de búsqueda.
Ésta ofrece respuestas rápidas y condensadas a sus preguntas, sin navegar por varios enlaces. Sin embargo, expertos advirtieron que cuando se trata de temas de salud, un error en la información puede tener consecuencias graves si los usuarios lo interpretan como consejo médico.

Esta fue la investigación que encendió las alarmas
El detonante de la decisión de Google fue una investigación publicada por The Guardian que analizó cómo los AI Overviews respondían a determinadas consultas médicas. El medio encontró ejemplos en los que la IA proporcionaba respuestas simplificadas o incorrectas.
Uno de los casos más preocupantes fue una búsqueda sobre los valores normales de pruebas de función hepática (hígado), donde el resumen generado por la inteligencia artificial mostraba rangos de cifras sin contexto adicional.
Dichos números, presentados de forma simplificada, podrían hacer que una persona con enfermedad hepática avanzada creyera erróneamente que sus resultados eran normales, retrasando una consulta médica o tratamiento adecuado, advierte el texto.
Además, expertos consultados en la investigación señalaron que los resultados no consideraban variables cruciales como edad, sexo, etnia y otros factores relevantes para interpretar pruebas médicas. Sin ese contexto, una respuesta resumida puede ser no solo imprecisa, sino potencialmente dañina.
Otro ejemplo mencionado fue un resultado sobre la dieta en pacientes con cáncer de páncreas, donde la IA sugería evitar alimentos altos en grasa, una recomendación que contradecía la opinión de expertos en nutrición clínica y que podría afectar negativamente la salud si se seguía sin supervisión profesional.

¿Qué dijo Google sobre los resúmenes de AI Overviews?
Tras la publicación de la investigación, Google comenzó a eliminar los AI Overviews para algunas consultas específicas en temas de salud, como aquellas relativas a los rangos normales de pruebas hepáticas.
La compañía no comentó sobre cada eliminación individual, pero The Guardian dijo que un portavoz le confirmó que están revisando la función para “hacer mejoras generales” y actúan bajo sus políticas cuando es necesario.
Sin embargo, esta eliminación no significa el fin de los resúmenes de IA en temas médicos. Si se modifica la búsqueda -por ejemplo, usando siglas o términos alternativos para describir la misma consulta- todavía puede aparecer un resumen, es decir, las medidas de protección aún son limitadas.
Al respecto, Google argumentó que, en muchos de los casos señalados, la información mostrada tras una búsqueda estaba respaldada por sitios web de alta calidad y que recomendaba buscar orientación profesional.
Aun así, los expertos y organizaciones de salud consultados por The Guardian consideraron que incluso información parcialmente correcta puede ser peligrosa cuando carece del contexto necesario en temas médicos.
Por qué esta decisión de Google marca un antes y un después
Que Google retire sus AI Overviews no es un ajuste menor ni un simple cambio técnico, sino una señal clara de que la inteligencia artificial aún no está lista para asumir el rol de consejero médico sin supervisión humana.
Cuando se tratan de temas de salud, una respuesta incompleta, mal contextualizada o equivocada no solo desinforma, también puede retrasar diagnósticos, generar falsas alarmas o llevar a decisiones peligrosas.
Recordemos que en la actualidad millones de personas recurren a Google como primera fuente para entender síntomas, interpretar estudios o buscar orientación sobre tratamientos; entonces, cuando esa información proviene de una IA, el margen de error se vuelve crítico.
Y es que, a diferencia de una nota periodística o un artículo médico, los resúmenes automáticos hechos con inteligencia artificial no siempre explican matices, condiciones previas o excepciones, lo que puede inducir a conclusiones equivocadas.
Además, este caso vuelve a poner sobre la mesa un problema conocido de los modelos de lenguaje: las alucinaciones, respuestas que suenan coherentes y seguras, pero que en realidad son incorrectas. En áreas como la medicina, donde cada paciente es distinto y el contexto lo es todo, ese tipo de fallos puede tener consecuencias serias.
También está el dilema de fondo: la carrera de las grandes tecnológicas por ofrecer respuestas cada vez más rápidas choca con la necesidad de ser precisos y responsables. La velocidad es atractiva para el usuario, pero en salud, esa prisa puede salir cara.
En ese sentido, la decisión de Google funciona como una llamada de atención tanto para la industria como para los usuarios: la IA puede ser una herramienta de apoyo, pero no sustituye el criterio médico ni el diagnóstico profesional.
CON INFORMACIÓN DE EXCÉLSIOR




