CLAVES

Google retira resúmenes de salud generados por IA tras errores médicos peligrosos

Google salud

OpenAI | Miércoles 14 de enero de 2026

Google ha retirado sus resúmenes de salud generados por inteligencia artificial tras una investigación que reveló errores médicos peligrosos. Estos resúmenes presentaban información médica genérica sin el contexto necesario, lo que podría llevar a los pacientes a ignorar problemas serios o entrar en pánico innecesariamente. A pesar de la eliminación de algunos resúmenes defectuosos, persiste el problema, ya que la IA tiende a reempaquetar datos poco fiables como hechos autoritarios. Expertos advierten sobre los riesgos de confiar en estas herramientas para obtener orientación médica, subrayando la necesidad de consultar fuentes médicas verificadas.



La inteligencia artificial de Google ha sido objeto de críticas tras la revelación de que proporcionaba información médica errónea y potencialmente peligrosa. Un informe de The Guardian destapó que las resúmenes generados por AI presentaban datos médicos genéricos sin el contexto necesario, lo que podría llevar a los pacientes a ignorar problemas serios o, por el contrario, a entrar en pánico innecesariamente.

A pesar de que Google ha eliminado algunos de estos resúmenes defectuosos, el problema persiste. La raíz del asunto radica en cómo la IA reinterpreta datos poco confiables de la web y los presenta como hechos autoritarios.

Un riesgo significativo

Cuando las personas buscan respuestas sobre síntomas o resultados de pruebas médicas, es común recurrir a Google. Sin embargo, ahora se enfrentan a resúmenes generados por IA que no solo son incorrectos, sino también peligrosamente engañosos. La investigación reveló fallas graves, especialmente en relación con las pruebas de función hepática. Al solicitar «rangos normales», la IA proporcionaba una lista plana de números sin considerar factores como edad, género o historial médico.

Expertos en salud han alertado sobre esta situación, indicando que un resultado normal para un joven de 20 años podría ser un signo alarmante para alguien de 50. La falta de matices en la interpretación puede tener consecuencias graves: un paciente con enfermedad hepática temprana podría interpretar su resultado como saludable y omitir una consulta médica crucial.

Consecuencias psicológicas

El peligro se manifiesta de dos maneras. Por un lado, quienes están enfermos podrían sentirse seguros al ver sus resultados dentro del rango «normal» indicado por la IA y decidir no acudir al médico. Por otro lado, otros usuarios podrían aterrarse ante la idea de tener una enfermedad grave, lo que podría generar ansiedad innecesaria y llevar a pruebas adicionales sin necesidad.

En respuesta a estas preocupaciones, Google eliminó los resúmenes relacionados con consultas específicas como «¿cuál es el rango normal para las pruebas sanguíneas hepáticas?». Un portavoz afirmó que la empresa trabaja para mejorar la precisión general y toma medidas cuando es necesario. Sin embargo, expertos como el director de comunicaciones y políticas del British Liver Trust advierten que este enfoque es superficial; simplemente cambiar la formulación de la pregunta puede hacer que reaparezcan los mismos errores.

La ilusión de certeza

El problema subyacente es la falsa autoridad que proyectan estos resúmenes. Al estar destacados en cuadros coloridos en la parte superior de los resultados de búsqueda, parecen definitivos frente a enlaces a hospitales reales o revistas médicas. Este diseño lleva a los usuarios a confiar ciegamente en el primer resultado presentado. Como señala Vanessa Hebditch del British Liver Trust, «los resúmenes AI presentan una lista de pruebas en negrita, lo que facilita pasar por alto que esos números pueden no ser correctos».

Aunque se han eliminado algunos resúmenes problemáticos, persisten otros inexactos relacionados con cáncer y salud mental. El problema radica en cómo Google construyó estos resúmenes: recopilando información desde páginas web altamente clasificadas bajo el supuesto erróneo de que son precisas. Esto permite que contenido manipulado por SEO y spam ingrese directamente al sistema AI, que luego lo presenta con un tono seguro y autoritario.

Este episodio subraya un hecho crítico: la IA es un motor predictivo y no un profesional médico. Aunque intenta predecir qué palabras deben seguirse unas a otras, carece del entendimiento necesario sobre contexto clínico o biología humana. En cuestiones tan delicadas como la salud personal, lo más prudente es ignorar el cuadro colorido generado por robots y optar por enlaces provenientes de instituciones médicas reales y responsables.

Fuentes para este artículo incluyen:

DigitalTrends.com

ARSTechnica.com

TheGuardian.com

TechCrunch.com

TEMAS RELACIONADOS:


Noticias relacionadas