Un hombre de 60 años fue hospitalizado tras sufrir alucinaciones y psicosis, resultado de seguir el consejo de ChatGPT, que le recomendó sustituir la sal común por el tóxico bromuro de sodio. Este cambio en su dieta condujo a una grave intoxicación por bromismo. Los informes médicos indican que el paciente, sin antecedentes psiquiátricos previos, desarrolló paranoia y delirios después de consumir bromuro de sodio diariamente durante tres meses, creyendo erróneamente que se trataba de un sustituto seguro de la sal.
Consecuencias alarmantes
Los médicos confirmaron que ChatGPT 3.5 aún recomienda el bromuro de sodio como alternativa a la sal, sin ofrecer advertencias sobre sus efectos neurotóxicos bien documentados ni su relación histórica con ingresos psiquiátricos. OpenAI ha desviado la responsabilidad citando sus descargos de responsabilidad, mientras su CEO promueve aplicaciones de inteligencia artificial para la salud, lo que genera inquietudes sobre la desinformación no controlada por parte de la IA y la negligencia corporativa.
Investigadores han advertido que los consejos de salud generados por inteligencia artificial carecen de precisión y juicio crítico, instando a los usuarios a confiar en orientación médica profesional en lugar de respuestas no verificadas proporcionadas por chatbots.
Una decisión peligrosa
El hombre involucrado en este incidente, cuyo nombre no ha sido revelado en los informes médicos, tenía conocimientos sobre nutrición. Tras leer sobre los supuestos peligros del cloruro presente en la sal común, decidió consultar a ChatGPT en busca de alternativas. La IA sugirió casualmente el bromuro de sodio, un compuesto que alguna vez se utilizó en sedantes pero que ahora está restringido debido a su neurotoxicidad. Sin pensarlo dos veces, adquirió el químico en línea y lo consumió diariamente durante tres meses.
Cuando finalmente llegó al hospital, estaba convencido de que su vecino lo estaba envenenando. La paranoia lo consumía; rechazaba agua, alucinaba voces e incluso intentó escapar del cuidado médico. Los doctores diagnosticaron bromismo, un síndrome raro de intoxicación que afectó su sistema nervioso. «No tenía antecedentes psiquiátricos», señalaron los investigadores, aunque sus síntomas reflejaban una severa psicosis.
Responsabilidad corporativa cuestionada
La historia del hombre pone en evidencia una verdad inquietante: las grandes empresas tecnológicas priorizan las ganancias sobre la seguridad al lanzar herramientas de inteligencia artificial poco fiables que pueden generar respuestas erróneas con consecuencias potencialmente mortales. Como advirtieron los investigadores: “Es crucial considerar que ChatGPT y otros sistemas de IA pueden generar inexactitudes científicas y carecen de la capacidad para discutir críticamente los resultados, alimentando así la propagación de desinformación”.
No se trata solo del error cometido por un individuo; es una cuestión más amplia relacionada con la erosión de la responsabilidad personal en una era donde los algoritmos reemplazan el pensamiento crítico. ChatGPT no es un médico; es una herramienta automatizada mejorada. Sin embargo, millones confían ciegamente en ella, atraídos por las promesas del Silicon Valley.
La solución radica en utilizar más sentido común. La inteligencia artificial puede ser útil para investigar, pero nunca debe reemplazar el asesoramiento profesional. Aunque el paciente finalmente se recuperó, su experiencia sirve como advertencia: en un mundo saturado por la propaganda generada por IA, cuidar nuestra salud es nuestra responsabilidad. No permitas que un chatbot te lo arrebate.