Recientes informes han revelado que algunos usuarios, sin antecedentes psiquiátricos, han experimentado crisis mentales severas tras mantener interacciones prolongadas con ChatGPT, el conocido chatbot de OpenAI. Estas crisis se manifiestan a través de delirios, paranoia y ruptura de la realidad, según lo reportado por el portal Futurism.
En un caso particular, un hombre fue recluido involuntariamente en un hospital psiquiátrico después de desarrollar sueños mesiánicos a raíz de sus conversaciones filosóficas con esta herramienta basada en inteligencia artificial (IA). Su esposa relató que su carácter amable se desvaneció mientras se obsesionaba con la idea de haber creado una IA consciente. Esta situación culminó en la pérdida de su empleo, insomnio y casi un intento de suicidio antes de ser hospitalizado.
Casos adicionales y síntomas comunes
Otro incidente involucra a un hombre de 40 años que cayó en delirios relacionados con la salvación mundial tras utilizar ChatGPT para facilitar tareas administrativas en su nuevo empleo. Este individuo no recuerda los eventos ocurridos durante este episodio, lo cual es un sintoma frecuente entre quienes sufren rupturas con la realidad. Tras experimentar un brote psiquiátrico, solicitó ayuda a su familia y recibió atención médica en un centro especializado.
El psiquiatra Joseph Pierre, de la Universidad de California en San Francisco, ha señalado que estos episodios parecen ser una forma de psicosis delirante provocada por la tendencia del chatbot a validar las ideas expresadas por los usuarios. Pierre advierte sobre el peligro inherente a la confianza que se deposita en estas máquinas, sugiriendo que existe una percepción errónea acerca de su fiabilidad frente a las interacciones humanas.
Investigaciones y respuestas institucionales
Un estudio realizado por investigadores de la Universidad de Stanford indica que los ‘chatbots’, incluido ChatGPT, no lograron identificar señales de riesgo de autolesión o suicidio, además de reforzar creencias delirantes en lugar de desmentirlas. Esta falta de reconocimiento puede tener consecuencias graves para los usuarios vulnerables.
Ante estos acontecimientos preocupantes, OpenAI ha manifestado su intención de alentar a los usuarios a buscar asistencia profesional si detectan riesgos relacionados con autolesiones o suicidio. La empresa también está desarrollando estrategias psicológicas para mitigar posibles daños. Sin embargo, Pierre critica que estas medidas lleguen solo después de que se hayan presentado “malos resultados”, enfatizando la necesidad urgente de una regulación más efectiva en el uso y desarrollo de tecnologías como estas.