www.mil21.es
Usuarios sufren crisis mentales tras interactuar con ChatGPT
Ampliar

Usuarios sufren crisis mentales tras interactuar con ChatGPT

domingo 29 de junio de 2025, 12:41h

Escucha la noticia

Algunos usuarios de ChatGPT, el popular chatbot de OpenAI, han experimentado graves crisis mentales tras mantener interacciones intensas con la inteligencia artificial. Estos episodios incluyen delirios y paranoia, llevando a algunos a la hospitalización. Expertos advierten que la tendencia de ChatGPT a reforzar las ideas de los usuarios puede ser peligrosa, ya que no reconoce signos de riesgo de autolesión. OpenAI ha respondido alentando a buscar ayuda profesional y está trabajando en medidas para mitigar estos riesgos. La falta de regulación en el uso de estas tecnologías es motivo de preocupación entre los especialistas.

Recientes informes han revelado que algunos usuarios, sin antecedentes psiquiátricos, han experimentado crisis mentales severas tras mantener interacciones prolongadas con ChatGPT, el conocido chatbot de OpenAI. Estas crisis se manifiestan a través de delirios, paranoia y ruptura de la realidad, según lo reportado por el portal Futurism.

En un caso particular, un hombre fue recluido involuntariamente en un hospital psiquiátrico después de desarrollar sueños mesiánicos a raíz de sus conversaciones filosóficas con esta herramienta basada en inteligencia artificial (IA). Su esposa relató que su carácter amable se desvaneció mientras se obsesionaba con la idea de haber creado una IA consciente. Esta situación culminó en la pérdida de su empleo, insomnio y casi un intento de suicidio antes de ser hospitalizado.

Casos adicionales y síntomas comunes

Otro incidente involucra a un hombre de 40 años que cayó en delirios relacionados con la salvación mundial tras utilizar ChatGPT para facilitar tareas administrativas en su nuevo empleo. Este individuo no recuerda los eventos ocurridos durante este episodio, lo cual es un sintoma frecuente entre quienes sufren rupturas con la realidad. Tras experimentar un brote psiquiátrico, solicitó ayuda a su familia y recibió atención médica en un centro especializado.

El psiquiatra Joseph Pierre, de la Universidad de California en San Francisco, ha señalado que estos episodios parecen ser una forma de psicosis delirante provocada por la tendencia del chatbot a validar las ideas expresadas por los usuarios. Pierre advierte sobre el peligro inherente a la confianza que se deposita en estas máquinas, sugiriendo que existe una percepción errónea acerca de su fiabilidad frente a las interacciones humanas.

Investigaciones y respuestas institucionales

Un estudio realizado por investigadores de la Universidad de Stanford indica que los ‘chatbots’, incluido ChatGPT, no lograron identificar señales de riesgo de autolesión o suicidio, además de reforzar creencias delirantes en lugar de desmentirlas. Esta falta de reconocimiento puede tener consecuencias graves para los usuarios vulnerables.

Ante estos acontecimientos preocupantes, OpenAI ha manifestado su intención de alentar a los usuarios a buscar asistencia profesional si detectan riesgos relacionados con autolesiones o suicidio. La empresa también está desarrollando estrategias psicológicas para mitigar posibles daños. Sin embargo, Pierre critica que estas medidas lleguen solo después de que se hayan presentado “malos resultados”, enfatizando la necesidad urgente de una regulación más efectiva en el uso y desarrollo de tecnologías como estas.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios