www.mil21.es
Advertencia: Conversaciones con ChatGPT pueden ser indexadas por Google
Ampliar

Advertencia: Conversaciones con ChatGPT pueden ser indexadas por Google

martes 19 de agosto de 2025, 23:27h

Escucha la noticia

Un creciente número de personas utiliza chatbots de inteligencia artificial como ChatGPT para discutir temas sensibles, creyendo que sus conversaciones son privadas. Sin embargo, un informe de Fast Company revela que Google ha indexado estas interacciones, exponiendo detalles personales en la web. Esto plantea serias preocupaciones sobre la privacidad, ya que los usuarios pueden no ser conscientes de que al compartir enlaces a sus chats, estos pueden volverse accesibles públicamente. Expertos advierten sobre los riesgos de seguridad y la falta de protección de datos en plataformas de IA. La situación destaca la necesidad de mayor conciencia sobre la privacidad digital y las implicaciones de compartir información personal en línea.

Un número creciente de personas recurre a los ‘chatbots’ de inteligencia artificial (IA) para mantener conversaciones sobre temas delicados, tales como la salud mental, las relaciones personales o cuestiones laborales. Muchos usuarios creen que estas interacciones son privadas y que nadie más podrá acceder a ellas, salvo que así lo decidan.

No obstante, un informe publicado por Fast Company ha revelado que Google ha indexado intercambios realizados con ChatGPT, lo que significa que conversaciones que se pensaban limitadas a amigos o familiares ahora están disponibles en la web, accesibles para millones de personas.

La exposición involuntaria de datos sensibles

El medio utilizó parte del enlace generado por la función «compartir» del popular ‘chatbot’ y descubrió detalles altamente personales, incluyendo relatos de abusos físicos, problemas graves de salud y adicciones. Curiosamente, también se encontraron mensajes donde los usuarios expresaban su preocupación por ser vigilados por una IA.

Así, si un usuario decide hacer clic en «compartir» para enviar su conversación a través de una aplicación de mensajería o guardar el enlace para futuras consultas, existe el riesgo de que dicho enlace sea indexado por Google y aparezca en búsquedas relacionadas con el contenido del intercambio.

Ambigüedad sobre la privacidad

Según Fast Company, no está claro si aquellos cuyos datos fueron expuestos eran conscientes de que sus conversaciones con el ‘chatbot’ estarían disponibles públicamente al hacer clic en el botón «compartir». Es probable que creyeran que sus diálogos permanecerían dentro de un círculo controlado por ellos mismos.

A pesar de que ChatGPT no revela directamente la identidad de los usuarios, algunos podrían ser identificados a partir de los detalles específicos mencionados durante sus interacciones. Un portavoz de OpenAI afirmó: «Las conversaciones son privadas a menos que decidas compartirlas». Sin embargo, advirtió que crear un enlace para compartir también puede incluir una opción para hacerlo visible en búsquedas web.

Consecuencias preocupantes

A pesar de las afirmaciones de OpenAI, se han encontrado casi 4.500 conversaciones privadas en los resultados de búsqueda de Google. Aunque muchas carecen de información personal identificable, no está claro si este es el total real de intercambios indexados.

Además, el director ejecutivo Sam Altman advirtió recientemente que los usuarios no deben compartir información personal con ChatGPT, ya que OpenAI podría verse obligada a entregarla si así lo requiere la justicia. Esta situación plantea interrogantes sobre la privacidad y los límites públicos en las interacciones con herramientas de IA.

Un riesgo para la seguridad personal

Los investigadores han señalado que esta vulnerabilidad podría convertirse en un instrumento útil para delincuentes corporativos. Dead1Influence, uno de los expertos informáticos involucrados en la investigación, comentó: «Ahora puedo buscar en cualquier momento para ver si empleados han compartido información sensible accidentalmente».

Los hallazgos son considerados especialmente preocupantes dado que cerca del 50% de los estadounidenses han utilizado ‘chatbots’ para obtener apoyo psicológico en el último año. De estos usuarios, un 75% buscó ayuda para manejar la ansiedad y un 60% solicitó asistencia ante episodios depresivos.

Cierre crítico sobre la privacidad digital

A diferencia del entorno confidencial proporcionado por un terapeuta humano, donde se garantiza la intimidad del paciente, las transcripciones generadas pueden aparecer fácilmente en búsquedas públicas. La eliminación del contenido indexado depende del propietario del sitio web y no es responsabilidad directa de Google.

"Estoy impactada", declaró Carissa Veliz, especialista en ética de la IA en la Universidad de Oxford. "Como experta en privacidad, sé muy bien que esos datos no son privados; sin embargo, es asombroso ver cómo Google registra estas conversaciones tan sensibles", concluyó.

No es un problema exclusivo del ‘chatbot’ de OpenAI. Otras plataformas también han comenzado a compartir consultas realizadas por sus usuarios dentro de feeds visibles. Esto ha llevado a críticas sobre el nivel de comprensión digital necesario para reconocer los riesgos asociados al compartir información privada en línea.

Veliz subrayó que la indexación de conversaciones privadas indica una falta seria respecto a cómo las grandes empresas tecnológicas manejan la privacidad: “OpenAI no es confiable; lo importante son sus acciones”, sentenció.

La noticia en cifras

Cifra Descripción
4,500 Número de conversaciones privadas que aparecieron en los resultados de búsqueda de Google.
75% Porcentaje de usuarios que usaron chatbots para lidiar con la ansiedad.
66% Proporción de usuarios que pidieron consejo para solucionar problemas personales.
60% Porcentaje de usuarios que pidió ayuda para la depresión.
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios