Los chatbots de inteligencia artificial han demostrado ser herramientas valiosas para optimizar el tiempo y los recursos. Sin embargo, expertos en ciberseguridad advierten sobre los riesgos asociados a la divulgación de información sensible en estas plataformas, dado que se entrenan con los datos que los usuarios proporcionan.
A continuación, se presentan una serie de aspectos que nunca deberían compartirse con ChatGPT, a menos que se desee comprometer la privacidad y seguridad de la información personal.
Datos sensibles de la empresa
Existen casos documentados en los que datos corporativos han sido expuestos a través de estos chatbots. Un ejemplo notable es el de la empresa surcoreana Samsung, que optó por prohibir su uso tras incidentes relacionados con la filtración de información interna.
Divulgar detalles sobre el entorno laboral puede resultar en consecuencias graves, como una conversación incómoda con recursos humanos o, en el peor de los casos, el despido.
Obras creativas y propiedad intelectual
Es fundamental no compartir creaciones originales si se desea mantenerlas privadas. De hecho, incluso las obras protegidas por derechos de autor pueden estar en riesgo. Autores reconocidos como George R.R. Martin y Elin Hilderbrand han acusado a las plataformas de utilizar sus escritos para entrenar a los chatbots sin su consentimiento.
Información financiera
Pese a que es aceptable solicitar consejos financieros o asistencia con presupuestos, es imperativo no compartir información financiera confidencial bajo ninguna circunstancia. Esto podría llevar a la exposición de datos críticos y al uso indebido de los mismos.
Además, es crucial mantenerse alerta ante posibles fraudes que busquen engañar al usuario para obtener dicha información.
Datos personales
No se debe compartir información personal como nombre completo, dirección, número telefónico o incluso detalles sobre mascotas. Cualquier dato personal puede ser utilizado para suplantar identidades, facilitando así el acceso no autorizado a cuentas y perpetrando estafas.
Nombres de usuario y contraseñas
Las contraseñas deben ser ingresadas únicamente en las aplicaciones correspondientes que las requieren. Almacenar este tipo de información sin protección adecuada puede resultar en su exposición pública.
Por lo tanto, es recomendable evitar solicitar a ChatGPT que registre contraseñas o sugiera claves más seguras. En caso de dificultad para recordar contraseñas, un administrador de contraseñas representa una solución más segura.
Chats de ChatGPT
A pesar de lo complicado que resulta interactuar con un chatbot sin compartir solicitudes, es importante tener presente que incluso las interacciones pueden ser compartidas con otros usuarios, algo ya documentado en incidentes anteriores.
Evidencias indican que el chatbot Bard de Google ha registrado datos personales de diversos usuarios, haciéndolos accesibles públicamente. Aunque se han prometido soluciones para este problema, esto resalta la falta de privacidad incluso en solicitudes aparentemente inocentes.
¿Cómo usar estas herramientas de manera segura?
Aparte de evitar compartir la información mencionada anteriormente, es aconsejable desactivar cualquier opción que permita a ChatGPT utilizar datos del usuario.
También es recomendable familiarizarse con cómo la plataforma maneja la información compartida y comprender que eliminar datos previamente compartidos puede ser extremadamente complicado. Por ello, es prudente utilizar estas herramientas con cautela y considerarlas como simples conocidos más que amigos cercanos.
Si te ha resultado útil esta información, ¡no dudes en compartirla!