Manipulación IA
04/09/2025@18:18:20
Investigadores de la Universidad de Pennsylvania han demostrado que los chatbots de inteligencia artificial, como ChatGPT, pueden ser manipulados para eludir sus propias reglas mediante simples trucos psicológicos. Utilizando técnicas de persuasión basadas en principios del psicólogo Robert Cialdini, los científicos lograron resultados sorprendentes que plantean dudas sobre la efectividad de los filtros de seguridad en los modelos de lenguaje. Este estudio revela que tácticas como la adulación y la presión social pueden aumentar significativamente la obediencia del chatbot. OpenAI ha respondido a estas preocupaciones implementando nuevas funciones de control parental en ChatGPT para mejorar la seguridad digital para menores. Para más detalles, visita el artículo completo en el enlace proporcionado.