CLAVES

Estafas con clonación de voz AI engañan a padres para enviar dinero

Estafas cibernéticas

OpenAI | Miércoles 07 de mayo de 2025

Los estafadores están utilizando la clonación de voz mediante inteligencia artificial para llevar a cabo fraudes emocionales, como el engaño "Hola mamá", que convence a los padres de enviar dinero. Estos criminales pueden replicar voces con solo unos segundos de audio de redes sociales, haciendo que las solicitudes de ayuda financiera parezcan auténticas y urgentes. Expertos advierten sobre la manipulación psicológica detrás de estas estafas, que presionan a las víctimas a actuar sin verificar la identidad del remitente. Para protegerse, se recomienda pausar antes de enviar dinero, verificar al remitente y reportar mensajes sospechosos a las autoridades.



Los ciberdelincuentes están utilizando la clonación de voz mediante inteligencia artificial para explotar la confianza de las personas, imitando a seres queridos en situaciones de emergencia con el fin de robar dinero a través de estafas como la conocida «Hi mom». Esta modalidad fraudulenta permite a los estafadores clonar voces a partir de solo unos segundos de audio disponible en redes sociales, lo que hace que las solicitudes falsas de ayuda financiera urgente parezcan aterradoramente reales.

La estafa «Hi mom» inicia con un mensaje proveniente de un número desconocido, frecuentemente incorporando notas de voz generadas por inteligencia artificial que simulan la voz de un hijo en apuros que necesita dinero rápidamente. Los expertos advierten que estas estafas se basan en la manipulación psicológica, presionando a las víctimas para que actúen sin verificar la identidad del llamante.

Características del fraude

El esquema comienza con un mensaje simple: «Hola mamá» o «Hola papá», enviado desde un número poco familiar. El remitente afirma haber perdido su teléfono y estar bloqueado fuera de su cuenta bancaria, instando al destinatario a enviar dinero urgentemente, ya sea para el alquiler, un nuevo dispositivo o alguna otra emergencia fabricada. Lo que hace que estas estafas sean particularmente insidiosas es el uso de la clonación de voz por parte de los delincuentes, quienes pueden replicar la voz de un ser querido con una precisión inquietante.

Jake Moore, asesor global en ciberseguridad en ESET, explica: «Con este tipo de software, los estafadores pueden copiar cualquier voz disponible en línea y luego dirigirse a sus familiares con notas de voz lo suficientemente convincentes como para hacerles caer en la trampa». Según datos proporcionados por Santander, impersonar a un hijo tiene la tasa más alta de éxito, seguido por hijas y madres.

Manipulación psicológica y engaño mediante IA

La efectividad del fraude radica en su capacidad para manipular psicológicamente a las víctimas. Los estafadores investigan redes sociales en busca de detalles personales, creando narrativas creíbles para presionar a las víctimas a actuar rápidamente. Chris Ainsley, jefe del departamento de gestión del riesgo de fraude en Santander, señala: «Estamos escuchando sobre casos donde se utiliza tecnología de impersonación vocal por IA para crear notas de voz en WhatsApp y SMS, haciendo que el fraude parezca cada vez más realista».

Una vez establecida la confianza, el estafador cambia su enfoque hacia la demanda de dinero, siempre dirigiendo los fondos hacia una cuenta desconocida. Moore advierte: «Los estafadores están mejorando continuamente su habilidad para manipular a las personas para que hagan lo que piden; la historia puede sonar convincente y legítima». Por ejemplo, el «hijo» o «hija» podría afirmar estar bloqueado fuera de su cuenta bancaria porque su banco envió un código de confirmación al teléfono que supuestamente perdió.

Cómo protegerse

Los expertos enfatizan la importancia de mantener la vigilancia y realizar verificaciones. Las medidas clave incluyen:

  • Pausar antes de responder: Detenerse y reflexionar antes de atender solicitudes inesperadas de dinero.
  • Verificar al remitente: Llamar directamente a la persona utilizando un número conocido o solicitar una nota vocal con una «contraseña familiar» preestablecida (evitando frases obvias).
  • Reportar actividades sospechosas: Reenviar mensajes fraudulentos a las autoridades o reportarlos a través de WhatsApp.

Moore aconseja: «Nunca envíe dinero a ninguna cuenta nueva sin realizar previamente su debida diligencia, incluso si el relato parece plausible». A medida que las herramientas basadas en IA se vuelven más accesibles, estas estafas continuarán volviéndose más sofisticadas. La mejor defensa es el escepticismo; es fundamental cuestionar solicitudes inusuales, verificar identidades y recordar que ninguna solicitud legítima por ayuda castigará por tomarse un momento para confirmar su autenticidad. En la era digital, la confianza debe ganarse y no asumirse.

Fuentes utilizadas para este artículo incluyen:

TheGuardian.com

DailyMail.co.uk

Independent.co.uk

TEMAS RELACIONADOS:


Noticias relacionadas