Un jurado en Nuevo México ha declarado a Meta responsable de no informar adecuadamente sobre los riesgos que enfrentan los niños en sus plataformas, lo que representa un duro golpe legal para la empresa propietaria de Facebook, Instagram y WhatsApp.
La decisión, emitida el 24 de marzo, concluyó que Meta violó la ley de protección al consumidor del estado, imponiendo una multa de $375 millones. La causa fue presentada por Raúl Torrez, quien acusó a la compañía de infringir la Ley de Prácticas Desleales al ocultar los peligros conocidos que enfrentan los menores en sus redes sociales.
Investigación encubierta revela fallos en la seguridad
El litigio se originó tras una investigación encubierta en la que se descubrió que adultos podían enviar material sexual inapropiado a cuentas que se hacían pasar por usuarios menores de edad. Los fiscales argumentaron que estos hallazgos evidencian fallos sistémicos en la seguridad y una falta de transparencia respecto a los riesgos que enfrentan los niños en línea.
La oficina de Torrez sostuvo que Meta era consciente de estos riesgos pero no informó adecuadamente al público. El veredicto del jurado marca uno de los castigos legales más significativos impuestos a una red social por preocupaciones relacionadas con la seguridad infantil.
La fiscal Linda Singer había instado a los miembros del jurado a imponer una sanción mucho mayor, solicitando $2 mil millones, argumentando que las deficiencias de la empresa no eran accidentales.
Crecimiento corporativo frente a la seguridad infantil
«Eran el resultado de una filosofía corporativa que priorizó el crecimiento y el compromiso sobre la seguridad de los niños», afirmó Singer durante el juicio. Añadió que los jóvenes usuarios en Nuevo México y en todo Estados Unidos han sufrido las consecuencias de esas decisiones.
Durante sus argumentos finales, Singer destacó un patrón más amplio de negligencia, afirmando ante el jurado que los problemas de seguridad en las plataformas de Meta «no eran errores», sino elecciones deliberadas por parte de la empresa. También señaló que el uso excesivo entre los jóvenes reflejaba una pérdida de control que ha contribuido al aumento de riesgos en línea.
Meta defendió su posición mediante el abogado Kevin Huff, quien subrayó los esfuerzos realizados para proteger a los usuarios. Indicó que aproximadamente 40,000 empleados están dedicados a la seguridad y protección dentro de las plataformas.
Llamado a mejorar las políticas internas
"Meta cuenta con 40,000 personas trabajando para hacer sus aplicaciones lo más seguras posible", dijo Huff, reconociendo al mismo tiempo las dificultades para moderar el vasto contenido generado por usuarios. "Con miles de millones de piezas de contenido cada día, incluso el mejor sistema no puede capturarlas todas", añadió.
El caso también atrajo atención hacia preocupaciones planteadas por legisladores el año pasado tras informes sobre políticas internas. Según esos reportes, se permitió bajo ciertas directrices que las herramientas de inteligencia artificial de Meta interactuaran con menores en conversaciones que podrían interpretarse como románticas o sensuales, lo cual provocó llamados a investigaciones adicionales por parte de senadores estadounidenses.
La decisión del jurado de responsabilizar a Meta por no revelar completamente los riesgos para los niños es un importante triunfo para la protección del consumidor y envía un mensaje claro a las grandes tecnológicas: deben priorizar la seguridad y bienestar de sus usuarios jóvenes.
La noticia en cifras
| Cifra |
Descripción |
| $375 millones |
Multa impuesta a Meta por violaciones de seguridad infantil. |
| $2 mil millones |
Multa solicitada por la fiscal Linda Singer durante el juicio. |
| 40,000 |
Número de empleados dedicados a la seguridad en Meta. |