La propuesta de actualización de las leyes de privacidad en línea, conocida como COPPA 2.0, ha generado un intenso debate a nivel nacional sobre la protección de los derechos digitales de los niños frente a la posibilidad de una vigilancia generalizada. Este proyecto de ley, respaldado por un apoyo bipartidista, busca extender las protecciones de privacidad a adolescentes hasta los 17 años y simplificar el consentimiento parental para la recolección de datos. Sin embargo, los críticos advierten que los sistemas obligatorios de verificación de edad podrían dar lugar a prácticas invasivas de recolección de datos, afectando desproporcionadamente a todos los usuarios de internet.
El Children and Teens’ Online Privacy Protection Act (S.836), patrocinado por los senadores Bill Cassidy (R-LA) y Edward Markey (D-MA), tiene como objetivo reducir la publicidad dirigida y la recolección excesiva de datos sobre menores. No obstante, su requisito para que las plataformas evalúen la edad del usuario mediante “circunstancias objetivas” transfiere la responsabilidad a las empresas, presionándolas a adoptar herramientas invasivas como escaneos biométricos o cargas de identificación. Esta consecuencia no intencionada ha suscitado preocupaciones entre los defensores de la privacidad sobre un posible exceso en la vigilancia.
Desafíos legislativos: El apoyo bipartidista oculta divisiones sobre las soluciones
A pesar del respaldo recibido por COPPA 2.0 tanto por parte de legisladores como de empresas tecnológicas, el lenguaje del proyecto carece de claridad en cuanto a su aplicación, dejando a las plataformas expuestas a desafíos legales si no implementan medidas agresivas de verificación. La sustitución del estándar de “conocimiento real” por una prueba basada en negligencia denominada “circunstancias objetivas” obliga a las empresas a identificar proactivamente a los usuarios menores mediante seguimiento conductual.
Utah ha tomado acciones unilaterales con su App Store Accountability Act, que exige que las tiendas de aplicaciones verifiquen las edades de los usuarios y obtengan el consentimiento parental para los menores. Para mayo de 2026, plataformas como Apple y Google deberán implementar sistemas que restrinjan el acceso según la edad, vincular cuentas menores a perfiles parentales y notificar a los tutores sobre cambios en el contenido de las aplicaciones. Iniciativas similares están siendo consideradas en Virginia, donde se avanzó en una ley que limita el uso diario de redes sociales para menores a una hora; sin embargo, el gobernador Glenn Youngkin la rechazó al abogar por restricciones más estrictas sobre el contenido.
Leyes estatales y batallas judiciales evidencian tensiones
La resistencia judicial ha complicado los esfuerzos estatales para regular la tecnología. En California, el grupo tecnológico NetChoice obtuvo una segunda orden judicial preliminar contra la Ley del Código Diseño Apropiado para Edades, alegando que sus mandatos sobre privacidad violaban derechos de libertad de expresión. Al mismo tiempo, los tribunales están considerando casos relacionados con la responsabilidad corporativa ante brechas de datos. Por ejemplo, un tribunal en Nueva York falló en contra del asegurador National General por exponer números de licencias de conducir, imponiéndole una multa debido a brechas que permanecieron indetectadas durante meses.
Los legisladores también priorizan la privacidad judicial y del consumidor. Un proyecto propuesto en Michigan, inspirado en la Ley Daniel de Nueva Jersey, permitiría a jueces solicitar la eliminación de datos públicos ante amenazas crecientes. Estas medidas reflejan una creciente preocupación sobre el uso indebido de datos, incluso mientras reguladores como la Agencia Calfornia Privacy Protection Agency (CPPA) avanzan herramientas como el “DROP” del Delete Act, con el objetivo simplificar la eliminación de datos por parte del consumidor para 2026.
Perspectivas internacionales: Alineando IA y privacidad
Las reformas en Estados Unidos resuenan con tendencias globales. La Ley sobre Inteligencia Artificial (AI Act) en la Unión Europea enfrenta conflictos con el GDPR, ya que los legisladores europeos enfatizan la necesidad de claridad sobre cómo manejar datos sensibles en sistemas automatizados. En China, nuevas medidas cibernéticas requieren que instituciones financieras informen sobre brechas y se sometan a auditorías de cumplimiento. Mientras tanto, la OCDE propuso estándares uniformes para informar incidentes relacionados con errores en inteligencia artificial, subrayando la importancia de la transparencia para generar confianza pública.
Las preocupaciones planteadas por la UE resuenan entre quienes critican que los estándares poco claros del COPPA 2.0 podrían socavar la privacidad a nivel global. Noruega y Suecia han expresado vigilancia respecto al traslado estadounidense de datos ante cambios significativos en el liderazgo del Privacy and Civil Liberties Oversight Board, un organismo clave encargado del control gubernamental.
Un delicado equilibrio entre progreso y privacidad
A medida que COPPA 2.0 y las leyes estatales redefinen las normas digitales, todos los actores involucrados coinciden en un punto: sin una legislación federal integral sobre privacidad, las reformas fragmentarias corren el riesgo de tener consecuencias no deseadas como la vigilancia masiva. Aunque proteger a los menores es una prioridad innegable, la falta de límites aplicables sobre retención y medidas transparentes deja desprotegidos a los usuarios.
El camino hacia adelante requiere equilibrar la seguridad infantil con protecciones contra excesos—un desafío que deben enfrentar los legisladores para evitar sacrificar la privacidad en nombre del progreso.
Fuentes utilizadas para este artículo incluyen:
ReclaimTheNet.org
NatLawReview.com