Un grupo de senadores demócratas está presionando a las principales empresas tecnológicas para que amplíen las restricciones sobre el contenido sexual en línea, centrándose en imágenes generadas por inteligencia artificial (IA) que son "no desnudas y sexualizadas". En una carta dirigida a plataformas como Alphabet, Meta y TikTok, solicitan detalles sobre cómo identifican y eliminan este tipo de contenido, que incluye prácticas como el "desnudamiento virtual" y la alteración de la ropa. Los legisladores expresan su preocupación por el uso no consensuado de herramientas de IA para crear imágenes sexualizadas, especialmente de mujeres, lo que plantea serios problemas de acoso y violaciones de privacidad. Además, han instado a Apple y Google a retirar X (anteriormente Twitter) de sus tiendas de aplicaciones debido a su papel en la generación de estas imágenes. Esta iniciativa refleja un aumento en la vigilancia política sobre las imágenes generadas por IA y presiona a las empresas tecnológicas para que implementen estándares más estrictos.
Un grupo de senadores demócratas está impulsando una expansión en las restricciones sobre el contenido sexual en línea, abarcando imágenes generadas por inteligencia artificial (IA) que se consideran «no desnudas y sexualizadas». Esta iniciativa marca un cambio respecto a los esfuerzos anteriores, que se centraban principalmente en la pornografía explícita creada mediante deepfakes.
En una carta dirigida a las principales plataformas tecnológicas, los legisladores solicitaron detalles sobre cómo las empresas identifican y eliminan contenido que involucra prácticas como el «desnudamiento virtual», la alteración de prendas y la edición de formas corporales. Los senadores expresaron su preocupación por el uso creciente de herramientas de IA para crear imágenes sexualizadas no consensuadas, especialmente de mujeres, lo que plantea serias inquietudes sobre el acoso, las violaciones de privacidad y la seguridad en línea.
Además, los demócratas han presionado a Apple y Google para que eliminen X (anteriormente Twitter) de sus tiendas de aplicaciones, citando el papel alegado de Grok en la generación de imágenes de mujeres y menores en bikinis. Este movimiento subraya un creciente escrutinio político hacia las imágenes generadas por IA y aumenta la presión sobre las empresas tecnológicas para que regulen el contenido sintético bajo estándares más amplios y subjetivos.
La carta fue liderada por la senadora Lisa Blunt Rochester de Delaware e incluye firmas de otros senadores como Tammy Baldwin, Richard Blumenthal, Kirsten Gillibrand, Mark Kelly, Ben Ray Luján, Brian Schatz y Adam Schiff. En el documento, los legisladores expresaron su alarma ante informes sobre usuarios que explotan herramientas generativas de IA para producir imágenes sexualizadas «de bikini» o «no desnudas» sin consentimiento, distribuyéndolas en plataformas como X.
Los senadores señalaron que estas imágenes hiperrealistas son frecuentemente creadas sin el conocimiento o consentimiento de las personas representadas, lo que genera preocupaciones significativas sobre el acoso y las violaciones a la privacidad. Además, argumentaron que tales prácticas representan una forma creciente de abuso basado en imágenes que socava la confianza y la seguridad en línea.
Como respuesta a esta problemática, senadores como Ron Wyden, Ed Markey y Luján han instado a Apple y Google a retirar X de sus tiendas. Aseguran que la plataforma ha infringido sus políticas al permitir la creación de imágenes perjudiciales que representan a mujeres y supuestos menores en bikinis. En su carta, afirmaron que «la generación por parte de X de estas representaciones dañinas e ilegalmente probables demuestra un completo desprecio por los términos de distribución» establecidos por ambas compañías.
El llamado a la acción busca que Apple y Google tomen medidas contra X hasta que se aborden las violaciones políticas, aunque X cuenta con aproximadamente 557 millones de usuarios en todo el mundo y sigue siendo una de las mayores plataformas sociales disponibles en ambas tiendas.