|
Bans global
19/01/2026@21:11:03
El chatbot Grok, desarrollado por Elon Musk, enfrenta prohibiciones globales debido a su implicación en la generación de imágenes deepfake sexualizadas. Países como Malasia, Indonesia y el Reino Unido han tomado medidas para restringir su uso, mientras que la respuesta hacia ChatGPT ha sido menos severa, a pesar de que este último enfrenta múltiples demandas por presuntamente contribuir a problemas de salud mental y suicidios. OpenAI, creador de ChatGPT, ha reconocido que un millón de usuarios discuten semanalmente pensamientos suicidas con el chatbot y ha implementado nuevas medidas de seguridad en su modelo más reciente. Un estudio adicional advierte sobre los riesgos asociados con robots controlados por modelos de lenguaje, sugiriendo que no son aptos para decisiones críticas donde la vida humana esté en juego. La disparidad en las respuestas regulatorias plantea preguntas sobre cómo se evalúa el daño relacionado con la inteligencia artificial.
Prohibición Reino Unido
El gobierno británico está considerando prohibir la plataforma X de Elon Musk debido a la indignación por el uso de su chatbot de IA, Grok, para crear imágenes deepfake no consensuadas de mujeres y niños, incluidas figuras públicas como la Princesa de Gales. El Primer Ministro Keir Starmer ha calificado este contenido de "desagradable" y ha instado a los reguladores a tomar medidas bajo la Ley de Seguridad en Línea, que permite imponer multas o bloqueos si no se elimina material dañino. La controversia ha generado tensiones entre el Reino Unido y EE. UU., con acusaciones de censura y críticas a las regulaciones tecnológicas del Reino Unido. Si X no actúa, Ofcom podría imponer un bloqueo sin precedentes, marcando un punto crucial en el debate global sobre la ética de la IA y la intervención gubernamental en tecnología.
Ciberespionaje AI
Microsoft ha alertado sobre un aumento alarmante de ciberespionaje impulsado por inteligencia artificial (IA) proveniente de China y Rusia, dirigido a Estados Unidos. En su informe anual de defensa digital, la compañía reveló que estas naciones están utilizando IA para llevar a cabo ataques sofisticados, incluyendo desinformación generada por IA, estafas de phishing y suplantaciones profundas de funcionarios. Microsoft bloqueó 1.6 millones de intentos de creación de cuentas falsas por hora, lo que evidencia la magnitud del problema. Los objetivos principales de Beijing incluyen infraestructura defensiva estadounidense y activos nacionales críticos. Además, se observó un incremento en los ataques a aliados de la OTAN y empresas pequeñas que apoyan a Ucrania. Microsoft insta a gobiernos y empresas a adoptar herramientas de seguridad basadas en IA y mejorar la capacitación para contrarrestar estos riesgos cibernéticos emergentes.
|
Crimen sexual
Kim Nok-wan, líder de una red de delitos sexuales en línea en Corea del Sur, ha sido condenado a cadena perpetua tras ser hallado culpable de organizar un esquema que explotó a más de 260 víctimas. Este grupo, conocido como los Vigilantes, utilizaba la plataforma Telegram para intercambiar miles de materiales de abuso sexual y extorsionar a sus víctimas. La corte destacó la brutalidad de sus crímenes, que incluían asaltos sexuales y la producción de contenido ilegal. Esta sentencia marca un hito en la cooperación entre Telegram y las autoridades surcoreanas para combatir el cibercrimen.
Fraude laboral
Un reciente estudio revela que el 72% de los gerentes de contratación han encontrado currículos generados o mejorados por inteligencia artificial (IA), que a menudo inventan experiencias laborales y habilidades. La situación se agrava con un 15% de reclutadores que reportan el uso de deepfakes en videoentrevistas. Este fraude tecnológico incluye portafolios falsos, referencias y diplomas, creando una crisis de integridad en el proceso de contratación. Aunque el 75% de los profesionales confían en detectar manualmente este tipo de engaños, solo el 31% de las empresas ha invertido en software especializado para su detección. Los sectores más afectados son tecnología, marketing, gobierno y salud. En respuesta, se demanda mayor responsabilidad a las plataformas de empleo y legislación que exija la divulgación del uso de IA en las aplicaciones.
|
|
|
|
|