www.mil21.es
La élite de Davos quiere convertirse en la máxima autoridad en determinar qué es discurso de odio y desinformación
Ampliar

La élite de Davos quiere convertirse en la máxima autoridad en determinar qué es discurso de odio y desinformación

viernes 08 de septiembre de 2023, 20:23h

Escucha la noticia

Varios gobiernos permiten al Foro Económico Mundial supervisar el discurso de odio y desinformación en las redes sociales, sin importar las protecciones de libertad de expresión. El WEF busca convertirse en la máxima autoridad en determinar qué constituye estos términos, utilizando verificadores de hechos de extrema izquierda. Estas tácticas de censura están diseñadas para controlar una narrativa en lugar de abordar la desinformación. El WEF busca establecer un lenguaje fundacional común a nivel globalizado.

Varios gobiernos están permitiendo al Foro Económico Mundial (FEM) tener acceso a las plataformas de redes sociales para supervisar el llamado "discurso de odio" y "desinformación" a través de la puerta trasera. Según el WEF, esta medida les dará la capacidad de regular el discurso en línea, sin importar si los usuarios tienen o no protecciones de libertad de expresión según las leyes de su país.

"Supervisar a los reguladores, las compañías de redes sociales y otras empresas de tecnología es el deseo de la élite de Davos, quienes buscan convertirse en la máxima autoridad en determinar qué constituye "discurso de odio", "desinformación" o desinformación. En repetidas ocasiones, el WEF ha instado a la aplicación de medidas policiales en línea que no sean aprobadas mediante el uso de inteligencia artificial (IA) o una moderación rigurosa."

Con frecuencia, las grandes compañías tecnológicas justifican la censura flagrante de puntos de vista no convencionales al describir la información "ofensiva" como "desinformación" o "discurso de odio". Para llevar a cabo la censura de la llamada "desinformación", estas compañías utilizan "verificadores de hechos" de extrema izquierda, quienes tienen instrucciones precisas de seguir estrictamente la narrativa de la élite.

En repetidas ocasiones, el WEF ha instado a la aplicación de medidas policiales en línea que no sean aprobadas mediante el uso de inteligencia artificial (IA) o una moderación rigurosa.

Los "verificadores de hechos" pueden censurar información que cae en las categorías de "desinformación" o "desinformación" sin tener que demostrar que es falsa, con límites vagamente definidos. Debido a esta falta de claridad, muchas personas sospechan que estos sitios evitan explicarse porque no hay nada que explicar, lo cual es igualmente importante.

Los moderadores sin rostro pueden silenciar a una persona, ya sea que esté ejerciendo su derecho de la Primera Enmienda o no, lo cual hace que las decisiones de censura sean arbitrarias. Estas tácticas están claramente diseñadas para servir a una política o controlar una narrativa en lugar de combatir la temida "desinformación". A medida que el público ve cómo se cierran la información verdadera y la libertad de expresión, ya no confía en estos esfuerzos para supuestamente "abordar la desinformación".

La Coalición Global para la Seguridad Digital (GCDS), creada por el FEM para abordar la fallida agenda de censura, ha producido un documento titulado "Tipología de daños en línea". El objetivo del GCDS es definir seis categorías de "contenido dañino" que deben ser censuradas. El WEF busca utilizar las definiciones establecidas por el GCDS para promover la "acción multiagencial y transfronteriza".

El objetivo del GCDS es definir seis categorías de "contenido dañino" que deben ser censuradas

El WEF/GCDS, en su informe, elogia los esfuerzos de aquellos que no han sido elegidos como bearcats en la Unión Europea por tomar medidas enérgicas contra la libertad de expresión. Aunque se reconoce la Ley de Servicios Digitales de la Unión Europea (DSA), la Coalición del FEM busca adquirir poderes para establecer un "lenguaje fundacional común" a nivel globalizado. Según el argumento presentado por el WEF, la DSA tiene un alcance limitado debido a que, a diferencia de la "Tipología de daños en línea", la legislación de la UE no es global.

Por el bien común, insiste Agustina Callegari, líder del Proyecto de Coalición, en entregar ese poder al FEM no electo. Argumenta que los esfuerzos de censura del FEM serían equilibrados en términos de "consideraciones legales, éticas, sociales, tecnológicas y políticas". Además, afirma que se vigilaría el discurso en línea de una manera arraigada en los marcos internacionales de derechos humanos. Detalla el sitio web del FEM las seis categorías de definiciones vagas que pretende vigilar.

Existen diferentes categorías.

"Desinformación" y "desinformación": amenazas a la seguridad personal y comunitaria, daño a la salud y al bienestar, odio y discriminación, invasión de la privacidad, violación de la dignidad, engaño y manipulación.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios