Internacional - Política

Las elecciones y la desinformación chocan como nunca en 2024

2024-01-10

“La integridad electoral es una labor tan gigantesca que en verdad se necesita una estrategia...

Por Tiffany Hsu, Stuart A. Thompson and Steven Lee Myers / NYT

Este año, miles de millones de personas votarán en elecciones importantes —más o menos la mitad de la población mundial, según algunos cálculos— en uno de los ejercicios democráticos más grandes y trascendentales de los que se tenga memoria. Los resultados afectarán la manera en que se gobierna el mundo en las próximas décadas.

Al mismo tiempo, las falsas narrativas y las teorías de la conspiración se han convertido en una amenaza cada vez más global.

Las acusaciones infundadas de fraude electoral han minado la confianza en la democracia. Las campañas de influencia extranjera por lo general van dirigidas a problemas nacionales polarizadores. La inteligencia artificial ha potenciado las labores de desinformación y ha distorsionado la percepción de la realidad. Todo esto mientras las principales empresas de redes sociales han reducido sus salvaguardas y sus equipos electorales.

“Casi todas las democracias están bajo estrés, sin tomar en cuenta la tecnología”, afirmó Darrell West, investigador sénior del Instituto Brookings, un laboratorio de ideas. “Cuando a eso le sumas la desinformación, simplemente se crean muchas oportunidades para causar problemas”.

Según West, es una “tormenta perfecta de desinformación”.

Lo que está en juego es enorme.

La democracia, la cual se extendió por todo el mundo después de que terminó la Guerra Fría, enfrenta desafíos cada vez mayores en todo el mundo: desde migraciones masivas hasta alteraciones climáticas, desde desigualdades económicas hasta guerras. En muchos países, la lucha por responder de manera adecuada a estos desafíos ha erosionado la confianza en las sociedades liberales y pluralistas y le ha abierto la puerta a la incitación de populistas y líderes autoritarios.

Los países autocráticos, con Rusia y China al frente, han aprovechado las corrientes de descontento político para impulsar narrativas que socavan la gestión y el liderazgo democráticos, a menudo con el respaldo de campañas de desinformación. Si esas iniciativas tienen éxito, las elecciones podrían acelerar el ascenso reciente de líderes de mentalidad autoritaria.

Fyodor Lukyanov, analista que dirige un laboratorio de ideas alineado con el Kremlin en Moscú, el Consejo de Política Exterior y de Defensa, afirmó hace poco que 2024 “podría ser el año en que las élites liberales de Occidente pierdan el control del orden mundial”.

Según Katie Harbath, fundadora de la empresa de política tecnológica Anchor Change y exdirectora de política pública de Facebook para gestionar las elecciones, la clase política tradicional de muchos países, así como de organizaciones intergubernamentales como el Grupo de los 20, parecen estar a punto de sufrir una revuelta. La desinformación —difundida por medio de las redes sociales, pero también de la prensa, la radio, la televisión y de boca en boca— corre el riesgo de desestabilizar el proceso político.

“Llegaremos a 2025 y el mundo tendrá un aspecto muy distinto”, afirmó Harbath.

Operativos estatales agresivos

Entre las mayores fuentes de desinformación en las campañas electorales están los gobiernos autocráticos que tratan de desacreditar la democracia como modelo global de gobierno.

Los últimos meses, investigadores y el gobierno de Estados Unidos han citado que es probable que Rusia, China e Irán intenten llevar a cabo operaciones de influencia para alterar los procesos electorales de otros países, incluidas las elecciones presidenciales estadounidenses de este año. Para estos países, el próximo año es “una oportunidad real para avergonzarnos en la escena mundial, explotar las divisiones sociales y simplemente socavar el proceso democrático”, afirmó Brian Liston, analista de Recorded Future, una empresa de seguridad digital que hace poco informó sobre las posibles amenazas para la contienda estadounidense.

La empresa también examinó una operación de influencia rusa que Meta identificó por primera vez el año pasado, llamada “Doppelgänger”, la cual parecía imitar organizaciones internacionales de noticias y creaba cuentas falsas para difundir propaganda rusa en Estados Unidos y Europa. Al parecer, Doppelgänger utilizó herramientas de inteligencia artificial de fácil acceso para crear medios informativos dedicados a la política estadounidense, con nombres como Election Watch y My Pride.

Las falsas narrativas que circulan por todo el mundo suelen compartirlas comunidades de la diáspora o las orquestan agentes con respaldo del Estado. Los expertos predicen que las narrativas de fraude electoral seguirán evolucionando y resonando, como ocurrió en Estados Unidos y Brasil en 2022 y, después, en Argentina en 2023.

Un ciclo de polarización y extremismo

Un entorno político cada vez más polarizado y combativo está engendrando discurso de odio y desinformación, los cuales orillan a los votantes todavía más hacia cajas de resonancia aisladas. Una minoría motivada de voces extremistas, con la ayuda de los algoritmos de las redes sociales que refuerzan los prejuicios de los usuarios, suele ahogar a una mayoría moderada.

“Estamos en medio de una redefinición de nuestras normas sociales sobre la libertad de expresión y sobre cómo responsabilizar a las personas de ese discurso, dentro y fuera del internet”, comentó Harbath. “Hay muchos puntos de vista diferentes sobre cómo hacerlo en este país, ni que decir de todo el mundo”.

Algunas de las voces más extremistas se buscan entre sí en plataformas de redes sociales alternativas, como Telegram, BitChute y Truth Social. La incitación a detener de manera preventiva el fraude electoral —el cual en términos históricos es insignificante a nivel estadístico— hace poco fue tendencia en estas plataformas, según Pyrra, una empresa que monitorea las amenazas y la desinformación.

La “prevalencia y aceptación de estas narrativas no hacen más que ganar terreno” e incluso influyen directamente en la política y la legislación electorales, según descubrió Pyrra en un estudio de caso.

“Estas conspiraciones se están arraigando entre la élite política, la cual utiliza estas narrativas para gustarle al público mientras degrada la transparencia, los controles y los equilibrios del sistema mismo que se supone que deben defender”, escribieron los investigadores de la empresa.

Una propuesta de riesgo-recompensa de la inteligencia artificial

Según un informe de las universidades de Chicago y de Stanford, la inteligencia artificial “es prometedora para la gestión democrática”. Los chatbots enfocados en la política podrían informar a los electores sobre asuntos clave y conectar mejor a los votantes con los funcionarios electos.

La tecnología también podría ser un vector de desinformación. Ya se han utilizado imágenes falsas generadas con inteligencia artificial para difundir teorías de conspiración, como la afirmación infundada de que existe un complot mundial para remplazar a los europeos blancos con inmigrantes que no son blancos.

Lawrence Norden, quien dirige el programa de elecciones y gobierno del Centro Brennan para la Justicia, un instituto de política pública, comentó que la inteligencia artificial podría imitar grandes cantidades de materiales de las oficinas electorales y realizar una difusión generalizada. O podría fabricar sorpresas de última hora en octubre, como el audio en el que existen indicios de intervención de una inteligencia artificial que se difundió durante las reñidas elecciones eslovacas de este otoño.

“Todas las cosas que han sido amenazas para nuestra democracia durante algún tiempo pueden empeorar con la inteligencia artificial”, opinó Norden mientras participaba en un panel en línea en noviembre. (Durante el evento, los organizadores presentaron una versión de Norden manipulada de manera artificial para destacar las capacidades de la tecnología).

A algunos expertos les preocupa que la mera presencia de herramientas de inteligencia artificial pueda debilitar la confianza en la información y permita que los actores políticos desestimen contenido real. Otros aseguraron que, por ahora, los temores son exagerados.

La inteligencia artificial es “tan solo una de las muchas amenazas”, afirmó James Lindsay, vicepresidente sénior del Consejo de Relaciones Exteriores, un laboratorio de ideas.

“Yo no perdería de vista todas los medios antiguos de sembrar información falsa o desinformación”, opinó.

Las grandes empresas tecnológicas reducen sus protecciones

En los países con elecciones generales planeadas para 2024, la desinformación se ha vuelto una de las principales preocupaciones de una gran mayoría de las personas que encuestó la Unesco, la organización cultural de las Naciones Unidas. Y, a pesar de todo, se han reducido o se han revocado por completo las iniciativas de las empresas de redes sociales por limitar el contenido tóxico, las cuales se intensificaron después de las elecciones presidenciales estadounidenses de 2016.

El año pasado, Meta, YouTube y X, la plataforma antes conocida como Twitter, redujeron o reestructuraron los equipos responsables de mantener bajo control el material peligroso o impreciso, según un informe reciente de Free Press, una organización activista. Algunas ofrecen nuevas funciones, como las emisiones privadas unidireccionales, las cuales son especialmente difíciles de monitorear.

Las empresas empiezan el año con “poco ancho de banda, muy poca responsabilidad por escrito y miles de millones de personas en todo el mundo que acuden a estas plataformas en busca de información”, un escenario poco ideal para salvaguardar la democracia, opinó Nora Benavidez, asesora legal de Free Press.

Es muy probable que plataformas más nuevas, como TikTok, empiecen a desempeñar un papel más importante en el contenido político. Substack, la empresa emergente de boletines informativos que el mes pasado señaló que no prohibiría los símbolos nazis ni la retórica extremista en su plataforma, quiere que la temporada de votaciones de 2024 sea “la Elección de Substack”. Los políticos están planeando eventos transmitidos en directo en Twitch, la cual también tendrá un debate entre versiones generadas por inteligencia artificial del presidente Joe Biden y el expresidente Donald Trump.

Meta, empresa propietaria de Facebook, Instagram y WhatsApp, señaló en una publicación de blog de noviembre que estaba en una “posición fuerte para proteger la integridad de las elecciones del próximo año en nuestras plataformas”. (El mes pasado, un consejo asesor de contenido que designó la empresa se manifestó en contra de las herramientas automatizadas de Meta y su gestión de dos videos relacionados con el conflicto entre Israel y Hamás).

YouTube escribió el mes pasado que sus “equipos centrados en las elecciones han trabajado sin parar para asegurarse de que estén funcionando las políticas y los sistemas adecuados”. La plataforma señaló este verano que iba a dejar de eliminar falsas narrativas de fraude electoral. (YouTube afirmó que quería que los votantes escucharan todas las partes de un debate, aunque señaló que “esto no es un pase libre para difundir desinformación perjudicial o promover una retórica del odio”).

Este tipo de contenido proliferó en X después de que el multimillonario Elon Musk se hizo cargo de la plataforma a finales de 2022. Meses más tarde, Alexandra Popken dejó su puesto de directora de confianza y seguridad de la plataforma. Muchas empresas de redes sociales dependen en gran medida de herramientas de moderación de contenido basadas en inteligencia artificial que son poco confiables, lo cual deja a equipos humanos con lo básico y en alerta constante para apagar incendios, explicó Popken, quien más tarde se unió a la empresa de moderación de contenido WebPurify.

“La integridad electoral es una labor tan gigantesca que en verdad se necesita una estrategia proactiva, mucha gente y cerebros y salas de guerra”, comentó.



aranza