En 2024 votarán un récord de cuatro mil millones de personas en multitud de elecciones repartidas por todo el mundo. Algunas de ellas tan importantes como las de la Unión Europea o las de Estados Unidos. En ese contexto a buen seguro se volverá a hablar de manipulación electoral de alguna manera. Y este es un concepto polémico, en el que históricamente se ha entremezclado la realidad con los bulos, muchos de ellos alentados por los propios perdedores de los comicios, que rechazaban serlo.

Lo cierto es que a día de hoy las herramientas y las estrategias para tratar de influir en los votantes se han afinado al máximo, al igual que los mecanismos de defensa para tratar de proteger a la ciudadanía. Y en este ámbito, la última revolución la está protagonizando, por supuesto, la IA

Alberto Fernández Gibaja es Jefe de Programa, Digitalización y Democracia en el Instituto Internacional para la Democracia y la Asistencia Electoral (IDEA Internacional). Una institución que ha elaborado recientemente un informe donde precisamente se aborda este tema, en el que se recogen diez recomendaciones para garantizar el acceso a información confiable relacionada con las elecciones.

De la mano de Fernández repasamos cuáles son las principales amenazas para nuestras democracias y desgranamos cómo están siendo las estrategias para contaminar el entorno informativo e influir en los votantes, y quienes las están llevando a cabo. Todo un universo, en gran parte desconocido, que está en marcha permanentemente delante de nuestros ojos. Y un tema en el que los gobiernos y las grandes empresas tecnológicas tienen mucho que decir, aunque traten de rehuirlo.  

Pregunta. ¿Qué papel está jugando la IA en la manipulación electoral y en la desinformación?

Respuesta. Vivimos en un momento en el que parece que todo o va cambiar radicalmente por IA o ya ha cambiado. Y eso provoca una situación un poco caótica, porque existe un cierto pánico a que se vean afectados de una manera grave los procesos electorales. En principio se suele decir que gracias a la IA se creará mucha más desinformación, pero lo que sabemos después de años de investigación es que la desinformación no es problema de la oferta, sino de la demanda. Que la IA pueda crear más no ayuda a tener ambientes informativos de calidad, pero probablemente tampoco cambie en exceso la ecuación porque las fuerzas políticas usan estrategias de distorsión de la información, más que de desinformación.

A partir de ahí, hay dos aspectos fundamentales que pueden cambiar con la IA. Por un lado se están creando deepfakes, vídeos y audios que son prácticamente imposibles de distinguir si son reales o no. En las elecciones de Bangladesh se han intentado utilizar ya, pero de manera poco sofisticada. Y en Eslovaquia lo mismo. En EEUU vimos que en las primarias de New Hampshire muchos votantes recibieron una llamada falsa de Joe Biden pidiéndoles que no fueran a votar. Así que ya empezamos a tener ejemplos, aunque la gente está cada vez más atenta para dudar de las cosas que son poco creíbles. En las democracias relativamente estables quizás ahora mismo, en 2024, esto no sea problema. Pero en ambientes informativos mucho más precarios, donde no existen medios de comunicación de calidad, esto puede provocar estallidos de violencia. Es muy peligroso. En muchos lugares es relativamente fácil hacerlo, y con un deepfake se puede conseguir. 

El segundo aspecto en el que la IA puede cambiar el ambiente informativo es a través del dividendo del mentiroso, que viene a decir que cualquier político puede ganar poniendo en duda cualquier evidencia. Por ejemplo, un político al que le pillan diciendo fuera de micro cualquier barbaridad y se defiende diciendo que es un audio falso. Este desorden informativo siempre ha pasado. Pero no es cuestión de que la gente se crea las cosas o no, sino de crear dudas. Y ahí la IA tiene potencial de ser una explosión para la veracidad de cualquier cosa. Cuando no podemos creer en nada algunos se lo creerán todo y otros no se creerán nada. Pero para una democracia eso es muy peligroso. 

P. ¿Con qué tipo de mensajes se consigue convencer a la audiencia para que se incline por una opción política?

R. Aquí, tanto cuando se usa la IA como cuando no, hemos tenido tendencia a centrarnos en el factcheking. Y ahí siento meter a los medios que comprueban cualquier dato que nombre un político, o cualquier tweet que ponga. Pero la distorsión del ambiente informativo no se hace así. La estrategia es influenciar con narrativas la manera en la que la gente de a pie interpreta el mundo. Y eso se hace de manera coordinada y a través de muchos canales. 

Por un lado están los medios. Ahí hay una línea muy gris entre algunos que son semiverídicos y otros que son claramente órganos de propaganda, y que utilizan el poder de la información carente de veracidad. Y luego se usan otros canales para que se contaminen entre ellos, como las redes sociales. A través de esta acción coordinada es como se puede tener éxito. 

Podemos hablar, por ejemplo, de la teoría del reemplazo, que la utilizan las extremas derechas de toda Europa. No tiene ningún tipo de sentido, pero es una narrativa antimigratoria chusca, que no está basada en datos pero busca influir en la manera en la que la gente interpreta el mundo. Es como ponerse una lentes que te hacen tener un odio visceral hacia la migración, y sobre todo cuando se trata de gente de bajos recursos. Por eso no hay que centrarse en una declaración concreta ni en un dato, sino en desmontar estas narrativas. Sobre todo porque la IA ayudará a crear algunas nuevas e influirá en algunas ya existentes.

P. ¿Dónde pones la línea entre la publicidad electoral y los mensajes políticos que pretenden manipular a la gente o inhibir su pensamiento?

R. Por un lado son las técnicas y por otro es el contenido. En ambos hay un problema pero no es el mismo. Si hablamos de técnicas de difusión estamos hablando del aprovechamiento, de la manera en que las redes funcionan para expandir esas narrativas. Es el mantra de que hablen de mí aunque sea mal. Un partido o un actor político sabe que lo que genera atracción en las redes es que el algoritmo te ponga arriba para que más gente reaccione a tu contenido. Lo vemos por ejemplo con los influencers o los blogueros, muchos de los cuales están escoltados por la extrema derecha y son muy estridentes y polémicos. No tienen éxito porque su contenido sea de calidad e interesante, pero se aprovechan del modelo de negocio de las redes para posicionarse arriba y vivir de ello. Y viven muy bien. Es una técnica bastante fácil. Meta lo llama ‘comportamiento inauténtico’. 

Muchas de las cosas que planteamos a las compañías se refieren precisamente a esto. Pero es difícil moderar el contenido, porque de por sí la propaganda política busca manipular o convencer a una persona de algo. No hay una cientificidad, no se puede crear un Ministerio de la Verdad ni un sistema de moderación 100% fiable. Y con que falle un 0,01% se colarán millones de comentarios, vídeos y publicaciones que distorsionarán el ambiente informativo. 

Lo que se necesita es un compromiso por parte de los partidos, de los medios y de la sociedad civil para ajustarse a unos estándares de debate político en los que no se intenten aprovechar de la manera en la que funcionan las redes, buscando siempre lo más polémico para situarse arriba en el algoritmo. Debemos hacerlo para que el debate político sea sano y contribuya a mejorar la vida de la población, que es el objetivo último de la política. El problema es que el compromiso con la democracia de muchos partidos es bastante débil, porque ponen el poder por encima. Falta aceptación de las normas. Por eso luego vemos que se cuestionan los sistemas de votación o se pone en duda la legitimidad de un gobierno electo democráticamente. También pasa en España. 

P. ¿Quién está detrás de esos mensajes? ¿Son siempre los partidos políticos?

R. Aquí entramos en la especulación. El problema es que las campañas online son muy fáciles de camuflar. Es prácticamente imposible demostrar la vinculación de un partido con una campaña intencionada de distorsión de la información. Pero hay dos aspectos clave. Primero es entender quién se beneficia, porque es bastante raro que alguien gaste grandes cantidades de tiempo y dinero en beneficiar a un grupo político si no hay nada a cambio o no formas parte de ese grupo. Si un influencer político, un grupo de comunicación o uno de sociedad civil claramente apoyan la tesis y la ideología de un partido es probable que haya vinculación y que el propio partido lo está coordinando. Pero no podemos comprobarlo con una prueba fehaciente.

El segundo aspecto clave es el tema monetario, porque alguien está pagando por estas campañas. Hay gente que piensa que las hace un joven desde el sótano de la casa de sus padres, pero no es así. Las hacen agencias de comunicación que tienen oficinas bien establecidas, y que los partidos contratan. En España a los partidos políticos se les puede fiscalizar bastante bien, pero con los gastos online es imposible, y muchas veces los pagos vienen desde fuera. Si pudiéramos seguir el dinero nos daría muchas pistas de quién está detrás. Pero a día de hoy es pura especulación. 

P. ¿Qué partidos utilizan más estas estrategias, los de derecha o los de izquierda?

R. No creo que haya diferencias en la manera de utilizarlo. Vuelvo a la idea de lealtad en el sistema democrático. Suena muy grandilocuente, pero se trata de ver hasta qué punto se aceptan las reglas del juego. Los que estén dispuestos a saltárselas utilizarán estrategias de manipulación para obtener votos y apoyo. Pero no se puede decir que sea cosas más de un espectro o de otro, es algo que va de casos más particulares. Distintos partidos en distintos momentos han podido usar más o menos estas herramientas dependiendo de su lealtad a las normas del juego. 

P. ¿Es habitual que haya injerencias de un país extranjero en unas elecciones?

R. Depende del país. Hay dos países que claramente su principal preocupación es la injerencia extranjera: Taiwán y Ucrania. En el primer caso porque hay una potencia que reclama parte del territorio o su totalidad, que es China, y en el segundo por la ambición neocolonial de Rusia. Fuera de estos dos casos hay que ir casi elección por elección. Pero al final la injerencia extranjera solo es exitosa cuando es capaz de cabalgar contradicciones y encontrar los puntos de fricción que existen en un país. Es decir, cuanto más fértil es el suelo, y eso muchas veces viene porque existen disputas imposibles de resolver. Porque la injerencia busca crear caos de manera generalizada en un sistema democrático, no cambiar los resultados. 

P. Dentro de las redes sociales, ¿en cuáles es más habitual ver ese tipo de campañas ?

R. Los dueños toman las  decisiones para decidir cómo funcionan las redes. En el caso de Instagram, WhatsApp y Facebook los que toman las decisiones son los mismos: Meta, que no es en particular un tipo de red social, es un servicio de plataformas y un actor muy grande. Luego hay otros actores con los que es imposible dialogar, como Telegram. Pero la manera en la que actúan es muy diversa. 

Lo que pasa es que en realidad es un esfuerzo coordinado, Si fuera algo que pasara en una plataforma sería relativamente fácil controlarlo. Algunas tienen un nivel de exposición muy alto, como Instagram. Facebook no lo usa prácticamente nadie, y otras son más bien servicios de mensajería, como Telegram o WhatsApp, aunque muchas narrativas empiezan ahí. E incluso un nivel por debajo también, en plataformas como Twitch o Discord. Pero si hubiera que señalar a una por impacto y por novedad es TikTok. 

La parte más interesante y más peligrosa de TikTok es que es una red post social. No busca crear conexiones, como sucede en Facebook o Twitter. Busca darte contenido que te mantenga entretenido. Y puede estar bien venderte cosas, pero cuando son ideas políticas es mucho más peligroso. Es un gran cambio el que ha introducido TikTok, y es un red que la utiliza gente muy joven. Pero el flujo de una plataforma a otra es constante. Hay que tener una visión global de que el recorrido de la información es multiplataforma. 

P. ¿Cómo ha evolucionado Twitter desde la llegada de Elon Musk? ¿Ha mejorado en algo?

R. Al contrario. Twitter tenía un gran equipo de veracidad y seguridad. Antes de la llegada de Musk era una de las plataformas con los estándares más altos, y dentro de las grandes redes era la única que daba acceso a datos para hacer investigaciones de cómo se distribuía la información. También era una de las pocas que había dado información pública las veces que se lo habían requerido las agencias de seguridad para retirar contenido. Pero todo eso ha desaparecido.

Podría haberse quedado solo en eso, pero es que encima los cambios que se han introducido han creado una plataforma mucho peor. La verificación, el blue check que te decía que la persona que había detrás de una cuenta era quien decía ser, ha perdido el sentido porque ahora lo tiene el que lo paga y se distorsiona el contenido para favorecerlos. Y esto es consecuencia de dos cosas: que Musk no ha entendido la dinámica de cómo funciona la red y no ha escuchado a los expertos y que ha intentado acercarse al modelo de TikTok. Ahora la fiabilidad y la integridad de la red como plataforma de debate político ha empeorado significativamente. 

P. ¿Cómo de difícil es rastrear todo esto?

R. En Europa gracias a la nueva legislación digital se han creado mecanismos para poder acceder a la información. Por primera vez las compañías están obligadas a dar acceso a los datos para poder entender qué está pasando, quién está detrás operaciones, como se están financiando, como se están utilizando… Pero sin el acceso a todo esto es muy difícil entender bien estas campañas. Aunque uno de los problemas que tenemos es que esto no se limita solo al aspecto online. No hay nada que distorsione más el ambiente informativo que unas declaraciones en televisión. En EEUU tenemos Fox News, un canal entero dedicado a esto. Y en Europa algunos lo han intentado replicar. 

Yo abogo porque todos los países adopten la filosofía de dar acceso a los investigadores a los datos a través de la legislación, como plantea la UE. No digo que copien esta normativa, pero la filosofía detrás de esa idea es fundamental. Hasta ahora había mucha oscuridad, salvo en colaboraciones concretas o en casos de filtraciones. 

P. Decís que los actores influyentes tienen que rendir cuentas. ¿Cómo visualizáis que deben hacerlo?

R. Puede ayudar varias cosas. Que la sociedad tenga más capacidad, que las empresas de tecnología se tomen más en serio su responsabilidad como principales actores del debate democrático y que los actores que usan estas técnicas se lo piensen dos veces. Tiene que haber más herramientas para proteger a la gente y también tiene que ser más difícil poner en práctica todo esto. Lo que ha hecho la UE debería funcionar pero acaba de empezar, y es mucho más fácil hacerlo con otros temas, con la política siempre habrá más reticencia. Además, está surgiendo un movimiento contra este tipo de legislaciones entre la extrema derecha de EEUU y Europa con un discurso de que las normativas así son una herramienta de censura porque no les permite hacer las cosas que hasta ahora estaban haciendo. 

P. ¿Eres optimista?¿Crees que las plataformas y gobiernos tomarán las medidas que recogéis en el informe?

R. Soy positivo en la medida de que las escuchen, sobre todo porque son muchas reiteraciones de cosas que muchos estados han firmado. En la mayoría de países democráticos se busca proteger las elecciones. Y creemos que las empresas de tecnología no ganan mucho con las polémicas de su influencia en las votaciones. Para Facebook esto fue, de hecho, un gran problema. Pero hay unos casos más fáciles y otros más difíciles. Por eso también hacen falta organizaciones que actúen a nivel más nacional.