Con las encuestas que han empezado a difundirse en diversos medios y en las redes sociales han iniciado prácticamente las precampañas rumbo a las elecciones de 2024. Y también se ha dado un “banderazo” para iniciar la “guerra sucia” que –júrelo usted, estimado lector– irá esta vez más allá de un simple intercambio de reproches personales.
La “guerra sucia” electoral en esta ocasión podría ser diferente, épica. Con el rápido avance de la inteligencia artificial, expertos informáticos enumeran ya una serie de escenarios alarmantes en los que la IA generativa se utilizará para crear “medios sintéticos” con el propósito de confundir a votantes, difamar a un candidato e incluso incitar a la violencia.
Esto plantea un escenario nada deseado y hasta cierto punto terrorífico y dañino para nuestra democracia. Los expertos temen que las herramientas de inteligencia artificial podrían permitir a cualquier equipo de campaña crear imágenes, videos y audio falsos de sus contrincantes lo suficientemente realistas como para engañar a los votantes y posiblemente influir en la elección.
En específico, podemos esperar en los próximos meses una cascada de contenidos de alto peligro traducidos en mensajes automatizados de llamadas clonadas con la voz de un candidato (obviamente producido por el rival).
También se podrían producir imágenes de video realizadas con tecnología de IA que mostrarían a un político dando un discurso o entrevista con contenido que puede generar polémica (también producido por los “net-centers” del enemigo).
El riesgo no solo estará en el contenido “deepfake” que se produzca. También estará en los “motores” que se encargarán de difundirlos, como correos electrónicos en masa y bots con mensajes de texto y video con elementos de engaño.
Por ejemplo, la inteligencia artificial podría emplearse para crear redes automatizadas de bots que pueden amplificar ciertas narrativas, manipular discusiones y crear la ilusión de un amplio apoyo u oposición a un candidato o causa en particular.
Estas redes de bots pueden “inflar” artificialmente la popularidad, los datos de encuestas y la difusión de ciertos puntos de vista, lo que puede impactar en la opinión pública durante las campañas y eventualmente en la intención al voto.
Y es que cuando se combinan con algoritmos poderosos de las redes sociales, estos contenidos falsos pueden propagarse de manera amplia y rápida, y dirigirse a audiencias altamente específicas, lo que podría llevar las tácticas sucias de campaña a un nivel de objetivo deseado.
¿Hasta qué punto nuestras leyes y reglamentos electorales permitirán que se genere este tipo de “Guerra Ultra-Sucia”? ¿Lograrán salirse con la suya los equipos de mercadotecnia política o serán sancionados con multas y cárcel?
Las precampañas apenas comienzan y ya hay asomos de ataques. Estamos a tiempo para anticipar e intentar hacer algo frente a lo que ya se asoma por el horizonte electoral.
*Los comentarios del autor son responsabilidad suya y no necesariamente reflejan la visión del medio.