Seguridad

“CodeProject: NewsBender” Desinformación política con Generative-AI

Que la propaganda ha sido siempre una herramienta utilizada para convencer a votantes, para utilizar en guerras, o para la geopolítica no es nada nuevo. Con el nacimiento de las redes sociales vimos cómo esta propaganda se movía a las redes sociales y cuando Anonymous hackeo al contratista de seguridad del gobierno de Estados Unidos HBGary, vimos cómo se contaba con grupos de psicólogos, e incluso caricaturistas, para controlar cuentas falsas en Facebook y difundir ideas en grupos sociales.
Con la llegada del BigData y el Cloud Computing, mezclado con las rede sociales, llegó el escándalo de Cambridge Analytica, donde se empezaron a crear Fake News, y modelos de Machine Learning para poder difundirles vía redes sociales las noticias falsas especialmente cocinadas para ellos. Y fue un gran escándalo.
Figura 2: Libro de Machine Learning aplicado a Ciberseguridad de

Carmen TorranoFran Ramírez, Paloma Recuero, José Torres y Santiago Hernández

Ahora, con la llegada de la Gen-AI, la posibilidad de poder crear noticias a la carta, con el tinte ideológico deseado, es tan sencillo cómo pedirle a un modelo LLM que reescriba una noticia, que sea con tono negativo o positivo, y que critique o apoye el contenido de una determinada noticia. 

Figura 3: Desinformación política con GenAI en Horizonte.

De todo esto hablamos en la RootedCON, donde creamos para ello un medio digital que reescribía noticias tecnológicas, y las re-publicaba en un blog al que llamamos News Bender Daily. Y de eso hablé este jueves en el programa Horizonte junto con Iker Jiménez y Carmen Porter.

Figura 4: Pidiéndole que re-escriba una noticia en tono positivo

Generar contenido de forma automática usando LLMs es un juego de niños, y en el caso de nuestro proyecto lo que hemos hecho ha sido poder perfilar la ideología política de nuestros escritores y re-escribir las noticias de la Agencia EFE con el tinte político deseado, algo que es un juego de niños con cualquier LLM, como podéis ver en estos ejemplos con ChatGPT.

Figura 5: La noticia re-escrita por ChatGPT con tono favorable

Lo peor de todo esto es que, como vimos en el paper de “Combating Misinformation in the Age of LLMs:Opportunities and Challenges” para los seres humanos es mucho más difícil detectar las piezas de desinformación que vienen creadas por LLMs que las que son creadas por seres humanos intentando hacer un texto de desinformación con la mejor de sus intenciones.
Durante la presentación Iker Jiménez me preguntó si se podría hacer eso con Twitter, y ayer le envíe cómo de sencillo es hacer esto con ChatGPT, donde le pides que haga 20 tweets para criticar una supuesta entrevista de un presentador a una persona y difamarle como machista. Y si le pides 1.000 pues igual.

Figura 7: Pidiéndole los 20 mensajes para crearle la campaña a Tistimito

Para ChatGPT es un juego de niños, el resto es tener una red con cuentas de Twitter controladas, y publicar a través de cada una de ellas un mensaje, y ya tienes “la que se ha montado en las redes sociales” de todos los días. 

Figura 8: La campaña en Twitter contra Tistimito diseñada por ChatGPT

Y mientras que no entendamos cómo funciona Twitter (X) en la era del “Free Speech but Paid APIs” donde cada automatización de mensajes es dinero para la red social, vamos a seguir pensando que una ola en Twitter (X) es natural y no artificial…. ¿cómo en la primavera árabe? Pero no siempre es así…
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)  

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.