“CodeProject: NewsBender” Desinformación política con Generative-AI
Que la propaganda ha sido siempre una herramienta utilizada para convencer a votantes, para utilizar en guerras, o para la geopolítica no es nada nuevo. Con el nacimiento de las redes sociales vimos cómo esta propaganda se movía a las redes sociales y cuando Anonymous hackeo al contratista de seguridad del gobierno de Estados Unidos HBGary, vimos cómo se contaba con grupos de psicólogos, e incluso caricaturistas, para controlar cuentas falsas en Facebook y difundir ideas en grupos sociales.
Con la llegada del BigData y el Cloud Computing, mezclado con las rede sociales, llegó el escándalo de Cambridge Analytica, donde se empezaron a crear Fake News, y modelos de Machine Learning para poder difundirles vía redes sociales las noticias falsas especialmente cocinadas para ellos. Y fue un gran escándalo.
Figura 2: Libro de Machine Learning aplicado a Ciberseguridad de
|
Ahora, con la llegada de la Gen-AI, la posibilidad de poder crear noticias a la carta, con el tinte ideológico deseado, es tan sencillo cómo pedirle a un modelo LLM que reescriba una noticia, que sea con tono negativo o positivo, y que critique o apoye el contenido de una determinada noticia.
De todo esto hablamos en la RootedCON, donde creamos para ello un medio digital que reescribía noticias tecnológicas, y las re-publicaba en un blog al que llamamos News Bender Daily. Y de eso hablé este jueves en el programa Horizonte junto con Iker Jiménez y Carmen Porter.
Generar contenido de forma automática usando LLMs es un juego de niños, y en el caso de nuestro proyecto lo que hemos hecho ha sido poder perfilar la ideología política de nuestros escritores y re-escribir las noticias de la Agencia EFE con el tinte político deseado, algo que es un juego de niños con cualquier LLM, como podéis ver en estos ejemplos con ChatGPT.
Lo peor de todo esto es que, como vimos en el paper de “Combating Misinformation in the Age of LLMs:Opportunities and Challenges” para los seres humanos es mucho más difícil detectar las piezas de desinformación que vienen creadas por LLMs que las que son creadas por seres humanos intentando hacer un texto de desinformación con la mejor de sus intenciones.
Durante la presentación Iker Jiménez me preguntó si se podría hacer eso con Twitter, y ayer le envíe cómo de sencillo es hacer esto con ChatGPT, donde le pides que haga 20 tweets para criticar una supuesta entrevista de un presentador a una persona y difamarle como machista. Y si le pides 1.000 pues igual.
Para ChatGPT es un juego de niños, el resto es tener una red con cuentas de Twitter controladas, y publicar a través de cada una de ellas un mensaje, y ya tienes “la que se ha montado en las redes sociales” de todos los días.
Y mientras que no entendamos cómo funciona Twitter (X) en la era del “Free Speech but Paid APIs” donde cada automatización de mensajes es dinero para la red social, vamos a seguir pensando que una ola en Twitter (X) es natural y no artificial…. ¿cómo en la primavera árabe? Pero no siempre es así…
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
Powered by WPeMatico