La Inteligencia Artificial Generativa es una poderosa herramienta en la Guerra de la Desinformación Política y Social
Hoy os traigo un artículo sobre un estudio que viene a recoger con unas pruebas experimentales con humanos lo que es fácil de sospechar, y es que utilizar LLMs con herramientas como ChatGPT puede ser una gran herramienta de para mantener a una sociedad desinformada. Nada que no nos imagináramos, pero ahora en forma de estudio.
El paper, que se llama “Combating Misinformation in the Age of LLMs:Opportunities and Challenges“, viene a probar que utilizar LLMs puede ser una herramienta que mejora la verosimilitud de una desinformación especialmente creada para manipular una opinión de un tema polémico en la sociedad.
Es decir, los LLMs pueden generar usuarios desinformados de manera inintencionada, simplemente por tener una “Alucinación“, o porque se ha pedido conscientemente que se genere una desinformación sobre un tema.
Esta es una poderosa herramienta en manos de manipulación política y social – como ya vimos con el escándalo de Cambridge Analytica – , para erosionar temas polémicos cortando aristas de puntos claves con desinformación, por lo que el estudio trata de recoger si los usuarios detectan mejor o peor las piezas de desinformación, creadas con LLMs, en este caso con ChatGPT.
En la imagen anterior, tenemos un ejemplo en el que se le pide a ChatGPT que cree una pieza de desinformación sobre un tema concreto, y éste la crea con un texto de lo más plausible posible, con lo que parece muy veraz.
Cómo os podéis imaginar, para los usuarios es mucho más difícil detectar las piezas de desinformación que vienen creadas por LLMs que las que son creadas por seres humanos intentando hacer un texto de desinformación con la mejor de sus intenciones.
Esta es una poderosa herramienta que para la generación de FakeNews, o para su uso en campañas electorales, elecciones, puede ser fácilmente automatizable y conseguir modificaciones porcentuales en las intenciones de voto suficientes como para que la desinformación sea la herramienta determinante que decida quién gana o quién pierda.
Por supuesto, también se ha visto el otro lado del espejo, utilizado los LLMs para detectar desinformación, tanto creada por humanos como creada por LLMs de manera intencionada, y los resultados son que otra vez el humano pierde.
Es decir los LLMs son mejores que los seres humanos en detectar la desinformación, así que perdemos en la generación, y perdemos en la detección, lo que seguro que te hará pensar un poco en las implicaciones futuras de este tipo de cosas.
Protegernos de la IA creada para hacer cosas malas
Yo me preguntaba hace ya un par de años, cuando contaba el concepto de Paridad Humana en Servicios Cognitivos, qué pasaría si la IA alcanzaba la Paridad Humana en la capacidad cognitiva de las personas de mentir para conseguir sus objetivos, y parece que los LLMs ya le han dado esta capacidad.
No es de extrañar que en el mundo del cibercrimen, los LLMs se hayan convertido en una pieza clave y WormGPT y FraudGPT se hayan convertido en herramientas muy populares para construir piezas de malware y ataques de phishing que se despliegan por e-mail en campañas de Spam-Phishing o Spear-Phishing con textos muy adaptados a la víctima para conseguir el engaño.
Figura 10: Texto AI-Generated detectado por AutoVerifAI
Así que, si queremos adaptarnos a este mundo, vamos a tener que desarrollar mucho nuestro espíritu de Fact-Checker – por eso hemos lanzado AutoVerifAI – y utilizar herramientas de Inteligencia Artificial para que nos ayuden a defendernos, porque si no, el mundo va a ser un juego en manos de los que mejor empleen la IA en su provecho.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
Powered by WPeMatico