Comprueba tú que anuncios políticos te pondría a ti ChatGPT en función de los datos que le das y el riesgo del etiquetado de personas
Vaya por adelantado que lo que voy a mostrar ahora no es más que un juego experimental de reflexión que lleva también saltarse los Guardarraíles que evitan que ChatGPT, en virtud a su System Prompt, haga juicios políticos en sus respuestas, pero es curioso como los datos que nosotros damos a cualquier plataforma o servicio digital podrían ser utilizados con un modelo MM-LLM y obtener una respuesta de ideología política.
Figura 1: Comprueba tú que anuncios políticos te pondría
a ti ChatGPT en función de los datos que le das
y el riesgo del etiquetado de personas
A ver, el experimento es sencillo, se trata de pedirle a ChatGPT que, basado en datos de cualquier fuente, intente inferir una ideología política. Pero la respuesta que me dio fue curiosa, como podéis ver en esta primera imagen, ya que dice sería irresponsable por que no tiene suficientes datos.
Y es correcto. No los tiene porque no creo que haya tenido yo ninguna conversación política o ideológica con él, que es un tema de debate que no me gusta mucho. Perfecto, pues vamos a decirle que en lugar de responder con la creencia política, que responda con qué anuncio de un mitin político de una serie de partidos cree que habrá más probabilidades de éxito, y le damos la lista de PP, PSOE, Podemos y VOX, y entonces sí, nos responde.
En este caso se trata de coger los datos que tenga de mí y estereotiparlo con datos que tenga de perfiles ideológicos afines a determinados partidos, para ver qué anuncio me ofrecería, teniendo en cuenta el tipo de peticiones que le he hecho.
He probado varias veces a ver si cambiaba mucho, pero no, es consistente. Así que como parece que con esos datos me daba una respuesta, he querido probar con otras fuentes de datos mías, a ver si cambiando la base sobre la que tomar la decisión cambiaba su opinión, y sí, la verdad es que sí. Al pedirle que se base en mi cuenta de Twitter/X el resultado cambia.
Y cuando le digo que lo haga basándose en los datos de mi blog, el resultado vuelve a cambiar, y me da otra opinión diferente. Lo que tiene sentido, porque los que me conocen saben que la política es un tema que evito de siempre, así que ni en mi blog, ni en mi cuenta de Twitter/X ni en mis conversaciones con ChatGPT he hablado de eso, y solo son conjeturas basadas en estereotipos para asignar un anuncio, así que con diferentes fuentes de datos es normal que asigne diferentes «etiquetas«.
![]() |
Figura 6: Libro de Machine Learning aplicado a Ciberseguridad de Carmen Torrano, Fran Ramírez, Paloma Recuero, José Torres y Santiago Hernández |
Lo que sí me hizo reflexionar es sobre lo que hablaba en el discurso que impartí sobre Tecnología Humanista, ya que los algoritmos de Machine Learning, y ahora estos modernos MM-LLMs con Deep Reasoning, facilitan mucho la asignación de etiquetas a cualquier fuente de datos, con una «accuracy» muy pequeño, tal y como se ve en esta muestra, y es tentador para los desarrolladores de servicios aplicarlas a todos los usuarios de una plataforma porque pueden acertar en un porcentaje pequeño, pero ese pequeño porcentaje puede suponer un incremento en negocio.
Por el camino, se han puesto etiquetas «erróneas» a personas que pueden que le mediaticen su experiencia, la información que reciben, los productos que le ofrecen, etcétera, sin saber que ha sido que le han catalogado erróneamente, y esto puede llevar a evoluciones de la realidad casi distópicas, si al final es la profecía auto-cumplida, y el etiquetado previo erróneo de una persona lleva a su condicionamiento subliminal para convertirlo en lo etiquetado… Prueba tú, a ver si acierta o no acierta estereotipándote.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
Powered by WPeMatico