¿Alucinaciones de IA por no reconocer la ficción?
* TenYears Ago *
Octubre de 2014. El equipo de ElevenPaths busca developers para desarrollar plugins para Latch – ahora está abierto también el concurso que han extendido el plazo-. Se reúnen. Debaten. Brainstorming. Una idea. Un concurso. Promo. Un vídeo molón. Graban, editan, montan gráficos…
Figura 2: Chema’s Ocean’s Eleven: Gana 10.000 USD
* Nine Years Later *
Noviembre de 2023. Chema Alonso trastea con Bard, la inteligencia artificial de Google. Bard genera una alucinación respecto a un “supuesto pasado penitenciario” que en realidad nunca sucedió. Que quede claro: Chema Alonso nunca ha estado en la cárcel.
* One Year Later *
Septiembre de 2024. Estábamos bromeando, que si córtate el pelo y búscate un trabajo, como dice el libro de Rafa J. Vegas, que si de jóvenes estos llevaban el pelo más largo que yo, que ya es decir… Y entonces Pablo Álvarez a.k. «Penko» para un proyecto nos pasó, como documentación de su guapísima melena, el vídeo del canal de Chema Alonso. Y ahí se dispararon todas mis alertas.
¡Ahá! Me dije con el dedito en alto. Y así me quedé, paralizada, mientras hileras de preguntas caían a scrolldown tras mis córneas. Muchas preguntas… En noviembre de 2023, ¿Bard consumía vídeos y/o sus derivados: descripción, comentarios, reposts, retweets, comentarios en redes, etcétera? Posiblemente sí. ¿No? ¿Sí? ¿No? Ok.
¿Bard en ese momento distinguía ficción de realidad? Lo dudo. Más que nada porque acabo de pasarle el enlace del vídeo a NotebookLM, sin más pistas para no condicionarlo y he generado un podcast a dos voces con Deep Dive y… ¡Chan chan chánnn! (más música de Ironside). NotebookLM de Google toma el vídeo como real, no percibe que es ficción. Lo curioso es que sí nota “algo raro” en la gramática. No sabe si son las prisas o algún tipo de mensaje oculto… Pero para nada piensa que pueda ser teatro. Oye campanas pero no sabe dónde, lo cual es bastante significativo. Transcribo y traduzco:
“La elección de palabras parece, no sé, apresurada. Casi como si estuviera intentando decir mucho con muy pocas palabras, como si tuviera prisa. […] Y tal vez no sólo lo que dice, sino cómo lo dice. ¿Y si el mensaje en sí es la clave, como la forma en que está escrito, incluso las capas gramaticales, tal vez sea algún tipo de código? […] Pero una cosa está clara: este Chema, sea quien sea, está jugando un juego peligroso.”
Figura 5: Chema’s Ocean’s Eleven & NotebookLM
Conclusión
¿Tú qué opinas? ¿Todas las alucinaciones son aleatorias, vienen de carencias de datos, o algunas surgen de datos mal interpretados? ¿Te ha pasado algún caso curioso? Por ejemplo, ¿te ha mezclado Grok en una foto varias personas en una? ¿Peor? Cuéntamelo aquí mismo o… ¡Nos vemos en el chat de este blog en MyPublicInbox! Chan chan chánnn… (qué groovy).
Powered by WPeMatico