Juegos de Guerra: Inteligencia Artificial y Armas Nucleares
Ayer volví a pasarme por el programa Horizonte con Iker Jiménez y Carmen Porter, para hablar de un tema del que ya he hablado alguna vez por aquí, que no es otro que el uso de la Inteligencia Artificial en la Industria Militar. Un tema que ha generado mucho debate, pero esta vez quería hablar en concreto de un tema que dejé para el final de mi intervención. Y es la Declaración Política del Uso Responsable en la Industria Militar de Inteligencia Artificial, emitido por el gobierno de los Estados Unidos de América.
Esta declaración política se publicó al mismo tiempo que se publicaba la carta abierta de REAIM (REsponsibly Artificial Intelligence in the Military Domain), donde además de reconocer la importancia de conocer todas las implicaciones que tiene el uso de estas tecnologías para crear armas, aprender, poner límites, y tener un framework de colaboración para decidir qué es lo que se quiere y no se quiere en el mundo militar con la IA, se habló de la necesidad de que siempre hubiera una persona humana responsable detrás del uso de una de estas armas.
Al final, el riesgo es generar una IA que por un error de funcionamiento mate a una, a muchas o a toda la humanidad, que con un bug en la elección del objetivo, o dejar que un algoritmo generado por IA pueda tomar las decisiones de a quién hay que “eliminar” nos puede llevar a muchos destinos vistos ya en las películas de ciencia- ficción.
Al mismo tiempo que se publicaba la carta abierta de REAIM, se publicaba la Declaración Política del Uso Responsable en la Industria Militar de Inteligencia Artificial, emitida por el gobierno de los Estados Unidos de América, donde se enfocaba el problema de manera similar, pero tomando como foco a los Estados, y no a las empresas.
Entre la lista de enumeraciones que se hacen en este documento, hay una que llama poderosamente la atención, y es la que dice algo así como “vamos a evitar que las armas nucleares las puedan activar de forma autónoma modelos de Inteligencia Artificial”. Lo cual deja claro que ya hay muchos que lo han pensado.
Un mal diseño, un bug, un sesgo, una deducción lógica clarísima o incorrecta, podría ser el trigger que hiciera que comenzara una escalada nuclear. Como en la icónica película de Juegos de Guerra donde al final se resuelve todo con un juego de Tres en raya que no sé si me da garantías de ser una medida de control en el mundo de hoy en día.
Figura 6: Final de Juegos de Guerra
Como es viernes, no os quiero dejar mucho más que esta reflexión y esta imagen. La de que estamos ya en un mundo en el que el ya vemos muy cerca la conexión de Inteligencias Artificiales Autónomas – es decir, que toman decisiones basadas en su aprendizaje – y Armas Nucleares. Os garantizo que esta imagen se metió en mi cabeza y es muy poderosa si la empiezas a iterar, sobre todo en momentos como el que tenemos hoy en día, donde dentro de nuestra propia Europa tenemos una guerra donde los límites de las “normas de la guerra” se han pasado por alto alguna que otra vez.
Yo os recomiendo que leáis la Declaración Política del Uso Responsable en la Industria Militar de Inteligencia Artificial que los puntos de la A a la L te tienen que hacer mucho sobre a dónde vamos, qué nos vamos a encontrar y cómo van a ser los riesgos del futuro en nuestro mundo. Y ahora sí, buen viernes.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
Powered by WPeMatico