Seguridad

Artificial Intelligence Act en la Unión Europea

Ayer 9 de diciembre se ha anunciado el acuerdo por el Artificial Intelligence Act para la Unión Europea, un acuerdo común para regular el uso de la Inteligencia Artificial en Europa, así cómo las reglas con las que queremos utilizar esta tecnología, para garantizar la seguridad, la privacidad y el buen uso de la Inteligencia Artificial en nuestro mercado común.
No tenemos todos los detalles aún de la regulación que se acabará por declinar en la legislación, pero tenemos las líneas generales del debate y el acuerdo final. A finales de octubre se publicó un artículo en el que se recogen las líneas que se buscan con esta regulación, que podéis leer en la web de la presidencia española de la UE.
«El proyecto de reglamento pretende garantizar que los sistemas de IA comercializados en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE. Esta propuesta histórica también pretende estimular la inversión y la innovación en IA en Europa.


También fija cuándo las autoridades pueden utilizar, si fuera «estrictamente necesario», los sistemas de “identificación biométrica a distancia en tiempo real en espacios de acceso público».

Entre las prohibiciones se incluyen la de utilizar la IA con fines de “puntuación” ciudadana y otras como explotar “las vulnerabilidades de grupos específicos de personas”, ya sea por su edad, discapacidad o por su situación social o económica.

Se trata de proteger la seguridad, la salud y los derechos fundamentales de la ciudadanía, mientras se garantiza a las empresas y desarrolladores una estabilidad a largo plazo para favorecer la inversión y la innovación.»
Yo, como he explicado muchas veces, creo que tenemos que aspirar a crear Tecnología Humanista, es decir, que haga que la vida de las personas sea mejor. De todas las personas, no de unas sí, y de otras no. Y como he explicado en muchas ocasiones, si un algoritmo de IA está pensado para maximizar el engagement o la conversión de «ads», no va a tener problema alguno en explotar cualquier «debilidad» o «adicción» que encuentre en el usuario.

De todo esto hablé en el discurso que di durante mi nombramiento como Doctor Honoris Causa, y creo que escándalos como Cambridge Analytica, la avalancha de Fake News en el pasado, los problemas de ansiedad y salud mental que han generado ciertos servicios sociales, quedaron muy bien reflejados en el documental de «The Social Dilema«, donde los datos se explotaban por los algoritmos de Machine Learning para conseguir mejores números de engagement y conversión a cualquier precio.
Con el paso del tiempo hemos ido viendo los problemas que un uso indiscriminado de avances pueden generar si son utilizados incorrectamente, y por eso hemos regulado muchas cosas para poner unas normas de buen uso. Hemos regulado la publicidad en la televisión y en los medios digitales, hemos puesto nomas de privacidad y uso de datos en el GDPR, nuestra LOPD, normas de uso para los servicios en Internet, o para permitir garantizar la investigación de delitos, con reglamentos para el almacenamiento de registros. Normas de buen uso de muchas tecnologías.
Las propias empresas que están liderando la innovación en la Inteligencia Artificial se están «autoregulando«, y así vemos que Microsoft o Google han creado sus comités de ética. El uso de los algoritmos de reconocimiento biométrico se han limitado en casos de Microsoft con su Responsible AI, y Google tiene sus principios de AI Responsable. Por supuesto, el problema no parece tanto de las grandes empresas y sus principios responsables, sino de la miriada de compañías que puedan diseñar servicios y sistemas usando IA. Por supuesto, en Telefónica también tenemos este marco de autoregulación para la IA, como podéis leer en la web.
Lo que está claro es que si los científicos, ingenieros e investigadores de estas grandes empresas creen que es necesario empujar en sus empresas la construcción de comités de ética en el uso de IA, parece normal pensar que haga falta una regulación que nos ayude a poner una buena dirección en el uso y evolución de esta tecnología que estamos creando.
Pensar en casos de uso de la IA que nos gustaría ver es sencillo. Armas militares activadas por Inteligencia Artificial, como se discutió en Europa con el REAIM, o armas nucleares disparadas automáticamente por IA, como vimos en la Declaración Política de Uso Responsable de IA en la Industria Militar emitida por el Gobierno de Estados Unidos, son algunos de ellos.
Pero el etiquetado de personas que afecten a su vida sin saberlo, la puesta en producción de sistemas con sesgos – ya sabéis que yo tengo mi pelea personal porque Microsoft y Google arreglen el sesgo en sus traductores -, el uso de vigilancia biométrica que pueda malfuncionar en distintos colectivos raciales, o la aplicación de IA en juguetes para niños que puedan estar desprotegidos contra la manipulación de hábitos u actividades, son sólo la punta del témpano de hielo que podemos tener.
En el acuerdo que se ha descrito en el Artificial Intelligence Act se habla precisamente de esas cosas. De poner reglas de seguridad, privacidad y transparencia, para todos estos modelos que puedan suponer un riesgo sistémico en el futuro, poner limitaciones al uso de los algoritmos biométricos, y tener un gobierno dentro de Europa que ayude a gestionar esta transformación.
Por supuesto, hay muchos retos en forma de transparencia y de explicabilidad del aprendizaje del modelo y las decisiones que va a tomar. Esto va a exigir conocer en detalle el funcionamiento de estos algoritmos en el futuro, mediante auditoría de estos algoritmos con el objetivo de tener claridad de cómo toman decisiones estos modelos. 
Una de las preocupaciones de muchos es que, con motivo de estas restricciones, muchos servicios no funcionen en la UE, o que las empresas Europeas no puedan innovar de manera competitiva con otros países o zonas del mundo donde no exista ninguna de estas regulaciones. 
Un caso similar a muchas otras diferencias en cuanto a derechos y obligaciones que tienen las empresas entre Europa y Estados Unidos – y no mencionemos China o India -, pero en este caso concreto, parece imparable una regulación similar en Estados Unidos, donde los movimientos en esa dirección son muchísimos, y ya en California, cuna de la innovación, se ha firmado este Septiembre la Executive Order para crear Trustworthy AI y una regulación al respecto. Y en Washington D.C. están con el mismo trabajo.
Aún no sabemos cómo se declinará en acciones concretas, pero que tengamos unos principios de acuerdo de lo que queremos y no queremos, parece a priori una buena cosa. Como todo, al principio habrá gente que pienses que es lo correcto, y gente que piense lo contrario, habrá implementaciones que estarán bien y otras que estarán mal, pero que ante la avalancha que se nos viene nos sentemos a discutir de las cosas que no queremos y se avise a las empresas de ello, me parece que es un avance positivo, que con los datos y el Machine Learning, por desconocimiento probablemente, vimos cosas que no nos gustaron (y otras muchas que sí, que quede claro).
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)  

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.