Noticias

Ética y huella ecológica en la IA

Siempre hemos sido defensores de la máxima disrupción tecnológica y de la máxima disrupción ecológica en nuestra sociedad. Siendo esto así, creemos firmemente que la IA será una aliada tecnológica para la sostenibilidad, por cuanto que podrá ser utilizada para construir modelos predictivos de la demanda de recursos naturales, para optimizar aún más los procesos de producción y de impacto ambiental, para diseñar productos completamente nuevos que sean más sostenibles y eficientes. Una aliada imprescindible para permitir, en definitiva, la transición a un modelo productivo y de consumo más responsable.

Ciertamente, la IA podrá facilitar y ayudar a que determinados bienes o servicios cumplan una serie de criterios de sostenibilidad ambiental y circularidad conforme a los estándares internacionales y a las nuevas normas europeas. Podrá ayudar en el diseño de productos y servicios, para garantizar la durabilidad de su vida útil, toda vez que facilitará al productor la toma de decisiones en el proceso de diseño para garantizando el menor impacto ambiental del producto, y también al consumidor una elección soberana y ética de consumo responsable.

Ahora bien, sabemos que la IA requiere un gran consumo de energía que se convierte en calor y que debe ser eliminado para evitar el sobrecalentamiento de los servidores. Este proceso implica un consumo importante de agua para la refrigeración directa de los servidores (huella hídrica directa o de alcance 1), y para la generación de electricidad (huella hídrica indirecta o de alcance 2).

Pues bien. un informe de la Universidad de California de 2024 reveló que la demanda global de IA podría ser responsable de la extracción de entre 4,2 y 6,6 mil millones de metros cúbicos de agua en 2027. El consumo de agua a nivel global de Google, Microsoft y Meta en 2022 alcanzó 2,2 mil millones de metros cúbicos.

Los millones de metros cúbicos de agua que se evaporaron, se deben considerar consumidos, por lo que en un entorno de escasez de agua dulce significa un gran desafío que debe ser justamente ponderado y compensado.

Esta afección ambiental es de primer orden y tiene una trascendencia ética fundamental muy relacionada con el principio de crecimiento inclusivo, desarrollo sostenible y bienestar. Se debe garantizar que las partes interesadas participen de manera proactiva en la administración responsable de la IA buscando resultados beneficiosos para las personas y el planeta. Eso va a depender en buena media del uso que se le de a la IA por partes de las entidades ya sean privadas o públicas.

Es por ello que la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) lanzó una guía completa destinada a promover el uso responsable de la inteligencia artificial (IA), que refleja el compromiso continuo internacional de asegurar que los avances tecnológicos contribuyan de manera positiva a la sociedad y respeten los derechos humanos y los estándares éticos, proponiendo que se fomenten las prácticas de IA ambientalmente sostenibles.

Esta guía de la UNESCO destaca la necesidad de considerar el impacto ecológico de las tecnologías de IA

Sin embargo, el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, que establece las normas armonizadas en materia de inteligencia artificial, poco o nada dice de este impacto adverso de la IA. La norma europea es consciente que la “IA es un conjunto de tecnologías en rápida evolución que contribuye a generar beneficios económicos, medioambientales y sociales muy diversos en todos los sectores económicos y las actividades sociales” (considerando 4), aunque opta por legislar esta tecnología al margen del binomio IA-medio ambiente.

Efectivamente, a pesar de preverse la importancia del impacto ambiental de la IA en informes sectoriales e internacionales, el Reglamento (UE) sobre IA no aborda los perjuicios ambientales inherentes al desarrollo e implementación de la IA, llegando a dejar la “variante ambiental” fuera de los factores por los que se considera una IA de alto riesgo. En cambio, no queda al margen de la nueva norma europea la valoración y evaluación de impactos adversos en materia de derechos humanos dentro de la cadena de valor de los procesos de IA.

Solo la perspectiva “antropocéntrica” de la IA ha monopolizado la ética propuesta por el Reglamento, por cuanto que se focalizan las medidas en esta materia en función del riesgo que los sistemas IA supongan para la persona, pero en desconexión con el entorno ambiental y ecológico. No es un enfoque completo.

A nuestro entender la correcta evaluación de los efectos de riesgos de la IA, la correcta juridificación de los valores éticos del uso de la IA, no puede abordarse al margen del entorno natural al que afecto directamente y de forma adversa su proceso de generación. De igual manera, que el hombre y las empresas no se pueden llegar a entender sin su comunidad o sin el entorno natural que le rodea y en el que interactúa.

Lógica consecuencia de lo anterior y debido a su falta de positivización en la norma, sería proponer a los operadores y agentes implicados nuevas metodologías que permitan evaluar con precisión la huella ecológica de los modelos de IA, garantizar una mayor transparencia en la divulgación de esta información, todo ello con el firme propósito de fomentar con éxito una IA verdaderamente sostenible.

Autor: Víctor Moralo Iza, Attorney and Partner ECIJA

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.