Al límite de la ética: conflictos de la IA en decisiones empresariales
A medida que los modelos de inteligencia artificial (IA) continúan avanzando, es fácil asumir que el hecho de dar cierto control a la herramienta es sólo cuestión de tiempo. Sin embargo, con demasiada frecuencia, estos modelos son cajas negras y se desarrollan sin considerar la interpretabilidad, la ética o la seguridad. Por eso creo firmemente que para las organizaciones que buscan generar confianza en su uso de modelos de IA, es imprescindible seguir prácticas de IA responsable.
La IA responsable implica desarrollar modelos de IA que sean robustos, explicables, éticos y auditables. Los estándares de IA responsable definen los requisitos para la supervisión humana necesaria y establecen controles para garantizar su cumplimiento. Creo, sin ninguna duda, que no debería haber ningún modelo de IA que se utilice para tomar decisiones que afecten a los clientes sin supervisión humana: siempre debe haber un humano involucrado en el proceso.
Conflicto de la IA
Las organizaciones deberían adoptar un estándar corporativo para modelos de IA que dicte los algoritmos de IA adecuados, junto con procesos que permitan roles humanos en el circuito. Esto incluye con frecuencia el uso de IA interpretable, que permite a los humanos revisar y comprender lo que la IA ha aprendido, asegurando su aplicabilidad, uso ético y seguridad.
La IA auditable, por su parte, codifica las decisiones y directrices humanas para el uso operativo de la IA cuando esta comience a impactar a los clientes.
Al límite de la ética: conflictos de la IA en decisiones empresariales
A diario vemos decisiones impulsadas por la IA que son anuladas o revertidas por humanos. Esto incluye aprobar o rechazar el uso de datos, eliminar relaciones de datos no éticas aprendidas (como proxies de datos prohibidos para ciertas decisiones, como raza y género en asuntos relacionados con los recursos humanos o la decisión de otorgar un crédito en el banco), gestionar positivos falsos y garantizar que se cumplan los estándares regulatorios de la IA.
Una de las mejores maneras de garantizar que se sigan prácticas de IA responsable es usar una blockchain para registrar cada paso del desarrollo del modelo de IA, para conocer las aprobaciones de requisitos y pruebas y para analizar la IA en operación, definiendo la autoridad de decisión de los operadores humanos. Esto puede incluir condiciones donde las decisiones de la IA se anulen y se recurra a un «modelo de IA humilde», utilizando a menudo un modelo estándar (no basado en IA) cuando el modelo de IA no sea confiable debido a la falta de datos, aplicación en un área nueva u otros factores.
Incluso los modelos de IA de mejor rendimiento generan un gran número de falsos positivos (errores). Por ello, es fundamental tratar cada decisión con cuidado, definiendo estrategias para validar, contrarrestar y apoyar la operación de la IA. Y esto significa que el rol del Director de Análisis/IA es fundamental. Ellos impulsarán los estándares de IA responsable, ayudando a equilibrar los avances en innovación con los riesgos empresariales y regulatorios, y estableciendo límites para el monitoreo de la IA.
Entonces, ¿estamos listos para una IA sin supervisión? Mi respuesta es uno rotundo no.
Autor: Scott Zoldi, director de analítica de FICO
Powered by WPeMatico