¿En serio confías en la IA para tomar decisiones de riesgo en tu empresa?

Aún hoy en día, muchos modelos de IA son cajas negras desarrolladas sin la debida consideración por la interpretabilidad, la ética o la seguridad de sus resultados.
Sin embargo, para generar confianza es estrictamente fundamental que las empresas adopten una IA Responsable. Esto supone contar con estándares robustos, explicables, éticos y auditables. Y dentro de los parámetros de una IA Responsable, los desarrolladores deben definir las condiciones en las que algunas transacciones requieren menos supervisión humana y otras más. Pero, ¿podemos eliminar completamente a las personas del proceso de toma de decisiones?
Una de las mejores prácticas que las organizaciones pueden adoptar es mantener un estándar corporativo para el desarrollo de modelos de IA. Este estándar define los algoritmos y procesos adecuados para garantizar que las personas sigan participando en la toma de decisiones. A menudo, esto implica el uso de una IA interpretable, lo que permite a los humanos revisar y comprender lo que la IA ha aprendido en términos de aceptabilidad, sesgos, ética y seguridad. La IA auditable, por su parte, incorpora las decisiones humanas en el proceso y establece directrices para su uso operativo.
La IA Responsable codifica todas las decisiones humanas esenciales que guían cómo se construye, utiliza y desarrolla la IA. Esto incluye aprobar o rechazar el uso de ciertos datos, eliminar relaciones poco éticas en los datos (por ejemplo, proxies de datos ilegales o poco éticos) y garantizar el cumplimiento de normativas y estándares de gobernanza. La IA Responsable se apoya en una blockchain inmutable que establece cómo se debe supervisar la IA en funcionamiento.
También define la autoridad de decisión de los profesionales humanos, incluyendo situaciones en las que las decisiones de la IA pueden ser anuladas y se recurre a un «modelo de IA humilde». Los profesionales de IA son muy conscientes de que incluso los modelos más avanzados generan un gran número de falsos positivos. Por ello, cada resultado debe ser tratado con precaución y se deben definir estrategias para validarlo, corregirlo o respaldarlo.
Marcos de IA Responsable antes de tomar decisiones
En una situación ideal, debería existir un proceso bien definido para anular o revertir decisiones impulsadas por IA. Si se construye bajo un marco de IA Responsable, estas decisiones se codifican en un conjunto claro de reglas dentro de una blockchain de operación de IA antes de que la IA entre en producción. En una crisis, por ejemplo, es esencial contar con una guía predefinida en lugar de tomar decisiones impulsivas. Esta blockchain definirá cuándo los humanos pueden anular a la IA mediante modelos alternativos, datos de apoyo o procesos de investigación.
Este marco operativo de IA se define en coordinación con los desarrolladores del modelo, quienes conocen sus fortalezas y debilidades. También permite detectar cuándo la IA está operando fuera de los límites para los que fue diseñada, evitando brechas entre su desarrollo y su operación. Cuando se emplea una IA auditable, no hay decisiones angustiosas en tiempos de crisis, ya que se puede confiar en un marco que establece de antemano los pasos para que los humanos tomen decisiones informadas.
La prevención de fallos comienza con la transparencia
Para evitar una reacción negativa contra la IA en la actualidad, es necesario definir en qué medida los humanos deben estar involucrados. Las empresas deben empoderar a sus líderes en ciencia de datos para identificar qué modelos de IA son de alto riesgo y evaluar si están preparados para cumplir con los estándares de IA responsable y confiable. Y esto nos lleva al tema de la gobernanza y la regulación de la IA.
Las empresas deben enfocarse en desarrollar un programa de IA Responsable y reforzar prácticas que puedan haberse debilitado durante el auge de la IA generativa. Esto comienza con una revisión para saber cómo evoluciona la regulación de la IA y si cuentan con las herramientas adecuadas para evaluar y poner a prueba sus aplicaciones de IA. Si no están preparadas, deben entender las repercusiones comerciales de la posible eliminación de la IA de su conjunto de herramientas y tomar medidas para definir estándares corporativos de desarrollo y operación de IA.
Posteriormente, deben determinar y clasificar qué problemas de negocio son más adecuados para la IA tradicional frente a la IA generativa. La IA tradicional puede diseñarse y restringirse para cumplir con las regulaciones mediante los algoritmos adecuados para alcanzar los objetivos empresariales. Finalmente, las empresas deben adoptar un enfoque de IA humilde, poniendo en marcha sistemas de respaldo para sus despliegues de IA y reduciendo el uso de tecnologías más arriesgadas cuando la IA auditable detecte que las decisiones automatizadas no son confiables.
Al final, existen demasiadas organizaciones que están definiendo su estrategia de IA a través de líderes empresariales o ingenieros de software que, a menudo, tienen poco o ningún conocimiento sobre las matemáticas y los riesgos específicos de los algoritmos de IA. Utilizar la IA es fácil. Pero construir una IA responsable, segura y operativa de forma correcta, con controles, es un ejercicio mucho más complejo que requiere estándares, madurez y compromiso con la IA Responsable.
Autor: Scott Zoldi, director de analítica de FICO
Powered by WPeMatico