El sector financiero se enfrentan al dilema entre seguridad y calidad de datos en plena carrera por la IA
Mientras la inteligencia artificial (IA) se convierte en un pilar clave de la transformación digital en el sector financiero, una reciente investigación de Hitachi Vantara revela que muchas organizaciones están avanzando sin una base de datos suficientemente robusta. El informe, titulado The State of Data Infrastructure Sustainability, advierte que las entidades del sector banca, servicios financieros y seguros (BFSI) están sacrificando la calidad de los datos en favor de la seguridad, lo que está limitando el rendimiento de la IA y comprometiendo el retorno de la inversión a largo plazo.
Casi la mitad (48%) de los responsables de TI en el sector BFSI sitúan la seguridad de los datos como su principal prioridad en la implementación de IA, por encima de la precisión o la disponibilidad. Esta preocupación está justificada: el 84% teme que una pérdida de datos, ya sea por ciberataques o errores internos, tendría consecuencias catastróficas para su organización. Sin embargo, esta obsesión por proteger los datos está teniendo un coste palpable: los modelos de IA solo son precisos un 21% del tiempo y los datos están disponibles cuando se necesitan apenas en una de cada cuatro ocasiones.
“El modelo de negocio de los servicios financieros está intrínsecamente ligado a la confianza. El daño a la reputación es un riesgo significativo. Si un modelo de IA revela información sensible o responde con errores graves, las implicaciones legales y de confianza pueden ser enormes”, subraya Mark Katz, CTO de Servicios Financieros en Hitachi Vantara.
Preocupaciones sector financiero
El estudio revela además que el 36% de los encuestados teme filtraciones de datos provocadas por errores en los modelos de IA, y un 38% está preocupado por no poder recuperar datos críticos tras un ataque de ransomware. Aun así, la mayoría de las organizaciones están adoptando IA de manera apresurada: el 71% admite probar herramientas de IA directamente en entornos reales, sin apenas fases de prueba controladas, lo que aumenta los riesgos de fallos o filtraciones.
Para Alenka Grealish, codirectora de Inteligencia Generativa de IA en Celent, la clave está en encontrar el equilibrio: “Las instituciones financieras deben equilibrar velocidad e innovación con un enfoque claro en seguridad, precisión y ética. Solo así podrán aprovechar todo el potencial de la IA sin comprometer la confianza de sus clientes”.Mientras la inteligencia artificial (IA) se convierte en un pilar clave de la transformación digital en el sector financiero, una reciente investigación de Hitachi Vantara revela que muchas organizaciones están avanzando sin una base de datos suficientemente robusta.
El informe de Hitachi Vantara alerta sobre los riesgos de priorizar la protección frente a la precisión en la implantación de inteligencia artificial
La seguridad eclipsa a la precisión
Casi la mitad (48%) de los responsables de TI en el sector BFSI sitúan la seguridad de los datos como su principal prioridad en la implementación de IA, por encima de la precisión o la disponibilidad. Esta preocupación está justificada: el 84% teme que una pérdida de datos, ya sea por ciberataques o errores internos, tendría consecuencias catastróficas para su organización. Sin embargo, esta obsesión por proteger los datos está teniendo un coste palpable: los modelos de IA solo son precisos un 21% del tiempo y los datos están disponibles cuando se necesitan apenas en una de cada cuatro ocasiones.
“El modelo de negocio de los servicios financieros está intrínsecamente ligado a la confianza. El daño a la reputación es un riesgo significativo”, subraya Mark Katz, CTO de Servicios Financieros en Hitachi Vantara. “Si un modelo de IA revela información sensible o responde con errores graves, las implicaciones legales y de confianza pueden ser enormes”.
Preocupaciones crecientes y preparación insuficiente
El estudio revela además que el 36% de los encuestados teme filtraciones de datos provocadas por errores en los modelos de IA, y un 38% está preocupado por no poder recuperar datos críticos tras un ataque de ransomware. Aun así, la mayoría de las organizaciones están adoptando IA de manera apresurada: el 71% admite probar herramientas de IA directamente en entornos reales, sin apenas fases de prueba controladas, lo que aumenta los riesgos de fallos o filtraciones.
Para Alenka Grealish, codirectora de Inteligencia Generativa de IA en Celent, la clave está en encontrar el equilibrio: “Las instituciones financieras deben equilibrar velocidad e innovación con un enfoque claro en seguridad, precisión y ética. Solo así podrán aprovechar todo el potencial de la IA sin comprometer la confianza de sus clientes”.
Powered by WPeMatico