Cuidado con las filtraciones en las apps de IA Generativa
Netskope ha revelado en una nueva investigación que más de un tercio de los datos confidenciales compartidos con aplicaciones de IA Generativa (genAI) están sujetos a control legal, lo que podría poner a las empresas en riesgo de costosas filtraciones de datos.
Las empresas están tomando medidas proactivas para gestionar estos riesgos, con un 65% de ellas implementando formación en tiempo real para guiar a los usuarios en su interacción con las aplicaciones genAI. Según el estudio, esta formación ha sido crucial para mitigar riesgos relacionados con datos, ya que el 57% de los usuarios cambiaron sus hábitos tras recibir alertas de asesoramiento.
«Las empresas deben ser conscientes de que el uso de genAI puede exponer inadvertidamente información sensible, diseminar información falsa o incluso introducir contenido malicioso. Ello exige un planteamiento sólido de gestión de riesgos para proteger los datos, la reputación y la continuidad del negocio», afirma James Robinson, director de seguridad de la información de Netskope.
Filtraciones en las apps de IA Generativa
El informe de Netskope Threat Labs destaca que el 75% de las empresas encuestadas bloquean al menos una aplicación genAI, reflejando la preocupación de los responsables tecnológicos por limitar los riesgos de filtración de información confidencial. Sin embargo, menos de la mitad de las empresas implementan controles específicos para evitar la divulgación de datos sensibles en las solicitudes, lo que indica un retraso en la adopción de soluciones avanzadas de prevención de pérdida de datos (DLP) necesarias para usar genAI de manera segura.
El uso de la IA generativa se ha más que triplicado en 12 meses, pero las empresas siguen luchando por encontrar un equilibrio entre seguridad y gestión de riesgos
El estudio, basado en datos globales, encontró que el 96% de las empresas utilizan actualmente genAI, una cifra que se ha triplicado en el último año. En promedio, las empresas ahora emplean casi 10 aplicaciones genAI, en comparación con las 3 del año anterior. Además, el 1% de las empresas más avanzadas en adopción de genAI utilizan unas 80 aplicaciones, un aumento significativo desde las 14 del año pasado.
Este mayor uso ha llevado a un aumento en el intercambio de código fuente propietario en estas aplicaciones, representando el 46% de todas las violaciones de políticas de datos documentadas. Esta tendencia complicó el control de riesgos, demandando un esfuerzo de DLP más robusto.
Consejos útiles para las empresas
Netskope recomienda a las empresas que revisen, adapten y ajusten sus programas de protección específicamente a la IA o genAI utilizando iniciativas como el NIST AI Risk Management Framework. Entre los pasos específicos para hacer frente al riesgo de genAI merece la pena destacar:
- Conozca su estado actual: Comience por evaluar qué usos hace actualmente de la IA y el aprendizaje automático, las canalizaciones de datos y las aplicaciones genAI. Identifique vulnerabilidades y brechas en los controles de seguridad
- Implemente controles básicos: Establezca medidas de seguridad esenciales, como controles de acceso, mecanismos de autenticación y cifrado
- Planifique controles avanzados: Más allá de lo estrictamente necesario, desarrolle un plan de trabajo para controles de seguridad avanzados. Considere el modelado de amenazas, la detección de anomalías, la supervisión continua y la detección de comportamientos para identificar movimientos de datos sospechosos a través de entornos en la nube hasta aplicaciones genAI que se desvíen de los patrones habituales de los usuarios
- Mida, inicie, revise, reitere: Evalúe periódicamente la eficacia de sus medidas de seguridad. Adáptelas y refínelas en función de las experiencias del mundo real y las amenazas emergentes
Powered by WPeMatico