Una ciberseguridad eficaz comienza con una gestión de datos excelente
En esta era de confianza cero, los controles de seguridad deben establecerse lo más cerca posible de los datos.
La amenaza de los delitos informáticos es una constante, tanto en los buenos tiempos como en los tiempos de crisis. Es, por tanto, digno de mención que las agencias de ciberseguridad británica y estadounidense aúnen fuerzas para emitir un comunicado conjunto poco frecuente. Eso es exactamente lo que hicieron a principios de abril el Centro de Ciberseguridad Nacional del GCHQ y la Agencia de Ciberseguridad e Infraestructura estadounidense, alertando de un repunte en la actividad delictiva, sobre todo de ataques de malware y ransomware, durante las primeras semanas del confinamiento por la COVID-19.
El sector de los servicios financieros aportó el 62% de todos los datos expuestos en 2019, aunque solo representó un 6,5% de las filtraciones de datos, según un informe de Bitglass. De todos los sectores, los servicios financieros registraron el segundo mayor coste por filtración, solo por detrás de la sanidad. En este sector, una filtración media cuesta 210 dólares por registro, mientras que una «mega filtración», como la sufrida por Capital One cuando un ataque afectó a unos 106 millones de clientes, puede llegar a costar hasta 388 dólares por registro.
La preocupación es lógica, sobre todo en el entorno actual. Cada vez más personas trabajan desde casa, llevando la información de la empresa y de los clientes más allá de los límites tradicionales de la organización. Como escribió recientemente mi colega Ray White, estamos observando niveles de tráfico en internet hasta ahora nunca vistos, como constatan los mapas de Internet Traffic Report. Sin la protección necesaria, los trabajadores en remoto son un blanco fácil. Los bancos, aseguradoras y otras instituciones financieras no están muy versadas en el trabajo desde casa. No resulta habitual, ni a menudo práctico, pero estas mismas instituciones son ahora conscientes de que, a raíz de la COVID-19, las políticas del trabajo remoto deben formar parte de sus planes de continuidad empresarial.
Más allá de las cifras que acaparan los titulares, siguen existiendo principios fundamentales que las organizaciones sensatas deben observar. Por encima de todo, una buena gestión de la seguridad está supeditada a una buena gestión de los datos. En cada paso del viaje hacia la seguridad, desde la prevención a la detección y la respuesta, saber dónde están los datos, cómo extraerlos y cómo interoperar dentro y fuera de los límites de la organización son aspectos vitales para asegurar la protección de la información más valiosa tanto suya como de sus clientes.
En NetApp, nuestro enfoque de seguridad se centra en los datos
Los datos, después de todo, son el activo más valioso que poseen las empresas. Y los datos son el corazón de Confianza Cero, una metodología que sustituye el enfoque de seguridad de “Confiar, pero verificar” por el comando inflexible: “Verificar pero nunca confiar”. En un ecosistema como el de los servicios financieros, donde las subcontratas cuentan con información privilegiada y trabajan dentro y fuera de los límites de la organización, el enfoque Confianza Cero asume que las antiguas nociones de la seguridad perimetral están obsoletas. Aquellos que se acogen a la Confianza Cero, y eso incluye a NetApp, son conscientes de que los controles de seguridad deben estar lo más cerca posible de los datos.
¿Qué implicaciones tiene en la práctica? Como hemos señalado anteriormente, una práctica adecuada exige:
- Saber dónde residen los datos de la organización.
- Clasificar los datos.
- Deshacerse de forma segura de los datos que ya no se necesitan.
- Comprender los roles que deben tener acceso a determinadas clasificaciones de datos.
- Aplicar el principio del privilegio mínimo para establecer controles de acceso que verifiquen y nunca confíen.
- Usar la autenticación multifactor para el acceso administrativo y a los datos.
- Usar el cifrado para los datos en reposo y en tránsito.
- Supervisar y registrar todos los accesos.
- Alertar sobre accesos o comportamientos sospechosos.
Tomemos solo tres de estos imperativos: cifrado, ubicación y acceso
En primer lugar, el cifrado flexible y las soluciones de gestión de claves protegen los datos confidenciales en las instalaciones on-prem, en la nube y en tránsito. Dicho de otro modo, el cifrado solo es eficaz si opera de forma transparente, independientemente de la infraestructura. Y solo es realmente eficaz si funciona tanto en tránsito como en reposo.
El segundo imperativo es la ubicación. Solo sabiendo dónde están los datos se puede escoger qué conservar, cómo clasificarlos y cómo otorgar acceso. La clasificación, a su vez, funciona como un punto de partida para el cumplimiento de las distintas normativas. Determinar cuáles son los datos más sensibles, en lo concerniente a normativas tan dispares como el Estándar de Seguridad de Datos para la Industria de Tarjeta de Pago (PCI-DSS) y el Reglamento General de Protección de Datos de la Unión Europea (RGPD), ayuda a adoptar las medidas y salvaguardas adecuadas. En una era de crecimiento y de mayor interés por la nube en los servicios financieros, la ubicación será un elemento crucial del enfoque de la gestión de riesgos, sobre todo en lo referente a los imperativos normativos.
El último imperativo es el acceso. Como ya he mencionado, el acceso no es lo mismo que la confianza. Esto significa aplicar el principio del privilegio mínimo, permitiendo el acceso solo en función de lo que es necesario para llevar a cabo una función específica. Data ONTAP de NetApp proporciona roles de control de acceso predefinidos para los administradores de clústeres y máquinas virtuales de almacenamiento (SVM). Se pueden crear roles de control de acceso adicionales para el clúster o una SVM y personalizar los accesos a determinados comandos o directorios de comandos.
En la era de la inteligencia artificial y el aprendizaje automático, muchas instituciones financieras están buscando transformar sus esfuerzos en ciberseguridad. Las organizaciones más inteligentes están aplicando herramientas para analizar datos de millones de incidentes cibernéticos y usarlos para identificar amenazas potenciales y desarrollar estrategias defensivas. Dicho esto, la implementación de dichas tecnologías requiere que las compañías se centren en crear una arquitectura de datos que elimine los cuellos de botella y facilite una iteración de modelos más rápida. Diseñar una arquitectura de datos implica un pensamiento global sobre el flujo de datos, que abarque desde su ingesta y análisis perimetral hasta su preparación y entrenamiento en el core del centro de datos y su archivado en la nube. Es crucial comprender los requisitos de rendimiento, los conjuntos de datos y los servicios de datos necesarios.
En NetApp, sabemos que los datos son tu negocio. Ayudarte a protegerlos es el nuestro.
La entrada Una ciberseguridad eficaz comienza con una gestión de datos excelente aparece primero en Globb Security.
Powered by WPeMatico