La IA redefine la ciberseguridad
La Inteligencia Artificial (IA) se encuentra en el centro de una transformación radical que alcanza especialmente al ámbito de la ciberseguridad. Esta tecnología disruptiva presenta una dualidad inherente: por un lado, ofrece oportunidades sin precedentes para fortalecer las defensas y anticipar amenazas, pero por otro, abre nuevas y sofisticadas oportunidades para los actores maliciosos y pone al alcance de la mano herramientas para que cualquiera pueda diseñar ataques sin demasiado conocimiento técnico. Este escenario exige un replanteamiento de las estrategias de seguridad en las organizaciones. Eventos del sector, como el Microsoft Security Summit España, se han convertido en foros interesantes para debatir estos desafíos y explorar las soluciones que marcarán el futuro de la protección y seguridad digital.
En este contexto, la intervención de Vasu Jakkal, vicepresidenta Corporativa de Seguridad en Microsoft Corporation, durante el Microsoft Security Summit España, arrojó luz sobre la visión de la compañía. En su ponencia, Jakkal subrayó un mensaje central: el pleno aprovechamiento del potencial de la Inteligencia Artificial está intrínsecamente ligado a la construcción de confianza. Esta confianza, argumentó, solo puede cimentarse sobre el desarrollo y despliegue de tecnologías de IA de forma segura, ética y responsable. La actual oleada de innovación en IA generativa, si bien posibilita avances antes inimaginables en múltiples campos, también impone la necesidad de adoptar nuevos paradigmas de seguridad.
La capacidad de la IA para impulsar la ciberseguridad es inmensa, pero su adopción efectiva, especialmente en funciones críticas, depende de la confianza que las organizaciones y los usuarios depositen en su fiabilidad, seguridad y comportamiento ético. Por ello, el énfasis en principios como «seguridad desde el diseño», «IA responsable» y una gobernanza robusta no son meras características adicionales, sino requisitos fundamentales para desbloquear el verdadero valor de la IA en la ciberseguridad. La velocidad de adopción de esta tecnología en el ámbito de la seguridad estará, en consecuencia, directamente ligada al éxito en la construcción y el mantenimiento de esta confianza esencial.
El panorama de amenazas en 2025: velocidad, escala y la sombra de la IA maliciosa
El entorno de ciberamenazas se ha intensificado de manera drástica, caracterizándose por una velocidad, escala y sofisticación sin precedentes, tal como se detalló en la presentación de Vasu Jakkal. Esta nueva realidad obliga a las organizaciones a reevaluar continuamente sus mecanismos de defensa.
La velocidad con la que actúan los adversarios es uno de los factores más alarmantes. Según los datos presentados, el tiempo medio para que un atacante acceda a datos privados tras un correo de phishing exitoso es de apenas 1 hora y 12 minutos. Esta celeridad reduce drásticamente el tiempo disponible para una detección y respuesta adecuadas. Paralelamente, la escala global de los ataques se ha disparado. Por ejemplo, los intentos de descifrado de contraseñas mediante fuerza bruta pasaron de 4.000 por segundo en 2023 a unos alarmantes 7.000 por segundo en 2024.
El número de grupos de amenazas organizados también ha experimentado un crecimiento exponencial, gracias a la mencionada “democratización” de las herramientas de ciberataques gracias a la IA. Microsoft, por ejemplo, ha visto cómo el seguimiento de estos actores avanzados pasaba de unos 300 a más de 1.500 en solo un año. Esta proliferación se traduce en un volumen de ataques que desborda la capacidad de respuesta manual. Un ejemplo ilustrativo es la detección por parte de Microsoft de más de 30.000 millones de correos de phishing dirigidos a sus clientes solo en 2024.
La IA como arma: nuevas tácticas ofensivas
La IA también ofrece oportunidades para sofisticar los ataques. Microsoft en su mencionado Madrid Security Day 2025 ha expuesto que los ciberdelincuentes no son ajenos a los avances tecnológicos y ya están integrando la IA generativa para potenciar sus ataques. Vasu Jakkal advirtió que los cibercriminales «usarán la IA generativa para escalar sus ataques», aprovechando su creatividad. Entre las aplicaciones maliciosas de la IA se cuentan:
- Creación automatizada de malware: capacidad para generar nuevo software malicioso a gran velocidad y volumen.
- Descubrimiento automático de vulnerabilidades: la IA puede identificar fallos de seguridad en sistemas de forma mucho más rápida.
- Personalización de exploits: adaptación automática de ataques para explotar vulnerabilidades específicas en entornos concretos.
- Ataques de phishing hiperrealistas: redacción de correos y mensajes engañosos indistinguibles de comunicaciones legítimas, incrementando drásticamente la tasa de éxito del engaño.
- Deepfakes y engaños sofisticados: fabricación de audio o vídeo falso de gran realismo para manipular a usuarios o empleados.
- Evasión y camuflaje: uso de IA para disfrazar código malicioso o mejorar las comunicaciones de comando y control, evitando la detección.
- Crackeo de contraseñas optimizado: empleo de algoritmos avanzados para descifrar contraseñas más rápidamente.
Nuevas superficies de ataque: la infraestructura de IA bajo asedio
Más allá de las vías tradicionales, la propia infraestructura puesta a disposición para el uso de IA se ha convertido en un nuevo y atractivo objetivo para los atacantes. Estas «nuevas superficies de ataque» específicas de las soluciones de IA incluyen los prompts y respuestas (susceptibles a ataques de inyección de prompt), los datos y la orquestación interna de los modelos, los plug-ins o extensiones, el contexto de datos web utilizado e incluso los propios modelos de IA.
Amenazas emergentes como la «inyección de prompt«, donde un actor manipula las indicaciones de un modelo de IA para que revele información confidencial o actúe de forma indebida, ya son una realidad. Igualmente preocupante es la «fuga de datos» (data leakage) a través de interacciones con IA, especialmente mediante el uso no controlado de herramientas de IA por parte de empleados, fenómeno conocido como «shadow AI«. De hecho, un 80% de los directivos teme la fuga de datos sensibles al usar IA generativa, dado el desconocimiento de los nuevos riesgos que estas tecnologías conllevan.
Para ayudar en este sentido, Microsoft ha anunciado la disponibilidad general de un filtro de categoría web de IA en Microsoft Entra Internet Access. Al implantar políticas para gobernar el acceso autorizado a las aplicaciones de IA, la siguiente capa de defensa es evitar que los usuarios filtren datos confidenciales a las aplicaciones de Inteligencia Artificial. Para ello, se encuentra la versión preview de los controles DLP del navegador Microsoft Purview, integrados en Edge for Business. Esto ayuda a los equipos de seguridad a aplicar políticas de DLP – Data Loss Prevention– para evitar que se intercambien datos sensibles en aplicaciones de IA generativa no corporativas, como ChatGPT, Copilot Chat, DeepSeek y Google Gemini.
La complejidad del ecosistema de seguridad es notable: el 58% de las organizaciones utiliza más de 40 herramientas de seguridad distintas, generando entornos fragmentados y difíciles de gestionar. A esto se añade la acuciante escasez mundial de talento humano en el terreno de la ciberseguridad, con una demanda estimada de más de 4 millones de profesionales adicionales en los próximos años. Finalmente, el cumplimiento normativo se ha vuelto un reto dinámico, con unos 250 cambios o actualizaciones regulatorias diarias a nivel global relacionadas con seguridad y privacidad.
La postura proactiva de Microsoft: asegurando el futuro en la era de la IA
Frente a este panorama desafiante, Microsoft, en su mencionado Microsoft Security Summit España, ha compartido una estrategia de seguridad que sitúa la protección y la confianza en el centro de su propuesta de valor, especialmente en la era de la IA. Este enfoque se manifiesta en una filosofía corporativa, inversiones significativas y programas integrales diseñados para abordar, tanto las amenazas actuales como las emergentes.
La compañía ha declarado enfáticamente que «la seguridad es lo primero» y constituye su «prioridad número uno». Esta filosofía no es meramente declarativa, sino que se integra en cada proceso y producto bajo los principios de «seguridad por defecto» (secure by default) y «seguridad desde el diseño» (secure by design). Este compromiso se respalda con una inversión anual superior a los 4.000 millones de dólares en seguridad, protección de datos y gestión de riesgos. Una pieza clave de su capacidad defensiva es la escala de su inteligencia de amenazas que procesa diariamente 84.000 billones de señales de seguridad provenientes de su ecosistema global.
También protagonista del evento fue la Iniciativa Futuro Seguro (SFI, por sus siglas en inglés), que representa el proyecto de ingeniería de ciberseguridad más ambicioso en la historia de Microsoft, reflejando un cambio cultural profundo en toda la empresa. El informe de progreso de abril de 2025 de esta iniciativa detalla avances significativos:
- Un enfoque renovado en la seguridad desde el diseño, por defecto y en las operaciones, materializado en herramientas como el kit UX Secure by Design, ya probado y distribuido internamente y compartido públicamente.
- Mejoras en la protección de identidades e información confidencial, como el traslado de las claves de firma de Entra ID a módulos de seguridad basados en hardware (HSM) y la implementación de autenticación multifactor (MFA) resistente al phishing para el 92% de las cuentas de productividad de los empleados.
- Fortalecimiento de la protección de redes y el aislamiento de sistemas de producción, con un alto porcentaje de activos inventariados y utilizando estándares de seguridad avanzados.
- Optimización de la detección y respuesta a amenazas, con la adición de más de 200 nuevas detecciones contra tácticas, técnicas y procedimientos (TTPs) clave y la identificación proactiva de vulnerabilidades.
- Un impacto cultural tangible, con 50.000 empleados formados en la Microsoft Security Academy y el 99% habiendo completado cursos fundamentales de seguridad.
- La aplicación rigurosa de prácticas de operaciones seguras a todos los sistemas de IA de la compañía.
Estos esfuerzos internos, consolidados bajo la SFI, son cruciales. La credibilidad de las soluciones de seguridad impulsadas por IA que Microsoft ofrece al mercado, como Security Copilot, depende en gran medida de la seguridad e integridad de su propia infraestructura y prácticas de desarrollo. Al reforzar estos cimientos, mejorando la protección de identidades, la seguridad de la red, los ciclos de vida de desarrollo seguro, Microsoft no solo mejora su propia postura de seguridad, sino que también aumenta la fiabilidad de las herramientas de IA que pone a disposición de sus clientes.
Durante el evento, se pudieron conocer las mejores prácticas y casos reales de organizaciones que están utilizando las soluciones de Microsoft para proteger sus entornos. Entre ellos, los casos de Ferrovial, Mapfre, Generalitat Valenciana, Quirón Salud o Banco Sabadell.
Microsoft también subrayó la importancia de una participación activa en prácticas de IA responsables y una sólida gobernanza de la IA. Este planteamiento se alinea con la visión de Vasu Jakkal sobre la necesidad de desarrollar y utilizar la IA de manera segura, ética y responsable para fomentar la confianza. El compromiso de Microsoft se extiende a contribuir a un mundo más seguro mediante el uso responsable de la tecnología.
Innovaciones impulsadas por los agentes de IA
Hace un año, Microsoft lanzó Security Copilot para que los profesionales de la ciberseguridad puedan detectar, investigar y responder a los incidentes con mayor rapidez y precisión. Ahora, la compañía ha anunciado Security Copilot con agentes de IA, diseñados para ayudar de forma autónoma en áreas críticas como phishing, seguridad de datos y gestión de identidades. Entre los seis agentes desarrollados por Microsoft se encuentran:
- Agente de triaje de phishing en Microsoft Defender: identifica con precisión amenazas reales de phishing y falsas alarmas.
- Agentes de triaje de alertas en Microsoft Purview: priorizan incidentes críticos de prevención de pérdida de datos (DLP) y riesgos internos.
- Agente de optimización de acceso condicional en Microsoft Entra: identifica brechas en políticas y recomienda correcciones.
- Agente de remediación de vulnerabilidades en Microsoft Intune: prioriza y agiliza la corrección de vulnerabilidades y parches.
- Agente de información de inteligencia de amenazas en Security Copilot: selecciona inteligencia de amenazas relevante para la organización.
Adicionalmente, se introducirán cinco agentes desarrollados por socios estratégicos como OneTrust, Aviatrix, BlueVoyant, Tanium y Fletch.
Estos agentes prometen acelerar las respuestas, mejorar la priorización de riesgos, impulsar la eficiencia y, crucialmente, empoderar a los analistas menos experimentados, permitiendo ahorros de tiempo estimados entre el 22% y el 26%. Además, Microsoft Security Copilot ya está disponible con carácter general en Defender for Cloud desde mayo de 2025.
Microsoft Entra Agent ID: asegurando las identidades de los agentes de IA
Una novedad significativa es Microsoft Entra Agent ID, una solución diseñada para gestionar y asegurar las identidades de los agentes de IA. Su propósito es extender la gestión de identidades y accesos de nivel empresarial a estos «compañeros de equipo digitales». En su fase inicial, los agentes creados en Azure AI Foundry y Copilot Studio son visibles en el centro de administración de Entra. Las capacidades futuras incluirán Acceso Condicional granular, gestión del ciclo de vida, auditoría e integración con Security Copilot, Microsoft 365 Copilot y herramientas de terceros. La integración con Azure AI Foundry dota a los agentes de identidades únicas, permitiendo controles de acceso y la aplicación de políticas de Defender y Purview.
Fortaleciendo el núcleo: innovaciones en Defender, Entra y Purview
Estas innovaciones específicas para IA se complementan con mejoras continuas en las plataformas centrales de seguridad de Microsoft. Por ejemplo, la nueva protección contra phishing en Microsoft Teams, disponible desde abril de 2025 a través de Defender for Office 365, refuerza la seguridad en las herramientas de colaboración. El Agente de Optimización de Acceso Condicional de Entra y los Agentes de Triaje de Alertas de Purview, junto con sus controles DLP para IA generativa, son otros ejemplos de cómo se fortalece el ecosistema de seguridad integral.
Las soluciones de seguridad de Microsoft están diseñadas específicamente para la IA con el fin de ayudar a todas las organizaciones a abordar los retos de seguridad en la era de la Inteligencia Artificial.
La entrada La IA redefine la ciberseguridad es original de MuySeguridad. Seguridad informática.
Powered by WPeMatico