Noticias

Los agentes autónomos amplificarán este año la ecuación del riesgo

Pese a que el panorama de amenazas está más fragmentado, las amenazas internas siguen siendo una de las principales preocupaciones de los responsables de seguridad en las organizaciones. Además, la irrupción de la IA agéntica podría agravar las cosas con distintos agentes dentro de la ecuación del riesgo, operando como superusuarios con altos privilegios, a quienes se les otorga acceso a datos y sistemas sensibles. Según Proofpoint, empresa líder en ciberseguridad centrada en las personas y los agentes de IA, los copilotos autónomos podrían superar este año a los humanos como fuente de filtraciones. 

Las organizaciones se han lanzado a adoptar agentes autónomos que pueden navegar, escribir código y actuar en múltiples sistemas. No obstante, si estos sistemas están mal configurados, los agentes pueden desencadenar flujos de trabajo que exponen datos sensibles o debilitan los controles de seguridad; y en escenarios adversos, el comportamiento del agente puede ser manipulado para lograr resultados no autorizados.

“Los programas tradicionales sobre amenazas internas se diseñaron en torno al comportamiento humano, incidiendo en sus motivos, oportunidades, accesos y controles a través del correo electrónico, la nube, las plataformas de colaboración y las aplicaciones empresariales. La IA amplifica cada una de estas dimensiones con nuevas formas de riesgo, nuevas señales a detectar y nuevas responsabilidades interfuncionales a gestionar, mientras prácticamente la mitad de las organizaciones carece de recursos dedicados al riesgo interno. Los agentes no son meras herramientas, sino identidades por derecho propio, y los equipos de seguridad tendrán que centrarse también en ellos, gestionando sus privilegios, supervisando sus comportamientos y evaluando sus riesgos”, afirman los investigadores de Proofpoint.

Mayor exposición de datos sensibles

En este espacio de trabajo agéntico, donde las personas y los agentes de IA trabajan codo a codo, aumentarán los comportamientos accidentales, imprudentes y oportunistas. Por un lado, los asistentes basados en grandes modelos de lenguaje, como Copilot, ChatGPT y Gemini, facilitan la exposición de datos sensibles cuando los usuarios los comparten de forma no intencionada a través de prompts, mientras que los agentes de IA pueden acabar resumiendo contenido interno o extrayendo información de fuentes restringidas.

Como resultado, los trabajadores que antes tenían perfiles de bajo riesgo podrían desencadenar escenarios de alto impacto, y cualquier actor malicioso podría convencer a los sistemas de IA a través de prompts para que revelen flujos de trabajo sensibles o ejecuten ataques. La IA elimina muchas barreras técnicas al guiar a los usuarios a través de acciones que antes requerían scripting, conocimientos del sistema o habilidades de administrador.

Los incidentes internos suelen aumentar además en medio de turbulencias corporativas. Esto sucede cuando las organizaciones se lanzan a la caza furtiva de talentos, lo que lleva a muchos profesionales a llevarse datos sensibles de una empresa a otra al cambiar de puesto. También se observa en fusiones, adquisiciones o desinversiones, ya que crean modelos de acceso caóticos, cuentas de transición, propiedad poco clara de los sistemas y empleados estresados, siendo todas ellas unas condiciones ideales para malas prácticas. Asimismo, con la IA, el espionaje corporativo, que continuará este año, se vuelve más fácil, puesto que ayuda a investigar competidores, imitar solicitudes legítimas u ocultar actividad.

Visión unificada para detección temprana

Pero no todo son aspectos negativos. En 2026, Proofpoint prevé que la IA no solo impulsará la detección, sino que remodelará la forma en que se investigan, priorizan y resuelven los riesgos internos. La tecnología se convertirá en un multiplicador de fuerzas para el triaje de incidentes, acelerando la toma de decisiones, ya que puede correlacionar señales de bajo nivel, como intentos de inicio de sesión o accesos inusuales, para identificar incidentes de máxima prioridad, así como ingerir grandes volúmenes de telemetría y devolver resúmenes para comprender en minutos lo que antes requería horas de revisión manual.

Este año las organizaciones dejarán de tratar las señales humanas, los datos de identidad y los eventos técnicos como flujos separados. La próxima evolución de la gestión de riesgos internos dependerá de la conexión de estas áreas, puesto que una visión unificada permitirá a los equipos de seguridad una intervención más temprana y controles precisos.

La IA exige asimismo directrices claras, políticas de uso aceptable, interpretaciones éticas y normas de privacidad. Los equipos de riesgo interno deben definir los estándares de gestión, delimitar permisos para los agentes, otorgar autoridad para deshabilitarlos, así como establecer principios para una IA responsable, el uso consentido de datos y la transparencia. Abordar todo ello demanda un enfoque coordinado en toda la organización.

“Para mantenerse a la vanguardia frente a los riesgos internos, las organizaciones deben unificar las señales de identidad, comportamiento y técnicas; adoptar la detección y respuesta impulsadas por IA; y fortalecer la gobernanza interfuncional. Actuando así, lograrán mitigar las amenazas emergentes y construir una base sólida para el futuro del trabajo entre humanos y agentes de IA”, declaran los expertos en amenazas de Proofpoint.

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.

This website stores cookies on your computer. These cookies are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to to opt-out of any future tracking, a cookie will be setup in your browser to remember this choice for one year.

Accept or Deny