Seguridad

El lado oscuro de los LLM

Los LLM (Large Language Models) representan uno de los avances más interesantes en inteligencia artificial en los últimos años, al punto de ser capaces de revolucionar la forma en que trabajamos, nos comunicamos y desarrollamos tecnología. Pero como cualquier herramienta poderosa, también tienen un lado oscuro. En los últimos meses, se ha descubierto que estas IA avanzadas están siendo utilizadas para automatizar la ofuscación de código malicioso, dificultando su detección por parte de los sistemas de ciberseguridad.

La ofuscación es una técnica común en programación que transforma el código fuente para hacerlo prácticamente ilegible, sin alterar su funcionalidad. Es una estrategia que se utiliza tanto en contextos legítimos, por ejemplo para proteger la propiedad intelectual, como en escenarios maliciosos, donde sirve para ocultar intenciones peligrosas. Tradicionalmente, la ofuscación requería habilidades técnicas especializadas o herramientas específicas. Sin embargo, con los LLM, el proceso puede automatizarse y diversificarse a un nivel sin precedentes.

Toda la información en MC

La entrada El lado oscuro de los LLM es original de MuySeguridad. Seguridad informática.

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.