El lado oscuro de los LLM
Los LLM (Large Language Models) representan uno de los avances más interesantes en inteligencia artificial en los últimos años, al punto de ser capaces de revolucionar la forma en que trabajamos, nos comunicamos y desarrollamos tecnología. Pero como cualquier herramienta poderosa, también tienen un lado oscuro. En los últimos meses, se ha descubierto que estas IA avanzadas están siendo utilizadas para automatizar la ofuscación de código malicioso, dificultando su detección por parte de los sistemas de ciberseguridad.
La ofuscación es una técnica común en programación que transforma el código fuente para hacerlo prácticamente ilegible, sin alterar su funcionalidad. Es una estrategia que se utiliza tanto en contextos legítimos, por ejemplo para proteger la propiedad intelectual, como en escenarios maliciosos, donde sirve para ocultar intenciones peligrosas. Tradicionalmente, la ofuscación requería habilidades técnicas especializadas o herramientas específicas. Sin embargo, con los LLM, el proceso puede automatizarse y diversificarse a un nivel sin precedentes.
La entrada El lado oscuro de los LLM es original de MuySeguridad. Seguridad informática.
Powered by WPeMatico