Noticias

La IA amenaza la cadena de suministro de software con paquetes falsos

La revolución de la inteligencia artificial generativa en el desarrollo de software no solo ha acelerado procesos y mejorado la productividad de los equipos, también ha abierto una nueva puerta, y especialmente vulnerable, a los ataques cibernéticos. Así lo alerta Check Point Software, que pone el foco en los paquetes de código sugeridos por IA que, en muchos casos, ni siquiera existen.

Mientras que herramientas como GitHub Copilot o ChatGPT se han convertido en asistentes habituales de los desarrolladores, con un uso superior al 76%, según Stack Overflow, su capacidad para generar código y recomendar librerías viene acompañada de un riesgo inesperado: inventar paquetes de software ficticios que acaban siendo utilizados por error en entornos críticos.

Check Point alerta de un nuevo vector de ataque bautizado como slopsquatting. A diferencia del clásico typosquatting(basado en errores tipográficos), esta técnica se aprovecha directamente de los errores de los modelos de IA. Los atacantes registran en repositorios públicos como npm o PyPI los nombres de paquetes sugeridos por IA, pero inexistentes, que luego son instalados por desarrolladores que confían ciegamente en las recomendaciones automatizadas.

“Estamos ante una nueva clase de amenaza en la cadena de suministro de software”, advierte Eusebio Nieva, director técnico de Check Point Software para España y Portugal. “Los paquetes sugeridos por la IA pueden introducir vulnerabilidades invisibles a simple vista. Es fundamental que los equipos de desarrollo y seguridad adopten un enfoque crítico y riguroso para proteger sus entornos”.

Un estudio reciente de varias universidades estadounidenses identificó que los modelos de código abierto generan este tipo de errores en un 21,7% de los casos, frente al 5,2% en modelos comerciales. Se documentaron más de 200.000 nombres de paquetes inventados que resultan indistinguibles de los reales incluso para desarrolladores con experiencia.

El caso «huggingface-cli»: una señal de alarma

El impacto de esta amenaza quedó en evidencia en 2023, cuando un investigador registró un paquete llamado “huggingface-cli” en PyPI, tras ver cómo la IA lo sugería con insistencia. Miles de desarrolladores, incluyendo equipos de grandes empresas como Alibaba, lo incorporaron sin saber que era ficticio. Aunque no contenía malware, sirvió como experimento de lo fácil que sería llevar a cabo un ataque real de escala global.

En entornos con despliegues automatizados CI/CD, una simple instalación basada en una recomendación errónea podría tener consecuencias devastadoras, desde puertas traseras hasta interrupciones en sistemas productivos.

Mitigación: el escepticismo como primera barrera

Check Point recomienda extremar la vigilancia con las recomendaciones de IA, no instalar paquetes sin verificación manual, usar lockfiles y hashes criptográficos, y mantener listas de confianza de dependencias. Además, urge aplicar políticas estrictas de revisión entre pares y auditar cualquier código generado por modelos de lenguaje.

En definitiva, los asistentes de codificación han cambiado para siempre la forma en la que se escribe software. Pero con ese cambio viene una responsabilidad: la de no confiar ciegamente en sus sugerencias. Como subraya Nieva, “la innovación no puede ir por delante de la seguridad”.

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.