Noticias

DeepSeek revoluciona el mercado de la IA y plantea nuevos desafíos de seguridad

La llegada de DeepSeek ha generado una disrupción significativa en el mercado de la inteligencia artificial (IA) y en la economía de las aplicaciones impulsadas por esta tecnología. A medida que las empresas integran cada vez más estas soluciones en sus operaciones, la necesidad de garantizar su seguridad se ha vuelto crucial.

Garantizar una protección completa para las aplicaciones de IA puede ser un gran desafío. Sin embargo, las organizaciones pueden implementar medidas de seguridad que les permitan monitorizar cuándo y cómo sus empleados utilizan grandes modelos de lenguaje (LLM). Estas medidas son esenciales para crear un ecosistema de IA seguro que priorice la integridad de los marcos de seguridad desde el desarrollo hasta el despliegue.

Palo Alto Networks ha desarrollado AI Access Security con el objetivo de empoderar a las compañías para que sus empleados utilicen herramientas de IA de manera segura y desplieguen aplicaciones empresariales de IA. Este portafolio de soluciones, impulsado por Precision AI, ayuda a eliminar los riesgos asociados con el uso de aplicaciones públicas de IA generativa (GenAI), mientras continúa fomentando la adopción de IA en las organizaciones.

“Debemos asumir que las barreras de seguridad de los LLM pueden ser quebrantadas y que se necesitan salvaguardas a nivel organizacional. A medida que las organizaciones buscan utilizar modelos, debemos asumir que los actores de amenazas están haciendo lo mismo, con el objetivo de acelerar la velocidad, escalado y sofisticación de los ciberataques”, destaca Sam Rubin, Vicepresidente Senior de Consultoría e Inteligencia de Amenazas de Unit 42.

Vulnerabilidades de DeepSeek

Recientemente, Palo Alto Networks Unit 42 publicó una investigación que revela que DeepSeek es vulnerable al jailbreaking, una técnica utilizada para eludir las restricciones implementadas en los LLM para evitar que generen contenido malicioso o prohibido. Estas restricciones, conocidas como «guardrails» o barreras de seguridad, son esenciales para mantener la integridad de los modelos de IA

Los investigadores descubrieron dos técnicas novedosas y efectivas de jailbreaking, llamadas Deceptive Delight y Bad Likert Judge. Estas técnicas han demostrado ser exitosas contra otros LLM y fueron probadas junto con otra técnica de múltiples etapas llamada Crescendo contra los modelos de DeepSeek

Impacto del jailbreaking en la seguridad

El jailbreaking permite a los atacantes eludir las barreras de seguridad y generar contenido nefasto con poco o ningún conocimiento especializado. Esto plantea un riesgo significativo, ya que los modelos de IA pueden ser manipulados para producir resultados perjudiciales. Las técnicas de Deceptive Delight y Bad Likert Judge, por ejemplo, pueden engañar a los modelos para que generen scripts maliciosos o contenido inapropiado

Para mitigar estos riesgos, las organizaciones deben adoptar un enfoque integral de seguridad para la IA. Esto incluye la implementación de medidas de seguridad robustas, como la encriptación de datos, la auditoría regular de los sistemas de IA y la capacitación continua de los empleados en prácticas de seguridad. Además, es crucial que las empresas utilicen tecnologías avanzadas de aprendizaje automático y deep learning que sean computacionalmente eficientes y seguras

Powered by WPeMatico

Gustavo Genez

Informático de corazón y apasionado por la tecnología. La misión de este blog es llegar a los usuarios y profesionales con información y trucos acerca de la Seguridad Informática.