El uso no controlado multiplica los riesgos de seguridad
Este uso masivo viene acompañado de un crecimiento notable en los riesgos. En el primer trimestre de 2025, los incidentes de pérdida de datos (DLP) vinculados a la IA generativa se multiplicaron por 2,5, y ya representan el 14% del total de incidentes registrados. Además, el número medio de aplicaciones de IA generativa detectadas por organización asciende a 66, lo que refleja una expansión rápida y, en muchos casos, descontrolada de este tipo de herramientas.
Uno de los fenómenos más preocupantes es el de la Shadow AI, es decir, el uso no autorizado de herramientas de IA por parte de empleados sin supervisión del área de TI. Esta práctica erosiona la visibilidad, complica el cumplimiento normativo y pone en peligro la confidencialidad de la información empresarial. Según el informe, las organizaciones conviven con una media de 6,6 aplicaciones de IA generativa de alto riesgo sin un marco de control claro.
Más del 70% de las apps de IA generativa pueden ser manipuladas con ataques tipo jailbreak
El 83,8% de las interacciones con IA generativa analizadas proceden de plataformas de asistencia a la escritura, agentes conversacionales, buscadores corporativos y entornos de desarrollo. Grammarly lidera entre los asistentes de escritura con un 39% del tráfico, mientras que Microsoft encabeza la adopción empresarial de agentes de IA, con casi el 49% de las organizaciones utilizando Microsoft Copilot o Copilot Studio. En el caso de España, las tres herramientas de IA generativa más utilizadas por volumen son Microsoft 365 Copilot (24,1%), Microsoft PowerApps (23,9%) y ChatGPT de OpenAI (23,4%).
El informe también advierte de vulnerabilidades persistentes: más del 70% de las aplicaciones evaluadas fueron susceptibles a ataques de tipo jailbreak, capaces de inducir respuestas con contenido autolesivo, discriminatorio, ofensivo o instrucciones sobre actividades ilegales. Esta situación subraya la necesidad de establecer marcos éticos y técnicos más sólidos en el diseño y despliegue de modelos generativos.
En cuanto a sectores, el tecnológico y el industrial destacan como los más intensivos en el uso de la IA generativa para tareas de desarrollo: juntos generan el 39% de todas las actividades de codificación. Este tipo de plataformas presentan riesgos adicionales como ejecución de código malicioso, fugas de propiedad intelectual y exposición a problemas legales o éticos.
Cómo protegerse con un enfoque integral de gobernanza en IA
Ante este escenario, Palo Alto Networks insta a las organizaciones a adoptar un enfoque integral de gobernanza de la IA, basado en la visibilidad, el control del uso y la seguridad avanzada en todos los niveles del entorno digital. El informe propone tres líneas de actuación prioritarias:
- Controlar el uso de la IA generativa y definir qué se permite: mediante políticas de acceso condicional que tengan en cuenta usuarios, ubicación, dispositivos, niveles de riesgo y objetivos legítimos.
- Proteger los datos sensibles frente al acceso no autorizado o fugas: mediante inspección de contenido en tiempo real y políticas centralizadas de seguridad en todos los flujos de datos.
- Defenderse frente a ciberamenazas modernas basadas en IA: aplicando arquitecturas Zero Trust capaces de detectar y bloquear malware sofisticado y amenazas encubiertas en respuestas generadas por IA.
Metodología del informe
El 2025 State of GenAI Report se elaboró mediante el análisis de tráfico anonimizado a través de las plataformas Prisma® Access y Next-Generation Firewall (NGFW), correspondientes a una muestra de 7.051 clientes globales a lo largo de 2024. Asimismo, se estudiaron incidentes de pérdida de datos registrados entre enero y marzo de 2025. Todo el proceso se realizó bajo estrictos estándares de privacidad, sin exposición de datos sensibles de clientes.