Blog de WatchGuard

DBIR 2024: La IA alimenta más ciberamenazas aunque su impacto sigue siendo limitado

El uso de la inteligencia artificial en los ciberataques se ha convertido en una preocupación creciente. Desde la creación automatizada de malware hasta campañas de phishing más sofisticadas, la capacidad de la IA para aumentar la escala y eficacia de las amenazas se ha convertido en un motivo de alarma.

Sin embargo, el Data Breach Investigations Report (DBIR) de Verizon correspondiente a 2024 señala que solo el 2% de las brechas de datos analizadas implicaron directamente el uso de esta tecnología. Esto sugiere que, aunque las herramientas de IA están ampliando la superficie de ataque, su impacto aún no se ha traducido en un número significativo de ataques exitosos

Aun así, las organizaciones se enfrentan a un nuevo riesgo de gran relevancia: la IA en la sombra. Según el informe, el uso no supervisado de herramientas de IA  por parte de empleados —ya sea desde cuentas personales o corporativas, fuera del control de los departamentos de TI y sin la autenticación adecuada— puede provocar exposiciones de datos y brechas de seguridad. Por ello, es fundamental que las empresas establezcan protocolos claros y supervisen activamente el uso interno de la IA, con el fin de reducir su superficie de ataque y mantener el control sobre sus activos digitales.

¿Cómo garantizar un uso seguro de la IA sin limitar su potencial?

El estudio revela que el 14% de los empleados accedió a herramientas de IA desde dispositivos corporativos. De entre ellos, el 72% utilizó direcciones de correo personales (no corporativas) para iniciar sesión, mientras que el 17% usó correos corporativos sin sistemas de autenticación integrados adecuados.

Este comportamiento pone en riesgo la infraestructura tecnológica de la organización. Si un empleado utiliza un generador de texto impulsado por IA a través de una cuenta personal para redactar documentos sensibles fuera de los canales corporativos, se abren puertas a posibles vulnerabilidades. Los ciberdelincuentes podrían aprovechar estos vacíos de seguridad para interceptar datos a través de aplicaciones no seguras o mediante debilidades en la red, accediendo a la información de forma no autorizada sin ser detectados.

La falta de visibilidad sobre el uso no autorizado de la IA eleva considerablemente el nivel de riesgo, y las organizaciones deben asegurarse de aplicar las siguientes medidas:

  • Definir protocolos internos: establecer normas claras sobre el uso de la IA: qué herramientas están aprobadas, cómo actuar ante incidentes y qué estándares de seguridad deben cumplirse. Esto ayuda a reducir los riesgos operativos y permite que los empleados trabajen con mayor confianza, sabiendo que las herramientas que utilizan son seguras.
  • Evaluar los riesgos específicos de la IA: realizar evaluaciones de riesgos específicas en entornos que integran IA. Esto permite identificar puntos débiles antes de que sean explotados y reforzar la seguridad desde la fase de diseño, mediante prácticas como simulaciones de brechas de datos o pruebas de manipulación.
  • Proteger los datos: establecer políticas de seguridad y control de acceso para gestionar la entrada y el uso de datos ayuda a salvaguardar la información sensible. Medidas como el control de acceso basado en roles, el cifrado y la definición de límites claros sobre los tipos de datos que pueden utilizarse son fundamentales.  
  • Controlar el uso de herramientas de IA en el endpoint: WatchGuard Endpoint Security ofrece un enfoque por capas para la gestión del uso de herramientas de IA en entornos corporativos. Zero-Trust Application Service bloquea aplicaciones desconocidas o no clasificadas —como herramientas de IA emergentes— hasta que sean autorizadas expresamente, evitando la ejecución de software no fiable. El módulo de Application Control permite a los administradores bloquear o monitorizar aplicaciones por nombre o por categoría MDR, garantizando que solo las herramientas aprobadas puedan ejecutarse. Para restringir el acceso a servicios de IA online, la funcionalidad de Web Access Control permite bloquear URLs concretas o categorías completas de sitios relacionados con herramientas de IA generativa. Estas políticas pueden aplicarse tanto a dispositivos individuales como a grupos, ofreciendo a las organizaciones la flexibilidad de adaptar el nivel de protección según cada departamento o perfil de riesgo, reduciendo la exposición sin afectar a la productividad.
  • Invertir en formación: cuanto más informados estén los usuarios sobre el uso seguro de la IA, mejor preparados estarán para detectar anomalías, actuar con criterio y proteger los activos de la organización. Esto no solo refuerza la ciberresiliencia de la empresa, sino que también empodera a los empleados y favorece una mayor madurez digital.

La Inteligencia Artificial no solo abre nuevas oportunidades, sino que también introduce nuevas vulnerabilidades dentro de las organizaciones. Los riesgos no siempre provienen del exterior: muchos surgen del uso interno no regulado o mal comprendido, lo que genera desafíos de seguridad que a menudo no son visibles de inmediato. Para mitigar estos riesgos y proteger los activos empresariales, es esencial establecer directrices claras de uso y adoptar una estrategia de seguridad por capas que combine formación, políticas internas y soluciones tecnológicas. Solo así será posible una implementación inteligente, proactiva y responsable de la IA.