Los 5 principales riesgos de seguridad en IA
La IA ya no es solo una preocupación de futuro. Está profundamente integrada tanto en la ofensiva como en la defensa. Con la aparición de nuevas vulnerabilidades, el uso masivo de modelos open source y atacantes cada vez más creativos, los riesgos que antes eran advertencias se han convertido en realidades.
1. Deepfakes y fraudes de identidad sintética
Los ataques con deepfakes han pasado de ser excepcionales titulares a convertirse en amenazas habituales. A mediados de 2025, el grupo norcoreano BlueNoroff (TA444) utilizó videollamadas falsas en Zoom, suplantando a directivos de empresas para engañar a empleados e inducirles a instalar malware personalizado.
La clonación de voz es aún más peligrosa. Modelos como VALLE de Microsoft, ElevenLabs y alternativas open source ya pueden clonar voces con apenas unos segundos de audio. Los atacantes imitan a figuras de confianza —superintendentes, responsables de departamento— para conseguir transferencias, credenciales o acceso a datos sensibles.
Los defensores reaccionan con herramientas como Vastav AI, capaces de analizar metadatos de audio, movimientos faciales o manipulaciones de medios. Sin embargo, la detección llega tarde: la mayoría de ataques triunfan antes de que alguien pueda responder.
2. Prompt Injection, Jailbreaking y exploits de tipo zero-click
Las técnicas de inyección de prompts y jailbreaking siguen siendo vulnerabilidades críticas. En 2025 se ha disparado el número de ataques zero-click, donde basta con recibir un correo o invitación de calendario para activar el exploit sin que el usuario haga nada.
Un caso destacado fue EchoLeak (CVE-2025-32711), vulnerabilidad en Microsoft 365 Copilot: un correo manipulado explotaba proxy de Teams, carga automática de imágenes y referencias en Markdown para escalar privilegios y exfiltrar datos sin clic alguno.
Las aplicaciones financieras no son inmunes: un estudio reciente demostró que 31 de 36 apps bancarias con chat podían ser explotadas mediante prompt injection.
3. Ransomware asistido por IA y malware polimórfico
En 2025, el ransomware ha evolucionado. Los marcos de ataque son cada vez más asistidos por IA, capaces de adaptar cargas en tiempo real. El prototipo Ransomware 3.0 mostró cómo una IA puede planificar, mutar y ejecutar fases de ataque a partir de simples prompts en el binario.
A finales de 2025, ESET identificó PromptLock, el primer ransomware impulsado por IA que opera localmente, generando scripts dinámicos para enumerar ficheros, exfiltrar datos y cifrar sistemas en Windows, macOS y Linux.
Estas amenazas sortean antivirus tradicionales y detección heurística, obligando a depender de análisis de comportamiento y detección de anomalías.
4. Dark LLMs, cadena de suministro y Shadow AI
Los atacantes están usando cada vez más LLMs oscuros o modelos open source modificados con fines maliciosos. También abusan de APIs y herramientas de terceros sin verificar, convirtiendo la cadena de suministro en un vector crítico.
Anthropic advirtió recientemente que los hackers utilizan Claude para automatizar reconocimiento, robo de credenciales y otros pasos de intrusión. Estas campañas afectan a organismos públicos, sanidad y educación, a menudo con demandas de rescate por los datos robados.
Además, los modelos son manipulados o revendidos en foros clandestinos sin guardarraíles de seguridad, convertidos en asistentes del crimen. La proliferación de Shadow AI —empleados que usan IA no autorizada— agrava el problema, ya que los equipos de TI pierden visibilidad y control.
5. Exfiltración de datos, envenenamiento adversarial e integridad del modelo
Los modelos de IA también están en el punto de mira. El envenenamiento adversarial introduce datos corruptos en el entrenamiento o ajuste fino, alterando el comportamiento del modelo en producción.
Investigaciones recientes en ataques de advertisement embedding mostraron que los atacantes pueden infectar checkpoints para que las salidas incluyan promociones maliciosas o instrucciones ocultas.
A medida que los agentes de IA se integran en flujos de trabajo —copilotos en navegadores, suites de productividad y chats—, pueden ser coaccionados para ejecutar acciones no autorizadas: instalar malware o exponer datos a través de canales comprometidos.
Mirando al futuro: el adversario agente vs. el SOC autónomo
La siguiente fase no será solo phishing más rápido o ransomware polimórfico: será la agencia.
Los adversarios con IA agente actuarán como mercenarios digitales. En lugar de scripts de un solo uso, ejecutarán campañas continuas: buscar cuentas débiles, pivotar en aplicaciones en la nube y exfiltrar datos adaptándose a cada defensa. Podrán encadenar herramientas automáticamente, lanzar miles de microataques en paralelo y coordinarse para interrumpir sectores enteros.
En el otro lado, los defensores avanzan hacia el SOC autónomo: centros de operaciones que ingieren telemetría de endpoint, red, nube e identidad, priorizan señales relevantes, contienen incidentes en tiempo real y solo escalan lo que necesita juicio humano. La promesa: que el director de TI de un distrito escolar o una pyme con dos administradores pueda operar con la escala de un SOC de una Fortune 100.
La gran incógnita de la década es qué lado inclinará antes la balanza. Si los atacantes perfeccionan la IA agente antes de que los defensores escalen los SOC autónomos, podríamos ver una ola de compromisos de alta velocidad que desborde por completo la respuesta tradicional. Pero si los defensores logran integrar la automatización de forma profunda e inteligente, la IA podría finalmente cambiar la economía de la ciberseguridad: hacer que la defensa sea más barata, rápida y escalable que el ataque.