Os 5 principais riscos de segurança em IA
A IA já não é apenas uma preocupação futura. Está profundamente enraizada tanto no ataque como na defesa. Com novas explorações a surgir, o uso massivo de modelos open-source e atacantes cada vez mais criativos, os riscos que antes eram apenas avisos são agora uma realidade muito concreta.
1. Deepfakes e fraudes de identidade sintética
Os ataques com deepfakes deixaram de ser casos raros para se tornarem ameaças regulares. Em meados de 2025, o grupo norte-coreano BlueNoroff (também conhecido como TA444) utilizou videochamadas falsas de executivos em Zoom para enganar funcionários e levá-los a instalar malware personalizado.
A clonagem de voz é ainda mais perigosa. Modelos como o VALLE da Microsoft, o ElevenLabs e alternativas open-source conseguem clonar vozes com apenas alguns segundos de áudio. Os atacantes imitam figuras de confiança – como diretores ou chefes de departamento – para enganar colaboradores a realizar transferências bancárias, partilhar credenciais ou divulgar dados sensíveis.
Os defensores estão a recorrer a ferramentas como a Vastav AI, que analisam metadados de media, movimento facial e áudio para detetar adulterações. Mas a deteção continua a ser lenta e, muitas vezes, os ataques têm sucesso antes que alguém consiga reagir.
2. Prompt Injection, Jailbreaking e explorações Zero-Click
As vulnerabilidades de prompt injection e jailbreaking continuam críticas. Em 2025, estamos a assistir a um aumento de ataques zero-click de prompt injection, em que basta receber um e-mail ou convite de calendário para desencadear uma exploração sem qualquer ação do utilizador.
Um caso notório foi o EchoLeak (CVE 2025-32711), uma vulnerabilidade de prompt injection em zero-click no Microsoft 365 Copilot. Um e-mail manipulado explorava proxy no Teams, imagens auto-fetched e referências em Markdown para desencadear escalonamento de privilégios e exfiltração de dados, sem que o utilizador clicasse em nada.
A investigação também mostra que a maioria das aplicações comerciais de IA continua vulnerável. Um estudo recente concluiu que 31 em 36 aplicações móveis de banking ou chat financeiro podiam ser exploradas através de prompt injection.
3. AI-Assisted Ransomware e Polymorphic Malware
Em 2025, o ransomware evoluiu. As frameworks de ataque são cada vez mais assistidas por IA, adaptando payloads em tempo real. Um proof of concept denominado Ransomware 3.0 demonstrou como um protótipo de ransomware orquestrado por IA consegue planear, mutar e executar fases de ataque dinamicamente, apenas a partir de prompts embutidos no binário.
No final de 2025, a ESET identificou o PromptLock, o primeiro ransomware conhecido potenciado por IA que opera localmente, gerando scripts dinâmicos para enumerar ficheiros, exfiltrar dados e encriptar sistemas em Windows, macOS e Linux.
Estas ameaças contornam antivírus tradicionais e mecanismos heurísticos, forçando os defensores a depender de análises comportamentais e deteção de anomalias em vez de correspondência por assinaturas.
4. Dark LLMs, Supply Chain e Shadow AI
Os atacantes estão a recorrer cada vez mais a dark LLMs ou modelos open-source modificados para uso malicioso. Também exploram ferramentas e APIs de terceiros sem validação adequada. A supply chain tornou-se agora um vetor de ameaça central.
A Anthropic alertou recentemente que hackers estão a usar o Claude para automatizar reconhecimento, roubo de credenciais e outros passos de intrusão. Estas campanhas afetaram organizações governamentais, de saúde e de educação, muitas vezes exigindo resgates em troca dos dados roubados.
Modelos estão também a ser comprometidos com backdoors ou rebatizados e vendidos em fóruns clandestinos. Estes dark LLMs removem habitualmente todos os mecanismos de segurança, transformando-se em autênticos assistentes para o crime. O Shadow AI – uso de sistemas de IA não aprovados por colaboradores – agrava ainda mais a situação, já que as equipas de TI não têm visibilidade nem controlo sobre eles.
5. Exfiltração de dados, envenenamento adversarial e integridade de modelos
Para além da entrada de dados maliciosos ou do malware, os próprios modelos de IA estão sob ataque. O envenenamento adversarial insere dados corrompidos nos processos de treino ou fine-tuning, fazendo com que os modelos se comportem de forma incorreta quando implementados.
Investigação recente sobre ataques de advertisement embedding demonstrou que os atacantes podem manipular checkpoints de modelos para que as saídas incluam promoções maliciosas ou instruções ocultas.
À medida que os agentes de IA se tornam parte dos fluxos de trabalho – copilotos em browsers, suites de produtividade e plataformas de chat – também são coagidos a executar ações não autorizadas, como instalar malware ou expor dados através de canais de entrada comprometidos.
O que está para vir: o adversário Agentic vs o SOC autónomo
A próxima fase da IA em cibersegurança não será apenas phishing mais rápido ou ransomware polimórfico. Será sobre agência.
Adversários da agentic AI vão operar como mercenários digitais. Em vez de scripts de finalidade única, vão executar campanhas contínuas: sondar sistemas de identidade em busca de contas frágeis, infiltrar-se em aplicações cloud e exfiltrar dados, adaptando-se a cada defesa encontrada. Vão encadear ferramentas automaticamente, lançar milhares de microataques em paralelo e coordenar-se através de supply chains para perturbar setores inteiros de uma só vez.
Do outro lado, os defensores correm para alcançar o SOC autónomo. Em vez de humanos a afogar-se em alertas, centros de operações potenciados por IA vão ingerir telemetria de endpoints, redes, cloud e identidades. Vão decidir quais os sinais relevantes, executar contenção em tempo real e escalar apenas o que requer julgamento humano. A promessa é que o responsável de TI de um agrupamento escolar ou uma PME com dois administradores possa operar com a escala e alcance de um SOC de uma Fortune 100.
A grande questão da década é: qual dos lados vai inclinar a balança primeiro? Se os atacantes aperfeiçoarem a agentic AI antes de os defensores conseguirem escalar os SOCs autónomos, poderemos assistir a uma vaga de compromissos de alta velocidade que sobrecarregarão as respostas tradicionais. Mas se os defensores integrarem a automação de forma profunda e inteligente, a IA poderá finalmente inverter a economia da cibersegurança – tornando a defesa mais barata, rápida e escalável do que os ataques.