Blog WatchGuard

Agentic AI e o Futuro da Cibersegurança: A Perspetiva de um Field CTO

Quando falamos com clientes sobre IA nos dias de hoje, temos duas reações muito distintas: Alguns inclinam-se para a frente, entusiasmados com o potencial: menos alertas, respostas mais rápidas, talvez até operações SOC totalmente automatizadas num futuro próximo. Por outro lado, outros recuam, apreensivos com os riscos: isto significa que os atacantes poderão executar milhares de ataques simultaneamente e de forma automática?

A verdade é que ambas as reações são justificadas.

Estamos no início de uma mudança em direção à Agentic AI. Isto não é o mesmo que as IA copilot que aguardam instruções. A Agentic AI comporta-se como um operador independente — capaz de planear, adaptar-se e executar uma sequência de passos de forma autónoma, ajustando-se sempre que encontra resistência.

Imagine a diferença entre pedir a um estagiário para ir buscar café e ter um analista júnior que consegue definir a agenda, reservar a sala de reuniões, preparar a apresentação e ainda trazer o café — tudo sem precisar de ser instruído. É esse salto que está em causa.

Fase 1: Em 2025 - Ferramentas mais inteligentes, com o ser humano no controlo

Atualmente, a IA é utilizada para acelerar tarefas específicas. Os atacantes recorrem a estas ferramentas para escrever e-mails de phishing convincentes, clonar vozes em esquemas de engenharia social ou procurar vulnerabilidades nas redes. Estas ferramentas são poderosos aceleradores, mas há sempre um humano ao volante.

Os defensores usam a IA de forma semelhante: copilots que resumem alertas, analisam logs ou elaboram relatórios. As proteções ao nível do endpoint, da rede, da cloud e da identidade são eficazes, mas a coordenação continua a ser feita por pessoas. A luta ainda é liderada por humanos.

Fase 2: Nos próximos 1 a 2 anos — Campanhas autónomas

A verdadeira mudança começará quando a Agentic AI for capaz de conduzir campanhas de ataque completas. Em vez de apenas criar e-mails de phishing, será capaz de gerir todo o ciclo de vida do ataque: enviar o e-mail, capturar credenciais, testá-las em aplicações cloud, movimentar-se pela rede, escalar privilégios e estabelecer persistência. Se for bloqueada num ponto, ajusta-se imediatamente e tenta outro caminho. Não se cansa nem se esquece de um passo.

Para os defensores, isto tornará as operações SOC tradicionais e manuais obsoletas. Não é possível igualar, em número, um adversário que escala infinitamente. A defesa impulsionada por IA tornar-se-á a norma. Os sistemas terão de isolar dispositivos, redefinir contas, bloquear fluxos maliciosos e coordenar respostas em segundos — muitas vezes antes de um humano ver o alerta.

Os analistas passarão a ser supervisores da IA, fornecendo orientação estratégica e contexto, em vez de responderem a cada incidente manualmente.

Fase 3: Dentro de três a cinco anos — Adversários adaptativos

A próxima evolução será a adaptabilidade. A Agentic AI aprenderá com as falhas e auto corrigir-se-á. Se uma credencial roubada não funcionar, tentará explorar uma má configuração na cloud. Se um endpoint estiver corrigido, procurará oportunidades de movimento lateral. Se um vetor for bloqueado, criará outro. Imagine um adversário incansável a verificar todas as portas e janelas em simultâneo, sem desânimo nem pausa.

Neste ponto, os defensores precisarão de uma integração perfeita entre endpoint, rede, cloud e identidade. Os sinais terão de fluir instantaneamente entre as camadas. A defesa baseada em IA precisará de um contexto completo para antecipar o próximo movimento do atacante e neutralizá-lo antes que aconteça. No futuro, nenhuma parte da segurança poderá funcionar isoladamente.

O que ainda precisa de acontecer para a Agentic AI se concretizar

Ainda não chegámos a esse ponto — e é importante lembrar isso. Para alcançar este nível, o desenvolvimento da IA ainda enfrenta desafios significativos.

Primeiro, os modelos precisam de memória e persistência mais robustas para gerir objetivos de longo prazo sem se desviarem. 

Segundo, precisam de melhor capacidade de raciocínio para encadear ações na sequência correta entre diferentes sistemas. Terceiro, necessitam de mais autonomia para interagir com software, APIs e ambientes de forma fiável e sem supervisão constante. 

Por fim, têm de conseguir melhorar de forma segura, aprendendo com tentativas falhadas sem desenvolver comportamentos imprevisíveis.

Estes aspetos estão a ser trabalhados em laboratórios de investigação, e o progresso é rápido. Já existem demonstrações de agentes de IA capazes de programar, detetar erros e iterar até atingir um objetivo. Traduzir isto em campanhas cibernéticas totalmente autónomas não é ficção — mas ainda requer alguns avanços cruciais.

O que fará pender a balança

Se isto beneficiará mais os atacantes ou os defensores dependerá de quem conseguir integrar e aplicar a Agentic AI de forma mais eficaz.

Se os adversários chegarem primeiro, poderemos assistir ao surgimento de grupos de ransomware autónomos, fábricas de phishing baseadas em IA e campanhas de malware adaptativas à escala global.

Se os defensores aproveitarem a oportunidade, os SOC poderão tornar-se operações centradas em IA, onde a experiência humana é amplificada infinitamente através da automatização.

Para os atacantes, a vantagem virá da redução da barreira de entrada: campanhas complexas que antes exigiam equipas altamente qualificadas poderão ser conduzidas por um único operador com as ferramentas certas.

Para os defensores, a vantagem virá da integração. Endpoint, rede, cloud e identidade terão de partilhar sinais em tempo real. É aqui que plataformas como a nossa, na WatchGuard, já desempenham um papel essencial — unindo estas camadas numa defesa coordenada.

Porque os deepfakes não são toda a história

É fácil distrairmo-nos com deepfakes e esquemas potenciados por IA. São, de facto, problemas reais, mas não são o ponto central.

A verdadeira mudança ocorrerá quando a Agentic AI começar a unir todos os elementos — roubo de identidades, exploração de más configurações na cloud, movimento lateral nas redes e persistência nos endpoints — tudo em simultâneo, automaticamente e a grande velocidade.

Concentrar-nos apenas em detetar vídeos ou vozes falsas é como proteger a porta da frente enquanto o atacante entra pela janela lateral.

Onde isto nos deixa

Ainda não chegámos à era dos hackers de IA auto-replicáveis, mas a direção é clara. A Fase 1 já é uma realidade. A Fase 2 está a emergir em ataques de prova de conceito. A Fase 3 não demorará muito.

A lição é simples: os defensores não podem esperar. A automatização tem de estar integrada nos processos de deteção e resposta agora, e todas as camadas de segurança têm de ter a mesma linguagem.

Porque a luta do futuro não será entre humanos — será IA contra IA. As organizações que integrarem as suas defesas e adotarem ferramentas de Agentic AI de forma responsável serão as que permanecerão firmes quando as regras do jogo mudarem.