GhostGPT, o novo chatbot malicioso e o seu impacto na cibersegurança

Neste momento, não é de surpreender que os cibercriminosos estejam a aproveitar o potencial da inteligência artificial generativa para reforçar os seus ataques. No entanto, o aparecimento de novos modelos, especificamente concebidos para gerar ameaças rapidamente, tornou esta tarefa ainda mais fácil para os cibercriminosos.
No final de 2024, os investigadores descobriram um novo chatbot de IA criado para fins cibercriminosos. Este modelo, denominado GhostGPT, capacita os cibercriminosos com ferramentas sem precedentes, permitindo-lhes desenvolver e-mails de phishing e malware sofisticados com facilidade e a uma velocidade que seria impensável há apenas alguns anos.
Isto é possível porque funciona sem as restrições que limitam outros modelos, como o ChatGPT, que estão sujeitos a diretrizes éticas e a filtros de segurança concebidos para bloquear pedidos maliciosos. É provável que se trate de um invólucro, de uma interface ou de camada adicional colocada sobre um modelo de IA pré-existente, ligado a uma versão “jailbroken” do ChatGPT ou a um LLM de código aberto, o que elimina as salvaguardas éticas da equação.
4 riscos para as empresas
O GhostGPT não regista a atividade do utilizador, dando prioridade ao anonimato. Isto é particularmente atrativo para os atacantes que pretendem passar despercebidos. A sua acessibilidade e falta de controlos tornam-no uma ferramenta extremamente perigosa, capaz de automatizar e acelerar tarefas ilícitas que anteriormente exigiam mais habilidade ou tempo. Os cibercriminosos podem usá-lo para gerar o seguinte:
- Phishing personalizado e em massa: o GhostGPT pode criar e-mails persuasivos e personalizados, imitando o tom e o estilo mais adequados com base no contexto da vítima. Também permite que um atacante gere centenas de variações personalizadas em apenas alguns minutos, aumentando o alcance e a velocidade dos ataques.
Para contrariar esta situação, as empresas podem considerar a possibilidade de dar formação de sensibilização para o phishing aos colaboradores, desde que disponham dos recursos necessários. Esta formação ajuda os indivíduos a reconhecer e a responder a tentativas de phishing, reduzindo a probabilidade de ataques bem-sucedidos. - Roubo de credenciais e acesso não autorizado: O GhostGPT também torna o roubo de credenciais uma tarefa mais fácil de executar. Com apenas uma simples solicitação, pode gerar páginas de login falsas que são quase indistinguíveis das reais, permitindo que os criminosos utilizem estas falsificações em campanhas de phishing.
- Malware polimórfico e código malicioso: A capacidade desta ferramenta permite escrever um código malicioso a pedido, colocando a criação de malware básico e de ransomware funcional ao alcance de quaisquer cibercriminosos não qualificados. O risco representado pelo malware polimórfico, que é gerado por IA e que altera constantemente o seu código, evitando a sua deteção de antivírus, é particularmente preocupante.
- Otimização e orientação da estratégia de ataque: Este chatbot também pode aconselhar os hackers, oferecendo instruções detalhadas sobre como efetuar ataques mais eficazes. Por exemplo, oferece orientação sobre como configurar servidores de comando e controlo para campanhas de malware, contornar soluções de segurança ou explorar vulnerabilidades específicas.
Medidas de proteção contra estes ataques
Pode parecer que tudo está perdido, dado este cenário em evolução. No entanto, existem medidas que as empresas podem implementar para mitigar os riscos e evitar que um chatbot como o GhostGPT se torne numa ameaça à cibersegurança. Para tal, é necessário combinar boas práticas de segurança com soluções tecnológicas avançadas.
Para começar, é essencial manter os sistemas atualizados e aplicar os princípios Zero Trust para reduzir a superfície de ataque. Do ponto de vista tecnológico, a implementação da autenticação multifatorial (MFA) reforça a proteção do acesso, enquanto a utilização de filtros DNS ajuda a evitar ataques de phishing.
Em seguida, a adoção de ferramentas de deteção baseadas em IA, como as soluções de Deteção e Resposta de Endpoints (EDR) ou de Deteção e Resposta Alargadas (XDR), melhora a capacidade de identificar anomalias causadas por ataques automatizados. Da mesma forma, as soluções de inteligência contra ameaças ajudam a antecipar novas táticas e a atualizar as defesas em tempo real.
Em suma, ao implementar uma abordagem de segurança em camadas e ao integrar a IA defensiva, as empresas podem resistir mais eficazmente aos ataques gerados pelo GhostGPT e por outros sistemas de IA maliciosos.