Blog WatchGuard

5 ciberameaças que os criminosos podem criar com a ajuda do ChatGPT

O ChatGPT, a IA generativa pública que surgiu em finais de Novembro de 2022, levantou preocupações legítimas acerca do seu potencial para ampliar a severidade e complexidade das ciberameaças. De facto, assim que o OpenAI anunciou o seu lançamento, muitos peritos em segurança previram que seria apenas uma questão de tempo até que os atacantes começassem a utilizar este chatbot de IA para criar malware ou mesmo aumentar os ataques de phishing.

E não demorou muito até que as suspeitas se confirmassem, pois descobriu-se que os cibercriminosos já começaram a utilizar esta ferramenta baseada no modelo de linguagem da IA GPT-3 para recriar estirpes de malware e perpetrar diferentes tipos de ataques. Os cibercriminosos precisam simplesmente de ter uma conta OpenAI, que podem criar gratuitamente a partir do seu website, e depois fazer uma consulta.

O que é que os cibercriminosos podem fazer com o ChatGPT ?

Os atacantes podem tirar partido da inteligência artificial generativa do ChatGPT para criar atividade maliciosa, incluindo: 

- Phishing: 

Os atacantes podem usar o Large Language Model (LLM) do sistema ChatGPT para se afastarem dos formatos universais e automatizarem a criação de phishing ou e-mails falsificados únicos, escritos com uma gramática perfeita e padrões de fala naturais adaptados a cada alvo. Isto significa que os ataques de email criados com a ajuda desta tecnologia parecem muito mais convincentes, tornando-se mais difícil para os destinatários detetar e evitar clicar em ligações maliciosas que possam conter malware.

- Roubo de identidade:

Para além do phishing, os cibercriminosos podem usar o ChatGPT para se fazerem passar por uma instituição de confiança, graças à capacidade da IA de replicar o tom e o discurso empresarial de um banco ou organização, explorando estas mensagens nas redes sociais, SMS ou através de e-mails para obter informações privadas e financeiras das pessoas. Os atacantes podem também escrever mensagens nas redes sociais fazendo-se passar por celebridades, explorando esta capacidade. 

- Outros ataques de engenharia social: 

Os criminosos também podem lançar ataques de engenharia social utilizando o modelo para criar perfis falsos nos meios de comunicação social, fazendo-os parecer muito realistas, e engando as pessoas para que estas cliquem em ligações maliciosas ou persuadindo-as a partilhar informação pessoal.

- Criação de bots maliciosos: 

O ChatGPT pode ser utilizado para criar chatbots, uma vez que tem uma API que pode alimentar outros chats. A sua interface amigável, concebida para usos benéficos, pode ser usada para enganar pessoas e executar esquemas persuasivos, bem como para espalhar spam ou lançar ataques de phishing.

- Malware:

O ChatGPT pode ajudar a realizar uma tarefa que normalmente requer conhecimentos de programação de alto nível: gerar código em várias linguagens de programação. O modelo permite aos cibercriminosos com capacidades técnicas limitadas ou sem capacidades de codificação desenvolver malware. O ChatGPT escreve-o apenas sabendo a funcionalidade que o malware deve ter.

Por sua vez, os criminosos informáticos sofisticados poderão também utilizar esta tecnologia para tornar as suas ameaças mais eficazes ou para colmatar as lacunas existentes. Num caso partilhado por um criminoso num fórum, o ChatGPT foi explorado para criar malware utilizando um código baseado em Python que pode pesquisar, copiar e exfiltrar 12 tipos de ficheiros comuns, como documentos Office, PDF e imagens de um sistema infetado. Por outras palavras, se encontrar um ficheiro de interesse, o malware copia-o para um directório temporário, comprime-o e envia-o através da web. O mesmo autor de malware mostrou também como tinha utilizado o ChatGPT para escrever código Java para descarregar o PuTTY SSH e o cliente telnet e executá-lo secretamente num sistema via PowerShell.

Ameaças avançadas requerem soluções avançadas

As ciberameaças avançadas devem ser enfrentadas com soluções que estejam à altura da tarefa. A WatchGuard EPDR combina proteção de endpoints (EPP) e capacidades de deteção e resposta (EDR) numa única solução. Graças aos seus novos e emergentes modelos de IA de machine learning e aprendizagem profunda, o WatchGuard EPDR protege contra ameaças avançadas, ameaças persistentes avançadas (APTs), malware de zero-day, ransomware, phishing, rootkits, vulnerabilidades de memória e ataques sem malware, para além de fornecer visibilidade completa de endpoint e servidor e monitorizar e detetar atividade maliciosa que pode escapar à maioria das soluções antivírus tradicionais.

Também monitoriza continuamente todas as aplicações e deteta comportamento malicioso, mesmo que tenha origem em aplicações legítimas. É também capaz de orquestrar uma resposta automática e, por sua vez, fornecer a informação forense necessária para investigar exaustivamente cada tentativa de ataque através de indicadores avançados de ataque (IoA). 

Em suma, a inovação de uma ferramenta como o ChatGPT pode ser positiva para o mundo e mudar os atuais paradigmas, mas também pode causar sérios prejuízos se cair em mãos erradas. Ter a solução cibersegurança certa pode impedir que o lado negativo de ferramentas promissoras como esta chegue à sua organização através do mau uso que os cibercriminosos podem fazer delas. 

Se quiser saber mais sobre o ChatGPT e os potenciais riscos de cibersegurança, pode fazê-lo ouvindo estes dois podcasts da nossa equipa do WatchGuard Threat Lab:

Compartilhe isso: