Blog WatchGuard

5 possibili cyber minacce utilizzabili dai criminali attraverso ChatGPT

ChatGPT, l'Intelligenza Artificiale (AI) generativa pubblica in essere dalla fine di novembre 2022, ha sollevato legittime preoccupazioni sulla sua possibilità di amplificare la gravità e la complessità delle minacce informatiche. Infatti, non appena OpenAI ha annunciato il suo rilascio, molti esperti di sicurezza hanno previsto che sarebbe stata solo una questione di tempo prima che gli attaccanti iniziassero a utilizzare questo chatbot di intelligenza artificiale per creare malware o persino aumentare gli attacchi di phishing.

Non ci è voluto molto perché i loro sospetti venissero confermati, poiché è stato scoperto che i criminali informatici hanno già iniziato a utilizzare questo strumento basato sul modello di linguaggio AI GPT-3 per ricreare ceppi di malware e perpetrare diversi tipi di attacchi. I criminali informatici devono semplicemente disporre di un account OpenAI, che possono creare gratuitamente dal suo sito Web e quindi effettuare una query.

Cosa possono fare i Cybercriminali con ChatGPT?

Phishing

I creatori delle minacce possono utilizzare il Large Language Model (LLM) del sistema ChatGPT per scostarsi dai formati universali normalmente usati e automatizzare la creazione di e-mail di phishing o spoofing univoche, scritte con una grammatica curata e schemi vocali naturali su misura per ogni target. Ciò significa che gli attacchi e-mail realizzati con l'aiuto di questa tecnologia sembreranno molto più convincenti, rendendo più difficile per i destinatari il rilevamento dell’attacco e pertanto più difficile il poter evitare di fare clic sui collegamenti malevoli che potrebbero contenere malware.

Furto d’identità

Oltre al phishing, i malintenzionati possono utilizzare ChatGPT per impersonare un'istituzione fidata, grazie alla capacità dell'intelligenza artificiale di replicare il tono e il discorso aziendale di un qualsiasi ente o organizzazione, e quindi sfruttare questi messaggi sui social media, SMS o e-mail per ottenere informazioni private e finanziarie delle vittime. Gli attori malintenzionati possono anche scrivere post sui social media fingendosi celebrità sfruttando questa capacità.

Attacchi Social Engineering

Possono essere lanciati attacchi di Social Engineering in cui gli attori utilizzano il modello AI per creare profili falsi sui social media, facendoli sembrare molto realistici, e quindi indurre le persone a fare clic su collegamenti malevoli o convincerli a condividere informazioni personali.

Creazione di Bots malevoli

ChatGPT può essere utilizzato per creare chatbot, poiché dispone di un'API che può alimentare altre chat. La conseguente interfaccia user-friendly, può essere utilizzata per ingannare le persone ed eseguire truffe persuasive, nonché per diffondere spam o lanciare attacchi di phishing.

Malware

ChatGPT può aiutare a svolgere un'attività che di solito richiede competenze di programmazione di alto livello: generare codice in vari linguaggi di programmazione. Il modello consente agli attaccanti con competenze tecniche limitate o senza competenze di codifica di sviluppare malware. ChatGPT lo scrive semplicemente sapendo quale funzionalità dovrebbe avere il malware.

A loro volta, i criminali informatici che vogliono agire in maniera più sofisticata potrebbero anche utilizzare questa tecnologia per rendere le loro minacce più efficaci o per colmare le falle esistenti.

In un caso condiviso da un criminale su un forum, ChatGPT è stato sfruttato per creare malware utilizzando un codice basato su Python in grado di cercare, copiare ed esfiltrare 12 tipi di file comuni, come documenti di Office, PDF e immagini da un sistema infetto. In altre parole, se trova un file di interesse, il malware lo copia in una directory temporanea, lo comprime e lo invia sul web. Lo stesso autore di malware ha anche mostrato come aveva utilizzato ChatGPT per scrivere codice Java per scaricare il client PuTTY SSH e telnet ed eseguirlo di nascosto su un sistema tramite PowerShell.

Minacce avanzate richiedono soluzioni avanzate

Le minacce informatiche avanzate devono essere affrontate con soluzioni all'altezza del compito. WatchGuard EPDR combina le funzionalità di protezione degli endpoint (EPP) e di rilevamento e risposta (EDR) in un'unica soluzione. Grazie ai suoi nuovi ed emergenti modelli di AI, machine learning e deep learning, WatchGuard EPDR protegge da minacce avanzate, minacce persistenti avanzate (APT), malware zero day, ransomware, phishing, rootkit, vulnerabilità della memoria e attacchi malwareless, oltre a fornire visibilità e monitoraggio completi di endpoint e server e rilevando attività dannose che possono eludere la maggior parte delle soluzioni antivirus tradizionali.

Inoltre, monitora continuamente tutte le applicazioni e rileva comportamenti dannosi, anche se originati da applicazioni legittime. È anche in grado di orchestrare una risposta automatizzata e, a sua volta, fornire le informazioni forensi necessarie per indagare a fondo su ogni tentativo di attacco attraverso indicatori avanzati di attacco (IoA).

Insomma, l'innovazione di uno strumento come ChatGPT può essere positiva per il mondo e cambiare i paradigmi attuali, ma può anche fare seri danni se cade nelle mani sbagliate. Avere la giusta soluzione di sicurezza informatica può impedire al lato negativo di strumenti promettenti come questo di raggiungere la tua organizzazione attraverso l'uso improprio che i malintenzionati possono farne.

Se vuoi saperne di più su ChatGPT e sui potenziali rischi per la sicurezza informatica derivanti da un uso improprio, puoi farlo ascoltando questi due podcast del nostro team di WatchGuard Threat Lab:

What is CVSS?

The RCE Vulnerability that wasn’t

Condividi questo: