Blog WatchGuard

ChatGPT e il dark web: un’alleanza pericolosa

L’intelligenza artificiale (IA) è ormai presente in quasi ogni aspetto della nostra vita. Tuttavia, la sua influenza è particolarmente rilevante nel campo della sicurezza informatica, dove influisce sia sulla difesa che sull’attacco. Sebbene sia diventato un ottimo strumento per proteggere le risorse digitali di un'organizzazione, è anche utilizzato dai criminali informatici per diffondere ed eseguire attacchi informatici sempre più sofisticati e difficili da rilevare.

Uno studio recente rivela che l’84% dei CEO è preoccupato per gli attacchi gravi o largamente diffusi alla sicurezza informatica che potrebbero essere innescati dall’adozione dell’intelligenza artificiale generativa. Inoltre, un articolo pubblicato lo scorso gennaio rivela che c’è stato un aumento delle conversazioni sull’uso illegale di ChatGPT, così come di modelli linguistici di grandi dimensioni (LLM) sul dark web. Le discussioni si concentrano su una varietà di minacce alla sicurezza informatica, ma gli argomenti comuni includono lo sviluppo di malware e altri tipi di uso illegale di modelli linguistici, come l’elaborazione di dati utente rubati e l’analisi di file da dispositivi infetti. 

Il fatto che gli strumenti di intelligenza artificiale migliorino le competenze dei criminali informatici meno avanzati, insieme al boom della condivisione di suggerimenti e tecniche sul dark web, sta ad indicare che minacce come phishing e ransomware potrebbero diventare un pericolo ancora maggiore per le organizzazioni.

Quali tecniche di attacco informatico basate sull’intelligenza artificiale sono più comunemente utilizzate?

Nonostante gli sforzi degli strumenti commerciali di intelligenza artificiale generativa come ChatGPT per implementare barriere per frenare l’uso malevolo di questa tecnologia, gli hacker hanno escogitato modi per utilizzarli per i loro scopi. Allo stesso modo, alternative emergenti come WormGPT, che sfrutta le vulnerabilità, vengono utilizzate come armi da attori malintenzionati. Le tecniche di minaccia supportate dall'intelligenza artificiale più comuni includono:

  • Campagne di phishing generate dall'intelligenza artificiale: l'intelligenza artificiale generativa ha rivoluzionato il modo in cui gli hacker generano le loro campagne di phishing, consentendo loro di creare testi più credibili che non destano allarmi e sono quindi difficili da rilevare. Ciò può anche far risparmiare tempo, rendendo le campagne più efficaci.
  • Ricerca degli obiettivi assistita dall’intelligenza artificiale: l’analisi dei social media e di altri dati online utilizzando algoritmi di apprendimento automatico consente agli attaccanti di ottenere informazioni preziose sui loro obiettivi, come interessi, abitudini e vulnerabilità.
  • Rilevamento intelligente delle vulnerabilità: gli strumenti di ricognizione abilitati dall’intelligenza artificiale possono cercare automaticamente le vulnerabilità nelle reti aziendali, selezionando automaticamente l’exploit più efficace.
  • Filtraggio intelligente dei dati: durante un attacco, l’intelligenza artificiale non copia tutti i dati disponibili, ma seleziona solo le informazioni più preziose da estrarre, rendendole più difficili da rilevare.
  • Ingegneria sociale basata sull'intelligenza artificiale: l'intelligenza artificiale può essere utilizzata per generare audio o video deepfake che imitano persone fidate negli attacchi di vishing. Ciò aumenta la credibilità dell'attacco e convince i dipendenti a divulgare informazioni sensibili.

Come proteggere la tua azienda con la sicurezza avanzata degli endpoint

L’uso dell’intelligenza artificiale generativa per commettere attacchi informatici aumenta il livello di complessità, il che significa che sono necessari meccanismi di difesa più robusti per affrontare le nuove minacce. La sicurezza degli endpoint gioca un ruolo chiave in questa difesa e le organizzazioni dovrebbero implementare soluzioni di sicurezza avanzate in grado di integrare/incorporare funzionalità di intelligenza artificiale che aiutano a prevenire, rilevare e rispondere a questo tipo di minacce. Una soluzione avanzata di sicurezza degli endpoint che incorpora la tecnologia IA può:

  • Rilevare le minacce emergenti:

    Una soluzione avanzata di sicurezza degli endpoint applica tecniche come l'analisi comportamentale e l'apprendimento automatico per identificare e bloccare malware nuovi e in evoluzione. Inoltre, possono aiutarti con l'applicazione di patch per eliminare potenziali vulnerabilità e bug di sicurezza all'interno della tua rete.

  • Ridurre al minimo il rischio di violazione dei dati:

    Una campagna di phishing riuscita o l'utilizzo di malware possono compromettere i dati sensibili della tua azienda. La protezione avanzata degli endpoint ti aiuta a prevenire fughe di dati sensibili e a proteggere le tue informazioni, evitando così gravi ripercussioni come perdite finanziarie, erosione della fiducia dei clienti e danni alla reputazione.

  • Contribuire alla conformità normativa:

    Diversi settori sono tenuti per legge a utilizzare una protezione avanzata per proteggersi dal malware. In caso contrario, si rischiano multe e altre ripercussioni legali.

Se desideri saperne di più su come proteggere la tua azienda dal malware basato sull'intelligenza artificiale, leggi anche:

ChatGPT can create polymorphic malware, now what?