
Il lato oscuro dell'IA generativa: sveliamo il panorama delle minacce IA
L'intelligenza artificiale generativa ha scatenato un nuovo panorama di minacce per la criminalità informatica. Un tempo utilizzati principalmente per scopi legittimi, i modelli linguistici di grandi dimensioni (LLM) vengono ora sfruttati come armi dagli attori delle minacce. I forum underground e i mercati del dark web pullulano di "dark LLM": chatbot IA personalizzati o jailbroken, progettati espressamente per attività dannose. In effetti, le menzioni di questi strumenti di IA dannosi nei forum dei criminali informatici sono aumentate di oltre il 219% nel 2024, cosa che segnala un cambiamento significativo nelle tattiche utilizzate dai criminali informatici.
Strumenti come WormGPT (un clone di ChatGPT senza censure) sono stati rapidamente adottati, aiutando i criminali ad automatizzare gli attacchi di phishing e di Business Email Compromise (BEC). Alla fine del 2024, il bot Telegram di WormGPT aveva raggiunto quasi 3.000 utenti (con centinaia di abbonati paganti), evidenziando la crescente domanda di crimeware basato sull’IA. Questi strumenti dannosi di IA generativa possono scrivere esche di phishing convincenti, generare codice malware non rilevabile, creare personaggi falsi e persino produrre disinformazione su larga scala.
In questa serie del blog approfondirò il lato oscuro dell'IA generativa, esaminando quattro esempi di strumenti di IA dannosi: Evil-GPT, WolfGPT, DarkBard e PoisonGPT. Ogni post descriverà in dettaglio come funzionano questi strumenti e come vengono sfruttati nelle operazioni di criminalità informatica nel mondo reale. Fornirò una panoramica delle loro capacità (dalla generazione di phishing e dall'automazione del malware fino alla creazione di propaganda), dei loro canali promozionali (dai forum sul dark web ai gruppi di Telegram) e delle prove documentate del loro utilizzo nell'ultimo anno. Infine, discuterò delle implicazioni strategiche per la difesa aziendale e offrirò raccomandazioni ai CISO e ai team di sicurezza per contrastare questa minaccia emergente.
Le due facce dell'IA generativa
L’IA generativa è un’arma a doppio taglio: la stessa tecnologia in grado di redigere e-mail o scrivere codice software può essere sfruttata anche per scopi dannosi. I moderni LLM, come GPT-3.5/4 di OpenAI o Bard di Google, sono potenti assistenti con guardrail etici integrati. Tuttavia, i criminali hanno trovato il modo di aggirare queste misure di sicurezza, eseguendo il "jailbreak" di modelli pubblici o utilizzando modelli open source per creare la propria IA senza restrizioni. Il risultato è un'ondata di sistemi GPT dannosi creati appositamente per la criminalità informatica. Queste IA non autorizzate possono generare codice malware, script di exploit, contenuti di phishing e altro su richiesta, senza i soliti filtri o limitazioni sui contenuti.
Questo è possibile grazie a diversi fattori. Innanzitutto, il boom degli LLM open source fornisce modelli disponibili gratuitamente, come GPT-J e LLaMA, che chiunque abbia sufficiente esperienza può mettere a punto su dati dannosi. Inoltre, gli attori delle minacce condividono tecniche di jailbreak per manipolare i chatbot di IA legittimi in modo che producano risultati dannosi.
È emerso anche un fiorente mercato clandestino che vende servizi di IA illeciti. In questo caso, intraprendenti criminali informatici offrono bot di "IA malvagia" basati su abbonamento che promettono "nessun limite": un'IA che produrrà senza problemi e-mail di phishing, malware, notizie false o qualsiasi output illegale desiderato dall'acquirente. Questa mercificazione dell'IA generativa abbassa la barriera di ingresso per la criminalità informatica: anche gli attaccanti con competenze limitate possono sfruttare l'IA per aumentare notevolmente la portata e la sofisticazione delle loro campagne. In sostanza, l'IA generativa presenta un problema di duplice utilizzo e la comunità della sicurezza sta ora affrontando le conseguenze del suo uso improprio e dannoso.
Cosa succederà dopo
Nei prossimi post di questa serie del blog esplorerò in dettaglio ciascuno dei quattro strumenti di intelligenza artificiale dannosi:
- Evil-GPT: esaminerò le capacità, le strategie promozionali e le applicazioni di cyber criminalità nel mondo reale di questo strumento soprannominato il "nemico di ChatGPT".
- WolfGPT: questa IA oscura "potenziata" si concentra sulla creazione di malware. Ne analizzerò le caratteristiche e i potenziali rischi per la sicurezza informatica.
- DarkBard: studierò le funzionalità uniche di questo strumento noto come il "gemello malvagio" di Google Bard e come può essere utilizzato per la disinformazione in tempo reale.
- PoisonGPT: questo strumento esemplifica l'applicazione più oscura dell'IA generativa per la disinformazione. Parlerò delle sue implicazioni e dei rischi associati agli attacchi alla supply chain dell'intelligenza artificiale.
Infine, discuterò delle implicazioni strategiche per la difesa aziendale e fornirò consigli attuabili ai CISO e ai team di sicurezza per contrastare queste minacce emergenti.
Rimanete sintonizzati mentre navigo nelle complessità del panorama delle minacce dell'IA e scopro le sfide e le strategie che ci attendono nella lotta contro l'IA generativa dannosa.

The Ransomware Insights Report 2025
Risultati chiave sull'esperienza e l'impatto del ransomware sulle organizzazioni a livello mondiale
Iscriviti al blog di Barracuda.
Iscriviti per ricevere i Threat Spotlight, commenti del settore e altro ancora.

Sicurezza della vulnerabilità gestita: correzione più rapida, meno rischi, conformità più semplice
Scopri quanto può essere facile individuare le vulnerabilità che i criminali informatici vogliono sfruttare