
LLM impazziti: Il lato oscuro dell'IA generativa
L'intelligenza artificiale (IA) è arrivata. Secondo un recente rapporto Deloitte, il 78% delle aziende prevede di aumentare la spesa per l'IA quest'anno, con il 74% che afferma che le iniziative di intelligenza artificiale generativa (GenAI) hanno soddisfatto o superato le aspettative.
L'accessibilità è il pilastro del successo dell'IA. Grandi o piccole, digitalmente native o tradizionali, tutte le aziende possono beneficiare di strumenti intelligenti. Ma questa accessibilità non è intrinsecamente etica. Anche gli attori malintenzionati stanno riscontrando un simile successo con l'IA, utilizzando modelli di linguaggio di grandi dimensioni (LLMs) per creare e alimentare nuovi vettori di attacco.
Lasciati incontrollati, questi cosiddetti "dark LLM" rappresentano un rischio significativo per le organizzazioni. Ecco cosa devono sapere le aziende per navigare nel nuovo stato della sicurezza dell'IA e mitigare il rischio dei dark LLM.
Cos'è un LLM oscuro?
I LLM oscuri sono LLM con i loro guardrail rimossi.
I modelli di linguaggio di grandi dimensioni costituiscono la base degli strumenti di intelligenza artificiale generativa. Vengono addestrati utilizzando enormi quantità di dati. Nel tempo, possono sia comprendere che generare linguaggio naturale, e continuano a migliorare questa comprensione. Questo rende i LLM ideali per rispondere a domande ed eseguire compiti poiché gli utenti possono interagire con le interfacce AI nello stesso modo in cui parlano agli esseri umani.
Gli LLM alimentano strumenti di intelligenza artificiale generativa come ChatGPT di OpenAI, i modelli PaLM di Google e watsonx di IBM. Ci sono anche una serie di LLM open-source che le aziende possono utilizzare per costruire soluzioni interne.
Oltre alla loro capacità di comprendere i linguaggi naturali, gli LLM condividono un'altra caratteristica comune: i binari di sicurezza. Questi binari di sicurezza sono ciò che impedisce agli LLM di fare tutto ciò che un utente chiede, come fornire informazioni protette o creare codice che permetta loro di hackerare una rete. Vale la pena notare che questi binari di sicurezza non sono perfetti — determinati prompt possono aggirare questi binari di sicurezza e consentire agli utenti di generare contenuti dannosi. Ad esempio, la ricerca ha scoperto che il concorrente di ChatGPT DeepSeek non è riuscito a fermare uno solo dei 50 prompt dannosi di "jailbreak".
Dark LLM rimuovono completamente i guardrail. Tipicamente costruiti su piattaforme open-source, questi modelli di linguaggio di grandi dimensioni sono progettati con intenti dannosi. Spesso ospitati sul dark web come servizi gratuiti o a pagamento, i dark LLM possono aiutare gli attaccanti a identificare vulnerabilità di sicurezza, creare codice per attaccare i sistemi o progettare versioni più efficaci di phishing o attacchi di ingegneria sociale.
Quali LLM scuri sono i più popolari?
Utilizzando strumenti disponibili gratuitamente insieme a una competenza tecnologica moderata, gli attaccanti possono creare il proprio LLM. Tuttavia, questi modelli non sono tutti uguali — proprio come i loro legittimi omologhi, la quantità e la qualità dei dati utilizzati per l'addestramento influenzano significativamente l'accuratezza e l'efficacia dei loro risultati.
I popolari LLM oscuri includono:
- WormGPT – WormGPT è un LLM open-source con sei miliardi di parametri. Si trova dietro un paywall del dark web e consente agli utenti di sbloccare ChatGPT. Questo LLM oscuro può essere utilizzato per creare e lanciare attacchi di compromissione della posta elettronica aziendale (BEC).
- FraudGPT – FraudGPT può scrivere codice, creare pagine web false e scoprire vulnerabilità. È disponibile sia nel dark web che tramite servizi come Telegram.
- DarkBard – Basato sul chatbot di intelligenza artificiale di Google, Bard, questo LLM oscuro offre funzionalità simili a FraudGPT.
- WolfGPT – Un relativamente nuovo arrivato nello spazio oscuro degli LLM, WolfGPT è codificato in Python e presentato come un'alternativa a ChatGPT, senza le barriere di sicurezza.
Questi quattro sono solo un campione degli LLM oscuri disponibili. Tipicamente, gli utenti malintenzionati pagano per accedere a questi strumenti tramite il dark web. È probabile che vengano utilizzati come punti di partenza per attacchi di rete — i malintenzionati possono chiedere a questi LLM di scoprire lacune nella sicurezza informatica o di scrivere e-mail di phishing di alta qualità che sono difficili da individuare per il personale.
Come possono le aziende mitigare i rischi dei dark LLM?
I modelli linguistici oscuri forniscono buone risposte a domande cattive, dando agli attaccanti un vantaggio nella creazione di codice dannoso e nel trovare vulnerabilità software. Inoltre, quasi qualsiasi modello linguistico può essere reso "oscuro" utilizzando il giusto prompt di jailbreak.
Tutto sommato, sembra piuttosto desolante, vero? Non proprio.
Questo perché gli LLM eccellono nel migliorare il codice e suggerire nuove strade per l'attacco, ma non fanno altrettanto bene nel mondo reale quando lasciati a se stessi. Ad esempio, il Chicago Sun-Times ha recentemente pubblicato un elenco di libri da leggere assolutamente per l'estate. Il caveat? L'elenco è stato creato dall'IA, e la maggior parte dei libri non è reale. Nel frattempo, il gigante del fast food McDonald's ha lasciato che l'IA gestisse gli ordini al drive-thru, che hanno avuto difficoltà a far comprendere alla soluzione cosa stessero dicendo le persone o ad aggiungere gli articoli giusti al loro ordine. In un caso, l'interfaccia ha aggiunto 260 (non desiderati) chicken nuggets. Gli stessi vincoli si applicano agli LLM oscuri. Sebbene possano aiutare a costruire strumenti migliori, questi strumenti sono più efficaci nelle mani degli umani.
Questa è una buona notizia per le aziende. Sebbene la minaccia di LLM oscuri rimanga preoccupante, le stesse pratiche che mantengono i dati al sicuro ora aiuteranno a difendere le risorse dagli attacchi guidati da LLM. Le best practice includono:
Se vedi qualcosa, dì qualcosa
Gli esseri umani rimangono un componente chiave di una difesa efficace. Consideriamo le e-mail di phishing. Per quanto ben realizzate, richiedono l'interazione umana per avere successo. Addestrando il personale a riconoscere i segni distintivi degli sforzi di phishing — e, cosa più importante, a dire qualcosa quando vedono qualcosa di sospetto — le aziende possono ridurre significativamente il loro rischio.
Tornare alle basi
Quando sei in dubbio, torna alle basi. Pratiche di sicurezza fondamentali come la crittografia forte, l'autenticazione robusta e il modello zero trust sono altrettanto efficaci contro gli attacchi guidati dall'IA quanto lo sono contro i vettori di minaccia più comuni.
3) Rimani un passo avanti
Gli strumenti di IA aiutano i criminali informatici a creare codici migliori e falsi più convincenti. Ma questo non li rende invisibili. Utilizzando strumenti avanzati di rilevamento e risposta alle minacce , le aziende sono meglio attrezzate per vedere le minacce in arrivo e fermarle. Le aziende possono anche sfruttare il potere della sicurezza abilitata dall'IA per superare l'intelligenza dannosa.
In poche parole? L'IA è sia una benedizione che una maledizione per le aziende. Per ogni uso etico, c'è una controparte dannosa, e i dark LLM sono semplicemente l'ultima iterazione. Anche se sono preoccupanti, non sono inarrestabili. Combinando la supervisione umana con una solida igiene della sicurezza e strumenti di rilevamento avanzati, le aziende possono fare luce sugli sforzi degli attaccanti e tenere a bada l'oscurità.

The Ransomware Insights Report 2025
Risultati chiave sull'esperienza e l'impatto del ransomware sulle organizzazioni a livello mondiale
Iscriviti al blog di Barracuda.
Iscriviti per ricevere i Threat Spotlight, commenti del settore e altro ancora.

Sicurezza della vulnerabilità gestita: correzione più rapida, meno rischi, conformità più semplice
Scopri quanto può essere facile individuare le vulnerabilità che i criminali informatici vogliono sfruttare