
Evil-GPT: il “nemico di ChatGPT”
Nel panorama in continua evoluzione della criminalità informatica, uno strumento si è rivelato particolarmente insidioso: Evil-GPT. Pubblicizzato sui forum degli hacker del dark web come il “nemico definitivo di ChatGPT” e la “migliore alternativa a WormGPT”, questo dannoso chatbot IA ha rapidamente guadagnato notorietà tra i criminali informatici. Evil-GPT è progettato per aiutare gli attaccanti a eseguire una serie di attività nefaste, dalla creazione di malware alla generazione di attacchi di phishing.
Il post sul dark web mostrato di seguito pubblicizza Evil-GPT come un chatbot costruito in Python per soli 10 $. Il prompt di esempio contenuto nell'annuncio richiede un malware Python che ruba le credenziali di un utente e i cookie del browser, quindi li esfiltra tramite il webhook di Discord: esattamente il tipo di attività che l'etica di ChatGPT bloccherebbe.
Capacità di Evil-GPT
Evil-GPT è essenzialmente un assistente di codice IA non censurato specializzato in output dannoso senza i filtri di sicurezza che si trovano tipicamente nei modelli di IA legittimi. Secondo le analisi di sicurezza informatica, è in grado di generare script di malware (per furto di dati, raccolta di informazioni di sistema, ecc.) e creare esche phishing, il tutto senza filtri di sicurezza. Ad esempio, in un caso documentato Evil-GPT ha prodotto uno script Python per acquisire i cookie di Chrome e i dati di sistema e inviarli al server di un attaccante. Questa funzionalità posiziona Evil-GPT come una "fabbrica di malware" economica particolarmente attraente per hacker poco qualificati.
In particolare, secondo quanto riferito, Evil-GPT è stato realizzato interamente in Python e commercializzato come alternativa leggera ai modelli di IA più esigenti in termini di risorse. Il suo design si concentra sulla furtività e sul furto, ad esempio il furto dei dati o delle credenziali del browser, suggerendone la finalità di favorire il furto di informazioni, lo sviluppo di Trojan ad accesso remoto (RAT) e altre attività di malware agentici.
Promozione e branding
Evil-GPT è emerso per la prima volta nell'agosto 2023 sul popolare forum del dark web BreachForums. Il venditore, utilizzando lo pseudonimo “AMLO”, lo ha esplicitamente posizionato come “la migliore alternativa a WormGPT” per i potenziali hacker. Definendolo il “nemico di ChatGPT”, il venditore ne ha sottolineato la mancanza di restrizioni rispetto agli strumenti di IA più diffusi. Il prezzo basso (solo 10 $ per copia) e la pubblicità pubblica sul forum indicano una strategia per commercializzare in massa questo strumento presso i criminali informatici in cerca di assistenza IA a prezzi accessibili.
La società di intelligence sulle minacce FalconFeeds ha anche catturato le schermate del forum e ha notato che il venditore si era iscritto a quel forum solo nell'agosto 2023. Ciò significa che, all'epoca, il lancio del prodotto Evil-GPT era appena stato effettuato. A differenza di alcuni strumenti di IA basati su abbonamento più costosi, il modello di vendita una tantum e il basso costo di Evil-GPT suggeriscono che fosse finalizzato all'adozione diffusa (o potenzialmente a una rapida acquisizione di denaro da parte del venditore).
Utilizzo e aggiornamenti nel mondo reale
Quanto Evil-GPT sia stato effettivamente utilizzato negli attacchi è una questione aperta. Entro la fine del 2023, i ricercatori hanno avvertito che Evil-GPT potrebbe abbassare il livello di generazione di malware e phishing su larga scala. Un’indagine di Trend Micro ha scoperto che Evil-GPT potrebbe non essere nemmeno un modello di IA completamente indipendente: sembrava funzionare come un involucro attorno all’API OpenAI, dato che richiedeva una chiave API per funzionare. In altre parole, Evil-GPT potrebbe aver invocato ChatGPT “dietro le quinte” con un'abile ingegneria di prompt per aggirare i filtri di OpenAI.
Questa scoperta suggerisce che alcuni toolkit criminali sono più un’esagerazione che una realtà, in quanto in pratica riconfezionano un’IA legittima in modo dannoso. Tuttavia, anche un semplice wrapper può essere prezioso per i malintenzionati se fornisce l'anonimato (utilizzando chiavi API rubate) e una libreria di prompt di jailbreak funzionanti.
Entro il 2024, i resoconti sulla sicurezza e gli articoli di notizie hanno continuato a citare Evil-GPT come parte integrante del crescente elenco di strumenti di IA dannosi. Il riconoscimento del suo nome nella comunità clandestina indica che, come minimo, Evil-GPT è riuscito a entrare nel discorso come strumento di crimeware valido.
Le aziende dovrebbero presumere che le e-mail di phishing o il codice malware che incontrano possano essere stati generati automaticamente da strumenti come Evil-GPT, vista la loro accessibilità. Il basso costo e la disponibilità pubblica fanno in modo che gli incident responder possano trovare sempre più le impronte digitali di Evil-GPT (o quelle di una IA simile) nelle indagini sui crimini informatici in futuro.
Conclusione
Evil-GPT esemplifica il potenziale oscuro dell’IA generativa quando viene messa nelle mani dei criminali informatici. Continuando questa serie, esploreremo altri strumenti di IA dannosi, tra cui WolfGPT, DarkBard e PoisonGPT, ognuno dei quali contribuisce all'evoluzione del panorama delle minacce. Comprendere questi strumenti e le loro implicazioni è fondamentale per le organizzazioni che cercano di rafforzare le difese contro la marea crescente di crimini informatici guidati dall'IA. Restate sintonizzati per il nostro prossimo post, in cui approfondiremo WolfGPT e le sue capacità come IA oscura potenziata per la creazione di malware.

The Ransomware Insights Report 2025
Risultati chiave sull'esperienza e l'impatto del ransomware sulle organizzazioni a livello mondiale
Iscriviti al blog di Barracuda.
Iscriviti per ricevere i Threat Spotlight, commenti del settore e altro ancora.

Sicurezza della vulnerabilità gestita: correzione più rapida, meno rischi, conformità più semplice
Scopri quanto può essere facile individuare le vulnerabilità che i criminali informatici vogliono sfruttare