
Le preoccupazioni per la sicurezza e la protezione dell'IA stanno emergendo
Di solito, ogni volta che c'è un grande balzo in avanti tecnologico, ci vuole un po' di tempo prima che tutte le implicazioni per la cybersecurity siano pienamente comprese, ma con l'ascesa dei modelli linguistici di grandi dimensioni (LLM), la sicurezza di un'intelligenza artificiale (AI) che può essere raggiunta e mantenuta sta rapidamente diventando un importante elemento di differenziazione tra un servizio e un altro.
Ad esempio, Anthropic sta invitando i ricercatori a violare un sistema di sicurezza dell'IA, denominato Constitutional Classifiers, che fornisce un insieme di principi che ogni istanza del suo modello di IA deve seguire. L'azienda offre $20.000 a qualsiasi ricercatore che riesca a eludere queste protezioni.
Quell'offerta arriva sulla scia della controversia riguardante il rilascio di DeepSeek, un modello AI open source creato in Cina per un costo presumibilmente inferiore rispetto ad altri modelli AI simili. L'unico problema è che il modello AI DeepSeek è pieno di falle di sicurezza che ne rendono sospetta l'applicabilità in un contesto IT aziendale.
Si può sostenere che l'intenso dibattito attorno a DeepSeek è una manna per i team di cybersecurity. La verità è che i protocolli di sicurezza AI e di cybersecurity adottati dalle organizzazioni variano dall'inesistente al lassista. In assenza di una politica formale, molti utenti finali stanno condividendo dati sensibili con i fornitori di modelli AI senza alcuna consapevolezza di come quei dati potrebbero un giorno essere utilizzati per addestrare la prossima generazione di un modello che probabilmente sarà in grado di rigettare quei dati a chiunque voglia formulare il giusto prompt. All'altro estremo, alcune organizzazioni stanno vietando l'uso di modelli AI senza la capacità di far rispettare tali politiche. Per quanto riguarda molti utenti finali, i modelli AI sono solo un altro servizio IT ombra da impiegare furtivamente come meglio credono.
Si spera che più organizzazioni, in consultazione con i loro team di cybersecurity, implementeranno presto i controlli necessari per dare forza alle politiche che definiscono. Nel frattempo, i team di cybersecurity devono prendersi il tempo necessario per capire esattamente come ciascun servizio AI utilizza i dati a cui ha accesso, a partire da qualsiasi impegno preso per garantire che i dati dei clienti non vengano utilizzati per addestrare un modello AI. Il problema è che l'impegno potrebbe applicarsi solo ai dati per i quali l'utente finale ha selezionato una casella per escludere specificamente qualsiasi impostazione predefinita che nessun utente finale è probabilmente in grado di trovare nascosta tra le centinaia di pagine di qualsiasi accordo di licenza software.
Richiede già un avvocato abbastanza esperto per navigare tra i termini e le condizioni della maggior parte degli accordi di licenza software esistenti e, poiché vengono aggiunte più avvertenze nell'era dell'IA, le possibilità che gli utenti finali non comprendano le implicazioni della condivisione dei dati con un servizio di IA esterno aumentano solo.
Nel frattempo, i criminali informatici stanno chiaramente affinando le loro abilità di jailbreak dell'IA, altrimenti note come sfruttamento delle competenze di prompt engineering per generare output che eludono i guardrail dell'IA che dovrebbero impedire la creazione di output contenenti dati sensibili sin dall'inizio.
In definitiva, non è una questione di se ci saranno grandi incidenti di cybersecurity che coinvolgono l'IA quanto di quando e in che misura. L'unica cosa non altrettanto certa, tuttavia, è come le organizzazioni reagiranno quando tali violazioni, se non sono già state vissute, presto inevitabilmente si verificheranno.

The Ransomware Insights Report 2025
Risultati chiave sull'esperienza e l'impatto del ransomware sulle organizzazioni a livello mondiale
Iscriviti al blog di Barracuda.
Iscriviti per ricevere i Threat Spotlight, commenti del settore e altro ancora.

Sicurezza della vulnerabilità gestita: correzione più rapida, meno rischi, conformità più semplice
Scopri quanto può essere facile individuare le vulnerabilità che i criminali informatici vogliono sfruttare