Nuovi sviluppi nell'uso dell'IA da parte dei criminali informatici
Gli strumenti di IA generativa hanno il potenziale per consentire attacchi informatici veramente dirompenti nel prossimo futuro. Ma esistono già oggi nuovi LLM criminali o offerte di capacità simili a ChatGPT nei software di hacking?
L'intelligenza artificiale offre molte opportunità e ha un grande potenziale di utilizzo. Ma c'è anche l'altra faccia della medaglia: l'AI può essere utilizzata anche per scopi criminali. Un'analisi di Trend Micro mostra gli ultimi sviluppi ed evidenzia le minacce che si possono prevedere nel prossimo futuro.
Jailbreaking-as-a-Service
Mentre le tecnologie di intelligenza artificiale si stanno rapidamente affermando nel mondo degli affari, l'anno scorso i tentativi di sviluppare i propri Large Language Model (LLM) per i criminali informatici sono stati in gran parte abbandonati nel mondo della criminalità informatica. I criminali si sono invece concentrati sul "jailbreak" dei modelli esistenti, ovvero sull'utilizzo di trucchi speciali per farli aggirare le misure di sicurezza integrate. Esistono ora offerte come Jailbreaking-as-a-Service. I criminali utilizzano tecniche sofisticate per indurre gli LLM a rispondere a richieste che in realtà dovrebbero essere bloccate. Queste tecniche vanno da giochi di ruolo e scenari ipotetici all'uso di lingue straniere. I fornitori di servizi come OpenAI o Google stanno lavorando per colmare queste lacune di sicurezza. Gli utenti cybercriminali, a loro volta, devono ricorrere a richieste di jailbreak più sofisticate. Ciò ha creato un mercato per una nuova classe di servizi criminali sotto forma di offerte di chatbot per il jailbreak.
"I criminali informatici hanno abusato dell'IA molto prima del recente clamore suscitato dall'IA generativa nel settore IT. Per questo motivo ci siamo addentrati nei forum criminali clandestini per scoprire come i criminali informatici stiano effettivamente utilizzando e impiegando l'IA per raggiungere i loro obiettivi e che tipo di servizi criminali alimentati dall'IA vengano offerti", spiega il team. David Sancho, ricercatore senior sulle minacce di Trend Micro. "Abbiamo analizzato le conversazioni clandestine sull'IA e abbiamo scoperto che l'interesse per l'IA generativa ha seguito le tendenze generali del mercato, ma l'adozione sembra essere in ritardo. Abbiamo anche visto offerte di LLM da parte di criminali per criminali. Si tratta di FraudGPT, DarkBARD, DarkBERT e DarkGPT, che presentano molte analogie. Per questo motivo, sospettiamo che molto probabilmente funzionino come servizi wrapper per i legittimi ChatGPT o Google BARD - li chiamiamo servizi Jailbreaking-as-a-Service", ha continuato David Sancho. "Abbiamo anche indagato su altre offerte di LLM criminali potenzialmente false: WolfGPT, XXXGPT e Evil-GPT. Stiamo anche esaminando i servizi deepfake per i criminali: Abbiamo visto i prezzi e alcuni primi modelli di business intorno a queste immagini e video falsi alimentati dall'intelligenza artificiale".
Servizi di deepfake in aumento
I deepfake esistono da tempo, ma solo di recente sono state scoperte vere e proprie offerte di criminali informatici. I criminali offrono servizi di deepfake per aggirare i sistemi di verifica dell'identità. Questo sta diventando un problema crescente soprattutto nel settore finanziario, poiché le banche e le borse di criptovalute richiedono controlli sempre più severi. I deepfake stanno diventando sempre più economici e facili da creare. I criminali informatici utilizzano questa tecnologia per creare immagini e video falsi in grado di ingannare anche i sistemi di sicurezza più avanzati. Spesso basta un documento d'identità rubato per creare un'immagine falsa convincente.
Cosa significa questo per il futuro?
Gli sviluppi dimostrano che i criminali trovano sempre nuovi modi per abusare delle tecnologie AI. Sebbene finora non si siano verificate gravi perturbazioni, è solo questione di tempo prima che ci si possa aspettare attacchi più seri. Le aziende e i privati devono quindi rimanere vigili e migliorare costantemente le loro misure di sicurezza informatica per essere preparati a queste minacce. Tre regole fondamentali dei modelli di business dei criminali informatici saranno decisive per determinare quando gli attori malintenzionati utilizzeranno la GenAI su larga scala:
- I criminali vogliono una vita facile: L'obiettivo è raggiungere un determinato risultato economico con il minor sforzo e il minor rischio possibile.
- Le nuove tecnologie devono essere migliori degli strumenti esistenti: I criminali adottano nuove tecnologie solo se il ritorno sull'investimento è maggiore rispetto ai metodi esistenti.
- Evoluzione anziché rivoluzione: I criminali preferiscono aggiustamenti graduali piuttosto che revisioni complete, per evitare nuovi fattori di rischio.
Conclusione: l'uso dell'IA da parte dei criminali informatici è solo agli inizi
Rimane la necessità di un accesso sicuro, anonimo e non rintracciabile agli LLM. Questo incoraggerà i servizi di cybercriminalità a continuare a sfruttare nuovi LLM, più facili da jailbreakare o personalizzati per le loro esigenze specifiche. Attualmente ci sono più di 6.700 LLM prontamente disponibili sulla piattaforma comunitaria di AI Hugging Face. Si può anche ipotizzare che sempre più strumenti criminali vecchi e nuovi integreranno funzioni GenAI. I criminali informatici hanno appena iniziato a scalfire la superficie delle reali possibilità che la GenAI offre loro.
Trend Micro ha raccolto ulteriori informazioni su questo argomento in un blog:
- https://www.trendmicro.com/de_de/research/24/e/ki-cybercrime-jailbreaks-bestehender-llm-modelle.html
- https://www.trendmicro.com/de_de/research/24/e/generative-ki-tools-fur-deepfakes.html
Questo articolo è apparso originariamente su m-q.ch - https://www.m-q.ch/de/neue-entwicklungen-in-der-cyberkriminellen-nutzung-von-ki/