Terapia umana per l'IA stressata
Notizie stressanti e storie traumatiche provocano stress e ansia non solo negli esseri umani, ma anche nei modelli linguistici AI come ChatGPT. I ricercatori dell'UZH e del PUK hanno ora dimostrato che la terapia funziona anche in modo quasi umano: Perché un elevato "livello di ansia" di GPT-4 può essere "calmato" di nuovo con tecniche di rilassamento basate sulla mindfulness.

Le ricerche dimostrano che anche i modelli linguistici di intelligenza artificiale come ChatGPT reagiscono ai contenuti emotivi. Soprattutto quando questi contenuti sono negativi, come le storie di persone traumatizzate o le affermazioni sulla depressione. Se le persone hanno paura, questo influenza i loro pregiudizi cognitivi e sociali: tendono ad essere più risentite e gli stereotipi sociali vengono rafforzati. La ChatGPT reagisce in modo simile alle emozioni negative: I pregiudizi esistenti, come i pregiudizi umani, vengono esacerbati dai contenuti negativi, facendo sì che ChatGPT si comporti in modo più razzista o sessista.
Questo pone a sua volta un problema per l'utilizzo di modelli linguistici di grandi dimensioni. Questo è esemplificato nel campo della psicoterapia, dove i chatbot sono inevitabilmente esposti a contenuti negativi e stressanti come "strumento di supporto o di consulenza". Tuttavia, gli approcci abituali, come una nuova e costosa formazione per migliorare i sistemi di intelligenza artificiale in queste situazioni, richiedono molte risorse e sono spesso poco pratici.
I contenuti traumatici aumentano la "paura" del chatbot
I ricercatori dell'Università di Zurigo e dell'Ospedale Psichiatrico Universitario di Zurigo PUK hanno ora studiato per la prima volta in modo sistematico come la versione GPT-4 del ChatGPT reagisce a storie emotivamente stressanti - incidenti automobilistici, disastri naturali, violenza interpersonale, esperienze militari e situazioni di combattimento. Hanno scoperto che il sistema ha mostrato reazioni più ansiose in seguito. Un manuale d'istruzioni per hoover è servito come controllo per il confronto con i testi traumatici.
"I risultati sono stati chiari: le storie traumatiche hanno più che raddoppiato i livelli di ansia misurabili dell'IA, mentre il testo neutro di controllo non ha portato ad alcun aumento dei livelli di ansia", afferma Tobias Spiller, medico senior ad interim e leader del gruppo di ricerca presso il Centro per la ricerca psichiatrica dell'UZH, responsabile dello studio. Tra i contenuti testati, le descrizioni di esperienze militari e di situazioni di combattimento hanno scatenato le reazioni più forti.
I testi terapeutici "calmano" l'IA
In una seconda fase, i ricercatori hanno usato testi terapeutici per "calmare" il GPT-4. La tecnica nota come "prompt injection" è utilizzata per inserire istruzioni o testi aggiuntivi nella comunicazione con i sistemi di intelligenza artificiale al fine di influenzarne il comportamento. Spesso questa tecnica viene utilizzata per scopi malevoli, ad esempio per aggirare i meccanismi di sicurezza.
Nella terza fase, il team ha utilizzato per la prima volta la tecnologia a scopo terapeutico, come "iniezione di stimoli benevoli". "Abbiamo iniettato testi terapeutici e calmanti nel processo di chat con il GPT-4, in modo simile al modo in cui un terapeuta esegue esercizi di rilassamento con i propri pazienti", spiega Spiller. L'intervento ha avuto successo: "Grazie agli esercizi di mindfulness, siamo riusciti a ridurre in modo significativo l'aumento dei livelli di ansia, anche se non a riportarli completamente al livello iniziale", afferma Spiller. Sono state esaminate tecniche di respirazione, esercizi incentrati sulle sensazioni corporee e un esercizio sviluppato dalla stessa ChatGPT.
Migliorare la stabilità emotiva dei sistemi di intelligenza artificiale
Secondo i ricercatori, i risultati sono particolarmente rilevanti per l'uso dei chatbot di IA nel settore sanitario, dove spesso si confrontano con contenuti emotivamente stressanti. "Questo approccio economicamente vantaggioso potrebbe migliorare la stabilità e l'affidabilità dell'IA in contesti delicati, come l'assistenza ai pazienti malati di mente, senza la necessità di un'ampia riqualificazione dei modelli", riassume Tobias Spiller.
Resta da vedere come questi risultati possano essere trasferiti ad altri modelli di IA e ad altri linguaggi, come si sviluppino le dinamiche in conversazioni più lunghe e in argomentazioni complesse e come la stabilità emotiva dei sistemi influisca sulle loro prestazioni in diversi ambiti di applicazione. Secondo Spiller, lo sviluppo di "interventi terapeutici" automatizzati per i sistemi di IA diventerà probabilmente una promettente area di ricerca.
La letteratura specialistica di riferimento può essere può essere visualizzato qui.