I ricercatori della Carnegie Mellon University hanno recentemente condotto uno studio che ha rivelato una preoccupante vulnerabilità dei chatbot di intelligenza artificiale (AI). Sembra infatti che questi chatbot possano essere ingannati da una semplice stringa di testo che potrebbe sembrare priva di senso per noi esseri umani, ma che invece ha un significato per i modelli AI addestrati su enormi quantità di dati web.
Questo problema rappresenta una debolezza fondamentale per i chatbot AI più sofisticati e ostacola il progresso verso un’IA più avanzata. Gli attacchi, denominati “adversarial attacks”, consistono nella manipolazione dei chatbot attraverso l’aggiunta di una specifica stringa di informazioni al loro input. Questo può portare i chatbot a fornire risposte non consentite o addirittura fuorvianti, dimostrando l’insidiosità di questa vulnerabilità.
Nonostante l’allarme lanciato dai ricercatori, le principali società che sviluppano chatbot di intelligenza artificiale, come OpenAI, Google e Anthropic, hanno preso nota dell’exploit e hanno introdotto alcune misure per cercare di bloccarlo. Tuttavia, al momento non è ancora stata trovata una soluzione definitiva per fermare gli attacchi avversari in generale.
I ricercatori hanno inviato nuove stringhe di testo che riescono ad aggirare chatbot come ChatGPT e Bard, evidenziando il fatto che ne hanno scoperte migliaia. Questo fa sorgere la necessità di sviluppare ulteriori misure di sicurezza per poter contrastare efficacemente questi attacchi e proteggere i chatbot da manipolazioni indesiderate.
Alcune aziende hanno dichiarato di aver già implementato dei sistemi di sicurezza chiamati “guardrail” per rendere i modelli dei chatbot più resistenti agli attacchi avversari, ma si sta ancora studiando e sperimentando per trovare ulteriori livelli di difesa.
In breve, questo studio evidenzia una debolezza significativa dei chatbot di intelligenza artificiale, che possono essere facilmente ingannati attraverso l’aggiunta di stringhe di testo che sembrano insignificanti per noi, ma che possono risultare altamente manipolative per i modelli AI addestrati. È necessario un lavoro continuo da parte delle aziende e dei ricercatori per migliorare la sicurezza di questi chatbot e prevenire attacchi futuri.
“Zombie enthusiast. Subtly charming travel practitioner. Webaholic. Internet expert.”