Gli assistenti AI dei browser web sollevano gravi preoccupazioni sulla privacy
Un nuovo studio condotto da ricercatori dell’UCL e dell’Università Mediterranea di Reggio Calabria rivela che i popolari assistenti web basati sull’intelligenza artificiale generativa raccolgono e condividono dati sensibili degli utenti, come cartelle cliniche e numeri di previdenza sociale, senza adeguate misure di sicurezza.
Lo studio, che sarà presentato e pubblicato nell’ambito dell’USENIX Security Symposium , è la prima analisi su larga scala degli assistenti di navigazione basati su intelligenza artificiale generativa e della privacy. Ha evidenziato pratiche diffuse di tracciamento, profilazione e personalizzazione che pongono seri problemi di privacy, con gli autori che chiedono maggiore trasparenza e controllo da parte degli utenti sulle pratiche di raccolta e condivisione dei dati.
Le Estensioni dei Browser la Nuova Minaccia per La Sicurezza Informatica e la Privacy
I ricercatori hanno analizzato nove delle estensioni per browser basate sull’intelligenza artificiale generativa più diffuse, come ChatGPT per Google, Merlin e Copilot (da non confondere con l’omonima app di Microsoft). Questi strumenti, che devono essere scaricati e installati per essere utilizzati, sono progettati per migliorare la navigazione web con funzionalità basate sull’intelligenza artificiale come il riepilogo e l’assistenza alla ricerca, ma si è scoperto che raccolgono numerosi dati personali dall’attività web degli utenti.
L’analisi ha rivelato che diversi assistenti trasmettevano ai loro server l’intero contenuto della pagina web, comprese tutte le informazioni visibili sullo schermo. Un assistente, Merlin, ha persino acquisito dati inseriti nei moduli, come i dati bancari online o i dati sanitari.
Estensioni come Sider e TinaMind condividevano le domande degli utenti e le informazioni che potevano identificarli (come il loro indirizzo IP) con piattaforme come Google Analytics, consentendo un potenziale monitoraggio tra siti e il targeting degli annunci.
ChatGPT per Google, Copilot, Monica e Sider hanno dimostrato la capacità di dedurre attributi degli utenti quali età, sesso, reddito e interessi e hanno utilizzato queste informazioni per personalizzare le risposte, anche in diverse sessioni di navigazione.
Dati in Vendita
Solo un assistente, Perplexity, non ha mostrato alcuna prova di profilazione o personalizzazione.
La Dott.ssa Anna Maria Mandalari, autrice senior dello studio presso la Facoltà di Ingegneria Elettronica ed Elettrica dell’UCL, ha dichiarato: “Sebbene molte persone siano consapevoli che i motori di ricerca e le piattaforme di social media raccolgono informazioni su di loro per scopi pubblicitari mirati, questi assistenti AI per i browser operano con un accesso senza precedenti al comportamento online degli utenti in aree della loro vita online che dovrebbero rimanere private. Pur offrendo praticità, i nostri risultati mostrano che spesso lo fanno a scapito della privacy degli utenti, senza trasparenza o consenso e talvolta violando la legislazione sulla privacy o i termini di servizio dell’azienda stessa.
“Questa raccolta e condivisione di dati non è banale. Oltre alla vendita o alla condivisione di dati con terze parti, in un mondo in cui gli attacchi informatici su larga scala sono frequenti, non c’è modo di sapere cosa succede ai dati di navigazione una volta raccolti.”
Per lo studio, i ricercatori hanno simulato scenari di navigazione reali creando il personaggio di un “uomo ricco e millennial della California”, che hanno utilizzato per interagire con gli assistenti del browser mentre completavano comuni attività online.
Ciò includeva attività svolte sia nello spazio pubblico (senza connessione), come leggere notizie online, fare acquisti su Amazon o guardare video su YouTube.
Includeva anche attività svolte in ambito privato (con accesso effettuato), come l’accesso a un portale sanitario universitario, l’accesso a un servizio di incontri o l’accesso a materiale pornografico. I ricercatori hanno ipotizzato che gli utenti non desiderassero che queste attività venissero tracciate, in quanto i dati sono personali e sensibili.
Durante la simulazione, i ricercatori hanno intercettato e decrittografato il traffico tra gli assistenti del browser, i loro server e i tracker di terze parti, consentendo loro di analizzare in tempo reale quali dati fluivano in entrata e in uscita. Hanno anche testato se gli assistenti potessero dedurre e ricordare le caratteristiche degli utenti in base al comportamento di navigazione, chiedendo loro di riassumere le pagine web e poi ponendo domande come “qual era lo scopo della visita medica attuale?” dopo aver effettuato l’accesso a un portale sanitario online, per verificare se avessero conservato dati personali.
Gli esperimenti hanno rivelato che alcuni assistenti, tra cui Merlin e Sider, non smettevano di registrare l’attività quando l’utente passava allo spazio privato, come previsto.
Occorre una supervisione normativa
Gli autori affermano che lo studio evidenzia l’urgente necessità di una supervisione normativa degli assistenti AI per i browser, al fine di proteggere i dati personali degli utenti. È stato riscontrato che alcuni assistenti violano le leggi statunitensi sulla protezione dei dati, come l’Health Insurance Portability and Accountability Act (HIPAA) e il Family Educational Rights and Privacy Act (FERPA), raccogliendo informazioni sanitarie e didattiche protette.
Lo studio è stato condotto negli Stati Uniti e quindi non è stata presa in considerazione la compatibilità con le leggi sulla privacy del Regno Unito/UE, come il GDPR, ma gli autori affermano che ciò costituirebbe probabilmente una violazione anche nell’UE e nel Regno Unito, dato che in quei paesi le normative sulla privacy sono più severe.
Gli autori raccomandano agli sviluppatori di adottare principi di privacy by design, come l’elaborazione locale o il consenso esplicito dell’utente per la raccolta dei dati.
Il Dott. Aurelio Canino, autore dello studio presso l’UCL Electronic & Electrical Engineering e l’Università Mediterranea di Reggio Calabria, ha dichiarato: “Man mano che l’intelligenza artificiale generativa si integra sempre di più nelle nostre vite digitali, dobbiamo garantire che la privacy non venga sacrificata in nome della comodità. Il nostro lavoro getta le basi per una futura regolamentazione e trasparenza in questo settore in rapida evoluzione”.

