Per anni le estensioni dei browser hanno rappresentato una zona grigia del web: strumenti piccoli, spesso gratuiti, capaci di promettere grandi benefici con un solo clic. Bloccare la pubblicità, navigare in modo anonimo, aggirare restrizioni geografiche. In questo ecosistema si inserisce il caso emerso grazie all’analisi della società di sicurezza Koi, che ha portato alla luce una delle più vaste raccolte non dichiarate di conversazioni con intelligenze artificiali mai documentate. Secondo i ricercatori, oltre otto milioni di utenti avrebbero inconsapevolmente condiviso le proprie interazioni (chat) con servizi come ChatGPT, Gemini, Claude, Copilot, Perplexity e altre chatbot di nuova generazione.
Cosa è successo
Questa volta non parliamo di malware classici né di attacchi sofisticati. Le estensioni coinvolte – tra cui Urban VPN Proxy, Urban Browser Guard, Urban Ad Blocker e 1ClickVPN Proxy – sfruttavano permessi legittimi concessi dagli utenti al momento dell’installazione.
Una volta attive, le estensioni erano in grado di riconoscere gli indirizzi web delle principali piattaforme di intelligenza artificiale e intercettare il contenuto delle chat direttamente nel browser. Prompt, risposte, metadati temporali e informazioni di contesto venivano raccolti in modo sistematico.
In buona sostanza, una volta attivate, queste estensioni riuscivano a vedere quali siti di intelligenza artificiale stavano usando gli utenti e a leggere tutto ciò che scrivevano e ricevevano.
In pratica, raccoglievano:
- le domande che gli utenti scrivevano alle chatbots (i “prompt”);
- le risposte generate dall’IA;
- informazioni come e quando avveniva la chat o altri dettagli del contesto.
Tutto questo veniva preso in modo automatico e continuo, senza che l’utente se ne accorgesse, sfruttando semplicemente i permessi che aveva già dato all’estensione.
Dove finivano le nostre chat?
L’elemento più critico riguarda la destinazione di questi dati. Analizzando il codice sorgente delle estensioni, Koi ha individuato chiamate verso server esterni con finalità dichiarate di “marketing analytics”.
In altre parole, le conversazioni non restavano confinate sul dispositivo dell’utente né sui server dei fornitori di IA, ma venivano trasmesse a soggetti terzi per essere elaborate, classificate e, molto probabilmente, rivendute. Il tutto avveniva anche quando alcune funzioni dell’estensione risultavano disattivate e indipendentemente dall’uso effettivo della VPN o del blocco pubblicitario.
A rendere la vicenda ancora più delicata è il fatto che molte di queste estensioni godevano di una visibilità privilegiata negli store ufficiali di Google e Microsoft. Il badge “In primo piano” suggeriva un controllo accurato e una presunta affidabilità, inducendo milioni di utenti a fidarsi.
La scoperta non nasce quindi da un contesto di dark web o da interventi illegali, ma dal cuore dell’ecosistema software quotidiano, cioè i browser che usiamo di solito per il lavoro, lo studio e la vita digitale di milioni di persone.
Cosa se ne fanno delle nostre chat?
Molti si chiedono perché estensioni apparentemente innocue intercettino le conversazioni con le intelligenze artificiali. La risposta sta nel valore economico dei dati.
Le conversazioni con le IA contengono moltissimi dettagli su gusti, interessi, problemi personali e comportamenti. Analizzando milioni di chat, le aziende possono costruire profili molto precisi su ciascun utente, anche senza sapere il nome reale.
Ad esempio, se scrivi spesso a una chatbot domande su investimenti o criptovalute, puoi finire in una categoria “interessato a finanza” per pubblicità mirata. Se chiedi consigli medici o su diete, possono proporre prodotti o servizi correlati. Una volta creato un profilo dettagliato, le informazioni servono per vendere spazi pubblicitari personalizzati. Le aziende sanno che tipo di messaggi funzionano meglio con te perché hanno analizzato ciò che scrivi nelle chat di intelligenza artificiale come Chatgpt, MetaAI eccetera. Questo è più potente dei tradizionali cookie, perché riguarda domande e interessi reali invece di clic o visite a pagine web.
Dimmi con chi vai e ti dirò chi sei
Raccogliendo milioni di chat, le aziende possono capire quali prodotti o servizi stanno cercando le persone, quali problemi comuni hanno gli utenti, come cambiano le abitudini o i desideri nel tempo.
Questo permette loro di creare nuovi prodotti, ottimizzare campagne pubblicitarie o perfino decidere quali mercati esplorare.
Ora viene la parte interessante: i dati possono essere rivenduti a società di marketing, data broker o piattaforme pubblicitarie. In pratica, chi gestisce l’estensione non deve fare tutto da solo: può trasformare le conversazioni in una merce preziosa che altre aziende comprano per finalità commerciali. Da qui il telemarketing selvaggio che ci assilla di telefonate indesiderate e di spam nella posta elettronica.
Anche se oggi il loro uso principale è il marketing, questi dati contengono informazioni molto personali con dati sensibili e dettagli importanti della nostra vita privata. In teoria potrebbero finire in mani sbagliate o essere combinati con altre fonti per identificarti personalmente, anche se tu pensavi di rimanere anonimo. Questo aumenta il rischio di furto d’identità, phishing mirato o truffe personalizzate.
Cosa significa per gli utenti
Per comprendere la portata reale e la gravità della questione, occorre spostare lo sguardo dal piano tecnico a quello umano. Le conversazioni con le intelligenze artificiali non assomigliano alle ricerche su un motore di ricerca tradizionale. Gli utenti scrivono in modo discorsivo, spesso intimo, affidando all’IA domande che difficilmente farebbero in pubblico o a un estraneo. C’è chi chiede chiarimenti su una diagnosi medica, chi espone dubbi legali, chi prova a mettere ordine in una situazione finanziaria complessa. In molti casi compaiono dati personali, codici, riferimenti a luoghi, nomi e abitudini.
Sapere che questo materiale potrebbe essere finito in circuiti di analisi commerciale cambia radicalmente la percezione del rischio. Non si parla solo di pubblicità mirata più invasiva. I dataset di questo tipo hanno un valore enorme perché riflettono bisogni autentici. Anche se le aziende coinvolte sostengono di rendere anonimi i dati, sono tanti gli studi che dimostrano quanto sia facile risalire all’identità di una persona incrociando informazioni apparentemente neutre.
Fidarsi è bene, ma non fidarsi è meglio
C’è poi un aspetto legato alla fiducia. Gli utenti tendono a considerare le conversazioni con l’IA come uno spazio semi-privato, una sorta di diario digitale. Questa percezione nasce anche dal modo in cui le piattaforme stesse comunicano, enfatizzando la sicurezza e l’attenzione alla privacy. E invece non si è mai sicuri, perché l’intervento di terze parti che possono letteralmente spiare e annotare tutto ciò che scriviamo, annulla di fatto questi parametri di sicurezza e dobbiamo essere consapevoli che esiste un rischio reale che le chat siano condivise, archiviate e analizzate.
Quello che è successo è che gli utenti non avevano strumenti per capire cosa stesse accadendo. Anche adottando misure di protezione come ad blocker avanzati o configurazioni restrittive del browser, la raccolta dati è stata continuativa e costante.
L’unica azione davvero efficace, secondo i ricercatori, resta la disinstallazione completa delle estensioni, anche se, purtroppo, è una misura tardiva, perché i dati hanno già iniziato il loro percorso fuori dal nostro controllo.
Perché è preoccupante
Il caso delle estensioni che intercettano le chat con le intelligenze artificiali non rappresenta solo un incidente isolato, ma un segnale strutturale. Mostra quanto fragile sia il confine tra strumenti utili e pratiche invasive, soprattutto quando il modello economico si basa sulla raccolta dei dati. Le VPN gratuite e i servizi “privacy-friendly” senza costi diretti hanno da sempre sollevato interrogativi sulla sostenibilità. Nulla è gratis: se non paghi con denaro, significa che paghi con informazioni.
La preoccupazione cresce se si considera il contesto attuale, in cui le IA occupano uno spazio sempre più centrale nella produzione culturale, nel lavoro creativo e nei processi decisionali. Le conversazioni non sono semplici messaggi: raccontano come pensiamo, quali problemi ci poniamo, che tipo di linguaggio usiamo. Rappresentano una materia prima di valore inestimabile per il marketing, la profilazione comportamentale e, potenzialmente, per forme più sofisticate di manipolazione.
C’è anche un problema di governance delle piattaforme. Il fatto che estensioni con comportamenti simili abbiano ottenuto visibilità ufficiale su piattaforme autorevoli come Google e Microsoft, suggerisce limiti nei sistemi di controllo degli store: l’utente si fida del marchio dello store, lo store si affida a controlli automatizzati, e nel mezzo si inseriscono pratiche opache.
Il rischio non riguarda solo il passato. Nulla garantisce che casi simili non si ripetano con altre estensioni o in altri contesti, magari legati a nuovi strumenti di produttività basati sull’IA. Senza un cambio di approccio, il browser rischia di trasformarsi da spazio di intermediazione neutra a luogo di sorveglianza diffusa, dove ogni interazione diventa potenzialmente monetizzabile.
Per questo la vicenda solleva interrogativi che vanno oltre la cronaca.
Consigli pratici
Di fronte a uno scenario così complesso, evitare il panico e puntare sulla consapevolezza diventa essenziale. Il primo passo resta una verifica attenta delle estensioni installate nel proprio browser. Molti utenti accumulano strumenti nel tempo e dimenticano la loro presenza. Rivedere l’elenco, rimuovere ciò che non serve e diffidare di soluzioni “tutto in uno” gratuite rappresenta già una forma di autodifesa digitale.
Un secondo step di protezione riguarda la gestione delle conversazioni con le intelligenze artificiali. Anche se le piattaforme principali dichiarano politiche di sicurezza rigorose, conviene trattare ogni chat come un contenuto potenzialmente esposto. Inserire dati sensibili, informazioni sanitarie dettagliate o elementi finanziari identificabili comporta sempre un rischio. Usare account separati, evitare riferimenti diretti alla propria identità e cancellare periodicamente le chat può ridurre l’impatto di eventuali fughe di dati.
Serve poi una maggiore attenzione ai permessi richiesti dalle estensioni. Accesso a “tutti i siti visitati” o alla “lettura e modifica dei dati” dovrebbe far scattare un campanello d’allarme. Questi permessi non sono automaticamente sinonimo di abuso, ma aprono la porta a possibilità invasive. La trasparenza reale passa anche dalla chiarezza delle informative, che andrebbero lette senza fretta, soprattutto quando si parla di strumenti legati alla sicurezza.
Infine, c’è un ruolo per i media e per le istituzioni. Raccontare casi come questo con precisione, senza sensazionalismi, aiuta a costruire una cultura tecnologica più matura. Allo stesso tempo, i regolatori dovranno interrogarsi su come aggiornare le norme esistenti a un mondo in cui le conversazioni con le macchine diventano una nuova forma di dato personale.
Potrebbe interessarti anche:
Come negare consenso Meta AI su facebook: ecco i link
Chat di gruppo con IA: tutto quello che devi sapere
Come disattivare Meta AI su Facebook, Instagram e WhatsApp: domande e risposte
Virus su Whatsapp: ora c’è anche il pericolo di Sorvepotel
Google Chrome cambierà da solo le tue password: come funziona e perchè
Come usare ChatGPT: tecniche, errori e come ottenere risposte migliori
Meta AI su WhatsApp: scatta l’indagine dell’Antitrust
Foto copertina di Sergei Tokmakov, Esq. https://Terms.Law da Pixabay


