Nel mondo digitale, l’errore più grande è credere che tutto sia gratis. I servizi, le app, le piattaforme: sembrano doni generosi, ma spesso si pagano in un’altra valuta, più preziosa e più vulnerabile: i dati personali. Dietro ogni registrazione, ogni clic, ogni voce che comanda un assistente virtuale, ci sono frammenti della nostra identità.
Nel 2024, il Garante per la protezione dei dati personali ha lavorato senza sosta per difendere quella parte nascosta e fondamentale della nostra vita. Ma cosa ha fatto davvero? E con quali risultati?
La sua privacy vale più di un like?
Cosa ha fatto il Garante per proteggere i bambini online
Nel 2024, il Garante ha preso una posizione netta su un fenomeno diventato normalità per molti genitori: postare foto, video e storie dei figli sui social. Non si tratta solo di intimità esposta, ma di diritti minimi negati a chi non può difendersi. Il Garante ha lanciato una campagna dal titolo semplice ma potentissimo, “La sua privacy vale più di un like”. Un progetto volto a sensibilizzare le famiglie sul pericolo dello sharenting, cioè l’esposizione sistematica dei minori online, spesso senza comprenderne le conseguenze.
Ma non è stata solo comunicazione. Il Garante ha lavorato anche in concreto, bloccando contenuti, sanzionando chi usava immagini di bambini per fini commerciali e avviando un dialogo con le piattaforme perché attivino filtri più efficaci e meccanismi di segnalazione dedicati ai minori. L’approccio non è stato repressivo, ma preventivo: creare cultura prima che si debba intervenire con rigore. La difesa dei diritti digitali dei minori è diventata una priorità quotidiana, non un tema da convegni.
Leggi qui l’articolo Foto di figli sui social? La sua privacy vale più di un like)
Web scraping: chi si nutre dei nostri dati senza chiedere?
L’azione del Garante contro il saccheggio invisibile del web
Uno dei fenomeni più subdoli dell’era dell’intelligenza artificiale è il web scraping: la raccolta automatizzata di dati pubblici online per alimentare algoritmi, modelli linguistici, strumenti predittivi. Dietro le quinte, i nostri post, le recensioni, le opinioni e perfino i profili personali diventano materiale grezzo per tecnologie che decidono cosa vedremo, cosa ci verrà offerto, cosa verrà detto su di noi.
(Leggi qui l’articolo Webscraping, ovvero come ricavare dati da un sito web)
Nel 2024, il Garante ha posto uno stop forte e pubblico al far west dei dati. Ha aperto un’istruttoria sull’uso dei contenuti informativi da parte delle aziende tecnologiche, segnalando i rischi della profilazione di massa e dell’assenza di consenso. E ha inviato un avvertimento formale a un grande gruppo editoriale italiano, sollevando dubbi sulla possibile vendita di archivi giornalistici a fini di training per AI. Il messaggio è stato chiaro: la pubblicità di un dato non lo rende di libero utilizzo. I contenuti non sono materia prima gratuita. Dietro ogni commento, ogni frase, c’è una persona. E questo non si può ignorare.
(Leggi qui l’articolo Accesso a dati personali e web scraping: come difendersi)
Ogni volta che apriamo un post o anche solo un contenuto per leggere una notizia online, accettiamo in maniera a volte esplicita, a volte implicita, una serie di condizioni e termini e questo signicfica che lasciamo inconsapevolmente, una scia di dati personali che finiscono nei database di quel sito. Malgrado le regole azionali ed europee, esiste però un mercato estero che si nutre di questi dati sensibili che poi vengono rivenduti ad aziende o utilizzati per addestrare algoritmi e intelligenza artificiale.
(Leggi qui l’articolo Dati Personali: cosa succede quando leggiamo un articolo online?)
Intelligenza artificiale: chi controlla chi ci controlla?
L’intervento del Garante su ChatGPT e le nuove frontiere dell’IA
Il 2024 è stato l’anno della normalizzazione dell’IA. Strumenti come ChatGPT sono diventati familiari a milioni di italiani. Ma dietro la meraviglia per le risposte generate in pochi secondi, si nasconde un problema enorme: su quali basi queste tecnologie vengono addestrate? E quali diritti ha l’utente quando viene “analizzato” da una macchina?
Il Garante non è certo rimasto indietro. Ha avviato un’istruttoria completa su OpenAI, che si è conclusa con una sanzione da 15 milioni di euro e l’obbligo di una campagna informativa per garantire trasparenza sull’uso dei dati. Non è stata una semplice multa: è stato il primo vero argine europeo a un modello di IA generativa commerciale. E, ancora più importante, ha innescato un effetto domino: altre Autorità si sono mosse, il tema è arrivato al G7, e l’Italia è diventata protagonista nella firma della Convenzione-quadro sull’IA del Consiglio d’Europa. Il Garante ha dimostrato che non si può innovare violando, e che non è progresso quello che cancella la dignità individuale.
Revenge porn: si può intervenire prima che sia troppo tardi?
Come il Garante ha bloccato contenuti sessualmente espliciti prima della pubblicazione
Dietro un dato allarmante (+200% di segnalazioni di revenge porn nel 2024) ci sono volti, storie, vite rovinate. Donne e uomini traditi nella fiducia, esposti senza pietà. In un sistema digitale dove la velocità vince spesso sulla giustizia, il Garante ha mostrato che la tutela può essere anche immediata. Ha attivato procedure accelerate, collaborando con piattaforme e forze dell’ordine, per bloccare contenuti prima della pubblicazione.
Ha costruito una rete di collaborazione operativa, non solo giuridica. Il lavoro è stato invisibile, ma fondamentale: ha evitato danni irreparabili, dato fiducia a chi non sapeva a chi rivolgersi, trasformato un reclamo in una barriera concreta contro la violenza. E ha rilanciato: servono strumenti educativi, tecnici e normativi per trattare il revenge porn non come un incidente, ma come una forma strutturata di abuso da contrastare sistematicamente.
Il riconoscimento facciale può costare… un’occhio della testa!
Perché il Garante ha detto no a Worldcoin e all’uso distorto del riconoscimento facciale
Un’azienda promette criptovalute in cambio della scansione dell’iride. Fantascienza? No, marketing digitale avanzato. Il progetto Worldcoin è arrivato anche in Italia e il Garante ha reagito con rapidità, aprendo un’istruttoria immediata e coinvolgendo le Autorità europee. Il rischio? Che la biometria diventasse moneta di scambio, con effetti irreversibili sulla privacy e l’identità.
Allo stesso tempo, il Garante ha vietato a una piattaforma di food delivery di usare sistemi di riconoscimento facciale per “verificare” i propri rider. Il controllo non può diventare una forma di sorveglianza continua. Il messaggio è stato inequivocabile: i dati biometrici sono tra i più sensibili, e non possono essere banalizzati, né imposti. Ogni volto è unico. Trattarlo come una password è un rischio troppo grande.
E, a proposito di password, il Garante ha stilato delle vere e proprie linee guida rivolte sia agli utenti, per educare in merito all’importanza di proteggersi con password efficaci e come crearle, sia alle aziende responsabili della conservazione delle password e dei dati personali raccolti, fornendo preziosi contributi per difendersi dagli attacchi di cybercriminali.
(Leggi qui l’articolo Scansione dell’iride in cambio di soldi (criptovalute)? Occhio alla privacy!)
Chi protegge davvero i nostri figli online?
L’azione del Garante contro il tracciamento dei minori da parte di app e social
I minori sono la fascia più fragile e più esposta nel mondo digitale. E spesso, le app, i giornali online e i social che usano ogni giorno non hanno alcun freno nel raccogliere dati su di loro: abitudini, preferenze, posizione, persino informazioni scolastiche. Nel 2024, il Garante ha deciso di agire in modo concreto per fermare il tracciamento invisibile dell’infanzia.
Ha avviato verifiche approfondite su app usate da adolescenti, ottenendo la rimozione di funzionalità invasive, e ha messo sotto osservazione gli strumenti di profilazione automatica utilizzati da social network e piattaforme di gioco. Ma non si è limitato al controllo. Ha lavorato fianco a fianco con le scuole, avviando progetti educativi e campagne di sensibilizzazione per spiegare a studenti, insegnanti e famiglie che la privacy non è un lusso, ma una difesa attiva della propria libertà. Il messaggio non è stato paternalistico, ma responsabilizzante: anche i più giovani possono scegliere consapevolmente. Basta dar loro gli strumenti per farlo.
Perché il tuo certificato medico non dovrebbe finire su Google?
L’impegno del Garante per la riservatezza nei servizi sanitari digitali
Con la sanità sempre più digitalizzata, il rischio è che la burocrazia dimentichi la persona. Il 2024 ha visto il Garante intervenire più volte per evitare che dati sanitari, diagnosi e informazioni delicate finissero esposti o condivisi in modo scorretto.
Ha chiesto la modifica delle informative per i pazienti, ha sanzionato strutture che inviavano documenti sensibili via email senza misure di sicurezza, ha chiuso falle nei sistemi online delle ASL e ha guidato la stesura di nuove regole per la trasparenza. Ha anche affrontato un paradosso ricorrente: la diffusione di atti sanitari per motivi “di pubblico interesse”, che spesso si traduce in una inaccettabile esposizione delle fragilità individuali. Ogni referto, ogni cartella clinica, è un pezzo della nostra storia personale. E non può diventare pubblico per negligenza, automatismo o superficialità. Il Garante ha ricordato che anche l’efficienza deve fermarsi davanti al rispetto.
(leggi qui l’articolo Diritto alla privacy e sanità: cosa succede dopo la morte?)
Chi decide quanto deve valere un nostro errore passato?
La difesa dell’oblio digitale e il diritto a ricominciare
In un’epoca in cui tutto viene archiviato, conservato, riproposto, il diritto all’oblio è diventato più urgente che mai. Il Garante ha ricevuto centinaia di segnalazioni da persone che si sono viste inchiodate a un errore, a un articolo, a una sentenza vecchia di anni, ancora oggi facilmente reperibile online, perchè nel meraviglioso mondo digitale del web tutto quello che entra, resta per sempre.
Nel 2024, l’Autorità ha riaffermato il principio secondo cui le informazioni non sono eterne per definizione. Ha ottenuto la deindicizzazione di link lesivi, la rimozione di contenuti ormai non più pertinenti, e ha fornito indicazioni chiare a redazioni e motori di ricerca su come bilanciare diritto di cronaca e tutela individuale. Il punto non è cancellare la memoria storica. È riconoscere il diritto a non essere definiti per sempre da una pagina di Google. Anche sul web, le persone devono poter cambiare.
Perché siamo più sorvegliati al lavoro che a casa?
L’intervento del Garante sulla protezione dei dati nei luoghi di lavoro
Nel 2024, il Garante ha ricevuto un numero crescente di segnalazioni da lavoratori sottoposti a controlli digitali invasivi. Non solo badge e videocamere, ma app che tracciano spostamenti, software che registrano digitazioni, sistemi biometrici imposti per l’accesso. La linea tra efficienza e sorveglianza si fa sempre più sottile.
L’Autorità ha reagito con decisione, imponendo limiti precisi all’uso dei dati sul posto di lavoro, ricordando che nemmeno un contratto può giustificare la perdita della propria riservatezza. In particolare, ha bloccato l’uso del riconoscimento facciale per il controllo dei rider e ha avviato ispezioni su aziende che tracciavano i dipendenti anche fuori dall’orario di servizio. Il messaggio è stato forte: il posto di lavoro non può diventare uno spazio senza diritti. Monitorare la produttività non può giustificare strumenti che violano la sfera personale.
La privacy non è un limite, è una garanzia
Il ruolo del Garante nella costruzione dell’etica digitale europea
Il 2024 non è stato solo l’anno delle sanzioni o dei blocchi. È stato anche l’anno in cui il Garante ha contribuito attivamente alla definizione di regole nuove per un mondo nuovo. Ha partecipato ai lavori del G7 sotto presidenza italiana, dove si è discusso di intelligenza artificiale, diritti umani e governance tecnologica. E ha dato un contributo decisivo alla firma della Convenzione-quadro del Consiglio d’Europa sull’IA, primo trattato internazionale sul tema.
Non è solo diplomazia. È la consapevolezza che nessuna Autorità nazionale, da sola, può affrontare sfide globali come la monetizzazione dei dati o la profilazione predittiva. Il Garante ha dimostrato che l’Italia non solo può stare al passo, ma può anche guidare, proporre, tracciare strade. La privacy, oggi, è il terreno dove si gioca la nuova democrazia.
Perché la privacy continua a essere una priorità?
In un mondo digitale in cui i dati personali sono sempre più al centro di ogni attività online, la tutela della privacy non è un tema secondario né superato. Il lavoro svolto dal Garante nel 2024 dimostra quanto sia necessario un controllo attivo e costante per garantire che i diritti delle persone non vengano sacrificati sull’altare dell’innovazione tecnologica.
L’Autorità ha affrontato sfide complesse, intervenendo in settori delicati come l’intelligenza artificiale, la sanità digitale, il lavoro e la protezione dei minori online. Grazie a un’attività che combina vigilanza, sanzioni e campagne di sensibilizzazione, il Garante ha dimostrato che è possibile trovare un equilibrio tra sviluppo tecnologico e rispetto della persona.
La privacy, dunque, resta un pilastro imprescindibile per una società digitale che vuole essere inclusiva e trasparente, dove i dati non diventano strumenti di sfruttamento, ma elementi tutelati a beneficio di tutti.
Foto copertina di Schluesseldienst da Pixabay