Diagnosi online e parere medico gratuito con l’IA: c’è da fidarsi?

Sempre più persone scelgono di caricare online referti medici, analisi del sangue o immagini diagnostiche e li sottopongono all’interpretazione di chatbot e piattaforme di intelligenza artificiale generativa. Altri si affidano a Dottor Google & C. per sapere a che cosa corrisponde un sintomo piuttosto che un dolore e, peggio ancora, per trovare un farmaco adeguato per queste sintomatologie.

Ma, che molti pazienti o potenziali tali, cercassero diagnosi fai-da-te, è sempre accaduto, solo che un tempo era più faticoso: alcuni, ricorrevano a informazioni su libri e articoli, altri a pareri e esperienze di amici e conoscenti, o più recentemente, a internet.

Quindi, rivolgersi all’intelligenza artificiale generativa è il segno di una nuova abitudine digitale, comoda, rapida, apparentemente innocua?

E ciò, anche se Google, ChatGPT, o qualsiasi altra – e più evoluta – IA che troviamo nel web, non sono medici abilitati, e non fanno parte del sistema sanitario nazionale?

E’ quindi una prassi innocua rivolgersi all’AI?

Anche se, ad oggi, il sistema sanitario, che già dispone di proprie piattaforme web di potenziamento ed efficientamento dell’attività medico diagnostica, non ha ritenuto opportuno utilizzarle per generare direttamente diagnosi online?
Siamo certi che affidarsi ad occhi chiusi a strumenti che, in realtà, non sono pensati – o quanto meno non ancora pronti – ad affrontare situazioni cliniche reali, sia corretto?

Siamo, quindi, di fronte a una nuova abitudine degenerativa? Ad una nuova “malattia autoimmune”?

Non è un azzardo e, soprattutto, ha un grande potere rilevatore, paragonare l’utilizzo dell’AI, per effettuare autodiagnosi, ad una malattia autoimmune. Infatti, nell’organismo umano, una malattia autoimmune si verifica quando il sistema di difesa del corpo inizia ad attaccare sé stesso, scambiando per nemico ciò che invece dovrebbe proteggere. E chi si affida con troppa leggerezza all’intelligenza artificiale per proteggersi — informarsi, sentirsi rassicurato, o peggio, per curarsi — e lo fa senza accorgersi che questa scelta gli si potrebbe ritorcere contro, si comporta in modo simile ad un anticorpo fuori controllo.

Quando ignoriamo il ruolo del medico, svalutiamo l’esperienza umana e deleghiamo a strumenti digitali compiti per i quali non sono stati progettati, stiamo potenzialmente minando la nostra stessa salute. È un atteggiamento che rischia di diventare un gesto autodistruttivo: una sorta di malattia autoimmune digitale, dove la fiducia cieca nella tecnologia finisce per compromettere proprio ciò che intendevamo salvaguardare. Perché in medicina, ogni scorciatoia può essere un falso amico. E ogni eccesso di autonomia può trasformarsi in un errore.

Da E.R. (medici in prima linea) a I.A. (medici online)

Diagnosi online: cosa può fare l’IA?

Per poter procedere con qualsiasi altro ragionamento e/o proporre qualsiasi altra argomentazione è necessario fare una premessa sulla quale credo non ci sia sufficiente chiarezza – e sicuramente non piena consapevolezza.

Le intelligenze artificiali disponibili oggi sul mercato sono sistemi composti da algoritmi e modelli matematici in grado di analizzare enormi quantità di dati in tempi estremamente rapidi. Ed alcuni di questi sistemi, in particolare quelli basati sul machine learning, possono anche apprendere dai dati, migliorando nel tempo le proprie prestazioni.

Spesso si ispirano – in modo semplificato – al funzionamento delle reti neurali del cervello umano, ma – almeno per ora – non pensano, non capiscono e non agiscono come un essere umano. Sono strumenti progettati per simulare aspetti limitati del comportamento umano, come il riconoscimento di schemi o l’elaborazione del linguaggio.

E poi, siamo proprio sicuri di ricordarci che cosa è un algoritmo?

Semplificando, un algoritmo è una sequenza finita di istruzioni precise e ordinate, che descrive come risolvere un problema o raggiungere un determinato obiettivo. È una struttura logica fissa, che però, grazie ad altri modelli e algoritmi, può interagire ed essere in grado – sulla base delle risultanze (cioè le differenze tra input e output) – di modificarsi e migliorarsi. È il famoso machine learning, appunto.

Semplificando ulteriormente, perché nessuno di voi ha voglia di leggere di funzioni primitive ricorsive, ricorsive totali o di complessità computazionale – ed io non vorrei entrare in terreni paludosi, oltretutto riportandovi alla mente la prof di matematica – eviterò di approfondire concetti matematici perché non voglio sviare l’attenzione dall’oggetto del nostro ragionamento: l’utilizzo dell’intelligenza artificiale per ottenere diagnosi online, suggerimenti, cure o semplicemente conforto medico.

Da C.S.I. a Doc (siamo) nelle tue mani

La medicina – la scienza più importante di tutte, ovviamente quando ed esclusivamente se siamo malati – sebbene integri biologia molecolare, biochimica, genetica, matematica, statistica, informatica, e faccia uso di modelli teorici e simulazioni, e sia guidata da protocolli basati su evidenze scientifiche, resta “storicamente e metodologicamente” una scienza empirica.

Una scienza basata sull’osservazione e sull’interpretazione sistematica dei fenomeni biologici e patologici, costruita sull’esperienza accumulata nei decenni di pratiche cliniche. E già detta così non suona affatto rassicurante!

La fiducia nella scienza medica, come scienza esatta, è una delle evidenze di un’epoca che ha fatto della scienza – in senso lato – l’unica e ultima autorità.

La nuova forma di fede, dove per l’appunto si smette di ragionare e si inizia a credere.

E così, ci troviamo a credere ciecamente in scienziati del clima imprevedibile, scienziati dei materiali e scienziati delle costruzioni che crollano, scienziati della nutrizione che ogni lustro invertono le prospettive e stravolgono ciò che ci fa davvero bene mangiare, scienziati comportamentali e scienziati sociali per analizzare delitti senza colpevole, esperti dei RIS e scienziati forensi che passeggiano sul sangue e sputacchiano in faccia ai cadaveri… insomma non importa che siano attendibili ed efficaci, è sufficiente che abbiano la corretta etichetta e noi ci fidiamo.

Ci lasciamo inculcare certezze che diventano dogmi e, come tali, si trasformano in strumenti non tanto di consapevolezza quanto di rassicurazione o di allarme, a seconda delle narrazioni, con la complicità del meraviglioso mondo delle serie TV e delle fiction che pescano i loro copioni a piene mani dai reparti ospedalieri per ricordarci che, prima o poi, potrebbe toccare a noi.

Il punto non è certamente mettere in discussione la scienza in sé, quanto piuttosto il modo in cui viene percepita e comunicata. C’è una differenza sostanziale tra fidarsi della scienza e non farne un oracolo onnisciente. La scienza non ci deve dire cosa pensare, ma offrirci gli strumenti per pensare meglio.

Per questo la crescente abitudine a chiedere risposte mediche ad un motore di ricerca o ad un algoritmo tradisce una bisogno che affonda le radici nelle nostre paure, un bisogno di controllo della realtà ed un bisogno di sicurezza che la scienza non può (e non deve) soddisfare pienamente.

Perché il vero rischio non è che la scienza sbagli. Il vero rischio è chiederle di essere ciò che non è mai stata: infallibile.

Da Doctor House a Doctor Who è un attimo

L’intelligenza artificiale sostituirà il tuo medico di base? 

Negli ultimi anni abbiamo assistito all’esordio e ad una disarmante evoluzione delle capacità e dell’attendibilità delle risultanze della AI. Un ritmo di evoluzione che ha stordito più che sorpreso. E se è vero che la tecnologia che viene resa pubblica è quella superata (vedi INTERNET), viene da pensare che l’IA sarà presto in grado di fare anamnesi più accurate dei medici, perché in grado di analizzare più elementi di qualsiasi Doctor House e, quindi, potrà meglio interpretare gli elementi del puzzle medico ed adattare i protocolli di cura in base alla storia clinica e personale del singolo paziente.

E poi è lecito pensare che nei confronti dell’IA cadrebbero sicuramente molte – se non tutte – le barriere di pudore e/o i timori di giudizio morale e sociale che spesso ci portano a non raccontare tutto al nostro medico. Infine, l’IA non avrà lo studio pieno di pazienti e/o il pronto soccorso intasato, né figli da ritirare da scuola o cene in tavola che attendono…

E sì, il rischio che l’IA sostituisca i medici – e non solo loro – non è del tutto remoto.
Ma oggi, affidarle la nostra salute e/o la semplice diagnosi del più piccolo malessere, è corretto?
Oppure è molto rischioso?

Da Un medico in famiglia a Numb3rs (e senza appuntamento)

Perché sempre più persone cercano pareri medici online?

Tutti abbiamo fede nella scienza e nella tecnologia, e non siamo qui per metterne in dubbio il valore.
Ma se vogliamo partire in maniera apodittica dall’assunto che la matematica non è la nostra modalità di spiegare l’universo ma è la legge che lo governa, possiamo pensare che, qualora programmata in maniera corretta, l’AI è sicuramente in grado di sostituire i medici. Perché possiede in memoria molte più informazioni, è in grado di consultarne in tempo reale, è più rapida, è sempre lucida e mai stanca, etc., insomma sbaglia di meno degli umani, o meglio non sbaglia… anche se, con gli umani condivide una debolezza: anche lei ha la sua “meccanica” la sua fisicità “fallibile”.

Ma l’AI, come l’intero impianto computazionale alla base dell’informatica si basa su di un sistema di semplice stratificazione. Stratificazione che è sempre stata alla base della conoscenza umana dai tempi dell’invenzione della scrittura, e quindi le intelligenze artificiali sono software strutturati per  “imitare” le funzioni cognitive umane, non per sostituirle.

Oppure no?

Oggi sono tecnologie ancora sperimentali, costruite (o rilasciate) per generare risposte plausibili, e non – ad esempio – per valutare una patologia o interpretare un referto, ma domani? Eppure, già oggi, le interpelliamo nei momenti di maggiore vulnerabilità, quando cerchiamo conferme, spiegazioni, rassicurazioni. In quei momenti rischiamo di confondere una risposta statistica per un parere clinico, e di prendere decisioni delicate sulla base di un suggerimento statistico.

Ipocondriaci a parte, lo fanno per due motivi, distinti ma ugualmente radicati. Da un lato, la necessità pratica di ottenere un parere medico (gratis) in tempo reale, senza dover aspettare giorni — o settimane — per un appuntamento con il medico di base, sempre più difficile da raggiungere. Per carità, la sanità è al collasso, i medici di base sono oberati di pazienti, la popolazione è aumentata, il pianeta sta scoppiando e stanno arrivando gli alieni, ma resta il fatto che la prassi ormai consolidata delle visite su prenotazione, anche in presenza di dolori o sintomi preoccupanti (per il paziente), ha trasformato quello che dovrebbe essere un servizio fruibile nell’immediato, in una corsa a ostacoli.

Una procedura accettata con rassegnazione, ma che non rispetta il dovere — sancito — di garantire assistenza tempestiva (se non per situazioni d’urgenza), come “si faceva una volta”, ma tant’è. Così, la scorciatoia digitale appare come la soluzione più rapida e semplice.

Da Grey’s Anatomy a Che Dio ci aiuti

Quali conoscenze ed esperienza ha l’IA per rispondere a questioni mediche?

Dall’altro lato, c’è una fiducia diffusa e spesso incontrollata nella tecnologia. Google e l’intelligenza artificiale vengono trattati come oracoli infallibili, capaci di fornire risposte precise a domande mediche complesse. Si dimentica facilmente — e per alcuni non è ben chiaro o non è noto — che le risposte generate da una IA non nascono da una valutazione clinica del singolo caso.

Sono frutto di modelli statistici, di un confronto con migliaia di casi simili, non identici. Quel che si ottiene non è la risposta, ma una possibile risposta tra tante o, non si ottiene neanche un feedback definitivo, ma solo una delle tante possibili interpretazioni. Ipotesi, a volte utili, a volte fuorvianti. Anzi, il più delle volte, l’intelligenza artificiale restituisce un ventaglio di risultati che spaziano da condizioni lievi fino a patologie gravi, senza escludere scenari estremi come l’ipotesi della morte. Eppure, per chi è in cerca di certezze — o magari è spaventato da un sintomo — quel testo fluido e sicuro sembra tutto ciò di cui si ha bisogno.

Certo, la tentazione è forte: basta un clic per ottenere una “diagnosi” immediata, gratuita e accessibile a qualunque ora. Ma cosa succede davvero quando affidiamo a un algoritmo dati tanto sensibili? E quali sono le competenze effettive di questi sistemi, pensati per generare testo, non per valutare condizioni mediche complesse?

Da Black Mirror a Mr Robot è solo questione di privacy

Possiamo fidarci delle risposte mediche generate dall’IA?

E’ proprio qui che si annidano i rischi più gravi: fidarsi di una diagnosi online, generata automaticamente, senza l’intervento di un medico, significa affidare la propria salute a un algoritmo che non conosce il contesto, non vede il paziente, non ascolta il racconto della sua storia clinica. Molti di questi sistemi — per quanto avanzati — non sono stati progettati per l’uso medico.

Sono modelli linguistici, non strumenti clinici certificati. La loro funzione è generare risposte coerenti a partire da enormi quantità di dati, non formulare valutazioni su uno stato di salute individuale. Il risultato? Risposte che sembrano credibili, ben scritte, spesso rassicuranti — ma che non hanno alcuna validazione medica. Una radiografia può essere interpretata con superficialità, un valore fuori norma letto fuori contesto. Il rischio di ricevere un’analisi errata è altissimo. E la persona che legge, in buona fede, potrebbe prendere decisioni gravi — interrompere un farmaco, evitare un consulto medico, sottovalutare un sintomo — sulla base di un parere senza autore.

Intanto, mentre cerchiamo risposte, lasciamo in rete dati personali delicatissimi, spesso senza sapere dove finiranno. Già, dove finiscono i nostri referti caricati online e i nostri dati sensibili?

Da Westworld a Un giorno in Pretura, il passo è breve

Cosa succede ai nostri dati sanitari caricati online?

Quando si carica un documento sanitario su una piattaforma digitale, si sta affidando qualcosa di estremamente intimo a un sistema che — spesso — opera senza trasparenza. Il Garante per la privacy lo ha ribadito più volte: è fondamentale leggere le informative e capire se quei dati verranno cancellati, archiviati o usati per addestrare futuri modelli. Ma quanti lo fanno? E quanti sanno che non farlo può significare cedere inconsapevolmente i propri dati sanitari a scopi commerciali?

Molti dei sistemi più noti danno agli utenti la possibilità di decidere il destino dei dati caricati. Ma questa opzione è spesso nascosta tra le righe piccolissime della informativa sulla privacy, che sistematicamente (quasi) nessuno legge, e quelli che lo fanno possono trovare difficoltà nel trovare difficoltà nell’interpretazione. In pratica, si finisce per accettare tutto — termini, condizioni, clausole — senza sapere davvero a cosa si sta acconsentendo. Nel caso di informazioni sanitarie, questo è un problema serio: una volta diffusi, certi dati non tornano indietro.

E non si tratta solo di privacy violata. Le informazioni mediche possono essere utilizzate per profilazioni, per alimentare algoritmi, per sviluppare software che magari un giorno verranno venduti. Senza che chi ha caricato il proprio referto riceva nulla in cambio. Se poi il dato finisce per errore o incuria in mani sbagliate, il danno diventa irreparabile.

Quali sono le indicazioni del Garante per la privacy sull’IA e i dati sanitari?

Di fronte a questo fenomeno in crescita, il Garante per la privacy interviene con una serie di indicazioni precise. La prima: le decisioni mediche devono restare saldamente in mano ai professionisti. Nessuna piattaforma, per quanto avanzata, può fornire diagnosi affidabili o sostituirsi al medico. L’intelligenza artificiale non deve entrare nel processo decisionale se non attraverso strumenti certificati, testati e sempre gestiti da personale sanitario. L’idea che l’IA possa “dare una mano” nella lettura di esami è fuorviante: i sistemi generativi non sono strumenti clinici.

Altro punto chiave: la gestione dei dati. Il Garante chiede alle aziende che sviluppano questi sistemi di chiarire in modo trasparente cosa succede ai referti e agli esami caricati. I cittadini devono sapere se i propri dati vengono cancellati subito dopo l’uso, o se invece finiscono nei circuiti di addestramento dell’algoritmo. Una trasparenza che oggi, troppo spesso, è assente o relegata in informative complicate e di difficile accesso.

Il Garante solleva poi una questione meno visibile, ma fondamentale: il web scraping. È la raccolta automatica di informazioni dal web da parte dei modelli di intelligenza artificiale, e coinvolge anche dati sanitari pubblicati in modo inconsapevole su forum, blog, siti personali. L’Autorità invita a limitare o regolamentare severamente questa pratica, soprattutto quando tocca contenuti così delicati.

Infine, il Garante rilancia i principi già espressi nel decalogo pubblicato nell’ottobre 2023: ogni utilizzo dell’IA in ambito sanitario deve poggiare su basi legali solide, valutazioni di rischio ben documentate, obblighi di sicurezza e responsabilità chiare.

immagine di copertina generata con IA Bing

Potrebbe interessarti anche:

Il tuo medico di base sarà sostituito dall’intelligenza artificiale?

Protezione dei dati personali: cosa fa il Garante?

AI Act: il Garante scrive a Parlamento e Governo

Intelligenza Artificiale può prevedere evoluzione Parkinson, lo studio italiano

Tina Rossi
Tina Rossi
(a.k.a. Fulvia Andreatta) Editrice. Una, nessuna e centomila, il suo motto è “è meglio fingersi acrobati, che sentirsi dei nani” Dice di sé:” Per attimi rimango sospeso nel vuoto,giuro qualche volta mi sento perduto, io mi fido solo del mio strano istinto, non mi ha mai tradito, non mi sento vinto, volo sul trapezio rischiando ogni giorno, eroe per un minuto e poi...bestia ritorno...poi ancora sul trapezio ad inventare un amore magari...è solo invenzione, per non lasciarsi morire...”
Logo Radio