E’ nato il primo farmaco generato con IA: tra vantaggi e progresso, quali rischi e quali nuove sfide? Editoriale di Tina Rossi
Un nuovo farmaco generato con IA è pronto per la seconda fase di sviluppo, quella che prevede la sperimentazione sull’essere umano. La notizia pubblicata su Focus annuncia la nascita del primo farmaco completamente creato con intelligenza artificiale. Si chiama DPS-1181 ed è frutto di una collaborazione tra due aziende, una britannica e l’altra giapponese, che attraverso un sistema di IA (Centaur Chemist) ha creato un farmaco per il trattamento di diversi disturbi ossessivo compulsivi.
Tempo di impiego: 12 mesi, a fronte di un tempo stimato in cinque anni, se si seguiva un processo tradizionale di ricerca.
Due precisazioni.
La prima: la notizia non è poi così recente, poichè la BBC pubblicava già nel 2020 un servizio in cui annunciava la nascita proprio di questo farmaco, correlato ad un’intervista con il prof. Andrew Hopkins, amministratore delegato di Exscienta (l’azienda britannica).
La seconda: non è proprio il primo farmaco, o meglio, l’unico, ad essere generato con IA. Insilico Medicine rivendica la paternità del primo medicinale sviluppato con IA, INS018_055, progettato per la cura della fibrosi polmonare idiopatica.
Perchè è interessante fare queste precisazioni? Perchè colgono esattamente il senso dei dubbi.
La ricerca farmaceutica è storicamente caratterizzata da un processo lungo, costoso e incerto. La scoperta e lo sviluppo di nuovi farmaci richiedono anni di ricerca e sperimentazione, con una percentuale significativa di potenziali candidati che non superano mai le fasi di sviluppo clinico. Con l’impiego dell’intelligenza artificiale (IA), questo panorama sta subendo una trasformazione epocale. Questo approccio mirato promette di trasformare radicalmente il modo in cui vengono trattate le malattie, consentendo cure più efficaci e con meno effetti collaterali.
Ma la “corsa agli armamenti” farmaceutici crea una pericolosa competizione che può avere molteplici ripercussioni sia sulla validità dei farmaci che sulla loro efficacia e sicurezza. Senza contare i risvolti derivanti dalle dinamiche economiche e di potere che regolano il settore dell’industria farmaceutica.
“Il bene della scienza” e “dell’umanità” sono in cima alla lista delle motivazioni, almeno sulla carta perchè, nonostante i suoi numerosi vantaggi, il progressivo uso della tecnologia nel campo della ricerca presenta non poche sfide e, soprattutto, non pochi rischi.
Indice
Le nuove sfide dell’industria farmaceutica
Le sfide tradizionali della ricerca farmaceutica sono molteplici e complesse. Una delle prime sfide è rappresentata dalla vastità e dalla complessità dei dati da elaborare. L’IA affronta questo problema con la sua capacità di analizzare grandi set di dati in modo estremamente veloce.
Attraverso algoritmi di machine learning e tecniche di data mining, l’IA può individuare correlazioni e pattern nei dati in tempi straordinariamente brevi e con una capacità di individuazione degli elementi nettamente al di là della portata delle capacità umane. Questo ha consentito agli scienziati di scoprire nuovi principi attivi, ottimizzare molecole esistenti e prevedere l’efficacia e gli effetti collaterali dei farmaci in fase di sviluppo e di identificare nuovi bersagli terapeutici e di esplorare vie di ricerca precedentemente inesplorate.
Inoltre, l’IA può contribuire a superare la sfida della complessità molecolare. La ricerca di nuovi principi attivi richiede la valutazione di un numero incredibile di molecole e delle loro interazioni con il corpo umano. L’IA può svolgere un ruolo fondamentale nella progettazione di molecole con proprietà specifiche, accelerando il processo di scoperta e riducendo la dipendenza dalle metodologie di screening tradizionali.
Un’altra sfida significativa è rappresentata dalla predizione dell’efficacia e degli effetti collaterali dei potenziali farmaci. La tecnologia innovativa può aiutare a individuare modelli predittivi basati su dati clinici, molecolari e genomici, consentendo agli scienziati di valutare in modo più accurato il potenziale terapeutico di un candidato farmaco e di identificare precocemente eventuali rischi per la sicurezza.
Inoltre, l’IA può contribuire a ottimizzare i processi di screening e di sviluppo clinico, riducendo i tempi e i costi associati. Attraverso la simulazione virtuale di studi clinici, l’IA può identificare le strategie più promettenti per la conduzione di sperimentazioni cliniche, ottimizzando il design dello studio e riducendo il rischio di fallimento.


I rischi
Nonostante i numerosi vantaggi offerti dall’intelligenza artificiale nella ricerca farmaceutica, il suo utilizzo comporta anche una serie di rischi da affrontare. Uno dei principali rischi è legato alla sicurezza e alla privacy dei dati. Con l’IA che analizza e manipola grandi quantità di informazioni sensibili, è fondamentale garantire che i dati siano protetti da accessi non autorizzati e utilizzi impropri.
Inoltre, vi è il rischio di disuguaglianze sociali nell’accesso e nell’utilizzo dei benefici derivanti dall’IA. Le società farmaceutiche più grandi e le startup più ricche potrebbero essere in grado di sfruttare appieno le potenzialità dell’IA, mentre le organizzazioni più piccole o meno finanziate potrebbero trovarsi in una posizione svantaggiata.
Un’altro rischio significativo si individua nella regolamentazione dell’uso dell’IA nella ricerca farmaceutica. Le normative attuali potrebbero non essere sufficienti a gestire adeguatamente le complessità e i rischi associati all’impiego dell’IA, richiedendo un costante aggiornamento e adattamento delle leggi e delle politiche.
Ma il pericolo maggiore è, come sempre, l’uso improprio. Se non utilizzata correttamente, i risultati possono inaccurati o fuorvianti, compromettendo l’efficacia e la sicurezza dei farmaci sviluppati. È quindi essenziale garantire una rigorosa validazione e verifica dei modelli e degli algoritmi utilizzati dall’IA per evitare potenziali conseguenze negative sulla salute dei pazienti.
Sebbene anche nel campo della medicina, l’IA si stia dimostrando particolarmente preziosa nel guidare lo sviluppo di trattamenti farmacologici su misura per le esigenze individuali dei pazienti, tenendo conto del loro patrimonio genetico, dello stile di vita e delle condizioni mediche specifiche, l’uso dell’IA nella ricerca farmaceutica presenta anche sfide significative, sia dal punto di vista etico che regolamentare. È quindi fondamentale affrontare queste questioni con attenzione, garantendo che l’innovazione sia accompagnata da una rigorosa considerazione dei rischi e delle implicazioni.


Rischi biologici, competitività e sicurezza
Partendo dall’animo umano e dalle sue deviazioni, il primo rischio è, ovviamente, l’abuso potenziale.
Gli individui potrebbero deliberatamente impiegare potenti sistemi di intelligenza artificiale per causare danni biologici su vasta scala. L’intelligenza artificiale potrebbe essere impiegata per concepire nuove pandemie, oppure potrebbe essere rilasciata per perseguire autonomamente obiettivi dannosi. Per mitigare questi rischi, suggerisce di potenziare la biosicurezza, di limitare l’accesso a modelli di intelligenza artificiale pericolosi e di attribuire responsabilità agli sviluppatori di intelligenza artificiale per eventuali danni causati.
Il rischio biologico è quello che desta una maggiore preoccupazione tra le competenze dell’IA. Stiamo ancora vivendo l’incubo del Covid-19. Una pandemia mai vista nella storia della razza umana che ha messo in ginocchio il mondo intero.
Un virus scappato, in qualche modo, da un laboratorio? Non lo sapremo mai. La cosa che sappiamo però è che una mutazione-evoluzione di un semplice virus influenzale ha causato una catastrofe mondiale. IA Safety riporta che nel 2022, i ricercatori hanno riproposto un sistema di intelligenza artificiale di ricerca medica al fine di produrre molecole tossiche, generando 40.000 potenziali agenti chimici in poche ore.
Non è rassicurante per nulla.
Il secondo rischio è la competitività.
La corsa tra nazioni e aziende per lo sviluppo dell’IA potrebbe portare a una perdita di controllo su tali sistemi. I conflitti potrebbero sfuggire al controllo con l’impiego di armi biologiche autonome e guerra informatica basata sull’intelligenza artificiale. Con la diffusione crescente di sistemi di IA, diventerà sempre più difficile controllarli. Diventa quindi prioritario un sistema che regolamenti l’implementazione di norme di sicurezza, il coordinamento internazionale e il controllo pubblico dell’IA per utilizzi generici.
IA Safety li chiama rischi organizzativi. In pratica, evidenzia i rischi associati allo sviluppo di intelligenza artificiale avanzata da parte delle organizzazioni. Questi rischi includono la possibilità di incidenti catastrofici, soprattutto se le aziende mettono il profitto al di sopra della sicurezza. Le IA potrebbero essere rilasciate accidentalmente al pubblico o rubate da individui con cattive intenzioni. Le organizzazioni potrebbero non investire sufficientemente nella ricerca sulla sicurezza per prevenire tali incidenti.
Il pensiero dell’IA Safety Center
“Crediamo che l’intelligenza artificiale (AI) abbia il potenziale per avvantaggiare profondamente il mondo, a condizione che possiamo svilupparlo e utilizzarlo in modo sicuro. Tuttavia, a differenza dei drammatici progressi nell’IA, molti problemi di base nella sicurezza dell’IA devono ancora essere risolti. La nostra missione è quella di ridurre i rischi su scala sociale associati all’intelligenza artificiale conducendo ricerche sulla sicurezza, costruendo il campo dei ricercatori sulla sicurezza dell’IA e sostenendo gli standard di sicurezza.
L’intelligenza artificiale (IA) possiede il potenziale per beneficiare e far progredire la società. Come qualsiasi altra tecnologia potente, l’intelligenza artificiale comporta anche rischi intrinseci, compresi alcuni che sono potenzialmente catastrofici”.
Potrebbe interessarti anche:
La razza umana si estinguerà a causa dell’Intelligenza Artificiale?
Microchip nel cervello per comunicazioni telepatiche: dove finiremo?
Legge IA: reclusione fino a 5 anni per chi danneggia
Banche e IA: ecco come l’ RPD Protegge la Privacy
Un coniglio da mettere in tasca: arriva Rabbit R1
Crimini informatici e Hacktivism: Italia nel mirino degli hackers
Scansione dell’iride in cambio di soldi (criptovalute)? Occhio alla privacy!