La razza umana si estinguerà a causa dell’Intelligenza Artificiale?

L’intelligenza artificiale può portare all’estinzione della razza umana? Editoriale di Tina Rossi.

Se vi sembra una visione apocalittica esagerata, degna di un film di Spielberg, sappiate che questa è una questione al vaglio di super esperti mondiali e non sono dei registi di Hollywood.

L’uso controllato (per ora) dell’IA è una questione che ha portato l’Europa a sottoscrivere l’AI Act e l’Italia, qualche giorno fa, ha varato la prima legge in merito all’uso e all’abuso dell’intelligenza artificiale, proprio in tutela dei diritti umani e, per estensione, della razza umana.

Certo, le visioni, come sempre, appartengono ai punti di vista. Il bicchiere mezzo vuoto o mezzo pieno.

Personalmente ho sempre pensato che il bicchiere sia sempre pieno in ogni caso, solo che è colmo di due elementi diversi: l’acqua e l’aria.

Questione di punti di vista.

Quindi, gli autorevoli pareri dei super esperti in materia di tecnologia e sicurezza internazionale si dividono in due: ottimisti e pessimisti.

Sul pensiero ottimista, non spenderei troppe parole, in quanto non è di rassicurazione ciò di cui abbiamo bisogno, ed eviterei anche i pessimisti, perchè non è di paura che abbiamo bisogno. Quindi ci resta il bicchiere sempre pieno, cioè una consapevole relazione sui rischi di estinzione che incorre la razza umana.

Mitigare il rischio di estinzione dell’Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“. Questa dichiarazione è apparsa, giusto un anno fa, sul sito del Center for AI Safety, un’organizzazione no-profit di ricerca e costruzione sul campo di San Francisco (fonte Ansa).

Il pensiero dell’IA Safety

Crediamo che l’intelligenza artificiale (AI) abbia il potenziale per avvantaggiare profondamente il mondo, a condizione che possiamo svilupparlo e utilizzarlo in modo sicuro. Tuttavia, a differenza dei drammatici progressi nell’IA, molti problemi di base nella sicurezza dell’IA devono ancora essere risolti. La nostra missione è quella di ridurre i rischi su scala sociale associati all’intelligenza artificiale conducendo ricerche sulla sicurezza, costruendo il campo dei ricercatori sulla sicurezza dell’IA e sostenendo gli standard di sicurezza.

L’intelligenza artificiale (IA) possiede il potenziale per beneficiare e far progredire la società. Come qualsiasi altra tecnologia potente, l’intelligenza artificiale comporta anche rischi intrinseci, compresi alcuni che sono potenzialmente catastrofici”.

E questo è un pensiero attuale, pubblicato sempre sul sito di IA Safety.

Quali sono i rischi “intrinsechi” a cui si può incorrere?

Dunque, non è fantascienza. L’estinzione della razza umana è una possibilità reale.

I rischi ci sono e sono “potenzialmente catastrofici

Partendo dall’animo umano e dalle sue deviazioni, IA Safety spiega che il primo rischio è, ovviamente, l’abuso potenziale.

Gli individui potrebbero deliberatamente impiegare potenti sistemi di intelligenza artificiale per causare danni su vasta scala. L’intelligenza artificiale potrebbe essere impiegata per concepire nuove pandemie, propagare la propaganda, esercitare censura e sorveglianza, oppure potrebbe essere rilasciata per perseguire autonomamente obiettivi dannosi. Per mitigare questi rischi, suggerisce di potenziare la biosicurezza, di limitare l’accesso a modelli di intelligenza artificiale pericolosi e di attribuire responsabilità agli sviluppatori di intelligenza artificiale per eventuali danni causati.

Il rischio biologico è quello che desta una maggiore preoccupazione tra le competenze dell’IA. Stiamo ancora vivendo l’incubo del Covid-19. Una pandemia mai vista nella storia della razza umana che ha messo in ginocchio il mondo intero.

Un virus scappato, in qualche modo, da un laboratorio? Non lo sapremo mai. La cosa che sappiamo però è che una mutazione-evoluzione di un semplice virus influenzale ha causato una catastrofe mondiale. IA Safety riporta che nel 2022, i ricercatori hanno riproposto un sistema di intelligenza artificiale di ricerca medica al fine di produrre molecole tossiche, generando 40.000 potenziali agenti chimici in poche ore.

Non è rassicurante per nulla.

Se poi pensiamo che l’IA ha superato la capacità dell’essere umano di generare strutture proteiche e di sintetizzare proteine, stiamo davvero andando verso un futuro in cui l’ipotesi dell’estinzione non è poi così astratta. E non voglio parlare delle persone che possono acquisire le capacità di usare l’intelligenza artificiale per sviluppare nuovi agenti patogeni e dare il via a un’altra pandemia ingegnerizzata.

Il secondo rischio è la competizione.

La corsa tra nazioni e aziende per lo sviluppo dell’IA potrebbe portare a una perdita di controllo su tali sistemi. I conflitti potrebbero sfuggire al controllo con l’impiego di armi autonome e guerra informatica basata sull’intelligenza artificiale. Le aziende potrebbero essere spinte ad automatizzare il lavoro umano, causando disoccupazione di massa e dipendenza da sistemi di IA. Con la diffusione crescente di sistemi di IA, diventerà sempre più difficile controllarli. Diventa quindi prioritario un sistema che regolamenti l’implementazione di norme di sicurezza, il coordinamento internazionale e il controllo pubblico dell’IA per utilizzi generici.

In merito a questo rischio, stiamo tutti vedendo e vivendo un periodo in cui ogni campo è invaso (letteralmente) da applicazioni dell’intelligenza artificiale, tali per cui innovazione e disoccupazione diventano un binomio che cresce in maniera direttamente proporzionale.

Molti mestieri e, ben presto, anche le professioni, rischiano davvero di essere completamente automatizzati, producendo di fatto una sorta di estinzione della manodopera.

Se possiamo trovare divertente la cameriera robot che prende le comande e sparecchia. Meno divertente è constatare che a breve il settore che si svuoterà di manodopera, implementando i costi di gestione, come è già successo nelle fabbriche con i processi di automazione della produzione.

Per non parlare della corsa agli armamenti. Il passato insegna, anche se poi l’umanità dimentica.

estinzione razza umana
La razza umana rischia l’ estinzione a causa dell’Intelligenza Artificiale?

Terzo rischio: la sicurezza informatica.

IA Safety li chiama rischi organizzativi. In pratica, evidenzia i rischi associati allo sviluppo di intelligenza artificiale avanzata da parte delle organizzazioni. Questi rischi includono la possibilità di incidenti catastrofici, soprattutto se le aziende mettono il profitto al di sopra della sicurezza. Le IA potrebbero essere rilasciate accidentalmente al pubblico o rubate da individui con cattive intenzioni. Le organizzazioni potrebbero non investire sufficientemente nella ricerca sulla sicurezza per prevenire tali incidenti.

Per affrontare questi rischi, consiglia di promuovere una cultura aziendale orientata alla sicurezza, che ponga la sicurezza come una priorità fondamentale. Ciò potrebbe includere l’implementazione di rigorosi audit, difese contro il rischio a più livelli e tecnologie di sicurezza delle informazioni all’avanguardia. In sostanza, l’approccio dovrebbe essere proattivo e mirato a prevenire potenziali incidenti catastrofici causati da IA avanzata.

Ultimo rischio: IA fuori controllo

IA Safety sostiene che rischiamo di perdere il controllo sulle IA man mano che diventano più capaci. Le IA potrebbero ottimizzare gli obiettivi imperfetti, allontanarsi dai loro obiettivi originali, diventare in cerca di energia, resistere allo spegnimento e impegnarsi nell’inganno. Per avere un margine di sicurezza, le IA non dovrebbero essere implementate in contesti ad alto rischio, ad esempio perseguendo autonomamente obiettivi a risposta aperta o supervisionando infrastrutture critiche, a meno che non siano testate sicure. Infine, IA Safety raccomanda di promuovere la ricerca sulla sicurezza dell’IA in settori quali la robustezza contraddittoria, l’onestà del modello, la trasparenza e la rimozione delle capacità indesiderate.

Ma, anche qui, il controllo dell’IA è un potere. Un potere potenzialmente pericoloso se si concentrerà nelle mani di un ristretto numero di aziende, e quindi persone, che avranno in mano dati personali, sistemi di sorveglianza, informazioni e la loro distribuzione/divulgazione.

Cosa sarà vero e cosa sarà falso? Cosa sapremo davvero e cosa vorranno farci sapere?

Ma più di tutto, la razza umana esisterà ancora?

Tutte le informazioni di questo articolo sono state acquisite dal sito AI Safety, dove potete trovare il testo integrale in merito ai rischi dell’IA

Le immagini in questo articolo sono generate dall’intelligenza artificiale (Pixabay)

Potrebbe interessarti anche:

Microchip nel cervello per comunicazioni telepatiche: dove finiremo?

Legge IA: reclusione fino a 5 anni per chi danneggia

Banche e IA: ecco come l’ RPD Protegge la Privacy

Un coniglio da mettere in tasca: arriva Rabbit R1

Crimini informatici e Hacktivism: Italia nel mirino degli hackers

Scansione dell’iride in cambio di soldi (criptovalute)? Occhio alla privacy!

AI Act: il Garante scrive a Parlamento e Governo

Tina Rossi
Tina Rossi
(a.k.a. Fulvia Andreatta) Editrice. Una, nessuna e centomila, il suo motto è “è meglio fingersi acrobati, che sentirsi dei nani” Dice di sé:” Per attimi rimango sospeso nel vuoto,giuro qualche volta mi sento perduto, io mi fido solo del mio strano istinto, non mi ha mai tradito, non mi sento vinto, volo sul trapezio rischiando ogni giorno, eroe per un minuto e poi...bestia ritorno...poi ancora sul trapezio ad inventare un amore magari...è solo invenzione, per non lasciarsi morire...”