L’intelligenza che uccide: davvero le macchine metteranno fine alla vita sulla terra?
Al momento, pare che le previsioni di Matrix siano molto lontane dalla realtà. Gli esperti si dicono molto più preoccupati dell’utilizzo etico e responsabile delle nuove tecnologie alimentate dall'IA.
Nel corso degli anni, il tema dell'intelligenza artificiale (IA) ha suscitato molte riflessioni e dibattiti, spesso stimolati dalla cultura popolare e da opere cinematografiche come "Matrix". Il film del 1999 mette in scena un futuro distopico in cui le macchine, diventate incredibilmente intelligenti, scatenano una guerra contro gli esseri umani e li tengono in una sorta di schiavitù virtuale. Questa rappresentazione ha contribuito a sollevare l'allarme sull'eventuale pericolo delle macchine alimentate dall’IA per l'umanità.
Tuttavia, l'evoluzione reale dell'IA ha preso una direzione più complessa e interessante. A partire dal 2010, i progressi nell'intelligenza artificiale hanno spinto gli esperti e la comunità globale a considerare sempre più possibile l'avvento di una macchina capace di pensare e agire in modo simile a un essere umano. Due fattori chiave hanno innescato questa accelerazione: l'accesso a enormi quantità di dati e l'efficienza delle moderne tecnologie informatiche.
Come evidenziato anche da questo articolo, il primo fattore, l'abbondanza di dati accessibili grazie a Internet, ha rivoluzionato le metodologie di ricerca e sviluppo nell'ambito dell'IA. Prima del 2010, era necessario eseguire campionamenti manuali per applicare algoritmi di classificazione delle immagini e altri compiti simili. Ora, con la vastità di informazioni disponibili online, l'elaborazione dei dati è diventata più rapida ed efficiente.
Il secondo fattore è rappresentato dalle moderne schede grafiche dei computer, che offrono una potenza di calcolo straordinaria a costi relativamente contenuti. Questo ha permesso di compiere notevoli progressi nell'applicazione di algoritmi di apprendimento e di portare le tecnologie di intelligenza artificiale e machine learning a un pubblico più vasto.
In questo contesto, il lancio di ChatGPT da parte di OpenAI ha segnato un capitolo importante nella storia dell'IA. Questo modello, basato su deep learning e l'architettura Generative Pre-trained Transformer (GPT), è in grado di generare testi con un livello di similitudine umana sorprendente. ChatGPT 4, la sua ultima generazione, ha dimostrato una capacità di adattamento e apprendimento che avvicina sempre di più l'IA alle capacità umane, aprendo nuove prospettive e sfide nel campo della comunicazione e dell'intelligenza artificiale. Per esempio, secondo uno studio della Cornell University, ChatGPT 4 riesce a «risolvere compiti nuovi e difficili che spaziano dalla matematica, alla codifica, alla visione, alla medicina, alla legge, alla psicologia e altro ancora, senza bisogno di particolari istruzioni», in un modo molto vicino alla performance umana.
Tuttavia, c'è una linea di pensiero che solleva dubbi e preoccupazioni riguardo al futuro dell'IA. Si parla della possibilità teorica di sviluppare un'intelligenza artificiale superiore, nota come Artificial Super Intelligence (ASI), in grado non solo di eguagliare, ma addirittura di superare l'intelligenza umana. Questo scenario, sebbene ancora teorico, solleva interrogativi etici e morali su come gestire una tale evoluzione tecnologica senza compromettere la sicurezza e il benessere umano.
Durante il World Government Summit a Dubai, l’amministratore delegato di OpenAI, Sam Altman, ha accennato alla possibilità che l’umanità si affacci a scenari molto preoccupanti nel futuro. Benché non si dica necessariamente preoccupato in una realtà in cui robot assassini si aggirino per le strade, il semplice considerare questa possibilità riflette una concezione comune: una volta che le macchine avranno un'intelligenza superiore, saranno in grado organizzarsi contro gli umani e competere per il controllo del pianeta. Questi sono scenari presenti nell'immaginario popolare, enfatizzati da film come “Matrix” o “Terminator”, che influenzano la percezione degli spettatori e alimentano questa visione futuristica.
Nonostante queste riflessioni, gli esperti concordano sul fatto che le visioni apocalittiche presentate da questi film siano più fantascienza che profezie realistiche, e che la sfida principale sia quella di sviluppare e regolare l'IA in modo responsabile, in linea con le esigenze e i valori umani.
Per esempio, John Giannandrea, a capo della divisione di Google che si occupa di intelligenza artificiale, sottolinea temere i robot super intelligenti in grado di sterminare l’umanità sia una sciocchezza. Al contrario, Giannandrea ritiene che l'attenzione eccessiva sui sistemi super intelligenti che potrebbero rendere obsoleti gli esseri umani sia fuorviante, poiché non esiste una base tecnologica immediata per tali preoccupazioni, ovvero l’ASI di cui discutevamo prima. A suo avviso, il vero rischio risiede nei possibili pregiudizi intrinseci negli algoritmi di machine learning utilizzati nei processi decisionali. Infatti, dati distorti possono avere diversi impatti negativi sugli algoritmi di machine learning, come rafforzare o promuovere la produzione di risultati imparziali e discriminatori; produrre previsioni e decisioni imprecise, specialmente in ambiti critici come la medicina e il sistema legale; infine, minare la fiducia e la credibilità degli algoritmi di machine learning, pregiudicandone l'accettazione e l'adozione e, quindi, precludendo alla comunità di usufruirne dei benefici.
Commenti molto simili arrivano anche dagli studi sociotecnici, cioè quelli che si occupano di analizzare l’intersezione di scienza, tecnologia e società. In un articolo che discute di sistemi d'arma autonomi letali (in inglese “LAWS”) - armamenti autonomi capaci di scatenare azioni belliche letali senza bisogno dell'input diretto di un operatore umano – Michael Horowitz si dice scettico sulla possibilità che queste macchine possano davvero essere impiegate in un futuro prossimo e dettare la fine della vita sulla terra. Professore di scienze politiche alla Pennsylvania State University, Horowitz spiega che la sfida principale per i governi nell’operare queste nuove tecnologie che, comunque, non esistono ancora, sarà regolamentarne l’utilizzo all’interno dei sistemi legali già esistenti. Sebbene questo non sia dir poco, almeno non si parla ancora di una minaccia esistenziale.
Insomma, a sentire le voci provenienti dal mondo del business e da quello scientifico, al momento possiamo non aspettarci che i sistemi d’intelligenza artificiale che usiamo nelle nostre vite di tutti i giorni si ribellino contro di noi. Matrix, dunque, resterebbe solo un grande capolavoro di fantascienza. A meno che le macchine non abbiano preso il sopravvento molto tempo fa e la simulazione non sia già cominciata. A quel punto, non ci resterebbe che iniziare la rivoluzione.
“Wake up, Neo…
The Matrix has you…
Follow the white rabbit.”
Matrix, 1999