Una prospettiva futura per lo sviluppo dell’IA
Lo sviluppo dell'intelligenza artificiale e le novità introdotte dall'AI Act europeo
Solo pochi anni fa, pensando all’intelligenza artificiale si immaginavano robot e scenari distopici. Oggi, invece, il pensiero corre subito a ChatGPT o alla nuova icona introdotta su WhatsApp. Questo perché, ormai, l’intelligenza artificiale – o AI – è sempre più parte del quotidiano. Ma l’AI non si limita a essere un semplice assistente personale a cui chiedere il meteo, i passi da seguire per riparare la lavastoviglie che si è bloccata oppure di realizzare un ritratto in stile Studio Ghibli. Essa, infatti, copre diversi settori in maniera più o meno invasiva. Occorre evidenziare che non la si deve intendere come intelligenza in senso stretto, quindi con riferimento alla sola capacità di conoscenza, ma in senso più ampio, da intendersi al pari dell’umanizzazione della macchina. L’intelligenza artificiale consente a hardware e software di apprendere attraverso particolari algoritmi diversi comandi che permettono, nel campo di applicazione della stessa, la capacità decisionale, di percezione nello spazio e tempo e, perfino, la capacità visiva e di analisi.
Una delle principali novità nell’ambito dell’intelligenza artificiale è quella data dal machine learning, che viene applicato anche in ChatGPT o in altri programmi similari. Attraverso particolari algoritmi il sistema può apprendere automaticamente dai propri errori e, dunque, arrivare a utilizzare comandi per cui, in realtà, non è stato programmato. Si può ben immaginare, allora, quali potenzialità non ancora esplorate possa offrire l’intelligenza artificiale. Ovviamente, fra queste, non tutte sono positive e, anzi, dietro un algoritmo, magari automatizzato potrebbe nascondersi un pericolo per il cittadino medio. Basti pensare, in questo senso, alla possibilità di truffe: fra queste, molto popolari negli ultimi mesi sono state quelle realizzate utilizzando una voce conosciuta riprodotta proprio tramite l’intelligenza artificiale. Anche per tali ragioni, a livello europeo, si è sentita la necessità di intervenire con una normativa ad hoc.
Il 2 agosto 2024 è entrato in vigore l’AI Act, regolamento voluto dall’Unione Europea le cui prime norme hanno iniziato a essere operative già dal 2 febbraio scorso, mentre altre verranno gradualmente applicate fino all’agosto del 2025. L’obiettivo, come del resto quello di tutti i regolamenti europei, è quello di dettare una disciplina comune a tutti gli Stati membri. Il regolamento, per sua stessa natura, ha portata generale, è obbligatorio in tutti i suoi elementi ed è direttamente applicabile in ciascuno degli Stati membri. Il fondamento giuridico di una simile disciplina deve ricercarsi direttamente nel Trattato Fondamentale dell’Unione Europea e, in particolare, all’articolo 288 dello stesso. In altre parole, è fatto divieto ai singoli Stati di adottare normative contrarie a esso o che comunque ne limitino o rallentino l’operatività. Di contro, i diritti introdotti da un regolamento possono essere fatti valere da chiunque ne abbia interesse di fronte all’autorità nazionale che, nel caso, potrà disapplicare leggi interne qualora contrarie allo stesso.
Per quanto attiene all’AI Act, l’obiettivo comune perseguito è quello di classificare e regolamentare l’applicazione dell’intelligenza artificiale in base al rischio potenziale che la stessa potrebbe avere sui cittadini. In particolare è possibile distinguere quattro differenti livelli di rischio: minimo, limitato, alto e inaccettabile.
I primi due livelli fanno riferimento a quelle applicazioni dove il rischio è basso, se non addirittura assente. In questi casi è sufficiente mettere a conoscenza l’utente che l’interazione sta avvenendo con un’intelligenza artificiale, in modo che sia consapevole che eventuali informazioni ed elaborazioni sono frutto di un algoritmo e non di una persona reale. Il rischio alto, invece, riguarda determinati settori come quello dei trasporti e dell’istruzione. In questi casi il fornitore di un’intelligenza artificiale dovrà svolgere dei test preventivi inerenti anche alla sicurezza dell’applicazione stessa. Particolare, poi, il caso del rischio inaccettabile. In quest’ottica sono vietate tutte le intelligenze artificiali che avrebbero un impatto diretto sui diritti fondamentali dell’uomo tramite l’utilizzo di tecniche subliminali, l’inserimento nella materia pubblica o il tracciamento e il riconoscimento biometrico della persona.
L’articolo 5 dell’AI Act prevede, nel dettaglio, le pratiche AI vietate e le conseguenti sanzioni in caso di violazione. Fra questi si possono ricomprendere gli utilizzi dell’intelligenza artificiale che andrebbero a influire sulla libertà privata e sulla libera circolazione dell’uomo, così come sulla riservatezza tramite identificazione biometrica.
Sono sono dunque vietati, innanzitutto, i sistemi diretti al tracciamento e al riconoscimento biometrico di una persona in tempo reale. Tali programmi, già utilizzati in qualche Stato non europeo, consentono attraverso un algoritmo il riconoscimento di una persona tramite una scansione facciale. Data la potenzialità di un simile sistema, la cui applicazione potrebbe avere anche risvolti positivi, il divieto non è assoluto. Ne viene consentito l’impiego in determinati casi, strettamente correlati ai criteri di sicurezza e urgenza, previa l’autorizzazione dell’autorità competente.
Strettamente correlato al riconoscimento è il divieto di pratiche di social scoring, ovvero quei particolari sistemi che consentono, tramite intelligenza artificiale, il tracciamento dei cittadini finalizzato all’assegnazione di un punteggio. Ipoteticamente, da questo punteggio sociale – sia esso positivo o negativo – potrebbero essere limitati gli accessi alla componente pubblica di uno Stato, come il diritto di voto o l’accesso a servizi quali la sanità.
Altri utilizzi vietati dell’intelligenza artificiale, invece, fanno riferimento all’elaborazione di dati su caratteristiche fisiche o psicologiche della persona, nonché potenzialmente a rischio di influire sulla libertà di autodeterminazione dell’individuo permettendone una classificazione. Fra questi si può ricomprendere il divieto di categorizzazione biometrica diretto all’individuazione di caratteristiche personali come l’orientamento politico, religioso o sessuale, o comunque basati su attributi e caratteristiche sensibili protette.
Del pari, sono vietati i sistemi di intelligenza artificiale diretti al riconoscimento di emozioni sul luogo di lavoro o dirette a valutare il potenziale rischio di una persona. In particolare qui si intendono tutti quegli strumenti che, dall’analisi di tratti e caratteristiche della personalità o, comunque, da un database di immagini, possono concorrere a valutare, in un’applicazione concreta dei principi tanto cari a Cesare Lombroso, la potenzialità di un determinato soggetto di commettere un reato.
Viene poi vietato l’utilizzo e impiego di tecnologie AI per finalità commerciali attraverso manipolazione comportamentale o sfruttamento della vulnerabilità. In quest’ottica non è consentito l’uso di strumenti di intelligenza artificiale che possano individuare la vulnerabilità di un soggetto perché malato, anziano, disabile o con problemi economici al fine di indurlo a un determinato acquisto o investimento. Similmente, sarà vietato l’impiego di tecnologie che consentono la manipolazione del comportamento della persona mediante strategie ingannevoli o che agiscano a livello subliminale. L’AI Act, infine, vieta la profilazione di massa e la creazione di database attraverso l’acquisizione e archiviazione indiretta di immagini provenienti da circuiti di sicurezza o da internet.
Oltre alle appena analizzate pratiche vietate, vi sono altri impieghi possibili ancora non categorizzati in quanto non potenzialmente pericolosi e, quindi, senza regolamentazione. Tuttavia questo non si traduce come una zona d’ombra e ciò in quanto lo stesso AI Act ha previsto l’adozione di un obbligo generale per tutti i soggetti che avranno a che fare con l’intelligenza artificiale. Vi è infatti una specifica disposizione che prevede un generico obbligo di “alfabetizzazione all’AI”, da intendersi come l’adeguata conoscenza e consapevolezza di tutti i procedimenti dietro tale tecnologia.
Se dunque fino pochi anni fa l’intelligenza artificiale era un settore particolarmente di nicchia, il cui campo di applicazione non era ben capito dai più, oggi non è più così. Come anticipato, infatti, dai semplici programmi sul telefono ai macchinari degli ospedali e pure alle automobili, l’intelligenza artificiale è improvvisamente entrata a far parte del quotidiano. Una simile rivoluzione pone ovviamente una serie di problematiche. Tralasciando scenari post-apocalittici, l’aspetto negativo più concreto è sempre lo stesso, quello che all’inizio del XIX secolo ha portato un gruppo di operai a bruciare i telai: la paura di sostituzione dell’uomo. Tale ipotesi, a ben vedere, è concreta. Lo sviluppo dell’intelligenza artificiale potrebbe integrare diversi settori dell’industria e arrivare, senza problemi, alla sostituzione di figure umane in determinati campi o ambiti di applicazione.
In ogni caso, come ogni rivoluzione industriale che si rispetti, alla perdita di figure lavorative non può che corrispondere l’introduzione di altre. Non siamo davanti alla fine del lavoro ma ad una sua trasformazione, una sfida politica e sociologica. Almeno, questa, è la speranza.