08.05.2023

Intelligenza artificiale, la Ue gioca la carta del regolamento

  • Il Sole 24 Ore

Solo pochi giorni dopo che ChatGpt si è adeguata alle richieste del Garante italiano ed è tornata accessibile anche nel nostro Paese, Geoffrey Hinton, considerato il padrino dell’intelligenza artificiale si è dimesso dal suo incarico in Google per potere parlare liberamente dei rischi dell’AI.

Diffusione di documenti falsi (immagini, video, notizie), attacchi hacker sempre più sofisticati, costi ambientali, utilizzo antidemocratico dei sistemi di riconoscimento facciale. Gli allarmi si moltiplicano, ma la contropartita economica (e politica) del primato tecnologico nell’AI è enorme e lo dimostra il livello degli investimenti, che nel 2022 è stato di quasi 92 miliardi di dollari e (nonostante la frenata dello scorso anno) è cresciuto di 18 volte in dieci anni (nel 2013 era di cinque miliardi di dollari).

Cogliere le opportunità assicurando però il rispetto dei valori dell’Unione europea è l’obiettivo dell’AI Act, il regolamento europeo sull’intelligenza artificiale che dovrebbe essere approvato giovedì 11 maggio dalle Commissioni parlamentari. La deliberazione finale del Parlamento Ue arriverà a metà giugno ma per la pubblicazione sulla Gazzetta europea bisognerà aspettare fine anno.

I contenuti

Pilastro portante della nuova normativa è assicurare una tecnologia conforme ai valori dell’Unione in grado di tutelare la sicurezza, la salute e i diritti fondamentali dei cittadini Ue.

Per raggiungere questo ambizioso obiettivo l’AI Act valuta le applicazioni intelligenti a seconda delle attività che mirano a realizzare, prevedendo, anzitutto, un divieto assoluto di quelle pratiche ritenute incompatibili con i valori europei, come il monitoraggio e la classificazione delle persone fisiche sulla base del loro comportamento sociale (social scoring), e le applicazioni finalizzate a distorcere materialmente il comportamento umano.

«Sui divieti ci sono ancora discussioni – dice Brando Benifei relatore del testo e capodelegazione del Pd all’europarlamento–. C’è comunque un’ampia maggioranza a sostegno sia del divieto di utilizzo di telecamere a riconoscimento biometrico negli spazi pubblici (in tempo reale e differito) sia del divieto relativo alla predictive policing, ossia ai sistemi di AI che dovrebbero aiutare ad individuare e prevenire le attività criminali attraverso l’analisi di dati complessi». «Un accordo è stato invece trovato – aggiunge Benifei – sull’inclusione della disciplina dei sistemi ad uso generale come ChatGpt». I sistemi a fini generali non hanno uno scopo determinato ed è quindi difficile classificare il livello di rischio.

Ciò che non è espressamente vietato viene regolato secondo il risk-based approach che modula gli obblighi di conformità sul livello di rischio (basso, medio o elevato) di lesione dei diritti fondamentali. Più alto è il rischio e maggiori sono gli oneri e le responsabilità degli autori e fruitori delle applicazioni intelligenti; e ciò non vale solo per le società tecnologiche che le sviluppano, ma anche, ad esempio, per le banche e le assicurazioni che le utilizzano.

Il raggio d’azione del regolamento è ampio: non importa infatti dove la tecnologia sia stata prodotta e sviluppata: se riguarderà un cittadino Ue, dovrà rispettare le regole europee. E, in caso di violazioni, potranno scattare sanzioni fino a 30 milioni di euro o 6% del fatturato mondiale annuo (per le Pmi e le startup il 3 per cento).

Gli obblighi

Per le attività ad alto rischio (come ad esempio i sistemi utilizzati per l’assunzione o la selezione di persone fisiche) sono previste regole specifiche, tra cui: l’obbligo di creare e mantenere attivo un sistema di valutazione e gestione del rischio; una particolare attenzione sulla valutazione dei dati utilizzati sui cui si addestrano gli algoritmi; la possibilità che tali sistemi siano supervisionati da parte di persone fisiche (human oversight). Ma ancora, e soprattutto, obblighi di trasparenza. È questa una delle questioni più controverse e di non facile realizzazione, poiché impone, ad esempio, di fornire agli utenti/utilizzatori le caratteristiche e i limiti del sistema, inclusi lo scopo, il livello di sicurezza e i rischi per la salute e i diritti, nonché i dati di addestramento, o in generale i dati utilizzati dal sistema.

Sperimentazione e investimenti

Un altro punto cruciale è la creazione di spazi in cui le imprese siano incentivate a sperimentare nuovi sistemi di AI (sandbox). È, infatti, concreto il rischio che l’Ue finisca per regolamentare una tecnologia principalmente prodotta da altri.

Per evitarlo, non bastano le regole sulla sperimentazione introdotte dall’AI Act: servono anzitutto fondi. Dai numeri dell’AI Index della Stanford del 2023 emerge infatti un quadro eloquente: l’anno scorso negli Stati Uniti gli investimenti privati hanno superato i 47 miliardi di dollari, oltre il triplo di quelli cinesi (13,4) e dieci volte più dei britannici (4,3). Per non parlare della Germania (2,3) e della Francia (1,7) mentre l’Italia non è neanche entrata in classifica.