Quando uno “strumento” entra nel libero mercato e diventa di uso comune, sorge la necessità di regolamentarlo. È successo con le automobili, con internet, con i droni, e per finire con l’intelligenza artificiale.
L’AI Act (regolamento europeo 2024/1689) – che ad agosto 2026 compirà due anni dalla sua introduzione – è espressione non solo della necessità di uniformare il diritto europeo sull’intelligenza artificiale, ma sottende anche una logica ben precisa: quella di tutelare l’utente finale del processo automatizzato sin dal momento della sua progettazione e di intervenire sui criteri di imputazione della responsabilità.
In ordine ai sistemi di AI, è infatti sorta la problematica di come i principi sulla responsabilità e i criteri di imputazione possano applicarsi al loro utilizzo.
Quando un sistema di automazione giunge a un determinato risultato, lo fa eseguendo operazioni logiche fondate su regole poste da chi ha scritto l’algoritmo: quando si crea l’errore, questo è causato dal progetto o dal criterio di addestramento adottato.
Un risultato generato da un algoritmo è imputabile, pertanto, a tutta la catena che conduce a una determinata decisione. Non soltanto, quindi, all’utilizzatore finale, ma anche a chi ha progettato il modello, a chi lo ha addestrato e a chi ha provveduto a integrarlo nei vari processi.
Ai fini dell’imputazione della responsabilità, quindi, prima ancora che al risultato in sé, si deve analizzare tutto il procedimento che ha generato quel risultato, compresa la stessa scelta di delegare una determinata operazione alla IA perché, come vedremo, non sempre è opportuno delegare un processo a un automatismo.
Se, pertanto, il risultato finale di un automatismo non può essere imputato esclusivamente all’utilizzatore finale, la responsabilità sarà di tipo organizzativa e preventiva.
Organizzativa, perché si giunge a un determinato risultato solo a seguito di un meccanismo e una connessione di soggetti ed eventi complessi.
Preventiva, perché prima di decidere se automatizzare un processo o meno, devono essere assicurate idonee condizioni di affidabilità e di controllo.
Ed è proprio la possibilità del controllo umano nel processo automatizzato ad essere disciplinata dall’AI Act. All’art. 14, rubricato “Sorveglianza umana”, è infatti disposto l’obbligo di progettare i sistemi di AI in modo da poter essere supervisionati da persone fisiche allo scopo di prevenire rischi per la salute, la sicurezza o i diritti fondamentali dell’uomo.
È, dunque, evidente l’intento del legislatore europeo di assicurare che i sistemi automatizzati abbiano una supervisione dell’uomo capace, in concreto, di intervenire all’interno del processo così da modificarlo allo scopo di ottenere un diverso risultato.
L’AI Act ha, quindi, inciso sulla logica che deve essere sottesa al controllo: non a valle, ma a monte del processo, sin dalla progettazione e della messa in servizio.
Oltre al già citato art. 14, si pensi a quanto stabilito dall’art. 9 relativo alla gestione del rischio, il quale stabilisce l’obbligo di adottare un sistema di gestione dei rischi, «inteso come un processo iterativo continuo pianificato ed eseguito nel corso dell’intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici».
Si veda, ancora, l’art. 10, relativo all’obbligo di adottare pratiche di governance e gestione dei dati adeguate alla finalità prevista del sistema di IA, e l’art. 15 relativo all’obbligo di progettare e sviluppare i sistemi di AI in modo tale da conseguire un adeguato livello di accuratezza, robustezza e cibersicurezza.
Altre norme, infine, sono espressione della logica del legislatore europeo di prevenire il rischio di errore di un sistema di AI (a titolo esemplificativo, si vedano gli artt. 11-12-13-16, relativi alla documentazione tecnica, alla trasparenza e agli obblighi dei provider e deployer).
In conclusione, la diffusione di sistemi di AI e il loro quotidiano utilizzo nei settori professionali ha obbligato il legislatore europeo a ragionare in un’ottica di prevenzione, intervenendo sin dalla fase della progettazione. In questo modo, non ci si dovrà eventualmente domandare soltanto di chi è l’errore (considerata anche la difficoltà di individuarlo), ma il perché si è scelto di automatizzare il sistema in un determinato modo, con quei parametri e a quelle condizioni.
È su tale quesito che si fonda la responsabilità giuridica nell’era dei processi automatizzati di intelligenza artificiale.
10.04.2026