Con la Legge 23 settembre 2025, n. 132, pubblicata nella Gazzetta Ufficiale n. 223 del 25 settembre 2025 e in vigore dal 10 ottobre 2025, l’Italia si dota di un quadro normativo generale in materia di intelligenza artificiale (IA), anticipando l’attuazione del Regolamento (UE) 2024/1689 (AI Act).
La legge, composta da ventiquattro articoli suddivisi in tre Capi, definisce principi, settori di applicazione e deleghe al Governo per la regolamentazione tecnica e attuativa della materia.
IA e professioni intellettuali: l’articolo 13
Di particolare interesse è la disciplina dedicata alle professioni intellettuali, e in modo specifico a quella forense, contenuta nell’articolo 13, il quale prevede, dalla data di entrata in vigore, un obbligo informativo nei confronti del cliente per il professionista che si avvale degli strumenti di intelligenza artificiale.
Difatti, il legislatore ha voluto accentuare la trasparenza del rapporto fiduciario tra professionista e cliente: le informazioni riguardanti i sistemi di IA utilizzati devono essere comunicate in modo“chiaro, semplice ed esaustivo”.
Seppur non previsto espressamente, deve ritenersi che tale obbligo presupponga una comunicazione in forma scritta da trasmettere al cliente, le cui modalità di invio possono variare: ad esempio, con la lettera d’incarico o inserita nel mandato professionale.
Associazioni come Confprofessioni e Anf (associazione nazionale forense) hanno già sviluppato un primo modello informativo, utilizzabile in maniera trasversale da tutte le professioni.
Contenuto e struttura del modulo informativo
Nello specifico, il modello si compone di cinque sezioni.
- Nella prima sezione, è richiesto al professionista di dichiarare se si avvale di sistemi di intelligenza artificiale nello svolgimento della propria attività. In caso affermativo, deve specificare la tipologia di IA impiegata (predittiva, generativa, agentica, conversazionale oppure di altra natura, da descrivere brevemente).
- La seconda sezione è dedicata all’indicazione del tipo di prodotto o piattaforma utilizzata, senza entrare nel dettaglio tecnico dello strumento. Il professionista deve precisare se il software opera all’interno di un sistema informatico chiuso e autonomo – con una banca dati limitata e controllata – oppure online, basato su dati non verificabili direttamente, e indicare altresì se il prodotto è sviluppato in Italia, in ambito UE o in Paesi extraeuropei.
- Il modulo, inoltre, evidenzia che l’impiego dell’intelligenza artificiale è limitato alle attività strumentali e di supporto all’esercizio professionale, restando comunque prevalente l’apporto intellettuale umano; ciò in conformità al primo comma dell’articolo 13, con il quale si stabilisce che l’impiego di sistemi di IA è consentito esclusivamente come strumento ausiliario e di supporto, e non può in alcun modo sostituire l’attività intellettuale del professionista.
- Segue poi una sezione dedicata al profilo della responsabilità professionale: il cliente viene informato che l’uso di sistemi di IA può comportare margini di errore o risultati non pienamente affidabili, i quali devono essere sempre verificati e validati da chi li utilizza. L’intelligenza artificiale, dunque, non sostituisce il giudizio, la competenza e la responsabilità personale del professionista.
- Infine, il modulo richiama l’obbligo di garantire il pieno rispetto della normativa in materia di protezione dei dati personali, rinviando all’apposita informativa privacy già predisposta dal professionista, che dovrà essere sottoscritto dal cliente per presa visione.
Come può desumersi da una prima analisi della previsione normativa, l’obbligo informativo, previsto dall’articolo in commento, solo in apparenza formale, incide in realtà sul piano sostanziale della responsabilità professionale, imponendo doveri in capo al professionista che possono riflettersi sull’ambito deontologico e assicurativo.
L’avvocato, l’ingegnere o il consulente che si avvalga di strumenti di IA dovrà, quindi, garantire non solo la correttezza tecnica dell’elaborazione, ma anche la comprensibilità del processo decisionale assistito.
Le critiche dell’Avvocatura alla nuova legge
La nuova disposizione legislativa ha tuttavia suscitato rilievi critici, in particolare da parte del Movimento Forense, che ne ha già sollecitato l’abrogazione, poiché ritenuta “confusionaria e, per certi versi, svalutante per l’Avvocatura, laddove pretende di assicurare il rapporto fiduciario tra professionista e cliente, quasi che tale fiducia non fosse già̀ garantita dagli obblighi deontologici che fondano la professione forense”.
Al limite, secondo il Movimento forense, sarebbe ammissibile una semplice dichiarazione mediante cui il professionista, che si avvale di sistemi di intelligenza artificiale, ne comunica al cliente l’utilizzo in conformità alla norma.
Un ulteriore aspetto critico, rilevato dai giuristi, è attinente alla vaghezza dell’articolo in esame, poiché si limita a richiamare in modo generico l’impiego di “sistemi di intelligenza artificiale”, senza operare alcuna distinzione tra modelli generalisti, specialistici o integrati.
Tale formulazione rende complesso delimitare con precisione l’ambito dell’obbligo informativo, nonostante l’esistenza di una definizione legislativa articolata e di un tentativo di inquadramento giuridico del fenomeno.
In ultima analisi, è stato evidenziato che la norma trascura la dimensione etica, culturale e deontologica dell’Avvocatura, riducendo a un adempimento formale ciò che rappresenta da sempre il fondamento sostanziale della professione forense: il rapporto di fiducia, informato e consapevole, tra avvocato e cliente.
Se, da un lato, con riferimento all’attività legale si ravvisano margini di utilizzo dell’intelligenza artificiale, benché con dei limiti, lo stesso non può dirsi dell’attività giudicante, che resta sempre e comunque rimessa al discernimento del giudice.
IA e giurisdizione: i limiti all’automazione nel processo
Di significativo rilievo è, in tal senso, l’articolo 15, che disciplina l’impiego dei sistemi di intelligenza artificiale nell’ambito dell’amministrazione della giustizia, fissando confini netti tra strumenti di supporto e funzioni decisionali propriamente giurisdizionali.
La norma stabilisce, infatti, che ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove, nonché sull’adozione dei provvedimenti rimane riservata al magistrato.
In tal senso, la legge ribadisce il principio di umanità della giurisdizione, quale presidio irrinunciabile della funzione giudicante e della legittimazione costituzionale del potere giudiziario.
Meno rigoroso è, invece, l’impiego degli strumenti di intelligenza artificiale con riguardo agli aspetti meramente organizzativi della giustizia e degli uffici giudiziari.
Difatti, è previsto che il Ministero della giustizia sia incaricato di disciplinare, con propri atti, gli impieghi dell’IA “per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie”.
La legge prevede, inoltre, che ogni sperimentazione o impiego dei sistemi di IA negli uffici giudiziari sia preventivamente autorizzata dal Ministero, sentite le Autorità nazionali competenti, garantendo così un controllo multilivello sulle applicazioni in ambito forense.
Il legislatore attribuisce, infine, al Ministero della giustizia il compito di promuovere la formazione digitale dei magistrati e del personale amministrativo, in modo da consentire un uso consapevole e responsabile delle nuove tecnologie.
Conclusioni: equilibrio tra innovazione e responsabilità
In conclusione, la Legge n. 132/2025 – seppur con diversi aspetti critici – rappresenta un passo in avanti verso la regolamentazione dell’intelligenza artificiale nelle professioni intellettuali.
Sarà tuttavia la pratica applicazione della norma a chiarire la portata effettiva degli obblighi informativi e delle garanzie introdotte, soprattutto per l’Avvocatura, chiamata a conciliare innovazione tecnologica e tutela del rapporto fiduciario con il cliente.
05.11.2025