12.09.2025 Icon

Linee guida sull’intelligenza artificiale: quadro europeo, applicazioni settoriali e prospettive etico-giuridiche

Ci siamo già occupati all’interno della nostra rubrica delle “Linee guida per i fornitori di modelli a finalità generale (GPAI)” entrate in vigore lo scorso 2 agosto 2025, con cui la Commissione europea si è prefissata l’obiettivo di fornire chiarimenti pratici agli operatori del settore in applicazione dell’AI Act.

Il documento spiega, in primo luogo, cosa si intende per modello GPAI e chi può essere considerato fornitore, oltre a chiarire il significato di “immissione sul mercato” di tali modelli. Si tratta di definizioni fondamentali, perché da esse dipende l’applicazione degli obblighi previsti dall’AI Act.

Queste linee guida rientrano in un più ampio ventaglio di disposizioni che comprende, oltre ad un Codice di Condotta specifico per i modelli GPAI, anche strumenti per garantire la trasparenza sui dati di addestramento e modelli di notifica da utilizzare in caso di rischio sistemico.

Sempre con l’obiettivo di fornire maggiore chiarezza e strumenti pratici di sostegno nell’utilizzo dell’AI sono state diffuse linee guida in svariati settori. Tra queste, degne di nota per l’impatto pratico che ne potrà derivare, sono le linee guida diffuse dall’Union Internationale des Avocats (UIA)  per l’utilizzo dell’AI da parte degli avvocati, che pongono particolare attenzione ai profili deontologici e di responsabilità. Queste linee guida, pur nella diversità delle singole legislazioni nazionali, sono rivolte a tutti gli avvocati del mondo e sottolineano le notevoli opportunità ma anche i rischi che l’utilizzo dell’AI comporta nella professione legale.

Pertanto, gli avvocati dovrebbero assicurarsi di (i) avere una conoscenza sufficiente e appropriata del sistema che intendono utilizzare; (ii) rispettare la riservatezza e la protezione dei dati del cliente; (iii) verificare, da un lato, che le fonti dei dati utilizzati per “addestrare” il sistema siano veritiere e, dall’altro,  che i risultati siano affidabili per limitare il rischio di allucinazioni; (iv) essere consapevoli dei rischi associati e delle implicazioni legali correlate all’utilizzo dell’AI anche in termini di responsabilità professionale.

Il messaggio è dunque chiaro: l’AI può supportare l’avvocato, ma non sostituirne il giudizio professionale.

Rimanendo in ambito “internazionale”, anche lo Stato della Città del Vaticano ha promulgato le Linee guida sull’utilizzo dell’intelligenza artificiale, in vigore dal 1° gennaio 2025.

Il documento, di ampio respiro, si applica agli organismi operativi, scientifici e giudiziari, al personale del Governatorato e agli operatori economici che interagiscono con il Vaticano.

Le Linee guida valorizzano una visione antropocentrica e affidabile dell’IA, fondata sul rispetto della dignità umana, del bene comune e dei valori etici di responsabilità, trasparenza e proporzionalità. È richiesto che i sistemi siano sicuri, non discriminatori, rispettosi della protezione dei dati, sostenibili anche sul piano ambientale e conformi alla missione della Chiesa.

È, inoltre, stata istituita una apposita Commissione AI, con compiti di predisposizione normativa, monitoraggio, valutazione dei rischi e redazione di relazioni periodiche.

Ancor più di recente, ritornando all’interno dei confini nazionali, anche tra le istituzioni scolastiche si registra un crescente interesse per l’utilizzo consapevole dell’AI, che ha condotto il Ministero dell’Istruzione e del Merito (MIM) ad approvare delle linee guida sul punto.

Con il DM n. 166 del 9 agosto 2025, infatti, il MIM si è posto l’obiettivo di promuovere un uso consapevole, etico e sicuro delle nuove tecnologie. L’intelligenza artificiale viene presentata come strumento strategico per migliorare la didattica, personalizzare i percorsi educativi e semplificare la gestione amministrativa.

Anche in tale ambito ricorre l’approccio antropocentrico, che valorizza la dignità e i diritti degli studenti, con particolare tutela dei minori e dei soggetti vulnerabili. Le Linee guida fissano requisiti etici, tecnici e normativi, tra cui trasparenza, protezione dei dati personali e sicurezza informatica.

 L’iniziativa ministeriale si inserisce nella cornice del PNRR e delle politiche europee, con l’obiettivo di garantire un’integrazione equilibrata dell’IA nel sistema educativo, favorendo innovazione, inclusione e sostenibilità, senza sacrificare la qualità e l’equità dell’istruzione.

Considerazioni conclusive

Dall’Unione Europea al Vaticano, passando per la scuola e la professione forense, emerge un denominatore comune: l’intelligenza artificiale non può essere concepita come autonoma rispetto al diritto, ma deve essere regolata in funzione dell’uomo e dei suoi diritti fondamentali.

Autore Jessica Cammarano

Managing Associate

Milano

j.cammarano@lascalaw.com

Desideri approfondire il tema Intelligenza Artificiale ?

Contattaci subito

Autore Chiara Gennaro

Managing Associate

Milano

c.gennaro@lascalaw.com