Con un annuncio da parte del proprio Chief Global Affairs Officer, Joel Kaplan, Meta ha annunciato la propria decisione di non aderire al Codice di Condotta pubblicato dalla Commissione Europea, ritenendo che le linee guida in esso contenute costituiscano un eccesso normativo che rischia di soffocare l’innovazione portata dall’intelligenza artificiale.
Cos’è il Codice di Condotta UE sull’Intelligenza Artificiale?
Ricordiamo brevemente che la Commissione Europea ha pubblicato il Codice di Condotta per la regolamentazione dell’intelligenza artificiale volto a sostenere le aziende nel processo di conformazione all’AI Act, disciplinandone sviluppo e utilizzo, ma anche allo scopo di garantire trasparenza algoritmica, sicurezza tecnica, responsabilità per i fornitori di modelli AI generativi e tutela del diritto d’autore.
Cosa comporterebbe l’adesione al Codice di Condotta?
L’adesione al Codice di Condotta – seppur sia assolutamente su base volontaria – stabilendo criteri per i modelli, permetterebbe alle imprese di conformarsi in maniera più chiara e sicura all’AI Act fornendo quindi anche una maggiore protezione dal punto di vista legale, mentre i fornitori che non ne aderiranno saranno soggetti ad un maggior numero di ispezioni.
Le imprese aderenti, infatti, dovranno comunque ottemperare ad una serie di obblighi quali, ad esempio, fornire e aggiornare regolarmente la documentazione relativa ai propri strumenti e servizi di intelligenza artificiale.
Allo stesso modo, sono anche previsti alcuni divieti per gli sviluppatori, come quello di non addestrare i sistemi di IA su contenuti piratati e non utilizzare opere di proprietà di creator nei propri dataset.
L’adesione al Codice di Condotta, in sintesi, garantisce minore burocrazia e maggiore certezza normativa e può essere vista come un impegno da parte delle aziende ad applicare un approccio “etico” dando così un segnale di fiducia ai terzi.
Le motivazioni di Meta
Alla base della scelta di Meta di non aderire al Codice di Condotta volontario dell’Unione Europea c’è il timore che le linee guida possano rallentare e complicare lo sviluppo di modelli di intelligenza artificiale generativa.
Joel Kaplan, nel proprio comunicato, ha argomentato la scelta di Meta precisando che, a loro avviso, il Codice contiene misure che vanno oltre quanto previsto dalla normativa dell’AI Act creando così incertezze legali per gli sviluppatori dei modelli di IA e aggiungendo che “l’Europa sta imboccando la strada sbagliata in tema di AI”.
Secondo il portavoce di Meta, tali misure ritenute eccessive, avrebbero anche l’ulteriore effetto di frenare lo sviluppo e l’implementazione di modelli di intelligenza artificiale, ostacolando le aziende la cui attività rimarrebbe soffocata sotto un’eccessiva regolamentazione.
Così operando, il rischio è che l’Europa possa essere meno competitiva rispetto ad altri continenti dove le aziende possono procedere allo sviluppo di tecnologie di intelligenza artificiale generativa seguendo regole meno vincolanti.
Cosa ne pensano le altre Big Tech?
Sicuramente la posizione di Meta segna una spaccatura con le istituzioni europee con le quali, peraltro, il dibattito è già aperto.
Molte altre imprese del settore hanno infatti già dimostrato di essere preoccupate da una regolamentazione percepita come troppo rigorosa che rischia di rallentare lo sviluppo delle tecnologie di IA, come dimostra la lettera con la quale 44 aziende del settore chiedevano alla Commissione Europea una sospensione del Codice.
Dall’altro canto, però, ci sono imprese che hanno già confermato la propria adesione vedendo nel Codice di Condotta parte di una strategia di allineamento al mercato europeo, potendo sin da subito “etichettare” come accessibili e sicuri i modelli che andranno a sviluppare dal momento che rispetteranno il quadro normativo europeo dimostrando che questo è possibile e compatibile con l’innovazione.
E’ evidente quindi come questa decisione di Meta sia l’ultimo tassello di un braccio di ferro in corso tra aziende tecnologiche e Unione Europea che non ha nessuna intenzione di indietreggiare vedendo nell’AI Act una legge decisiva in grado di sposare lo sviluppo dell’innovazione nel settore IA – delineata con regole ben precise – con il rispetto dei diritti e della sicurezza dei cittadini nonché dell’etica.
Regole o innovazione? Il vero nodo del dibattito sull’IA
Questa situazione è esplicativa delle opinioni che ruotano intorno allo sviluppo di tecnologie di intelligenza artificiale: da un lato si pongono coloro che ritengono sia essenziale fissare regole ben definite per garantire un utilizzo sicuro e meno rischioso possibile dell’IA, dall’altro coloro che vedono in un’eccessiva regolamentazione un rischio di soffocamento dello sviluppo tecnologico non permettendo così il raggiungimento di standard elevati.
14.11.2025