La Corte del Minnesota si è recentemente pronunciata sul tema relativo alla pubblicazione on line di video realizzati con l’intelligenza artificiale e, in particolar modo, con la tecnologia c.d. Deepfake.
Deepfake: cos’è e perché preoccupa
Prima di tutto è bene precisare che il termine Deepfake fa riferimento alla tecnologia in grado di replicare fedelmente l’immagine e la voce di una persona creando file audio e video all’interno dei quali quel soggetto fa o dice cose che non sono mai realmente avvenute in maniera estremamente realistica, soprattutto per quanto riguarda le somiglianze facciali e vocali.
È evidente, pertanto, la pericolosità di uno strumento che rischia di ledere l’identità o la reputazione degli individui nonché – soprattutto quando si replicano autorità pubbliche – causare disinformazione, dal momento che, all’occhio umano, è ormai difficile capire se si tratti di un video reale o fake.
Inoltre, è ormai divenuto sempre più semplice e alla portata di tutti – anche con competenze minime – creare file di questo tipo, accrescendone l’utilizzo incontrollato e diffuso a discapito di chiunque.
Lo Stato del Minnesota si era già mosso sul punto promulgando una legge che ha definito reato la produzione di file Deepfake prevedendo la condanna per l’autore (o per chi li diffonde consapevolmente) senza il consenso di chi è stato ritratto, allo scopo di danneggiare un candidato meno di 90 giorni prima di un’elezione o, comunque, di influenzarne l’esito, stabilendo una pena sino a 5 anni di reclusione e 10.000 $ di multa, oltre ad un eventuale risarcimento diretto nei confronti della vittima.
Il caso n. 24-cv-3754, oggetto della pronuncia di cui sopra, aveva infatti come protagonista proprio una deputata del Minnesota che aveva ripostato sui propri canali social un video satirico creato con la tecnologia Deepfake da uno Youtuber senza che fosse visibile la dicitura “parodia”, che era stata invece inserita dal creator nel post originale.
Nonostante le Autorità del Minnesota non avessero in alcun modo agito contro di loro, sono stati proprio la deputata ed il creator ad agire contro la legge dello stato richiedendo l’applicazione di una misura cautelare che ne proibisse l’applicazione al caso specifico, dimostrando alla Corte di rischiare il sanzionamento per aver tenuto un comportamento garantito dalla libertà d’espressione e dal diritto di satira.
Disclaimers e tutela della libertà d’espressione
Per quanto riguarda la posizione del creator, dal momento che i video da lui creati con la tecnologia Deepfake e pubblicati sui propri profili sono tutti completi di disclaimers atti a specificare che non si tratta di video reali e, pertanto, nessuno sarebbe portato a ritenere che si tratti di fatti realmente accaduti, la Corte lo ha ritenuto non legittimato ad agire.
La legge, infatti, non penalizza il diritto di satira e di parodia mediante l’utilizzo di questo tipo di sistemi di intelligenza artificiale generativa se c’è l’attenzione a non voler trarre in inganno l’utente (ad esempio, mediante la dicitura “satira” o “parodia”), ritenendo pertanto questo un uso legittimo del Deepfake.
Diversa è la posizione della ministra che ha ripostato un video Deepfake senza alcun disclaimer che avvisasse della natura satirica del video, seppur fosse invece precisato nel video originariamente pubblicato dallo youtuber.
La Corte, invero, ha ritenuto che, così postato, il video potesse essere ingannevole e risultare assolutamente reale e, nonostante il contenuto fosse evidentemente abbastanza implausibile, la ministra è legittimata ad agire avendo tenuto una condotta potenzialmente sanzionabile dalla legge del Minnesota.
Questa pronuncia è considerata di rilievo perché riconosce l’importanza dei disclaimers quale accessorio per scongiurare la possibilità che gli utenti vengano tratti in inganno da video Deepfake credendoli reali, porgendo il fianco ad una specifica legislativa che si potrebbe valutare di introdurre.
Anche in Italia questo tema è già caldo dal momento che sono state registrate svariate truffe perpetrate, in particolare, mediante video Deepfake recanti l’immagine di cariche dello Stato che invitavano a investimenti in cambio di ingenti guadagni.
La disciplina che si potrebbe applicare a queste casistiche è contenuta nel DDL AI che vuole introdurre il nuovo reato di utilizzo di contenuti generati o manipolati artificialmente mediante il nuovo art. 612-quater c.p. volto a punire “chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o manipolati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità o provenienza”.
Riflessioni legislative: dagli USA all’Europa
L’Unione Europea, invece, ha già menzionato i Deepfake all’interno dell’AI ACT, definendoli come un contenuto (audio o video) generato o manipolato dell’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero, tutelando però l’utilizzo di questa tecnologia per finiti satirici, artistici o creativi con il solo obbligo di specificare che si tratta di un prodotto dell’intelligenza artificiale.
È evidente come questo prodotto sia quindi già attenzionato sui vari fronti e, probabilmente, sarà necessario convivere con questi nuovi mezzi per capirne al meglio punti di forza e rischi e trovare così il corretto bilanciamento tra la tutela personale dei singoli cittadini e il riconoscimento delle forme d’arte.