Siete qui: Oggi sulla stampa
Oggi sulla stampa

Social e minori, la sfida dei legali è come tutelare la libertà di rete

Prima le polemiche su TikTok, ora il possibile arrivo di un’app Instagram riservata ai minori di 13 anni. I social network guardano sempre di più al «business» dei minori. Ma dietro l’angolo ci sono sempre problemi legati alla sicurezza e alla privacy. Risale allo scorso gennaio la vicenda che ha visto 17 ragazzi, per la maggior parte minorenni, incontrarsi nel centro di Gallarate (Va) per una maxirissa. «Anche in questa occasione non può sottovalutarsi il ruolo cruciale ricoperto dal web», esordisce Mariarosaria Della Corte, che è anche vice presidente dell’Osservatorio nazionale sulla famiglia, sulle politiche sociali e sulla sicurezza, «i social network sono stati trasformati in una vera e propria arena virtuale tramite cui scaldare gli animi, offendere gli avversari, organizzare la «spedizione punitiva» e consentire, anche a chi si rivedeva nel semplice ruolo supporter, di testimoniare la propria presenza e riversare l’accaduto sul web. Ne è conseguita la decisione del giudice di disporre nei confronti dei protagonisti il divieto di utilizzare cellulari ed internet. Ciò che preoccupa è infatti l’uso smodato dei social network ormai frequente tra i minori e la facilità con cui il confine con il dark web venga spesso oltrepassato. I bambini, nonostante riescano a comprendere meglio dei genitori il funzionamento di Internet, sono spesso incapaci di coglierne i rischi e le insidie; in un’età in cui i contatti, anche virtuali, con i coetanei sono indispensabili per sentirsi accettati, la conquista dei like può spingere a tutto».

L’allarme sociale che ne è scaturito ha condotto all’intervento delle Istituzioni. «Il tema minori e social network è molto delicato e soprattutto negli ultimi mesi abbiamo un po’ tutti preso coscienza del fatto che l’accesso dei minori ad app, social network come TikTok e giochi online può essere molto pericoloso», spiega Monica Pagano, fondatrice dello studio omonimo, «Diverse le preoccupazioni dei genitori sia sul versante della protezione dei dati ma anche con riferimento a fenomeni quali pedopornografia e cyberbullismo. Dopo la tragedia di Palermo, nella quale ha perso la vita una bambina di 10 anni per una challenge, sembrerebbe che il Garante della Privacy si sia attivato in maniera più incisiva. Infatti dallo scorso 9 febbraio TikTok chiedendo di indicare nuovamente la data di nascita prima di continuare ad utilizzare l’app, sta rimuovendo gli account degli utenti al di sotto di 13 anni. È stata anche lanciata una campagna informativa per sensibilizzare genitori e figli e il claim dello spot realizzato insieme a Telefono Azzurro recita “Se non ha l’età, i social possono attendere”. Le proposte per migliorare l’attuale incertezza sono varie e vanno dall’uso di scan facciali per riconoscere l’età all’autenticazione da parte dei genitori. È chiaro che il mondo dei social dovrà fare i conti con un incremento di giudizi avanti ai Tribunali, in particolare da quando, a maggio, entrerà in vigore la riforma sulla class action».

Secondo Maddalena Valli, senior manager dello studio legale e tributario Legalitax l’age flag «non è che la punta dell’iceberg della teorizzazione di un problema che, oltre che sociale, è anche profondamente giuridico e non riguarda esclusivamente la privacy. Anche l’Organizzazione europea dei consumatori (Beuc) ha recentemente evidenziato una serie di criticità e violazioni a danno dei consumatori europei da parte di TikTok: contenuti non sempre appropriati e poca trasparenza in merito alle comunicazioni pubblicitarie. Si evidenziano inoltre i pericoli connessi al rilascio di dati da parte di consumatori (soprattutto minori) al fine di partecipare a contest premiali (giveaway e non solo), spesso organizzati in spregio alla normativa che regolamenta il settore (dpr n. 430 del 2001), attese le complessità di una norma ormai vecchia che trascinano in trattamenti illeciti dei dati e misure di sicurezza pressoché nulle. Non è dunque solo un flag: è un baluardo a tutela dei diritti dei più giovani, ma c’è molto ancora da modificare e migliorare nell’interesse soprattutto di minori e adolescenti».

Bambini e adolescenti hanno infatti una ridotta capacità di discernimento e quindi minor consapevolezza dei loro diritti e delle conseguenze delle loro azioni. «Proprio per questo, anche a seguito del verificarsi di tragici eventi di cronaca, la normativa comunitaria è intervenuta per porre limiti all’utilizzo dei social network da parte dei minori di 16 anni, a meno che non sia raccolto il consenso dei genitori (con possibilità per gli stati membri di abbassare il limite di età non oltre i 13 anni)», prosegue Claudia Chiarini, of counsel dello studio legale Chiarini. «È dunque innanzitutto la famiglia ad essere chiamata a educare i minori a un utilizzo prudente del web, prima dando il consenso e poi monitorando l’utilizzo dei social da parte dei figli. E la buona educazione è quella che parte dall’esempio. Purtroppo, però, capita che siano proprio i genitori a non tutelare adeguatamente i figli, pubblicandone immagini private, talvolta imbarazzanti. Il che può esporli a responsabilità, sia nei confronti dell’altro genitore (che non abbia prestato il suo assenso o, peggio, lo abbia negato), sia nei confronti dei figli (che, anche a distanza di anni, potrebbero contestare la violazione del loro diritto all’immagine e alla riservatezza). Può essere quindi estremamente utile, specie in caso di separazione o divorzio, discutere e regolamentare espressamente questo aspetto».

Il Garante per la protezione dei dati personali italiano è recentemente intervenuto nei confronti di Tik Tok, noto social network molto diffuso tra i più giovani, disponendo il blocco immediato di tutti i profili di soggetti la cui età non potesse essere accertata o verificata con esattezza, nell’attesa dell’adozione di maggiori tutele per la protezione dei soggetti minori. «Sono pertanto stati repentinamente bloccati tutti i profili web con richiesta di re-inserimento dell’età anagrafica degli utenti, così da poter provvedere alla cancellazione delle pagine social riferite a minori di 13 anni», afferma Maria Laura Dalla Giustina, partner di UpLex, «Provvedimento questo che certamente nasce da recenti fatti di cronaca che hanno evidenziato l’esigenza di un effettivo adeguamento del social media al Regolamento UE 2016/679, che riconosce la validità del consenso per l’offerta di servizi dell’informazione ai minori solo se prestato da soggetti aventi l’età minima di 16 anni, con possibilità per gli Stati membri di una riduzione della soglia sino ai 13 anni. In capo al titolare del trattamento – in questo caso TikTok- viene pertanto posto l’onere di verificare con ogni mezzo che il consenso sia stato validamente prestato, anche mediante l’uso delle tecnologie disponibili quali l’intelligenza artificiale, in modo che venga garantita un’ulteriore verifica degli utenti iscritti al Social. È certo che l’intervento del Garante – in linea con il Gdpr- intende fornire una maggiore tutela ai più giovani che spesso si approcciano all’utilizzo indistinto e non controllato dei social sprovvisti di un’educazione all’uso degli strumenti di socialità virtuale e più in generale del Web».

Per Giovanna Boschetti, associate studio Cba «sono fondamentali a mio parere le campagne di sensibilizzazione nei confronti di minori e di genitori quali esercenti il ruolo attivo di vigilanti, ma ancor più determinante il piano dell’enforcement. Il Gdprgioca un ruolo fondamentale a fini sanzionatori, deflattivi e risarcitori nei confronti dei social network. Gli interessati dal trattamento devono esigerne l’applicazione anche ai fini del pieno rispetto della Carta dei Diritti Fondamentali dell’Unione Europea».

Il Gdpr stabilisce che, qualora nell’ambito dell’offerta diretta di servizi della società dell’informazione ai minori si applichi la base giuridica del consenso, il trattamento di dati personali del minore è lecito ove il minore abbia almeno 16 anni, limite che può essere modificato dagli Stati nazionali (per l’Italia il limite di età è 14 anni). «Ove il minore abbia un’età inferiore, quel trattamento è lecito soltanto se e nella misura in cui tale consenso è prestato o autorizzato dal genitore», prosegue Andrea Mileto, associate di Lexant, «Il rispetto di questo vincolo di età dovrebbe essere garantito dall’adeguamento di Tik Tok alle richieste del Garante, per cui il famoso social network dovrebbe adottare misure per bloccare l’accesso agli utenti minori di 13 anni e valutare l’utilizzo di sistemi di intelligenza artificiale per la verifica dell’età, prima d’oggi facilmente aggirabili utilizzando date di nascita false. Sarà importante anche sensibilizzare gli utenti. Il Garante Privacy in collaborazione con Telefono Azzurro avvierà una campagna per richiamare i genitori a svolgere un ruolo attivo di vigilanza, allo scopo di rafforzare l’azione di tutela nei confronti dei più piccoli. Ma potrebbe non essere sufficiente».

Resta centrale il tema della protezione dei minori. «Gli interventi che possono essere realizzati per garantire la protezione dei minori in rete sono sia di natura preventiva che di tipo reattivo», afferma Ivan Rotunno, practice leader cybersecurity e data protection Italy di Orrick, «primariamente, è obbligo delle singole piattaforme titolari dei dati effettuare delle verifiche in merito all’età degli utenti che desiderano accedere ai servizi del network. È necessario istituire ex ante dei criteri generali per l’individuazione dei limiti di utilizzo e di creazione di profili personali sulle piattaforme. In seguito, è dovere dei gestori di tali sistemi monitorare e valutare i contenuti dei post pubblicati, rimuovendo i contenuti contrari alla legge o pericolosi per i destinatari. Come ricordato dalla stessa Autorità garante, l’Unione europea si sta già muovendo in tal senso, con interventi normativi maggiormente tutelanti, tra cui il Digital Services Act, proposto dalla Commissione Europea lo scorso 15 dicembre 2020 che si pone in linea di continuità anche con la previsione contenuta nel Regolamento (Ue) 2016/679 («Gdpr») e relativa al trattamento dei dati personali dei minori all’art. 8 con riferimento all’offerta di servizi della società dell’informazione, volta a individuare una soglia limite non solo per la tutela in sé dei minori dai pericoli presenti nel mondo digitale – quali fake news, cyberbullismo ecc. ecc. e individuata dal novellato codice privacy nella soglia di 14 anni – ma anche per agevolare lo sviluppo dell’economia digitale assicurando una sorta di etica dei trattamenti dati fatti in rete».

Secondo Jacopo Liguori di Withers «il periodo che stiamo vivendo ha reso ancor più urgente trovare soluzioni che possano tutelare adeguatamente i minori e i loro dati e, al contempo, offrire spazio per un legittimo e controllato utilizzo e sfruttamento di queste piattaforme. Già nel gennaio 2020, la nostra autorità garante per la protezione dei dati personali aveva espresso la necessità di avviare una task force europea sui rischi per la privacy degli utenti di TikTok. Sotto il profilo privacy, è necessario guardare al fenomeno con estrema attenzione. Anzitutto è opportuno che le piattaforme regolino in modo sicuro l’accesso e l’utilizzo di questi mezzi da parte dei minori, sino anche a vietarlo alle fasce di età più giovane. Questo obiettivo può essere raggiunto solo con meccanismi di age verification sicuri e non facilmente aggirabili. È importante inoltre predisporre una informativa su tutti i trattamenti, redatta in modo tale che sia immediatamente comprensibile dai giovani utenti e dalle loro famiglie, con alert specifici che segnalino i rischi ai quali si espongono. Tutto ciò non può che passare anche attraverso (i) un monitoraggio costante delle piattaforme da parte delle autorità con l’avvio di indagini per verificare l’effettivo trattamento dei dati nel rispetto della normativa (ii) interventi legislativi ad hoc (iii) l’intensificazione di campagne informative capillari sul territorio, non solo promosse dall’autorità ma anche e soprattutto attraverso le famiglie e le scuole, in collaborazione con le piattaforme».

Nonostante il continuo aggiornamento legislativo e l’affinamento delle tecniche investigative e repressive, la complessità della rete pone quotidianamente il diritto dinanzi al rischio di restare sempre un passo indietro rispetto all’evoluzione delle tecnologie digitali. «Nel caso di utenti di minore età, il delicato bilanciamento tra libertà, diritti e doveri coinvolti nello spazio digitale deve esser ispirato al principio preminente del best interest of child (art. 3 della Convenzione di New York, 1989)», spiega Pietro Montella, founding partner di Montella Law, «A fronte della massiccia produzione e circolazione di contenuti dal forte impatto sostanziale sulla costruzione sociale della vita collettiva dei giovani, è bene ricordare che l’art. 2-quinquies del Codice privacy pone la soglia minima dei 14 anni (rispetto ai 16 del Gdpr) per esprimere il cd. «consenso digitale». Tale soglia minima è prevista altresì all’art. 2 della L.71/2017 in materia di cyberbullismo nel caso di minore che voglia autonomamente inoltrare al titolare del trattamento o al gestore del sito internet o del social media un’istanza per l’oscuramento, la rimozione o il blocco di qualsiasi dato personale, anche nel caso in cui non costituisca ipotesi di reato. Come emerso dal recente caso TikTok, risulta sempre più necessaria la predisposizione di tecnologie di intelligenza artificiale per l’age verification nel momento di accesso ai social network, mentre nell’ambito dell’utilizzo un grosso aiuto potrebbe venire dal legal design strumentale alla redazione e, dunque, alla consultazione di informative privacy e condizioni contrattuali destinate ai minori di 18 anni che siano accessibili, accattivanti e coinvolgenti».

Secondo Francesco de Rugeriis di Lca Studio Legale «a fronte di un corpo di regole chiare c’è una generalizzata ineffettività. Parlando di privacy: in Italia il consenso online è legalmente valido solo se reso da chi ha almeno quattordici anni; e secondo il Gdprsi devono attuare misure per appurare che l’utente soddisfi i requisiti di età. Ma ci si può limitare a chiedere la data di nascita quando si crea l’account? A quell’età si finge di essere più grandi nella vita reale, figurarsi quando si è dietro uno schermo. Stessa inefficacia c’è anche quando si parla di T&C. Le regole contrattuali dei social pongono dei limiti minimi di età; tendono, però, a rimanere un’astrazione. Bisogna osare di più per esser certi di chi «flagga». TikTok si sta muovendo con artificial intelligence e sistemi di segnalazione; certo, dopo un intervento del Garante e casi di cronaca nera con, purtroppo, bambini come protagonisti».

Quasi un adolescente su 3 trascorre almeno due ore al giorno navigando nella rete. «In tal senso di recente attualità la tragica vicenda della bimba di Palermo», spiega Alessandro Vasta, partner di Tonucci & Partners. «Ciò ha reso purtroppo evidente la difficoltà, dal punto di vista pratico, di implementare gli strumenti che il Gdpr pur prevede a garanzia del rispetto dei diritti e delle libertà individuali di soggetti facilmente condizionabili e non ancora completamente maturi come i minori, quali i limiti di età per la prestazione di un valido consenso al trattamento dei dati personali o l’obbligo di fornire loro informative chiare e facilmente comprensibili in merito ai servizi o contenuti a cui accedono. Difficoltà che nel caso di specie – ma ciò vale certamente per altre piattaforme social – riguardava l’inaffidabilità del meccanismo di verifica dell’età del soggetto che aderiva al social TikTok. Difficoltà accentuate dal fatto che trattamenti che coinvolgono necessariamente più interessati residenti in più Stati membri possono comportare astrattamente il coinvolgimento di più Autorità Garanti privacy, sotto la direzione della c.d. «Autorità capofila» (cioè quella in cui si trova lo stabilimento principale del provider, nel caso di specie l’Irlanda) con il rischio di non poter prontamente, e quindi efficacemente, intervenire sanzionando i comportamenti illeciti, se non tramite provvedimenti temporanei e d’urgenza quali quello adottato opportunamente dal Garante privacy italiano».

Cosa accade quando un minore dichiara un’età superiore ai fini dell’iscrizione? «Su espressa richiesta del Garante della Privacy», spiega Bridget Ellison di De Berti Jacchia, «TikTok ha introdotto una procedura di age verification volta ad escludere dal social gli utenti minori di 14 anni, ma purtroppo essa era facilmente aggirabile; per questo TikTok ha ora implementato un sistema di Age Verification tramite crowdsourcing, basato sulla raccolta e verifica delle segnalazioni, effettuate dagli utenti del social, relative a violazioni della soglia di età consentita. Tuttavia, si augura che, nel prossimo futuro, tale meccanismo sia integrato con ulteriori sistemi che sfruttino la tecnologia già a disposizione delle piattaforme dei social network, e l’utilizzo dell’intelligenza artificiale, per raccogliere dati sull’età, ma non l’identità, dell’utente così come auspicato da Ginevra Cerrina Feroni, vicepresidente del Garante. Ma il sistema di age verification, responsabilità primaria dei social network, non può essere ritenuto di per sé sufficiente per proteggere i minori e hanno una responsabilità secondaria di creare anche meccanismi che impediscano ai bambini di venire in contatto con contenuti illeciti o atti di cyberbullismo. Le novità previste dal Digital Services Act proposto dalla Commissione Europea a fine 2020 potranno contribuire in tal senso ma è imprescindibile, da un lato, come detto dal Garante Pasquale Stanzione, «formare i ragazzi a questa nuova realtà promuovendo la pedagogia digitale e, soprattutto, un senso critico» e, dall’altro, promuovere campagne di sensibilizzazione che possano rendere i genitori consapevoli dell’importanza del loro ruolo di controllo e protezione del minore con riferimento agli aspetti digitali e social della vita di quest’ultimo».

Per Francesco Cerciello, associate del dipartimento Data protection di Eversheds Sutherland «il Gdpr, con riferimento ai requisiti del consenso dei minori in relazione ai servizi della società dell’informazione, richiede che il titolare si adoperi ragionevolmente per verificare che detto consenso sia prestato o autorizzato dal titolare della responsabilità genitoriale sul minore, in considerazione delle tecnologie disponibili. Ma in che modo è effettivamente possibile applicare le regole poste dalla normativa a tutela degli utenti minori? La soluzione risiede certamente nella corretta applicazione del principio c.d. «privacy-by-design» introdotto dall’articolo 25 del Gdpr, e nel ricorso alle tecnologie disponibili in considerazione dell’attuale stato dell’arte. Le piattaforme social dell’era digitale hanno massimizzato i profitti grazie alle innovazioni tecnologiche, mettendo sempre più i dati degli utenti al centro del proprio modello di business. E allora perché non sfruttare in maniera più sistematica le stesse tecnologie, fonte inesauribile di preziosi dati, per tutelare i propri utenti ed in particolare i minori? I fatti recenti ci hanno dimostrato che le misure ad oggi più adottate presentano ancora uno scarso grado di efficacia. Un ulteriore passo in avanti verso una maggiore garanzia dei minori potrebbe allora provenire dalle soluzioni algoritmiche dell’intelligenza artificiale».

Print Friendly, PDF & Email

Condividi su

Potrebbe interessarti anche
Oggi sulla stampa

Ancora nulla di fatto nell’Ue sull’energia. Anche il Consiglio dei ministri per l’energia riu...

Oggi sulla stampa

Oggi sulla stampa

I l rilancio di Mirafiori (con la relativa chiusura della Maserati di Grugliasco, alle porte di To...

Oggi sulla stampa

Oggi sulla stampa

La partita è cominciata. Si gioca tra Roma e Bruxelles, tra i negoziatori del Mef, che hanno il co...

Oggi sulla stampa