Siete qui: Oggi sulla stampa
Oggi sulla stampa

Etica ( fragile ) di Facebook  

Fa impressione immaginare i revisori di Facebook — sono 4.500 in tutto il mondo; l’anno prossimo diventeranno 7.500 — che consultano febbrilmente il materiale a loro disposizione per decidere se il tal insulto deve essere considerato potenzialmente pericoloso (è una minaccia generica o una minaccia concreta?), e va subito rimosso dalla piattaforma. Se la tal immagine è sessualmente esplicita (le mani coprono a sufficienza le parti intime?) al punto da dover essere eliminata. O se conviene delegare a un manager la decisione.

Spesso hanno «soltanto dieci secondi» di tempo per valutare come applicare la morale secondo Menlo Park: regole contenute in centinaia di documenti pubblicati dal quotidiano britannico Guardian . «Facebook non può mantenere il controllo del suo contenuto. È cresciuto troppo in fretta», ha dichiarato una fonte alla testata britannica.

Non può, però, non provarci più, trincerandosi dietro lo scudo di piattaforma neutra, con tutte le forze umane e tecnologiche a sua disposizione al cospetto di Paesi come la Germania che sono pronti a infliggere alla società di Zuckerberg multe salatissime.

Su cosa vada mostrato ai quasi due miliardi di iscritti il social network ha le idee chiare, per quanto i confini siano così labili da chiedersi come possano essere applicate in modo sistematico e soprattutto se sia giusto non renderle pubbliche in via ufficiale. Un post che invita a sparare a Donald Trump, ad esempio, va rimosso, perché il Presidente degli Stati Uniti è un figura pubblica (per Facebook lo è chiunque abbia più di 100 mila seguaci). Ma una frase come «spero che qualcuno ti ammazzi» detta a un generico utente, o le indicazioni per «spezzare il collo» a qualcuno, possono rimanere lì, non venendo ritenute minacce credibili. In fondo, lo ha appena ricordato il co-fondatore di Twitter Evan Williams: «Internet premia gli estremi». E per Facebook evidentemente non vale sempre la pena prenderli su serio.

Tornando alle regole, i video di morti violente «possono aiutare a creare consapevolezza», quindi più che rimossi vanno contrassegnati in modo da proteggere i minori e per dare agli adulti la possibilità di scegliere se guardarli o meno.

Ancora più larghe le maglie per le dirette (che non possono essere inframmezzate da avvisi), di persone che vogliono farsi del male. Come già evidenziato con il sistema di prevenzione dei suicidi, Facebook vuole provare (a contribuire) a fermare chi sta per compiere un gesto sconsiderato. Quando non è più possibile intervenire, il contenuto va rimosso. Attenzione ai dati: le segnalazioni in merito stanno aumentando (4.531 in due settimane lo scorso anno e 5.431 in un lasso di tempo pari nel corso di quest’anno).

Il materiale relativo ad abusi non sessuali e a bullismo sui minori è consentito, a meno che non contenga elementi sadici o celebrativi. Lo stesso metro viene applicato se animali o adulti sono protagonisti di violenze. Eccezioni per il nudo: passa se è rilevante e notiziabile.

La «Napalm Girl» non verrà (più) cancellata.

Martina Pennisi

Print Friendly

Condividi su

Potrebbe interessarti anche
Oggi sulla stampa

«È cruciale evitare di ritirare le politiche di sostegno prematuramente, sia sul fronte monetario ...

Oggi sulla stampa

Oggi sulla stampa

Dopo aver fatto un po’ melina nella propria metà campo, il patron del gruppo Acs, nonché preside...

Oggi sulla stampa

Oggi sulla stampa

Una forte ripresa dell’economia tra giugno e luglio. È su questo che scommette il governo: uscire...

Oggi sulla stampa