Svelata l’etica di Facebook, “incapace” di controllare i post

Un cartellone pubblicitario di Facebook: una chiusura lampo si apre su dei libri.
Un cartellone pubblicitario di Facebook: una chiusura lampo si apre su dei libri.(ANSA)

ROMA. – “Facebook incapace di mantenere il controllo sul suo contenuto”, “è cresciuta troppo, troppo in fretta”, tanto che “spesso” i suoi moderatori – persone in carne e ossa, non algoritmi – hanno “appena 10 secondi” per fare una scelta. Per decidere, ad esempio, se rimuovere o meno video hard come quelli che in Italia hanno portato Tiziana Cantone al suicidio.

È il quadro che emerge dalle rivelazioni del Guardian sulle regole interne di Facebook per la moderazione di argomenti sensibili, dal terrorismo alla pornografia. Il social, incalzato spesso sul tema anche in Italia, si difende sottolineando che mantenere le persone “al sicuro” è la sua priorità. Quasi due miliardi di utenti e decine di migliaia di post condivisi ogni minuto: Facebook non riesce a monitorare tutto, afferma il quotidiano britannico.

E oltre ai contenuti razzisti, violenti, porno e ai commenti d’odio, negli ultimi mesi sono finiti in diretta video sul social anche crimini particolarmente brutali. Dall’omicidio di un pensionato Cleveland al padre che, prima di suicidarsi, ha impiccato la figlia di 11 mesi in Thailandia.

Un problema che lo stesso Mark Zuckerberg ha riconosciuto pubblicamente e che il social ripete di affrontare nella maniera più seria. Non solo aggiungendo altre 3 mila persone alle 4.500 che già si occupano della moderazione dei contenuti, ma anche sviluppando strumenti sempre più avanzati.

Intanto però lo scenario tracciato dall’inchiesta del Guardian è particolarmente torbido. Sul social gli utenti possono segnalare i contenuti offensivi, ma poi cosa accade? Finora la “bibbia” interna di Facebook non era mai stata svelata.

I documenti, oltre cento manuali interni, ottenuti e pubblicati dal quotidiano britannico rivelano per la prima volta come la compagnia decide quali contenuti possono o non possono restare sulla piattaforma. La sua “etica” insomma. Indicazioni che spesso portano i moderatori a prendere decisioni controverse.

Ecco qualche esempio. Secondo Facebook consentire la circolazione di certi video di violenza “può creare consapevolezza in chi li vede” ed è per questo che non vanno rimossi. È il caso dei video che mostrano abusi su bambini, a meno che non siano di tipo sessuale o sadico, e di quelli che mostrano violenza nei confronti degli animali, anche con mutilazioni o tortura. In questo caso però vanno almeno etichettati come “inquietanti”.

Anche il linguaggio violento non è ritenuto “credibile” se le minacce sono “generiche”. Indirizzarle a un personaggio noto, come il presidente americano Donaldn Trump, o a categorie vulnerabili, non è invece ammesso.

Gli stessi moderatori sembrano avanzare perplessità, giudicando in particolare le indicazioni sui contenuti sessuali “le più complesse e confuse”. Per fare un esempio, le immagini di aborti sono accettate “purché non mostrino nudità”. Altro nodo quello della pubblicazione di filmati in cui le persone tentano di farsi del male: è consentita perché il social “non vuole censurare o punire chi è in difficoltà”. Quando non c’è più possibilità di intervenire il video può essere rimosso.

(di Stefania Passarella/ANSA)