PERCHÈ ALCUNI PALESTINESI RITENGONO DI ESSERE POCO VISIBILI SUI SOCIAL?

L'"Algospeak" è una tattica di elusione della moderazione automatica sui social media, in cui gli utenti creano nuove parole da usare al posto di quelle che potrebbero essere individuate dai filtri dell'intelligenza artificiale. Le persone possono riferirsi ai morti come "unalive", al sesso come "seggs" o al porno come "corn" (o semplicemente l'emoji del mais).

Esiste anche un termine algospeak per i palestinesi: "P*les+in1ans". La sua stessa esistenza è indice della preoccupazione di molte persone che pubblicano e condividono contenuti a favore della Palestina durante la guerra tra Hamas e Israele, di essere ingiustamente soppresse. Alcuni utenti ritengono che i loro account, insieme ad alcuni hashtag, siano stati "banditi" come risultato.

L'algospeak è solo uno dei metodi sviluppati dagli utenti, più o meno efficaci, per eludere la soppressione su piattaforme come TikTok, Instagram e Facebook. Le persone possono usare hashtag non correlati, screenshottare invece di postare, o evitare di usare hashtag arabi per cercare di eludere le limitazioni apparenti ma non chiare sui contenuti riguardanti la Palestina. Non è chiaro se questi metodi funzionino davvero, ma la loro diffusione tra gli attivisti e su Internet dimostra la reale paura di avere questi contenuti nascosti al resto del mondo.

L'idea di "shadowbanning" è molto diffusa, è difficile da dimostrare e non è sempre facile da definire. Di seguito una guida alla sua storia, al modo in cui si manifesta e a ciò che gli utenti dei social media possono fare al riguardo.

Che cos'è lo shadowbanning?
Lo shadowbanning è una forma spesso occulta di moderazione della piattaforma che limita chi vede un contenuto, piuttosto che vietarlo del tutto. Secondo un'indagine di Vice sulla storia del termine, è probabile che la sua origine risalga ai sistemi di bacheca internet degli anni Ottanta.

Nelle sue prime versioni lo shadowbanning funzionava come una sorta di quarantena digitale: gli utenti bannati potevano ancora accedere e postare nella comunità, ma nessun altro poteva vedere i loro messaggi. Erano presenti, ma ridotti. Se qualcuno veniva bannato da uno degli amministratori del sito per aver postato cose terribili su una bacheca, veniva essenzialmente degradato a postare nel nulla, senza sapere che era così.

I social media, con la loro evoluzione, hanno stravolto il modo in cui le comunità si formano e si riuniscono online e la definizione di shadowbanning si è ampliata. Le persone vengono lette online non solo creando un account e pubblicando nello spazio virtuale di una comunità, ma capendo come ottenere un coinvolgimento attraverso gli algoritmi e gli strumenti di scoperta di un sito, ottenendo condivisioni da utenti influenti, acquistando annunci e costruendo un proprio seguito. La moderazione è diventata più complicata man mano che gli utenti diventavano più esperti nel farsi vedere e nell'aggirare i filtri automatici.

A questo punto per shadowbanning si intende qualsiasi "metodo davvero opaco per nascondere gli utenti dalla ricerca, dall'algoritmo e da altre aree in cui i loro profili potrebbero comparire", ha dichiarato Jillian York, direttore per la libertà di espressione internazionale della Electronic Frontier Foundation (EFF). Un utente potrebbe non sapere di essere stato bannato. Potrebbe invece notarne gli effetti: un improvviso calo dei like o dei repost, per esempio. Anche i loro follower potrebbero avere problemi a vedere o condividere i contenuti pubblicati da un account shadowbannato.

Se provenite dagli Stati Uniti, potreste conoscere lo shadowbanning come un termine usato da attivisti e politici conservatori che ritengono che i siti di social media - in particolare Facebook e Twitter (ora X) - abbiano deliberatamente censurato le opinioni di destra. Si tratta di una campagna che dura da anni e che ha provocato cause legali e audizioni del Congresso.

Sebbene le prove che queste piattaforme si siano impegnate in una censura sistematica dei conservatori siano scarse, l'idea sembra prendere piede ogni volta che una piattaforma agisce contro un account di destra di spicco con un grande seguito. La Corte Suprema ha recentemente accettato di ascoltare un paio di cause che contestano le leggi del Texas e della Florida che limitano il modo in cui le aziende di social media possono moderare i loro siti.

Perché ci si preoccupa dello shadowbanning in relazione alla guerra tra Israele e Hamas?
La guerra produce un'ondata di immagini violente, di propaganda e di disinformazione online, che circolano a un ritmo rapido e scatenano intense reazioni emotive da parte di chi le guarda. È inevitabile. La preoccupazione degli attivisti e degli osservatori dei diritti digitali è che i contenuti sui palestinesi non vengano trattati in modo equo dai sistemi di moderazione delle piattaforme, portando, tra l'altro, allo shadowbanning.

I veri e propri divieti di accesso sono ben visibili sia al titolare dell'account che a chiunque altro sulla piattaforma. Alcuni strumenti di moderazione progettati per combattere la disinformazione prevedono la segnalazione pubblica dei contenuti con box informativi o avvisi. Lo shadowbanning, in confronto, non è etichettato pubblicamente e le piattaforme potrebbero non dire a un utente che la portata del suo account è limitata, o perché. Alcuni utenti, tuttavia, hanno notato segnali che indicano la possibilità di essere shadowbannati dopo aver pubblicato un post sulla Palestina. Secondo Mashable, tra questi ci sono utenti di Instagram che hanno visto crollare il loro engagement dopo aver postato con la loro posizione impostata su Gaza in segno di solidarietà, aver condiviso link a raccolte fondi per aiutare la popolazione palestinese o aver pubblicato contenuti a sostegno dei palestinesi.

Alcune organizzazioni per i diritti digitali, tra cui l'EFF e 7amleh, il Centro arabo per l'avanzamento dei social media, stanno monitorando attivamente le potenziali violazioni dei diritti digitali dei palestinesi durante il conflitto, in particolare su Instagram, dove alcuni attivisti palestinesi hanno notato cambiamenti preoccupanti nelle modalità di circolazione dei loro contenuti nelle ultime settimane.

"Questi includono il divieto di usare nomi arabi per le recenti escalation [cioè la guerra tra Israele e Hamas], mentre è consentito l'uso del nome ebraico, la limitazione dei commenti da parte di profili che non sono amici e... una significativa riduzione della visibilità dei post, dei Reel e delle storie", ha scritto Nadim Nashif, cofondatore e direttore di 7amleh, in una e-mail a Vox.

In una dichiarazione, Meta ha affermato che i problemi di visibilità dei post che hanno colpito alcuni utenti palestinesi sono dovuti a un "bug" globale e che alcuni hashtag di Instagram non sono più ricercabili perché una parte dei contenuti che li utilizzano viola le regole di Meta. La dichiarazione di Meta non cita gli hashtag specifici che sono stati limitati in base a questa politica.

Mona Shtaya, un'attivista palestinese per i diritti digitali, è intervenuta su Instagram per descrivere il divieto di usare gli hashtag come una "punizione collettiva contro le persone che condividono pensieri politici o documentano le violazioni dei diritti umani", che avrà un impatto negativo sugli sforzi per verificare i fatti e condividere informazioni accurate sulla situazione a Gaza.

Qual è la differenza tra shadowbanning e pregiudizio della moderazione?
Lo shadowbanning è solo un aspetto di un problema più ampio che gli esperti di diritti digitali stanno monitorando quando si tratta di potenziali pregiudizi nell'applicazione delle regole di una piattaforma. E questo non è un problema nuovo per i contenuti pro-palestinesi.

Le distorsioni nella moderazione "si presentano in molti modi diversi e non sempre sono intenzionali", ha detto York. Le piattaforme potrebbero non disporre di risorse sufficienti o non avere le competenze linguistiche necessarie per una lingua specifica, cosa che, secondo York, è stata a lungo un problema nel modo in cui le piattaforme con sede negli Stati Uniti, come Meta, moderano i contenuti in arabo. "Ci potrebbe essere un numero significativo di moderatori di contenuti in lingua araba, ma hanno difficoltà perché l'arabo è composto da una serie di dialetti diversi", ha osservato.

I pregiudizi emergono anche nel modo in cui alcuni termini vengono classificati dagli algoritmi di moderazione. Sappiamo che questo specifico tipo di pregiudizio può colpire i contenuti palestinesi perché è già successo in passato. Nel 2021, durante un'altra escalation del conflitto tra Hamas e Israele, i gruppi per i diritti digitali hanno documentato centinaia di rimozioni di contenuti che sembravano colpire ingiustamente i sentimenti pro-Palestina. Meta ha infine riconosciuto che i suoi sistemi bloccavano i riferimenti alla Moschea di al-Aqsa, un luogo sacro per i musulmani che era stato erroneamente segnalato dai sistemi di Meta come collegato a gruppi terroristici.

Meta ha commissionato un rapporto indipendente sulle sue decisioni di moderazione durante il conflitto del 2021, che ha documentato le debolezze di Meta nel moderare i post arabi nel contesto. Il rapporto ha anche rilevato che le decisioni di Meta "sembrano aver avuto un impatto negativo sui diritti umani" sui diritti degli utenti palestinesi "alla libertà di espressione, alla libertà di riunione, alla partecipazione politica e alla non discriminazione".

In risposta al rapporto, Meta ha promesso di rivedere le sue politiche in materia e di migliorare la moderazione dell'arabo, anche assumendo più moderatori esperti in dialetti specifici. L'attuale moderazione di Meta sui contenuti della guerra tra Israele e Hamas è guidata da un gruppo centralizzato con competenze in ebraico e arabo, ha dichiarato l'azienda. Alcune rimozioni di contenuti, hanno aggiunto, stanno avvenendo senza "strike" dell'account per evitare di bannare automaticamente gli account a cui sono stati tolti i contenuti per errore.

Quali altri contenuti vengono shadowbannati?
I reclami di shadowbanning sono associati a questioni divisive. Ma probabilmente i casi meglio documentati hanno a che fare con il modo in cui le principali piattaforme gestiscono i contenuti su nudità e sesso. Le lavoratrici del sesso hanno da tempo documentato i propri shadowbanning sulle piattaforme di social media tradizionali, in particolare dopo che un paio di leggi approvate nel 2018, volte a fermare il traffico sessuale, hanno rimosso le protezioni per le piattaforme online che ospitavano un'ampia gamma di contenuti sul sesso.

In generale, ha detto York, gli shadowbans diventano utili strumenti di moderazione per le piattaforme quando l'atto di limitare direttamente certi tipi di contenuti potrebbe diventare un problema per loro.

"Non vogliono essere visti come se avessero tagliato fuori completamente le persone", ha detto. "Ma se ricevono pressioni da più parti, che si tratti di governi, azionisti o inserzionisti, è probabilmente nel loro interesse cercare di limitare alcuni tipi di discorso, consentendo al contempo alle persone di rimanere sulla piattaforma, in modo che la questione diventi meno controversa".

I contenuti di TikTok possono anche essere banditi, secondo le linee guida della comunità, che indicano che la piattaforma "può ridurre la scopribilità, anche reindirizzando i risultati di ricerca, o rendendo i video non idonei alla raccomandazione nel feed 'Per te'" per le violazioni. Altre piattaforme, come Instagram, YouTube e X, hanno utilizzato strumenti per declassare o limitare la portata di contenuti "borderline" o inappropriati, come definito dai loro sistemi di moderazione.

Sebbene sia molto difficile - se non impossibile - provare lo shadowbanning, a meno che un'azienda non decida di confermarlo, ci sono alcuni casi documentati di pregiudizi insiti in questi sistemi di moderazione che, pur non rientrando nella definizione di shadowbanning, potrebbero valere la pena di essere presi in considerazione nel tentativo di valutare le denunce. Nel 2021 TikTok ha dovuto correggere un errore che vietava automaticamente ai creatori di utilizzare frasi come "persone di colore" o "successo nero" nei loro profili di marketing per il database della piattaforma di creatori disponibili a creare contenuti sponsorizzati per i marchi. Nel 2017, i creatori LGBTQ hanno scoperto che YouTube aveva etichettato come "contenuti riservati" i video altrimenti innocui in cui comparivano persone LGBTQ, limitandone la visualizzazione.

Come si fa a capire se il proprio account è stato shadowbannato?
Può essere difficile! "Ho l'impressione che spesso le aziende non facciano luce su questo argomento", ha dichiarato York. Molte piattaforme, ha proseguito, "non ammettono nemmeno l'esistenza del shadowbanning", anche se utilizzano strumenti di moderazione automatica come filtri per parole chiave o limitazioni di account che sono in grado di creare shadowbanning. E alcuni dei segni rivelatori dello shadowbanning - perdita di follower, calo del coinvolgimento - potrebbero essere spiegati da una perdita organica di interesse nei confronti dei contenuti di un utente o da un legittimo bug del software.

Alcuni siti specifici per le piattaforme promettono di analizzare il vostro account e di farvi sapere se siete stati shadowbannati, ma questi strumenti non sono infallibili (inoltre, bisogna fare attenzione a fornire le informazioni sul proprio account a un sito di terze parti). Secondo York, una soluzione c'è: le aziende potrebbero essere più trasparenti sui contenuti che eliminano o limitano e spiegarne il motivo.

Trovare informazioni valide su un conflitto è già difficile. Questo è particolarmente vero per chi cerca di saperne di più sulla guerra tra Israele e Hamas e, in particolare, su Gaza. Pochi giornalisti sono stati in grado di fare reportage sul campo da Gaza, rendendo estremamente difficile la verifica e la contestualizzazione della situazione. Secondo il Committee to Protect Journalists, dall'inizio della guerra sono morti 29 giornalisti. L'aggiunta dello spettro dei divieti a questa crisi di informazioni affidabili rende difficile fornire e amplificare le testimonianze di prima mano a un pubblico più ampio.

di A.W. Ohlheiser, pubblicato su VOX, il 29 ottobre 2023, e tradotto dalla Redazione di MILANOpiazzaFONTANA.

Il link all'articolo originale è: https://www.vox.com/technology/23933846/shadowbanning-meta-israel-hamas-war-palestine