
Per Tyler Kay e Jordan Parlour, la giustizia per ciò che hanno pubblicato sui social media è arrivata velocemente e pesante.
Kay, 26 anni, e Parlour, 28 anni, sono stati condannati rispettivamente a 38 mesi e 20 mesi di carcere per aver fomentato l’odio razziale online durante le rivolte estive.
Le accuse successive al disturbo sono sembrate un momento significativo, in cui le persone hanno dovuto affrontare le conseguenze nella vita reale di ciò che hanno detto e fatto online.
È stato ampiamente riconosciuto che le false affermazioni e l’odio online hanno contribuito alla violenza e al razzismo nelle strade britanniche in agosto. Sulla loro scia, il primo ministro Keir Starmer ha affermato che i social media “hanno la responsabilità” di contrastare la disinformazione.
Più di 30 persone sono state arrestate per post sui social media. Da quello che ho scoperto, almeno 17 di loro sono stati accusati.
La polizia avrà ritenuto che alcuni degli indagati non raggiungessero la soglia di criminalità. E in molti casi, il sistema legale potrebbe essere il modo sbagliato di gestire i post sui social media.
Ma alcuni post che non hanno oltrepassato il limite della criminalità potrebbero comunque aver avuto conseguenze nella vita reale. Quindi per chi li ha realizzati, nessun giorno della resa dei conti.
E nemmeno, a quanto pare, per i giganti dei social media i cui algoritmi, più e più volte, sono accusati di dare priorità al coinvolgimento piuttosto che alla sicurezza, spingendo i contenuti indipendentemente dalla reazione che possono provocare.

All’epoca delle rivolte mi chiedevo se questo potesse essere il momento che avrebbe finalmente cambiato il panorama online.
Ora, però, non ne sono così sicuro.
Per capire il ruolo dei giganti dei social media in tutto questo, è utile iniziare guardando i casi di un papà in Pakistan e di una donna d’affari di Chester.
Su X (precedentemente noto come Twitter) un sito di pseudo-notizie chiamato Channel3Now ha pubblicato il nome falso del diciassettenne accusato dell’omicidio di tre ragazze a Southport. Questo falso nome venne poi ampiamente citato da altri.
Un’altra persona che ha condiviso il falso nome su X è stata Bernadette Spofforth, una 55enne di Chester con più di 50.000 follower. In precedenza aveva condiviso post che sollevavano domande sul blocco e sulle misure di cambiamento climatico a zero emissioni nette.
Anche i post di Channel3Now e della signora Spofforth suggerivano erroneamente che il diciassettenne fosse un richiedente asilo arrivato nel Regno Unito in barca.
Tutto questo, combinato con ulteriori affermazioni false provenienti da altre fonti secondo cui l’aggressore era musulmano, è stato ampiamente accusato di aver contribuito alle rivolte, alcune delle quali hanno preso di mira moschee e richiedenti asilo.
Ho scoperto che Channel3Now era collegato a un uomo di nome Farhan Asif in Pakistan, nonché a un giocatore di hockey in Nuova Scozia e qualcuno che affermava di chiamarsi Kevin. Il sito sembrava essere un’operazione commerciale che mirava ad aumentare le visualizzazioni e vendere annunci pubblicitari.
All’epoca, una persona che si dichiarava membro del management di Channel3Now mi disse che la pubblicazione del nome falso “era un errore, non intenzionale” e negò che fosse l’origine di quel nome.
E la signora Spofforth mi ha detto di aver cancellato il suo post falso sul sospettato non appena si è resa conto che era falso. Ha anche negato fermamente di aver inventato il nome.
Allora, cosa è successo dopo?
Farhan Asif e Bernadette Spofforth sono stati entrambi arrestati per questi incarichi non molto tempo dopo aver parlato con loro.
Le accuse, tuttavia, furono ritirate. Le autorità pakistane hanno affermato di non essere riuscite a trovare prove che il signor Asif fosse l’ideatore del nome falso. Anche la polizia del Cheshire ha deciso di non incriminare la signora Spofforth per “prove insufficienti”.
Il signor Farhan sembra essersi nascosto. Il sito Channel3Now e diverse pagine di social media collegate sono state rimosse.
Bernadette Spofforth, tuttavia, ora è tornata a pubblicare regolarmente su X. Solo questa settimana ha avuto più di un milione di visualizzazioni dei suoi post.
Dice di essere diventata una sostenitrice della libertà di espressione dopo il suo arresto. Dice: “Come è stato ora dimostrato, l’idea che un singolo tweet possa essere il catalizzatore delle rivolte che seguirono le atrocità di Southport semplicemente non è vera”.
Concentrarsi su questi casi individuali può offrire informazioni preziose su chi condivide questo tipo di contenuti e perché.
Ma per entrare nel vivo del problema è necessario fare un ulteriore passo indietro.
Sebbene le persone siano responsabili dei propri post, ho scoperto più e più volte che fondamentalmente dipende dal modo in cui funzionano i diversi siti di social media.
Anche le decisioni prese sotto il mandato di Elon Musk, il proprietario di X, fanno parte della storia. Queste decisioni includono la possibilità di acquistare segni di spunta blu, che danno maggiore risalto ai tuoi post, e un nuovo approccio alla moderazione che favorisce la libertà di espressione sopra ogni altra cosa.
Il capo della polizia antiterrorismo del Regno Unito, il vice commissario Matt Jukes, mi ha detto per il Newscast della BBC che “X è stato un enorme motore” di post che hanno contribuito ai disordini estivi.

Un team da lui supervisionato, chiamato Internet Referral Unit, ha notato “l’effetto sproporzionato di alcune piattaforme”, ha affermato.
Dice che ci sono stati circa 1.200 deferimenti – post segnalati alla polizia da membri del pubblico – solo in relazione alle rivolte. Per lui quella era “solo la punta dell’iceberg”. L’unità ha registrato 13 volte più referral in relazione a X rispetto a TikTok.
Agire su contenuti illegali e che violano le leggi sul terrorismo è, in un certo senso, la parte più facile. Più difficili da affrontare sono quei post che rientrano in quella che Jukes chiama la categoria “legittima ma terribile”.
L’unità segnala tale materiale ai siti su cui è stato pubblicato quando ritiene che violi i termini e le condizioni.
Ma Jukes ha trovato difficile gestire Telegram, che ospita numerosi grandi gruppi in cui si organizzava disordine e si condividevano odio e disinformazione.
Secondo Jukes, Telegram ha una “ferrea determinazione a non impegnarsi” con le autorità.
Elon Musk ha accusato le forze dell’ordine nel Regno Unito di cercare di controllare le opinioni su questioni come l’immigrazione e ci sono state accuse secondo cui le azioni intraprese contro i singoli manifesti sono state sproporzionate.
Jukes risponde: “Direi questo a Elon Musk se fosse qui, non staremmo arrestando persone per avere opinioni sull’immigrazione. (La polizia) è andata e ha arrestato persone per aver minacciato o incitato altri a bruciare moschee o hotel”.
Ma mentre la responsabilità è stata sentita “in modo molto acuto” da coloro che hanno partecipato ai disordini e hanno pubblicato contenuti odiosi online, Jukes ha affermato che “le persone che guadagnano miliardi fornendo tali opportunità” di pubblicare contenuti dannosi sui social media “non hanno ha davvero pagato qualsiasi prezzo”.
Vuole che l’Online Safety Act, che entrerà in vigore all’inizio del 2025, venga rafforzato in modo che possa gestire meglio i contenuti “leciti ma orribili”.
Telegram ha detto alla BBC che “non c’è spazio per gli inviti alla violenza” sulla sua piattaforma e ha affermato che “i moderatori hanno rimosso i canali britannici che incitavano ai disordini quando sono stati scoperti” durante le rivolte.
“Mentre i moderatori di Telegram rimuovono milioni di contenuti dannosi ogni giorno, il numero di utenti pari a quasi un miliardo causa crescenti problemi nella moderazione dei contenuti, che stiamo attualmente affrontando”, ha detto un portavoce.
Ho anche contattato X, che non ha risposto ai punti sollevati dalla BBC.
X continua a condividere nelle sue linee guida disponibili al pubblico che la sua priorità è proteggere e difendere la voce dell’utente.
Quasi tutte le indagini che svolgo ora si concentrano sulla progettazione dei siti di social media e sul modo in cui gli algoritmi inseriscono contenuti che innescano una reazione, solitamente indipendentemente dall’impatto che possono avere.
Durante il disordine gli algoritmi hanno amplificato la disinformazione e l’odio verso milioni di persone, attirando nuove reclute e incentivando le persone a condividere contenuti controversi per ottenere visualizzazioni e Mi piace.
Perché le cose non cambiano? Ebbene, da quello che ho scoperto, le aziende dovrebbero essere costrette a modificare i loro modelli di business. E per i politici e i regolatori, ciò potrebbe rivelarsi davvero una sfida molto grande.
Approfondimento della BBC è la nuova sede sul sito web e sull’app per le migliori analisi e competenze dei nostri migliori giornalisti. Sotto un nuovo marchio distintivo, ti offriremo nuove prospettive che mettono alla prova le ipotesi e resoconti approfonditi sulle questioni più grandi per aiutarti a dare un senso a un mondo complesso. E presenteremo anche contenuti stimolanti provenienti da BBC Sounds e iPlayer. Iniziamo in piccolo ma pensiamo in grande e vogliamo sapere cosa ne pensi: puoi inviarci il tuo feedback facendo clic sul pulsante in basso.