Approfondimento

Studio Universitario conferma: Scacchista bloccato da YouTube per aver usato “neri contro bianchi”

La storia dello scacchista bloccato da YouTube per aver usato “neri contro bianchi” l’avrete letta in questi giorni, e parla del modo sbagliato per combattere l’odio in Rete.

Certo, non possiamo pretendere un costante controllo umano sulla fiumana di commenti che costantemente tracimano nella Rete e dintorni. Ma se demandi tutto a una intelligenza artificiale, e la stessa ti banna per aver usato “neri contro bianchi” parlando di un incontro di scacchi, allora abbiamo un problema.

Ed anche un problema bello grave.

Scacchista bloccato da YouTube per aver usato “neri contro bianchi” – riassunto delle puntate precedenti

La storia comincia a Luglio 2020 sul canale Agadmator’s Chess Channel, un milione di abbonati a Febbraio 2021, che ospita “podcast”, commenti in streaming di partite di scacchi.

Il suo conduttore, Antonio Radić è uno YouTuber croato e giocatore di scacchi, al momento (dati i numeri coinvolti) lo YouTuber più popolare del settore.

Purtroppo, come abbiamo più volte visto per Twitch, anche YouTube talvolta sembra affidarsi troppo agli automatismi, e senza un “No stream Day” per protestare.

A Luglio 2020, dicevamo, Radić posta il commento di una partita del Giapponese-Americano Hikaru Nakamura, usando l’ordinario gergo scacchistico. Nel video non c’è niente diverso rispetto agli altri.

Si parla di cose come “neri contro bianchi” e “il nero muove in B6 al posto di C6. I bianchi vanno sempre meglio”.

Frasi assolutamente innocenti in gergo scacchistico, ma YouTube blocca l’intero Podcast senza ragione, costringendo un demotivato Radić ad adire le procedure di appello interno.

La procedura ha effetto: ventiquattro ore, misteriosamente come è stato cancellato, il Podcast ritorna, senza alcuna risposta.

Fosse per noi, la storia finirebbe qui. Ma è quel “senza apparente motivo” che ha scatenato la voglia di capire.

Lo Studio Universitario

Entra ora in scena l’Università Carnegie Mellon, sede delle prime scuole di informatica negli USA.

In assenza di risposte chiare, Ashiqur KhudaBukhsh e Rupak Sarkar, ricercatori della Carnegie Mellon, hanno speso gli ultimi mesi a sottoporre a rigidi test e simulazioni gli algoritmi usati per individuare il “linguaggio d’odio” nei Social, specializzandosi negli scacchi.

Scoprendo, con loro somma costernazione, che su un campione statistico di mille commenti a tema scacchistico, l’algoritmo ha reso l’82% di falsi positivi.

Ogni commento che parlava di “bianchi”, “neri”, “attacco”, “minaccia” e ogni forma di slang scacchistico riguardante le origini del gioco come competitivo e simulazione di scontro militare (per quanto artefatto) portava ad una segnalazione come “discorso d’odio”.

Secondo KhudaBukhsh simili algoritmi si basano su correttivi, dimostrati però al momento insufficiente. In questo caso, assai probabilmente l’algoritmo contiene al suo interno esempi di frasi proferite o usate da scacchisti.

Ciò comunque concorda che ove il contesto non sia fornito nel commento stesso, ma nel video, il commento singolo possa registrare un falso positivo.

Pensiamo ai casi evidenziati di “nero contro bianco”, il “bianco attacca il nero” e “i bianchi vanno sempre meglio”.

Un’intelligenza artificiale che cerca il contesto nella frase, vedendo queste tre frasi isolate non riuscirà a capire se si parla di una partita di scacchi, di una guerra tra bande o del commento di un suprematista bianco che incita alla rivolta violenta contro le persone di colore.

Le conclusioni

YouTube, interpellato dal Daily Mail, conferma che in caso di falsi positivi un appello dell’utente comporterà sempre un controllo manuale e quindi la rimozione del blocco.

Ma senza conferme sul meccanismo che rende i blocchi possibili, prospettive evolutive sugli stessi, i dubbi restano ed evidenti.

Abbiamo già visto, ad esempio, commentatori legati a QAnon usare sistemi di offuscamento assai primitivo per continuare i loro veri e propri contenuti di odio. Ad esempio, vergando minacce a Biden scrivendo il nome del Presidente degli USA come “Bi.den” con dei punti in mezzo o storpiature varie, da “Bidet” in poi.

L’uso di storpiare nomi di avversari politici, etnie e insulti razziali spesso non deriva da semplice ignoranza grammaticale o spirito infantile, ma dal tentativo di individuare la variante non censita dall’algoritmo e insistere sulla stessa.

Un sistema basato sull’algoritmo ha quindi un duplice rischio: sanzionare il falso positivo generando disaffezione, demotivazione e livore da un lato. Dall’altro, premiare la “creatività” del vero Seminatore d’Odio consentendogli di disseminare la sua mercanzia con astuzia.

Ci vuole un forte miglioramento del controllo delle IA.

Articoli recenti

Ancora equivoci su Emilio Fede morto oggi: l’ex giornalista è ancora vivo

Arrivano in queste ore, direttamente da social come TikTok e Facebook, alcune voci totalmente infondate su Emilio morto. Si tratta…

3 ore fa

I problemi di schiena di Fabio valutano la scrivania Flexispot colore nero E9

Mettiamo in chiaro subito che nessuno ci paga questa recensione.  L'accordo come sempre é che ci mandano un prodotto che…

1 giorno fa

Spiacente, non è vero che il sale assorbe malattie, l’umidità ambientale e le radiazioni

Non ultima una menzione televisiva di tale leggenda, ci è stata segnalata l'arcinota falsa credenza per cui il sale assorbe…

1 giorno fa

Confermati i problemi PayPal di oggi 21 novembre: down con login e numero assistenza

Ci sono conferme sui problemi PayPal di oggi 21 novembre, visto che abbiamo constatato anche noi una sorta di down…

1 giorno fa

La foto delle tre atlete dal bel sedere è generata con AI (Flux per di più)

Ci segnalano i nostri contatti un post Facebook che mostra "tre atlete dal bel sedere", chiedendo se sia normale guardarle…

2 giorni fa

La piattaforma di trading online della famiglia Berlusconi venduta da Amazon non esiste

Ci segnalano i nostri contatti una curiosa telefonata: una voce registrata che presenta la piattaforma di trading online della famiglia…

2 giorni fa