Approfondimento

Studio Universitario conferma: Scacchista bloccato da YouTube per aver usato “neri contro bianchi”

La storia dello scacchista bloccato da YouTube per aver usato “neri contro bianchi” l’avrete letta in questi giorni, e parla del modo sbagliato per combattere l’odio in Rete.

Certo, non possiamo pretendere un costante controllo umano sulla fiumana di commenti che costantemente tracimano nella Rete e dintorni. Ma se demandi tutto a una intelligenza artificiale, e la stessa ti banna per aver usato “neri contro bianchi” parlando di un incontro di scacchi, allora abbiamo un problema.

Ed anche un problema bello grave.

Scacchista bloccato da YouTube per aver usato “neri contro bianchi” – riassunto delle puntate precedenti

La storia comincia a Luglio 2020 sul canale Agadmator’s Chess Channel, un milione di abbonati a Febbraio 2021, che ospita “podcast”, commenti in streaming di partite di scacchi.

Il suo conduttore, Antonio Radić è uno YouTuber croato e giocatore di scacchi, al momento (dati i numeri coinvolti) lo YouTuber più popolare del settore.

Purtroppo, come abbiamo più volte visto per Twitch, anche YouTube talvolta sembra affidarsi troppo agli automatismi, e senza un “No stream Day” per protestare.

A Luglio 2020, dicevamo, Radić posta il commento di una partita del Giapponese-Americano Hikaru Nakamura, usando l’ordinario gergo scacchistico. Nel video non c’è niente diverso rispetto agli altri.

Si parla di cose come “neri contro bianchi” e “il nero muove in B6 al posto di C6. I bianchi vanno sempre meglio”.

Frasi assolutamente innocenti in gergo scacchistico, ma YouTube blocca l’intero Podcast senza ragione, costringendo un demotivato Radić ad adire le procedure di appello interno.

La procedura ha effetto: ventiquattro ore, misteriosamente come è stato cancellato, il Podcast ritorna, senza alcuna risposta.

Fosse per noi, la storia finirebbe qui. Ma è quel “senza apparente motivo” che ha scatenato la voglia di capire.

Lo Studio Universitario

Entra ora in scena l’Università Carnegie Mellon, sede delle prime scuole di informatica negli USA.

In assenza di risposte chiare, Ashiqur KhudaBukhsh e Rupak Sarkar, ricercatori della Carnegie Mellon, hanno speso gli ultimi mesi a sottoporre a rigidi test e simulazioni gli algoritmi usati per individuare il “linguaggio d’odio” nei Social, specializzandosi negli scacchi.

Scoprendo, con loro somma costernazione, che su un campione statistico di mille commenti a tema scacchistico, l’algoritmo ha reso l’82% di falsi positivi.

Ogni commento che parlava di “bianchi”, “neri”, “attacco”, “minaccia” e ogni forma di slang scacchistico riguardante le origini del gioco come competitivo e simulazione di scontro militare (per quanto artefatto) portava ad una segnalazione come “discorso d’odio”.

Secondo KhudaBukhsh simili algoritmi si basano su correttivi, dimostrati però al momento insufficiente. In questo caso, assai probabilmente l’algoritmo contiene al suo interno esempi di frasi proferite o usate da scacchisti.

Ciò comunque concorda che ove il contesto non sia fornito nel commento stesso, ma nel video, il commento singolo possa registrare un falso positivo.

Pensiamo ai casi evidenziati di “nero contro bianco”, il “bianco attacca il nero” e “i bianchi vanno sempre meglio”.

Un’intelligenza artificiale che cerca il contesto nella frase, vedendo queste tre frasi isolate non riuscirà a capire se si parla di una partita di scacchi, di una guerra tra bande o del commento di un suprematista bianco che incita alla rivolta violenta contro le persone di colore.

Le conclusioni

YouTube, interpellato dal Daily Mail, conferma che in caso di falsi positivi un appello dell’utente comporterà sempre un controllo manuale e quindi la rimozione del blocco.

Ma senza conferme sul meccanismo che rende i blocchi possibili, prospettive evolutive sugli stessi, i dubbi restano ed evidenti.

Abbiamo già visto, ad esempio, commentatori legati a QAnon usare sistemi di offuscamento assai primitivo per continuare i loro veri e propri contenuti di odio. Ad esempio, vergando minacce a Biden scrivendo il nome del Presidente degli USA come “Bi.den” con dei punti in mezzo o storpiature varie, da “Bidet” in poi.

L’uso di storpiare nomi di avversari politici, etnie e insulti razziali spesso non deriva da semplice ignoranza grammaticale o spirito infantile, ma dal tentativo di individuare la variante non censita dall’algoritmo e insistere sulla stessa.

Un sistema basato sull’algoritmo ha quindi un duplice rischio: sanzionare il falso positivo generando disaffezione, demotivazione e livore da un lato. Dall’altro, premiare la “creatività” del vero Seminatore d’Odio consentendogli di disseminare la sua mercanzia con astuzia.

Ci vuole un forte miglioramento del controllo delle IA.

Articoli recenti

E voi lo sapete il nome della Signora Natale?

E voi lo sapete il nome della Signora Natale? Spoiler: abbiamo messo questa notizia tra le false credenze perché la…

54 minuti fa

No, questo non è il modulo di consenso informato Pfizer che parla di “vaccino sperimentale”

Ci segnalano i nostri contatti un modulo di consenso informato Pfizer che parla di "vaccino sperimentale", o meglio dichiara il…

2 ore fa

Il brevetto del vaccino Pfizer del 2019 non era un brevetto del vaccino Pfizer

Una delle fake news pandemiche più diffuse riguarda Cominarty, ovvero l'esistenza di un brevetto del vaccino Pfizer del 2019, che…

2 ore fa

No, non potete credere anche alla bufala dell’automobilista multato e trattato come un criminale per aver preso la tachipirina…

No, non potete credere anche alla bufala dell'automobilista multato e trattato come un criminale per aver preso la tachipirina. E…

6 ore fa

Non è vero che Trump ha definito i Repubblicani gli elettori più stupidi

Ci segnalano i nostri contatti un post su X secondo cui Trump ha definito i Repubblicani gli elettori più stupidi…

7 ore fa

Il “terribile hackeraggio di K2” e le creeypasta che arrivano in Italia

Il terribile hackeraggio di K2 fa parte del genere delle Creepypasta, storie e storelle dell'orrore diffuse sui social come "pillole…

10 ore fa