IA Scambia la chat di scacchi per razzismo, canale YouTube bloccato

YouTube a causa di un errore di lettura della sua intelligenza artificiale ha bloccato per razzismo un canale che parla di scacchi

youtube, antonio radic, scacchi
Credits: YouTube/ No Reverse Gear Elizabeth! || Harmon vs Beltik || Netflix's Queen's Gambit - agadmator's Chess Channel
Condividi l'articolo

Da diverso tempo oramai YouTube utilizza un algoritmo per cercare di capire quali video caricati sulla sua piattaforma contengano contenuti controversi o potenzialmente problematici. Tuttavia, essendo un sistema di intelligenza artificiale non ancora perfetto, sono molti i casi riscontrati nei quali video o interi canali vengono puniti per aver utilizzato termini che in alcuni contesti possono essere vietati ma in altri sono perfettamente legittimi. Uno di questi riguarda Antonio Radic, il proprietario del più importante canale di scacchi al mondo, Agadmator, specializzato nel mostrare le partite del nobile gioco.

Per come sono strutturati gli incontri al giovane capita spesso di utilizzare termini come “bianco attacca nero”, “nero minaccia bianco” o simili. L’abuso, tuttavia contestualizzato di questi termini, ha portato lo scorso 28 giugno, l’algoritmo di YouTube a segnalare il canale di Radic per incitamento all’odio razziale e bloccarlo dunque per 24 ore.

Lo studio sull’algoritmo di YouTube

A distanza di diversi mesi, uno studio, condotto da Ashique R. KhudaBukhsh e Rupak Sarkar della Carnegie Mellon University, ha spiegato come ad aver causato il blocco sia stato l’uso dell’espressione bianco contro nero, usato dal videomaker mentre commentava una partita del Gran Maestro Hikaru Nakamura.

LEGGI ANCHE:  Nirvana: Smells Like Teen Spirit a 1 miliardo di views

Se si affidano all’intelligenza artificiale per rilevare il linguaggio razzista, questo tipo di incidente può accadere – ha spiegato Ashiqur KhudaBukhsh.

Lo scienziato ha testato questa teoria utilizzando un classificatore vocale all’avanguardia per selezionare più di 680.000 commenti raccolti da cinque popolari canali YouTube incentrati sugli scacchi. Dopo aver esaminato manualmente una selezione di 1.000 commenti che erano stati classificati dall’intelligenza artificiale come incitamento all’odio, ha scoperto che l’82% di essi era stato classificato erroneamente a causa dell’uso di parole come “nero”, “bianco”, “attacco” e ” minaccia ”- tutti comunemente usati nel linguaggio degli scacchi.

La soluzione dunque è quella di incorporare nel software termini tipici degli scacchi, alcuni divenuti anche popolarissimi grazie a La Regina degli Scacchi, onde evitare errori simili in futuro. Tuttavia la strada per una totale efficienza dell’algoritmo di YouTube è ancora lunga.

Cosa ne pensate?