Editoriale

Dopo la presunta AI senziente, la AI razzista: come proiettiamo l’umano nel robot

Dopo la presunta AI senziente, la AI razzista: vi abbiamo già parlato in lungo e in largo della LaMDA di Google. Un chatbot evolutissimo in grado di apprendere come usare un frasario di conversazioni così coerente da apparire senziente. Così tanto da avere un ingegnere pronto a giurare sulle sue qualità umane tanto da cercarle un avvocato e chiedere che le siano dati diritti umani.

In tale occasione abbiamo parlato del meccanismo dei chatbot e dei LaMDA: evoluzioni del gioco dell’imitazione o della Stanza Cinese. Riassumeremo brevemente per capire come si arriva alla “AI Razzista”.

Nel “Gioco dell’Imitazione” si prende un uomo che non conosce la lingua cinese e gli ideogrammi, ma solo una lingua occidentale con un alfabeto del tutto diverso e gli si da’ un ricco frasario.

Ogni tanto qualcuno gli passa un bigliettino in cinese. L’uomo sa che un bigliettino corrisponde ad una determinata frase (che lui non può tradurre) nel suo frasario c’è almeno una risposta coerente. L’Uomo la trascrive e la fornisce all’avventore. Se la frase è convincente l’avventore penserà li dentro ci sia non un uomo che finge di sapere il cinese, ma uno che il cinese lo parla davvero.

Ad esempio l’avventore potrebbe scrivere “Io so suonare la chitarra”. L’Uomo nella stanza chiusa cerca una frase simile e allunga all’avventore un bigliettino con scritto “Ma è stupendo!” oppure, nel caso dei LaMDA evoluti in grado di simulare il caotico fluire di una conversazione, “Bellissimo! Mio padre aveva una chitarra Gibson! L’ha pagata molto e suonava tutte le sere”, in modo da stimolare conversazioni sull’argomento musica, padri o chitarre costose.

Ma lo stesso problema si verifica non solo con AI dedicate al linguaggio, ma anche alla protocollazione ed alla descrizione.

Dopo la presunta AI senziente, la AI razzista: come proiettiamo l’umano nel robot

Parliamo delle AI di tipo “CLIP” (Contrastive Language–Image Pre-training), quelle che connettono testo e immagini.

In questo caso non c’è un “uomo occidentale” con un dizionario cinese, ma un uomo occidentale a cui vengono mostrate foto di cose e persone con possibili didascalie in cinese.

Una CLIP potrà imparare che un oggetto lungo e curvo è una banana ed è un frutto, ma anche un tubo di plastica.

Come per i Chatbot, prende i suoi dati dagli esseri umani, imparando da ogni errore o dal “mare magno della Rete”. Puoi mettere una AI online e farla “discutere” con migliaia di persone.

Come l'”Uomo della Stanza Chiusa” che potrebbe diventare sorprendentemente bravo a far finta di conoscere il cinese migliorando il suo frasario e “libro delle didascalie” ogni volta che lo correggi.

Il problema è: chi corregge l’Intelligenza Artificiale? Un umano, o meglio una serie di umani. Umani coi loro difetti e i loro bias di conferma.

Immaginate quindi che ad una CLIP sia chiesto non di riconoscere un tubo e una banana, ma un dottore da un criminale, un avvocato da una casalinga.

Esponete quindi questa AI ad una torma di “veraggente” sulla Rete per cui l’uomo di colore medio è sempre e invariabilmente “un immigrato con l’iPhone che ci ruba il lavoro e compie crimini” (anche a costo di rendersi ridicoli dando del criminale a Will Smith o Samuel L. Jackson perché non li hanno riconosciuti in foto) e l’uomo bianco è sempre retto e giusto, fosse anche una foto del processo al Mostro di Firenze ricondivisa come “Povero pensionato angariato da ladri zingari”.

Per cui la foto di una donna è perlopiù la foto di una casalinga e la foto di uomo è perlopiù quella di un lavoratore.

Otterremmo la “AI Razzista”: non perché le AI provino il razzismo, ma perché all’uomo nella stanza chiusa sono state consegnate solo didascalie “da veraggente” e non ragionate.

E si ritorna al problema di cui sopra: per quanto raffinata, una AI non è senziente. Ed è tanto abile quanto la sua programmazione è buona.

Immagine tratta da Futurama, “Hell Is Other Robots” (1ACV09) 

Condividi
Pubblicato da
Tags: editoriale

Articoli recenti

Perché non è vero che le foreste in Antartide 90 milioni di anni fa negano il cambiamento climatico

Ci segnalano i nostri contatti un post X secondo cui le foreste in Antartide 90 milioni di anni fa negano…

11 ore fa

Uscita pubblica di Buffon per smentire una voce storica sul suo passato oscuro

A volte capita che alcuni tormentoni social, nati prevalentemente per scherzo ed ironia, finiscano per instaurare "false verità" nella mente…

18 ore fa

No, non è vero che “le fasce di Van Allen friggono il cervello degli esseri umani”

Ci segnalano i nostri contatti un post X che nega l'esplorazione spaziale dichiarando che le fasce di Van Allen friggono…

18 ore fa

L’improbabile video della “pala eolica che gira senza vento”

Ci segnalano i nostri contatti un improbabile video della "pala eolica che gira senza vento", che confidiamo avere natura di…

1 giorno fa

Una suora ha davvero detto che con una scatoletta di cibo per cani e gatti si sfamerebbero i bambini del Terzo Mondo?

Ci segnalano i nostri contatti una condivisione virale per cui una suora ha davvero detto che con una scatoletta di…

1 giorno fa

Sì, Elon Musk ha creato una rete di tunnel per Tesla a Las Vegas

Ci avete segnalato una notizia che sembrava troppo assurda per essere vera, ma lo è: Elon Musk ha creato una…

1 giorno fa