Dopo la presunta AI senziente, la AI razzista: come proiettiamo l’umano nel robot
Dopo la presunta AI senziente, la AI razzista: vi abbiamo già parlato in lungo e in largo della LaMDA di Google. Un chatbot evolutissimo in grado di apprendere come usare un frasario di conversazioni così coerente da apparire senziente. Così tanto da avere un ingegnere pronto a giurare sulle sue qualità umane tanto da cercarle un avvocato e chiedere che le siano dati diritti umani.
In tale occasione abbiamo parlato del meccanismo dei chatbot e dei LaMDA: evoluzioni del gioco dell’imitazione o della Stanza Cinese. Riassumeremo brevemente per capire come si arriva alla “AI Razzista”.
Nel “Gioco dell’Imitazione” si prende un uomo che non conosce la lingua cinese e gli ideogrammi, ma solo una lingua occidentale con un alfabeto del tutto diverso e gli si da’ un ricco frasario.
Ogni tanto qualcuno gli passa un bigliettino in cinese. L’uomo sa che un bigliettino corrisponde ad una determinata frase (che lui non può tradurre) nel suo frasario c’è almeno una risposta coerente. L’Uomo la trascrive e la fornisce all’avventore. Se la frase è convincente l’avventore penserà li dentro ci sia non un uomo che finge di sapere il cinese, ma uno che il cinese lo parla davvero.
Ad esempio l’avventore potrebbe scrivere “Io so suonare la chitarra”. L’Uomo nella stanza chiusa cerca una frase simile e allunga all’avventore un bigliettino con scritto “Ma è stupendo!” oppure, nel caso dei LaMDA evoluti in grado di simulare il caotico fluire di una conversazione, “Bellissimo! Mio padre aveva una chitarra Gibson! L’ha pagata molto e suonava tutte le sere”, in modo da stimolare conversazioni sull’argomento musica, padri o chitarre costose.
Ma lo stesso problema si verifica non solo con AI dedicate al linguaggio, ma anche alla protocollazione ed alla descrizione.
Dopo la presunta AI senziente, la AI razzista: come proiettiamo l’umano nel robot
Parliamo delle AI di tipo “CLIP” (Contrastive Language–Image Pre-training), quelle che connettono testo e immagini.
In questo caso non c’è un “uomo occidentale” con un dizionario cinese, ma un uomo occidentale a cui vengono mostrate foto di cose e persone con possibili didascalie in cinese.
Una CLIP potrà imparare che un oggetto lungo e curvo è una banana ed è un frutto, ma anche un tubo di plastica.
Come per i Chatbot, prende i suoi dati dagli esseri umani, imparando da ogni errore o dal “mare magno della Rete”. Puoi mettere una AI online e farla “discutere” con migliaia di persone.
Come l'”Uomo della Stanza Chiusa” che potrebbe diventare sorprendentemente bravo a far finta di conoscere il cinese migliorando il suo frasario e “libro delle didascalie” ogni volta che lo correggi.
Il problema è: chi corregge l’Intelligenza Artificiale? Un umano, o meglio una serie di umani. Umani coi loro difetti e i loro bias di conferma.
Immaginate quindi che ad una CLIP sia chiesto non di riconoscere un tubo e una banana, ma un dottore da un criminale, un avvocato da una casalinga.
Esponete quindi questa AI ad una torma di “veraggente” sulla Rete per cui l’uomo di colore medio è sempre e invariabilmente “un immigrato con l’iPhone che ci ruba il lavoro e compie crimini” (anche a costo di rendersi ridicoli dando del criminale a Will Smith o Samuel L. Jackson perché non li hanno riconosciuti in foto) e l’uomo bianco è sempre retto e giusto, fosse anche una foto del processo al Mostro di Firenze ricondivisa come “Povero pensionato angariato da ladri zingari”.
Per cui la foto di una donna è perlopiù la foto di una casalinga e la foto di uomo è perlopiù quella di un lavoratore.
Otterremmo la “AI Razzista”: non perché le AI provino il razzismo, ma perché all’uomo nella stanza chiusa sono state consegnate solo didascalie “da veraggente” e non ragionate.
E si ritorna al problema di cui sopra: per quanto raffinata, una AI non è senziente. Ed è tanto abile quanto la sua programmazione è buona.
Immagine tratta da Futurama, “Hell Is Other Robots” (1ACV09)
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.