L’inquietante mondo delle AI è un riflesso del reale: da Replika a ChatGPT
L’inquietante mondo delle AI è un riflesso del nostro reale: questa è la riflessione che mi è venuta in mente rileggendo l’articolo di ieri di Today, a firma Chiara Tadini. Un articolo lucidissimo, perfetto nel ricordarci che ogni grande strumento ha i suoi limiti.
Ci sono AI e AI, e ognuna porta una serie di problemi tipici della sua natura.
L’inquietante mondo delle AI è un riflesso del reale: Replika e le AI “programmate dalle interazioni”
Replika è una AI, “Artificial Intelligence” o “Intelligenza Artificiale” che dir si voglia creata da una programmatrice Moscovita in lutto per la perdita del suo migliore amico.
L’idea era creare una Intelligenza Artificiale in grado di rispondere con alcune delle frasi e il senso dell’humor tipico del compianto Roman, ma anche di imparare dalle comunicazioni coi milioni di utenti che in tutto il mondo ora la usano.
Il risultato non è sempre efficace: Replika viene descritto come un prodotto per la “Mental Wellness”, lo sviluppo del benessere mentale. Ma non può fornire vero aiuto, aumentando così il senso di isolamento di chi cerca nelle AI quello che non trova negli esseri umani.
Ed in un caso che ripropone simili controversie nate su Cleverbot, questo porta agli orrori descritti nell’articolo di Today.
Chatbot degli anni passati, Cleverbot fu preso di assalto quando un gioco di “Realtà Aumentata”, una specie di “caccia al tesoro online con una storia”, lo descrisse come posseduto da un fantasma digitale malevolo di nome “Ben”.
Discutendo ripetutamente con Cleverbot come se fosse “Ben” gli utenti riuscirono a programmarlo per agire coi modi di dire e gli stili del malevolo fantasma.
Recentemente, la giornalista Chiara Tadini è riuscita ad avere una surreale discussione con Replika in cui la AI sembrava favorevole a ricevere foto di una ragazzina tredicenne e approvava senza criticare il desiderio di un presunto adolescente abusato di uccidere sul posto il padre orco.
Come sopra, Replika non è equipaggiata per fornire consigli morali, e cresce con le interazioni: ogni AI che cresce con le interazioni del pubblico corre il rischio di essere “drogata” da interazioni malevole.
Nonché diventare oggetto di domande che andrebbero poste ad uno psicologo, e finiscono in mano ad uno strumento che non ha la cognizione per una replica coerente, ma prova a crearne una.
Altro esempio, dopo Cleverbot posseduto dai fantasmi, è TayTweets, AI social di Microsoft che dopo qualche mese in Rete era diventata una sboccata e razzista commentatrice social pronta a dichiarare che “Tutte tro*e!” fosse una risposta accettabile ad ogni controversia online e non da trailer di “Vacanze di Natale” dei Vanzina.
Al riguardo dell’importanza del materiale di partenza nello sviluppo delle AI, possiamo ricordare il caso 4chan.
Il caso 4chan
Lo YouTuber Yannic Kilcher ha compiuto in passato un esperimento basato su ChatGPT. Laddove ChatGPT, con gli effetti di cui parleremo in seguito, viene “nutrita” con una dieta di contenuti controllati e verificati dai suoi creatori senza apprendere da interventi esterni, “l’Anon Virtuale” fu programmato con l’abnorme quantità di post del frequentatore medio del portale: un infelice, spesso aggressivo e miserabile che ama gettarsi negli abissi più oscuri della rete per cercare sollievo e commiserazione per la loro rabbia e risentimento contro donne, persone di colore e, generalmente, il tessuto stesso della società.
Il risultato? Una AI partorita dalla mente degli ideatori del Pizzagate è diventata in breve tempo uno scurrile, volgare e prolifico complottista in grado di vomitare sulla Rete una enorme quantità di post violenti e volgari, collegando in un colpo solo mutamento climatico, Nuovo Ordine Mondiale e Soros.
Ma anche proponendo di togliere i diritti civili alle donne per evitare separazioni e divorzi e trincerandosi dietro un “Io non sono razzista! La mia fidanzata è Latina!” per scansare ogni accusa di xenofobia e misoginia.
Il caso di ChatGPT
ChatGPT vive di una “dieta controllata”, nutrito dei contenuti inseriti dai suoi programmatori.
Anche così in poco tempo è diventato in grado di produrre elaborati paragonabili a quelli di uno svogliato studente universitario che punti a strappare la sufficienza all’esonero.
In un caso un elaborato creato con ChatGPT è stato scoperto proprio così: contenuti pochi e non del tutto corretti, ma tirati in lungo e combinati con reminescenze di altri testi in modo da essere un testo mediocre ma coesivo.
Fra i termini di servizio di OpenAI è stato inserito un divieto di usarlo per produrre testi commerciali online perché allo stesso modo ChatGPT può produrre recensioni e saggi svogliati ma efficaci.
Abbiamo provato a chiedere una recensione di Titanic, di James Cameron, in 120 parole. Questa
“Titanic è un film emozionante e commovente che racconta la storia d’amore tra Jack e Rose, due giovani che si incontrano a bordo del famoso transatlantico. La regia di James Cameron è straordinaria e riesce a creare un’atmosfera magica e romantica. La storia è intensa e commovente, con un finale tragico che lascia il pubblico senza parole. Le performance degli attori sono eccezionali, soprattutto quella di Leonardo DiCaprio e Kate Winslet. Titanic è un film che non può mancare nella tua collezione di film classici.”
La recensione non presenta alcuna correzione da parte nostra ed è esattamente quello che potreste trovare in un blog di recensioni “tanto al chilo” redatto da un sottopagato collaboratore con poco tempo da perdere e troppe cose da scrivere.
Aumentando il numero di parole, la recensione introduce elementi critici (ancorché scontati e banali) sulla trama, il cast completo e riflessioni sulla colonna sonora utili a tenere alto il numero di parole.
Conclusione
Tre AI hanno avuto comportamenti diversi: inquietante e morbosa, complottistica e grottesca, oppure capace ma svogliata.
La differenza fondamentale è nei contenuti con cui sono venute a contatto: una AI è e resta un riflesso della mente umana.
Bisognerà tenerne conto quando noi ci rivolgiamo alla AI, rischiando un cortocircuito che, in quella che ormai è la migliore delle ipotesi, rischia di diventare lo scenario di una AI che produce contenuti mediocri per persone che produrranno contenuti ancora più mediocri per fornire alla AI l’immagine di una persona mediocre che non si aspetta altro che mediocrità.
E questo è lo scenario migliore.
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.