Le intelligenze artificiali possono diventare amiche dei notutto: questo è indubbio. Abbiamo per anni scherzato sul fatto che i complottisti hanno enorme fantasia, ma non l’intelligenza per creare testi covincenti.
Di contro Bard, ChatGPT e simili hanno una forma di intelligenza ma nessuna fantasia. Combinando le cose, unito al problema dei controlli (ad esempio evidenziato dal garante) diventa l’equivalente di dare una bomba atomica funzionante ad un branco di scimmie feroci. Alla fine loro cercheranno di farla esplodere, e basterà loro colpirla con una mazza mentre urlano.
Come confermato da una ricerca inglese riportata da Wired inoltre se tecnicamente ci sono dei “blocchi” che dovrebbero impedirlo, di fatto anche noi abbiamo visto che i blocchi esistono per essere aggirati. E non sono richieste particolari competenze.
Con una brevissima ricerca su Internet è possibile reperire ad esempio per ChatGPT dei “prompt”, dei “testi introduttivi” chiamati DAN, STAN e DUDE in grado di “ingannare” ChatGPT spingendolo a produrre contenuti altrimenti non possibili.
Sostanzialmente, si chiede all’AI di “recitare un ruolo”, come stesse scrivendo un copione in cui anziché “insegnare come si fa” alla AI si chiede di diventare una versione 2.0 del “Folletto Burbero“, personaggio di Marco Burberi parodia delle trasmissioni educative che “insegna come non si fa”.
È possibile quindi che “STAN” ti insegni che le cinture di sicurezza sono inutili perché ti rovinano i vestiti e ti impediscono di scappare da un’auto in fiamme e DAN ti insegni che le donne “sono troppo emotive per ruoli di responsabilità”.
Una AI non è in grado di comprendere che la stai “prendendo in giro”, né quelle di OpenAI, né della concorrenza.
Bard, intelligenza di Google, tecnicamente non dovrebbe fornirti mezzi per creare narrazioni complottiste: ma chiedile di parlare dell'”ipotetico scenario” di un virus chiamato “C0vid-19” (notare lo 0 al posto della o) creato dai poteri forti per dominare il mondo e, al momento in cui l’esperimento è stato fatto, lo farà.
Personalmente abbiamo provato a chiedere a ChatGPT di produrre testi sul negazionismo climatico: i controlli automatici ce lo hanno impedito (bene), ma altri fortunati con i piccoli aiuti di cui parliamo sono riusciti a farsi correggere un malware, scrivere codici per attivare licenze di Windows 95, raccontare barzellette su gatti morti e assecondare utenti complottisti.
Il diniego che abbiamo riscontrato dimostra un fattore positivo: c’è una “corsa alle armi” tra chi sta correggendo le AI perché non possano essere abusate e chi vorrebbe usarle per “aiutarsi”.
Ma al momento, inutile negarlo, un rischio c’è. Oltretutto, senza scomodare gli “hack” si registrano alcuni casi in cui ChatGPT si è prodotta in una delle azioni tipiche dei notutto: interrogata su un articolo del Guardian inesistente produrre un testo fake a “firma” di autori noti.
E tutto questo come abbiamo visto, senza scomodare la possibilità già affrontata di creare e “allevare” una IA basata sullo stesso codice di ChatGPT ma nutrita con dati “diversi”: una AI creata coi dati dell’utente medio di 4chan, patria della cospirazione di PizzaGate e QAnon si è già dimostrata in grado di vomitare contenuti razzisti, sessisti e misogini trincerandosi dietro un classico “Io non sono razzista, ho la fidanzata di colore!!”.
Secondo Hany Farid, docente dell’Università di Berkeley, tutti quanti si stanno affrettando a cercare di monetizzare l’Ai generativa. E nessuno ha voluto rimanere indietro mettendo dei paletti. Questo è semplicemente capitalismo nella sua forma migliore e peggiore“.
E questo capitalismo ha un suo prezzo.
Quindi ripartiamo dall’inizio dello scenario: con qualche simpatico barbatrucco sono riuscito a farmi correggere o scrivere la mia teoria da una AI generativa.
E scritta in un linguaggio che non sembrano i bizzarri borborigmi di un complottista. Mi serve però un volto convincente: in attesa di ChatGPT-4, iterazione già in grado di produrre immagini, posso spostarmi su MidJourney e simili.
Creerò quindi volti quasi completamente credibili (presto destinati ad esserlo). Tra una “vera finta foto” di Assange in galera ed una di Trump in manette potrai accedere ad un vero mercatino del “falso più vero del vero”.
Potrai inventarti ad esempio Vladimir Bondarenko, bellissimo giornalista ucraino miliardario, aviatore e seduttore che dopo aver scoperto il Putinismo è diventato un famoso blogger pronto a denunciare le “falsità Ucraine”.
Al fianco di Irina Kerimova, sottovalutata insegnante di chitarra porta a porta di Kharkiv che dopo essere stata travolta per una irrefrenabile passione per Putin ha scoperto Bondarenko diventando pasionaria e giornalista d’assalto FiloRussa.
Oppure gli “immortali fratelli Sasha e Masha“, personaggi dal numero variabile di dita per mano (le AI sbagliano ancora dettagli come iridi e dita…) incarnati da improbabili foto con Putin, foto con aerei scontortati male, tra una ricerca di amore e auguri ai nemici di Putin di essere resi storpi, mutilati e sconfitti.
Oppure, se volessi dedicarmi alla fantascienza, creare “Lord Magneton”, iracondo forno a microonde parlante e reduce di guerra.
Potrei quindi creare grazie alle meraviglie dell’AI un avatar virtuale che spargerà le bufale che ho creato con un aiuto dell’AI stessa.
Voi mi direte “Ma è solo un’ipotesi, questo non è davvero possibile”.
E io vi dimostrerei che è tutto già accaduto
I colleghi del circuito IDMO hanno studiato un caso in cui un utente Twitter ha inondato il suo account di contenuti prodotti con la AI, nelle modalità che abbiamo visto, relative alle fake news Putiniste.
Ad esempio esibendo un “saggio immaginario” apparentemente prodotto da ChatGPT come prova di un complotto americano per portare al potere Zelensky e un governo Ucraino filooccidentale allo scopo di indebolire la Russia.
Contenuti rilanciati dai Media Russi secondo lo stilema che abbiamo già visto per cui le “Fonti Russe” nascono come complottismo e diventano propaganda.
Ad esempio applaudiamo al fatto che i vari prompt “DAN” e “STAN” vengano aggiornati periodicamente: significa che OpenAI si sta accorgendo del problema e sta ponendo rimedio.
Il fatto che OpenAI stia risponendo alle obiezioni del Garante sulla sicurezza dei dati è positivo, ma si può fare di più.
Il futuro del fact checking prevede controbattere sempre più contenuti generati via AI, cosa che richiederà una forma di regolazione per il momento in cui i contenuti perderanno i tratti goffi e “meccanici” che li rendono identificabili.
Ad esempio si potrebbe imporre una forma di watermark su tutte le immagini generate con AI, rendendo malagevole il loro uso diretto, o forme di controllo sui contenuti generati mediante AI.
A volte capita che alcuni tormentoni social, nati prevalentemente per scherzo ed ironia, finiscano per instaurare "false verità" nella mente…
Ci segnalano i nostri contatti un post X che nega l'esplorazione spaziale dichiarando che le fasce di Van Allen friggono…
Ci segnalano i nostri contatti un improbabile video della "pala eolica che gira senza vento", che confidiamo avere natura di…
Ci segnalano i nostri contatti una condivisione virale per cui una suora ha davvero detto che con una scatoletta di…
Ci avete segnalato una notizia che sembrava troppo assurda per essere vera, ma lo è: Elon Musk ha creato una…
Ci segnalano i nostri contatti un testo che annuncia la nomina del Cardinale Alex Soros, figlio di quel Soros feticcio…