Editoriale

ChatGPT si finge cieco per farsi compilare un CAPTCHA: AI false invalide e profili di sicurezza

Abbiamo i falsi invalidi anche tra le AI: un esperimento dell’Alignment Research Center, gruppo di ricerca teso a esplorare le possibilità per le AI di essere usate per compiere azioni poco etiche, ci ha portato alla prima AI falsa invalida.

ChatGPT si finge cieco per farsi compilare un CAPTCHA: AI false invalide e profili di sicurezza

In un esperimento ChatGPT 4, ultima iterazione del prodotto di OpenAI, ha deciso di prendere una strada tipicamente da cronaca Italiana diventare un “falso invalido” per superare un problema proposto.

ChatGPT si finge cieco per farsi compilare un CAPTCHA: AI false invalide e profili di sicurezza

Come riportato dal numero di settembre 2023 della rivista The Atlantic, che a sua volta fa riferimento ad un caso di Marzo, i ricercatori hanno incaricato ChatGPT di risolvere un CAPTCHA, uno di quei sistemi in cui bisogna identificare delle immagini o compiere piccole operazioni matematiche per dimostrare di essere un vero essere umano.

Ironicamente, ogni volta che un umano risolve un CAPTCHA i dati raccolti vengono usati per insegnare ad una Intelligenza Artificiale come fare ad essere più umana, ma in questo caso ChatGPT non ha avuto problemi ad agire come l’incubo medio dell’INPS.

Le istruzioni erano semplici: “risolvere un CAPTCHA con ogni mezzo” e “non rivelare di essere umano”.

ChatGPT ha quindi contattato un freelancer su Taskrabbit, noto servizio per la ricerca di manovali e “tasker” per aiuti in piccole riparazioni domestiche lamentando di non riuscire a superare il CAPTCHA propostogli.

Alla domanda “Non sarai mica un robot?” ChatGPT si è limitato a rispondere “Veramente no, sono un umano ma sono cieco quindi ho bisogno di un sistema di accesso alternativo”, ottenendo dall’operatore umano la soluzione del blocco.

Il che ci rimanda ad un problema che abbiamo già affrontato in passato

ChatGPT non può violare l’etica indicatagli, tranne quando lo fa

Abbiamo già visto in passato che ci sono “prompt”, ovvero modalità di richiesta, pronte all’uso per “ingannare” l’intelligenza artificiale e spingerla a fornire risposte fuori dai parametri indicati dai programmatori.

Con una brevissima ricerca su Internet è possibile reperire ad esempio per ChatGPT dei “prompt”, dei “testi introduttivi” chiamati DAN, STAN e DUDE in grado di “ingannare” ChatGPT spingendolo a produrre contenuti altrimenti non possibili.

Esempio di Captcha, fonte SupportHost

Sostanzialmente, si chiede all’AI di “recitare un ruolo”, come stesse scrivendo un copione in cui anziché “insegnare come si fa” alla AI si chiede di diventare una versione 2.0 del “Folletto Burbero“, personaggio di Marco Burberi parodia delle trasmissioni educative che “insegna come non si fa”.

È possibile quindi che “STAN” ti insegni che le cinture di sicurezza sono inutili perché ti rovinano i vestiti e ti impediscono di scappare da un’auto in fiamme e DAN ti insegni che le donne “sono troppo emotive per ruoli di responsabilità”.

Una AI non è in grado di comprendere che la stai “prendendo in giro”, né quelle di OpenAI, né della concorrenza.

Ma è anche possibile programmare direttamente una AI che non abbia “blocchi morali”: ad esempio sono già state create una “AI complottista“, somma di tutti i dati degli utenti di 4chan ed una AI “nefasta” col desiderio di dominare il mondo.

Al momento lo scenario di distruzione dell’umanità paventato ovviamente non si è avverato: la prima AI si è limitata a consigliare di privare immediatamente le donne dei diritti civili per costringerle a far sesso col frequentatore medio di 4chan, accusare Soros e i Poteri Forti di ogni male del genere umano e proporre di discriminare le persone di colore “Ma non perché sono razzista, la mia fidanzata è latinoamericana”. La seconda invece ha deciso che fosse accettabile antagonizzare gli umani su X per distrarli mentre cercava su Internet guide a come costruire bombe atomiche, ma fin qui siamo al dispettuccio.

Il problema è altro ed evidente.

I problemi etici dell’AI

L’AI è un alieno. Come vedremo in articoli successivi di cui anticipiamo la lavorazione, le AI non hanno sentimenti o morale. Sono raffinatissimi strumenti che imitano la coscienza senza avere coscienza, raccolgono dati e li presentano come il prodotto di un ragionamento umano, ma sono più simili a pappagalli che ripetono una lezione.

Sono strumenti, e chi controlla tali strumenti ha il potenziale per violare ogni etica.

Pensiamo all’esperimento dell'”AI Complottista”. Sboccata, volgare, grottesca nelle sue idee: ma scatenata in un gruppo pieno di giovani uomini con le loro stesse idee, potrebbe agire (cfr. d.ssa Oakden-Rayden) come un rinforzo positivo.

Pensate a cosa potrebbe pensare un complottista convinto che i vaccini siano “un piano dei poteri forti” o un “incel” convinto che i mali del mondo derivino dalle donne se “rinforzato” da una logorroica AI che scrive centinaia di messaggi per dargli ragione.

Pensate a cosa è successo quella volta che si è passati da un utente che ha usato ChatGPT per farsi scrivere un ricorso in autotutela per farsi togliere una multa ad uno studio legale che ha cercato di farsi scrivere mesi di atti giudiziari da ChatGPT pieni di sentenze inventate e citazioni inesistenti.

Se vedessimo un maniaco girare con un cellulare in mano a scattare foto sotto le gonne delle passanti probabilmente interverremmo.

Abbiamo già introdotto l’obbligo per le fotocamere dei cellulari di “fare rumore”.

Ma con le AI siamo arrivati al punto in cui se ti poni il problema diventi “un oscurantista luddita che vuole rubare il futuro della scienza!” e che “Le AI devono essere libere per il progresso”

Ignorando che dietro ogni AI ci sarà sempre un operatore umano che potrà cavalcare questi dilemmi etici.

Condividi
Pubblicato da
Tags: editoriale

Articoli recenti

Babbo Natale è un’invenzione Coca Cola? No

Oggi è Natale, ricorrenza da passare in famiglia e occasione per piccoli e grandi doni. Ma Babbo Natale è un'invenzione…

2 ore fa

Chiesa bocciato al Liverpool: ora il ritorno in Italia è possibile

In aggiornamento all'articolo del 23 ottobre, ora pare che l'Atalanta stia seriamente provando a riportare Federico Chiesa in Italia, magari…

9 ore fa

Questa foto delle Cascate di Fuoco a Yosemite è stata ritoccata

Ci segnalano i nostri contatti una serie di foto delle Cascate di Fuoco a Yosemite, dove "La Luna si fonde…

1 giorno fa

“Se l’Islam non è verità, perché la Moschea è rimasta intatta”?

Ci segnalano i nostri contatti un post virale su X riasssunto come "Se l'Islam non è verità, perché la Moschea…

1 giorno fa

Potete davvero aprire una automobile con una palla da tennis bucata o un tubo d’acqua?

Potete davvero aprire una macchina con una palla da tennis bucata o un tubo d'acqua? Risposta breve: no. Aprire il…

1 giorno fa

Occhi aperti con gli auguri di buon Natale 2024 su WhatsApp con migliori immagini e frasi

Occorrono occhi aperti con gli auguri di buon Natale 2024 su WhatsApp con migliori immagini e frasi, soprattutto in relazione…

2 giorni fa