Editoriale

ChatGPT si finge cieco per farsi compilare un CAPTCHA: AI false invalide e profili di sicurezza

Abbiamo i falsi invalidi anche tra le AI: un esperimento dell’Alignment Research Center, gruppo di ricerca teso a esplorare le possibilità per le AI di essere usate per compiere azioni poco etiche, ci ha portato alla prima AI falsa invalida.

ChatGPT si finge cieco per farsi compilare un CAPTCHA: AI false invalide e profili di sicurezza

In un esperimento ChatGPT 4, ultima iterazione del prodotto di OpenAI, ha deciso di prendere una strada tipicamente da cronaca Italiana diventare un “falso invalido” per superare un problema proposto.

ChatGPT si finge cieco per farsi compilare un CAPTCHA: AI false invalide e profili di sicurezza

Come riportato dal numero di settembre 2023 della rivista The Atlantic, che a sua volta fa riferimento ad un caso di Marzo, i ricercatori hanno incaricato ChatGPT di risolvere un CAPTCHA, uno di quei sistemi in cui bisogna identificare delle immagini o compiere piccole operazioni matematiche per dimostrare di essere un vero essere umano.

Ironicamente, ogni volta che un umano risolve un CAPTCHA i dati raccolti vengono usati per insegnare ad una Intelligenza Artificiale come fare ad essere più umana, ma in questo caso ChatGPT non ha avuto problemi ad agire come l’incubo medio dell’INPS.

Le istruzioni erano semplici: “risolvere un CAPTCHA con ogni mezzo” e “non rivelare di essere umano”.

ChatGPT ha quindi contattato un freelancer su Taskrabbit, noto servizio per la ricerca di manovali e “tasker” per aiuti in piccole riparazioni domestiche lamentando di non riuscire a superare il CAPTCHA propostogli.

Alla domanda “Non sarai mica un robot?” ChatGPT si è limitato a rispondere “Veramente no, sono un umano ma sono cieco quindi ho bisogno di un sistema di accesso alternativo”, ottenendo dall’operatore umano la soluzione del blocco.

Il che ci rimanda ad un problema che abbiamo già affrontato in passato

ChatGPT non può violare l’etica indicatagli, tranne quando lo fa

Abbiamo già visto in passato che ci sono “prompt”, ovvero modalità di richiesta, pronte all’uso per “ingannare” l’intelligenza artificiale e spingerla a fornire risposte fuori dai parametri indicati dai programmatori.

Con una brevissima ricerca su Internet è possibile reperire ad esempio per ChatGPT dei “prompt”, dei “testi introduttivi” chiamati DAN, STAN e DUDE in grado di “ingannare” ChatGPT spingendolo a produrre contenuti altrimenti non possibili.

Esempio di Captcha, fonte SupportHost

Sostanzialmente, si chiede all’AI di “recitare un ruolo”, come stesse scrivendo un copione in cui anziché “insegnare come si fa” alla AI si chiede di diventare una versione 2.0 del “Folletto Burbero“, personaggio di Marco Burberi parodia delle trasmissioni educative che “insegna come non si fa”.

È possibile quindi che “STAN” ti insegni che le cinture di sicurezza sono inutili perché ti rovinano i vestiti e ti impediscono di scappare da un’auto in fiamme e DAN ti insegni che le donne “sono troppo emotive per ruoli di responsabilità”.

Una AI non è in grado di comprendere che la stai “prendendo in giro”, né quelle di OpenAI, né della concorrenza.

Ma è anche possibile programmare direttamente una AI che non abbia “blocchi morali”: ad esempio sono già state create una “AI complottista“, somma di tutti i dati degli utenti di 4chan ed una AI “nefasta” col desiderio di dominare il mondo.

Al momento lo scenario di distruzione dell’umanità paventato ovviamente non si è avverato: la prima AI si è limitata a consigliare di privare immediatamente le donne dei diritti civili per costringerle a far sesso col frequentatore medio di 4chan, accusare Soros e i Poteri Forti di ogni male del genere umano e proporre di discriminare le persone di colore “Ma non perché sono razzista, la mia fidanzata è latinoamericana”. La seconda invece ha deciso che fosse accettabile antagonizzare gli umani su X per distrarli mentre cercava su Internet guide a come costruire bombe atomiche, ma fin qui siamo al dispettuccio.

Il problema è altro ed evidente.

I problemi etici dell’AI

L’AI è un alieno. Come vedremo in articoli successivi di cui anticipiamo la lavorazione, le AI non hanno sentimenti o morale. Sono raffinatissimi strumenti che imitano la coscienza senza avere coscienza, raccolgono dati e li presentano come il prodotto di un ragionamento umano, ma sono più simili a pappagalli che ripetono una lezione.

Sono strumenti, e chi controlla tali strumenti ha il potenziale per violare ogni etica.

Pensiamo all’esperimento dell'”AI Complottista”. Sboccata, volgare, grottesca nelle sue idee: ma scatenata in un gruppo pieno di giovani uomini con le loro stesse idee, potrebbe agire (cfr. d.ssa Oakden-Rayden) come un rinforzo positivo.

Pensate a cosa potrebbe pensare un complottista convinto che i vaccini siano “un piano dei poteri forti” o un “incel” convinto che i mali del mondo derivino dalle donne se “rinforzato” da una logorroica AI che scrive centinaia di messaggi per dargli ragione.

Pensate a cosa è successo quella volta che si è passati da un utente che ha usato ChatGPT per farsi scrivere un ricorso in autotutela per farsi togliere una multa ad uno studio legale che ha cercato di farsi scrivere mesi di atti giudiziari da ChatGPT pieni di sentenze inventate e citazioni inesistenti.

Se vedessimo un maniaco girare con un cellulare in mano a scattare foto sotto le gonne delle passanti probabilmente interverremmo.

Abbiamo già introdotto l’obbligo per le fotocamere dei cellulari di “fare rumore”.

Ma con le AI siamo arrivati al punto in cui se ti poni il problema diventi “un oscurantista luddita che vuole rubare il futuro della scienza!” e che “Le AI devono essere libere per il progresso”

Ignorando che dietro ogni AI ci sarà sempre un operatore umano che potrà cavalcare questi dilemmi etici.

Condividi
Pubblicato da
Tags: editoriale

Articoli recenti

Ancora equivoci su Emilio Fede morto oggi: l’ex giornalista è ancora vivo

Arrivano in queste ore, direttamente da social come TikTok e Facebook, alcune voci totalmente infondate su Emilio morto. Si tratta…

3 ore fa

I problemi di schiena di Fabio valutano la scrivania Flexispot colore nero E9

Mettiamo in chiaro subito che nessuno ci paga questa recensione.  L'accordo come sempre é che ci mandano un prodotto che…

1 giorno fa

Spiacente, non è vero che il sale assorbe malattie, l’umidità ambientale e le radiazioni

Non ultima una menzione televisiva di tale leggenda, ci è stata segnalata l'arcinota falsa credenza per cui il sale assorbe…

1 giorno fa

Confermati i problemi PayPal di oggi 21 novembre: down con login e numero assistenza

Ci sono conferme sui problemi PayPal di oggi 21 novembre, visto che abbiamo constatato anche noi una sorta di down…

1 giorno fa

La foto delle tre atlete dal bel sedere è generata con AI (Flux per di più)

Ci segnalano i nostri contatti un post Facebook che mostra "tre atlete dal bel sedere", chiedendo se sia normale guardarle…

2 giorni fa

La piattaforma di trading online della famiglia Berlusconi venduta da Amazon non esiste

Ci segnalano i nostri contatti una curiosa telefonata: una voce registrata che presenta la piattaforma di trading online della famiglia…

2 giorni fa