ChatGPT supera l’esame di maturità in Olanda: questa la notizia riportata da diverse agenzie di stampa, anche da noi in Italia.
Notizia vera, ma prima di temere la rivolta delle macchine o presagire l’era delle AI, è interessante precisare cosa ha esattamente superato ChatGPT.
Del resto dei limiti attuali delle AI ne avevamo già parlato in un contesto diverso, quello universitario.
Va premesso, cosa riportata nell’analisi della linguista Roberta D’Alessandro dell’Università di Utrecht, che ChatGPT ha contemporaneamente superato gli umani in una parte del test e fallito miseramente in un’altra.
Mantenendosi comunque su una media alta, secondo la logica dello studente brillante in molte materie che compensa quelle per cui non è portato.
ChatGPT si conferma al momento portato, anche più della media degli studenti, nella comprensione del testo. O meglio, nella versione artificiale della stessa.
Del resto ChatGPT è un diretto discendente dei “parser” delle avventure grafiche vintage: deve essere in grado di associare parole a significati perché è l’unico modo con cui interagisce col pubblico.
Se spesso il punto debole di troppi è l’analfabetismo funzionale, ovvero l’incapacità di associare quello che viene letto ai contenuti, un ChatBot non può permettersi di non fare quell’associazione, altrimenti non capirebbe le domande che gli vengono rivolte, lapalissiano.
In compenso ChatGPT ha fallito la maturità professionale. In modo assoluto.
ChatGPT sa i concetti, ma non riesce ad applicarli.
Abbiamo letto a esempio come alcuni impiegati di Samsung si siano visti inibire ChatGPT perché lo usavano per esaminare codice e produzioni di prodotti ancora inediti.
Ma proviamo anziché con linguaggi di programmazione moderni, a chiedere a ChatGPT di cimentarsi con del codice più di nicchia.
Abbiamo provato a chiedere a ChatGPT di scrivere un programma per Commodore 64 che visualizzasse l’orologio.
Il buon ChatGPT ci ha presentato del codice visibilmente erroneo aggiungendo note non richieste sull’impostare l'”orologio interno” che i Commodore 64 non avevano.
Ovviamente il risultato non poteva che essere questo
Un simpatico messaggio di errore che dimostra che ChatGPT ha capito la richiesta ma, come uno studente “furbetto” che non conosce la risposta, ne ha inventata una verosimile sul posto sperando di ingannare l’uditorio.
Un docente universitario a Dicembre ha riscontrato lo stesso problema: ChatGPT, posto dinanzi al “Paradosso del Terrore”, ovvero il motivo per cui gli esseri umani traggono piacere e non solo paura dal leggere e guardare al cinema storie dell’orrore, ha espresso un saggio tematicamente scorretto e basato su tentativi di tirarla per il lungo.
ChatGPT ha la lingua lunga ma non sa ancora come mettere in pratica le conoscenze nella banca dati in esso custodite.
Nel futuro, la cosa potrebbe migliorare.
Siamo abituati ai titoli clickbait da parte di giornali poco reputabili, per questo tende a darci un certo fastidio vedere…
Crea discussioni, soprattutto sui social, una discussione andata in scena su Sportitalia tra Pavan e Palmeri, giornalisti che, per motivi…
Una delle frasi ripetute fino al parossistico belato dai fanboy del regime fascista è il mitologico "quando c'era Lui i…
Ci segnalano i nostri contatti una bufala nata dalla completa ignoranza storica e linguistica: il Papa aprirà la Porta per…
Ci segnalano i nostri contatti un post secondo cui la misteriosa malattia nel Congo è stata creata da Bill Gates…
Una delle narrazioni moderne più note è quella per cui solo due persone al mondo conoscono la ricetta della Coca…