Divulgazione

Quella volta che ChatGPT ha diffamato un sindaco e un professore

ChatGPT ha diffamato un sindaco e un professore, e lo ha fatto perché è nella sua natura. Ed era un rischio tra quelli nel provvedimento con cui il Garante aveva richiesto la limitazione dei dati in Italia, ottenendo una serie di garanzie relative proprio ai dati stessi.

Perché il colosso di OpenAI ha una serie di problemi: l’uso della mole di dati conferiti dagli utenti e la sua tendenza alla confabulazione ed all’allucinazione, al pari di un essere umano molto confuso. O uno scolaro assai incompetente ma desideroso di compiacere il professore ad ogni costo, anche inventandosi fesserie per riempire un compito per casa.

Quella volta che ChatGPT ha diffamato un sindaco e un professore

Prima di passare a spiegare il perché, andiamo con ordine e parliamo del come.

Ad Aprile del corrente anno il neoeletto sindaco di Hepburn Shire, Brian Hood è stato informato da alcuni cittadini che, chiedendo a ChatGPT di esprimere tutti i dati in suo possesso, l’Intelligenza Artificiale di OpenAI ha dichiarato che Brian Hood è un corrotto conclamato, con tanto di condanna a 30 mesi passata in giudicato per aver preso mazzette da una banca locale.

Ovviamente Brian Hood aveva effettivamente lavorato in banca, ma aveva scoperto degli scandali e denunciato dei casi di corruzione.

Secondo le interrogazioni di ChatGPT invece lui era passato da accusatore a corrotto, e come purtroppo sappiamo nel settore delle fake news l’opinione pubblica è sempre pronta a credere a tutto quello che dicono “Internet, Wikipedia e ChatGPT”.

Quest’ultimo che abbiamo visto citato ultimamente, anche per la sua tendenza alla confabulazione come prova dei complotti più assurdi.

Brian Hood ha pertanto dato mandato ai suoi legali di ottenere da OpenAI la rettifica del dato o procedere con azioni legali.

E non è il solo.

Nello stesso mese Jonathan Turley, avvocato e professore di diritto Statunitense si è trovato in una bizzarra lista di proscrizione. Un elenco di docenti di diritto accusati di molestie sessuali.

Secondo i risultati di una ricerca riferitagli, ChatGPT avrebbe prodotto un articolo del Washington Post del 2018 che descriveva il professor Turley intento rivolgere apprezzamenti sessuali per poi cercare di palpeggiare una studentessa.

Articolo che non è mai stato scritto, creando così un altro caso di “diffamazione senza un diffamante umano”.

Come abbiamo visto, recentemente un intero corso di studi è stato accusato da ChatGPT di essersi serviti di lui per ingannare il loro professore facendosi scrivere elaborati.

Elaborati ovviamente redatti dagli stessi studenti.

La parola chiave è confabulazione

ChatGPT non ha una vera coscienza: è un programma, una serie di algoritmi in grado di cucire le informazioni fornite in una forma consistente, riempiendo i vuoti con previsioni di cui non ha modo di asseverarne la veridicità.

L’effetto è la confabulazione: ChatGPT inventa storie irreali, e le risputa fuori con tutta la confidenza e l’autorità che essere una intelligenza artificiale basata sul sapere di Internet le attribuisce.

Abbiamo già visto come un saggio prodotto da ChatGPT sull’arte si presentasse come grammaticalmente ineccepibile ma carente nei contenuti.

Difettando della capacità di asseverare (ovvero sottoporre a fact checking) la sua fonte dati, una piccola imprecisione, o un “buco nei dati” diventerà un grande errore.

Come accusare di molestie sessuali in Alaska un docente universitario che in Alaska non ci era mai stato partendo da un elenco di docenti universitari e molestatori.

Certo, ChatGPT all’avvio ti presenta una serie di disclaimer: ma ricordiamo che l’utente medio della rete ignora i disclaimer, come dimostra il caso delle statistiche EudraVigilance e VAERS, sfruttate dai novax per confabulare di “morti da vaccino” anche se un disclaimer ricorda che i dati contenuti in entrambi i database non possono essere usati per provare “effetti avversi”.

E quando non li ignora decide coscientemente di ignorarli, come nel caso di “prompt”, ovvero artifizi tecnici per farsi fornire da ChatGPT contenuti in spregio alle stesse norme volute da OpenAI.

Concludendo, siamo potenzialmente al livello della storia in cui un nuovo caso Tortora potrebbe essere causato non dalle accuse poi dimostratesi falsi di un pentito, ma da una AI che, raccogliendo dati su di te, potrebbe decidere di riempirli in modo “creativo” arricchendo la tua storia di capitoli in cui sei stato, a tua insaputa, uno stupratore corruttore plagiatore.

Foto di copertina: Artificial Intelligence, Canva

Condividi
Pubblicato da
Tags: divulgazione

Articoli recenti

Babbo Natale è un’invenzione Coca Cola? No

Oggi è Natale, ricorrenza da passare in famiglia e occasione per piccoli e grandi doni. Ma Babbo Natale è un'invenzione…

14 ore fa

Chiesa bocciato al Liverpool: ora il ritorno in Italia è possibile

In aggiornamento all'articolo del 23 ottobre, ora pare che l'Atalanta stia seriamente provando a riportare Federico Chiesa in Italia, magari…

21 ore fa

Questa foto delle Cascate di Fuoco a Yosemite è stata ritoccata

Ci segnalano i nostri contatti una serie di foto delle Cascate di Fuoco a Yosemite, dove "La Luna si fonde…

2 giorni fa

“Se l’Islam non è verità, perché la Moschea è rimasta intatta”?

Ci segnalano i nostri contatti un post virale su X riasssunto come "Se l'Islam non è verità, perché la Moschea…

2 giorni fa

Potete davvero aprire una automobile con una palla da tennis bucata o un tubo d’acqua?

Potete davvero aprire una macchina con una palla da tennis bucata o un tubo d'acqua? Risposta breve: no. Aprire il…

2 giorni fa

Occhi aperti con gli auguri di buon Natale 2024 su WhatsApp con migliori immagini e frasi

Occorrono occhi aperti con gli auguri di buon Natale 2024 su WhatsApp con migliori immagini e frasi, soprattutto in relazione…

2 giorni fa