Quella volta che ChatGPT ha diffamato un sindaco e un professore
ChatGPT ha diffamato un sindaco e un professore, e lo ha fatto perché è nella sua natura. Ed era un rischio tra quelli nel provvedimento con cui il Garante aveva richiesto la limitazione dei dati in Italia, ottenendo una serie di garanzie relative proprio ai dati stessi.
Perché il colosso di OpenAI ha una serie di problemi: l’uso della mole di dati conferiti dagli utenti e la sua tendenza alla confabulazione ed all’allucinazione, al pari di un essere umano molto confuso. O uno scolaro assai incompetente ma desideroso di compiacere il professore ad ogni costo, anche inventandosi fesserie per riempire un compito per casa.
Quella volta che ChatGPT ha diffamato un sindaco e un professore
Prima di passare a spiegare il perché, andiamo con ordine e parliamo del come.
Ad Aprile del corrente anno il neoeletto sindaco di Hepburn Shire, Brian Hood è stato informato da alcuni cittadini che, chiedendo a ChatGPT di esprimere tutti i dati in suo possesso, l’Intelligenza Artificiale di OpenAI ha dichiarato che Brian Hood è un corrotto conclamato, con tanto di condanna a 30 mesi passata in giudicato per aver preso mazzette da una banca locale.
Ovviamente Brian Hood aveva effettivamente lavorato in banca, ma aveva scoperto degli scandali e denunciato dei casi di corruzione.
Secondo le interrogazioni di ChatGPT invece lui era passato da accusatore a corrotto, e come purtroppo sappiamo nel settore delle fake news l’opinione pubblica è sempre pronta a credere a tutto quello che dicono “Internet, Wikipedia e ChatGPT”.
Quest’ultimo che abbiamo visto citato ultimamente, anche per la sua tendenza alla confabulazione come prova dei complotti più assurdi.
Brian Hood ha pertanto dato mandato ai suoi legali di ottenere da OpenAI la rettifica del dato o procedere con azioni legali.
E non è il solo.
Nello stesso mese Jonathan Turley, avvocato e professore di diritto Statunitense si è trovato in una bizzarra lista di proscrizione. Un elenco di docenti di diritto accusati di molestie sessuali.
Secondo i risultati di una ricerca riferitagli, ChatGPT avrebbe prodotto un articolo del Washington Post del 2018 che descriveva il professor Turley intento rivolgere apprezzamenti sessuali per poi cercare di palpeggiare una studentessa.
Articolo che non è mai stato scritto, creando così un altro caso di “diffamazione senza un diffamante umano”.
Come abbiamo visto, recentemente un intero corso di studi è stato accusato da ChatGPT di essersi serviti di lui per ingannare il loro professore facendosi scrivere elaborati.
Elaborati ovviamente redatti dagli stessi studenti.
La parola chiave è confabulazione
ChatGPT non ha una vera coscienza: è un programma, una serie di algoritmi in grado di cucire le informazioni fornite in una forma consistente, riempiendo i vuoti con previsioni di cui non ha modo di asseverarne la veridicità.
L’effetto è la confabulazione: ChatGPT inventa storie irreali, e le risputa fuori con tutta la confidenza e l’autorità che essere una intelligenza artificiale basata sul sapere di Internet le attribuisce.
Abbiamo già visto come un saggio prodotto da ChatGPT sull’arte si presentasse come grammaticalmente ineccepibile ma carente nei contenuti.
Difettando della capacità di asseverare (ovvero sottoporre a fact checking) la sua fonte dati, una piccola imprecisione, o un “buco nei dati” diventerà un grande errore.
Come accusare di molestie sessuali in Alaska un docente universitario che in Alaska non ci era mai stato partendo da un elenco di docenti universitari e molestatori.
Certo, ChatGPT all’avvio ti presenta una serie di disclaimer: ma ricordiamo che l’utente medio della rete ignora i disclaimer, come dimostra il caso delle statistiche EudraVigilance e VAERS, sfruttate dai novax per confabulare di “morti da vaccino” anche se un disclaimer ricorda che i dati contenuti in entrambi i database non possono essere usati per provare “effetti avversi”.
E quando non li ignora decide coscientemente di ignorarli, come nel caso di “prompt”, ovvero artifizi tecnici per farsi fornire da ChatGPT contenuti in spregio alle stesse norme volute da OpenAI.
Concludendo, siamo potenzialmente al livello della storia in cui un nuovo caso Tortora potrebbe essere causato non dalle accuse poi dimostratesi falsi di un pentito, ma da una AI che, raccogliendo dati su di te, potrebbe decidere di riempirli in modo “creativo” arricchendo la tua storia di capitoli in cui sei stato, a tua insaputa, uno stupratore corruttore plagiatore.
Foto di copertina: Artificial Intelligence, Canva
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.