Il Caso

Utente Reddit si dichiara avvelenato per causa di un libro sui funghi creato con AI

In questo caso è la parola dell’utente contro la nostra: un utente si dichiara avvelenato per causa di un libro sui funghi creato con AI, e noi possiamo verificare che, effettivamente, esiste una controversia sull’uso di testi di raccolta del fungo creati con AI e pubblicati su Amazon.

A prendere per buona la parola dell’utente “virtual_cellist_736”, uno di questi libri avrebbe trovato la strada per la sua libreria. Gli indizi? Frasi dalla sintassi meccanica, incisi che si concludono col tipico “fammi altre domande sull’argomento se vuoi sapere altro” tipico di ChatGPT e il fatto che l’utente dichiara di aver mandato la sua famiglia in ospedale raccogliendo funghi consigliati dal testo e chiede al subReddit “legaladviceUK” (forum dedicato alla richiesta di consigli legali “aggratis”) se gli conviene restituire il libro o tenerlo come prova in procedimento legale.

Utente Reddit si dichiara avvelenato per causa di un libro sui funghi creato con AI

Le AI sono una enorme innovazione, ma come tali vanno usate con cautela e i loro frutti vanno riconosciuti.

Uno di questi sono i libri generati con AI, spesso descritti da personaggi con pochi scrupoli e/o poche cognizioni dei limiti degli attuali modelli generativi come un modo per “arrotondare lo stipendio”, ma con molta poca etica.

Si chiede a ChatGPT o chi per esso di “scrivere dell’argomento X come se fosse un libro in capitoli”, per poi “farsi aiutare” capitolo per capitolo e copincollare tutto.

Utente Reddit si dichiara avvelenato per causa di un libro sui funghi creato con AI

Quando va bene: quando non va bene ti trovi riassunti/plagio di libri già pubblicati e “bignami” (ovvero riassunti di libri o riassunti di riassunti) creati da un prestanome con un ghost writer artificiale venduti per pochi euro che sommati assieme effettivamente qualche spicciolo lo fanno.

Già a settembre del 2023 il Guardian aveva messo in guardia contro i libri sulla raccolta dei funghi generati con AI, sottoponendone diversi al controllo di originality.ai, tool per identificare con una certa precisione (ancorché non assoluta) i plagi.

Unito a Maybe’s AI per le immagini, i due tool possono darti un certo indirizzo sull’originalità di un libro.

Va tenuto conto che la tendenza alla confabulazione (il “vizio” delle AI di riempire una risposta ignota con dati irrilevanti se non erronei) rende un simile testo incline ad errori gravi.

Lo scenario descritto su Reddit è esattamente quello che il Guardian temeva.

Al momento l’utente ha preferito restare anonimo e non fornire dati, cosa che non consente ulteriori esami.

Condividi
Pubblicato da
Tags: il caso

Articoli recenti

Nessuno ti chiederà “250 Euro se ti beccano in riserva”

Il sempre più ricco filone delle multe inventate si arricchisce dell'allarme sui "250 Euro se ti beccano in riserva". Fake…

12 minuti fa

Tesla Cybertruck esplode davanti al Trump Hotel: cosa sappiamo?

Tesla Cybertruck esplode davanti al Trump Hotel di Las Vegas: questo è il caso del momento del quale, faticosamente, cominciamo…

4 ore fa

Attenti al caso di SMishing a nome Unicredit

Ci segnalano i nostri casi un messaggio di SMishing a nome Unicredit, ovvero "phishing mediante SMS", o messaggini brevi. Il…

4 ore fa

Questo video della marcia della pace con Hitler fu inscenato già all’epoca

Ci segnalano i nostri contatti un video della marcia della pace con Hitler, ambientato in America e pubblicato su X.…

4 ore fa

Finto prigioniero beffa la CNN chiudendo il 2024 in bellezza

Ci segnalano un video TikTok con una bizzarra storia, e per una volta TikTok ha detto il vero. Un tale…

23 ore fa

La finta neve nei film di Hollywood prima della CGI e la tecnologia moderna

Per la rubrica divulgazione e false credenze di oggi, dato il clima ancora vacanziero che con l'Epifania ci si appresta…

24 ore fa