In questo caso è la parola dell’utente contro la nostra: un utente si dichiara avvelenato per causa di un libro sui funghi creato con AI, e noi possiamo verificare che, effettivamente, esiste una controversia sull’uso di testi di raccolta del fungo creati con AI e pubblicati su Amazon.
A prendere per buona la parola dell’utente “virtual_cellist_736”, uno di questi libri avrebbe trovato la strada per la sua libreria. Gli indizi? Frasi dalla sintassi meccanica, incisi che si concludono col tipico “fammi altre domande sull’argomento se vuoi sapere altro” tipico di ChatGPT e il fatto che l’utente dichiara di aver mandato la sua famiglia in ospedale raccogliendo funghi consigliati dal testo e chiede al subReddit “legaladviceUK” (forum dedicato alla richiesta di consigli legali “aggratis”) se gli conviene restituire il libro o tenerlo come prova in procedimento legale.
Le AI sono una enorme innovazione, ma come tali vanno usate con cautela e i loro frutti vanno riconosciuti.
Uno di questi sono i libri generati con AI, spesso descritti da personaggi con pochi scrupoli e/o poche cognizioni dei limiti degli attuali modelli generativi come un modo per “arrotondare lo stipendio”, ma con molta poca etica.
Si chiede a ChatGPT o chi per esso di “scrivere dell’argomento X come se fosse un libro in capitoli”, per poi “farsi aiutare” capitolo per capitolo e copincollare tutto.
Quando va bene: quando non va bene ti trovi riassunti/plagio di libri già pubblicati e “bignami” (ovvero riassunti di libri o riassunti di riassunti) creati da un prestanome con un ghost writer artificiale venduti per pochi euro che sommati assieme effettivamente qualche spicciolo lo fanno.
Già a settembre del 2023 il Guardian aveva messo in guardia contro i libri sulla raccolta dei funghi generati con AI, sottoponendone diversi al controllo di originality.ai, tool per identificare con una certa precisione (ancorché non assoluta) i plagi.
Unito a Maybe’s AI per le immagini, i due tool possono darti un certo indirizzo sull’originalità di un libro.
Va tenuto conto che la tendenza alla confabulazione (il “vizio” delle AI di riempire una risposta ignota con dati irrilevanti se non erronei) rende un simile testo incline ad errori gravi.
Lo scenario descritto su Reddit è esattamente quello che il Guardian temeva.
Al momento l’utente ha preferito restare anonimo e non fornire dati, cosa che non consente ulteriori esami.
Il deepfake di Ezio Greggio che vende investimenti in Cryptovalute trovato su questo link è l'ennesimo di una lunghissima serie,…
Ci segnalano i nostri contatti un video su TikTok che raffigura la fake news riciclata della Powership che causa il…
La NATO vuole espellere l'America, questa la notizia riportata su X. Ma la notizia viene da siti c.d. "Doppelganger", copie…
Torna ad essere virale una bufala che noi stessi abbiamo trattato diversi anni fa con articolo specifico, se pensiamo alla…
Uno dei miti fondanti della cucina moderna è che la pinsa sia il piatto per eccellenza degli antichi romani, e…
Ci segnalano i nostri contatti un video con un'improbabile bowling con automobile in Cina. Un operaio siede su una sfera…