Ci segnalano i nostri contatti un post X che parla delle “vittime dimenticate a Gaza”, interessante per molte ragioni. E tutte che riguardano il fatto che si tratta dell’ennesimo caso di “slop”.
Per slop, ricorderanno i nostri lettori, intendiamo contenuti virali “a basso costo” creati con la diffusione ormai massiccia delle AI (in questo caso l’interoperabilità totale tra Grok, la AI di X e sistemi di generazione immagini) che consentono di creare veri e propri raduni di “zombie cibernetici” dove non si comprende chi vi è cascato, chi è il bot (quindi mai stato vivo) creato da AI per condivere post creati con AI e chi appare giusto per deridere gli altri.
Quindi abbiamo una foto che è un evidente tarocco, ma evidente nel modo più grossolano possibile. I personaggi col tipico “incarnato plastificato” delle foto diffuse su X ultimamente, un punteggio del 78% di “ovviamente fake” su Maybe’s AI Art Detector, personaggi dalle dita in disordine e/o “a mazzarella” e la totale assenza di luci verosimili, con prospettive e sorgenti luminose del tutto arrangiate.
Tutte parti della foto che al momento i sistemi di generazione mediante AI interoperabili con Grok non sono in grado di riprodurre perfettamente.
Possiamo già quindi ritenere che probabilmente un account “spunta blu” abbia verso il pubblico responsabilità che impediscono di usare una foto creata con AI per sensibilizzare su un grave problema perché “eh, ma il concetto è quello che conta” è la madre di ogni bufala, e se un fatto storico viene “rinarrato” con le fake news anziché testimonianze concrete esso viene banalizzato e ridotto a niente.
Ma c’è anche un altro problema: il fallimento delle Community Notes.
Strumento nato per cercare di fermare il disastro ferroviario che X è diventato a colpi di troll e fake news, le Community Note sono diventate non più un luogo dove riportare il fact checking, ma uno sfogatoi per “Eh ma il concetto è quello che conta” e altri frustrati che dietro l’anonimato cercano di rendere autorevoli commenti che non lo sarebbero.
In questo caso abbiamo un anonimo pronto a giurare che una foto evidentemente in AI “provenga da diversi video” senza postare alcun video che contenga la foto suddetta (che non esiste essendo un prodotto dell’AI: dal video proviene una veduta usata come “prompt”, ovvero come frame da far modificare all’intelligenza artificiale stessa aggiungendo le figure coi cellulari e ritoccando la scena per renderla più “scenica”)
Effettivamente, il video citato riporta gli stessi personaggi: ma Grok consente, grazie alla sua capacità di integrarsi con sistemi di generazione immagini, di accettare come prompt, come indirizzo di partenza, personalità esistenti.
Come Grok ci ha dato foto di Trump e Kamala in atteggiamenti affettuosi, Grok consente di prendere il video coi ragazzini feriti e “rimetterli in scena” .
Seguita da una nota in cui un utente, a caso, dichiara che la scena “è messa in scena” perché, in una foto immobile, qualcuno muoverebbe la gamba (probabilmente facendo riferimento ad uno dei video che, ricordiamo, non comprende la scena)
Infine abbiamo qualcuno che prova a ricordare che tutto questo ha reso le Community Note una vera e propria barzelletta: ma egli viene inascoltato e i bot e i diffusori di fake news sono arrivati pure lì
Concludendo, non solo siamo invasi dallo slop, ma possiamo dichiarare le Community Note di X un esperimento fallito e l’introduzione di Grok il viatico per introdurre ogni sorta di “slop” in un social che già si dimostra ogni giorno che passa strumento di diffusione di fake news per impostazione di default.
Si torna a parlare del fantomatico video della Luna gigante girato all'interno del Circolo Polare Artico, nel nome dell'ennesima bufala…
È diventato virale, così tanto da avere persino un posto nella mostra al femminile della Lucca Comics appena trascorsa il…
L’Inter è riuscita ad acciuffare i tre punti contro il Venezia, dopo un match in cui il VAR ha avuto…
Ci segnalano i nostri contatti un video su TikTok che dovrebbe mostrare una statua di Lucifero a Torino. Il video…
La definizione di mansplaining da manuale è "l'atteggiamento paternalistico con cui un uomo cerca di spiegare ad una donna qualcosa che…
Ci segnalano i nostri contatti un post X di un profilo di Satira che adombra il caso di App Io…