ChatGPT: Garante sospenderà limitazione se la società ottempererà
Sulla questione di ChatGPT si è scritto molto, e molto sbagliato: la novità che il Garante sospenderà limitazione se la società ottempererà alle richieste.
Vanno premessi infatti una lunghissima serie di fattori e miti che tutti hanno preso per sbagliati.
Mito uno: “Il Garante ha chiuso ChatGPT”
Il Garante non ha l’autorità per chiudere un sito. Il Garante può, come ha fatto nel provvedimento iniziale, preannunciare sanzioni per il trattamento dei dati scorretto, in questo caso l’assenza di filtri per impedire ai ragazzini infratredicenni di consegnare i loro dati agli adulti, informative e basi giuridiche del trattamento per l’addestramento degli algoritmi.
Tema non peregrino, dato che anche ditte come Samsung hanno dovuto inibire ai loro dipendenti adulti l’uso di ChatGPT per il rischio fondato che essi andassero a consegnare dati aziendali privati ad OpenAI.
Il Garante ha sempre chiesto alla società di rispondere alle loro domande: la società di fatto ha risposto chiudendo tutto e dichiarando che avrebbe risposto dopo.
Elemento questo che, secondo logica, comporta quantomeno il riconoscimento dell’anomalia ma che per i fanboy delle “Sorti umane e progressive” è diventato la solita gazzarra, già vista ai tempi di Immuni, per cui “La privacy ci ruba il futuro, abolite la privacy per darci il giocattolo nuovo!” (leggerete maggiori dettagli sul brillante articolo di Domani).
Dal punto di vista delle PR la fuga di OpenAI dall’Italia si è trasmutata nel “Garante cattivo che ferma il futuro, abolite la privacy se non avete niente da nascondere”.
Un vero e proprio incubo da fantascienza sci-fi in cui buttarsi perché “le AI fanno il lavoro che gli umani non vogliono più fare”. Perlopiù male e in modo ripetitivo e svogliato, con una base dati poco chiara, ma questo non è il punto.
Mito due: “Solo l’Italia e i paesi con la dittatura vogliono fermare le AI perché le AI liberano la gente!”
Come abbiamo visto, il Garante Italiano ha fatto solo quello che le autorità di Francia, Germania e Irlanda, nonché Canada, hanno iniziato a pensare di fare per le medesime ragioni, seguendo teorie universitarie (vedi università di Sidney).
Non si tratta quindi dell’estemporaneo rigurgito di una “dittatura fassista” (sic!), ma una seria e concreta preoccupazione. Anche perché, se proprio volessimo giocare al gioco degli allarmi, scopriremmo che vere e proprie dittature di fatto non potrebbero che profittare dalla proliferazione di AI senza controllo alcuno, nemmeno di privacy.
Abbiamo avuto infatti di vedere come la proliferazione di AI senza controllo è la migliore amica di complottisti e fontirusse, passando in scioltezza dalla raccolta di dati alla creazione di testi per complottisti e “pseudopersone” con tanto di volto e biografie per diffonderle.
E se è possibile “automatizzare” una AI per raccogliere dati idonei per comportarsi come il megalomane cattivo di un fumettone e gestire un canale Twitter dove minaccia il genere umano mentre “Cerca le bombe su google”, ipotizzate uno scenario in cui “AutoGPT” viene usato per manipolare una intera legione di bot in grado di spostare consensi e inquinare dibattiti con foto e dati generati proceduralmente.
Tema questo non previsto da quelli richiesti del Garante, ma sicuramente arginato da una maggiore consapevolezza sull’insieme di dati forniti, sufficiente peraltro a stroncare alle radici l’idea dell'”AI come libertà contro la privacy dittatura”.
Mito tre: Garante sospenderà limitazione se la società ottempererà, ovvero il Garante non ha interesse a “chiudere ChatGPT”
La formulazione dell’ultimo provvedimento del Garante ferma peraltro tutte le discussioni di Lana Caprina sull’accezione della rubrica del primo provvedimento, ovvero “Garante blocca ChatGPT”.
Eccezione dove anche persone autodichiaratasi esperta è caduta nella trappola del “giudicare un provvedimento dal titolo”, come se “La Capanna dello Zio Tom” fosse un libro di carpenteria che insegna a costruire tuguri.
Le richieste sono anche assai ragionevoli: verifica dell’età entro settembre, chiara informativa (nonché, ovviamente, gestione alle spalle della stessa) del dato dell’utente ai fini dell’addestramento del modello, trasparente indicazione dell’uso dei dati e un vero e proprio modello di opposizione al trattamento che non sia “mandaci una mail e poi si vede”.
Entro il 30 Aprile avremo quindi le risposte del caso.
Immagine di copertina: Lviv, Ukraine, Open AI chatbot
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.