Intelligenza artificiale: il Garante blocca ChatGPT
Intelligenza artificiale: il Garante blocca ChatGPT. E questo è l’ultimo dei guai per la rivoluzionaria interfaccia di Intelligenza Artificiale che consente, con alterni risultati, di simulare un dialogo con un essere umano. Un “motore di ricerca”, ma anche molto di più. ChatGPT al momento può scrivere testi di media complessità, proporre lanci pubblicitari o contenuti di ogni tipo, simulare un amico immaginario (ancorché in un caso iracondo e vendicativo), e anche saggi scolastici definiti (al momento) come poco ispirati e svogliati, ma in grado di ingannare una lettura casuale.
ChatGPT è qualcosa di nuovo e antico assieme: già negli anni ’80 ci divertivamo con “Eliza” , un chatterbot nato negli anni ’60 e onnipresente in forma un po’ migliorata nei microcomputer degli anni ’80 per permettere ad una generazione di bambini di divertirsi a “parlare con un computer”.
Le somiglianze tra un chatterbot e ChatGPT sono pari alle differenze: Eliza era già in grado di riformulare una domanda traendone elementi utili. ChatGPT si spinge oltre concatenando parole e concetti da una banca dati fornita dai suoi programmatori, e imparando a usarla in base alle interazioni con l’utenza. E qui casca l’asino, anzi il procedimento di limitazione.
Intelligenza artificiale: il Garante blocca ChatGPT, cosa, come e perché
Non a caso abbiamo ricordato i tempi in cui Eliza era il giocattolo nuovo di una generazione di ragazzini annoiati alla scoperta di un nuovo mondo. Nel provvedimento di limitazione del Garante c’è anche questo.
Al pari di TikTok esiste un enorme demografico di minorenni che vedono ChatGPT come un gioco, fornendo i loro dati di login e interagendo con la IA inconsapevoli delle implicazioni tecniche a livello di privacy della cosa.
OpenAI dovrà quindi munirsi di un filtro per gli utenti infratredicenni e i dovuti controlli, come fu stabilito per TikTok.
Inoltre pesa come un macigno, ed è ricordata dal Garante stesso, la questione di un Data Breach del 20 marzo relativo a comunicazioni ed all’elenco degli utenti paganti che potranno quindi accedere in anteprima alla nuova versione di ChatGPT4.
La famosa “versione 4” per la quale Elon Musk si è speso chiedendo una moratoria di sei mesi paventando gravi rischi per l’umanità.
Ai rischi dal sapore della fantascienza Gibsoniana descritti dal magnate, il Garante sovrappone rischi più pratici e concreti: se OpenAI non riuscirà a garantire il blocco dell’accesso ai minorenni e fornire garanzie di sicurezza sulla raccolta dei dati, la stessa verrà limitata e entro 20 giorni se le misure richieste non saranno ottemperate, seguirà una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.