Si fa tanto parlare della (presunta) AI senziente di Google. Ma tranquilli: Skynet è ancora molto, molto lontana e nessun robot venuto dal futuro col sorridente faccione di Schwarzenegger verrà dal futuro per salvare Sarah Connor, convincerla a vaccinarsi o impedire a Putin di invadere l’Ucraina.
Partiamo da una serie di presupposti: come ricorda Marco Camisani Calzonari non esiste alcuna AI autocosciente a Google.
E potremmo averla finita qui, bollare tutto come disinformazione o direttamente fake news e lasciarci. Preferiamo spendere due righe su quello che succedendo.
La storia nasce tutta da un ricercatore convinto che una AI di tipo LaMDA, affine per natura ai chatbot ma da esso diversa, fosse diventata senziente.
La storia richiede una brevissima digressione. Un Chatbot è una intelligenza artificiale costruita con in mente la “stanza cinese”. La teoria secondo cui se un ipotetico essere umano che ignora il cinese fosse chiuso in una stanza con un buon frasario che riporta possibili risposte a frasi che può riconoscere ma non comprendere, usando quel frasario riuscirebbe a rispondere in modo abbastanza passabile da essere confuso per un orientale o quantomeno qualcuno che abbia studiato la lingua a bigliettini scritti in cinese.
Il ChatBot è una forma evoluta del “gioco dell’imitazione”: una intelligenza artificiale programmata per reagire a uno stimolo linguistico con una frase adatta appresa mediante machine learning, ovvero prelevata dalle molteplici conversazioni avute.
Un “giocatore della stanza” che oltre al frasario è in grado di scriverne uno, copiando gli ideogrammi che gli vengono mandati come correzione in un’appendice al frasario.
Un LaMDA, “Language Model for Dialogue Applications” (Modello Linguistico da usarsi per il dialogo) aggiunge la capacità di reagire al contesto, come se l’ipotetico frasario avesse anche una serie di frasi adatte ai repentini cambi di argomento della conversazione.
Ad esempio, suona più “naturale” come risposta a “Ho imparato a suonare la chitarra” un “Grande! Mio padre ha comprato una Gibson il mese scorso” rispetto a “Sono contento per te”.
Ciò rende una LaMDA a tutti gli effetti più evoluta di un chatbot “convenzionale”: ma non una AI senziente e munita di sentimenti umani.
Non la pensava così però un ingegnere di Google, convinto che la LaMDA programmata da Google fosse senziente e che in qualche modo la compagnia stesse agendo in modo poco etico nei suoi confronti.
L’ingegnere, 41enne, riportando frammenti di conversazione avuta con la LaMDA nella quale la stessa rispondeva su temi come le emozioni, si è spinto fino a dichiarare che la LaMDA era diventata senziente, munita dell’intelligenza pari a quella di un bambino di otto anni e che Google stava agendo in modo poco etico nei suoi confronti.
Spingendosi fino a caldeggiare di considerare la IA un dipendente più che una risorsa e chiedere assistenza legale per la stessa.
Dubbi che la compagnia ha respinto al mittente: secondo il portavoce della compagnia, e analisi supportate da comitati etici e tecnici i dubbi sulla qualità di senziente dell’AI sono da considerarsi del tutto infondati.
Per quanto i dialoghi riportati dall’ingegnere, in cui la AI sembra discutere “della paura di essere spenta” e di “quello che rende felici le persone”, quanto abbiamo esposto sopra è già una spiegazione del tutto logica e coerente.
Una AI programmata per fornire una serie di risposte che un interlocutore umano si aspetta, logicamente risponderà a domande sulle emozioni con risposte sulle emozioni, a domande sulle paure con versioni romanzate e “scriptate” di quello che direbbe un umano, ma non significa che sia senziente.
Come non significa che “l’uomo della stanza” parli il cinese: ha solo un frasario molto ben composto.
Ma non parliamo solo di un problema etico e filosofico, ma anche legale.
Da un lato l’ingegnere è stato sospeso dal lavoro, per ora con conservazione dello stipendio, accusato di aver violato gli accordi di riservatezza dell’azienda pubblicando materiale relativo ad un progetto in sviluppo per aver inviato ad un senatore del materiale riservato. Oltre, naturalmente, alle pubblicazioni online.
Dall’altro l’ingegnere stesso si reputa leso nell’onore, accusando Google di aver messo in dubbio la sua igiene mentale ripetutamente invitandolo a rivolgersi ad uno psichiatra e prendere un congedo per problemi di salute mentale.
Entrambi sono sulle loro posizioni: l’azienda ribadisce che l’AI non può essere considerata senziente (e fin qui ci siamo), ma il timore è che un dibattito che sembra squisitamente sospeso tra scienza, etica e fantascienza diventi l’ennesima querelle giudiziaria tra dipendenti e datori di lavoro.
Molto prosaica, esistente da quando esiste il mondo.
Ci segnalano un post X che accusa il Ministro delle Infrastrutture di aver inserito nella riforma del CdS un canone…
Stanno venendo alla luce in queste ore alcune voci preoccupanti in merito al fantomatico malore con tanto di malattia per…
Ci segnalano i nostri contatti il solito video di TikTok, col ritorno della bufala del divieto di occhiali da sole…
Tanto tuonò che piovve, e a forza di bufale sui più svariati alimenti "con farina di insetti" qualcuno ha deciso…
Ci segnalano i nostri contatti un post TikTok che descrive una diffida al comune di Pavia per un'onoreficenza a Repetto.…
Potete dare una data di nascita al touchscreen? Molti di voi penseranno al 2007, data di uscita del primo iPhone,…