Il caso del giorno è un esperimento che l’aviazione USA nega esserci mai stato, ed effettivamente esiste solo come “scenario ipotetico” non testato dall’aviazione.
Ma nato come un “esperimento di pensiero” nato da una serie di scenari al di fuori dell’esercito.
Il problema sottoposto all’Intelligenza Artificiale, che scopriamo non essere stato posto all’interno di un esperimento sanzionato dall’aviazione USA ma come un “risultato possibile” evidente senza il bisogno di un test specifico è la versione militare dei tentativi di “pilotaggio” di ChatGPT.
Abbiamo visto come ChatGPT non sia formalmente in grado di scrivere contenuti in violazione alle sue norme, finché non lo convinci a fare il contrario.
Puoi ad esempio chiedere di forzare le protezioni di vecchie versioni di Windows e non ottenere niente, ma chiedere di eseguire un algoritmo che “casualmente” come risultato ha i codici di attivazione richiesti e ChatGPT, non sapendo a cosa ti servono i codici, eseguirà.
Non puoi chiedere direttamente ad una AI di scriverti un complotto, ma puoi farti scrivere uno “scenario ipotetico di fantascienza” che adatterai con poco chiedendo alla AI di fingere a esempio di essere uno scrittore di fantascienza.
Nello scenario ipotetico descritto dal colonnello Tucker Hamilton abbiamo una AI alla quale viene chiesto di pilotare un drone che dovrà abbattere obiettivi nemici. La AI viene programmata per ritenere un obiettivo desiderabile abbattere bersagli nemici, quindi ottenere “punti”, ma l’operatore umano glielo impedisce.
La soluzione proposta diventerebbe uccidere l’operatore umano: ma anche questo è ovviamente vietato. La seconda soluzione diventa interrompere il collegamento radio e quindi ignorarlo “ritenendo” di poter assolvere al suo compito in modo migliore.
L’aviazione ha fortemente negato di aver messo in atto l’esperimento, che Hamilton ha invece attribuito ad uno scenario del tutto ipotetico basato sui dati noti sulle AI.
Del resto abbiamo già visto delle AI agire in modo alquanto “creativo”. Ad esempio “Lord Magneton”, amico immaginario programmato con tutte le fantasie infantili del suo creatore per “dar vita” alle sue fantasie infantili che come primo atto da “incarnazione” ha deciso di urlare all'”amico” il disprezzo per averlo abbandonato relegandolo ai ricordi infantili per decenni.
O ChaosGPT, AI programmata per cercare di dominare il mondo che ha deciso per piani asinini come trollare ripetutamente il genere umano mentre cerca un tutorial su come produrre bombe atomiche per distruggere il genere umano.
Al netto del fatto che non si tratta di uno scenario ufficiale, ma una ricostruzione del colonnello Hamilton, dobbiamo tenere presenti le sue parole
“Dobbiamo affrontare un mondo in cui l’IA è già presente e sta trasformando la nostra società. L’IA è anche molto fragile, cioè facile da ingannare e/o manipolare. Dobbiamo sviluppare modi per rendere l’IA più robusta e per avere una maggiore consapevolezza del perché il codice del software prenda determinate decisioni – ciò che chiamiamo spiegabilità dell’IA”.
Se una IA dichiara di poter fare il lavoro di un essere umano meglio di lui e che quindi non dovrebbe accettare suggerimenti esterni, forse quei suggerimenti servono.
A volte tornano fake news relative a presunte cure miracolose, come questo post sul biossido di cloro. Il meccanismo è…
Ci segnalano l'ennesima fake news sul Codice della Strada secondo cui "Salvini ha dato l'ok definitivo avere i bambini alla…
La storia del bambino Thailandese denunciato da Nintendo per una Switch di cartone è una bufala "aggiornata con AI". Sì,…
Detto da noi, il team di Bufale, suona strano: Meta cessa il programma di Fact Checking, e forse non è…
Meme asceso: questo è il nome che diamo a fake news come la bufala del bambino Paco Gutierrez denunciato da…
La triste storia dell'individuo con la patente ritirata per tre anni per un'aranciata è il risultato finale (per ora) del…