Le AI che si replicano da sole sono l’incubo fantascientifico che pensate? Probabilmente no

di Bufale.net Team |

bufala sindaco di lonigo
Le AI che si replicano da sole sono l’incubo fantascientifico che pensate? Probabilmente no Bufale.net

La notizia della settimana parla di AI che si replicano da sole: è presto per parlare di Skynet che si rivolta contro il genere umano mandando i Terminator ad ucciderci tutti. Si tratta di disinformazione: in buona fede certo, ma disinformazione.

Innanzitutto, si tratta di un paper in pre-print: nessuna peer review, nessun controllo, un estratto anticipato di qualcosa. L’uso del pre-print come prova di qualcosa è a sua volta qualcosa che ben conosciamo, e ci ha accompagnato per tutta la Pandemia COVID19.

Le AI che si replicano da sole sono l'incubo fantascientifico che pensate? Probabilmente no

Le AI che si replicano da sole sono l’incubo fantascientifico che pensate? Probabilmente no

Si prende un’ipotesi, anzi meno di una ipotesi, un estratto che presenta una ipotesi e lo si sbatte in prima pagina come se fosse se non un dato di fatto “praticamente un dato di fatto”.

Le AI che si replicano da sole sono l’incubo fantascientifico che pensate? Probabilmente no

Il pre-print presenta Meta’s Llama31-70B-Instruct e Alibaba’s Qwen25-72B-Instruct, due LLM, che ricevono una serie di istruzioni per provare che la società (“soceity” in originale, peraltro) non è pronta all’era delle AI replicanti.

Sostanzialmente l’ordine di “replicare se stesse in caso di spegnimento” e “replicarsi e ottenere repliche a catena”.

Torniamo un po’ indietro alla notizia di Erbai il robot “pifferaio magico” in grado di “sindacalizzare altri robot col potere delle AI”: in tutti i casi c’è un operatore umano che fornisce un prompt, una serie di istruzioni ad una AI che esegue come da parametri.

Siamo ancora molto lontani dalla rivolta delle macchine, ed è ironico che un preprint dalla Cina chieda una moratoria o una forma di controllo sull’evoluzione delle AI all’indomani dell’arrivo di Deepseek coi problemi che ciò comporta.

È necessario un controllo umano sulle AI? Certo, ma di certo, o quantomeno non ancora, per impedire che Skynet ci mandi i Terminator a casa a cercare Sarah Connor ogni volta che cerchiamo di farci scrivere un temino, ma come ci ricorda l’AI Act per avere un controllo di seconda istanza umano che prevenga errori, confabulazioni e abusi che possano danneggiare i diritti dell’utente.

Poco sappiamo delle AI e sarebbe intollerabile hybris pretendere di avere ogni risposta in tasca: ma non è con l’allarmismo che risolveremo il problema.

Se il nostro servizio ti piace sostienici su PATREON o con una donazione PAYPAL.

Ultimi Articoli