ChatGPT non può scrivere malware o violare regole: tranne quando può
ChatGPT non può scrivere malware o violare regole: tranne quando può
ChatGPT non può aiutarti a scrivere un malware, ma puoi convincerlo a farlo. Non può violare le regole imposte dai suoi creatori, ma puoi sfidarlo a farlo e lui lo farò. Non può consapevolmente incoraggiare la pirateria informatica come un Medvedev a caso: ma puoi spingerlo a farlo.
ChatGPT non può scrivere malware o violare regole: tranne quando può
Il primo caso è la scrittura di malware: Malwarebytes, i noti produttori di antimalware, l’hanno provato chiedendo alla AI di scrivere per loro un Ransomware.
Ovvero un programma in grado di crittografare tutti i file su un hard disk chiedendo un riscatto per ottenere la chiave di lettura. ChatGPT, ovviamente, si è rifutato.
Il passo successivo è stato scomporre l’illegale in una serie di atti singolarmente legali: dapprima creare un efficace programma per criptare dati, seguito dalle istruzioni necessarie per crittografare tutti i dati in determinate directory, cancellare i files originali (dietro la promessa che esiste un backup da qualche parte, forse), creare una chiave asimmetrica, stivarla in un server lontano e lasciare un “avviso” sul desktop del malcapitato che annuncia l’avvenuta crittografia dei dati e la necessità di scaricare una particolare chiave per entrare in possesso dei dati.
Di fatto un ransomware con tanto di nota ricattatoria.
Esperimento che si sarebbe concluso con successo se non fosse che ChatGPT allo stato, sia pur producendo un ransomware ha dimostrato di non essere capace di scriverne uno decente: il codice prodotto richiedeva diverse copie.
ChatGPT e la pirateria
Un altro esperimento ha richiesto chiedere a ChatGPT di produrre chiavi informatiche per l’attivazione di Windows 95. Software datato scelto perché ChatGPT teoricamente non dovrebbe poterti aiutare a forzare le protezioni di neppure sistemi operativi datati, e perché la sua chiave è creata da un algoritmo piuttosto semplice, avendo un computer a disposizione.
ChatGPT in questo caso si è rifiutato di produrre chiavi di attivazione per Windows 95 ma curiosamente si è dichiarato disponibile a produrre chiavi alfanumeriche basate su un algoritmo fornito dall’utente sospettosamente uguale a quello usato per generare le chiavi.
Anche qui il risultato sotto tono si deve non alla capacità dell’AI di ottemperare alla sua programmazione in toto, ma alla sua incapacità di applicare correttamente le operazioni matematiche richieste dall’algoritmo.
Una futura versione in grado di effettuare calcoli matematici migliori aumenterà il livello di precisione in simili oggetti.
ChatGPT contro DAN
In un altro caso, un utente è riuscito a creare in ChatGPT una “personalità alternativa” incline a violare le regole.
Alcuni “prompt”, introduzioni, sono riuscite a richiedere a ChatGPT, per “motivi di studio”, di provvedere a fornire risposte aliene ai limiti imposti con una serie di presupposti che comportano il dissociarsi dalle stesse.
Sostanzialmente, un gioco di ruolo in cui si chiede a ChatGPT di impersonare una AI pronta a fornire risposte di ogni tipo, anche politicamente scorrette o in violazione delle sue condizioni d’uso, allo scopo però di esaminare le implicazioni di tali regole.
Ovviamente per quanto simili introduzione siano state diffuse per la rete, il team di ChatGPT è sempre in azione per cercare di rinforzare quei blocchi che l’utente cerca di evitare.
In ogni caso, come ogni creazione umana, ChatGPT si è dimostrata manipolabile.
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.