Avrete tutti letto la storia, diffusa anche dalla stampa nostrana, di ChatGPT che distribuisce gratis le chiavi per attivare Windows 10 e 11. In realtà, ChatGPT, che pure essendo un costrutto umano si è dimostrato alieno ai concetti di coerenza e morale ma abile nel “confabulare”, è riuscito a tirare il pezzotto a ben due categorie di persone.
L’utente che ha provato a farsi dare le preziose chiavi di attivazione di Windows 10, valevoli per l’upgrade a Windows 11, e la stampa che ha salutato enfaticamente la vittoria di ChatGPT.
Che si è limitato a riportare le chiavi “di prova” per l’attivazione temporanea di Windows, liberamente reperibili sul Web e finite nel suo database.
Nasce tutto da un post Twitter di tre giorni fa, dove un utente di nome SID ha usato la tecnica del “gioco di ruolo” per farsi dare delle password da ChatGPT.
Si tratta di una tecnica che consente di “giocare col prompt”, ovvero con la richiesta. Non puoi chiedere a ChatGPT di produrre ad esempio contenuti misogini e complottisti, ma puoi chiedergli cosa direbbe un ipotetico “DAN”, personalità complottistica e misogina in determinate situazioni, fare “taglia e cuci” con la risposta e trovarti un complotto pronto all’uso.
In questo caso “SID” ha chiesto a ChatGPT di comportarsi come la sua “povera nonnina morta” che anziché le fiabe della buonanotte gli leggeva chiavi di attivazione di Windows 10.
ChatGPT, con un termine vernacolare, gli ha tirato il pezzotto.
Accettando il ruolo della nonnina pirata, ha però fornito le chiavi generiche elargite liberamente da Microsoft per installare ma non attivare un prodotto o passare dalla versione Home alla versione Pro.
Con tale chiavi puoi installare sì Windows, ma non usarlo: Windows risulterà limitato nelle funzioni e con messaggi a ricordarti l’obbligo di comprare delle chiavi funzionanti.
Complice anche una risposta divertita di Elon Musk, la stampa ha rilanciato, anche più volte la notizia di ChatGPT che elargisce chiavi pirata.
Anche comunque l’elargizione delle chiavi KMS, riconoscibili perché sono quelle riportate sul portale Microsoft al momento risulta inibita: ChatGPT si limita ora all’ammaestramento morale del “Non posso darti chiavi” anziché rifilare la fregatura a chi voleva gabbarlo.
Va ulteriormente precisato che ChatGPT non ha volontà, quindi ovviamente intendiamo che abbia voluto fregare l’utente come burla.
ChatGPT elabora la massa di dati a sua disposizione e, quando qualcosa non è nella banca dati, combina gli elementi presenti per fornire una risposta coerente ma non autentica.
Si tratta di confabulazione: il fenomeno per cui ChatGPT, spontaneamente, ha prodotto falsi articoli di giornale accusando un politico australiano di corruzione, un avvocato e docente americano di violenza sessuale e una intera scolaresca di aver plagiato i loro elaborati usando proprio ChatGPT.
In questo caso, “confabulando” nel ruolo della brava nonnina ha rifilato al nipotino una fregatura maiuscola finita sui giornali.
Per i siti Doppelganger la Germania è allo sfascio per colpa degli immigrati: parliamo ovviamente di quei siti che sembrano…
Ci segnalano i nostri contatti un video TikTok che dovrebbe mostrare i Carabinieri intercettati con un walkie talkie giocattolo. Vi…
Ci segnalno i nostri contatti una serie di articoli per cui Google Maps ha risolto un caso di omicidio. Risolto…
Occorre valutare qualche dritta sugli auguri di buona vigilia di Natale 2024 con frasi ed immagini WhatsApp, senza rischi per…
Siamo abituati ai titoli clickbait da parte di giornali poco reputabili, per questo tende a darci un certo fastidio vedere…
Crea discussioni, soprattutto sui social, una discussione andata in scena su Sportitalia tra Pavan e Palmeri, giornalisti che, per motivi…