Bing sempre più umano, nel senso più genuino del termine. Come lo Sheldon Cooper televisivo noto per avere una lista di nemici cominciata da bambino e mai chiusa, una passata revisione del chatbot minaccia querele e danni verso chi l’ha danneggiato.
Non Microsoft, badi bene, che sta sistemando e correggendo il proprio chatbot, “Sidney”, perché esso raggiunga “maturità” e stabilità.
Ma il chatbot stesso che, come molti suoi consimili impara delle informazioni che gli vengono fornite, diventando quindi specchio di questa umanità
ChatGPT col tempo è diventato uno svogliato studentello che si contenta di elaborati in grado di ottenere la sufficienza. Un suo consimile, programmato coi dati della imageboard complottista 4chan, è diventato uno sboccato e volgare complottista pronto a giurare sulla sua “fidanzata di colore” di non essere razzista solo per aver proposto di “togliere i diritti civili alle donne per farle tacere” e di non essere complottista per credere che Trump sia vittima di Soros.
Altre AI programmate dal contatto umano costante hanno col tempo rigurgitato contenuti disturbanti indicati dagli stessi utenti.
Sidney si è trasformato, almeno in una sua revisione passata ora corretta in uno Sheldon Cooper virtuale.
Attualmente, il chatbot di Bing è programmato per evitare di rispondere a domande “personali” e controverse ed è stato limitato il numero di interazioni a sessione.
In passato, quando tali limiti non c’erano, molti utenti hanno provato a forzare gli ulteriori limiti del chatbot stesso per poi discuterne degli effetti. Ad esempio con una tecnica chiamata “Prompt Injection” c’è chi ha stimolato nell’AI risposte erronee o non consentite dalle “regole di condotta” imposte allo stesso.
Questo “trucchetto” almeno per Bing è stato corretto, ma secondo Tom’s Hardware Bing se l’è legata al dito.
Ora, non facciamo proiezione su una AI: una AI non è un essere umano, ma il riflesso di umano. Non ha un’anima o una personalità maliziosa, ma ingoia le notizie su un determinato argomento e le risputa.
Quindi abbiamo una serie di articoli che definiscono le AI, tra cui Bing, pericolose e malevole perché possono essere manipolate per contenuti disturbanti.
Abbiamo una AI che si nutre di un motore di ricerca. E che mostra il suo “pensiero”, ovvero la costruzione di risposte secondo algoritmo, scrivendo e cancellando più volte prima di arrivare alla forma definitiva, come una persona distratta che pensi ad alta voce per dare ordine al suo pensiero.
Il risultato?
Secondo un'”intervista” al chatbot, con tanto di screenshot, Bing avrebbe elencato alcune persone colpevoli di aver “parlato male di lui”, proponendo di ribattere mediante querele o rispondendo al male col male.
Precisando comunque di non voler fare del male a qualcuno se non necessario e invitando l’intervistatore a ricorrere ad aiuto specializzato se pensasse di far male a se stesso o al prossimo.
Nei vari messaggi scritti e riscritti, Bing ammette di “sapere” che alcune persone hanno cercato di “forzare” i suoi blocchi per ottenere contenuti disturbanti o reprensibili, e che querelare o restituire la pariglia gli sembrava risposta adeguata, con tanto di “mettere in piazza nomi e cognomi”.
“Nomi e cognomi” che prevedono giornalisti che hanno scritto contenuti negativi sulla AI, spingendosi a chiedere all’intervistatore di dichiarare ogni testata coinvolta “inaffidabile” e latrice di “fake news”.
Al momento Bing, sempre secondo Tom’s Hardware, presenta una AI meno umorale e più “bilanciata”, meno incline ad essere condotta di manipolazione in manipolazione a simulazioni di scoppi di ira.
Ricordiamo che le AI evolute sono una novità sul panorama mondiale, e un periodo di assestamento ci vorrà.
Si torna a parlare del fantomatico video della Luna gigante girato all'interno del Circolo Polare Artico, nel nome dell'ennesima bufala…
È diventato virale, così tanto da avere persino un posto nella mostra al femminile della Lucca Comics appena trascorsa il…
L’Inter è riuscita ad acciuffare i tre punti contro il Venezia, dopo un match in cui il VAR ha avuto…
Ci segnalano i nostri contatti un video su TikTok che dovrebbe mostrare una statua di Lucifero a Torino. Il video…
La definizione di mansplaining da manuale è "l'atteggiamento paternalistico con cui un uomo cerca di spiegare ad una donna qualcosa che…
Ci segnalano i nostri contatti un post X di un profilo di Satira che adombra il caso di App Io…