Studentessa accusata di plagio con AI: scagionata, ma con conseguenze. Questa la situazione degna di un romanzo di Kafka, con un risvolto inquietante. Una AI ha accusato un essere umano di aver plagiato per mezzo di una diversa AI, costringendolo a difendersi.
Parliamo di L. Stivers, laureanda in Scienze Politiche di Santa Barbara. E di Turnitin, un prodotto che per mezzo di AI consente di capire con un ragionevole margine di dubbio se un elaborato è stato creato per mezzo di AI. E di esseri umani che il margine di dubbio l’hanno ignorato.
Abbiamo già visto in passato come gli stessi docenti universitari tendano a dichiarare che non esiste modo per distinguere un elaborato a mezzo AI da un pessimo elaborato di un umano poco ispirato.
Strumenti di identificazione dei testi scritti mediante AI possono dare una certa percentuale di possibilità: ma una possibilità che non sempre è realtà.
Come è successo alla signorina Stivers, che dopo aver depositato un elaborato mediante gli appositi strumenti online dell’università (una analisi di una sentenza della Corte Suprema: del resto anche nei nostri esoneri di Giurisprudenza e Scienze Politiche capita l’analisi di sentenze delle corti superiori) ha ricevuto una mail che l’avvisava di essere formalmente accusata di plagio.
Avrebbe avuto quindi un periodo di grazia per provare di non aver plagiato e l’accusa sarebbe finita in commissione disciplinare.
La studentessa ci ha messo due settimane per raccogliere prove, venendo scagionata.
In queste due settimane ha dovuto disertare diversi eventi accademici e di studio: ovviamente i suoi voti ne hanno sofferto e, secondo le norme accademiche locali, anche se scagionata dovrà segnalare a vita presso altre università e ordini professionali di aver subito un procedimento disciplinare.
Anche se assolta, tale procedimento diventerà una macchia sul suo curriculum.
Va detto che i produttori del programma antiplagio hanno contattato la studentessa fornendo ausilio e chiedendo dati perché non si provveda in futuro, rimarcando che lo strumento è un ausilio, non dovrebbe essere usato come “prova provata”.
Abbiamo già visto il caso opposto: un elaborato chiaramente erroneo e ottenuto copincollando i risultati di ChatGPT senza alcuna modifica indistinguibile da un (pessimo) elaborato scritto a mano.
In Texas un docente della facoltà di Economia e Commercio dell’Università A&M–Commerce dello stato ha rimandato i diplomi di un gruppo di studenti dopo aver di poter chiedere a ChatGTP (sic!!) se gli elaborati presentati erano stati fatti con AI ed aver ottenuto un falso risultato positivo sospendendo il giudizio in attesa di ulteriori rilievi.
Alla fine è andato tutto a posto: ma all’inizio è rimasta la sorpresa degli studenti, che si sono trovati accusati da ChatGPT di aver “cospirato” contro il loro professore per fornire in massa elaborati fatti con AI.
Teoria decisamente assurda, ma come nel primo caso dimostra che avere troppa fiducia nelle AI come mezzo per individuare altre AI è un sistema erroneo. In questo caso però c’è stato il lieto fine e la cooperazione professore-studenti.
Nel primo caso la carriera della studentessa è stata macchiata per niente.
Tanto tuonò che piovve, e a forza di bufale sui più svariati alimenti "con farina di insetti" qualcuno ha deciso…
Ci segnalano i nostri contatti un post TikTok che descrive una diffida al comune di Pavia per un'onoreficenza a Repetto.…
Potete dare una data di nascita al touchscreen? Molti di voi penseranno al 2007, data di uscita del primo iPhone,…
Iniziano ad essere più insistenti del solito le voci sull'addio a Favij oggi, ma Lorenzo Ostuni non è morto. La…
Ci segnalano i nostri contatti una card in lingua inglese che dichiara che sotto il Governo Meloni è stato espluso…
L'articolo 69 del Codice della Strada appena approvato prevede l'introduzione dell'alcolock. Si tratta di un oggetto per cui in realtà…