Studentessa accusata di plagio con AI: scagionata, ma con conseguenze. Questa la situazione degna di un romanzo di Kafka, con un risvolto inquietante. Una AI ha accusato un essere umano di aver plagiato per mezzo di una diversa AI, costringendolo a difendersi.
Parliamo di L. Stivers, laureanda in Scienze Politiche di Santa Barbara. E di Turnitin, un prodotto che per mezzo di AI consente di capire con un ragionevole margine di dubbio se un elaborato è stato creato per mezzo di AI. E di esseri umani che il margine di dubbio l’hanno ignorato.
Abbiamo già visto in passato come gli stessi docenti universitari tendano a dichiarare che non esiste modo per distinguere un elaborato a mezzo AI da un pessimo elaborato di un umano poco ispirato.
Strumenti di identificazione dei testi scritti mediante AI possono dare una certa percentuale di possibilità: ma una possibilità che non sempre è realtà.
Come è successo alla signorina Stivers, che dopo aver depositato un elaborato mediante gli appositi strumenti online dell’università (una analisi di una sentenza della Corte Suprema: del resto anche nei nostri esoneri di Giurisprudenza e Scienze Politiche capita l’analisi di sentenze delle corti superiori) ha ricevuto una mail che l’avvisava di essere formalmente accusata di plagio.
Avrebbe avuto quindi un periodo di grazia per provare di non aver plagiato e l’accusa sarebbe finita in commissione disciplinare.
La studentessa ci ha messo due settimane per raccogliere prove, venendo scagionata.
In queste due settimane ha dovuto disertare diversi eventi accademici e di studio: ovviamente i suoi voti ne hanno sofferto e, secondo le norme accademiche locali, anche se scagionata dovrà segnalare a vita presso altre università e ordini professionali di aver subito un procedimento disciplinare.
Anche se assolta, tale procedimento diventerà una macchia sul suo curriculum.
Va detto che i produttori del programma antiplagio hanno contattato la studentessa fornendo ausilio e chiedendo dati perché non si provveda in futuro, rimarcando che lo strumento è un ausilio, non dovrebbe essere usato come “prova provata”.
Abbiamo già visto il caso opposto: un elaborato chiaramente erroneo e ottenuto copincollando i risultati di ChatGPT senza alcuna modifica indistinguibile da un (pessimo) elaborato scritto a mano.
In Texas un docente della facoltà di Economia e Commercio dell’Università A&M–Commerce dello stato ha rimandato i diplomi di un gruppo di studenti dopo aver di poter chiedere a ChatGTP (sic!!) se gli elaborati presentati erano stati fatti con AI ed aver ottenuto un falso risultato positivo sospendendo il giudizio in attesa di ulteriori rilievi.
Alla fine è andato tutto a posto: ma all’inizio è rimasta la sorpresa degli studenti, che si sono trovati accusati da ChatGPT di aver “cospirato” contro il loro professore per fornire in massa elaborati fatti con AI.
Teoria decisamente assurda, ma come nel primo caso dimostra che avere troppa fiducia nelle AI come mezzo per individuare altre AI è un sistema erroneo. In questo caso però c’è stato il lieto fine e la cooperazione professore-studenti.
Nel primo caso la carriera della studentessa è stata macchiata per niente.
Oggi è Natale, ricorrenza da passare in famiglia e occasione per piccoli e grandi doni. Ma Babbo Natale è un'invenzione…
In aggiornamento all'articolo del 23 ottobre, ora pare che l'Atalanta stia seriamente provando a riportare Federico Chiesa in Italia, magari…
Ci segnalano i nostri contatti una serie di foto delle Cascate di Fuoco a Yosemite, dove "La Luna si fonde…
Ci segnalano i nostri contatti un post virale su X riasssunto come "Se l'Islam non è verità, perché la Moschea…
Potete davvero aprire una macchina con una palla da tennis bucata o un tubo d'acqua? Risposta breve: no. Aprire il…
Occorrono occhi aperti con gli auguri di buon Natale 2024 su WhatsApp con migliori immagini e frasi, soprattutto in relazione…