Il professore universitario scopre un metodo semplice ed efficace per identificare il plagio generato dall’IA

L’ascesa dell’intelligenza artificiale (IA) ha senza dubbio rivoluzionato varie industrie e settori, inclusa l’educazione. Tuttavia, ha anche sollevato preoccupazioni riguardo potenziali questioni etiche, in particolare nel settore accademico. Poiché i modelli di linguaggio dell’IA come ChatGPT continuano a migliorare le loro capacità, gli educatori devono anche adattarsi e sviluppare modi per prevenire il plagio generato dall’IA.

Un professore che ha affrontato questa problematica è Terence Day, un professore di geografia fisica al Okanagan College in British Columbia. Day sostiene di aver trovato un metodo semplice per identificare il plagio generato dall’IA, che consiste nel verificare l’autenticità di ogni citazione inclusa nel lavoro richiedendo agli studenti di allegare un hyperlink per ogni riferimento.

Day ha scoperto questo approccio dopo aver sperimentato con ChatGPT e aver scoperto che i riferimenti generati dall’IA nelle sue domande a tema geografico erano fasulli. Ha poi descritto il suo metodo di rilevamento in un articolo scientifico recensito da pari pubblicato questo mese su The Physical Geographer.

“È molto facile identificare le citazioni false”, ha spiegato Day in un’intervista con Fox News. “Tutto ciò che devi fare, davvero, è controllare su Internet.”

Per fare ciò, Day ha suggerito che i professori richiedano agli studenti di fornire un hyperlink per ogni riferimento incluso in un lavoro. “Di solito viene fatto in termini di ciò che viene chiamato il DOI, l’identificatore oggetto digitale, ed è un hyperlink”, ha detto. “Clicchi su quello. Esiste? Non esiste?”

L’approccio del professore si basa sulla premessa che i modelli di linguaggio dell’IA come ChatGPT generino risposte utilizzando un processo predittivo basato sulla loro formazione limitata in un determinato campo. Di conseguenza, i riferimenti e le citazioni prodotte da questi modelli potrebbero essere sconosciuti e completamente falsi.

Day ha scoperto questo verificando i riferimenti e le citazioni di ChatGPT. Ha inserito alcuni dei titoli di giornale citati in Google Scholar, un motore di ricerca di letteratura scientifica, ma non sono apparsi. “Ero un po’ confuso e ne ho provati uno o due di più – e sempre di più”, ha spiegato. “Non ne ho mai trovato uno che fosse accurato, completo ed esistente”.

Secondo Day, tutte le citazioni da lui verificate erano apparentemente falsificate, il che lo ha portato a credere che il suo approccio fosse più affidabile rispetto ai software di IA concorrenti. “C’è un crescente interesse per il software di rilevamento del plagio, in grado di rilevare il materiale scritto dal chatbot dell’IA”, ha detto. “Il problema è che fornisce solo una probabilità che il materiale sia plagiato e non può stabilire definitivamente se è stato scritto da una persona o se è stato scritto dal ChatGPT”.

Day ritiene che la semplicità del suo metodo diminuisca l’ambiguità sulla questione se uno studente abbia copiato. “Il vantaggio dell’approccio che sto promuovendo qui è l’idea di verificare semplicemente le citazioni”, ha detto. “Se le citazioni esistono, questo… suggerisce che probabilmente è genuino”.

In conclusione, il metodo di Day fornisce un modo semplice ed efficace per prevenire il plagio generato dall’IA. Richiedendo agli studenti di allegare un hyperlink per ogni riferimento incluso nel loro lavoro, gli educatori possono facilmente verificare l’autenticità delle citazioni e individuare eventuali riferimenti fasulli prodotti da modelli di linguaggio dell’IA come ChatGPT.