El professor d'Agricultura de la Universitat de Texas Jared Mumm tenia un pla per evitar que els seus alumnes usessin ChatGPT per realitzar els seus treballs de final de curs: demanar-li al propi sistema d'intel·ligència artificial que es xivés dels estudiants que havien requerit els seus serveis. Va copiar, i va pegar al chatbox els assajos rebuts i la màquina li va respondre que més de la meitat dels escrits eren "seus", així que el docent no va dubtar a suspendre els (presumptament) fullers. Però els alumnes no havien fet trampa, sinó que van ser calumniats.

Segons ha explicat a Rolling Stone una persona coneixedora dels fets, els alumnes acusats de copiar han estat privats temporalment dels seus diplomes de graduat. Després de rebre la xivatada de ChatGPT, Mumm va enviar un correu electrònic dilluns al grup d'estudiants informant-los que havia corregit les notes de les seves tres últimes redaccions del semestre: alguns havien rebut una "X" al curs perquè havia comprovat si havien utilitzat el programari per escriure els treballs i el bot afirmava haver estat l'autor de cadascun, argumentava el professor.

Xat GPT és una eina molt poderosa en mans dels docents, però només si es fa servir bé. “Copi i enganxo les vostres respostes i dirà si ha generat el contingut”, va advertir a la classe, sense tenir en compte que realment ChatGPT no funciona així. El que Mumm sembla que ignorava és que el chatbot no està fet per detectar material compost per IA, ni tan sols material produït per ell mateix. I se sap que de vegades emet informació errònia perjudicial.

Per demostrar la poca fiabilitat de ChatGPT a l'hora de saber si una IA és l'autora d'un treball, l'usuari de Reddit Delicious_Village112 va decidir fer un experiment: va preguntar al xatbot si la tesi del professor Mumm era producte d'una intel·ligència artificial i efectivament, ChatGPT va assegurar que “El text conté diverses característiques que concorden amb el contingut generat per IA”.

Afortunadament per als alumnes, la universitat ha pres cartes a l'assumpte i estan “investigant l'incident i desenvolupant polítiques per abordar l'ús o el mal ús de la tecnologia d'IA a l'aula”. Els estudiants es reuniran ara individualment amb Mumm després del desastrós incident de la IA que els ha pogut costar el curs. vol dir que el problema no era el ChatGP ni els alumnes, sinó Mumm  que no va fer l'us correcta de l'eina.  Mumm, reflexionem-hi, no sigui que prenguem mal.