De maker van ChatGPT heeft nu ook een programma waarmee teksten die zijn geproduceerd op basis van kunstmatige intelligentie herkend kunnen worden. Teksten gemaakt door ChatGPT zijn over het algemeen niet zomaar te onderscheiden van teksten geschreven door mensen. ChatGPT levert daardoor problemen op, onder meer in het onderwijs, omdat het programma ook een paper of antwoorden op tentamenvragen kan formuleren.
Maker OpenAI waarschuwt dat de nieuwe tool genaamd AI Text Classifier niet volledig betrouwbaar is. Wel kan het een indicatie geven. In Engelstalige testen haalde het programma 26 procent van de teksten geschreven door kunstmatige intelligentie eruit. "Een stuk betrouwbaarder dan andere systemen die ChatGPT proberen te herkennen", schrijft de maker. De teksten geschreven door mensen werd in 9 procent van de testen foutief aangemerkt als "waarschijnlijk door AI geschreven".
Hoe langer de ingevoerde tekst, hoe groter de kans dat AI Text Classifier kon herkennen of de tekst geschreven was door een mens of niet. Bij minder dan duizend tekens is de tool wel "erg onbetrouwbaar" en daarom is dat geen optie. OpenAI heeft hem gratis beschikbaar gemaakt, om van gebruikers te horen of de "imperfecte classifier" toch een uitkomst kan bieden. Daarnaast werkt de maker nog aan verbeteringen.
OpenAI raadt aan om oordelen niet geheel te baseren op de AI Text Classifier. Wel kan het een aanvulling zijn op andere methoden om de bron van een stuk tekst te bepalen.
De Radboud Universiteit Nijmegen waarschuwt studenten woensdag om ChatGPT niet te gebruiken. Het hulpmiddel is niet toegestaan en valt binnen de definitie van fraude of plagiaat, benadrukt de universiteit. Wel zoekt Radboud naar een manier om de technologie te betrekken in het onderwijs, op een manier waarmee het leerprocessen verbetert. Ook andere onderwijsinstellingen gaven eerder al aan te worstelen met het programma.