Door onze website te bezoeken, gaat u akkoord met onze privacybeleid met betrekking tot cookies, trackingstatistieken, enz.
Meld u nu aan voor gratis ondersteuning van ons Cybersecurity Services Centre
Meld je aan voor gratis ondersteuning op het gebied van cyberbeveiliging
Woon het Ransomware Defence Summer Bootcamp bij in Amsterdam, juni 2026
Neem deel aan ons gratis zomer bootcamp over de verdediging tegen ransomware
Schrijf je in voor de online livecursus Foundations of Cybersecurity en AI
Leer online over de fundamenten van cyberbeveiliging en AI
Dit rapport, dat in de zomer van 2024 is onderzocht, onderzoekt het toegenomen gebruik van AI-chatbots in de academische wereld na de lancering van ChatGPT in 2022 en de reactie van onderwijsinstellingen door middel van AI-detectietools. Het bespreekt de wisselende effectiviteit van deze tools bij het identificeren van door AI gegenereerde inhoud, met problemen zoals valse positieven en valse negatieven. Het rapport belicht ook ethische kwesties rond privacy, nauwkeurigheid en het gebruik van AI in het onderwijs. Sommige instellingen heroverwegen het gebruik van detectietools en kiezen ervoor om AI op verantwoorde wijze in hun curricula te integreren.
Deze gids is in de eerste plaats bedoeld voor universiteiten en andere instellingen voor hoger onderwijs die deelnemen aan het Google.org Cybersecurity Seminars Program. Hij is gericht aan de Faculty Champions en EDI Champions van deze programma's. Naast de Google.org Cybersecurity Seminars kan deze gids ook relevant zijn voor andere organisaties die zich bezighouden met praktisch cybersecurityonderwijs.
De lancering van ChatGPT in 2022 wekte wereldwijd belangstelling voor kunstmatige intelligentie (AI) en leidde tot een wijdverbreid gebruik van AI-chatbots, ook door studenten. Na de opkomst van AI-chatbots uitten instellingen voor hoger onderwijs hun bezorgdheid over “oneerlijk gebruik van door kunstmatige intelligentie gegenereerde inhoud in een academische omgeving”.”1 en de “originaliteit en geschiktheid van de door de chatbot gegenereerde inhoud”.2
Om ongepast of oneerlijk gebruik van dergelijke chatbots op te sporen en aan te pakken, zijn AI-detectietools steeds populairder geworden. Standaardplagiaattools, zoals TurnItIn, zijn nu ook in staat om door AI gegenereerde content op te sporen, met wisselende resultaten en tegen verschillende prijzen.3 De meeste AI-detectietools in de academische wereld zijn geïntegreerd in bredere onderwijsplatforms, zoals Moodle, Canvas, Blackboard, Brightspace, Schoology of Sakai.4
AI-detectietools identificeren gegenereerde tekst door middel van patroonherkenning in plaats van deze te vergelijken met een database, zoals traditionele plagiaatcontroleprogramma's doen. Taalmodellen worden getraind op basis van enorme hoeveelheden tekstgegevens om probabilistische taalregels te leren, die ze gebruiken om nieuwe inhoud te creëren. Gegenereerde tekst vertoont echter vaak voorspelbare patronen, zoals consistente zinsstructuren, overmatig gebruik van bepaalde voegwoorden en woordenschat, en voorspelbare zins- of alinea-lengtes. Detectietools zijn bedoeld om deze patronen op te sporen en kunnen ook traditionele plagiaatcontroles bevatten om tekst te identificeren die mogelijk rechtstreeks uit de trainingsgegevens van het model is overgenomen.5
Toen AI-detectietools voor het eerst werden uitgebracht, haastten instellingen voor hoger onderwijs zich om ze in onderwijsplatforms te integreren. De meeste, zo niet alle, AI-detectietools kunnen echter worden omzeild als er voldoende tijd en moeite in wordt gestoken.6 Sommige instellingen voor hoger onderwijs komen daarom terug op hun besluit om AI-detectoren te gebruiken. In 2023 hebben Vanderbilt, Michigan State, Northwestern en de Universiteit van Texas in Austin hun Turnitin AI-detectoren uitgeschakeld, daarbij verwijzend naar de hierboven besproken problemen met de effectiviteit.7 Andere onderwijsinstellingen zullen waarschijnlijk volgen, aangezien het mogelijk is dat detectietools meer problemen veroorzaken dan ze oplossen.8 Sommige academische instellingen schakelen niet alleen AI-detectietools uit, maar zoeken ook naar manieren om LLM's op ethische en productieve wijze in hun curricula op te nemen.9
Bovendien zijn er nieuwe “humanizer”-tools uitgebracht waarmee LLM-gebruikers AI-detectietools kunnen omzeilen door “zinnen te herformuleren, structuren te wijzigen en gevarieerde woordenschat te gebruiken”, waardoor de kans op AI-detectie aanzienlijk wordt verkleind.10 Uit eerste onderzoek blijkt dat parafrasetools de detectie van AI aanzienlijk bemoeilijken.11 De Washington Post ontdekte bijvoorbeeld dat Turnitin moeite heeft met het identificeren van door AI gegenereerde inhoud wanneer de tekst menselijke en door AI gegenereerde inhoud combineert door middel van parafrasetools.12
Hoewel Turnitin een nieuwe AI-functie voor het detecteren van parafrases heeft uitgebracht voor zijn AI-detectietool,13 dergelijke reacties creëren een moeilijke marktsituatie voor AI-detectie, waarbij andere bedrijven overschakelen op andere bedrijfsmodellen,14 of sluiten.15
Hieronder vindt u een selectie van de belangrijkste AI-detectietools in alfabetische volgorde. We hebben ook openbaar toegankelijke informatie opgenomen over de effectiviteit van de detectie, de integratie met onderwijsplatforms, de prijzen (in USD) en de releasedatum en/of updatdatum. Houd er rekening mee dat de meeste van de hieronder vermelde AI-detectietools voornamelijk effectief zijn tegen ChatGPT-3.5.
| AI-detectietool | Is er integratie in onderwijsplatforms? | Prijzen (USD) | Datum van publicatie/bijwerking |
| Compilatie | Ja: Moodle, Brightspace, Canvas, Microsoft Teams, Blackboard, Open LMS | Geen informatie gevonden16 | februari 2023 |
| Content op schaal | Ja: beperkte informatie | $49/maand17 | Geen informatie |
| Inhouddetector AI | Geen informatie | Geen informatie gevonden | 202318 |
| Copyleaks | Ja: Moodle, Canvas, Blackboard, Brightspace, Schoology, Sakai | $7,99-$13,99/maand19 | januari 2023 |
| Crossplag | Geen informatie | $7-$100/maand20 | januari 2023 |
| GPT detecteren | Geen informatie | $7-$29/maand21 | Geen informatie |
| Duplichecker | Geen informatie | $110-$2000/jaar22 | 2024 |
| Ga Winston | Geen informatie | $12-$32/maand23 | februari 2023 |
| GPT-Zero | Ja: Canvas, Coursify.me, K16-oplossingen, NewsGuard | $10-$23/maand24 | januari 2023 |
| Originaliteit | Ja: Moodle, Scribbr | $14,95-$30/maand25 | november 2022 |
| Plagiaatdetector (AI-detectie) | Geen informatie | $110-$330/jaar26 | Geen informatie |
| Quillbot | Ja: Er zijn geen details openbaar beschikbaar over welke platforms. | $0-$8,33/maand27 | Geen informatie |
| Jong boompje | Onduidelijk | $0-$12/maand28 | januari 2023 |
| Scispace | Waarschijnlijk, maar gebrek aan informatie | $0-$8/maand29 | Geen informatie |
| Turnitin | Ja: Brightspace, Scribbr | $3/student/jaar30 | april 2023 |
| Niet detecteerbaar AI | Geen informatie | $5-$14,99/maand31 | mei 2023 |
| Wordtune | Waarschijnlijk, maar gebrek aan informatie | $0-$9,99/maand32 | januari 2023 |
| Schrijvers AI-detector | Geen informatie | $0-$18/maand33 | Geen informatie |
| ZeroGPT | Ja: Er zijn geen details openbaar beschikbaar over welke platforms. | $0-$18,99/maand34 | januari 2023 |
In de context van AI-detectietools treden valse positieven op wanneer een AI-detectietool ingediende inhoud ten onrechte identificeert als gegenereerd door AI. Sommige studies geven aan dat AI-detectietools een hoog percentage valse positieven hebben en dat slechts enkele AI-detectietools een significant laag percentage valse positieven hebben.35 In een academische omgeving kan dit betekenen dat werk van studenten ten onrechte wordt gemarkeerd als gegenereerd door AI, terwijl het in werkelijkheid door mensen is gemaakt. Er zijn ook verschillen gevonden, afhankelijk van welk AI-model wordt gebruikt om de ingediende tekst te genereren voor de AI-detectietool om te testen, en vice versa, met uiteenlopende resultaten in verschillende onderzoeken.36 Bovendien wordt inhoud van niet-moedertaalsprekers van het Engels vaker ten onrechte geclassificeerd als AI-gegenereerd, wat uiteraard een probleem is voor onderwijsinstellingen met studenten met verschillende achtergronden.37
In de context van AI-detectietools treden valse negatieven op wanneer een AI-detectietool er niet in slaagt om ingediende inhoud te identificeren als gegenereerd door AI. Sommige tools hebben een lage gevoeligheid getoond en identificeerden slechts 15% van de ingediende monsters correct als gegenereerd door AI.,38 terwijl andere een bijna perfecte score behalen bij het classificeren van door mensen geschreven inhoud, met slechts 3% van AI-gegenereerde voorbeelden die verkeerd worden geclassificeerd.39 Over het algemeen variëren de resultaten sterk in nauwkeurigheid, afhankelijk van welke AI-detectietool wordt gebruikt. Een studie suggereert dat slechts twee van de belangrijkste AI-detectietools alle 126 monsters correct hebben geclassificeerd als AI- of door mensen gegenereerd.40 Andere onderzoekers beweren dat AI-detectietools meer valse negatieven produceren bij het analyseren van meer geavanceerde taal.41
Over het algemeen varieert de effectiviteit van AI-detectietools afhankelijk van welke tool wordt gebruikt en tegen welk model. Uit een onderzoek bleek dat AI-detectietools effectiever zijn met ChatGPT-3.5-content en minder effectief met ChatGPT-4, met uitzondering van Copyleaks, Turnitin en Originality.ai, die een nauwkeurigheid van meer dan 83% hadden bij het detecteren van ChatGPT-4-content.42 Deze studie concludeerde dat “het feit of een detector gratis of betaald is, geen goede indicator is voor de nauwkeurigheid ervan”.,43 Hoewel tegenstrijdige bevindingen (met een kleine steekproefomvang) voorlopig suggereren dat betaalde AI-detectietools beter lijken te zijn dan gratis AI-detectietools.44 Studies richten zich over het algemeen ook op de effectiviteit van AI-detectietools tegen ChatGPT, waarbij andere LLM's buiten beschouwing worden gelaten. Dit kan te wijten zijn aan de grotere populariteit van de modellen van OpenAI in vergelijking met andere modellen, zoals Gemini, Mistral of Command.
Het gebruik van AI-chatbots AI in de academische wereld roept belangrijke ethische vragen op, te beginnen met reputatieschade voor zowel studenten als instellingen voor hoger onderwijs. Voor studenten kan het niet melden van het gebruik van door AI gegenereerde inhoud en het doen alsof deze van henzelf is, schadelijk zijn voor hun lopende opleiding en toekomstige carrière. Universiteiten kunnen op dezelfde manier worden beschuldigd van het mogelijk maken van plagiaat, fraude en het niet handhaven van academische integriteit.
Het gebruik van AI-detectietools zonder de juiste waarborgen roept echter even grote bezorgdheid op rond privacy en toestemming, met name wat betreft de contractuele afspraken tussen universiteiten en de leverancier van de tool. Deze bezorgdheid betreft onder meer wat er met geüploade content gebeurt, hoe deze wordt opgeslagen en toestemming voor het gebruik van geüploade content in toekomstige trainingsdata.
Bovendien kunnen AI-detectietools, zoals in het vorige hoofdstuk besproken, door mensen geschreven inhoud ten onrechte identificeren als AI (vals-positieve resultaten) of door AI gegenereerde tekst niet detecteren (vals-negatieve resultaten). De nauwkeurigheid varieert sterk, waarbij sommige tools beter zijn in het detecteren van ChatGPT-3.5. Ten slotte spelen ze een kat-en-muisspel met methoden om detectie te omzeilen, waaronder software die specifiek inhoud genereert die niet detecteerbaar is door standaard AI-detectietools.45
AI-detectietools dragen ook bij aan bredere discussies over toegang, gelijkheid en milieu-impact. Studenten kunnen AI gebruiken om het vertalen en begrijpen van cursussen te ondersteunen, vooral als ze in een Engelssprekend land studeren en afkomstig zijn uit een niet-Engelssprekende of andere gemarginaliseerde achtergrond met historisch gezien minder kansen op universitair onderwijs. Toegankelijkheidskwesties doen zich ook voor vanwege de commerciële beschikbaarheid van LLM's; meer welgestelde studenten kunnen zich wellicht geavanceerdere modellen veroorloven en/of hun werk door meerdere LLM's laten verwerken, waardoor de kans op detectie aanzienlijk afneemt.46
Het Google.org Cybersecurity Seminars Program ondersteunt cybersecurity-seminars aan geselecteerde universiteiten en andere in aanmerking komende instellingen voor hoger onderwijs in Europa, het Midden-Oosten en Afrika, om studenten te helpen meer te leren over cybersecurity en carrièremogelijkheden op dit gebied te verkennen. Het programma ondersteunt actief de uitbreiding van cybersecuritytrainingen aan universiteiten, om zo het diverse personeelsbestand op te bouwen dat nodig is om de meest kwetsbare organisaties te helpen potentiële cyberaanvallen te voorkomen. Het programma richt zich ook op nieuwe risico's van kunstmatige intelligentie (AI) en biedt studenten inzicht in de veranderingen in het cyberdreigingslandschap als gevolg van AI, zodat ze AI effectief kunnen integreren in praktische cybersecuritymaatregelen.
Van deelnemende universiteiten wordt verwacht dat zij gelijkheid, diversiteit en inclusie binnen hun programma's actief bevorderen. Zij moeten een sterke participatie van personen met verschillende achtergronden aanmoedigen en een inclusieve onderwijsomgeving creëren, waardoor de algehele leerervaring wordt verrijkt en de cyberbeveiligingsgemeenschap wordt versterkt.